Posts Tagged ‘Techniques’

Demain, une autoroute solaire à Marseille ?

27 septembre 2022

L’énergie solaire, bien qu’intermittente, présente l’avantage d’être inépuisable et pourrait permettre de couvrir largement nos besoins en électricité, à condition de pouvoir être stockée, ce qui n’est pas si simple… Depuis des années maintenant on voit fleurir des panneaux photovoltaïques sur nombre de toits, initialement surtout dans le but de revendre l’électricité produite au réseau public à un prix garanti très attractif, désormais pour consommer directement l’électricité ainsi produite, ce qui limite la question de son transport… On voit aussi de plus en plus des bâtiments publics mais aussi des hangars agricoles, industriels ou commerciaux qui offrent généralement de belles surfaces de toitures, se recouvrir de panneaux photovoltaïques.

Cave viticole de Bonnieux, dans le Vaucluse, largement recouverte de panneaux photovoltaïques depuis une bonne dizaine d’années (source © Cave de Bonnieux)

Une alternative particulièrement judicieuse aux centrales solaires installées au sol sous forme de panneaux simplement posés sur supports fixes ou orientables, voire avec concentration sur une tour centrale, mais qui occupent de l’espace, au détriment d’autres usages. Certains ont bien essayé de développer des panneaux solaires sur ombrières pour les installer au milieu des cultures, mais avec un risque de concurrence voire de gêne pour les travaux agricoles. D’où l’idée d’installer les panneaux photovoltaïques de préférence dans les lieux où ils ne font pas concurrence à d’autres usages. Outre les toitures ou les anciennes décharges difficiles à réhabiliter, comme celle d’Entressen, dans la Crau, ce sont maintenant les canaux de distribution d’eau voire les plans d’eau qui sont sollicités, même si l’installation s’y traduit par un surcoût significatif.

Des panneaux photovoltaïques déjà très présents sur les hangars agricoles, et ce n’est qu’un début… Un dessin signé Félé

Dans le même esprit, l’adjoint du maire de Marseille en charge de la transition écologique, Sébastien Barles, vient de proposer d’installer des panneaux solaires au-dessus des autoroutes urbaines de l’agglomération, l’A7, l’A50 et la L2. Une proposition qui s’inscrit dans la lignée de la labellisation de la ville de Marseille, retenue en avril dernier par la Commission européennes parmi les 100 villes qui visent la neutralité carbone en 2030. A l’époque, la candidature de Marseille avait un peu fait sourire tant la cité phocéenne partait de loin, après avoir fait le choix pendant des décennies du tout voiture, avec ses lacunes légendaires en matière de transports en commun, de préservation des ressources naturelles et de gestion des déchets notamment. Elle a pourtant été retenue avec 8 autres villes françaises parmi les 23 qui avaient candidaté, aux côtés des autres grandes métropoles passées en 2020 aux mains d’une municipalité à participation écologiste, à l’instar de Lyon, Paris, Nantes, Bordeaux, Grenoble ou Angers.

Marseille, retenue parmi les 100 villes accompagnées par la mission européennes en vue de la neutralité carbone d’ici 2030 (source © FNE PACA)

Et comme Marseille a un long chemin à parcourir pour atteindre cette bien hypothétique neutralité carbone d’ici 2030, il va falloir beaucoup d’imagination et de volonté politique ! D’où cette idée, un peu farfelue au premier abord, de recouvrir les autoroutes urbaines de panneaux solaires… L’écologiste Sébastien Barles n’est d’ailleurs pas tout seul à la porter et il était entouré, lors de sa présentation en conférence de presse jeudi 22 septembre 2022, notamment par le président du groupe écologiste au conseil municipal marseillais, Fabien Perez, par le président de la FNE 13, Richard Hardouin, mais aussi par le nouveau député LFI Hendrick Davi et le sénateur écologiste des Bouches-du-Rhône, Guy Benarroche.

Représentation de ce que pourrait être demain l’A50 recouverte de panneaux photovoltaïques (photo © P. Laurenson / Marsactu)

Car même si l’idée est séduisante, certains obstacles réglementaires empêchent pour l’instant sa mise en œuvre et il faudra peser politiquement pour les déverrouiller, en profitant par exemple du prochain examen de la loi sur l’accélération des énergies renouvelables. En supposant ces obstacles aplanis, il s’agirait de recouvrir 26 km d’autoroute, en commençant par un tronçon démonstrateur de 2 km sur l’A50 entre Marseille et Aubagne, la couverture permettant, non seulement de fournir de l’électricité (de quoi alimenter 6 000 logements rien qu’avec ces 2 premiers kilomètres), mais aussi de diminuer les nuisances sonores liées au trafic routier sur ces axes urbains régulièrement saturés.

Certes, la facture est un peu élevée, estimée à la bagatelle de 240 millions d’euros pour les 26 km visés à terme. Mais les élus sont optimistes pour lever les fonds nécessaires en mixant financement privés et publics (on voit mal la région PACA ne pas mettre la main à la poche pour un tel projet qui s’inscrit parfaitement dans sa prétention d’avoir « une COP d’avance »…), quitte à faire appel à la souscription des particuliers sous forme de participation pour un projet qui pourrait présenter un retour sur investissement évalué à 8 ans seulement.

Projet de serpent solaire imaginé par le suédois Mans Tham (source © Techniques de l’Ingénieur)

Ce projet s’inscrit en tout cas en droite ligne du Solar serpent présenté en 2010 par l’architecte suédois Måns Tham : une sorte de couverture semi-transparente des voies de circulation sous forme d’un revêtement en écailles constituées de panneaux photovoltaïques. Le concept avait été testé dès 2011 en Belgique sous forme de panneaux solaires posés sur le toit d’une tranchée couverte permettant au TGV de franchir en toute discrétion une zone naturelle protégée au nord d’Anvers. Un investissement de 15,6 millions d’euros qui permet de produire l’électricité dont a besoin le même TGV pour 2 heures de trajet…

Depuis, le coût des installations solaires a nettement baissé et l’opération devient de plus en plus intéressante, même si l’installation de panneaux photovoltaïques sous forme d’ombrières au-dessus de nos voies de circulation représente un surcoût qui reste très significatif par rapport à une installation photovoltaïque traditionnelle et ne peut donc se justifier que par les autres avantages recherchés. Il va donc falloir sans doute beaucoup de persuasion aux écologistes marseillais pour convaincre du bien fondé de leur projet, peut-être en argumentant que cette future couverture solaire de nos autoroutes urbaines permettra désormais de « rouler à l’ombre » même en période de forte chaleur…

L. V.

Waterloo : l’urne trop pleine s’est vidée…

4 septembre 2022

Qui n’a pas appris dans ses jeunesse ces alexandrins du grand poète Victor Hugo rendant hommage à sa manière, quelque peu dithyrambique, à cette bataille dantesque qui s’est déroulée le 18 juin 1815 et qui fut la dernière à laquelle prit part Napoléon, contraint d’abdiquer définitivement 4 jours plus tard :

Waterloo ! Waterloo ! Waterloo ! morne plaine !

Comme une onde qui bout dans une urne trop pleine,

Dans ton cirque de bois, de coteaux, de vallons

La pâle mort mêlait les sombres bataillons.

Composé quarante ans après les événements, ce poème des Châtiments, titré L’expiation, traduit bien la fascination morbide que cette bataille homérique qui opposait la France au reste de l’Europe a suscité parmi ses contemporains. Victor Hugo lui-même a visité en 1860 le champ de bataille, situé à une vingtaine de kilomètres au sud de Bruxelles, sur le plateau de Mont-Saint-Jean, après avoir écrit ces vers célèbres et pour les besoin de son roman Les Misérables.

L’infanterie française conduite par Jérôme, le frère de Napoléon, attaque le château d’Hougoumont à Waterloo, peinture de l’artiste américain Mark Churms (source © Cranston Fine Arts)

Celui-ci comprend un livre entier consacré à cette bataille mémorable dans laquelle Hugo décrit la fureur des combats lors de la charge des cuirassiers français qui se brise sur les carrés de l’infanterie britannique, avant d’évoquer le soldat Thénardier occupé à piller les cadavres au soir de la bataille et qui se retrouve récompensé pour avoir sauvé un général alors qu’il s’apprêtait à le dépouiller sans la moindre vergogne…

Comme après chaque bataille de cette ampleur, les vautours étaient nombreux à rôder une fois la mitraille apaisée, pour récupérer tout ce qu’ils pouvaient sur les cadavres encore chauds des soldats tombés au combats. Et Waterloo fut probablement une des pires boucheries de l’époque, pourtant riche en batailles sanglantes après 20 ans d’affrontements consécutifs à la Révolution française et aux guerres de conquête napoléoniennes. Selon les historiens, le bilan des 4 jours que dura la campagne de Belgique qui se solda par la bataille rangée de Waterloo, serait d’au moins 23 700 morts (certains avancent plutôt le chiffre de 40 000 tués !) et quelques 65 400 blessés toutes armées confondues, sans compter quelques 12 000 chevaux tombés au champ d’honneur.

La bataille de Waterloo, lithographie de William Holmes Sullivan datant de 1898 (source © Meisterdrucke)

Du côté français qui avait mobilisé plus de 71 000 hommes, on dénombre au minimum 11 500 tués dont 14 généraux et près de 34 000 blessés. C’est donc un véritable carnage, d’autant que les armées alliées, commandées par le duc de Wellington, sont presque aussi nombreuses et présentent des pertes encore supérieures. Cette coalition européenne mobilisée contre l’armée napoléonienne rassemble pour sa part des troupes venues de Grande-Bretagne, des États allemands de Hanovre, de Brunswick et du Nassau, mais aussi des Belges, des Néerlandais et des Prussiens (les fameux renforts commandés par Blücher, qui font basculer le sort des armes).

Charge de la cavalerie française contre les carrés anglais, tableau du peintre français Emmanuel Philippoteaux, conservé au Wellington Museum, à Londres (source © site sur la bataille de Waterloo)

Et pourtant, curieusement, les quelques fouilles qui ont été réalisées sur le champs de bataille qui a été laissé grosso modo laissé en l’état depuis 1815, ont révélé excessivement peu de restes humains. En 2015, un squelette humain a bien été mis à jour à l’occasion du chantier de construction d’un parking près du musée, et en 2019, les archéologues ont exhumé un os de jambe amputée en fouillant les vestiges de ce qui fut le principal hôpital de campagne des armées coalisées. Voilà qui paraît bien peu au vu du gigantesque charnier que tous les contemporains décrivent à l’issue de cette bataille dantesque et effroyable…

Un des carrés anglais sur lequel vient se briser la cavalerie française : le 28e régiment à Quatre Bras, peint par Elizabeth Thomson en 1875 (source © Slate)

A tel point que certains historiens s’interrogent sur le devenir de tous ces cadavres tombés dans cette morne plaine. A l’instar de l’Écossais Tony Pollard, directeur du Centre for Battlefield Archaeology à l’Université de Glasgow et qui a notamment publié en juin dernier, dans la revue scientifique Journal of Conflict Archeology une étude pour le moins surprenante. Il s’est notamment intéressé aux témoignages des très nombreux contemporains qui, souvent par simple curiosité morbide, se sont précipités sur le champ de bataille de Waterloo sitôt éteint le son de la mitraille. Leur intention n’était pas, comme la crapule de Thénardier, de venir détrousser les cadavres, mais simplement de se rendre compte par eux-mêmes de ce choc de titans qui venait de sceller le sort de l’empire napoléonien et de changer fortement le destin de l’Europe.

Plusieurs de ces témoignages émanent de Britanniques venus en nombre dans les jours qui ont suivi la bataille et qui relatent les opérations d’évacuation des blessés, dans les premiers jours, et l’ensevelissement des morts qui a pris une bonne dizaine de jours au total, sans compter le pillage qui s’est poursuivi pendant des mois.

Crémation des corps de soldats morts à Waterloo, devant le château d’Hougoumont, peint par James Rouse et publié en 1817 par William Mudford (source © Journal of Conflict Archeology)

Selon ces écrits, les innombrables cadavres d’hommes et de chevaux qui jonchaient le champ de bataille ont dû être brûlés pour tenter de réduire le volumes de corps à ensevelir. De nombreuses fosses ont été creusées à la hâte mais les monceaux de corps étaient tels que du bois était disposé au sommet de ces tas pour poursuivre la crémation et faciliter ensuite l’ensevelissement des restes, le tout en plein été, dans une puanteur que tous les témoins décrivent comme atroce…

Enterrement de soldats dans des fosses communes à la Haye sainte, peinture de James Rouse (source © Journal of Conflict Archeology)

Curieusement, malgré ces témoignages illustrés, aussi précoces que multiples, et malgré les campagnes d’investigation qui ont été menées sur le terrain, aucune de ces fosses communes n’a pu être retrouvée par les archéologues que cette disparition ne manque pas d’intriguer : que sont donc devenus les ossements des dizaines de milliers de cadavres tombés à Waterloo et enterrés sommairement sur place ?

Selon Tony Pollard, la raison principale de cette disparition étrange serait due au fait que les cadavres en question ont été en grande partie recyclés ! On savait déjà que les dents des soldats tombés à Waterloo avaient fait l’objet d’un pillage à grande échelle qui serait même à l’origine de l’essor des prothèses dentaires, les premières implantées n’étant autres que ces « dents de Waterloo » prélevées sur des cadavres…

Mais on apprend désormais que le champ de bataille de Waterloo, comme les autres lieux de confrontation majeure de l’épopée napoléonienne, ont servi en réalité dans les années 1820, de réserve de matière première pour la fabrication d’engrais agricole. Ce n’est en effet qu’en 1840 que le chimiste français Frédéric Kuhlmann a développé un procédé industriel permettant de synthétiser les superphosphates et répondre aux énormes besoins en fertilisant des gros producteurs de betterave à sucre du nord de la France. Mais, jusque-là, on avait beaucoup recours, pour la production de ces phosphates dont l’agriculture est friande, à la récupération des ossements (animaux en principe, mais aussi humains quand l’occasion se présentait), réduits en farine et exportés ensuite, notamment vers les îles britanniques.

La poudre d’os, un fertilisant naturel toujours aussi recherché… (source © Market on the web)

Un article publié dans The London Observer en novembre 1822 faisait état de ce trafic peu ragoûtant, reconnaissant qu’un soldat mort était une source de commerce des plus lucratifs puisque ses ossements, soigneusement récoltés sur les grands champs de bataille du continent étaient ensuite importées à grands frais pour être broyés et revendus aux agriculteurs du Yorkshire. Le journaliste allait même jusqu’à s’étonner que la Grande-Bretagne ait ainsi envoyé tant de jeunes soldats se faire tuer en Europe pour ensuite devoir importer leurs restes afin de fertiliser ses sols agricoles : l’économie du recyclage, qui revient fort à la mode de nos jours, ne date finalement pas d’hier…

L. V.

Un barrage pour fermer la Méditerranée ?

31 août 2022

Le détroit de Gibraltar, c’est cette porte étroite ouverte entre le Maroc et l’Espagne, par laquelle les eaux de l’Atlantique communiquent avec celle de la Méditerranée. Connue sous le nom de Colonnes d’Hercule dans l’Antiquité, elle doit son nom actuel à une déformation de l’Arabe Djebel Tariq, autrement dit, la montagne de Tariq, en référence au général Tariq ibn Ziyad, ce stratège militaire berbère qui, en avril 711, fit traverser ses troupes omeyyades pour partir à l’assaut de la péninsule espagnole.

Les côtes marocaines vues depuis le littoral espagnol à Gibraltar (photo © Pierre-Philippe Marcou / AFP / France TV info)

Large tout juste de 14 km dans sa partie la plus étroite, mais profond d’environ 800 m, ce détroit s’est ouvert il y a seulement 5,3 millions d’années, à la faveur d’une faille sismique qui s’est peu à peu élargie entre la plaque ibérique et le nord de l’Afrique. Il y a un peu moins de 6 millions d’années, à la fin du Miocène, la mer Méditerranée s’était en effet progressivement asséchée, sous l’effet conjugué de l’émergence d’un arc volcanique et de la glaciation alors en cours. Les apports d’eau des principaux fleuves méditerranéens (le Nil, le Rhône et le Pô notamment) étant insuffisants pour compenser l’évaporation de la Méditerranée, le niveau de celle-ci va baisser d’environ 1500 m ! Les cours d’eau côtiers voient leur lit s’inciser de plus en plus profondément, créent progressivement de véritables canyons à leur embouchure, dont les calanques sont les vestiges actuels.

A la fin du Miocène, la réouverture du détroit de Gibraltar se serait traduite par le déferlement assez brutal des eaux de l’Atlantique dans la Méditerranée alors quasi totalement asséchée et recouverte d’épaisses couches de sel. Une belle chute d’eau comme en rêvent tous les concepteurs d’ouvrages hydroélectriques ; Et d’ailleurs, justement, dès 1928, l’architecte allemand Herman Sörgel, projetait très sérieusement d’édifier un immense barrage hydroélectrique de 35 km de long et 300 m de hauteur à l’emplacement du détroit de Gibraltar, pour créer une dénivelée entre les deux masses d’eau et produire du courant.

Croquis du projet Atlantropa avec ses principaux ouvrages imaginés par l’Allemand Herman Sörgel (source © La marmite du 20e siècle)

Son idée, très utopique, était non seulement de fournir de l’électricité mais de baisser ainsi artificiellement le niveau de la Méditerranée, d’environ 100 m dans sa partie occidentale et même de 200 m dans sa partie orientale, grâce à deux autres ouvrages, également sources de production hydroélectrique, l’un formant un seuil entre la Sicile et les côtes tunisiennes, et l’autre barrant le détroit des Dardannelles pour retenir l’eau de la mer de Marmara. Un projet totalement pharaonique, baptisé du nom d’Atlantropa et que Sörgel défendra avec beaucoup d’enthousiasme jusqu’à sa mort en 1952, qui se serait traduit par l’assèchement de plus de 660 000 km² de terres ainsi gagnées sur la mer, soit plus que la superficie totale de la France.

Herman Sörgel avait pensé à tout, même à creuser un canal artificiel permettant de relier Venise, désormais loin dans les terres, ou à prolonger le canal de Suez autant que nécessaire. Il avait même prévu de doubler ce projet d’un gigantesque barrage hydroélectrique sur le fleuve Congo pour développer en parallèle ce continent désormais rendu plus accessible. Effrayé par la montée du nazisme et face à l’impuissance de la Société des Nations à réguler les conflits naissants, son idée était de rapprocher les pays européens (avec leurs possessions coloniales africaines d’alors) dans une communauté de destin liée à la mise en œuvre et à la gestion (par un organisme supranational) de ce vaste projet. Sörgel avait ainsi calculé que la construction du supercontinent nouveau exigerait de chaque membre de tels investissements que ces derniers n’auraient plus assez de moyens pour financer une guerre. Et en cas de menace d’un des pays membre, il suffirait pour le calmer de lui couper l’alimentation en électricité depuis la centrale de Gibraltar : redoutable !

Curieusement, les pays européens n’ont pas mis en œuvre le projet de Sörgel et ont préféré se faire la guerre… Mais voilà que l’idée d’ériger un barrage à Gibraltar revient sur le tapis, justifiée désormais par la montée du niveau des mers ! Aux dernières nouvelles, en 2016, le niveau de la Méditerranée s’était déjà élevé de 16 cm depuis le début du XXe siècle, et celui de l’Atlantique d’environ 31 cm, mais le mouvement est en train de s’accélérer et on s’attend désormais sur les côtes méditerranéennes à une élévation d’environ 30 cm d’ici 2050 et au moins 60 cm voire 1 m d’ici la fin du siècle…

Le détroit de Gibraltar vu du ciel (source © Article 19)

De quoi inquiéter sérieusement les populations des villes côtières qui se retrouvent ainsi exposées à une érosion accrue à chaque nouvelle tempête. Chacune entreprend ainsi des travaux de plus en plus titanesques, érigeant pour se protéger des digues toujours plus hautes, des épis en enrochements et même, comme à Venise, des systèmes de portes pour se protéger de la mer. Une course contre la montre aussi coûteuse que vaine, que certains imaginent donc désormais de remplacer par des investissements communs, un peu comme l’avait proposé Herman Sörgel en son temps…

Et l’on voit donc resurgir l’idée d’un barrage à Gibraltar, pour protéger de manière globale la Méditerranée contre l’élévation du niveau moyen des océans. C’est notamment le biologiste marin, Alexandre Meinesz, qui, dans son dernier ouvrage intitulé Protéger la biodiversité marine, publié aux éditions Odile Jacob, s’inquiète des effets dévastateurs sur la flore et la faune méditerranéenne de l’augmentation de la température mais aussi de l’acidité de l’eau, sous l’effet de nos émissions de gaz à effet de serre.

Alexandre Meinesz et son dernier ouvrage (source © Twitter / La Terre au Carré)

Il propose, pour y remédier, d’édifier en travers du détroit de Gibraltar un barrage muni d’écluses pour la navigation, afin de réguler les apports de l’Atlantique de manière à compenser l’évaporation tout en maintenant le niveau de la Méditerranée à celui du siècle dernier, c’est à dire 20 cm en dessous de sa cote actuelle. Le raisonnement n’est pas absurde puisque cela permettrait d’économiser d’innombrables ouvrages de protection disséminés tout le long du littoral et sans cesse rehaussés dans une course perdue d’avance contre le réchauffement climatique. Il faudrait d’ailleurs prévoir aussi un dispositif similaire au niveau du canal de Suez pour limiter l’intrusion des eaux de la mer Rouge.

Ha-Phong Nguyen a planché pendant son master sur la faisabilité d’un barrage à Gibraltar (source © EPFL)

En 2014, un jeune élève-ingénieur de l’École polytechnique fédérale de Lausanne, Ha-Phong Nguyen, a étudié la faisabilité d’un tel projet, prévoyant d’implanter un barrage dans la partie la moins profonde du détroit de Gibraltar, longue de 27 km et qu’il suffirait de fermer partiellement pour maintenir le niveau actuel de la Méditerranée malgré l’élévation attendue de l’Atlantique, tout en laissant le passage sur 1 km pour la navigation et la faune marine. Cerise sur le gâteau, l’ouvrage permettrait, en accélérant les courants, de produire autant d’électricité qu’une petite centrale nucléaire…

Un projet repris en 2016 par Jim Gower, de l’Institut des sciences de la mer du Canada, qui publiait dans la revue Natural Hazards le fruit de ses études, estimant le coût d’un tel ouvrage de 25 km de long, implanté à 284 m sous la mer, à la bagatelle de 45 milliards d’euros.

Exemples de réalisations actuelles de plus de 30 km de long dont s’est inspiré l’étude sur la fermeture de la mer du Nord, respectivement en Corée du Sud et aux Pays-Bas (source © Bull. of the American Meteorological Society)

De quoi titiller l’esprit inventif de nos voisins hollandais toujours à l’affût d’un projet d’aménagement hydraulique et inciter le docteur Sjoerd Groeskamp, océanographe à l’Institut royal néerlandais pour la recherche en mer, à publier en février 2020 avec son collègue suédois Joakim Kjellson de GEOMAR, dans le Bulletin of the American Meteorological Society, une étude imaginant cette fois la construction de 2 barrages : l’un de 161 km de long entre les côtes bretonnes et le sud de l’Angleterre, et l’autre de 475 km entre le nord de l’Écosse et les côtes norvégiennes. Ces ouvrages permettraient d’empêcher l’élévation du niveau de la mer du Nord et de protéger ainsi les côtes, souvent très urbanisées, de tous les pays concernés, pour la modique somme de 250 à 500 milliards d’euros, soit à peine 0,1 % du PNB de l’ensemble de ces pays sur 20 ans : qui a dit que l’adaptation au changement climatique allait nous coûter cher ?

L. V.

Isowat : c’est la ouate qu’ils préfèrent…

23 août 2022

Pendant (trop ?) longtemps, les Français, comme du reste une bonne partie des pays occidentaux, ont trouvé bien commode d’expédier à l’autre bout du monde les matériaux recyclables issus du tri (plus ou moins) sélectif de nos déchets, tout en important massivement l’essentiel de nos produits de consommation, désormais fabriqués quasi exclusivement dans les pays asiatiques à faible coût de main d’œuvre.

Un dessin de Patrick Chapatte, à la sauce française… (source © China Hegemony)

Sauf que la Chine ne veut plus servir de poubelle du monde et refuse désormais d’importer la plupart de nos déchets. Et sauf que ce modèle de partage à l’échelle mondiale entre ceux qui produisent et ceux qui consomment, a atteint ses limites. La pandémie de Covid19 a fait prendre conscience à certains de nos responsables politiques, bien peu clairvoyants jusque-là, à quel point cette dépendance complète de nos approvisionnements même les plus vitaux avait rendu notre pays vulnérable.

Les industriels eux-mêmes commencent à percevoir les dangers d’une telle stratégie de délocalisation à outrance : explosion des contrefaçons, guerre des approvisionnements pour l’accès aux matière premières, difficulté à maîtriser la qualité de production, retard de livraisons, renchérissement et coût écologique considérable du transport massif par porte-containers géants (même si ce poste fait la fortune de certains à l’image de la CMA-CGM et de son patron, Rodolphe Saadé), sans même parler du coût social colossal du chômage de masse qui en résulte en Europe…

La délocalisation, une lubie du capitalisme mondialisé : un dessin du regretté Tignous (source © Agora vox)

Bref, l’heure pourrait être enfin à la relocalisation d’une partie de notre production, en particulier dans le domaine de la transition écologique qui semble un marché prometteur, maintenant que l’on commence (enfin !) à prendre conscience de la nécessité et de l’urgence de prendre des mesures pour réagir contre ce fléau provoqué par l’Homme.

L’isolation thermique des bâtiments constitue, de ce point de vue, une incontestable priorité, justifiée non seulement par l’importance de son impact sur le réchauffement climatique mais aussi par la nécessité d’économiser nos approvisionnements énergétiques largement importés. Les bâtiments, du fait de la déperdition de leur énergie, constituent en effet dans notre pays la deuxième principale source d’émission des gaz à effet de serre, responsables du réchauffement climatique, derrière le transport routier, quand même… Un foyer français consacre en moyenne 60 % de ses dépenses énergétiques pour simplement chauffer et climatiser son logement, ce qui en fait un poste majeur de notre consommation nationale en électricité, gaz, fuel et charbon. Et en ces temps de tension internationale sur le prix des matières premières énergétiques, l’argument économique a souvent plus de poids que celui de l’impact environnemental…

Déperdition thermique : nos maisons largement responsables du réchauffement climatique… (source © La maison Saint-Gobain)

Toujours est-il que les choses bougent (enfin !) sur le front de l’incitation à isoler les bâtiments. Dès le 25 août de cette année 2022, la loi Climat et résilience, adoptée en 2021, interdit désormais d’augmenter le loyer des logements classés dans la catégorie F ou G à l’issue du diagnostic de performance énergétique. A compter du 1er septembre 2022, ce diagnostic, dont les modalités ont été revues, devient obligatoire pour vendre des biens de ce type, considérés comme des passoires thermiques. Et à partir du 1er janvier 2023 il deviendra carrément interdit de mettre en location des logements consommant plus de 450 kWh/m² par an, en énergie finale. Une mesure qui sera étendue à partir de 2025 à l’ensemble des logements de classe G (au delà de 420 kWh/m² par an), puis, à compter de 2028 à ceux de classe F, avant d’être appliquée aussi aux classes E, mais pas avant 2034.

Un dessin signé Erik Tartrais (source © Ville de Saint-Quentin en Yvelines)

La démarche peut paraître particulièrement prudente et progressive mais son impact ne sera pas négligeable et inquiète d’ailleurs fortement les propriétaires, notamment les bailleurs sociaux, qui vont devoir se lancer dans de gros chantiers d’isolation thermique de leur parc. Pour la seule mesure applicable dès 2023, ce sont déjà pas moins de 90 000 logements qui pourraient être concernés en France selon le Ministère, tandis que le nombre de logements actuellement de classe G est estimé à 600 000 (et le double pour ceux de classe F !)…

Isolation de combles à base de ouate de cellulose (source © Isowat Provence / Fundtruck)

Face à de tels enjeux, les industriels s’organisent et on ne peut que saluer, parmi d’autres cette initiative de la société Isowat Provence, créée en 2018 par Cyril Coillot à Aix-en-Provence, un ancien spécialiste de la gestion des déchets chez Veolia. Associé avec un fabricant de savon, il s’est mis en tête de développer un isolant thermique en ouate de cellulose, entièrement à base de matériaux recyclés. Papiers, cartons, journaux et magazines, récupérés dans les poubelles jaunes ou auprès des industriels et commerçants, font l’objet d’un procédé innovant de tri-optique de défibrage qui permet d’obtenir en entrée de processus une matière première de qualité, débarrassée de toute impureté, à partir de déchets ainsi recyclés, le tout en favorisant l’insertion professionnelle, credo des fondateurs de cette jeune start-up.

Isowat Provence, un projet en devenir… ( source © Entrepreneurs pour la Planète)

Celle-ci a bénéficié depuis 2018 d’un soutien par les pouvoirs publics, dont la Région PACA et l’ADEME et est en recherche d’un partenaire industriel pour lancer une première chaîne de fabrication permettant de valoriser localement 8000 tonnes de déchets par an pour produire jusqu’à 600 000 m² de surfaces isolantes, sans consommation d’eau, faisant ainsi d’une pierre plusieurs coups : recyclage de déchets sans les exporter à l’autre bout de la planète, création d’emploi et développement d’une filière de production locale de matériaux biosourcés à faible impact écologique, nécessaires pour accompagner les besoins d’isolation thermique de nos logements. Assurément un beau projet, mais qui reste encore à concrétiser jusqu’au stade industriel : à suivre…

L. V.

La mer Morte est-elle menacée de mort ?

4 août 2022

Cléopâtre et la reine de Saba déjà l’avaient remarqué en leur temps : la mer Morte est particulièrement riche en sels minéraux et notamment en potassium, si bien que les boues issues de ses rives étaient déjà réputées pour leurs bienfaits thérapeutiques et cosmétiques dès l’Antiquité. Une tradition qui perdure et qui continue à drainer des milliers de touristes venus faire des cures thermales et surtout flotter comme un bouchon en faisant la planche tout en lisant le journal. Une capacité portante exceptionnelle liée à cette forte teneur en sels qui peut atteindre jusqu’à 340 g/l alors que celle de la Méditerranée ne dépasse pas 38 à 40 g/l et que celle de la mer Rouge atteint tout au plus 50 à 58 g/l. Aucun animal marin ni même les algues ne peuvent survivre dans un tel milieu, ce qui lui vaut d’ailleurs son nom de mer Morte…

Les eaux turquoise de la mer Morte, tellement salées qu’on y flotte sans peine (source © Get your guide)

Sauf que rien n’est totalement immuable et que la reine de Saba ne reconnaîtrait pas les rives de la mer Morte si d’aventure elle devait repasser par là… En l’espace de 50 ans, cette mer fermée a perdu un tiers de sa superficie, tout comme la mer d’Aral ou le lac Tchad, et son niveau baisse en moyenne de 70 cm par an, une baisse qui s’est encore accélérée depuis et peut atteindre jusqu’à 1,45 m par an ! En 1900, la surface de l’eau était à – 390 m sous le niveau des mers et elle se trouve désormais à – 426 m, soit une baisse de près de 40 m depuis…

Le lac de Tibériade et ses berges verdoyantes (photo © AFP / i24)

Bien entendu, le réchauffement climatique n’améliore pas la situation en augmentant les périodes de forte chaleur qui accentuent l’évaporation, la mer Morte n’étant que l’exutoire ultime du Jourdain, ce fleuve biblique issu du lac de Tibériade et dont les eaux viennent se perdre dans la mer Morte où elles s’évaporent naturellement. Mais la cause de cet assèchement brutal est principalement liée à l’activité humaine. Dans les années 1960, l’État d’Israël, en plein expansion a eu besoin d’énormes quantités d’eau pour alimenter ses colonies de peuplement et assurer la mise en culture du désert du Néguev. Un barrage a alors été construit au sud du lac de Tibériade et plus des trois-quarts de son débit est depuis purement et simplement détourné pour les besoins des Israéliens, ne laissant plus qu’un débit qui ne dépasse pas celui de la Seine à Paris !

Vue aérienne de la mer Morte en voie d’assèchement, avec à gauche la partie sud exploitée en bassins de décantation pour extraire la potasse (source © France TV Info)

Depuis lors, les apports du Jourdain ne suffisent plus à compenser l’évaporation de la mer Morte qui s’assèche à vue d’œil. En parallèle, Israéliens et Jordaniens se sont mis à exploiter la potasse contenue dans les eaux de la mer Morte pour en faire des engrais agricoles. Toute la partie sud de la mer Morte a été transformée en gigantesques bassins de décantation pour extraire le précieux minerai, ce qui accentue fortement la vitesse de réduction du plan d’eau qui rétrécit comme peau de chagrin.

En se retirant, la mer laisse des dépôts souterrains de sols riches en sels. Le ruissellement sur les rives vient dissoudre peu à peu ces poches souterraines de sels et on assiste depuis des années à d’innombrables effondrements qui viennent miner les berges : plus de 6000 cratères d’effondrement, dont certains atteignent plusieurs kilomètres de diamètre, se sont ainsi formés, transformant les abords de la mer Morte, en de nombreux endroits, en un paysage lunaire traversé de multiples crevasses, routes et infrastructures étant peu à peu englouties au fur et à mesure que la mer se retire et que les berges s’effondrent.

Cratères d’effondrement et recul du rivage sur les berges de la mer Morte (source © Pour la science)

Pour pallier cette situation catastrophique, personne n’envisage de réduire les prélèvements en eau dans une région qui en manque déjà cruellement. En 2006, sous l’égide de la Banque Mondiale, c’est un autre projet pharaonique qui a vu le jour, consistant à construire une immense usine de dessalement d’eau de mer sur les rives de la mer Rouge, puis à creuser un gigantesque canal à travers le désert pour conduire vers la mer Morte les saumures issues du traitement, espérant que ces eaux permettraient de réalimenter suffisamment le plan d’eau en cours d’assèchement.

Les bords de la mer Morte devenue un haut lieu du tourisme également fort gourmand en eau potable (photo © You matter)

Les études ont néanmoins permis de cerner les coûts pharamineux d’un tel projet estimé à près de 10 milliards de dollars, et surtout les risques écologiques majeurs induits. Il aurait fallu pomper l’eau à plus de 120 m de profondeur pour ne pas aspirer toute la vie organique excessivement riche associée aux récifs coralliens de la mer Rouge, et sans garantie que les saumures déversées dans la mer Morte ne viennent rapidement faire virer au blanc (du fait de précipités de gypse) ou au rouge (par suite du développement de micro-algues associées aux milieux lagunaires sursaturés) les eaux de la mer Morte réputées pour leur belle couleur turquoise… Par ailleurs, la canalisation souterraine de 180 km de long envisagée pour transporter les saumures vers la mer Morte risquait fort de se rompre en cas de séisme, fréquent dans la région, au risque de rendre définitivement impropre à tout usage la nappe souterraine exploitée le long de son tracé !

La ville israélienne d’Eilat et sa voisine jordanienne d’Aqaba, au bord de la mer Rouge (photo © Hadas Parush / Flash 90 / Times of Israel)

En juin 2021, les apprentis sorciers ont finalement renoncé au projet mais la Jordanie a alors annoncé officiellement qu’elle lançait le projet de construction d’une usine de dessalement sur les rives de la mer Rouge, dans le golfe d’Aqaba, afin de fournir au pays 250 à 300 millions de m³ d’eau potable par an d’ici 2026. Un projet chiffré à 1 milliard de dollars en comptant tout le réseau de distribution d’eau à réaliser, la ville d’Aqaba étant situé à l’extrémité sud du pays, à plus de 300 km de la capitale Amman… En parallèle, la Jordanie va tenter de limiter l’urbanisation sur les zones côtières et Israël envisage de taxer les industries minières pour freiner l’extraction de la potasse.

Reste à mettre en point le dispositif pour développer une usine de dessalement d’une telle ampleur en essayant de privilégier le recours à l’énergie solaire car les conditions d’ensoleillement sont idéales pour cela en Jordanie qui par ailleurs manque de ressources énergétiques propres et produit déjà 20 % de ses besoins énergétiques à base de renouvelable. A défaut de freiner l’évaporation des eaux de la mer Morte, le soleil contribuera du moins à favoriser l’approvisionnement des Jordaniens en eau potable…

L. V.

Demain, la voiture 100 % solaire ?

2 juillet 2022

Tout le monde le sait désormais : d’ici quelques années, les voitures individuelles à moteur thermique, qu’elles soient essence ou diesel, ne seront plus que du passé, vestige d’une période révolue où l’abondance des ressources pétrolières avaient donné l’illusion d’une tout-puissance à moindre coût, au prix néanmoins d’une pollution, notamment en particules fines, de l’atmosphère de nos villes, et surtout d’un réchauffement climatique global que l’on sait désormais être irréversible. Le 8 juin 2022, le Parlement européen a ainsi voté à une large majorité l’arrêt à partir de 2035 de la vente de voitures thermiques neuves, qu’elles soient à moteur essence, diesel ou même hybride rechargeable !

Prototype de véhicule hybride Prius développé par Toyota et Sharp avec cellules photovoltaïques sur la carrosserie (source ©
Le Point)

Certes, d’autres pays comme la Chine ou les États-Unis, se sont fixés des objectifs moins ambitieux, visant plutôt une part de 50 % du parc de véhicules neufs en électrique ou à hydrogène. Mais l’on sent bien néanmoins que la tendance de fond, pour les véhicules individuels, est de tendre vers le tout électrique. Reste que tout dépend d’où vient l’électricité, et encore faudra-t-il installer les dispositifs de recharge nécessaire…

D’où l’engouement pour une technique alternative qui consiste à équiper les voitures de leurs propres panneaux solaires ! L’idée n’est pas nouvelle, comme d’ailleurs celle de la voiture électrique. Rappelons au passage que la première voiture française à moteur électrique, la Jamais contente, date de 1899 et atteignait alors la vitesse fabuleuse pour l’époque de 100 km/h… En 1912, un bons tiers des véhicules américains roulaient d’ailleurs à l’électricité, mais c’était avant le succès de la Ford T.

La Baker solaire de Charles Escoffery, avec ses panneaux solaires sur le toit (source ©
Hulton archive / Getty image / L’Usine nouvelle)

Dès 1955, un modèle réduit de voiture, la Sunmobile, équipée de cellules photovoltaïques prouve qu’un véhicule léger peut être actionné par l’énergie solaire. Cinq ans plus tard, l’Américain Charles Escoffery fait ainsi rouler la première voiture solaire, une ancienne Baker des années 1912, recouverte de 2,4 m² de panneaux solaires et qui se traîne à la vitesse de 32 km/h ! Enfin, en 1977, un professeur d’université de l’Alabama, construit la Bluebird, premier prototype de voiture solaire propulsée uniquement grâce à l’énergie de ses panneaux solaires. Dès lors, les progrès s’enchaînent et en 1982, les Australiens Hans Tholstrup et Larry Perkins réalisent la traversée complète du pays, soit 4000 km entre Perth et Sidney avec leur voiture solaire de course The Quiet Achiever, avant de fonder en 1987 une fameuse course de voitures solaires, The World Solar Challenge, pour susciter de nouvelles vocations.

Prototype de voiture solaire Sundae engagée par le Stanford Solar Car Project sur l’édition 2017 du World Solar Challenge en Australie (source © Challenges)

Ainsi, en 1985, la Sunrunner, voiture solaire sans batterie, atteint la vitesse de 66 km/h dans le désert de Mojave ! En 1987, c’est le Suisse Pierre Scholl qui se distingue en envoyant sa voiture solaire, La Sahara, parcourir une des étapes du Paris-Dakar. Les Suisses se prennent au jeu et en 1994, un bolide conçu par une école d’ingénieurs de Bienne atteint la vitesse de 127 km/h sans batterie, tandis qu’une concurrente solaire engagée dans le Tour de Sol se fait flasher à 88 km/h sur une route départementale…

En 2007, le Suisse Louis Palmer parcourt 52 000 km à travers le monde en 17 mois, au volant de son Solartaxi, un véhicule solaire à 3 roues, capable de transporter 2 passagers avec une vitesse de pointe de 90 km/h, tandis qu’en 2008, le Canadien Marcello Da Luz se lance dans un périple de 15 000 km au-delà du Cercle polaire avec son propre véhicule Power of One.

L’aventurier Raphaël Domjan, à bord du Solar Taxi au Canada en 2008 (source ©
Raphaël Domjan)

Le temps des premières commercialisations arrive dès 2006 avec l’Electric, du constructeur monégasque Venturi, une sorte de voiturette de golf avec panneaux solaires sur le toit, qui atteint 50 km/h en pointe pour une autonomie de 50 km. De son côté, une coopérative espagnole de Malaga, Evovelo, met sur le marché à partir de 2016, pour la modique somme de 4500 €, de petites voiturettes en bois aux formes courbes recouvertes de panneaux solaires flexibles et dont les performances sont sensiblement comparables.

Mö, la voiture-vélo solaire de l’Espagnol Evovelo, aux faux airs de 2-CV (source ©
Canal +)

Et voila que la société Ligthyear, aux Pays-Bas, vient de lancer sur le marché une luxueuse berline, la Ligthyear one, au prix de 150 000 €, fabriquée en Finlande. Recouverte de 5 m² de panneaux solaires, elle affiche une autonomie maximale de 725 km et peut gagner 12 km supplémentaires d’autonomie après une heure seulement garée au soleil, de quoi rentrer tranquillement chez soi après une journée de travail. Un concept adapté pour un grand nombre d’utilisateurs quand on sait que 95 % des trajets effectués quotidiennement en voiture ne dépassent pas 48 km ! Certes, le prix d’appel est un peu élevé pour ce premier modèle de luxe, mais Ligthyear a pour ambition de lancer la fabrication en série d’un nouveau modèle solaire dès 2024 pour moins de 20 000 €.

Modèle de Litghyear One avec sa carrosserie recouverte de cellules photovoltaïques noires (source ©
Europe 1)

Aux USA, la firme Aptera est également sur les rangs avec sa voiture du futur aux forme de coléoptère en matériaux composites, dont l’autonomie peut atteindre jusqu’à 1600 km, les panneaux solaires sur le toit apportant à aux seuls jusqu’à 66 km d’autonomie supplémentaire par jour. Les premières livraisons sont attendues fin 2022, à des tarifs compris entre 24 000 et 42 000 € pièce.

L’Aptera Luna, encore en cours de développement, avec ses étranges élytres (source © Automobile propre)

L’Allemand Sono Motors, quant à lui, s’apprête à commercialiser son modèle Sono Sion, un petit monospace qui devrait être vendu autour de 25 000 € et dont la carrosserie est recouverte de cellules solaires intégrées, ce qui permettra de recharger sa batterie lorsqu’elle roule ou qu’elle est garée au soleil, ajoutant jusqu’à 112 km d’autonomie supplémentaire par semaine, ce qui rend les recharges sur le réseau presque inutiles, en théorie et à condition d’éviter les parkings souterrains…

Sion, le prototype de la start-up allemande Sono Motors, avec ses panneaux solaires parsemés sur sa carrosserie (source © Renouvelle)

Peut-être verra-t-on demain, tous nos véhicules, poids-lourds y compris, recouverts de cellules photovoltaïques pour augmenter leur autonomie. Selon Sono Motors, un semi-remorque équipé d’une coque solaire en polycarbonate acquiert ainsi une autonomie supplémentaire sans recharge qui peut atteindre 30 à 55 km par jour, et ceci d’autant plus que l’efficacité des panneaux solaires ne fait que croître, ces derniers temps, atteignant désormais des rendements parfois supérieurs à 40 % alors que jusque-là, on se contentait plutôt de rendements classiques de 15 à 20 % ! Pas de doute, le futur est en marche et on roulera peut-être demain en privilégiant les jours de grand soleil…

L. V.

Cet été, sous-traitez la gestion de vos mails…

30 juin 2022

Avec le télétravail, voilà une situation qui n’est pas prête de s’arranger ! Tout le monde est devenu accro aux nouveaux outils de communication numérique et chacun passe sa vie sur son smartphone ou devant son ordinateur pour ne pas rater d’une seconde le dernier message reçu, même si son contenu est aussi futile qu’inutile…Dans le milieu professionnel il est désormais considéré comme un outrage de la dernière espèce que de ne pas répondre dans la minute à un e-mail, comme si chaque message exigeait une réponse immédiate, quitte à dire simplement qu’on a bien reçu le message et qu’on prend le temps de le traiter…

Il est loin le temps où tout se gérait par courrier et où chacun avait la patience d’attendre quelques jours, voire quelques semaines, avant de recevoir une réaction à sa demande. Être connecté en permanence pour pouvoir répondre à tout moment à n’importe quel message même le plus anodin, de son patron comme de ses subordonnés ou de ses partenaires, est en passe de devenir une exigence de base, au risque de faire baisser considérablement la productivité des professionnels, désormais incapables de se concentrer plus de 5 minutes sur un travail minutieux ou la rédaction d’une note de fond, sans devoir tout interrompre sur le champ pour tapoter sur son clavier « Bonjour, j’ai bien reçu votre proposition et je vous en remercie. Je ne manquerai pas de vous recontacter dès que possible à ce sujet et je vous adresse, en attendant, mes plus cordiales salutations… »

Un dessin de Gérard Mathieu dans la Charte pour un bon usage de la messagerie informatique dans la vie professionnelle (source © ORSE)

Cette nouvelle plaie des temps modernes est devenue tellement intrusive que plus personne ne s’étonne désormais de recevoir sur les coups de 2 heures du matin, dans la nuit du dimanche au lundi, un mail de son patron qui confirme qu’il a bien lu votre note et qu’il vous propose d’en parler de vive voix à l’occasion… Et en période estivale, même quand on est en vacances, en train de buller sur la plage, de réparer la toiture de sa vieille maison de campagne qui tombe en ruine au fin fond de la Lozère, ou de se retrouver autour d’un feu de camp au soir d’une méharée dans le désert, la tentation est grande de quand même jeter un coup d’œil à ses mails professionnels, histoire de s’assurer qu’il n’est rien arrivé d’exceptionnel en votre absence au bureau…

Lire ou ne pas lires ses mails pendant ses congés, telle est la question… Un dessin signé Alsy (source ©
Les Moutons / France 3 Régions)

Et vous voila parti pour une petite heure, ou une longue nuit, à prendre connaissance de toutes sortes de futilités que vous auriez tout aussi bien pu attendre une semaine ou deux avant de découvrir. Sauf que la pratique s’est tellement généralisée que, selon un sondage récent, au moins 55 % des personnes interrogées reconnaissent consulter leurs e-mails professionnels pendant leur congés ! Le droit à la déconnexion est encore un long combat, peut-être même perdu d’avance…

Le droit à la déconnexion, pas encore totalement entré dans les mœurs : un dessin signé Wingz, pour la CFDT banques et assurances

C’est en tout cas fort de ce constat que l’Office national islandais du tourisme a eu l’idée de développer, au bénéfice des voyageurs qui viennent passer leurs vacances en Islande, un service de messagerie permettant de générer des messages personnalisés d’absence, histoire que ses visiteurs puissent garder l’esprit tranquille, lâcher les rênes et profiter à fond des merveilles naturelles de cette île aux paysages grandioses, sans être en permanence pollués par les messages intempestifs du bureau.

Aurores boréales au dessus du Mont Kirkjufell, en Islande (source © National Geographic)

L’originalité du dispositif est que les proposés mis à contribution pour générer vos messages de réponse pendant que vous vous prélassez dans une source d’eau thermale perdue au milieu de nulle part, sont des petits chevaux islandais, cette race emblématique du pays, trop souvent assimilée à des poneys. On les voit donc, sur la vidéo de promotion de l’Office du tourisme islandais, en train de tapoter plus ou moins nerveusement du sabot, sur d’immenses claviers d’ordinateurs en pleine nature. Une prestation déjà adoptée par plusieurs milliers de touristes et dont le nom en soit est tout un programme : « Outhorse your email », autrement dit « sous-traitez vos e-mail » avec un jeu de mots des plus subtils sur ces chevaux en extérieur qui s’en chargent à votre place…

Faites écrire vos mails professionnels par un cheval islandais… (source © kbd.news)

Bien évidemment, le résultat de leur piétinement quelque peu aléatoire risque de laisser assez perplexe votre patron qui voulait savoir de toute urgence si vous serez bien rentré à temps pour l’accompagner le 18 à 9H45 pour aller signer ce fameux contrat. Le message de réponse lui indique en effet qu’un cheval islandais se permet de l’informer que la personne qu’il cherche à contacter est momentanément indisponible, le tout suivi du message énigmatique suivant, tapé par le cheval lui-même : « jjjjjjklmù*2222222222 »

Il n’est pas absolument certain que ce message le rassure totalement sur la fiabilité voire la bonne santé mentale de son employé temporairement absent, mais l’essentiel est que ce dernier passe de bonnes vacances aussi reposantes que dépaysantes dans les étendues sauvages et verdoyantes islandaises. C’est en tout cas le message que cherche manifestement à véhiculer l’office de tourisme de ce pays, Visit Iceland, lequel en profite pour truffer sa vidéo promotionnelle de paysages tous plus attractifs les uns que les autres : savoir bien communiquer ne consiste pas seulement à répondre à ses mails en temps et en heure : c’est un vrai métier…

L. V.

Déménager en vélo, c’est possible !

17 juin 2022

En ville, l’encombrement de l’espace urbain transforme parfois la livraison ou le déménagement en un véritable casse-tête. Autant le rail ou la voie fluviale peuvent-être de bonnes solutions pour le transport de marchandises sur de longues distances, autant le fameux « dernier kilomètre » peut s’avérer acrobatique. Il faut bien se rendre à l’évidence : dans les centre-villes résidentiels, la camion de livraison n’a plus sa place. Sens interdits, espaces piétonniers, pistes cyclables, plots anti-stationnement et, de plus en plus, horaires très limités réservés aux livraisons, rendent très délicate l’organisation d’un simple déménagement ou la moindre livraison. Un comble à l’heure où se développe la commande en ligne sur internet…

Faut-il alors en revenir à des solutions simples et largement éprouvées de transport par vélo ? L’idée est loin d’être neuve. Au début du XXe siècle, la bicyclette était devenue dans bien des pays un mode de transport très courant pour livrer le pain, le lait ou bien d’autres marchandises à domicile. Rien de plus facile en effet que de bricoler la fixation de paniers sur son cadre de vélo, d’y adjoindre une petite carriole, voire de le transformer en triporteur.

Livreur de lait en triporteur à Paris (source © Jean Ferrier / Occitan Aveyron)

En France, la Poste a poursuivi jusqu’à aujourd’hui ce transport du courrier par vélo en site urbain mais, il faut bien le reconnaître, l’usage était un peu tombé en désuétude de venir livrer en bicyclette des marchandises un tant soit peu encombrantes alors que les véhicule utilitaires permettaient de le faire en toute sécurité, plus rapidement et au moindre effort… A tel point que l’on en venait à s’étonner de voir dans de nombreux pays en développement, en Afrique et surtout en Asie, la quantité invraisemblable de marchandise que certains arrivent à transporter sur leur vélo en se faufilant partout, même dans une circulation dense…

Une légère surcharge pour ce livreur à bicyclette ? (source © Soolide)

Mais depuis quelques années, la mode des livraisons urbaines en vélo revient en force dans nos rues. Les livreurs de pizzas ou de plats préparés à domicile se déplacent de plus en plus souvent en deux-roues, ce qui leur permet bien souvent de gagner du temps dans leurs déplacements y compris aux heures de pointe. Avec une glacière attachée dans le dos, les coursiers à vélo de la société Deliveroo, parmi bien d’autres enseignes concurrentes, ont largement contribué à populariser ce système de livraison à domicile à la force du mollet, tout en mettant en évidence la fragilité du modèle économique qui lui est attaché et l’extrême précarité des travailleurs impliqués.

Coursiers de la société Deliveroo en vélo, pour le meilleur et pour le pire… (source © Food and sens)

Mais l’on voit fleurir désormais bien d’autres dispositifs de livraison plus sophistiqués, montés sur deux (ou trois) roues, avec ou sans assistance électrique. Le système du triporteur, déjà très répandu dans nos rues il y a plus d’un siècle, est en train de connaître un nouveau développement. Le modèle classique avec sa grosse caisse cubique posée sur un essieu à l’avant du guidon connaît un regain de popularité. Mais il cohabite désormais avec des dispositifs nettement plus sophistiqués commercialisés notamment par la société Yokler, spécialiste du triporteur utilitaire à assistance électrique avec sa caisse arrière qui permet de porter jusqu’à 150 kg de charge utile dans un bloc sécurisé, de quoi achalander les petites supérettes même en plein centre ville, là où aucun camion de livraison ne pourrait s’aventurer.

Livraison de magasin en ville par triporteur modèle Yockler U (source © Yockler)

La société Petit Forestier, spécialisée dans le transport de produits frais, a de son côté développé et commercialisé un triporteur à assistance électrique équipé d’un caisson frigorifique capable d’enfourner jusqu’à 250 kg de marchandises qu’il peut livrer à la vitesse de 15 km/h dans les rues même les plus encombrées d’un site urbain, sans problème de parking : le rêve du livreur !

Triporteur développé par la société Petit Forestier (source © Transport info)

De plus en plus fort : l’ingénieur français Charles Levillan a, quant à lui, inventé un système astucieux qui permet de transporter à vélo un chargement fixé sur une palette en bois, ce support de base de la logistique moderne qui permet de transférer rapidement n’importe quelle charge d’un camion à un entrepôt via un transpalette.

Dispositif BicyLift permettant de transporter un chargement sur palette derrière un vélo (source © FlexiModal)

Sa remorque BicyLift, brevetée et commercialisée par la société FlexiModal, permet de transporter jusqu’à 180 kg de charge utile sur une simple palette en bois tractée par un vélo. Un simple bras métallique léger se glisse dans les interstices de la palette auquel on raccorde le châssis de la remorque qui permet de soulever la charge grâce à un vérin intégré, puis d’accrocher le tout à la roue arrière du vélo, et c’est parti pour un véritable déménagement en vélo… Demain les camions de déménagement n’auront peut-être finalement plus lieu d’être dans les centre-villes urbains !

L. V.

A Seillans, on commence à manquer d’eau…

11 juin 2022

C’est une évidence que l’on a pourtant fini par oublier : en Provence, comme dans tout le bassin méditerranéen, l’eau est rare… Disposer en toute saison, même au cœur de l’été brûlant, d’un d’approvisionnement en eau de qualité et en quantité suffisante ne coule pas de source. De tout temps, l’homme a cherché, pour s’implanter, les bords de rivières et la proximité des sources abondantes. Même les grandes agglomérations comme Marseille ont, jusqu’à un passé récent, souffert du manque d’eau.

La source de la Cadière, à Vitrolles (photo © Noëlle Vionnet / Guide du Routard)

Pourtant implantée sur les bords de l’Huveaune et de son affluent, le Jarret, baignée par le cours cascadant du ruisseau des Aygalades, et alimenté par une multitude de puits domestiques, souvent percés dans le sol même des caves des maisons traditionnelles marseillaises, la cité phocéenne s’est trouvée confrontée à la nécessité d’aller chercher l’eau de plus en plus loin. Édifie dès le IXe siècle, l’aqueduc qui alimente le quartier du Panier commence par drainer les nappes phréatiques abondantes dans le quartier du Camas, avant d’être prolongé, en 1558, jusqu’au Jarret, puis, dès 1599, jusqu’aux rives de l’Huveaune dont le débit est plus important.

Vestiges de l’aqueduc de l’Huveaune, près de la porte d’Aix à Marseille (source © Tourisme Marseille)

Mais ce système reste fragile. En 1834, des inondations importantes du Jarret et de l’Huveaune provoquent une grave épidémie de choléra qui se reproduit dès l’année suivante, avec un bilan terrible de 2576 morts en 1835, année qui est aussi marquée par une forte sécheresse. Les puits tarissent et les Marseillais ne disposent plus que d’un litre d’eau par jour et par personne ! L’heure est grave et c’est alors que le maire, Maxime Consolat, décide de lancer le chantier du Canal de Marseille destiné à acheminer jusqu’au Palais Longchamp, l’eau de la Durance. L’idée n’est pas neuve puisqu’elle avait été formulée dès la Renaissance par l’ingénieur Adam de Craponne, à une période où la ville de Marseille ne comptait que 30 000 habitants.

Le Canal de Marseille (source © Bulle de Manou)

Les travaux nécessaires pour mener à bien ce projet titanesque, qui nécessite notamment la construction de l’immense aqueduc de Roquefavour pour franchir la vallée de l’Arc, sont rondement menés puisque dès 1847, l’eau de la Durance arrive enfin au cœur de Marseille. Renforcé plus tard par le Canal de Provence qui puise l’eau dans le Verdon, ce dispositif permet depuis à toute l’agglomération marseillaise de disposer d’une source d’approvisionnement en eau portable abondante et de qualité, au point de négliger totalement ses propres cours d’eau locaux devenus de véritables cloaques…

Depuis quelques années, le réseau du Canal de Provence s’est considérablement étendu, avec la construction de la liaison Verdon – Saint-Cassien qui permet désormais à l’eau du Verdon d’alimenter une bonne partie du Var jusqu’à la presqu’île de Saint-Tropez. Mais, malgré ces apports d’eau massifs prélevés et acheminés sur de longues distances depuis le bassin de la Durance, une partie du Var continue à être alimentée par des ressources en eau locales, souvent issues de sources ou puisées par forage dans les nappes souterraines.

Le village de Seillans, perché dans son écrin naturel (source © Commune de Seillans)

C’est le cas notamment pour le village de Seillans, une commune du Haut-Var, située au nord-est du département, à la limite entre le plateau calcaire de Canjuers, dont le camp militaire occupe une bonne partie du territoire communal, et les contreforts du massif volcanique de l’Estérel. Le bourg de Seillans, qui s’enorgueillit de faire partie des plus beaux villages du Var, avec ses hautes maisons de pierre, serrées les une contre les autres, le long de ruelles étroites, est typique de ces villages perchés sur leur colline au milieu d’une immense forêt de chênes pubescents, de chênes verts et de pins maritimes.

La place du village de Seillans avec sa fontaine, bientôt à sec ? (source © Expedia)

La commune ne manque théoriquement pas d’eau puisqu’elle est parcourue par de multiples cours d’eau dont le Gabre et son affluent, le Riou blanc, mais aussi le Rayol dont les gorges, admirablement préservées, renferment de belles vasques d’eau claire, ou encore le Riou de Meaulx, un affluent de l’Endre, dont le cours a été barré par un barrage pour constituer une réserve d’eau à usage de défense contre l’incendie. Mais la plupart de ces cours d’eau tarissent l’été. C’est notamment le cas du Riou Gabriel qui traverse le village et dans lequel a été implanté le lavoir des Georges, un bel ouvrage en pierres de taille datant de 1864 et qui a été rapatrié ici en 1974, lors du déplacement du village voisin de Brovès suite à l’implantation du camp militaire de Canjuers.

Le lavoir des Georges, implanté dans le lit du Riou Gabriel, à Seillans (source © Commune de Seillans)

Depuis début mai, une partie des 2000 habitants de la commune, connaît ainsi de réelles difficultés d’approvisionnement en eau potable. Le forage qui alimentait cette partie de la commune, au nord du bourg principal, et qui captait en profondeur, l’eau de la source du Baou Roux, bien qu’approfondi il y a 8 ans seulement et qui débitait, bon an mal an, pas moins de 150 m3/heure, est désormais à sec ! Depuis un mois, ce sont donc des camions-citernes qui font font 6 allers-retours chaque jour, par une piste caillouteuse qu’il a fallu renforcer pour l’occasion, afin d’alimenter le réservoir de 500  m3 qui approvisionne en eau potable les 400 habitants ainsi concernés…

L’eau ainsi charriée quotidiennement par camion provient de la source de la Siagnole, laquelle alimente aussi le bas du village. Pour le maire de la commune, René Ugo, également président de la communauté de communes du Pays de Fayence, cette situation est révélatrice des effets du changement climatique qui accentue les épisodes de sécheresse comme celui auquel est confronté cette année le Var suite à un déficit pluviométrique enregistré cet hiver. Un arrêté communal a été pris pour limiter la consommation d’eau à 150 litres par jour et par personnes, tandis qu’un arrêté préfectoral, comme d’ailleurs dans pas moins de 73 communes du département, l’arrosage des pelouses et le remplissage des piscines.

Extrait d’un document d’information diffusé sur le site de la commune de Seillans, incitant à ne pas gaspiller l’eau (source © Mairie de Seillans)

A terme, la régie intercommunale qui gère la distribution d’eau depuis 2020, prévoit d’interconnecter les différents réseaux de la commune pour faciliter l’alimentation de ce quartier. Mais il va surtout falloir aller chercher de l’eau ailleurs, a priori dans le lac de Saint-Cassien, une retenue d’eau édifiée en 1966 peu après la rupture tragique du barrage de Malpasset qui avait fait 423 morts le 2 décembre 1959, lors de son premier remplissage. Alimenté par un canal de dérivation des eaux de la Siagne, le lac de Saint-Cassien qui recouvre une partie de l’ancien aqueduc romain de Mons à Fréjus, a initialement une vocation hydro-électrique mais est rapidement devenu aussi un haut-lieu du tourisme et désormais une ressource en eau potable pour ce secteur du Haut-Var. En Provence, la bataille de l’eau est peut-être sur le point de recommencer…

L. V.

Data centers : quand nos données partent en fumée…

9 juin 2022

C’est un business en plein développement que celui des data centers, ces centres de stockage de données numériques en bon français. Certes, la plupart des entreprises organisent ce stockage à domicile, dans des espaces climatisés, sécurisés et dotés de batteries de secours où sont implantés les précieux serveurs qui contiennent désormais toutes les données dont chacun a besoin pour travailler au quotidien. Mais de nombreux opérateurs se sont développés pour offrir ce service sous forme de prestation payante, assurant à la demande et pour de nombreux usagers ce stockage de nos données numériques sur le fameux cloud.

Les data centers, de gigantesques usines de stockage de données numériques (source © Twitter / Interxion)

Loin d’être un nuage perdu dans les limbes, comme d’aucuns pourraient l’imaginer, ce cloud est constitué de hangars sécurisés hébergeant des serveurs, des systèmes de stockage mémoire, des routeurs, des dispositifs de pare-feux pour éviter les cyber-attaques, et tout un système de racks, de câblages, d’alimentations électriques, le tout dans un espace ultra-sécurisé. A Marseille, la société Interxion s’est faite ainsi une spécialité de ces data centers, l’un d’entre eux étant même implanté dans une ancienne base de sous-marins construite lors de l’occupation allemande à la Joliette.

Un autre opérateur s’est fait connaître dans ce domaine et a récemment défrayé la chronique. Il s’agit d’OVHcloud, issu d’une petite start-up créée en 1999 par Octave Klaba, alors étudiant en troisième année à l’ICAM de Lille et qui offre des prestations d’hébergement de serveur, d’abord sur des machines prêtées par Xavier Niel avant de s’installer, en 2001, dans un centre de données abandonné par Free. A partir de 2004, la société commence son implantation à l’étranger et construit son premier data center à Roubaix. En 2011, OVH possède déjà pas moins de 100 000 serveurs et sa croissance se poursuit jusqu’à annoncer, le 8 mars 2021, sa volonté d’entrer à la Bourse de Paris.

OVH, un champion français des hébergeurs de sites (source © OVH / Journal du Geek)

Hasard du calendrier ou coïncidence malheureuse ? Deux jours plus tard, dans la nuit du 9 au 10 mars 2021, à 0h35 précisément, le gardien du data center d’OVH à Strasbourg enregistre une alarme incendie en provenance d’un des locaux de puissance du bâtiment SBG2, là où se trouvent les onduleurs qui assurent la continuité de l’alimentation électrique du système. Les techniciens d’astreinte se rendent immédiatement sur place, observent un dégagement de fumée et appellent aussitôt les pompiers qui arrivent rapidement sur place.

Il est alors 0h59. Les pompiers luttent toute la nuit contre l’incendie qu’ils n’arrivent à maîtriser que vers 10h le lendemain après avoir mobilisé un bateau pompe et déversé par moins de 4000 litres de produit émulsifiant ! Aucune victime n’est à déplorer mais le bâtiment SBG2 est entièrement détruit et le feu s’est propagé au bâtiment voisin, le SBG1, dont 4 salles ont été ravagées par les flammes.

Le bâtiment SBG2 en flammes dans la nuit du 9 au 10 mars 2021 (photo © SDIS 67 / Rapport BEA RI / Actu-Environnement)

Au delà de la perte financière de la structure immobilière, qui se chiffre en millions d’euros, l’impact du sinistre est surtout colossal en matière de dommage commercial et de destruction irrémédiable des données numériques. Le 10 mars au matin, ce sont pas moins de 3,6 millions de sites internet, représentant 464 000 noms de domaines, qui ne répondent plus car hébergées chez OVH. Les Espaces numériques de travail, développés par l’Éducation nationale, en particulier sont hors service, mais de nombreux sites publics ou privés connaissent de graves dysfonctionnement dans les jours qui suivent. C’est le cas notamment des plateformes gouvernementales data.gouv.fr ou marches-publics.gouv.fr, mais aussi de l’aéroport de Strasbourg, du réseau de transports urbains de Tarbes, du site meteociel, et de nombreux sites de communes, d’entreprises ou de club sportifs…

Les pompiers luttent toute la nuit contre l’incendie du data center OVH de Strasbourg (photo © SDIS 67 / France Bleu)

L’affaire connaît un énorme retentissement qui, du coup retardera l’introduction de la société en bourse, relancée en septembre 2021 seulement. Il faut dire qu’entre temps, un second incendie s’est déclaré, le 19 mars, cette fois sur le bâtiment SBG1, encore partiellement actif ! Une loi des séries qui ne laisse pas d’inquiéter les spécialistes du sujet et qui occasionne d’ailleurs une enquête approfondie de la part du Bureau d’enquêtes et d’analyse sur les risques industriels, un organisme officiel rattaché au Ministère de l’écologie.

Selon ses premières conclusions, le feu a pris dans des batteries et un onduleur, de manière quasi-simultanée, dans une salle qui était bien équipée d’alarmes incendies mais pas de dispositifs d’extinction, automatique, ce qui peut paraître pour le moins surprenant. C’est surtout la conception même du bâtiment, de type modulaire et conçu pour favoriser à l’extrême la circulation de l’air extérieur afin de favoriser le refroidissement naturel des installations de stockage informatiques, qui a facilité la propagation de l’incendie. En moins d’une heure, le feu s’était déjà propagé au premier étage et la totalité du bâtiment s’est très rapidement embrasée, rendant très problématique l’intervention des pompiers malgré l’importance des moyens déployés.

Le bâtiment SBG2 après l’incendie (photo © Ivan Capecchi / Actu Strasbourg)

Une autre difficulté à laquelle se sont heurtés les pompiers est liée à l’alimentation électrique du site. L’absence de dispositif de coupure générale du site a nécessité l’intervention du gestionnaire du réseau pour déconnecter l’installation. Mais par nature, un centre de stockage de données informatique se doit d’être autonome pour son alimentation électrique, si bien que les groupes électrogènes de secours se sont mis automatiquement en marche dès que l’alimentation globale a été coupée : un véritable casse-tête pour les pompiers qui ne pouvaient utiliser leurs lances à eau dans un tel contexte. Et même une fois les générateurs de secours neutralisés, il reste les innombrables batteries au plomb et au lithium qui continuent à assurer l’alimentation électrique, retardant d’autant la lutte contre l’incendie qui fait rage.

Bien entendu, ce sinistre majeur a permis d’édicter un certain nombre de recommandations pour tenter de renforcer à l’avenir la sécurisation de ce type d’installation. Il n’en reste pas moins qu’il met en exergue l’extrême vulnérabilité de tels data centers dont le rôle devient central tant pour la gestion que pour la conservation de nos données numériques de plus en plus nombreuses et qui sont au cœur de toutes nos activités industrielles, économiques, financières, mais aussi culturelles et sanitaire. Reste à savoir si le niveau de sécurisation de ces données vitales est bien à la hauteur des enjeux…

L. V.

De nouveaux radars dans le collimateur…

26 mai 2022

La ville de Marseille est l’une des agglomérations urbaines où la vidéosurveillance est particulièrement développée avec près de 1600 caméras déployées sur l’ensemble du territoire communal et un centre de vidéosurveillance à la pointe du progrès. L’ancienne municipalité envisageait même d’y mettre en œuvre un dispositif inspiré des méthodes de flicage israélien, déjà testé à Nice, et qui consiste à exploiter en direct les vidéos postées par des citoyens vigilants et prompts à dénoncer tout comportement potentiellement suspect. Un dispositif de vidéosurveillance, qui en réalité, sert principalement à traquer les infractions au code de la route, tout comme d’ailleurs dans plusieurs autres villes de l’agglomération, à l’image de Carnoux, où sont déjà en service une quarantaine de caméras sur la voie publique, ou encore Cassis qui en compte actuellement 85 pour 7200 habitants, un record national !

A Carnoux comme dans de nombreuses villes, les caméras servent surtout à la verbalisation des infractions routières (photo © CPC)

Mais ce dispositif n’est manifestement pas encore suffisant pour calmer les ardeurs des automobilistes dont l’incivilité est légendaire dans l’agglomération marseillaise. Un comportement qui se traduit directement dans les statistiques puisque le département des Bouches-du-Rhône était en 2021, celui qui dénombrait le plus d’accidents en France, avec pas moins de 2790 accrochages et 100 morts sur la route, pour la plupart, des hommes de 18 à 34 ans… Selon l’avocate Romy Collard Lafond, spécialisée dans la défense des victimes de la route, à Marseille, les accidents de la circulation tuent bien davantage que les règlement de compte entre dealers des cités à coups de kalachnikov, avec jusqu’à 14 décès pour le seul mois de juillet 2021 !

Accident de circulation sur la ligne de tramway rue de Rome à Marseille le 24 mai 2022 : pour une fois, la Police était sur place… (source
© arabstrait13 / France bleu)

Face à l’indifférence médiatique qui entoure encore trop souvent ces banals accidents de la route qui fauchent pourtant bien des vies innocentes, les autorités ont donc décidé de monter d’un cran l’arsenal répressif en recourant, comme souvent, à la technologie de pointe, plutôt qu’en renforçant les effectifs des forces de police et de gendarmerie, de plus en plus rares sur le bord des chaussées.

Comme l’annonçait Made in Marseille il y a quelques jours, 17 nouveaux radars vont être implantés à Marseille dans les prochains mois, probablement d’ici la fin de l’année, voire début 2023. Et pas n’importe quels radars… Des modèles ultra sophistiqués qui ne portent d’ailleurs même plus le nom de radars mais celui d’ETU, des « équipements de terrain urbain ». Un euphémisme bien dans l’air du temps pour désigner des dispositifs légers et mobiles, capable non seulement de repérer des excès de vitesse dans les deux sens de circulation, mais aussi d’enregistrer des franchissements de feu rouge, l’absence de respect des distances de sécurité, des stops, des priorités piétons ou des pistes cyclables, et même les dépassements dangereux ou l’usage du téléphone au volant…

Une véritable bête noire pour les automobilistes distraits, pressés ou maladroits qui risquent de rapidement voir fondre leur capital de points sur leur permis de conduire… D’ailleurs, on apprend par la même occasion que trois de ces petites merveilles de la technologie répressive sont déjà en phase de test depuis fin 2021, à Marseille et aux Pennes-Mirabeau, se contentant pour l’instant d’enregistrer les infractions sans les verbaliser, histoire de bien calibrer la machine pour qu’elle soit au top le moment venu.

La corniche John-Fitzgerald Kennedy, dont la partie en surplomb sur la mer vient d’être rénovée : un dite fortement accidentogène… (source © AMP Métropole / Actu-Marseille)

Une date qui pourrait peut-être même arriver plus vite que prévu car Yannick Ohanessian, adjoint au Maire de Marseille en charge de la sécurité, a déjà fait la carte des sites où seront déployés en priorité ces bijoux technologiques, sur l’ensemble des arrondissements marseillais mais surtout sur les secteurs à fort enjeu de sécurité routière dont les abords des écoles. La Corniche Kennedy, qui vient tout juste d’être entièrement rénovée à l’issue d’un chantier qui a duré des années et qui est régulièrement rendue aux piétons le temps d’un week-end dans le cadre des opérations « La voie est libre », pourrait peut-être même être équipée dès cet été, maintenant que la phase de test est considérée comme concluante.

Nouveau radar dernier cri installé à Toulouse début 2022 (photo © Thibaut Calatayud / Actu-Toulouse)

Les automobilistes marseillais, habitués de longue date à prendre de nombreuses libertés avec les règles communes de la circulation, ont donc du souci à se faire et vont sans doute devoir réfréner quelque peu leur fougue méditerranéenne qui a tendance à s’exacerber au volant. Mais ils ne sont pas les seuls dans le collimateur. Plusieurs équipements du même type sont en phase de déploiement depuis quelques mois dans les agglomérations de Toulouse, Montpellier ou encore Montbéliard où les premiers modèles ont été testés dès le mois de septembre 2021.

Exemple de radar Mesta Compact (source © Radar-auto)

Développé et commercialisé par la société Idemia, issue du rapprochement de Safran Identity & Security avec Oberthur Technologies, le modèle Mesta Compact qui devrait être ainsi déployé en site urbain est déjà homologué depuis le 31 janvier 2021 pour les mesures de vitesse et le contrôle de franchissement de feu rouge. Il s’agit d’un dispositif multifonction, doté d’une antenne radar Doppler tracker multi-cible nouvelle génération disposant d’un large faisceau capable de suivre simultanément jusqu’à 126 véhicules sur 5 voies dans les deux sens de circulation et sur une portée de plus de 100 mètres. Il va être bien difficile d’échapper à un tel mouchard ! Il est d’ores et déjà prévu de mettre en place 500 équipements de ce type en site urbain, dont une centaine seulement sera effectivement équipée d’un radar opérationnels, les autres n’étant que des leurres à effet dissuasif puisque le dispositif pourra aisément être déplacé d’une cabine à une autre : il va donc falloir s’habituer à respecter le code de la route, même à Marseille !

L. V.

Éolien flottant : un avenir prometteur…

17 mai 2022

Depuis plusieurs siècles, l’humanité a bâti sa prospérité et son développement industriel sur l’utilisation d’une énergie carbonée fossile à base de charbon, de gaz et de pétrole. Une véritable manne, longtemps considérée comme inépuisable, facile à transporter et à stocker, mais dont on a désormais compris que son usage immodéré et à grande échelle était en train de conduire notre civilisation à sa perte, du fait des pollutions atmosphériques induites mais surtout des rejets de gaz à effet de serre dont l’accumulation est en train de perturber durablement et de manière déjà quasi irréversible, le climat mondial, au risque de voir notre planète devenir invivable pour les prochaines générations.

Face à ce constat, désormais unanimement partagé même si nombre de responsables politiques et surtout d’agents économiques tardent à en tirer les conséquences tant elles impliquent un changement profond de nos habitudes de vie, on sait que l’urgence est de développer à grande échelle le recours aux énergies renouvelables, tout en réduisant autant que possible nos besoins énergétiques. Et parmi ces énergies renouvelables, celle qui semble la plus prometteuse est très probablement l’éolien flottant.

Le moulin de Daudet, à Fontvielle (source © Tripadvisor)

Paradoxalement, l’énergie éolienne n’a rien d’une trouvaille innovante puisque c’est probablement, après l’énergie humaine et animale, celle qui a été le plus tôt domestiquée, dans l’Antiquité, par les Perses puis les Égyptiens, qui maîtrisaient cette technique dès l’an 600 avant notre ère, pour l’irrigation agricole. Introduit en Grande-Bretagne vers l’an Mil, le concept de moulin à vent, constitué d’une éolienne à axe horizontal qui transforme l’énergie cinétique du vent en énergie mécanique, notamment pour moudre les grains ou presser les olives, se généralise très rapidement dans toute l’Europe, surtout à partir du XIIIe siècle.

A la fin du XIXe siècle, c’est un Américain, Charles Bush, qui développe la production d’électricité à partir d’une éolienne, selon un procédé rapidement amélioré par le Danois Poul La Cour, si bien qu’en 1918, 3 % de l’énergie produite au Danemark est déjà d’origine éolienne. Relancée après le premier choc pétrolier, la production électrique éolienne a désormais le vent en poupe, avec une production mondiale qui a été multipliée par 28 entre 2000 et 2012. Mais le développement de cette énergie est freinée par le caractère intermittent de sa production et, accessoirement, par son impact sur l’avifaune.

Éoliennes d’essais développées par le Danois Poul La Cour à l’école d’Aksov, en 1897 (source © Danish Wind Industry Association)

C’est justement pour ces raisons que l’éolien flottant est très certainement amené à se développer. C’est en effet en haute mer que l’on rencontre les vents les plus puissants et les plus réguliers, qui permettent de rentabiliser au mieux de telles installations. En matière de production électrique, on caractérise le facteur de charge d’une installation comme le rapport entre entre l’énergie produite sur une période donnée et l’énergie qu’elle aurait produite durant cette même période si elle avait constamment fonctionné à puissance nominale. Le parc français de centrales nucléaires présente ainsi un facteur de charge très intéressant de l’ordre de 75 %, alors que celui des panneaux photovoltaïques ne dépasse guère 15 % tandis que celui des éoliennes terrestres est inférieur à 25 % et arrive à 50 % en offshore. Mais en haute mer, l’éolien flottant peut atteindre un facteur de charge de l’ordre de 65 %, ce qui devient très compétitif, tout en réduisant fortement les nuisances environnementales.

Installation en Mer du Nord des éoliennes Statoil du projet Hywind Tampen (source © Modern Power System)

Du coup, les implantations de ce type sont en plein essor. Les Norvégiens de Statoil-Hydro ont ainsi mis en exploitation dès 2017 une première unité commerciale constituée de 5 éoliennes implantées au large des côtes écossaises, pour une puissance totale de 30 MW. Depuis, les projets se multiplient avec notamment la plus grande éolienne du monde installée à 20 km des côtes portugaises et raccordée, depuis décembre 2020, au réseau.

Remorquage d’une éolienne du projet WindFloat Atlantic, installée au large des côtes portugaises (photo © WFA Windplus / Euractiv)

La France n’est pas en reste dans ce domaine puisqu’une éolienne géante, assemblée dans le port de Saint-Nazaire, a été remorquée en mer, à 22 km au large du Croisic en octobre 2017. Raccordé au réseau depuis septembre 2018, ce démonstrateur dénommé Floatgen est destiné à démontrer la faisabilité technique et la viabilité économique de la démarche avant le passage à une échelle industrielle dans le cadre du lancement de plusieurs appels à projets. Quatre sites ont ainsi été attribués dès 2016 pour y implanter les premières installations éoliennes flottantes de production.

Mise en place de l’éolienne du démonstrateur Floatgen au large du Croisic (source © Floatgen)

C’est ainsi que le groupe Qair (ex Quadran) développe actuellement un ambitieux projet, intitulé Eolmed, de 3 éoliennes flottantes au large de Gruissan, dans l’Aude, sur des fonds de 55 m, à 18 km des côtes méditerranéennes. La société BW Ideol, basée à La Ciotat, est l’un des partenaires de ce projet pour lequel elle met à disposition le savoir-faire en matière de fondations offshore, acquis par ses ingénieurs dans le domaine pétrolier. La construction du site commence dès cette année pour un début d’exploitation attendu en 2024.

Schéma de principe du démonstrateur flottant Eolmed au large de Gruissan (source © Eolmed)

Un autre projet de 4 éoliennes Alstom/General Electric de 6 MW chacune, équipées de fondations flottantes Naval Energies et Vinci Construction France, est lui aussi en cours de construction, au large des îles de Groix et de Belle-Ile, en Bretagne, par le consortium Eolfi, une ex-filiale de Veolia rachetée par le groupe Shell en 2019.

Schéma de principe des éoliennes flottantes que la société Eolfi compte installer au large de Groix (source © DCNS – GE / Actu Morbihan)

Deux autres projets sont également en cours de développement en Méditerranée, dont un autre dans l’Aude, au large de Leucate, développé par Engie avec des éoliennes produites par MHI Vestas Offshore Wind et des flotteurs métalliques fabriqués par Eiffage. Le dernier projet, dénommé Provence Grand Large, se situe dans les Bouches-du-Rhône, à 17 km au large de Port-Saint-Louis-du-Rhône, près du phare de Faraman. Piloté par EDF Énergies nouvelles, avec l’aide de 3 éoliennes Siemens Gamesa de 8 MW de puissance unitaire, montées sur fondations flottantes développées par SBM Offshore et l’IFP, le projet devrait entrer en service dès 2023.

Vue d’artiste de la future ferme pilote Provence Grand Large (source © SBM Offshore / Gomet)

Au delà de ces premiers pilotes industriels qui entrent progressivement en phase opérationnelle, des programmes plus ambitieux sont d’ores et déjà lancés, à l’instar des deux appels d’offres annoncés le 14 mars 2022 par le Premier ministre, Jean Castex, pour l’installation de parc éoliens flottants de 250 MW chacun en Méditerranée, à plus de 20 km au large de Port-la-Nouvelle et de Fos-sur-Mer. Le mouvement des éoliennes flottants semble bel et bien lancé et l’avenir dire si cette filière est effectivement amenée à prendre demain une place prépondérante dans notre mix énergétique comme certains l’imaginent déjà.

L. V.

Crosscall : le téléphone aixois bientôt made in France ?

30 avril 2022

La crise du Covid aura au moins eu le mérite de mettre l’accent sur la vulnérabilité extrême des sociétés occidentales devenues totalement dépendantes, même pour des produits de première nécessité, des pays asiatiques où se fait l’essentiel de la production mondiale. Une mondialisation qui a permis à des pays comme la France de fermer la quasi totalité de ses usines : adieu la pollution et vive la société de consommation et de loisirs, grâce à des produits à bas coût, confectionnés en Asie par une main d’œuvre bon marché et transportés depuis l’autre bout du monde pour presque rien !

Usine de production de téléphones Samsung au nord Vietnam (photo © Dux Tàm / VNA / Le Courrier du Vietnam)

Seulement voilà que le coût de la main d’œuvre chinoise augmente : entre 2005 et 2016, il a été multiplié par trois, se rapprochant désormais de celui d’un ouvrier portugais, même s’il reste très inférieur à celui de son homologue français ou allemand. Avec la pandémie mondiale, la Chine aussi a dû faire face à des pénuries de main d’œuvre et la qualité de sa production s’en est ressentie tandis que les coûts de l’énergie explosaient, celui de l’électricité ayant récemment augmenté de 20 %. Quant au coût du transport maritime par containers, il a connu une envolée spectaculaire, multiplié par cinq au cours de la seule année 2021, pour le plus grand profit d’une société comme la CMA-CGM qui engrange des profits mirifiques !

Autant d’arguments pour inciter les entreprises françaises à relocaliser une partie de leur production industrielle en France, ce qui pourrait au passage booster le marché de l’emploi et rééquilibrer quelque peu notre balance commerciale totalement déréglée… C’est du moins le pari qu’est en train de faire une start-up implantée à Aix-en-Provence sous le nom délicieusement provençal de Crosscall, et dont l’activité consiste à vendre des smartphones résistants, destinés notamment aux amateurs de sports extrêmes en extérieur.

C’est en tout cas ce marché du sport outdoor qu’a visé initialement le créateur de cette société, le Marseillais Cyril Vidal, un commercial travaillant alors dans le BTP et la construction modulaire. Grand amateur de jet ski et autres sports nautiques, ses nombreuses déconvenues suite aux défaillances de son téléphone portable, devenu inutilisable à la moindre tempête un peu arrosée, l’ont conduit en 2009 à créer la marque Crosscall, pour mettre sur le marché des mobiles tout terrain et étanches.

Shark, le téléphone étanche et flottant développé par Crosscall pour les usagers de la mer (source © Crosscall)

Deux ans plus tard, en 2011, Crosscall, alors implantée à Châteauneuf-les-Martigues, se met à commercialiser son premier portable, assemblé en Chine, le Shark, étanche et capable de flotter lorsqu’il tombe à l’eau. Vendu chez Décathlon, il permet à la jeune pousse de réaliser son premier chiffre d’affaire, plutôt modeste de 1500 €… En 2014, Crosscall, qui entre temps à réussi aussi à s’implanter dans les magasins Point P et Au Vieux Campeur, commercialise son premier smartphone présentant les mêmes caractéristiques de robustesse et d’étanchéité. En 2016, Crosscall affiche déjà un chiffre d’affaire de 30 millions d’euros, se choisit un nouveau partenaire industriel, le groupe chinois Hisense, s’implante dans les boutiques commerciales d’Orange, SFR, Bouygues et Free, et réussit à recruter David Eberlé, ancien président de Samsung Electronics France pour développer son marché en France et à l’international.

Cyril Vidal, PDG de Crosscall et son associé David Eberlé, fin 2016 dans les locaux de la société à Aix-en-Provence (photo © Geneviève Van Lede / La Provence)

La même année, la start-up en pleine croissance obtient une levée de fonds de 4,5 millions auprès d’ACG Management et une aide de 2 millions via BPI France, puis procède en 2018 à une nouvelle levée de fonds de 12 millions d’euros auprès d’A Plus Finance et Al Mundi. Les 4 salariés du départ sont désormais pas loin de 200 et plus de 3,5 millions de téléphones de la marque ont déjà été vendus dans 19 pays, tandis que Crosscall, après plusieurs déménagements successifs a désormais son siège à Aix-en-Provence.

Le siège de la société Crosscall à Aix-en-Provence (source © Gomet)

Mais la crise du Covid et la pénurie de semi-conducteurs en particulier, ont fait prendre conscience aux dirigeants de Crosscall, dont le capital reste à 100 % français et qui a remporté coup sur coups plusieurs gros marchés pour approvisionner en mobiles le personnel de la SNCF, de la police et même de la gendarmerie, de la fragilité liée à cette production chinoise dont les coûts ont augmenté de près de 11 % en un an, tout en enregistrant des ruptures d’approvisionnement et une baisse de qualité.

L’entreprise aixoise a donc commencé à implanter dans ses locaux, grâce à un financement accordé dans le cadre du plan France Relance, un laboratoire de recherche et développement, destiné notamment concevoir ses nouveaux produits et à tester la qualité de ses modèles, ce qui lui permet désormais de monter en gamme et de proposer une garantie de 5 ans sur certains de ses modèles, ce qui est assez innovant sur ce type de produits. Soumis à rude épreuve, allant de l’immersion dans l’eau salée jusqu’à la chute de 2 m sur du marbre en passant par un séjour au réfrigérateur entre -25 et +71 °C, les smartphones de la marque n’ont pas usurpé leur réputation de robustesse qui fait leur succès commercial !

Le Trekker X3, smartphone commercialisé par Crosscall qui ne craint pas les climats extrêmes (source © Grounds)

L’étape suivante va désormais consister à développer, juste en face du siège de la société, un atelier où seront bientôt fabriqués les accessoires de la marque, du kit de fixation sur VTT jusqu’à la batterie externe sans oublier les fameuses coques flottantes. Il s’agira ensuite de développer, en collaboration avec le réparateur français Cordon, une chaîne de reconditionnement des smartphones de la marque, tout en leur garantissant les mêmes qualités de performance, de robustesse et d’étanchéité, un véritable challenge mais qui répond à une véritable demande de durabilité de ce type d’appareils.

Le reconditionnement des téléphones Crosscall, un objectif qui se concrétise… (source © Crosscall)

Et la dernière étape envisagée par Crosscall, à l’horizon 2025, est la plus difficile puisqu’elle vise, ni plus ni moins qu’à lancer à Aix-en-Provence, sur un site qui reste encore à identifier, l’assemblage de ses smartphones à partir de composants européens, issus notamment du fabricant franco-italien de semi-conducteurs, STMicroelectronics. Un beau challenge mais qui est loin d’être gagné, ne serait-ce que pour trouver la main d’œuvre qualifiée d’ingénieurs capables de réaliser ce type de produits dont les Chinois sont désormais les grands spécialistes, maintenant que les anciens champions européens du secteur, tels Ericsson et Nokia, ont jeté l’éponge : l’avenir dire si le pari de Crosscall arrive à se réaliser…

L. V.

Beauté fatale, esthétique toxique…

17 avril 2022

« La beauté gagne quelquefois à être regardée de loin », disait, avec philosophie et, probablement, une certaine expérience, le poète romantique britannique Byron, mort à 36 ans en tentant de participer à la guerre d’indépendance des Grecs alors sous le joug de l’empire ottoman. C’est en tout cas le parti pris esthétique d’un reportage de la réalisatrice Anne-Lise Carlo, intitulé Toxic tour et diffusé sur Arte. De courtes interviews de témoins locaux, géographes ou biologistes, qui connaissent bien les lieux, et de nombreuses vues aériennes par drones qui montrent, de loin, de drôles de paysages à la beauté sublime.

Six magnifiques cartes postales sur papier glacé de lieux aux couleurs éclatantes, mais qu’il vaut mieux en effet regarder de loin. Car ces sites enchanteurs à la beauté fatale ne sont en réalité que des lieux ravagés par l’activité industrielle humaine qui y a stocké ses déchets les plus toxiques en pleine nature, sans réels égards pour la biodiversité qui s’y trouvait…

Vue aérienne du site de stockage de boues rouges à Mange Gari (source © extrait vidéo Toxic tour / Arte)

Et bien évidemment, l’un de ces sites emblématique de cette tournée toxique n’est autre que le bassin de stockage des boues rouges de Gardanne à Mange Gari, à deux pas de chez nous… Certes, les images vues du ciel sont envoûtantes, avec cette étendue rouge Colorado qui tranche admirablement avec le vert tendre des forets de pins d’Alep, le tout sous le soleil éclatant de Provence, avec la Montagne Sainte-Victoire en arrière-plan.

Le géographe Olivier Dubuquoy, contempteur des boues rouges de Gardanne (source © extrait vidéo Toxic tour / Arte)

Mais celui qui fait les honneurs de cette visite, le géographe Olivier Dubuquoy, n’a pas de mots assez durs pour critiquer la beauté toxique de ces immenses bassins de stockage qu’il dénonce depuis des années, lui que les écologistes avaient d’abord désigné comme tête de file pour les élections régionales de 2021 en PACA, avant de l’exclure du parti EELV pour sa volonté de rassemblement unitaire à gauche.

Ces boues rouges, qu’un porte-parole de Péchiney, ancien propriétaire de l’usine d’alumine de Gardanne, toute proche, décrit comme étant simplement de la « terre rouge », totalement inoffensive et purement locale, sont les déchets de la transformation de bauxite importée en alumine, après attaque chimique à la soude selon le procédé Bayer, produits à raison de 3 tonnes de boues rouges pour 2 tonnes d’alumine extraite.

Un lac couleur Colorado qui renferme de nombreuses substances toxiques (source © extrait vidéo Toxic tour / Arte)

Oliver Dubuquoy insiste, pour sa part, sur la caractère toxique de ces boues rouges, sous-produit industriel faiblement radioactif mais surtout riche en métaux lourds : fer, nickel, titane, chrome, vanadium, cadmium, arsenic, mercure et on en passe… Un cocktail guère appétissant et que tout le voisinage inhale contre son gré lorsque, les jours de mistral, le vent soulève des nuages de poussière qui viennent se déposer sur les maisons de Gardanne et des villages voisins, recouvrant tous les potagers alentours de fines particules dont l’accumulation est potentiellement cancérigène…

Un paysage de mort autour des bassins de stockage des boues rouges (source © extrait vidéo Toxic tour / Arte)

Une situation qui n’est pas sans rappeler celle d’autres sites similaires en Europe, issus aussi de l’activité industrielle, et en particulier celle du Rio Tinto, ce fleuve côtier espagnol qui traverse la ville de Huelva en aval d’une zone minière exploitée de manière particulièrement intensive depuis l’antiquité romaine pour ses ressources en cuivre, plomb, or, argent, zinc. Une activité minière multiséculaire qui a culminé en 1973 avec le rachat au gouvernement espagnol et pour une bouchée de pain de l’ensemble des activités minières de la région par la société nouvellement créée sous le nom de Rio Tinto par l’industriel britannique Hugh Matheson, avec l’aide de la Deutsche Bank. Passée en 1888 sous le contrôle de la famille Rothschild, cette société s’illustra notamment la même année par la répression féroce qui fit plus de 200 morts parmi les habitants de la région qui protestaient en vain contre la pratique de la calcination à l’air libre de la pyrite, laquelle provoquait des émanations permanentes de fumées toxiques très nocives.

Exploitation à ciel ouvert avec son eau rouge sang dans le secteur minier de Rio Tinto (source © extrait vidéo Toxic tour / Arte)

C’est d’ailleurs cette même société Rio Tinto qui a racheté en 2007 le groupe canadien Alcan, devenant ainsi le premier producteur mondial d’aluminium, et récupérant au passage l’usine d’alumine de Gardanne créée initialement par Péchiney. Et depuis 2015, l’activité minière a repris sur le site de Rio Tinto où se poursuit le grignotage de pans entiers de montagne tandis que l’on remplit d’immenses bassins de décantation renfermant des eaux aux couleurs étranges retenues par des digues dont la rupture entrainerait une véritable catastrophe écologique comme on en a connu récemment en Hongrie et au Brésil dans un contexte comparable.

Bassins de décantation de la mine de Rio Tinto (source © extrait vidéo Toxic tour / Arte)

Le fleuve lui-même est désormais connu pour la couleur rouge sang de ses eaux. Une coloration tout sauf naturelle qui constitue même une attraction touristique pour ceux qui viennent rechercher dans ce paysage dévasté par des siècles d’exploitation minière à outrance, une sensation vaguement martienne… Cette couleur de mercurochrome est en réalité due à des bactéries qui vivent dans des milieux extrêmes, comme celui de ce fleuve totalement impropre à toute autre vie piscicole avec ces eaux acides dont le pH oscille entre 1,7 et 2, et ses concentration énormes en fer et autres métaux lourds toxiques…

Le biologiste Lucas Barero, devant le Rio Tinto aux eaux de sang… (source © extrait vidéo Toxic tour / Arte)

Une ambiance surréaliste que l’on retrouve sur les autres sites évoqués dans ce reportage étrange illustré aussi par une immense mine de lignite en Allemagne, un lac de Roumanie où un ancien village prospère a été englouti sous les eaux issues d’une des plus grande exploitation minière de cuivre d’Europe, une plage italienne où se rejettent les eaux de process de l’usine Solvay et même les loups qui se baladent dans le secteur contaminé par l’accident de la centrale nucléaire de Tchernobyl, en Ukraine. Autant de sites à la beauté étrange qu’il vaut mieux regarder de loin, selon les conseils du poète perspicace…

L. V.

Demain, du plastique aux algues ?

3 avril 2022

Après une chute des prix spectaculaire en avril 2020, en plein confinement liée à la pandémie de Covid 19 qui avait mis à l’arrêt toute l’économie mondiale, le prix du pétrole atteint de nouveau des sommets, alimenté par la folie spéculative des traders déboussolés, alors même que la Russie continue ses exportations. Mais cette hausse obéit malgré à une logique impitoyable, liée au fait que les réserves de pétrole et de gaz les plus facilement exploitables commencent à s’épuiser après presque 2 siècles d’extraction industrielle.

Depuis les années 2007-2008, la production de pétrole conventionnel est en déclin et la plupart des grands pays producteurs de pétrole ont passé leur pic de production. C’est le cas notamment de la Russie mais aussi de l’Arabie Saoudite dont le gisement de Ghawar, le plus grand de la planète a dépassé son pic, de même que celui de Burgan au Koweit ou celui de Cantarell au Mexique. Un peu partout dans le monde, en Afrique comme au Moyen-Orient ou en Mer du Nord, la production pétrolière amorce un lent déclin, bien que pour l’instant plus que largement compensé par l’essor des schistes et sables bitumineux aux États-Unis et Canada, malgré le coût et les ravages environnementaux d’une telle exploitation.

Exploitation des sables bitumineux dans l’Alberta, au Canada (photo © Greenpeace / REZAC / Futura-Sciences)

Dans ce contexte, l’industrie pétrochimique qui depuis un siècle nous fournit abondamment en plastiques de toute sorte dérivés de produits pétroliers, commence à s’intéresser à d’autres matières premières. Et l’on voit ainsi fleurir, un peu partout, les recherches plus ou moins opérationnelles pour fabriquer le plastique de demain à partir de matériaux différents, dont les algues, ce végétal miracle dont on ne finit pas de découvrir les vertus : tour à tout utilisé comme engrais, comme ressource alimentaire, comme cosmétique et désormais comme absorbeur de gaz à effet de serre, mais aussi demain peut-être pour produire des carburants, de l’asphalte, voire des objets du quotidien en plastique.

Usine pétrochimique de production de polyéthylène à Singapour (photo © Exxonmobil / PlastEurope)

En France, c’est d’ailleurs, parmi bien d’autres, une entreprise bretonne qui est en pointe dans ce domaine, sous l’impulsion d’un jeune entrepreneur, Rémy Lucas, ingénieur plasturgiste, dont les grands-parent justement ramassaient le goémon sur les plages du Finistère nord, pour en faire de l’amendement agricole alors très prisé localement, mais qui était aussi brûlé dans des fours pour la production de soude. En 2010, cet ingénieur crée la société Algopack qui a développé, en collaboration avec le Centre d’études et de valorisation des algues et la Station biologique de Roscoff, un process innovant pour fabriquer du plastique à partir de ces mêmes algues brunes.

Rémy Lucas, fondateur de la société Algopack, avec des mugs fabriqués en plastique à base d’algues (photo © Isabelle Lê / Ouest France)

Déshydratées et broyées, les algues se transforment en petits agrégats qui servent de matière première pour fabriquer un plastique utilisé aussi bien pour réaliser des films alimentaires que des clés USB, des montures de lunettes, des jouets de plage ou des pots de fleurs biodégradables. L’approvisionnement se fait aussi par recyclage des sous-produits de l’industrie cosmétique, elle-même très friande d’algues, et des recherches sont en cours pour tenter d’utiliser également les immenses accumulations d’algues brunes de la Mer des Sargasses qui connaissent un développement exponentiel sous l’effet du réchauffement climatique et viennent perturber l’activité touristique dans les Antilles.

Ramassage d’algues brunes échouées sur la plage de Sainte-Anne en Guadeloupe (photo © Emmanuel Lelaidier / MaxPPP / La Croix)

Mais bien d’autres acteurs industriels se lancent dans cette filière manifestement prometteuse, non seulement pour remplacer à l’avenir le recours au dérivés pétroliers de plus en plus difficiles à extraire, mais aussi pour réduire l’impact écologique catastrophique des rejets de plastique non dégradable qui polluent désormais la planète entière et que l’on retrouve de plus en plus fréquemment dans le ventre même des poissons et de la faune marine. On estime en effet que chaque seconde, pas moins de 500 kg de plastique finissent d’une manière ou d’une autre dans les océans qui sont ainsi le réceptacle de 10 % de la production mondiale de plastique : une horreur !

Autour de l’étang de Berre, c’est encore une autre motivation qui s’ajoute à cette volonté de développer un plastique moins dangereux pour l’environnement. Il s’agit en effet de trouver un débouché industriel aux accumulations d’algues vertes qui, à certaines périodes de l’année et comme sur les plages bretonnes, viennent s’échouer en énormes quantités sur les rives de l’étang et de son voisin, le Bolmon, sous l’effet de l’eutrophisation des eaux enrichies pas les nitrates et les phosphates des eaux d’assainissement qui s’y déversent. Malgré l’organisation de campagnes de ramassage mécanique avec des engins allant jusqu’à moissonner les algues sous l’eau, l’invasion est incontrôlable et ces algues échouées, en se putréfiant, dégagent des gaz toxiques pour les animaux et même l’homme.

Échouage d’ulves, les algues vertes, sur la presqu’île du Jaï en bordure de l’étang de Bolmon (source © GIPREB)

C’est la raison pour laquelle la société Eranova vient d’implanter un démonstrateur pré-industriel à Port-Saint-Louis-du-Rhône, inauguré le 18 février 2022 sur un vaste espace de 1,3 ha pour caler un processus industriel visant à valoriser ces algues vertes comme matière première pour la réalisation d’une résine plastique multiusage destinée à fabriquer aussi bien des sacs poubelles que des emballages alimentaires biodégradables ou des plateaux repas.

L’idée n’est pas neuve puisque cette implantation fait suite à une expérimentation de grande ampleur conduite à Palavas-les-Flots avec l’IFREMER par Philippe Lavoisier et Philippe Michon, les deux cofondateurs de la société Eranova. Le procédé ainsi développé et désormais breveté consiste à faire croître des algues en les affamant, de sorte à réduire leur teneur en protéine et augmenter leur production d’amidon, ce qui permet d’obtenir une matière première nettement plus riche en amidon que le blé ou le maïs classiquement utilisés pour la production de bioplastiques, après extraction du sucre et polymérisation. Ceci confère à ce plastique des caractéristiques mécanique très supérieures.

Vue aérienne de l’usine Eranova implantée à Port-Saint-Louis-du-Rhône (photo © Eranova / GoMet)

Un tel procédé repose donc sur la culture d’algues à grande échelle, dans de vastes bassins, l’apport des algues échouées sur les rives de l’étang de Berre comme sur les plages bretonnes, n’étant qu’une motivation supplémentaire. En tout cas, le procédé est suffisamment innovant et prometteur pour avoir permis de drainer de nombreux soutiens financiers publics et privés, de la Région PACA ou de l’ADEME comme de Total énergies : si même les pétroliers s’intéressent à un tel procédé qui les concurrence directement, c’est qu’il doit certainement être intéressant…

L. V.

Intel : pourquoi une telle subvention européenne ?

24 mars 2022

Le gouvernement américain tente actuellement, vaille que vaille, de faire pression sur certains pays asiatiques dont l’Inde et surtout la Chine, pour qu’ils ne profitent pas de la tension actuelle pour se rapprocher de la Russie et l’aider à contourner les sanctions économiques mises en place suite à l’invasion de l’Ukraine. Et pendant ce temps-là, une entreprise américaine fait pression sans la moindre vergogne, sur les pays européens en leur réclamant pas moins de 8 milliards d’euros de subvention publique pour pouvoir installer en Europe une usine de semi-conducteurs, faute de quoi l’entreprise californienne Intel Corporation, deuxième producteur mondial de microprocesseurs derrière Samsung, menace de s’implanter en Asie pour de strictes raisons de compétitivité économique.

Intel emploie déjà 10 000 personnes en Europe (photo © Intel / Glassdor / L’Usine digitale)

Ainsi va le monde des affaires… Pendant que certains se battent pour défendre leur liberté et les frontières de leur pays, au nom de certaines valeurs universelles dont le droit des peuples à l’autodétermination, d’autres cherchent uniquement à profiter des subventions publiques pour maximiser leur profit et celui de leurs actionnaires !

Il faut dire que cette idée de vouloir augmenter la production en Europe de semi-conducteurs indispensables à l’industrie moderne et qu’il faut pour l’essentiel importer d’Asie, répond à une véritable demande politique européenne, formulée il y a déjà un an par le commissaire européen au Marché intérieur, Thierry Breton, à Pat Gelsinger, alors nouvellement nommé PDG d’Intel. La pénurie actuelle de puces électronique qui handicape fortement la reprise économique et allonge démesurément les délais de fabrication de la moindre voiture, s’explique en effet par le fait que l’Europe ne produit que moins de 10 % de ses besoins quand le seul Taïwanais TSMC en représente 70 % !

Les semi-conducteurs, un maillon clé de l’industrie à base d’électronique (source © TSMC / L’Usine digitale)

Et les besoins ne cessent de s’accroître puisqu’on prévoit qu’ils devraient doubler d’ici 2030 pour un marché qui devrait représenter alors pas moins de 1000 milliards de dollars. Pour atteindre l’objectif ambitieux fixé par Thierry Breton de produire en Europe 20 % de ses besoins, il faudrait donc multiplier par 4 les moyens de production européens. Ambitionnant de devenir le futur leader des puces électroniques dont la finesse de gravure descend en dessous de 5 (voire 2) nanomètres, le nec plus ultra de la technologie de demain, l’Europe sort donc le chéquier pour attirer les Américains sur son territoire !

L’Europe ne manque pourtant pas d’industriels qui seraient en capacité de développer eux-mêmes ces produits de haute technologie dont le monde a besoin. Les trois principaux d’entre eux qui continuent à assurer une production européenne sont l’Allemand Infineon Technologies, le Néerlandais NXP et le franco-italien STMicroelectronics, issus eux-mêmes des grands groupes d’électricité Siemens, Philips et Thomson. Seulement voilà, ces grandes entreprises pourtant autrefois leader dans le domaine, ont été prises de vitesse dans la course au développement technologique et ne sont pas en capacité de produire ces micro-processeur avec une finesse de gravure inférieur à 7 nm qui représente le standard désormais recherché.

Usine de puces électroniques d’Intel dans l’Oregon (source © Intel Corporation / L’Usine nouvelle)

L’objectif est donc de relancer les efforts de recherche pour tenter de se replacer dans le peloton de tête des puces du futur, celles de 2 ou 3 nm, qui permettront de placer plus de 30 milliards de transistors sur une plaquette de la taille d’un ongle. Et pour cela, l’Europe mise sur ses fameux partenariats public-privé via la création d’une nouvelle entité, Key Digital Technologies, doté d’un budget de 1,8 milliard d’euros, en lieu en place de l’entreprise Ecsel, créée en 2014 mais qui n’a pas tenu toutes ses promesses.

Reste que, en attendant ces lendemains qui chantent, l’Europe n’a guère d’autres solutions que de se tourner vers le géant américain Intel pour tenter de produire sur son sol les puces dont elle a tant besoin. Oublié donc l’amende record de 1 milliard d’euros que la Commission européenne avait voulu infliger à Intel en 2008 pour abus de position dominante… Intel vient donc d’annoncer que les principaux bénéficiaires européens de sa future implantation, pour laquelle il prévoit d’investir pas moins de 33 milliards d’euros sur le Vieux Continent, seront, comme on aurait pu s’y attendre, l’Allemagne et l’Irlande !

La principale usine de semi-conducteur, qui représente un investissement de 17 milliards d’euros à lui tout seul, sera en effet implantée à Magdebourg, dans le Land de Saxe-Anhalt, à 130 km à l’ouest de Berlin. L’usine devrait être mise en service d’ici 2027 et devrait permettre de créer 3000 emplois permanents, ce qui paraît peu vu les montants investis, mais ne faisons pas la fine bouche… L’usine Intel déjà présente en Irlande bénéficiera, elle-aussi d’un investissement significatif de 12 milliards d’euros pour augmenter ses capacités de production, tandis qu’une usine d’encapsulement des puces électroniques sera implantée en Italie, permettant d’y créer 1500 emplois à partir de 2025. D’autres investissements sont aussi annoncés en Pologne et en Espagne.

Laboratoire du fabricant STI Microelectronics à Grenoble (photo © Jean-Pierre Clatot / AFP / Le Monde)

La France, quant à elle, n’a pas été complètement oubliée, bien qu’elle n’accueillera aucune usine, fidèle en cela à sa tradition désormais bien ancrée de désindustrialisation, mais elle devrait néanmoins héberger un centre européen de recherche-développement, sur le plateau de Saclay, avec 1000 emplois à la clé dont 400 dès 2024 si tout va bien. A défaut de produire, la France reste malgré tout un pays attractif pour la recherche de haut niveau : on se console comme on peut…

L. V.

ITER : y a t-il un risque de dérapage ?

9 mars 2022

Le projet ITER, de réacteur thermonucléaire expérimental international, initié depuis 2006 sur le site de Cadarache, dans le nord des Bouches-du-Rhône, à une quarantaine de kilomètres d’Aix-en-Provence, est souvent présenté comme l’un des plus ambitieux projets de recherche internationaux, comparable à celui de la Station spatiale internationale. Rassemblant pas moins de 35 nations, dont l’Europe, les États-Unis, la Russie, la Chine, l’Inde, la Corée du Sud ou encore le Japon, le projet consiste ni plus ni moins qu’à mettre en œuvre un vieux rêve prométhéen qui consiste à reconstituer expérimentalement les conditions de la fusion thermonucléaire contrôlée dans une sorte de soleil miniature.

Vue aérienne du site d’ITER à Saint-Paul-les-Durance en 2020 (photo © drone Riche / France 3 Région)

Une miniature toute relative d’ailleurs car tout est gigantesque sur ce site de 42 ha équipé d’un bâtiment-réacteur pesant 440 000 tonnes, soit 40 fois le poids de la Tour Eiffel ! Le mélange deutérium-tritium doit y être porté à une température dépassant les 150 millions de °C, soit 10 fois la température qui règne dans notre soleil ! Ce plasma profondément instable devra être maintenu en fusion sous une pression énorme dans une chambre torique, le tokamak, équipée d’aimants supraconducteurs permettant de générer un champ magnétique colossal. Le plasma qui s’y formera est une sorte de soupe dans laquelle les atomes voient leurs noyaux s’individualiser, permettant leur fusion pour créer de l’hélium, ce qui libère une énergie considérable, les neutrons venant irradier l’enceinte du réacteur qui emmagasine l’énergie thermique ainsi créée. Le principe est le même que celui de la bombe H que les États-Unis ont fait exploser pour la première fois en 1952, sauf qu’ici la fusion thermonucléaire est supposée être contrôlée et maîtrisée.

Schéma de principe du tokamak d’ITER : vue en coupe montrant la chambre à vide, le cryostat et les bobines de champ magnétique (source © ITER / The Conversation)

Mais, comme tout projet expérimental, rien ne se passe exactement comme prévu… ITER devait initialement être mis en service en 2020 pour un coût global qui avait été estimé à 4,5 milliards d’euros. Lors du lancement effectif du projet, en 2006, le coût prévisionnel avait déjà été réévalué à 10 milliards d’euros, et on l’estime désormais à 44 milliards d’euros dont 20 milliards apportés par l’Union européenne. Les Américains, plus réalistes, le chiffrent même à 54 milliards d’euros en y intégrant son coût de fonctionnement et de démantèlement, une fois l’expérience achevée.

Car tout ceci n’est qu’un dispositif expérimental, destiné, au mieux, à démontrer, vers 2035 si tout va bien, une fois achevé l’assemblage du tokamak et après s’être assuré de sa parfaite étanchéité, la capacité à produire effectivement de l’énergie par fusion thermonucléaire contrôlée. Il restera ensuite à passer à la phase du démonstrateur, dont la construction est d’ores et déjà prévue au Japon et dont on espère la première production vers 2050, avant d’envisager ensuite, peut-être, le passage au stade industriel avec la réalisation des premiers prototypes.

Assemblage d’éléments de la future chambre à vide en août 2021 (source © ITER Organization / CERN courrier)

Bref, la fourniture d’électricité à base de fusion thermonucléaire n’est pas pour demain, et certains se demandent même si elle existera un jour. Pour que le dispositif présente un intérêt, il faut en effet que l’énergie produite, à savoir une puissance de 500 MW escomptée pour ITER, soit très supérieure à celle nécessaire pour alimenter le dispositif. Or cette puissance pour les tirs de plasma est évaluée à 50 MW, ce qui représente en effet un ratio particulièrement favorable. Sauf que la puissance totale consommée par l’installation, du fait de son fonctionnement global et des pertes énergétiques, est en réalité plutôt comprise entre 300 et 500 MW qui devront dont être injectés depuis le réseau, ce qui fait douter certains scientifiques de l’intérêt même du procédé…

Ces chiffres, relevés notamment par Reporterre, sont issus directement des données communiquées lors du débat public organisé en 2006, qui précisait que la machine consommera 120 MW en régime de veille puis montera à 620 MW pour chauffer le plasma et redescendra à 450 MW pendant la phase principale de l’opération (prévue pour durer quelques minutes seulement) : des puissances effectivement très proches de la production escomptée et auxquelles il faudra ajouter tout le reste de l’installation environnante. A titre indicatif, une puissance de 600 MW correspond sensiblement aux besoins en électricité d’une agglomération comme Aix-en-Provence.

Outre cette question de fond, certains s’interrogent sur l’impact environnemental d’une telle filière pourtant classiquement présentée comme exempte de tout déchet nucléaire. A titre d’exemple, les 10 000 tonnes des aimants supraconducteurs prévus pour ITER (sans parler donc d’une éventuelle exploitation industrielle à venir) nécessitent à eux-seuls 450 tonnes de niobium, un métal rare extrait pour l’essentiel de quelques mines en Amazonie brésilienne, soit 20 % de la production mondiale actuelle ! La production mondiale d’alliage niobium-étain a d’ailleurs dû être multipliée par 6 pour les seuls besoins d’ITER…

Extraction de niobium à Araxà dans le Minas Gerais au Brésil (source © Revista Decifra-me / Global voice)

Autre point d’inquiétude : le recours massif au béryllium, un métal réfractaire excellent conducteur thermique et ultra résistant, choisi pour recouvrir toute la paroi interne du Tokamak, au contact direct avec le plasma thermonucléaire. Un choix qui interroge quand on sait que ce matériau naturel est l’un des plus toxiques, comparable à l’arsenic et au mercure, fortement cancérigène et s’accumulant à long terme dans l’organisme humain. Alors que la consommation mondiale est de l’ordre de 300 t/an, on a prévu d’en utiliser pas moins de 12 tonnes sur le site d’ITER ! Et cette couverture de béryllium exposée au bombardement de neutrons va s’user rapidement, ce qui suppose d’évacuer, après chaque expérience, la poussière de béryllium fortement radioactive et par ailleurs explosive. Des aspirateurs géants sont imaginés pour cela, conduisant ces poussière dans un four avant de les agglomérer à du ciment pour les fixer dans des fûts.

Un choix technique qui a conduit la toxicologue américaine Kathryn Creek, experte du béryllium, à démissionner d’ITER en février 2020, après avoir tenté en vain de faire évoluer vers davantage de sécurité la conception des cellules où seront traités à la fois les poussières de béryllium irradié et le tritium radioactif. Et elle n’est pas la seule à se heurter ainsi à une sorte d’aveuglement qui semble caractériser le management de ce projet scientifique. Entendu le 28 février 2022 par la Commission de contrôle budgétaire du Parlement européen, l’ex-directeur de la communication d’ITER, Michel Claessens, s’est ainsi montré très critique, estimant, selon Reporterre, que « l’organisation ITER a instauré un mode de management par la peur », évoquant notamment le suicide, en 2021, d’un ingénieur italien de 38 ans au sein de l’agence Fusion 4 Energy qui coordonne le projet, ainsi qu’une tentative de suicide et deux décès par crise cardiaque sur le site même.

Un dessin signé Red (source © L’Âge de faire)

Ces accusations sont plutôt inquiétantes car elle mettent en avant un climat qui empêche toute tentative d’alerte de la part des experts de haut niveau qui interviennent sur ce site expérimental. Les interrogations portent en particulier sur l’étanchéité réelle du bouclier de protection situé autour du tokamak, dont l’efficacité serait moindre que prévu. Un point d’autant plus crucial que l’Autorité de sûreté nucléaire (ASN), a constaté, lors d’une inspection en juillet 2021, des falsifications portant sur les certifications des soudures effectuées sur la chambre à vide du réacteur. Fin janvier 2022, le journaliste américain Steven Krivit, révélait d’ailleurs que les travaux d’assemblage étaient interrompus à la demande de l’ASN qui jugeait que « la maîtrise de la limitation de l’exposition aux rayonnements ionisants, enjeu majeur pour une installation de fusion nucléaire », n’était pas démontrée.

Où l’on voit que les projets scientifiques, même les plus prometteurs et les plus collaboratifs, ne sont pas exempts de doute quant à la manière dont ils sont mis en œuvre…

L. V.

L’ADN au secours des archivistes

20 février 2022

La conservation des archives a toujours été un casse-tête. Les historiens sont bien contents de pouvoir retrouver des documents anciens pour alimenter leurs recherches, nous aider à comprendre le passé mais aussi parfois contribuer à mieux gérer le présent. Pour autant, comment être sûr de bien garder les documents les plus utiles sans pour autant s’encombrer de monceaux de paperasses qui n’ont d’intérêt que dans l’instant présent ?

Archives nationales conservées à l’Hôtel de Soubise, dans le quartier du Marais à Paris (source © Paris zigzag)

Et comment avoir la certitude que les document précieusement stockés pour les générations futures résisteront bien à l’épreuve du temps et seront toujours lisibles dans plusieurs centaines voire milliers d’années ? Le exemples abondent malheureusement de lieux d’archivages qui n’ont pas résisté à l’épreuve du temps, depuis la grande bibliothèque d’Alexandrie, disparue dans les limbes de l’Histoire, jusqu’aux archives de Carnoux, pourtant pas si vieilles, mais qui ont été négligemment stockées pendant des années dans une cave humide sous les anciens locaux du CCAS…

Crées en 1790, en pleine période révolutionnaire, dans un souci de centraliser et d’homogénéiser la gestion de la mémoire publique, les Archives nationales, complétées en 1796 par les Archives départementales, ont justement pour rôle de procéder au tri et au stockage de tout ce qui peut être utile pour conserver une trace écrite de tout ce que l’administration française produit en termes d’actes et de décisions. Désormais, cette vénérable institution des Archives nationales conserve sur ses serveurs, plus de 70 téraoctets (To) de données numériques, capacité qui devrait passer rapidement à plus de 200 To.

Les systèmes d’archives de données numériques, un véritable gouffre énergétique… (source © Archimag)

Mais le stockage numérique des archives n’est pas la panacée que l’on imagine. A force de produire et de conserver tout sur support numérique, on est arrive à une véritable explosion des data centers, ces usines gigantesques qui consomment déjà 2 % de l’électricité mondiale, avec une empreinte carbone qui a d’ores et déjà dépassé celle de l’aviation civile ! On estime que le volume mondial de données numériques ainsi stocké atteint déjà 45 zettaoctet (soit 45 milliards de To) et probablement 175 Zo dès 2025.

Or, 70 % des données ainsi stockées sont des « archives froides », de celles qu’on garde en mémoire pour les historiens et les chercheurs, mais qu’on ne consulte que de manière exceptionnelle. Sauf que les supports physiques pour les conserver, disques durs ou bandes magnétiques, ne sont pas éternels, si bien qu’il faut régulièrement recopier les données, tous les 5 à 7 ans, sur de nouveaux supports pour ne pas risquer de les perdre à jamais.

C’est pourquoi, on imagine désormais d’autres voies pour ce stockage numérique, dont la technique du DNA Drive, développée et brevetée en 2019 par deux chercheurs français, Stéphane Lemaire et Pierre Crozet, lesquels ont fondé la société Imagene et viennent de lancer une action médiatique spectaculaire en procédant au stockage sur ADN de deux œuvres emblématiques conservées aux Archives nationales : la Déclaration des droits de l’Homme et du citoyen et son pendant féministe, celle des Droits de la femme et de la citoyenne, rédigée en 1791 par Olympe de Gouges.

La Déclaration des Droits de l’Homme et du citoyen de 1789 (photo © Getty / France Culture)

Le principe est simple puisqu’il consiste en un encodage des textes non pas selon un code binaire comme en informatique, mais sur la base d’un code à 4 lettres, celui des 4 bases nucléiques (adénine, thymine, cytosine et guanine) qui forment les brins d’ADN. Le texte ainsi codé est ensuite utilisé pour encoder des chromosomes par synthèse biologique et pourra alors être déchiffré par séquençage pour retrouver le texte d’origine. L’avantage de la méthode est que les brins d’ADN synthétisés, une fois lyophilisés, se conservent indéfiniment à l’abri de l’air, de l’eau et de la lumière.

L’intérêt du dispositif est évident car chaque gramme d’ADN peut ainsi stocker 450 millions de To : un être humain conserve ainsi pas moins de 2,7 Zo dans son propre ADN, qui dit mieux ? La totalité des données numériques mondiales pourrait ainsi être stocké sur 100 g d’ADN, soit la taille d’une tablette de chocolat ! Et ceci pour au moins 50 000 ans, sans risque d’altération et sans aucun apport d’énergie donc, en espérant qu’il subsiste encore, à cette échéance, des humains capables de récupérer l’information…

Capsules de stockage des documents sur support ARN (photo © Stéphane Lemaire / CNRS / Sorbonne Université / France Culture)

L’idée n’est d’ailleurs pas nouvelle puisqu’elle a été formulée dès 1959 par le prix Nobel de physique, Richard Feynman. La démonstration récente des chercheurs français, la rend cependant nettement plus concrète avec cette mise en scène soigneusement calculée, le 23 novembre 2021, lorsque les deux textes emblématique des Archives nationales ont été remisées en grandes pompes dans l’Armoire de fer du musée des archives à Paris, sous le forme de deux minuscules capsules métalliques de 18 mm de long, chacune contenant pas moins de 100 milliards d’exemplaires du texte historique ainsi encodé.

L’Armoire de fer, au musée des Archives nationales à Paris, construite sous la Révolution et restaurée en 2019 (source © Fondation pour la sauvegarde de l’art français)

Pour relire ces textes, rien de plus simple puisqu’il suffit d’ajouter une goutte d’eau sur un des brins d’ADN ainsi conservé pour le réactiver et ensuite procéder à son séquençage, chaque exemplaire étant à usage unique car il est détruit après lecture. Il n’en reste pas moins que des progrès sont encore attendus pour banaliser une telle méthode de stockage. L’encodage initial est une opération lourde et coûteuse qui, dans l’état actuel de la technologie, prend plusieurs jours et coûte la bagatelle de 1000 dollars par mégaoctet, tandis que le décodage nécessite au moins 1 heure.

Mais nul doute que les progrès techniques devraient permettre d’accélérer les cadences et de baisser les coûts, rendant peut-être demain l’archivage sur ADN à la portée de tous les centres d’archivage et obligeant les futurs historiens à venir consulter avec leur pipette et leur séquenceur de poche : on n’arrête pas le progrès…

L. V.

Des filets connectés pour capter les déchets…

1 février 2022

La Mer Méditerranée, c’est bien connu, est une mer fermée, réceptacle naturel de tous nos déchets que le vent emporte et qui finissent tous, invariablement dans la mer, canalisés à chaque épisode pluvieux via les cours d’eau et le réseau de collecte des eaux pluviales.

Chacun n’en a pas forcément conscience, mais un mégot jeté négligemment dans le caniveau sur le mail de Carnoux, sera nécessairement emporté à la première pluie dans la « bouche d’égout » la plus proche, laquelle conduit directement, via un simple tuyau, dans le fossé pluvial que l’on voit à la sortie de Carnoux, en contrebas de la route après le rond-point des Barles, fossé qui n’est autre que le lit résiduel du Ru de Carnoux qui se jette dans le Merlançon, lui-même affluent de l’Huveaune, qui conduira votre mégot directement en mer au niveau de la plage du Prado où, avec un peu de chance, vous le retrouverez avec plaisir en allant barboter dans l’eau l’été prochain…

Regard pluvial à Carnoux : dernière étape avant un rejet direct en mer… (photo © CPC)

On estime que l’on rejette ainsi en mer chaque année, bien involontairement et sous le seul effet mécanique du vent et de la pluie, plus de 10 millions de tonnes de déchets, principalement à base de plastique qui se fragmente peu à peu et pénètre dans toute la chaîne alimentaire. D’ici 2050, les océans contiendront probablement plus de plastique que de poissons.

Malgré tous les efforts des pouvoirs publics et de nombreuses initiatives privées pour essayer de nettoyer cet immense dépotoir qu’est devenue la Mer Méditerranée, une des solutions les plus efficace est encore d’éviter que nos déchets ne viennent se déverser en mer à chaque orage comme on l’a encore constaté lors de l’épisode pluvieux du 4 octobre 2021 qui avait coïncidé de surcroît avec une grève des éboueurs métropolitains, si tant est que l’on puisse encore parler de coïncidence pour des phénomènes aussi récurrents…

Déchets jonchant la plage du Prado après les intempéries du 4 octobre 2021 (photo © Nicolas Tucat / AFP / Le Monde)

Une des solutions envisagée et déjà testée avec succès en de multiples endroits est de récupérer ces macro-déchets en installant des filets à l’exutoire des réseaux d’eau pluviale, voire des déversoirs d’orage qui, eux, sont liés directement aux réseaux d’eaux usés, lesquels finissent toujours, en cas de forte pluie, à excéder les capacités de traitement des stations d’épuration, si bien que l’on n’a généralement pas d’autre choix que de déverser alors directement en mer les eaux usées sans le moindre traitement en comptant sur la dilution naturelle et l’effet de chasse pour que cela ne soit pas trop visible…

Mise en place d’un filet récupérateur de déchet à la sortie d’un exutoire (source © Made in Marseille)

L’inconvénient d’un tel dispositif est que les filets, même de grande capacité, finissent toujours par se remplir, souvent précisément au plus fort de l’orage, formant alors de véritables bouchons à l’exutoire des réseaux d’eau usées, provoquant alors des débordement d’eau nauséabonde sur la voirie et dans les sous-sols des immeubles avoisinants, ce qui n’est généralement guère apprécié des riverains !

C’est pour éviter ce type de désagrément que la start-up marseillaise, au nom typiquement provençal de Green City Organisation, a lancé son dispositif D’Rain de filet connecté. Créée en 2017 par Isabelle Gérente, une plongeuse d’origine lilloise venue à Marseille pour développer des projets sportifs mais écœurée par les arrivées massives en mer de déchets de toute sorte à chaque épisode pluvieux, cette start-up a donc développé un système de collerette équipée de capteurs, que l’on vient fixer à la sortie d’une canalisation d’eau pluviale et à laquelle on accroche un filet qui récupère les déchets.

Isabelle Gérente, la fondatrice de Green City Organisation (photo © France TV Info)

Grâce à un dispositif de transmission des données collectées, on connaît à tout moment le niveau de remplissage du filet, ce qui permet de venir le récupérer et le changer à temps tout en évitant les plongées intempestives de surveillance. De surcroît, les capteurs recueillent en permanence des données sur la qualité de l’eau : salinité , pH, taux d’oxygène dissous, mais aussi teneur en hydrocarbures, métaux lourds ou encore résidus médicamenteux de nature à dégrader fortement l’état du milieu aquatique.

Schéma du principe du dispositif D’Rain avec sa collerette connectée et ses filets de récupération (source © Green City Organisation / GoMet)

Labellisé par les pôles de compétitivité Aquavalley et le Pôle Mer Méditerranée, le dispositif a été breveté e 2020. Après un premier essai dans le Vieux-Port de Marseille, la start-up marseillaise avait annoncé début 2021 la signature d’un partenariat avec la fondation Probiom, une ONG environnementale qui tente de lutter contre la prolifération de déchets plastique sur les côtes algériennes. Le 14 décembre 2021, la société a organisé, sur le Vieux-Port, dans les locaux de la Société nautique, une présentation de son démonstrateur, fruit de 18 mois de recherches cofinancées par l’Agence de l’Eau et Total Énergies, avant de mettre en scène l’installation du dispositif sur l’exutoire situé à proximité, l’un des plus gros d’Europe, et qui sert de déversoir d’orage directement dans le Vieux-Port en cas de forte pluie.

Vue du dispositif expérimental D’Rain mis en place au niveau de l’exutoire de la Société nautique sur le quai du Vieux-Port à Marseille le 14 décembre 2021 (photo © Rémi Liogier / GoMet)

Les filets ainsi mis en place, fournis par la société Ecotank, ont une capacité de 10 m³ et sont constitués d’une double paroi, à mailles larges pour bloquer les macro-déchets, mais doublés d’une maille plus fine pour arrêter même les mégots. Quant le filet est plein, la collerette intelligente, qui pèse quand même 1,7 tonnes, se détache automatiquement et l’exploitant est alerté pour qu’il puisse venir récupérer le filet à l’aide de scaphandriers, mobilisés par l’entreprise Seven Seas et le remplacer par des filets neufs.

Installation du dispositif expérimental D’Rain sur l’exutoire du Vieux-Port à Marseille le 14 décembre 2021 (photo © Guillaume Ruoppolo / Walis / Marseille médias)

Didier Réault, vice-président de la Métropole, délégué à la mer et au littoral, était présent lors de cette démonstration et s’est montré intéressé par cette technologie innovante qui pourrait, à terme, équiper les quelques 180 exutoires en mer pour la seule ville de Marseille, exploités par la SERAMM, dans le cadre d’une délégation de service public. Même dans cette hypothèse, et même en imaginant qu’une telle technologie de pointe soit suffisamment fiable pour permettre de récupérer ainsi une partie de nos déchets, ce n’est bien évidemment pas une raison pour continuer à jeter négligemment votre mégot dans le caniveau…

L. V.

Elyze : la lettre aux électeurs perdus

15 janvier 2022

La politique n’intéresse plus les jeunes, tout le monde le sait et l’affirme haut et fort. A moins de 3 mois de la prochaine élection présidentielle, chacun est persuadé que les moins de trente ans ne se déplaceront pas dans les bureaux de vote, sachant que moins de 20 % d’entre eux avaient voté à tous les tours lors des élections de 2017, présidentielles et législatives comprises.

L’abstention des jeunes, reflet d’une défiance ou d’une indifférence ? Un dessin signé Olivero (source © Huffington Post)

Et pourtant, certains se démènent pour inciter les plus jeunes électeurs à se prononcer lors des consultations électorales qui, quoi qu’on en pense et quoi qu’on vote, restent, pour les citoyens vivant en régime démocratique, un des moyens les plus déterminants de peser sur les grands choix de société susceptibles d’influer tant sur notre vie quotidienne que sur notre avenir commun, C’est le cas de ces jeunes entrepreneurs âgés de 19 à 24 ans, qui viennent de lancer, le 2 janvier 2022, une application pour smartphone qui fait fureur. Elyze, téléchargée plus de 600 000 fois en quelques jours, a justement pour objet d’aider les jeunes électeurs à s’y retrouver parmi les propositions des multiples candidats aux prochaines présidentielles, et surtout à retrouver le chemin des urnes le 10 avril prochain.

Parmi ces jeunes accros de la démocratie qui se démènent pour réconcilier les jeunes et la vie politique, Grégoire Cazcarra, 21 ans, étudiant en école de commerce, et François Mari, 19 ans, inscrit à HEC Paris, se sont retrouvés au sein du mouvement associatif Les Engagés, un mouvement citoyen créé en 2017 à Bordeaux, en réaction à ce second tour des législatives qui a vu plus de la moitié des électeurs français bouder carrément les bureaux de vote.

L’équipe conceptrice de l’application pour smartphone Elyze (photo © Grégoire Cazcarra – Elyze.app / France 3 régions)

Décidés à tout faire pour amener les jeunes générations à s’impliquer davantage dans le processus électoral démocratique, ils se sont associés notamment avec le youtubeur Gaspard Guermonprez et avec Wallerand Moullé-Berteaux, 24 ans, fondateur du média numérique Le Crayon, pour créer, avec l’appui de nombreux bénévoles, cette appli Elyze, dépourvue de publicité et disponible gratuitement sur Appel Store et Play Store, qui fait un tabac depuis son ouverture au public.

Réalisée sur le modèle de Tinder, l’appli destinée à favoriser les rencontres amoureuses et qui fait défiler des partenaires potentiels, Elyze met en avant des propositions issues des programmes politiques des différents candidats à l’élection présidentiels. Sur l’écran défilent ainsi des propositions comme « réduire à 32 heures le temps de travail hebdomadaire », « permettre la destitution des élus à tout moment », « rétablir de bonnes relations politiques avec la Russie », « réduire le nombre de fonctionnaires », ou encore « instaurer le droit de vote à 16 ans » ou bien « instaurer la gratuité des transports en commun ».

Elyze, l’appli politique qui cartonne… (photo © Magali Cohen / Hans Lucas / Libération)

Pour chacune d’elles, l’utilisateur décide s’il est d’accord ou non avec la proposition, sans savoir bien entendu de qui elle émane. Lorsqu’elle lui semble floue, la rubrique « en savoir plus » permet de préciser les contours de la proposition et de mieux la contextualiser. Au bout de 50, une première tendance se dessine mais on peut poursuivre le jeu jusqu’à 500 propositions. Et peu à peu se dessine le profil des candidats de qui on se trouve objectivement le plus proche, l’application les présentant sur un podium avec les 3 candidats qui se dégagent, classés par affinité avec nos choix programmatiques.

Le résultat est bluffant, ce qui explique sans doute le succès inouï d’Elyze, d’autant qu’on peut ensuite compléter son approche soit en balayant les propositions des uns et des autres, classées par grandes thématiques (environnement, éducation, économie, culture, international, institutions et territoires, etc.), soit en consultant le profil plus détaillé de chacun des candidats déclarés ou de celui avec qui on a le plus «matché », tout comme le fait Tinder pour décrire les particularités du partenaire qui a retenu notre attention.

Quelques écrans de l’application Elyze (source © RTL)

L’outil est ludique à souhait mais en même temps pédagogique car reposant sur un travail d’analyse très fouillé des déclarations des différents candidats, mené de manière aussi « neutre, apolitique et apartisane » que le revendiquent ses créateurs, ce qui en fait tout l’intérêt, et promet quelques surprises au citoyen paresseux qui se repose sur ses préjugés et découvre à cette occasion des propositions pour le moins surprenantes de la part de certains des candidats à la magistrature suprême…

Conçu pour réconcilier les jeunes avec la politique et les amener à s’intéresser aux enjeux de la prochaine présidentielle, Elyze a incontestablement réussi son pari et bien au-delà de sa cible initiale car chaque citoyen accro à son smartphone ne pourra que se prendre au jeu et se laisser porter par les propositions qui défilent, jusqu’à découvrir, parfois avec surprise, avec quel candidat il a le plus d’affinités en termes de proposition. Une manière finalement assez rationnelle d’orienter son vote.

Un dessin signé Cambon à l’occasion du second tour des présidentielles 2017 (source © C3V maison citoyenne)

Mais chacun sait bien qu’une élection ne se joue pas que sur la qualité d’un programme et la cohérence des propositions du candidat, la couleur de son parti ou celle de sa cravate n’étant pas non plus totalement étranger au choix final de l’électeur. Comme en matière de rencontres amoureuses, le cœur a ses raisons que la raison ne connaît pas toujours…

L. V.