Posts Tagged ‘Innovation’

Demain, une autoroute solaire à Marseille ?

27 septembre 2022

L’énergie solaire, bien qu’intermittente, présente l’avantage d’être inépuisable et pourrait permettre de couvrir largement nos besoins en électricité, à condition de pouvoir être stockée, ce qui n’est pas si simple… Depuis des années maintenant on voit fleurir des panneaux photovoltaïques sur nombre de toits, initialement surtout dans le but de revendre l’électricité produite au réseau public à un prix garanti très attractif, désormais pour consommer directement l’électricité ainsi produite, ce qui limite la question de son transport… On voit aussi de plus en plus des bâtiments publics mais aussi des hangars agricoles, industriels ou commerciaux qui offrent généralement de belles surfaces de toitures, se recouvrir de panneaux photovoltaïques.

Cave viticole de Bonnieux, dans le Vaucluse, largement recouverte de panneaux photovoltaïques depuis une bonne dizaine d’années (source © Cave de Bonnieux)

Une alternative particulièrement judicieuse aux centrales solaires installées au sol sous forme de panneaux simplement posés sur supports fixes ou orientables, voire avec concentration sur une tour centrale, mais qui occupent de l’espace, au détriment d’autres usages. Certains ont bien essayé de développer des panneaux solaires sur ombrières pour les installer au milieu des cultures, mais avec un risque de concurrence voire de gêne pour les travaux agricoles. D’où l’idée d’installer les panneaux photovoltaïques de préférence dans les lieux où ils ne font pas concurrence à d’autres usages. Outre les toitures ou les anciennes décharges difficiles à réhabiliter, comme celle d’Entressen, dans la Crau, ce sont maintenant les canaux de distribution d’eau voire les plans d’eau qui sont sollicités, même si l’installation s’y traduit par un surcoût significatif.

Des panneaux photovoltaïques déjà très présents sur les hangars agricoles, et ce n’est qu’un début… Un dessin signé Félé

Dans le même esprit, l’adjoint du maire de Marseille en charge de la transition écologique, Sébastien Barles, vient de proposer d’installer des panneaux solaires au-dessus des autoroutes urbaines de l’agglomération, l’A7, l’A50 et la L2. Une proposition qui s’inscrit dans la lignée de la labellisation de la ville de Marseille, retenue en avril dernier par la Commission européennes parmi les 100 villes qui visent la neutralité carbone en 2030. A l’époque, la candidature de Marseille avait un peu fait sourire tant la cité phocéenne partait de loin, après avoir fait le choix pendant des décennies du tout voiture, avec ses lacunes légendaires en matière de transports en commun, de préservation des ressources naturelles et de gestion des déchets notamment. Elle a pourtant été retenue avec 8 autres villes françaises parmi les 23 qui avaient candidaté, aux côtés des autres grandes métropoles passées en 2020 aux mains d’une municipalité à participation écologiste, à l’instar de Lyon, Paris, Nantes, Bordeaux, Grenoble ou Angers.

Marseille, retenue parmi les 100 villes accompagnées par la mission européennes en vue de la neutralité carbone d’ici 2030 (source © FNE PACA)

Et comme Marseille a un long chemin à parcourir pour atteindre cette bien hypothétique neutralité carbone d’ici 2030, il va falloir beaucoup d’imagination et de volonté politique ! D’où cette idée, un peu farfelue au premier abord, de recouvrir les autoroutes urbaines de panneaux solaires… L’écologiste Sébastien Barles n’est d’ailleurs pas tout seul à la porter et il était entouré, lors de sa présentation en conférence de presse jeudi 22 septembre 2022, notamment par le président du groupe écologiste au conseil municipal marseillais, Fabien Perez, par le président de la FNE 13, Richard Hardouin, mais aussi par le nouveau député LFI Hendrick Davi et le sénateur écologiste des Bouches-du-Rhône, Guy Benarroche.

Représentation de ce que pourrait être demain l’A50 recouverte de panneaux photovoltaïques (photo © P. Laurenson / Marsactu)

Car même si l’idée est séduisante, certains obstacles réglementaires empêchent pour l’instant sa mise en œuvre et il faudra peser politiquement pour les déverrouiller, en profitant par exemple du prochain examen de la loi sur l’accélération des énergies renouvelables. En supposant ces obstacles aplanis, il s’agirait de recouvrir 26 km d’autoroute, en commençant par un tronçon démonstrateur de 2 km sur l’A50 entre Marseille et Aubagne, la couverture permettant, non seulement de fournir de l’électricité (de quoi alimenter 6 000 logements rien qu’avec ces 2 premiers kilomètres), mais aussi de diminuer les nuisances sonores liées au trafic routier sur ces axes urbains régulièrement saturés.

Certes, la facture est un peu élevée, estimée à la bagatelle de 240 millions d’euros pour les 26 km visés à terme. Mais les élus sont optimistes pour lever les fonds nécessaires en mixant financement privés et publics (on voit mal la région PACA ne pas mettre la main à la poche pour un tel projet qui s’inscrit parfaitement dans sa prétention d’avoir « une COP d’avance »…), quitte à faire appel à la souscription des particuliers sous forme de participation pour un projet qui pourrait présenter un retour sur investissement évalué à 8 ans seulement.

Projet de serpent solaire imaginé par le suédois Mans Tham (source © Techniques de l’Ingénieur)

Ce projet s’inscrit en tout cas en droite ligne du Solar serpent présenté en 2010 par l’architecte suédois Måns Tham : une sorte de couverture semi-transparente des voies de circulation sous forme d’un revêtement en écailles constituées de panneaux photovoltaïques. Le concept avait été testé dès 2011 en Belgique sous forme de panneaux solaires posés sur le toit d’une tranchée couverte permettant au TGV de franchir en toute discrétion une zone naturelle protégée au nord d’Anvers. Un investissement de 15,6 millions d’euros qui permet de produire l’électricité dont a besoin le même TGV pour 2 heures de trajet…

Depuis, le coût des installations solaires a nettement baissé et l’opération devient de plus en plus intéressante, même si l’installation de panneaux photovoltaïques sous forme d’ombrières au-dessus de nos voies de circulation représente un surcoût qui reste très significatif par rapport à une installation photovoltaïque traditionnelle et ne peut donc se justifier que par les autres avantages recherchés. Il va donc falloir sans doute beaucoup de persuasion aux écologistes marseillais pour convaincre du bien fondé de leur projet, peut-être en argumentant que cette future couverture solaire de nos autoroutes urbaines permettra désormais de « rouler à l’ombre » même en période de forte chaleur…

L. V.

Un barrage pour fermer la Méditerranée ?

31 août 2022

Le détroit de Gibraltar, c’est cette porte étroite ouverte entre le Maroc et l’Espagne, par laquelle les eaux de l’Atlantique communiquent avec celle de la Méditerranée. Connue sous le nom de Colonnes d’Hercule dans l’Antiquité, elle doit son nom actuel à une déformation de l’Arabe Djebel Tariq, autrement dit, la montagne de Tariq, en référence au général Tariq ibn Ziyad, ce stratège militaire berbère qui, en avril 711, fit traverser ses troupes omeyyades pour partir à l’assaut de la péninsule espagnole.

Les côtes marocaines vues depuis le littoral espagnol à Gibraltar (photo © Pierre-Philippe Marcou / AFP / France TV info)

Large tout juste de 14 km dans sa partie la plus étroite, mais profond d’environ 800 m, ce détroit s’est ouvert il y a seulement 5,3 millions d’années, à la faveur d’une faille sismique qui s’est peu à peu élargie entre la plaque ibérique et le nord de l’Afrique. Il y a un peu moins de 6 millions d’années, à la fin du Miocène, la mer Méditerranée s’était en effet progressivement asséchée, sous l’effet conjugué de l’émergence d’un arc volcanique et de la glaciation alors en cours. Les apports d’eau des principaux fleuves méditerranéens (le Nil, le Rhône et le Pô notamment) étant insuffisants pour compenser l’évaporation de la Méditerranée, le niveau de celle-ci va baisser d’environ 1500 m ! Les cours d’eau côtiers voient leur lit s’inciser de plus en plus profondément, créent progressivement de véritables canyons à leur embouchure, dont les calanques sont les vestiges actuels.

A la fin du Miocène, la réouverture du détroit de Gibraltar se serait traduite par le déferlement assez brutal des eaux de l’Atlantique dans la Méditerranée alors quasi totalement asséchée et recouverte d’épaisses couches de sel. Une belle chute d’eau comme en rêvent tous les concepteurs d’ouvrages hydroélectriques ; Et d’ailleurs, justement, dès 1928, l’architecte allemand Herman Sörgel, projetait très sérieusement d’édifier un immense barrage hydroélectrique de 35 km de long et 300 m de hauteur à l’emplacement du détroit de Gibraltar, pour créer une dénivelée entre les deux masses d’eau et produire du courant.

Croquis du projet Atlantropa avec ses principaux ouvrages imaginés par l’Allemand Herman Sörgel (source © La marmite du 20e siècle)

Son idée, très utopique, était non seulement de fournir de l’électricité mais de baisser ainsi artificiellement le niveau de la Méditerranée, d’environ 100 m dans sa partie occidentale et même de 200 m dans sa partie orientale, grâce à deux autres ouvrages, également sources de production hydroélectrique, l’un formant un seuil entre la Sicile et les côtes tunisiennes, et l’autre barrant le détroit des Dardannelles pour retenir l’eau de la mer de Marmara. Un projet totalement pharaonique, baptisé du nom d’Atlantropa et que Sörgel défendra avec beaucoup d’enthousiasme jusqu’à sa mort en 1952, qui se serait traduit par l’assèchement de plus de 660 000 km² de terres ainsi gagnées sur la mer, soit plus que la superficie totale de la France.

Herman Sörgel avait pensé à tout, même à creuser un canal artificiel permettant de relier Venise, désormais loin dans les terres, ou à prolonger le canal de Suez autant que nécessaire. Il avait même prévu de doubler ce projet d’un gigantesque barrage hydroélectrique sur le fleuve Congo pour développer en parallèle ce continent désormais rendu plus accessible. Effrayé par la montée du nazisme et face à l’impuissance de la Société des Nations à réguler les conflits naissants, son idée était de rapprocher les pays européens (avec leurs possessions coloniales africaines d’alors) dans une communauté de destin liée à la mise en œuvre et à la gestion (par un organisme supranational) de ce vaste projet. Sörgel avait ainsi calculé que la construction du supercontinent nouveau exigerait de chaque membre de tels investissements que ces derniers n’auraient plus assez de moyens pour financer une guerre. Et en cas de menace d’un des pays membre, il suffirait pour le calmer de lui couper l’alimentation en électricité depuis la centrale de Gibraltar : redoutable !

Curieusement, les pays européens n’ont pas mis en œuvre le projet de Sörgel et ont préféré se faire la guerre… Mais voilà que l’idée d’ériger un barrage à Gibraltar revient sur le tapis, justifiée désormais par la montée du niveau des mers ! Aux dernières nouvelles, en 2016, le niveau de la Méditerranée s’était déjà élevé de 16 cm depuis le début du XXe siècle, et celui de l’Atlantique d’environ 31 cm, mais le mouvement est en train de s’accélérer et on s’attend désormais sur les côtes méditerranéennes à une élévation d’environ 30 cm d’ici 2050 et au moins 60 cm voire 1 m d’ici la fin du siècle…

Le détroit de Gibraltar vu du ciel (source © Article 19)

De quoi inquiéter sérieusement les populations des villes côtières qui se retrouvent ainsi exposées à une érosion accrue à chaque nouvelle tempête. Chacune entreprend ainsi des travaux de plus en plus titanesques, érigeant pour se protéger des digues toujours plus hautes, des épis en enrochements et même, comme à Venise, des systèmes de portes pour se protéger de la mer. Une course contre la montre aussi coûteuse que vaine, que certains imaginent donc désormais de remplacer par des investissements communs, un peu comme l’avait proposé Herman Sörgel en son temps…

Et l’on voit donc resurgir l’idée d’un barrage à Gibraltar, pour protéger de manière globale la Méditerranée contre l’élévation du niveau moyen des océans. C’est notamment le biologiste marin, Alexandre Meinesz, qui, dans son dernier ouvrage intitulé Protéger la biodiversité marine, publié aux éditions Odile Jacob, s’inquiète des effets dévastateurs sur la flore et la faune méditerranéenne de l’augmentation de la température mais aussi de l’acidité de l’eau, sous l’effet de nos émissions de gaz à effet de serre.

Alexandre Meinesz et son dernier ouvrage (source © Twitter / La Terre au Carré)

Il propose, pour y remédier, d’édifier en travers du détroit de Gibraltar un barrage muni d’écluses pour la navigation, afin de réguler les apports de l’Atlantique de manière à compenser l’évaporation tout en maintenant le niveau de la Méditerranée à celui du siècle dernier, c’est à dire 20 cm en dessous de sa cote actuelle. Le raisonnement n’est pas absurde puisque cela permettrait d’économiser d’innombrables ouvrages de protection disséminés tout le long du littoral et sans cesse rehaussés dans une course perdue d’avance contre le réchauffement climatique. Il faudrait d’ailleurs prévoir aussi un dispositif similaire au niveau du canal de Suez pour limiter l’intrusion des eaux de la mer Rouge.

Ha-Phong Nguyen a planché pendant son master sur la faisabilité d’un barrage à Gibraltar (source © EPFL)

En 2014, un jeune élève-ingénieur de l’École polytechnique fédérale de Lausanne, Ha-Phong Nguyen, a étudié la faisabilité d’un tel projet, prévoyant d’implanter un barrage dans la partie la moins profonde du détroit de Gibraltar, longue de 27 km et qu’il suffirait de fermer partiellement pour maintenir le niveau actuel de la Méditerranée malgré l’élévation attendue de l’Atlantique, tout en laissant le passage sur 1 km pour la navigation et la faune marine. Cerise sur le gâteau, l’ouvrage permettrait, en accélérant les courants, de produire autant d’électricité qu’une petite centrale nucléaire…

Un projet repris en 2016 par Jim Gower, de l’Institut des sciences de la mer du Canada, qui publiait dans la revue Natural Hazards le fruit de ses études, estimant le coût d’un tel ouvrage de 25 km de long, implanté à 284 m sous la mer, à la bagatelle de 45 milliards d’euros.

Exemples de réalisations actuelles de plus de 30 km de long dont s’est inspiré l’étude sur la fermeture de la mer du Nord, respectivement en Corée du Sud et aux Pays-Bas (source © Bull. of the American Meteorological Society)

De quoi titiller l’esprit inventif de nos voisins hollandais toujours à l’affût d’un projet d’aménagement hydraulique et inciter le docteur Sjoerd Groeskamp, océanographe à l’Institut royal néerlandais pour la recherche en mer, à publier en février 2020 avec son collègue suédois Joakim Kjellson de GEOMAR, dans le Bulletin of the American Meteorological Society, une étude imaginant cette fois la construction de 2 barrages : l’un de 161 km de long entre les côtes bretonnes et le sud de l’Angleterre, et l’autre de 475 km entre le nord de l’Écosse et les côtes norvégiennes. Ces ouvrages permettraient d’empêcher l’élévation du niveau de la mer du Nord et de protéger ainsi les côtes, souvent très urbanisées, de tous les pays concernés, pour la modique somme de 250 à 500 milliards d’euros, soit à peine 0,1 % du PNB de l’ensemble de ces pays sur 20 ans : qui a dit que l’adaptation au changement climatique allait nous coûter cher ?

L. V.

Isowat : c’est la ouate qu’ils préfèrent…

23 août 2022

Pendant (trop ?) longtemps, les Français, comme du reste une bonne partie des pays occidentaux, ont trouvé bien commode d’expédier à l’autre bout du monde les matériaux recyclables issus du tri (plus ou moins) sélectif de nos déchets, tout en important massivement l’essentiel de nos produits de consommation, désormais fabriqués quasi exclusivement dans les pays asiatiques à faible coût de main d’œuvre.

Un dessin de Patrick Chapatte, à la sauce française… (source © China Hegemony)

Sauf que la Chine ne veut plus servir de poubelle du monde et refuse désormais d’importer la plupart de nos déchets. Et sauf que ce modèle de partage à l’échelle mondiale entre ceux qui produisent et ceux qui consomment, a atteint ses limites. La pandémie de Covid19 a fait prendre conscience à certains de nos responsables politiques, bien peu clairvoyants jusque-là, à quel point cette dépendance complète de nos approvisionnements même les plus vitaux avait rendu notre pays vulnérable.

Les industriels eux-mêmes commencent à percevoir les dangers d’une telle stratégie de délocalisation à outrance : explosion des contrefaçons, guerre des approvisionnements pour l’accès aux matière premières, difficulté à maîtriser la qualité de production, retard de livraisons, renchérissement et coût écologique considérable du transport massif par porte-containers géants (même si ce poste fait la fortune de certains à l’image de la CMA-CGM et de son patron, Rodolphe Saadé), sans même parler du coût social colossal du chômage de masse qui en résulte en Europe…

La délocalisation, une lubie du capitalisme mondialisé : un dessin du regretté Tignous (source © Agora vox)

Bref, l’heure pourrait être enfin à la relocalisation d’une partie de notre production, en particulier dans le domaine de la transition écologique qui semble un marché prometteur, maintenant que l’on commence (enfin !) à prendre conscience de la nécessité et de l’urgence de prendre des mesures pour réagir contre ce fléau provoqué par l’Homme.

L’isolation thermique des bâtiments constitue, de ce point de vue, une incontestable priorité, justifiée non seulement par l’importance de son impact sur le réchauffement climatique mais aussi par la nécessité d’économiser nos approvisionnements énergétiques largement importés. Les bâtiments, du fait de la déperdition de leur énergie, constituent en effet dans notre pays la deuxième principale source d’émission des gaz à effet de serre, responsables du réchauffement climatique, derrière le transport routier, quand même… Un foyer français consacre en moyenne 60 % de ses dépenses énergétiques pour simplement chauffer et climatiser son logement, ce qui en fait un poste majeur de notre consommation nationale en électricité, gaz, fuel et charbon. Et en ces temps de tension internationale sur le prix des matières premières énergétiques, l’argument économique a souvent plus de poids que celui de l’impact environnemental…

Déperdition thermique : nos maisons largement responsables du réchauffement climatique… (source © La maison Saint-Gobain)

Toujours est-il que les choses bougent (enfin !) sur le front de l’incitation à isoler les bâtiments. Dès le 25 août de cette année 2022, la loi Climat et résilience, adoptée en 2021, interdit désormais d’augmenter le loyer des logements classés dans la catégorie F ou G à l’issue du diagnostic de performance énergétique. A compter du 1er septembre 2022, ce diagnostic, dont les modalités ont été revues, devient obligatoire pour vendre des biens de ce type, considérés comme des passoires thermiques. Et à partir du 1er janvier 2023 il deviendra carrément interdit de mettre en location des logements consommant plus de 450 kWh/m² par an, en énergie finale. Une mesure qui sera étendue à partir de 2025 à l’ensemble des logements de classe G (au delà de 420 kWh/m² par an), puis, à compter de 2028 à ceux de classe F, avant d’être appliquée aussi aux classes E, mais pas avant 2034.

Un dessin signé Erik Tartrais (source © Ville de Saint-Quentin en Yvelines)

La démarche peut paraître particulièrement prudente et progressive mais son impact ne sera pas négligeable et inquiète d’ailleurs fortement les propriétaires, notamment les bailleurs sociaux, qui vont devoir se lancer dans de gros chantiers d’isolation thermique de leur parc. Pour la seule mesure applicable dès 2023, ce sont déjà pas moins de 90 000 logements qui pourraient être concernés en France selon le Ministère, tandis que le nombre de logements actuellement de classe G est estimé à 600 000 (et le double pour ceux de classe F !)…

Isolation de combles à base de ouate de cellulose (source © Isowat Provence / Fundtruck)

Face à de tels enjeux, les industriels s’organisent et on ne peut que saluer, parmi d’autres cette initiative de la société Isowat Provence, créée en 2018 par Cyril Coillot à Aix-en-Provence, un ancien spécialiste de la gestion des déchets chez Veolia. Associé avec un fabricant de savon, il s’est mis en tête de développer un isolant thermique en ouate de cellulose, entièrement à base de matériaux recyclés. Papiers, cartons, journaux et magazines, récupérés dans les poubelles jaunes ou auprès des industriels et commerçants, font l’objet d’un procédé innovant de tri-optique de défibrage qui permet d’obtenir en entrée de processus une matière première de qualité, débarrassée de toute impureté, à partir de déchets ainsi recyclés, le tout en favorisant l’insertion professionnelle, credo des fondateurs de cette jeune start-up.

Isowat Provence, un projet en devenir… ( source © Entrepreneurs pour la Planète)

Celle-ci a bénéficié depuis 2018 d’un soutien par les pouvoirs publics, dont la Région PACA et l’ADEME et est en recherche d’un partenaire industriel pour lancer une première chaîne de fabrication permettant de valoriser localement 8000 tonnes de déchets par an pour produire jusqu’à 600 000 m² de surfaces isolantes, sans consommation d’eau, faisant ainsi d’une pierre plusieurs coups : recyclage de déchets sans les exporter à l’autre bout de la planète, création d’emploi et développement d’une filière de production locale de matériaux biosourcés à faible impact écologique, nécessaires pour accompagner les besoins d’isolation thermique de nos logements. Assurément un beau projet, mais qui reste encore à concrétiser jusqu’au stade industriel : à suivre…

L. V.

Compte-rendu de conférence : du ciel à l’Univers, le long cheminement de la pensée humaine…

6 juillet 2022

C’est dans la salle du Clos Blancheton, totalement occupée par un public à l’écoute que cette conférence a eu lieu, le 27 juin 2022, après une brève présentation de notre conférencier, par le Président du Cercle, qui nous rappela que Jacques Boulesteix, en plus de ses compétences scientifiques en astronomie, a été aussi membre fondateur du Cercle.

Jacques Boulesteix, lors de sa conférence du 27 juin 2022 (photo © CPC)

C’est dans la suite de la précédente conférence sur l’astronomie, en 2018, où JG Cuby nous présenta les outils nécessaires pour observer les phénomènes célestes et la complexité technologique de ceux-ci pour pouvoir explorer les confins de l’univers, que durant cette nouvelle conférence, Jacques Boulesteix nous proposa par une démarche originale de faire un retour sur vingt-cinq siècles d’observation du ciel et des étoiles.

En effet, on constate chez les jeunes (et les moins jeunes) un intérêt particulier sur le besoin de compréhension de notre lointain environnement céleste, où l’imaginaire prend aussi sa place. C’est donc en suggérant une suite de questions simples que se posent en général les enfants que notre conférencier y répond précisément, réponses illustrées par des vues d’astres, d’étoiles, de galaxies, d’une beauté et d’une qualité exceptionnelles. Un exposé étayé par de nombreux diagrammes et animations permettant de mieux comprendre les phénomènes régissant les lois qui sont à l’origine de la création de l’univers et les méthodes scientifiques qui ont permis de les comprendre.

C’est une fausse impression de croire que l’on aurait toujours connu la composition de l’univers. Pourtant toutes les civilisations depuis 25 siècles se sont intéressées à l’observation du ciel mais par manque d’outils mathématiques et de technologies adaptées, l’avancement des connaissances dans ce domaine a été chaotique. Déjà, dans l’antiquité, les Égyptiens, et les Grecs surtout avaient, par la simple observation des solstices, éclipses et autres phénomènes visibles, pu déterminer par la géométrie (trigonométrie), avec une approximation certes relative mais proche de la réalité, la distance de la Terre à la lune ou de la Terre au soleil, ainsi que la rotondité de la terre et avaient commencé à poser les bases de la conception héliocentrique de la course des astres.

Extrait du diaporama présenté en support de la conférence de Jacques Boulesteix

Mais ces débuts prometteurs dans la compréhension des phénomènes astronomiques ont été quasiment stoppés durant 18 siècles à cause du blocage idéologique que le pouvoir religieux a imposé. En effet, les religions monothéistes comme le catholicisme, mettent Dieu créateur du monde, de la Terre comme de l’homme au centre de celui-ci. Dès lors, on ne peut être qu’un hérétique à contester cet argument, d’autant que lorsque nous nous déplaçons sur Terre, celle-ci paraît toujours plate alors que le soleil décrit un parcours bien visible dans le ciel ! Certains y perdirent leur vie à vouloir persister dans leurs théories visionnaires et rationalistes, tel Giordano Bruno, mort sur le bûcher en 1600.

Notre conférencier nous fait remarquer que la terre bénéficie d’une atmosphère propice à l’observation du ciel et de l’espace car si nous étions sur Vénus ou Jupiter, leur atmosphère est constamment troublée par des nuages denses qui nous rendraient aveugles à toute observation lointaine…

Une présentation didactique accessible à tout public

Ce n’est donc qu’à partir du 16e siècle, avec Galilée et Copernic, puis la mise au point de la première lunette astronomique permettant des observations plus précises, modélisées avec des outils mathématiques, que la théorie de l’héliocentrisme a commencé à contrebalancer les conceptions erronées de l’époque. Cependant, de nombreux progrès auront encore été nécessaires pour perfectionner les outils d’observation et interpréter les enregistrements venant de l’espace, afin de concevoir des théories cohérentes régissant les mécanismes célestes.

À partir du 17 ème siècle, la création de télescopes dont le diamètre des objectifs n’a pas cessé de croître jusqu’à aujourd’hui, pour obtenir une précision extrême, ont permis une exploration de plus en plus lointaine de l’univers. Mais cette vision, par cette méthode, ne nous permet d’obtenir une image qu’en deux dimensions, dans le même plan, et les distances séparant les astres ne sont pas déterminables entre eux. Il faut remarquer, qu’hier comme aujourd’hui, nous ne pouvons observer les galaxies, formant l’univers, par l’extérieur de celles-ci.

Les avancées technologiques du 20e siècle ont été prodigieuses et ont permis grâce aux télescopes terrestres, aux radiotélescopes et surtout aux télescopes sur orbite comme Hubble (en fin de vie) ou Webb (récemment mis en service), d’observer les amas de galaxies les plus éloignées : c’est une étape nouvelle dans la compréhension de la formation des étoiles et de leur disparition.

Ainsi il est possible de permettre une observation de l’univers à une distance de 12 milliards d’années-lumière, se rapprochant de l’instant du « big bang ». Les diverses diapositives proposées en support des propos de notre conférencier sur ce dernier point, sont d’une qualité stupéfiante et nous donnent l’impression de naviguer dans l’espace et le temps, une illusion car comment se déplacer à la vitesse de la lumière ?

C’est sur cette question et bien d’autres, qu’un nouveau chapitre est abordé au cours de cette conférence : la lumière a-t-elle une vitesse finie ? Comment déterminer la composition chimique des astres ? Leurs mouvements ? Le sens de l’expansion de l’univers ? L’espace a-t-il une forme particulière ? Difficile d’apporter des réponses précises et définitives car l’astronomie n’est pas une science expérimentale comme les autres. Elle comprend une part d’exercice mental à prendre en compte. Aucune expérience ou vérification en laboratoire n’est possible.

Quelques avancées physiques notoires vers la compréhension de l’Univers

Jacques Boulesteix nous fait un résumé exhaustif de toutes les avancées mathématiques depuis le 16e jusqu’au 20e siècle, qui ont permis de produire des théories modélisant les lois de l’univers. Les premiers pas, dans la compréhension des lois qui interagissent dans l’univers, ont été faits par Ole Roemer, astronome danois (1644-1710) qui, en 1676, a calculé la vitesse de la lumière. Au 19e siècle, c’est Maxwell, physicien et mathématicien écossais (1831-1879), qui a déterminé le caractère ondulatoire de la lumière. Ces lois ont permis ensuite à Georges Lemaître, astronome belge (1894-1966), ainsi qu’à Henrietta Leavitt, astronome américaine (1868-1921), puis à Antoon Lorentz, physicien néerlandais (1853-1928) d’avancer et de déterminer que l’univers était en expansion.

C’est, bien sûr, la théorie de la relativité générale publiée par Albert Einstein en 1915 qui bouleversa les connaissances dans le domaine de l’astronomie, entre autres, en confirmant la théorie de l’expansion de l’univers où le temps et l’espace interagissent selon la vitesse à laquelle on s’y déplace. Toutes ces avancées, obtenues par la simple observation et l’élaboration de lois mathématiques, nous permettent aujourd’hui de bénéficier d’avantages technologiques dans la vie quotidienne comme l’utilisation d’un GPS ou de l’énergie atomique (carburant des étoiles).

Jacques Boulesteix nous fait remarquer qu’il reste encore de nombreuses questions à élucider concernant la matière noire (constituant principal de l’univers) ou les ondes gravitationnelles (dont il reste encore à comprendre la nature). En définitive, nous ne connaissons qu’une partie de la constitution de l’Univers et d’autres théories peuvent expliquer sa création.

En conclusion de cette conférence captivante, notre conférencier par le truchement d’une animation vidéo époustouflante qui simule un voyage à la vitesse de la lumière dans la galaxie où nous remontons l’espace-temps, qui ne s’élargit pas, comme on pourrait le supposer, mais dans lequel l’univers se concentre en un seul amas lumineux !

Une assistance nombreuse et très attentive (photo © CPC)

Cette soirée, alliant science de l’observation et science humaine, fut conclue par un apéritif offert par le Cercle Progressiste aux nombreux participants à cette conférence.

C. Marcarelli

Demain, la voiture 100 % solaire ?

2 juillet 2022

Tout le monde le sait désormais : d’ici quelques années, les voitures individuelles à moteur thermique, qu’elles soient essence ou diesel, ne seront plus que du passé, vestige d’une période révolue où l’abondance des ressources pétrolières avaient donné l’illusion d’une tout-puissance à moindre coût, au prix néanmoins d’une pollution, notamment en particules fines, de l’atmosphère de nos villes, et surtout d’un réchauffement climatique global que l’on sait désormais être irréversible. Le 8 juin 2022, le Parlement européen a ainsi voté à une large majorité l’arrêt à partir de 2035 de la vente de voitures thermiques neuves, qu’elles soient à moteur essence, diesel ou même hybride rechargeable !

Prototype de véhicule hybride Prius développé par Toyota et Sharp avec cellules photovoltaïques sur la carrosserie (source ©
Le Point)

Certes, d’autres pays comme la Chine ou les États-Unis, se sont fixés des objectifs moins ambitieux, visant plutôt une part de 50 % du parc de véhicules neufs en électrique ou à hydrogène. Mais l’on sent bien néanmoins que la tendance de fond, pour les véhicules individuels, est de tendre vers le tout électrique. Reste que tout dépend d’où vient l’électricité, et encore faudra-t-il installer les dispositifs de recharge nécessaire…

D’où l’engouement pour une technique alternative qui consiste à équiper les voitures de leurs propres panneaux solaires ! L’idée n’est pas nouvelle, comme d’ailleurs celle de la voiture électrique. Rappelons au passage que la première voiture française à moteur électrique, la Jamais contente, date de 1899 et atteignait alors la vitesse fabuleuse pour l’époque de 100 km/h… En 1912, un bons tiers des véhicules américains roulaient d’ailleurs à l’électricité, mais c’était avant le succès de la Ford T.

La Baker solaire de Charles Escoffery, avec ses panneaux solaires sur le toit (source ©
Hulton archive / Getty image / L’Usine nouvelle)

Dès 1955, un modèle réduit de voiture, la Sunmobile, équipée de cellules photovoltaïques prouve qu’un véhicule léger peut être actionné par l’énergie solaire. Cinq ans plus tard, l’Américain Charles Escoffery fait ainsi rouler la première voiture solaire, une ancienne Baker des années 1912, recouverte de 2,4 m² de panneaux solaires et qui se traîne à la vitesse de 32 km/h ! Enfin, en 1977, un professeur d’université de l’Alabama, construit la Bluebird, premier prototype de voiture solaire propulsée uniquement grâce à l’énergie de ses panneaux solaires. Dès lors, les progrès s’enchaînent et en 1982, les Australiens Hans Tholstrup et Larry Perkins réalisent la traversée complète du pays, soit 4000 km entre Perth et Sidney avec leur voiture solaire de course The Quiet Achiever, avant de fonder en 1987 une fameuse course de voitures solaires, The World Solar Challenge, pour susciter de nouvelles vocations.

Prototype de voiture solaire Sundae engagée par le Stanford Solar Car Project sur l’édition 2017 du World Solar Challenge en Australie (source © Challenges)

Ainsi, en 1985, la Sunrunner, voiture solaire sans batterie, atteint la vitesse de 66 km/h dans le désert de Mojave ! En 1987, c’est le Suisse Pierre Scholl qui se distingue en envoyant sa voiture solaire, La Sahara, parcourir une des étapes du Paris-Dakar. Les Suisses se prennent au jeu et en 1994, un bolide conçu par une école d’ingénieurs de Bienne atteint la vitesse de 127 km/h sans batterie, tandis qu’une concurrente solaire engagée dans le Tour de Sol se fait flasher à 88 km/h sur une route départementale…

En 2007, le Suisse Louis Palmer parcourt 52 000 km à travers le monde en 17 mois, au volant de son Solartaxi, un véhicule solaire à 3 roues, capable de transporter 2 passagers avec une vitesse de pointe de 90 km/h, tandis qu’en 2008, le Canadien Marcello Da Luz se lance dans un périple de 15 000 km au-delà du Cercle polaire avec son propre véhicule Power of One.

L’aventurier Raphaël Domjan, à bord du Solar Taxi au Canada en 2008 (source ©
Raphaël Domjan)

Le temps des premières commercialisations arrive dès 2006 avec l’Electric, du constructeur monégasque Venturi, une sorte de voiturette de golf avec panneaux solaires sur le toit, qui atteint 50 km/h en pointe pour une autonomie de 50 km. De son côté, une coopérative espagnole de Malaga, Evovelo, met sur le marché à partir de 2016, pour la modique somme de 4500 €, de petites voiturettes en bois aux formes courbes recouvertes de panneaux solaires flexibles et dont les performances sont sensiblement comparables.

Mö, la voiture-vélo solaire de l’Espagnol Evovelo, aux faux airs de 2-CV (source ©
Canal +)

Et voila que la société Ligthyear, aux Pays-Bas, vient de lancer sur le marché une luxueuse berline, la Ligthyear one, au prix de 150 000 €, fabriquée en Finlande. Recouverte de 5 m² de panneaux solaires, elle affiche une autonomie maximale de 725 km et peut gagner 12 km supplémentaires d’autonomie après une heure seulement garée au soleil, de quoi rentrer tranquillement chez soi après une journée de travail. Un concept adapté pour un grand nombre d’utilisateurs quand on sait que 95 % des trajets effectués quotidiennement en voiture ne dépassent pas 48 km ! Certes, le prix d’appel est un peu élevé pour ce premier modèle de luxe, mais Ligthyear a pour ambition de lancer la fabrication en série d’un nouveau modèle solaire dès 2024 pour moins de 20 000 €.

Modèle de Litghyear One avec sa carrosserie recouverte de cellules photovoltaïques noires (source ©
Europe 1)

Aux USA, la firme Aptera est également sur les rangs avec sa voiture du futur aux forme de coléoptère en matériaux composites, dont l’autonomie peut atteindre jusqu’à 1600 km, les panneaux solaires sur le toit apportant à aux seuls jusqu’à 66 km d’autonomie supplémentaire par jour. Les premières livraisons sont attendues fin 2022, à des tarifs compris entre 24 000 et 42 000 € pièce.

L’Aptera Luna, encore en cours de développement, avec ses étranges élytres (source © Automobile propre)

L’Allemand Sono Motors, quant à lui, s’apprête à commercialiser son modèle Sono Sion, un petit monospace qui devrait être vendu autour de 25 000 € et dont la carrosserie est recouverte de cellules solaires intégrées, ce qui permettra de recharger sa batterie lorsqu’elle roule ou qu’elle est garée au soleil, ajoutant jusqu’à 112 km d’autonomie supplémentaire par semaine, ce qui rend les recharges sur le réseau presque inutiles, en théorie et à condition d’éviter les parkings souterrains…

Sion, le prototype de la start-up allemande Sono Motors, avec ses panneaux solaires parsemés sur sa carrosserie (source © Renouvelle)

Peut-être verra-t-on demain, tous nos véhicules, poids-lourds y compris, recouverts de cellules photovoltaïques pour augmenter leur autonomie. Selon Sono Motors, un semi-remorque équipé d’une coque solaire en polycarbonate acquiert ainsi une autonomie supplémentaire sans recharge qui peut atteindre 30 à 55 km par jour, et ceci d’autant plus que l’efficacité des panneaux solaires ne fait que croître, ces derniers temps, atteignant désormais des rendements parfois supérieurs à 40 % alors que jusque-là, on se contentait plutôt de rendements classiques de 15 à 20 % ! Pas de doute, le futur est en marche et on roulera peut-être demain en privilégiant les jours de grand soleil…

L. V.

Cet été, sous-traitez la gestion de vos mails…

30 juin 2022

Avec le télétravail, voilà une situation qui n’est pas prête de s’arranger ! Tout le monde est devenu accro aux nouveaux outils de communication numérique et chacun passe sa vie sur son smartphone ou devant son ordinateur pour ne pas rater d’une seconde le dernier message reçu, même si son contenu est aussi futile qu’inutile…Dans le milieu professionnel il est désormais considéré comme un outrage de la dernière espèce que de ne pas répondre dans la minute à un e-mail, comme si chaque message exigeait une réponse immédiate, quitte à dire simplement qu’on a bien reçu le message et qu’on prend le temps de le traiter…

Il est loin le temps où tout se gérait par courrier et où chacun avait la patience d’attendre quelques jours, voire quelques semaines, avant de recevoir une réaction à sa demande. Être connecté en permanence pour pouvoir répondre à tout moment à n’importe quel message même le plus anodin, de son patron comme de ses subordonnés ou de ses partenaires, est en passe de devenir une exigence de base, au risque de faire baisser considérablement la productivité des professionnels, désormais incapables de se concentrer plus de 5 minutes sur un travail minutieux ou la rédaction d’une note de fond, sans devoir tout interrompre sur le champ pour tapoter sur son clavier « Bonjour, j’ai bien reçu votre proposition et je vous en remercie. Je ne manquerai pas de vous recontacter dès que possible à ce sujet et je vous adresse, en attendant, mes plus cordiales salutations… »

Un dessin de Gérard Mathieu dans la Charte pour un bon usage de la messagerie informatique dans la vie professionnelle (source © ORSE)

Cette nouvelle plaie des temps modernes est devenue tellement intrusive que plus personne ne s’étonne désormais de recevoir sur les coups de 2 heures du matin, dans la nuit du dimanche au lundi, un mail de son patron qui confirme qu’il a bien lu votre note et qu’il vous propose d’en parler de vive voix à l’occasion… Et en période estivale, même quand on est en vacances, en train de buller sur la plage, de réparer la toiture de sa vieille maison de campagne qui tombe en ruine au fin fond de la Lozère, ou de se retrouver autour d’un feu de camp au soir d’une méharée dans le désert, la tentation est grande de quand même jeter un coup d’œil à ses mails professionnels, histoire de s’assurer qu’il n’est rien arrivé d’exceptionnel en votre absence au bureau…

Lire ou ne pas lires ses mails pendant ses congés, telle est la question… Un dessin signé Alsy (source ©
Les Moutons / France 3 Régions)

Et vous voila parti pour une petite heure, ou une longue nuit, à prendre connaissance de toutes sortes de futilités que vous auriez tout aussi bien pu attendre une semaine ou deux avant de découvrir. Sauf que la pratique s’est tellement généralisée que, selon un sondage récent, au moins 55 % des personnes interrogées reconnaissent consulter leurs e-mails professionnels pendant leur congés ! Le droit à la déconnexion est encore un long combat, peut-être même perdu d’avance…

Le droit à la déconnexion, pas encore totalement entré dans les mœurs : un dessin signé Wingz, pour la CFDT banques et assurances

C’est en tout cas fort de ce constat que l’Office national islandais du tourisme a eu l’idée de développer, au bénéfice des voyageurs qui viennent passer leurs vacances en Islande, un service de messagerie permettant de générer des messages personnalisés d’absence, histoire que ses visiteurs puissent garder l’esprit tranquille, lâcher les rênes et profiter à fond des merveilles naturelles de cette île aux paysages grandioses, sans être en permanence pollués par les messages intempestifs du bureau.

Aurores boréales au dessus du Mont Kirkjufell, en Islande (source © National Geographic)

L’originalité du dispositif est que les proposés mis à contribution pour générer vos messages de réponse pendant que vous vous prélassez dans une source d’eau thermale perdue au milieu de nulle part, sont des petits chevaux islandais, cette race emblématique du pays, trop souvent assimilée à des poneys. On les voit donc, sur la vidéo de promotion de l’Office du tourisme islandais, en train de tapoter plus ou moins nerveusement du sabot, sur d’immenses claviers d’ordinateurs en pleine nature. Une prestation déjà adoptée par plusieurs milliers de touristes et dont le nom en soit est tout un programme : « Outhorse your email », autrement dit « sous-traitez vos e-mail » avec un jeu de mots des plus subtils sur ces chevaux en extérieur qui s’en chargent à votre place…

Faites écrire vos mails professionnels par un cheval islandais… (source © kbd.news)

Bien évidemment, le résultat de leur piétinement quelque peu aléatoire risque de laisser assez perplexe votre patron qui voulait savoir de toute urgence si vous serez bien rentré à temps pour l’accompagner le 18 à 9H45 pour aller signer ce fameux contrat. Le message de réponse lui indique en effet qu’un cheval islandais se permet de l’informer que la personne qu’il cherche à contacter est momentanément indisponible, le tout suivi du message énigmatique suivant, tapé par le cheval lui-même : « jjjjjjklmù*2222222222 »

Il n’est pas absolument certain que ce message le rassure totalement sur la fiabilité voire la bonne santé mentale de son employé temporairement absent, mais l’essentiel est que ce dernier passe de bonnes vacances aussi reposantes que dépaysantes dans les étendues sauvages et verdoyantes islandaises. C’est en tout cas le message que cherche manifestement à véhiculer l’office de tourisme de ce pays, Visit Iceland, lequel en profite pour truffer sa vidéo promotionnelle de paysages tous plus attractifs les uns que les autres : savoir bien communiquer ne consiste pas seulement à répondre à ses mails en temps et en heure : c’est un vrai métier…

L. V.

Déménager en vélo, c’est possible !

17 juin 2022

En ville, l’encombrement de l’espace urbain transforme parfois la livraison ou le déménagement en un véritable casse-tête. Autant le rail ou la voie fluviale peuvent-être de bonnes solutions pour le transport de marchandises sur de longues distances, autant le fameux « dernier kilomètre » peut s’avérer acrobatique. Il faut bien se rendre à l’évidence : dans les centre-villes résidentiels, la camion de livraison n’a plus sa place. Sens interdits, espaces piétonniers, pistes cyclables, plots anti-stationnement et, de plus en plus, horaires très limités réservés aux livraisons, rendent très délicate l’organisation d’un simple déménagement ou la moindre livraison. Un comble à l’heure où se développe la commande en ligne sur internet…

Faut-il alors en revenir à des solutions simples et largement éprouvées de transport par vélo ? L’idée est loin d’être neuve. Au début du XXe siècle, la bicyclette était devenue dans bien des pays un mode de transport très courant pour livrer le pain, le lait ou bien d’autres marchandises à domicile. Rien de plus facile en effet que de bricoler la fixation de paniers sur son cadre de vélo, d’y adjoindre une petite carriole, voire de le transformer en triporteur.

Livreur de lait en triporteur à Paris (source © Jean Ferrier / Occitan Aveyron)

En France, la Poste a poursuivi jusqu’à aujourd’hui ce transport du courrier par vélo en site urbain mais, il faut bien le reconnaître, l’usage était un peu tombé en désuétude de venir livrer en bicyclette des marchandises un tant soit peu encombrantes alors que les véhicule utilitaires permettaient de le faire en toute sécurité, plus rapidement et au moindre effort… A tel point que l’on en venait à s’étonner de voir dans de nombreux pays en développement, en Afrique et surtout en Asie, la quantité invraisemblable de marchandise que certains arrivent à transporter sur leur vélo en se faufilant partout, même dans une circulation dense…

Une légère surcharge pour ce livreur à bicyclette ? (source © Soolide)

Mais depuis quelques années, la mode des livraisons urbaines en vélo revient en force dans nos rues. Les livreurs de pizzas ou de plats préparés à domicile se déplacent de plus en plus souvent en deux-roues, ce qui leur permet bien souvent de gagner du temps dans leurs déplacements y compris aux heures de pointe. Avec une glacière attachée dans le dos, les coursiers à vélo de la société Deliveroo, parmi bien d’autres enseignes concurrentes, ont largement contribué à populariser ce système de livraison à domicile à la force du mollet, tout en mettant en évidence la fragilité du modèle économique qui lui est attaché et l’extrême précarité des travailleurs impliqués.

Coursiers de la société Deliveroo en vélo, pour le meilleur et pour le pire… (source © Food and sens)

Mais l’on voit fleurir désormais bien d’autres dispositifs de livraison plus sophistiqués, montés sur deux (ou trois) roues, avec ou sans assistance électrique. Le système du triporteur, déjà très répandu dans nos rues il y a plus d’un siècle, est en train de connaître un nouveau développement. Le modèle classique avec sa grosse caisse cubique posée sur un essieu à l’avant du guidon connaît un regain de popularité. Mais il cohabite désormais avec des dispositifs nettement plus sophistiqués commercialisés notamment par la société Yokler, spécialiste du triporteur utilitaire à assistance électrique avec sa caisse arrière qui permet de porter jusqu’à 150 kg de charge utile dans un bloc sécurisé, de quoi achalander les petites supérettes même en plein centre ville, là où aucun camion de livraison ne pourrait s’aventurer.

Livraison de magasin en ville par triporteur modèle Yockler U (source © Yockler)

La société Petit Forestier, spécialisée dans le transport de produits frais, a de son côté développé et commercialisé un triporteur à assistance électrique équipé d’un caisson frigorifique capable d’enfourner jusqu’à 250 kg de marchandises qu’il peut livrer à la vitesse de 15 km/h dans les rues même les plus encombrées d’un site urbain, sans problème de parking : le rêve du livreur !

Triporteur développé par la société Petit Forestier (source © Transport info)

De plus en plus fort : l’ingénieur français Charles Levillan a, quant à lui, inventé un système astucieux qui permet de transporter à vélo un chargement fixé sur une palette en bois, ce support de base de la logistique moderne qui permet de transférer rapidement n’importe quelle charge d’un camion à un entrepôt via un transpalette.

Dispositif BicyLift permettant de transporter un chargement sur palette derrière un vélo (source © FlexiModal)

Sa remorque BicyLift, brevetée et commercialisée par la société FlexiModal, permet de transporter jusqu’à 180 kg de charge utile sur une simple palette en bois tractée par un vélo. Un simple bras métallique léger se glisse dans les interstices de la palette auquel on raccorde le châssis de la remorque qui permet de soulever la charge grâce à un vérin intégré, puis d’accrocher le tout à la roue arrière du vélo, et c’est parti pour un véritable déménagement en vélo… Demain les camions de déménagement n’auront peut-être finalement plus lieu d’être dans les centre-villes urbains !

L. V.

Data centers : quand nos données partent en fumée…

9 juin 2022

C’est un business en plein développement que celui des data centers, ces centres de stockage de données numériques en bon français. Certes, la plupart des entreprises organisent ce stockage à domicile, dans des espaces climatisés, sécurisés et dotés de batteries de secours où sont implantés les précieux serveurs qui contiennent désormais toutes les données dont chacun a besoin pour travailler au quotidien. Mais de nombreux opérateurs se sont développés pour offrir ce service sous forme de prestation payante, assurant à la demande et pour de nombreux usagers ce stockage de nos données numériques sur le fameux cloud.

Les data centers, de gigantesques usines de stockage de données numériques (source © Twitter / Interxion)

Loin d’être un nuage perdu dans les limbes, comme d’aucuns pourraient l’imaginer, ce cloud est constitué de hangars sécurisés hébergeant des serveurs, des systèmes de stockage mémoire, des routeurs, des dispositifs de pare-feux pour éviter les cyber-attaques, et tout un système de racks, de câblages, d’alimentations électriques, le tout dans un espace ultra-sécurisé. A Marseille, la société Interxion s’est faite ainsi une spécialité de ces data centers, l’un d’entre eux étant même implanté dans une ancienne base de sous-marins construite lors de l’occupation allemande à la Joliette.

Un autre opérateur s’est fait connaître dans ce domaine et a récemment défrayé la chronique. Il s’agit d’OVHcloud, issu d’une petite start-up créée en 1999 par Octave Klaba, alors étudiant en troisième année à l’ICAM de Lille et qui offre des prestations d’hébergement de serveur, d’abord sur des machines prêtées par Xavier Niel avant de s’installer, en 2001, dans un centre de données abandonné par Free. A partir de 2004, la société commence son implantation à l’étranger et construit son premier data center à Roubaix. En 2011, OVH possède déjà pas moins de 100 000 serveurs et sa croissance se poursuit jusqu’à annoncer, le 8 mars 2021, sa volonté d’entrer à la Bourse de Paris.

OVH, un champion français des hébergeurs de sites (source © OVH / Journal du Geek)

Hasard du calendrier ou coïncidence malheureuse ? Deux jours plus tard, dans la nuit du 9 au 10 mars 2021, à 0h35 précisément, le gardien du data center d’OVH à Strasbourg enregistre une alarme incendie en provenance d’un des locaux de puissance du bâtiment SBG2, là où se trouvent les onduleurs qui assurent la continuité de l’alimentation électrique du système. Les techniciens d’astreinte se rendent immédiatement sur place, observent un dégagement de fumée et appellent aussitôt les pompiers qui arrivent rapidement sur place.

Il est alors 0h59. Les pompiers luttent toute la nuit contre l’incendie qu’ils n’arrivent à maîtriser que vers 10h le lendemain après avoir mobilisé un bateau pompe et déversé par moins de 4000 litres de produit émulsifiant ! Aucune victime n’est à déplorer mais le bâtiment SBG2 est entièrement détruit et le feu s’est propagé au bâtiment voisin, le SBG1, dont 4 salles ont été ravagées par les flammes.

Le bâtiment SBG2 en flammes dans la nuit du 9 au 10 mars 2021 (photo © SDIS 67 / Rapport BEA RI / Actu-Environnement)

Au delà de la perte financière de la structure immobilière, qui se chiffre en millions d’euros, l’impact du sinistre est surtout colossal en matière de dommage commercial et de destruction irrémédiable des données numériques. Le 10 mars au matin, ce sont pas moins de 3,6 millions de sites internet, représentant 464 000 noms de domaines, qui ne répondent plus car hébergées chez OVH. Les Espaces numériques de travail, développés par l’Éducation nationale, en particulier sont hors service, mais de nombreux sites publics ou privés connaissent de graves dysfonctionnement dans les jours qui suivent. C’est le cas notamment des plateformes gouvernementales data.gouv.fr ou marches-publics.gouv.fr, mais aussi de l’aéroport de Strasbourg, du réseau de transports urbains de Tarbes, du site meteociel, et de nombreux sites de communes, d’entreprises ou de club sportifs…

Les pompiers luttent toute la nuit contre l’incendie du data center OVH de Strasbourg (photo © SDIS 67 / France Bleu)

L’affaire connaît un énorme retentissement qui, du coup retardera l’introduction de la société en bourse, relancée en septembre 2021 seulement. Il faut dire qu’entre temps, un second incendie s’est déclaré, le 19 mars, cette fois sur le bâtiment SBG1, encore partiellement actif ! Une loi des séries qui ne laisse pas d’inquiéter les spécialistes du sujet et qui occasionne d’ailleurs une enquête approfondie de la part du Bureau d’enquêtes et d’analyse sur les risques industriels, un organisme officiel rattaché au Ministère de l’écologie.

Selon ses premières conclusions, le feu a pris dans des batteries et un onduleur, de manière quasi-simultanée, dans une salle qui était bien équipée d’alarmes incendies mais pas de dispositifs d’extinction, automatique, ce qui peut paraître pour le moins surprenant. C’est surtout la conception même du bâtiment, de type modulaire et conçu pour favoriser à l’extrême la circulation de l’air extérieur afin de favoriser le refroidissement naturel des installations de stockage informatiques, qui a facilité la propagation de l’incendie. En moins d’une heure, le feu s’était déjà propagé au premier étage et la totalité du bâtiment s’est très rapidement embrasée, rendant très problématique l’intervention des pompiers malgré l’importance des moyens déployés.

Le bâtiment SBG2 après l’incendie (photo © Ivan Capecchi / Actu Strasbourg)

Une autre difficulté à laquelle se sont heurtés les pompiers est liée à l’alimentation électrique du site. L’absence de dispositif de coupure générale du site a nécessité l’intervention du gestionnaire du réseau pour déconnecter l’installation. Mais par nature, un centre de stockage de données informatique se doit d’être autonome pour son alimentation électrique, si bien que les groupes électrogènes de secours se sont mis automatiquement en marche dès que l’alimentation globale a été coupée : un véritable casse-tête pour les pompiers qui ne pouvaient utiliser leurs lances à eau dans un tel contexte. Et même une fois les générateurs de secours neutralisés, il reste les innombrables batteries au plomb et au lithium qui continuent à assurer l’alimentation électrique, retardant d’autant la lutte contre l’incendie qui fait rage.

Bien entendu, ce sinistre majeur a permis d’édicter un certain nombre de recommandations pour tenter de renforcer à l’avenir la sécurisation de ce type d’installation. Il n’en reste pas moins qu’il met en exergue l’extrême vulnérabilité de tels data centers dont le rôle devient central tant pour la gestion que pour la conservation de nos données numériques de plus en plus nombreuses et qui sont au cœur de toutes nos activités industrielles, économiques, financières, mais aussi culturelles et sanitaire. Reste à savoir si le niveau de sécurisation de ces données vitales est bien à la hauteur des enjeux…

L. V.

De nouveaux radars dans le collimateur…

26 mai 2022

La ville de Marseille est l’une des agglomérations urbaines où la vidéosurveillance est particulièrement développée avec près de 1600 caméras déployées sur l’ensemble du territoire communal et un centre de vidéosurveillance à la pointe du progrès. L’ancienne municipalité envisageait même d’y mettre en œuvre un dispositif inspiré des méthodes de flicage israélien, déjà testé à Nice, et qui consiste à exploiter en direct les vidéos postées par des citoyens vigilants et prompts à dénoncer tout comportement potentiellement suspect. Un dispositif de vidéosurveillance, qui en réalité, sert principalement à traquer les infractions au code de la route, tout comme d’ailleurs dans plusieurs autres villes de l’agglomération, à l’image de Carnoux, où sont déjà en service une quarantaine de caméras sur la voie publique, ou encore Cassis qui en compte actuellement 85 pour 7200 habitants, un record national !

A Carnoux comme dans de nombreuses villes, les caméras servent surtout à la verbalisation des infractions routières (photo © CPC)

Mais ce dispositif n’est manifestement pas encore suffisant pour calmer les ardeurs des automobilistes dont l’incivilité est légendaire dans l’agglomération marseillaise. Un comportement qui se traduit directement dans les statistiques puisque le département des Bouches-du-Rhône était en 2021, celui qui dénombrait le plus d’accidents en France, avec pas moins de 2790 accrochages et 100 morts sur la route, pour la plupart, des hommes de 18 à 34 ans… Selon l’avocate Romy Collard Lafond, spécialisée dans la défense des victimes de la route, à Marseille, les accidents de la circulation tuent bien davantage que les règlement de compte entre dealers des cités à coups de kalachnikov, avec jusqu’à 14 décès pour le seul mois de juillet 2021 !

Accident de circulation sur la ligne de tramway rue de Rome à Marseille le 24 mai 2022 : pour une fois, la Police était sur place… (source
© arabstrait13 / France bleu)

Face à l’indifférence médiatique qui entoure encore trop souvent ces banals accidents de la route qui fauchent pourtant bien des vies innocentes, les autorités ont donc décidé de monter d’un cran l’arsenal répressif en recourant, comme souvent, à la technologie de pointe, plutôt qu’en renforçant les effectifs des forces de police et de gendarmerie, de plus en plus rares sur le bord des chaussées.

Comme l’annonçait Made in Marseille il y a quelques jours, 17 nouveaux radars vont être implantés à Marseille dans les prochains mois, probablement d’ici la fin de l’année, voire début 2023. Et pas n’importe quels radars… Des modèles ultra sophistiqués qui ne portent d’ailleurs même plus le nom de radars mais celui d’ETU, des « équipements de terrain urbain ». Un euphémisme bien dans l’air du temps pour désigner des dispositifs légers et mobiles, capable non seulement de repérer des excès de vitesse dans les deux sens de circulation, mais aussi d’enregistrer des franchissements de feu rouge, l’absence de respect des distances de sécurité, des stops, des priorités piétons ou des pistes cyclables, et même les dépassements dangereux ou l’usage du téléphone au volant…

Une véritable bête noire pour les automobilistes distraits, pressés ou maladroits qui risquent de rapidement voir fondre leur capital de points sur leur permis de conduire… D’ailleurs, on apprend par la même occasion que trois de ces petites merveilles de la technologie répressive sont déjà en phase de test depuis fin 2021, à Marseille et aux Pennes-Mirabeau, se contentant pour l’instant d’enregistrer les infractions sans les verbaliser, histoire de bien calibrer la machine pour qu’elle soit au top le moment venu.

La corniche John-Fitzgerald Kennedy, dont la partie en surplomb sur la mer vient d’être rénovée : un dite fortement accidentogène… (source © AMP Métropole / Actu-Marseille)

Une date qui pourrait peut-être même arriver plus vite que prévu car Yannick Ohanessian, adjoint au Maire de Marseille en charge de la sécurité, a déjà fait la carte des sites où seront déployés en priorité ces bijoux technologiques, sur l’ensemble des arrondissements marseillais mais surtout sur les secteurs à fort enjeu de sécurité routière dont les abords des écoles. La Corniche Kennedy, qui vient tout juste d’être entièrement rénovée à l’issue d’un chantier qui a duré des années et qui est régulièrement rendue aux piétons le temps d’un week-end dans le cadre des opérations « La voie est libre », pourrait peut-être même être équipée dès cet été, maintenant que la phase de test est considérée comme concluante.

Nouveau radar dernier cri installé à Toulouse début 2022 (photo © Thibaut Calatayud / Actu-Toulouse)

Les automobilistes marseillais, habitués de longue date à prendre de nombreuses libertés avec les règles communes de la circulation, ont donc du souci à se faire et vont sans doute devoir réfréner quelque peu leur fougue méditerranéenne qui a tendance à s’exacerber au volant. Mais ils ne sont pas les seuls dans le collimateur. Plusieurs équipements du même type sont en phase de déploiement depuis quelques mois dans les agglomérations de Toulouse, Montpellier ou encore Montbéliard où les premiers modèles ont été testés dès le mois de septembre 2021.

Exemple de radar Mesta Compact (source © Radar-auto)

Développé et commercialisé par la société Idemia, issue du rapprochement de Safran Identity & Security avec Oberthur Technologies, le modèle Mesta Compact qui devrait être ainsi déployé en site urbain est déjà homologué depuis le 31 janvier 2021 pour les mesures de vitesse et le contrôle de franchissement de feu rouge. Il s’agit d’un dispositif multifonction, doté d’une antenne radar Doppler tracker multi-cible nouvelle génération disposant d’un large faisceau capable de suivre simultanément jusqu’à 126 véhicules sur 5 voies dans les deux sens de circulation et sur une portée de plus de 100 mètres. Il va être bien difficile d’échapper à un tel mouchard ! Il est d’ores et déjà prévu de mettre en place 500 équipements de ce type en site urbain, dont une centaine seulement sera effectivement équipée d’un radar opérationnels, les autres n’étant que des leurres à effet dissuasif puisque le dispositif pourra aisément être déplacé d’une cabine à une autre : il va donc falloir s’habituer à respecter le code de la route, même à Marseille !

L. V.

Éolien flottant : un avenir prometteur…

17 mai 2022

Depuis plusieurs siècles, l’humanité a bâti sa prospérité et son développement industriel sur l’utilisation d’une énergie carbonée fossile à base de charbon, de gaz et de pétrole. Une véritable manne, longtemps considérée comme inépuisable, facile à transporter et à stocker, mais dont on a désormais compris que son usage immodéré et à grande échelle était en train de conduire notre civilisation à sa perte, du fait des pollutions atmosphériques induites mais surtout des rejets de gaz à effet de serre dont l’accumulation est en train de perturber durablement et de manière déjà quasi irréversible, le climat mondial, au risque de voir notre planète devenir invivable pour les prochaines générations.

Face à ce constat, désormais unanimement partagé même si nombre de responsables politiques et surtout d’agents économiques tardent à en tirer les conséquences tant elles impliquent un changement profond de nos habitudes de vie, on sait que l’urgence est de développer à grande échelle le recours aux énergies renouvelables, tout en réduisant autant que possible nos besoins énergétiques. Et parmi ces énergies renouvelables, celle qui semble la plus prometteuse est très probablement l’éolien flottant.

Le moulin de Daudet, à Fontvielle (source © Tripadvisor)

Paradoxalement, l’énergie éolienne n’a rien d’une trouvaille innovante puisque c’est probablement, après l’énergie humaine et animale, celle qui a été le plus tôt domestiquée, dans l’Antiquité, par les Perses puis les Égyptiens, qui maîtrisaient cette technique dès l’an 600 avant notre ère, pour l’irrigation agricole. Introduit en Grande-Bretagne vers l’an Mil, le concept de moulin à vent, constitué d’une éolienne à axe horizontal qui transforme l’énergie cinétique du vent en énergie mécanique, notamment pour moudre les grains ou presser les olives, se généralise très rapidement dans toute l’Europe, surtout à partir du XIIIe siècle.

A la fin du XIXe siècle, c’est un Américain, Charles Bush, qui développe la production d’électricité à partir d’une éolienne, selon un procédé rapidement amélioré par le Danois Poul La Cour, si bien qu’en 1918, 3 % de l’énergie produite au Danemark est déjà d’origine éolienne. Relancée après le premier choc pétrolier, la production électrique éolienne a désormais le vent en poupe, avec une production mondiale qui a été multipliée par 28 entre 2000 et 2012. Mais le développement de cette énergie est freinée par le caractère intermittent de sa production et, accessoirement, par son impact sur l’avifaune.

Éoliennes d’essais développées par le Danois Poul La Cour à l’école d’Aksov, en 1897 (source © Danish Wind Industry Association)

C’est justement pour ces raisons que l’éolien flottant est très certainement amené à se développer. C’est en effet en haute mer que l’on rencontre les vents les plus puissants et les plus réguliers, qui permettent de rentabiliser au mieux de telles installations. En matière de production électrique, on caractérise le facteur de charge d’une installation comme le rapport entre entre l’énergie produite sur une période donnée et l’énergie qu’elle aurait produite durant cette même période si elle avait constamment fonctionné à puissance nominale. Le parc français de centrales nucléaires présente ainsi un facteur de charge très intéressant de l’ordre de 75 %, alors que celui des panneaux photovoltaïques ne dépasse guère 15 % tandis que celui des éoliennes terrestres est inférieur à 25 % et arrive à 50 % en offshore. Mais en haute mer, l’éolien flottant peut atteindre un facteur de charge de l’ordre de 65 %, ce qui devient très compétitif, tout en réduisant fortement les nuisances environnementales.

Installation en Mer du Nord des éoliennes Statoil du projet Hywind Tampen (source © Modern Power System)

Du coup, les implantations de ce type sont en plein essor. Les Norvégiens de Statoil-Hydro ont ainsi mis en exploitation dès 2017 une première unité commerciale constituée de 5 éoliennes implantées au large des côtes écossaises, pour une puissance totale de 30 MW. Depuis, les projets se multiplient avec notamment la plus grande éolienne du monde installée à 20 km des côtes portugaises et raccordée, depuis décembre 2020, au réseau.

Remorquage d’une éolienne du projet WindFloat Atlantic, installée au large des côtes portugaises (photo © WFA Windplus / Euractiv)

La France n’est pas en reste dans ce domaine puisqu’une éolienne géante, assemblée dans le port de Saint-Nazaire, a été remorquée en mer, à 22 km au large du Croisic en octobre 2017. Raccordé au réseau depuis septembre 2018, ce démonstrateur dénommé Floatgen est destiné à démontrer la faisabilité technique et la viabilité économique de la démarche avant le passage à une échelle industrielle dans le cadre du lancement de plusieurs appels à projets. Quatre sites ont ainsi été attribués dès 2016 pour y implanter les premières installations éoliennes flottantes de production.

Mise en place de l’éolienne du démonstrateur Floatgen au large du Croisic (source © Floatgen)

C’est ainsi que le groupe Qair (ex Quadran) développe actuellement un ambitieux projet, intitulé Eolmed, de 3 éoliennes flottantes au large de Gruissan, dans l’Aude, sur des fonds de 55 m, à 18 km des côtes méditerranéennes. La société BW Ideol, basée à La Ciotat, est l’un des partenaires de ce projet pour lequel elle met à disposition le savoir-faire en matière de fondations offshore, acquis par ses ingénieurs dans le domaine pétrolier. La construction du site commence dès cette année pour un début d’exploitation attendu en 2024.

Schéma de principe du démonstrateur flottant Eolmed au large de Gruissan (source © Eolmed)

Un autre projet de 4 éoliennes Alstom/General Electric de 6 MW chacune, équipées de fondations flottantes Naval Energies et Vinci Construction France, est lui aussi en cours de construction, au large des îles de Groix et de Belle-Ile, en Bretagne, par le consortium Eolfi, une ex-filiale de Veolia rachetée par le groupe Shell en 2019.

Schéma de principe des éoliennes flottantes que la société Eolfi compte installer au large de Groix (source © DCNS – GE / Actu Morbihan)

Deux autres projets sont également en cours de développement en Méditerranée, dont un autre dans l’Aude, au large de Leucate, développé par Engie avec des éoliennes produites par MHI Vestas Offshore Wind et des flotteurs métalliques fabriqués par Eiffage. Le dernier projet, dénommé Provence Grand Large, se situe dans les Bouches-du-Rhône, à 17 km au large de Port-Saint-Louis-du-Rhône, près du phare de Faraman. Piloté par EDF Énergies nouvelles, avec l’aide de 3 éoliennes Siemens Gamesa de 8 MW de puissance unitaire, montées sur fondations flottantes développées par SBM Offshore et l’IFP, le projet devrait entrer en service dès 2023.

Vue d’artiste de la future ferme pilote Provence Grand Large (source © SBM Offshore / Gomet)

Au delà de ces premiers pilotes industriels qui entrent progressivement en phase opérationnelle, des programmes plus ambitieux sont d’ores et déjà lancés, à l’instar des deux appels d’offres annoncés le 14 mars 2022 par le Premier ministre, Jean Castex, pour l’installation de parc éoliens flottants de 250 MW chacun en Méditerranée, à plus de 20 km au large de Port-la-Nouvelle et de Fos-sur-Mer. Le mouvement des éoliennes flottants semble bel et bien lancé et l’avenir dire si cette filière est effectivement amenée à prendre demain une place prépondérante dans notre mix énergétique comme certains l’imaginent déjà.

L. V.

Crosscall : le téléphone aixois bientôt made in France ?

30 avril 2022

La crise du Covid aura au moins eu le mérite de mettre l’accent sur la vulnérabilité extrême des sociétés occidentales devenues totalement dépendantes, même pour des produits de première nécessité, des pays asiatiques où se fait l’essentiel de la production mondiale. Une mondialisation qui a permis à des pays comme la France de fermer la quasi totalité de ses usines : adieu la pollution et vive la société de consommation et de loisirs, grâce à des produits à bas coût, confectionnés en Asie par une main d’œuvre bon marché et transportés depuis l’autre bout du monde pour presque rien !

Usine de production de téléphones Samsung au nord Vietnam (photo © Dux Tàm / VNA / Le Courrier du Vietnam)

Seulement voilà que le coût de la main d’œuvre chinoise augmente : entre 2005 et 2016, il a été multiplié par trois, se rapprochant désormais de celui d’un ouvrier portugais, même s’il reste très inférieur à celui de son homologue français ou allemand. Avec la pandémie mondiale, la Chine aussi a dû faire face à des pénuries de main d’œuvre et la qualité de sa production s’en est ressentie tandis que les coûts de l’énergie explosaient, celui de l’électricité ayant récemment augmenté de 20 %. Quant au coût du transport maritime par containers, il a connu une envolée spectaculaire, multiplié par cinq au cours de la seule année 2021, pour le plus grand profit d’une société comme la CMA-CGM qui engrange des profits mirifiques !

Autant d’arguments pour inciter les entreprises françaises à relocaliser une partie de leur production industrielle en France, ce qui pourrait au passage booster le marché de l’emploi et rééquilibrer quelque peu notre balance commerciale totalement déréglée… C’est du moins le pari qu’est en train de faire une start-up implantée à Aix-en-Provence sous le nom délicieusement provençal de Crosscall, et dont l’activité consiste à vendre des smartphones résistants, destinés notamment aux amateurs de sports extrêmes en extérieur.

C’est en tout cas ce marché du sport outdoor qu’a visé initialement le créateur de cette société, le Marseillais Cyril Vidal, un commercial travaillant alors dans le BTP et la construction modulaire. Grand amateur de jet ski et autres sports nautiques, ses nombreuses déconvenues suite aux défaillances de son téléphone portable, devenu inutilisable à la moindre tempête un peu arrosée, l’ont conduit en 2009 à créer la marque Crosscall, pour mettre sur le marché des mobiles tout terrain et étanches.

Shark, le téléphone étanche et flottant développé par Crosscall pour les usagers de la mer (source © Crosscall)

Deux ans plus tard, en 2011, Crosscall, alors implantée à Châteauneuf-les-Martigues, se met à commercialiser son premier portable, assemblé en Chine, le Shark, étanche et capable de flotter lorsqu’il tombe à l’eau. Vendu chez Décathlon, il permet à la jeune pousse de réaliser son premier chiffre d’affaire, plutôt modeste de 1500 €… En 2014, Crosscall, qui entre temps à réussi aussi à s’implanter dans les magasins Point P et Au Vieux Campeur, commercialise son premier smartphone présentant les mêmes caractéristiques de robustesse et d’étanchéité. En 2016, Crosscall affiche déjà un chiffre d’affaire de 30 millions d’euros, se choisit un nouveau partenaire industriel, le groupe chinois Hisense, s’implante dans les boutiques commerciales d’Orange, SFR, Bouygues et Free, et réussit à recruter David Eberlé, ancien président de Samsung Electronics France pour développer son marché en France et à l’international.

Cyril Vidal, PDG de Crosscall et son associé David Eberlé, fin 2016 dans les locaux de la société à Aix-en-Provence (photo © Geneviève Van Lede / La Provence)

La même année, la start-up en pleine croissance obtient une levée de fonds de 4,5 millions auprès d’ACG Management et une aide de 2 millions via BPI France, puis procède en 2018 à une nouvelle levée de fonds de 12 millions d’euros auprès d’A Plus Finance et Al Mundi. Les 4 salariés du départ sont désormais pas loin de 200 et plus de 3,5 millions de téléphones de la marque ont déjà été vendus dans 19 pays, tandis que Crosscall, après plusieurs déménagements successifs a désormais son siège à Aix-en-Provence.

Le siège de la société Crosscall à Aix-en-Provence (source © Gomet)

Mais la crise du Covid et la pénurie de semi-conducteurs en particulier, ont fait prendre conscience aux dirigeants de Crosscall, dont le capital reste à 100 % français et qui a remporté coup sur coups plusieurs gros marchés pour approvisionner en mobiles le personnel de la SNCF, de la police et même de la gendarmerie, de la fragilité liée à cette production chinoise dont les coûts ont augmenté de près de 11 % en un an, tout en enregistrant des ruptures d’approvisionnement et une baisse de qualité.

L’entreprise aixoise a donc commencé à implanter dans ses locaux, grâce à un financement accordé dans le cadre du plan France Relance, un laboratoire de recherche et développement, destiné notamment concevoir ses nouveaux produits et à tester la qualité de ses modèles, ce qui lui permet désormais de monter en gamme et de proposer une garantie de 5 ans sur certains de ses modèles, ce qui est assez innovant sur ce type de produits. Soumis à rude épreuve, allant de l’immersion dans l’eau salée jusqu’à la chute de 2 m sur du marbre en passant par un séjour au réfrigérateur entre -25 et +71 °C, les smartphones de la marque n’ont pas usurpé leur réputation de robustesse qui fait leur succès commercial !

Le Trekker X3, smartphone commercialisé par Crosscall qui ne craint pas les climats extrêmes (source © Grounds)

L’étape suivante va désormais consister à développer, juste en face du siège de la société, un atelier où seront bientôt fabriqués les accessoires de la marque, du kit de fixation sur VTT jusqu’à la batterie externe sans oublier les fameuses coques flottantes. Il s’agira ensuite de développer, en collaboration avec le réparateur français Cordon, une chaîne de reconditionnement des smartphones de la marque, tout en leur garantissant les mêmes qualités de performance, de robustesse et d’étanchéité, un véritable challenge mais qui répond à une véritable demande de durabilité de ce type d’appareils.

Le reconditionnement des téléphones Crosscall, un objectif qui se concrétise… (source © Crosscall)

Et la dernière étape envisagée par Crosscall, à l’horizon 2025, est la plus difficile puisqu’elle vise, ni plus ni moins qu’à lancer à Aix-en-Provence, sur un site qui reste encore à identifier, l’assemblage de ses smartphones à partir de composants européens, issus notamment du fabricant franco-italien de semi-conducteurs, STMicroelectronics. Un beau challenge mais qui est loin d’être gagné, ne serait-ce que pour trouver la main d’œuvre qualifiée d’ingénieurs capables de réaliser ce type de produits dont les Chinois sont désormais les grands spécialistes, maintenant que les anciens champions européens du secteur, tels Ericsson et Nokia, ont jeté l’éponge : l’avenir dire si le pari de Crosscall arrive à se réaliser…

L. V.

Demain, du plastique aux algues ?

3 avril 2022

Après une chute des prix spectaculaire en avril 2020, en plein confinement liée à la pandémie de Covid 19 qui avait mis à l’arrêt toute l’économie mondiale, le prix du pétrole atteint de nouveau des sommets, alimenté par la folie spéculative des traders déboussolés, alors même que la Russie continue ses exportations. Mais cette hausse obéit malgré à une logique impitoyable, liée au fait que les réserves de pétrole et de gaz les plus facilement exploitables commencent à s’épuiser après presque 2 siècles d’extraction industrielle.

Depuis les années 2007-2008, la production de pétrole conventionnel est en déclin et la plupart des grands pays producteurs de pétrole ont passé leur pic de production. C’est le cas notamment de la Russie mais aussi de l’Arabie Saoudite dont le gisement de Ghawar, le plus grand de la planète a dépassé son pic, de même que celui de Burgan au Koweit ou celui de Cantarell au Mexique. Un peu partout dans le monde, en Afrique comme au Moyen-Orient ou en Mer du Nord, la production pétrolière amorce un lent déclin, bien que pour l’instant plus que largement compensé par l’essor des schistes et sables bitumineux aux États-Unis et Canada, malgré le coût et les ravages environnementaux d’une telle exploitation.

Exploitation des sables bitumineux dans l’Alberta, au Canada (photo © Greenpeace / REZAC / Futura-Sciences)

Dans ce contexte, l’industrie pétrochimique qui depuis un siècle nous fournit abondamment en plastiques de toute sorte dérivés de produits pétroliers, commence à s’intéresser à d’autres matières premières. Et l’on voit ainsi fleurir, un peu partout, les recherches plus ou moins opérationnelles pour fabriquer le plastique de demain à partir de matériaux différents, dont les algues, ce végétal miracle dont on ne finit pas de découvrir les vertus : tour à tout utilisé comme engrais, comme ressource alimentaire, comme cosmétique et désormais comme absorbeur de gaz à effet de serre, mais aussi demain peut-être pour produire des carburants, de l’asphalte, voire des objets du quotidien en plastique.

Usine pétrochimique de production de polyéthylène à Singapour (photo © Exxonmobil / PlastEurope)

En France, c’est d’ailleurs, parmi bien d’autres, une entreprise bretonne qui est en pointe dans ce domaine, sous l’impulsion d’un jeune entrepreneur, Rémy Lucas, ingénieur plasturgiste, dont les grands-parent justement ramassaient le goémon sur les plages du Finistère nord, pour en faire de l’amendement agricole alors très prisé localement, mais qui était aussi brûlé dans des fours pour la production de soude. En 2010, cet ingénieur crée la société Algopack qui a développé, en collaboration avec le Centre d’études et de valorisation des algues et la Station biologique de Roscoff, un process innovant pour fabriquer du plastique à partir de ces mêmes algues brunes.

Rémy Lucas, fondateur de la société Algopack, avec des mugs fabriqués en plastique à base d’algues (photo © Isabelle Lê / Ouest France)

Déshydratées et broyées, les algues se transforment en petits agrégats qui servent de matière première pour fabriquer un plastique utilisé aussi bien pour réaliser des films alimentaires que des clés USB, des montures de lunettes, des jouets de plage ou des pots de fleurs biodégradables. L’approvisionnement se fait aussi par recyclage des sous-produits de l’industrie cosmétique, elle-même très friande d’algues, et des recherches sont en cours pour tenter d’utiliser également les immenses accumulations d’algues brunes de la Mer des Sargasses qui connaissent un développement exponentiel sous l’effet du réchauffement climatique et viennent perturber l’activité touristique dans les Antilles.

Ramassage d’algues brunes échouées sur la plage de Sainte-Anne en Guadeloupe (photo © Emmanuel Lelaidier / MaxPPP / La Croix)

Mais bien d’autres acteurs industriels se lancent dans cette filière manifestement prometteuse, non seulement pour remplacer à l’avenir le recours au dérivés pétroliers de plus en plus difficiles à extraire, mais aussi pour réduire l’impact écologique catastrophique des rejets de plastique non dégradable qui polluent désormais la planète entière et que l’on retrouve de plus en plus fréquemment dans le ventre même des poissons et de la faune marine. On estime en effet que chaque seconde, pas moins de 500 kg de plastique finissent d’une manière ou d’une autre dans les océans qui sont ainsi le réceptacle de 10 % de la production mondiale de plastique : une horreur !

Autour de l’étang de Berre, c’est encore une autre motivation qui s’ajoute à cette volonté de développer un plastique moins dangereux pour l’environnement. Il s’agit en effet de trouver un débouché industriel aux accumulations d’algues vertes qui, à certaines périodes de l’année et comme sur les plages bretonnes, viennent s’échouer en énormes quantités sur les rives de l’étang et de son voisin, le Bolmon, sous l’effet de l’eutrophisation des eaux enrichies pas les nitrates et les phosphates des eaux d’assainissement qui s’y déversent. Malgré l’organisation de campagnes de ramassage mécanique avec des engins allant jusqu’à moissonner les algues sous l’eau, l’invasion est incontrôlable et ces algues échouées, en se putréfiant, dégagent des gaz toxiques pour les animaux et même l’homme.

Échouage d’ulves, les algues vertes, sur la presqu’île du Jaï en bordure de l’étang de Bolmon (source © GIPREB)

C’est la raison pour laquelle la société Eranova vient d’implanter un démonstrateur pré-industriel à Port-Saint-Louis-du-Rhône, inauguré le 18 février 2022 sur un vaste espace de 1,3 ha pour caler un processus industriel visant à valoriser ces algues vertes comme matière première pour la réalisation d’une résine plastique multiusage destinée à fabriquer aussi bien des sacs poubelles que des emballages alimentaires biodégradables ou des plateaux repas.

L’idée n’est pas neuve puisque cette implantation fait suite à une expérimentation de grande ampleur conduite à Palavas-les-Flots avec l’IFREMER par Philippe Lavoisier et Philippe Michon, les deux cofondateurs de la société Eranova. Le procédé ainsi développé et désormais breveté consiste à faire croître des algues en les affamant, de sorte à réduire leur teneur en protéine et augmenter leur production d’amidon, ce qui permet d’obtenir une matière première nettement plus riche en amidon que le blé ou le maïs classiquement utilisés pour la production de bioplastiques, après extraction du sucre et polymérisation. Ceci confère à ce plastique des caractéristiques mécanique très supérieures.

Vue aérienne de l’usine Eranova implantée à Port-Saint-Louis-du-Rhône (photo © Eranova / GoMet)

Un tel procédé repose donc sur la culture d’algues à grande échelle, dans de vastes bassins, l’apport des algues échouées sur les rives de l’étang de Berre comme sur les plages bretonnes, n’étant qu’une motivation supplémentaire. En tout cas, le procédé est suffisamment innovant et prometteur pour avoir permis de drainer de nombreux soutiens financiers publics et privés, de la Région PACA ou de l’ADEME comme de Total énergies : si même les pétroliers s’intéressent à un tel procédé qui les concurrence directement, c’est qu’il doit certainement être intéressant…

L. V.

Attention, passage de canards…

29 mars 2022

A l’heure où les habitants de Marioupol se terrent dans leurs habitations pour se protéger des bombardements de l’aviation russe, d’autres s’inquiètent plus prosaïquement de la sécurité de leurs canards qui risquent la mort en traversant la route nationale… L’enjeu peut paraître dérisoire, sauf bien sûr pour cet agriculteur dont la ferme se trouve juste à face de la mare aux canards de Loueuse, une petite commune de l’Oise, située au nord-ouest de Beauvais. Car la route principale qui traverse ce petit village de 150 habitants se situe précisément entre l’entrée de la ferme et la mare en question où les palmipèdes adorent venir prendre un petit bain digestif.

De la mare aux canards à la ferme, il n’y a que la route à traverser… (photo © Bastien Roques / Radio France)

Bien évidemment, ces multiples allers-retours ne sont pas sans dangers et la traversée de la route est périlleuse pour ces canards distraient qui se dandinent en secouant leurs plumes pour regagner leurs pénates sans trop se préoccuper des camions qui défilent à toute allure à travers ce petit bourg rural tranquille. Excédé par ces accidents en série où les pauvres canards ont rarement le dessus, le maire,de Loueuse, Pierre des Courtils, élu sans étiquette mais non sans idées, a décidé qu’on ne pouvait plus continuer ainsi à faire le canard et qu’il fallait prendre le taureau par les cornes.

Profitant du temps libre offert par la période de confinement pour cause de pandémie de Covid, la municipalité de Loueuse a donc décidé de créer un passage clouté pour protéger les canards des automobilistes inconscients. Une des élues a confectionné des pochoirs en forme de pattes de canard et ce sont les enfants du village qui ont été mis à contribution pour dessiner à la bombe de peinture blanche les empreintes de palmipèdes selon deux files parallèles qui leur permettent en principe et sous réserve qu’ils traversent bien dans les clous, de rejoindre la mare sans se faire écrabouiller au passage.

Traverser dans les clous, un apprentissage difficile pour les canards de Loueuse (photo © Bastien Roques / Radio France)

Un habitant du village a même dessiné un panneau spécial, pas vraiment homologué, mais qui a le mérite de prévenir les automobilistes distraits de la traversée probable de canards dans les clous, ou pas trop loin.

Un panneau de signalisation pas (encore ?) homologué par la Sécurité routière mais efficace (photo © Bastien Roques / Radio France)

Dans un autre village de l’Oise, à Villotran, qui s’étend de part et d’autre d’une route départementale particulièrement fréquentée, le maire avait déjà eu l’idée en 2013 de repeupler les mares à canards encore présentes de part et d’autre de la Grand’Rue, histoire d’inciter les automobilistes à lever le pied pour ne pas faire trop de dégâts parmi les volatiles qui s’ébattaient joyeusement sur la chaussée au péril de leur vie. Une initiative qui avait suscité des protestations virulentes de la part des associations locales de défense de la cause animale, jugeant que les canards n’avaient pas à être ainsi exposés en jouant involontairement le rôle de ralentisseurs. De fait, quelques pertes avaient été enregistrées parmi ces pauvres canards quelques peu indisciplinés et ceci malgré la présence d’un panneau avertisseur. Le maire avait juste oublié de prévoir un passage clouté ad hoc…

A Loueuse en tout cas, cette initiative porte ses fruits car il semblerait que les accidents graves de canards finissant sous les roues d’un camion trop pressé soient devenus moins fréquents depuis. L’affaire, même si elle ne casse pas trois pattes à un canard, a en tout cas beaucoup fait parler de ce petit bourg rural de Picardie et attire la curiosité de nombreux automobilistes qui du coup ralentissent pour bien repérer le panneau insolite et ce passage protégé peu usuel.

Un bon point donc pour la sécurité routière des canards de Loueuse, mais aussi pour celle des autres habitants pour qui la traversée de la route n’est pas sans danger non plus…

L. V.

Intel : pourquoi une telle subvention européenne ?

24 mars 2022

Le gouvernement américain tente actuellement, vaille que vaille, de faire pression sur certains pays asiatiques dont l’Inde et surtout la Chine, pour qu’ils ne profitent pas de la tension actuelle pour se rapprocher de la Russie et l’aider à contourner les sanctions économiques mises en place suite à l’invasion de l’Ukraine. Et pendant ce temps-là, une entreprise américaine fait pression sans la moindre vergogne, sur les pays européens en leur réclamant pas moins de 8 milliards d’euros de subvention publique pour pouvoir installer en Europe une usine de semi-conducteurs, faute de quoi l’entreprise californienne Intel Corporation, deuxième producteur mondial de microprocesseurs derrière Samsung, menace de s’implanter en Asie pour de strictes raisons de compétitivité économique.

Intel emploie déjà 10 000 personnes en Europe (photo © Intel / Glassdor / L’Usine digitale)

Ainsi va le monde des affaires… Pendant que certains se battent pour défendre leur liberté et les frontières de leur pays, au nom de certaines valeurs universelles dont le droit des peuples à l’autodétermination, d’autres cherchent uniquement à profiter des subventions publiques pour maximiser leur profit et celui de leurs actionnaires !

Il faut dire que cette idée de vouloir augmenter la production en Europe de semi-conducteurs indispensables à l’industrie moderne et qu’il faut pour l’essentiel importer d’Asie, répond à une véritable demande politique européenne, formulée il y a déjà un an par le commissaire européen au Marché intérieur, Thierry Breton, à Pat Gelsinger, alors nouvellement nommé PDG d’Intel. La pénurie actuelle de puces électronique qui handicape fortement la reprise économique et allonge démesurément les délais de fabrication de la moindre voiture, s’explique en effet par le fait que l’Europe ne produit que moins de 10 % de ses besoins quand le seul Taïwanais TSMC en représente 70 % !

Les semi-conducteurs, un maillon clé de l’industrie à base d’électronique (source © TSMC / L’Usine digitale)

Et les besoins ne cessent de s’accroître puisqu’on prévoit qu’ils devraient doubler d’ici 2030 pour un marché qui devrait représenter alors pas moins de 1000 milliards de dollars. Pour atteindre l’objectif ambitieux fixé par Thierry Breton de produire en Europe 20 % de ses besoins, il faudrait donc multiplier par 4 les moyens de production européens. Ambitionnant de devenir le futur leader des puces électroniques dont la finesse de gravure descend en dessous de 5 (voire 2) nanomètres, le nec plus ultra de la technologie de demain, l’Europe sort donc le chéquier pour attirer les Américains sur son territoire !

L’Europe ne manque pourtant pas d’industriels qui seraient en capacité de développer eux-mêmes ces produits de haute technologie dont le monde a besoin. Les trois principaux d’entre eux qui continuent à assurer une production européenne sont l’Allemand Infineon Technologies, le Néerlandais NXP et le franco-italien STMicroelectronics, issus eux-mêmes des grands groupes d’électricité Siemens, Philips et Thomson. Seulement voilà, ces grandes entreprises pourtant autrefois leader dans le domaine, ont été prises de vitesse dans la course au développement technologique et ne sont pas en capacité de produire ces micro-processeur avec une finesse de gravure inférieur à 7 nm qui représente le standard désormais recherché.

Usine de puces électroniques d’Intel dans l’Oregon (source © Intel Corporation / L’Usine nouvelle)

L’objectif est donc de relancer les efforts de recherche pour tenter de se replacer dans le peloton de tête des puces du futur, celles de 2 ou 3 nm, qui permettront de placer plus de 30 milliards de transistors sur une plaquette de la taille d’un ongle. Et pour cela, l’Europe mise sur ses fameux partenariats public-privé via la création d’une nouvelle entité, Key Digital Technologies, doté d’un budget de 1,8 milliard d’euros, en lieu en place de l’entreprise Ecsel, créée en 2014 mais qui n’a pas tenu toutes ses promesses.

Reste que, en attendant ces lendemains qui chantent, l’Europe n’a guère d’autres solutions que de se tourner vers le géant américain Intel pour tenter de produire sur son sol les puces dont elle a tant besoin. Oublié donc l’amende record de 1 milliard d’euros que la Commission européenne avait voulu infliger à Intel en 2008 pour abus de position dominante… Intel vient donc d’annoncer que les principaux bénéficiaires européens de sa future implantation, pour laquelle il prévoit d’investir pas moins de 33 milliards d’euros sur le Vieux Continent, seront, comme on aurait pu s’y attendre, l’Allemagne et l’Irlande !

La principale usine de semi-conducteur, qui représente un investissement de 17 milliards d’euros à lui tout seul, sera en effet implantée à Magdebourg, dans le Land de Saxe-Anhalt, à 130 km à l’ouest de Berlin. L’usine devrait être mise en service d’ici 2027 et devrait permettre de créer 3000 emplois permanents, ce qui paraît peu vu les montants investis, mais ne faisons pas la fine bouche… L’usine Intel déjà présente en Irlande bénéficiera, elle-aussi d’un investissement significatif de 12 milliards d’euros pour augmenter ses capacités de production, tandis qu’une usine d’encapsulement des puces électroniques sera implantée en Italie, permettant d’y créer 1500 emplois à partir de 2025. D’autres investissements sont aussi annoncés en Pologne et en Espagne.

Laboratoire du fabricant STI Microelectronics à Grenoble (photo © Jean-Pierre Clatot / AFP / Le Monde)

La France, quant à elle, n’a pas été complètement oubliée, bien qu’elle n’accueillera aucune usine, fidèle en cela à sa tradition désormais bien ancrée de désindustrialisation, mais elle devrait néanmoins héberger un centre européen de recherche-développement, sur le plateau de Saclay, avec 1000 emplois à la clé dont 400 dès 2024 si tout va bien. A défaut de produire, la France reste malgré tout un pays attractif pour la recherche de haut niveau : on se console comme on peut…

L. V.

L’ADN au secours des archivistes

20 février 2022

La conservation des archives a toujours été un casse-tête. Les historiens sont bien contents de pouvoir retrouver des documents anciens pour alimenter leurs recherches, nous aider à comprendre le passé mais aussi parfois contribuer à mieux gérer le présent. Pour autant, comment être sûr de bien garder les documents les plus utiles sans pour autant s’encombrer de monceaux de paperasses qui n’ont d’intérêt que dans l’instant présent ?

Archives nationales conservées à l’Hôtel de Soubise, dans le quartier du Marais à Paris (source © Paris zigzag)

Et comment avoir la certitude que les document précieusement stockés pour les générations futures résisteront bien à l’épreuve du temps et seront toujours lisibles dans plusieurs centaines voire milliers d’années ? Le exemples abondent malheureusement de lieux d’archivages qui n’ont pas résisté à l’épreuve du temps, depuis la grande bibliothèque d’Alexandrie, disparue dans les limbes de l’Histoire, jusqu’aux archives de Carnoux, pourtant pas si vieilles, mais qui ont été négligemment stockées pendant des années dans une cave humide sous les anciens locaux du CCAS…

Crées en 1790, en pleine période révolutionnaire, dans un souci de centraliser et d’homogénéiser la gestion de la mémoire publique, les Archives nationales, complétées en 1796 par les Archives départementales, ont justement pour rôle de procéder au tri et au stockage de tout ce qui peut être utile pour conserver une trace écrite de tout ce que l’administration française produit en termes d’actes et de décisions. Désormais, cette vénérable institution des Archives nationales conserve sur ses serveurs, plus de 70 téraoctets (To) de données numériques, capacité qui devrait passer rapidement à plus de 200 To.

Les systèmes d’archives de données numériques, un véritable gouffre énergétique… (source © Archimag)

Mais le stockage numérique des archives n’est pas la panacée que l’on imagine. A force de produire et de conserver tout sur support numérique, on est arrive à une véritable explosion des data centers, ces usines gigantesques qui consomment déjà 2 % de l’électricité mondiale, avec une empreinte carbone qui a d’ores et déjà dépassé celle de l’aviation civile ! On estime que le volume mondial de données numériques ainsi stocké atteint déjà 45 zettaoctet (soit 45 milliards de To) et probablement 175 Zo dès 2025.

Or, 70 % des données ainsi stockées sont des « archives froides », de celles qu’on garde en mémoire pour les historiens et les chercheurs, mais qu’on ne consulte que de manière exceptionnelle. Sauf que les supports physiques pour les conserver, disques durs ou bandes magnétiques, ne sont pas éternels, si bien qu’il faut régulièrement recopier les données, tous les 5 à 7 ans, sur de nouveaux supports pour ne pas risquer de les perdre à jamais.

C’est pourquoi, on imagine désormais d’autres voies pour ce stockage numérique, dont la technique du DNA Drive, développée et brevetée en 2019 par deux chercheurs français, Stéphane Lemaire et Pierre Crozet, lesquels ont fondé la société Imagene et viennent de lancer une action médiatique spectaculaire en procédant au stockage sur ADN de deux œuvres emblématiques conservées aux Archives nationales : la Déclaration des droits de l’Homme et du citoyen et son pendant féministe, celle des Droits de la femme et de la citoyenne, rédigée en 1791 par Olympe de Gouges.

La Déclaration des Droits de l’Homme et du citoyen de 1789 (photo © Getty / France Culture)

Le principe est simple puisqu’il consiste en un encodage des textes non pas selon un code binaire comme en informatique, mais sur la base d’un code à 4 lettres, celui des 4 bases nucléiques (adénine, thymine, cytosine et guanine) qui forment les brins d’ADN. Le texte ainsi codé est ensuite utilisé pour encoder des chromosomes par synthèse biologique et pourra alors être déchiffré par séquençage pour retrouver le texte d’origine. L’avantage de la méthode est que les brins d’ADN synthétisés, une fois lyophilisés, se conservent indéfiniment à l’abri de l’air, de l’eau et de la lumière.

L’intérêt du dispositif est évident car chaque gramme d’ADN peut ainsi stocker 450 millions de To : un être humain conserve ainsi pas moins de 2,7 Zo dans son propre ADN, qui dit mieux ? La totalité des données numériques mondiales pourrait ainsi être stocké sur 100 g d’ADN, soit la taille d’une tablette de chocolat ! Et ceci pour au moins 50 000 ans, sans risque d’altération et sans aucun apport d’énergie donc, en espérant qu’il subsiste encore, à cette échéance, des humains capables de récupérer l’information…

Capsules de stockage des documents sur support ARN (photo © Stéphane Lemaire / CNRS / Sorbonne Université / France Culture)

L’idée n’est d’ailleurs pas nouvelle puisqu’elle a été formulée dès 1959 par le prix Nobel de physique, Richard Feynman. La démonstration récente des chercheurs français, la rend cependant nettement plus concrète avec cette mise en scène soigneusement calculée, le 23 novembre 2021, lorsque les deux textes emblématique des Archives nationales ont été remisées en grandes pompes dans l’Armoire de fer du musée des archives à Paris, sous le forme de deux minuscules capsules métalliques de 18 mm de long, chacune contenant pas moins de 100 milliards d’exemplaires du texte historique ainsi encodé.

L’Armoire de fer, au musée des Archives nationales à Paris, construite sous la Révolution et restaurée en 2019 (source © Fondation pour la sauvegarde de l’art français)

Pour relire ces textes, rien de plus simple puisqu’il suffit d’ajouter une goutte d’eau sur un des brins d’ADN ainsi conservé pour le réactiver et ensuite procéder à son séquençage, chaque exemplaire étant à usage unique car il est détruit après lecture. Il n’en reste pas moins que des progrès sont encore attendus pour banaliser une telle méthode de stockage. L’encodage initial est une opération lourde et coûteuse qui, dans l’état actuel de la technologie, prend plusieurs jours et coûte la bagatelle de 1000 dollars par mégaoctet, tandis que le décodage nécessite au moins 1 heure.

Mais nul doute que les progrès techniques devraient permettre d’accélérer les cadences et de baisser les coûts, rendant peut-être demain l’archivage sur ADN à la portée de tous les centres d’archivage et obligeant les futurs historiens à venir consulter avec leur pipette et leur séquenceur de poche : on n’arrête pas le progrès…

L. V.

L’impôt ABC ou le retour au B. A. -BA

8 février 2022

Nous sommes en pleine campagne électorale présidentielle, et bientôt législative. C’est donc forcément le moment de s’interroger sur nos grands choix de société et les think tank, ces laboratoire de pensée qui bouillonnent de propositions, s’en donnent à cœur joie ! A se demander même pourquoi toutes ces propositions, souvent longuement réfléchies et savamment étayées par des études approfondies menées par les meilleurs spécialiste, n’ont pas plus d’écho dans les médias qui préfèrent trop souvent s’en tenir à l’écume des personnalités et au choc des petites phrases…

Pourquoi les think tanks fonctionnent rarement ? Parce que les meilleures idées sont filtrées… (source © Huffington Post)

Parmi ces multiples cercles de pensée qui phosphorent à tout va, citons notamment l’Institut Rousseau. Lancé en mars 2020 et animé par un groupe de hauts fonctionnaires, de chercheurs, de juristes et de spécialistes en tout genre, de la vie politique comme du financement public ou des relations internationale, il affiche comme ambition de « réinvestir l’idée d’une raison républicaine partagée et d’un bien commun à l’humanité, à travers la promotion d’idées rassemblées autour du projet central qu’est pour nous le reconstruction écologique et démocratique de nos sociétés, dans toutes ses composantes économiques, sociales et institutionnelles ».

Un bel objectif qui ne peut qu’intéresser tous ceux qui se réclament d’un idéal républicain de gauche, soucieux de l’intérêt général et d’une certaine rationalité démocratique, en vue de faire face collectivement aux grands défis sociaux et écologiques de notre temps. Cet institut, qui se présente comme « le laboratoire d’idées de la reconstruction écologique et républicaine » produit ainsi notes sur notes pour alimenter la réflexion et proposer des mesures concrètes sur des sujets aussi variés que le droit du travail, la réforme des collectivités, le coût de l’énergie, l’échec scolaire ou encore l’usage des cryptomonnaies… Une véritable mine parmi laquelle on relèvera cette note récente intitulée : « L’impôt ABC : une réforme de justice fiscale ».

Cosignée notamment par l’économiste Gaël Giraud, cette note propose d’adopter, pour les règles de calcul de l’impôt sur le revenu, une méthode nettement plus simple et plus intuitive que celle des tranches qui prévaut actuellement avec ses taux d’imposition marginale qui entretiennent la confusion car donnant le sentiment que les plus riches sont beaucoup plus fortement imposés qu’ils ne le sont en réalité. Le système n’est d’ailleurs pas nouveau puisqu’il avait déjà été exploré par l’économiste suédois Cassel dès 1901, mais n’a jamais été mis en œuvre malgré son extrême simplicité.

Ce dispositif d’impôt progressif repose en effet sur 3 paramètres seulement. A représente le taux effectif d’imposition maximale, dont la valeur détermine le consentement à contribuer à l’effort national pour les plus riches. Gaël Giraud suggère par exemple de le porter à 50 % pour ceux qui disposent d’un revenu mensuel supérieur à 1 million d’euros, ce qui n’a rien de confiscatoire, mais est très supérieur à la réalité actuelle où le taux d’imposition des plus riches ne dépasse pas 21 % !

Le paramètre B fixe le revenu imposable minimum, à partir duquel un citoyen doit payer l’impôt sur le revenu. Actuellement, ce seuil correspond à un revenu d’environ 1400 € mensuel, soit un revenu annuel global (hors abattement de 10 %) d’un peu moins 17 000 € pour un célibataire et le double pour un couple sans enfants. Gaël Giraud propose de conserver ce seuil qui permet à plus de la moitié de la population française d’être totalement exonérée de l’impôt sur le revenu.

Enfin, le paramètre C caractérise la progressivité de l’impôt : plus il est élevé, plus ce sont les riches qui payent, avec un effet redistributif plus important mais un rendement moindre car, comme chacun sait, les riches ne sont pas nombreux : moins de 4 % des Français gagnent actuellement plus de 6 000 € par mois et par personne… Gaël Giraud propose d’ajuster ce paramètre pour conserver les recettes fiscales actuelles mais avec davantage d’effet redistributif, les plus gros contribuables étant ceux qui gagnent plus de 10 000 € par mois et par personne…

Les tranches d’imposition, un système opaque et complexe, source de multiples ajustements (Dessin publié dans les Echos en janvier 2019 © Aure Experts)

L’intérêt d’un tel système est surtout pédagogique car il permettrait à tout un chacun de mieux s’y retrouver dans ce maquis inextricable qu’est devenu le barème de l’impôt sur le revenu avec ses dispositifs multiples d’abattements et de niches fiscales qui masquent totalement la réalité des contributions. Avec l’instauration du prélèvement forfaitaire universel, la fameuse Flat Tax à la française, instaurée par Emmanuel Macron, le taux d’imposition des Français les plus aisés, dont les revenus proviennent essentiellement du capital, serait ainsi tombé à 17 %, un taux ridiculement bas, qui va totalement à l’encontre du principe même de progressivité de l’impôt puisqu’ils payent moins qu’un contribuable plus modeste mais dont les seuls revenus sont ceux de son travail.

Les niches fiscales, un système qui permet aux plus riches de payer moins d’impôts… Un dessin signé Na ! (source © Agora Vox)

Un impôt de type ABC permettrait, selon ses promoteurs, de remettre dans le débat public la question de l’ajustement des règles de l’imposition car il s’agit d’un enjeu central de société alors que cette question est devenue d’une complexité telle que seuls les conseillers fiscaux et les avocats d’affaire peuvent s’y retrouver, pour le plus grand bénéfice des plus aisés qui ont le moyen de recourir à leurs services, au détriment bien évidemment de l’intérêt général.

Gageons cependant que le dossier ne sera pas au cœur du débat public de cette campagne, ce qui est bien dommage. Rappelons quand même que l’impôt sur le revenu est la deuxième source de recettes pour l’État français, devant rapporter en 2022, selon le projet de loi de finance, la bagatelle de 82,4 milliards d’euros, juste derrière le fruit de la TVA (97,5 Md €), mais bien avant celui de l’impôt sur les sociétés (39,5 Md €) ou de la fameuses TIPCE sur les carburants (18,4 Md €) qui avait pourtant occasionné le mouvement des Gilets jaunes et est source de débat permanent…

Affiche s’opposant à l’instauration d’un impôt sur le revenu, considéré comme confiscatoire et inquisitorial par la France conservatrice, finalement adopté en 1914 à l’instigation de Jacques Caillaux, ministre des finances du gouvernement de Georges Clémenceau (source © Nancy Buzz)

Rappelons aussi au passage que l’instauration même d’un impôt progressif sur le revenu, a suscité bien des réticences en France où elle n’a été adoptée qu’en juillet 1914 après plus de 60 ans de débats houleux et une opposition farouche de toute la droite conservatrice et libérale, certains comme Adolf Thiers s’étant particulièrement illustrés dans ce combat contre un tel outil de justice sociale qu’il qualifiait d’« atroce impôt », tandis qu’en 1907 le futur député Maurice Colrat de Montrozier allait jusqu’à dire de ce projet qu’il « porterait atteinte à la liberté individuelle, ruinerait le commerce et l’industrie et, par son caractère progressif, pourrait constituer aux mains des socialistes un véritable outil de spoliation »… Rien que ça ! Comme quoi, évoquer l’impôt sur le revenu pourrait mettre un peu de piment dans le débat électoral actuel…

L. V.

Des filets connectés pour capter les déchets…

1 février 2022

La Mer Méditerranée, c’est bien connu, est une mer fermée, réceptacle naturel de tous nos déchets que le vent emporte et qui finissent tous, invariablement dans la mer, canalisés à chaque épisode pluvieux via les cours d’eau et le réseau de collecte des eaux pluviales.

Chacun n’en a pas forcément conscience, mais un mégot jeté négligemment dans le caniveau sur le mail de Carnoux, sera nécessairement emporté à la première pluie dans la « bouche d’égout » la plus proche, laquelle conduit directement, via un simple tuyau, dans le fossé pluvial que l’on voit à la sortie de Carnoux, en contrebas de la route après le rond-point des Barles, fossé qui n’est autre que le lit résiduel du Ru de Carnoux qui se jette dans le Merlançon, lui-même affluent de l’Huveaune, qui conduira votre mégot directement en mer au niveau de la plage du Prado où, avec un peu de chance, vous le retrouverez avec plaisir en allant barboter dans l’eau l’été prochain…

Regard pluvial à Carnoux : dernière étape avant un rejet direct en mer… (photo © CPC)

On estime que l’on rejette ainsi en mer chaque année, bien involontairement et sous le seul effet mécanique du vent et de la pluie, plus de 10 millions de tonnes de déchets, principalement à base de plastique qui se fragmente peu à peu et pénètre dans toute la chaîne alimentaire. D’ici 2050, les océans contiendront probablement plus de plastique que de poissons.

Malgré tous les efforts des pouvoirs publics et de nombreuses initiatives privées pour essayer de nettoyer cet immense dépotoir qu’est devenue la Mer Méditerranée, une des solutions les plus efficace est encore d’éviter que nos déchets ne viennent se déverser en mer à chaque orage comme on l’a encore constaté lors de l’épisode pluvieux du 4 octobre 2021 qui avait coïncidé de surcroît avec une grève des éboueurs métropolitains, si tant est que l’on puisse encore parler de coïncidence pour des phénomènes aussi récurrents…

Déchets jonchant la plage du Prado après les intempéries du 4 octobre 2021 (photo © Nicolas Tucat / AFP / Le Monde)

Une des solutions envisagée et déjà testée avec succès en de multiples endroits est de récupérer ces macro-déchets en installant des filets à l’exutoire des réseaux d’eau pluviale, voire des déversoirs d’orage qui, eux, sont liés directement aux réseaux d’eaux usés, lesquels finissent toujours, en cas de forte pluie, à excéder les capacités de traitement des stations d’épuration, si bien que l’on n’a généralement pas d’autre choix que de déverser alors directement en mer les eaux usées sans le moindre traitement en comptant sur la dilution naturelle et l’effet de chasse pour que cela ne soit pas trop visible…

Mise en place d’un filet récupérateur de déchet à la sortie d’un exutoire (source © Made in Marseille)

L’inconvénient d’un tel dispositif est que les filets, même de grande capacité, finissent toujours par se remplir, souvent précisément au plus fort de l’orage, formant alors de véritables bouchons à l’exutoire des réseaux d’eau usées, provoquant alors des débordement d’eau nauséabonde sur la voirie et dans les sous-sols des immeubles avoisinants, ce qui n’est généralement guère apprécié des riverains !

C’est pour éviter ce type de désagrément que la start-up marseillaise, au nom typiquement provençal de Green City Organisation, a lancé son dispositif D’Rain de filet connecté. Créée en 2017 par Isabelle Gérente, une plongeuse d’origine lilloise venue à Marseille pour développer des projets sportifs mais écœurée par les arrivées massives en mer de déchets de toute sorte à chaque épisode pluvieux, cette start-up a donc développé un système de collerette équipée de capteurs, que l’on vient fixer à la sortie d’une canalisation d’eau pluviale et à laquelle on accroche un filet qui récupère les déchets.

Isabelle Gérente, la fondatrice de Green City Organisation (photo © France TV Info)

Grâce à un dispositif de transmission des données collectées, on connaît à tout moment le niveau de remplissage du filet, ce qui permet de venir le récupérer et le changer à temps tout en évitant les plongées intempestives de surveillance. De surcroît, les capteurs recueillent en permanence des données sur la qualité de l’eau : salinité , pH, taux d’oxygène dissous, mais aussi teneur en hydrocarbures, métaux lourds ou encore résidus médicamenteux de nature à dégrader fortement l’état du milieu aquatique.

Schéma du principe du dispositif D’Rain avec sa collerette connectée et ses filets de récupération (source © Green City Organisation / GoMet)

Labellisé par les pôles de compétitivité Aquavalley et le Pôle Mer Méditerranée, le dispositif a été breveté e 2020. Après un premier essai dans le Vieux-Port de Marseille, la start-up marseillaise avait annoncé début 2021 la signature d’un partenariat avec la fondation Probiom, une ONG environnementale qui tente de lutter contre la prolifération de déchets plastique sur les côtes algériennes. Le 14 décembre 2021, la société a organisé, sur le Vieux-Port, dans les locaux de la Société nautique, une présentation de son démonstrateur, fruit de 18 mois de recherches cofinancées par l’Agence de l’Eau et Total Énergies, avant de mettre en scène l’installation du dispositif sur l’exutoire situé à proximité, l’un des plus gros d’Europe, et qui sert de déversoir d’orage directement dans le Vieux-Port en cas de forte pluie.

Vue du dispositif expérimental D’Rain mis en place au niveau de l’exutoire de la Société nautique sur le quai du Vieux-Port à Marseille le 14 décembre 2021 (photo © Rémi Liogier / GoMet)

Les filets ainsi mis en place, fournis par la société Ecotank, ont une capacité de 10 m³ et sont constitués d’une double paroi, à mailles larges pour bloquer les macro-déchets, mais doublés d’une maille plus fine pour arrêter même les mégots. Quant le filet est plein, la collerette intelligente, qui pèse quand même 1,7 tonnes, se détache automatiquement et l’exploitant est alerté pour qu’il puisse venir récupérer le filet à l’aide de scaphandriers, mobilisés par l’entreprise Seven Seas et le remplacer par des filets neufs.

Installation du dispositif expérimental D’Rain sur l’exutoire du Vieux-Port à Marseille le 14 décembre 2021 (photo © Guillaume Ruoppolo / Walis / Marseille médias)

Didier Réault, vice-président de la Métropole, délégué à la mer et au littoral, était présent lors de cette démonstration et s’est montré intéressé par cette technologie innovante qui pourrait, à terme, équiper les quelques 180 exutoires en mer pour la seule ville de Marseille, exploités par la SERAMM, dans le cadre d’une délégation de service public. Même dans cette hypothèse, et même en imaginant qu’une telle technologie de pointe soit suffisamment fiable pour permettre de récupérer ainsi une partie de nos déchets, ce n’est bien évidemment pas une raison pour continuer à jeter négligemment votre mégot dans le caniveau…

L. V.

L’évaluation évolue…

25 janvier 2022

C’est l’histoire de deux hommes, tous les deux prénommés François et qui habitent dans le même village. L’un est chauffeur de taxi et l’autre est le curé de la paroisse.

Le hasard voulut qu’ils meurent tous les deux le même jour. Ils se retrouvent donc ensemble à la porte du paradis et se présentent devant le Seigneur. Celui-ci dit accueille François, le chauffeur de taxi, et lui dit : « Entre, mon fils, tu as mérité ta place au Paradis. Voici ta tunique brodée d’or et ton bâton de platine ».

Arrive ensuite François le prêtre. Le Seigneur consulte ses registres et lui dit : « viens, mon fils, tu peux entrer. Voici ta tunique de lin et ton bâton de chêne ». Le prêtre est un peu surpris et se dit qu’il doit y avoir une confusion. Alors il se lance : « Écoutez, Seigneur, je ne voudrais pas dire du mal de mon prochain, mais quand même… François, je le connais bien, vous savez, on est du même village. C’était un homme violent. Il n’était pas croyant et il était toujours bourré. Il conduisait comme un dingue et il avait sans arrêt des accidents. Et pourtant, vous lui donnez la tunique brodée d’or et le bâton de platine…

(source © France Bleu)

Et moi, moi qui ait célébré la messe tous les dimanches, moi qui me suis efforcé de propager la foi chrétienne et qui suis toujours resté dans le droit chemin, moi, vous me donnez la tunique de lin et le bâton de chêne… Ce n’est pas possible, il doit y avoir une erreur… »

Alors, Dieu consulte de nouveau ses registres et lui dit : « Non, mon fils, il n’y a pas d’erreur. C’est simplement que nous avons changé notre mode d’évaluation. Chaque fois que tu servais la messe, le dimanche, tout le monde s’endormait. Chaque fois qu’il conduisait comme un fou, tout le monde priait avec ferveur… Cela s’appelle la méthode d’évaluation par indicateurs quantitatifs de performance ».

Les indicateurs de performance : l’alpha et l’oméga des nouveaux canons de l’évaluation… (source © Business Economics Performance)

Bien sûr, l’histoire est éculée mais la méthode d’évaluation, elle, est en vogue dans certains milieux professionnels, pour évaluer la performance individuelle des salariés. Partant du principe que « tout ce qui peut être mesuré peut être amélioré », comme l’avait déjà formulé le consultant américain d’origine autrichienne, Peter Drucker, devenu professeur de management, ces fameux indicateurs quantifiés sont un outil idéal pour pressurer les travailleurs sur la base d’indicateurs qui présentent toutes les apparences de la plus totale objectivité puisqu’ils sont aisément quantifiables et vérifiables. Le stakhanovisme fonctionnait déjà sur les mêmes bases dans l’URSS stalinienne de 1935, en mettant en avant la productivité des travailleurs modèles, quitte à enjoliver un peu l’affaire par un zeste de propagande…

Alekseï Stakhanov, le mineur russe à hautes performances, glorifié par le régime stalinien dans les années 1930 (source © Histoire)

Toujours est-il que si vous avez vaguement le sentiment de vous faire profondément entuber par votre chef, à l’occasion de votre prochain entretien annuel d’évaluation, vous pourrez repenser à l’histoire des deux François : à défaut de convaincre votre supérieur de la nécessité de vous augmenter, cela vous permettra au moins de vous détendre durant l’entretien. C’est toujours ça de gagné…

L. V.

En Israël, les poissons rouges apprennent à conduire

19 janvier 2022

C’est une publication scientifique de la revue Behavioral Brain Research qui nous l’apprend : une équipe de chercheurs de l’Université Ben Gourion, en Israël, donne des leçons de conduite à des poissons rouges pour leur apprendre à piloter une plate-forme robotisée montée sur roues et supportant leur aquarium.

Un poisson rouge aux commandes de son engin… (photo © Ronen Zvulun / Reuters / Yahoo !)

Vidéo à l’appui, on découvre ainsi que certains poissons rouges sont capables, moyennant un apprentissage d’au moins une dizaine d’heures de conduite, soit plutôt moins tout compte fait que pour un jeune humain qui prépare son permis de conduire, à piloter leur plateforme vers une cible bien visible. S’ils atteignent leur but, ils sont bien entendu récompensés par une bonne ration de nourriture, de quoi renforcer leur motivation et solliciter leur intelligence.

Car contrairement à certains de nos préjugés habituels et, il faut bien le dire, à ce que peut observer quiconque regardant un poisson rouge faire des ronds dans son bocal tout en nous fixant de ses yeux de merlan frit, le poisson rouge est plus intelligent qu’il n’y paraît. Au point de finir par comprendre que l’aquarium dans lequel il barbote se déplace dans la pièce, dans la même direction que lui. Le support sur lequel est posé l’aquarium est en effet monté sur roues, équipées d’un système automatisé de conduite guidé par ordinateur selon les déplacements du poisson rouge, déplacement sui sont eux-mêmes détectés par Lidar. Lorsque le poisson se déplace, c’est donc tout l’aquarium qui se déplace dans la même direction. Ce qui permet de constater que le poisson est finalement capable de se diriger dans une pièce vers une cible peinte sur un mur, tout en restant dans son aquarium.

Enfin pas tous car, comme chez les humains, certains sont plus piètres conducteurs que d’autres et ont bien du mal à coordonner leurs mouvements pour arriver à piloter correctement la plate-forme mobile jusqu’à lui faire atteindre la cible visée. A moins qu’ils ne soient tout simplement pas suffisamment attirés par la nourriture qui leur est servie en cas de succès, allez savoir…

On pourrait certes s’interroger sur ce qui peut bien conduire des neuroscientifiques de haut niveau à s’amuser ainsi à ce type de bêtise qui ressemble de prime abord à un canular de potache désireux de renouveler le concept des courses d’escargots en les remplaçant par des rallyes de poissons rouges motorisés. D’autant que les biologistes de l’Université Ben Gourion ne sont pas les premiers à explorer ainsi la capacité des poissons rouges à se déplacer en dehors de leur environnement aquatique habituel. En 2014 déjà, une équipe de designers néerlandais avait conçu le go-kart, un petit véhicule sur roues surmonté d’un aquarium servant de cabine de pilotage à Dory, un poisson rouge dont les mouvements servait à faire avancer l’engin, lui permettant ainsi d’explorer tranquillement son environnement sans quitter son bocal.

Dory le poisson rouge néerlandais dans son go-kart en pleine exploration entre le bureau et le radiateur (source © The Verge)

Il en ressort donc qu’un poisson rouge n’est pas plus bête qu’un quidam lambda pour apprendre à conduire et à se déplacer, y compris sur la terre ferme, n’hésitant pas, pour les plus habiles d’entre eux, à contourner les obstacles pour atteindre leur cible. Reste à savoir à quoi une telle expérience peut-elle bien servir. A l’heure où les constructeurs de véhicules automobiles cherchent à rendre ces derniers totalement autonomes, capables de se déplacer seuls dans la circulation sans la moindre action humaine, on se doute bien que l’objectif n’est pas de remplacer les chauffeurs par des poissons rouges, encore que…

L. V.

Du géocorail pour stabiliser le littoral ?

10 janvier 2022

Avec le réchauffement climatique global, le niveau moyen des océans s’élève progressivement, sous le simple effet de la dilatation thermique de l’eau. Mais tout laisse à penser que le phénomène risque fort de s’aggraver dans un proche avenir, sous l’effet de phénomènes complexes et plus difficiles à modéliser, la fonte des glaces polaires pouvant contribuer de manière significative à cette élévation progressive du niveau des mers. Mécaniquement, plus ce niveau s’élève, plus les zones côtières sont menacées, surtout dans les zones de côte sableuse, déjà soumises à une érosion naturelle du fait de l’action de la houle.

L’érosion côtière grignote lentement mais sûrement les infrastructures littorales (photo © Matthew J. Thomas / Actu-Environnement)

Ces phénomènes d’érosion côtière et de recul du trait de côte ne sont pas simples à modéliser car ils dépendent fortement des conditions locales et l’érosion se fait souvent par à-coups, à l’occasion de fortes tempêtes, si bien que la notion même de vitesse moyenne d’érosion du trait de côte n’a pas forcément grande signification et peut être très variable d’un point à un autre. Les analyses disponibles montrent néanmoins que 20 % du littoral national, y compris dans les territoires d’outre-mer (hors Guyane), est désormais en phase de recul et qu’environ 30 km² de terre a déjà été engloutie par la mer au cours des seules 50 dernières années.

L’immeuble Signal, à Soulac-sur-mer, menacé par l’érosion côtière, ici en 2014 lors de son évacuation (photo © Laurent Theillet / MaxPPP / Le Monde)

Chacun a vu notamment les images du Signal, cet immeuble d’habitation de 4 étages construit à la fin des années 1960 sur la côte landaise, dans la commune de Soulac-sur-Mer, en Gironde, à environ 200 m du littoral. Grignotée par les avancées de l’océan, l’immeuble est désormais directement menacé par les vagues et a dû être évacué par ses occupants en 2014. Il va désormais être démoli par la Communauté de communes dans le cadre d’un projet plus global de renaturation du littoral. Mais ce bâtiment n’est qu’un exemple parmi beaucoup d’autres des constructions faites un peu imprudemment dans des secteurs menacés par l’érosion côtière. Ainsi, le CEREMA a publié en 2019 une étude estimant entre 5 000 et 50 000 (selon les hypothèse retenues) le nombre de logements qui seront directement menacées par ce recul du trait de côte d’ici 2100.

Des maisons directement menacées par l’érosion du littoral, ici sur la côte atlantique (photo © David Ademas / Ouest France)

La côte méditerranéenne est directement touchée par ce risque, tant sur les côtes sableuses, notamment dans le Languedoc et en Camargue, que sur les zones de falaises côtière. Ces dernières sont en effet soumises elles-aussi à des phénomènes chroniques d’érosion, sous l’effet principalement de la circulation d’eau dans les fissures des massifs rocheux, provoquant petit à petit la désagréqation de ces fronts rocheux qui s’éboulent périodiquement. La houle déblayant au fur et à mesure les matériaux issus de ces éboulements et accumulés en pied de falaise, le littoral recule inexorablement, finissant par menacer les maisons construites près du rivage.

Face à cette menace désormais bien caractérisée, une stratégie nationale de gestion du recul du trait de côte a été élaborée et la loi climat adoptée en août 2021 prévoit une liste de communes qui devront intégrer dans leur plan local d’urbanisme les zones potentiellement soumises à cette érosion littorale. Marseille sera directement concerné par cette menace, s’étant largement urbanisée en bordure même de la mer, dans des secteurs soumis à des éboulements récurrents.

A Marseille, de nombreuses constructions sont directement menacées par l’érosion littorale : ici le CIRFA (centre d’information et de recrutement des forces armées près des Catalans (source © Tourisme Marseille)

Si la logique consiste à limiter les constructions dans ces zones et à supprimer progressivement les bâtiments les plus menacés, des stratégies de protection sont aussi mises en œuvre, via des ouvrages de défense édifiés soit en haut de plage (sous forme de digues ou de murs), soit en pied de plage (sous forme de brise-lames et d’épis en enrochements), soit en immersion.

Pour limiter l’impact et le coût de tels ouvrages qui nécessitent de gros moyens de terrassement, une société implantée à Marseille depuis 2012 sous le nom de Géocorail, a mis au point un procédé innovant assez astucieux et d’ailleurs breveté. En injectant du courant électrique, à partir d’une cathode reliée à un générateur, et d’une anode en titane, on provoque une électrolyse de l’eau de mer qui permet de précipiter le calcium et le magnésium, lesquels se déposent sur le substratum sous la forme d’un liant naturel solide à base d’aragonite et de brucite, selon un mode de dépôt assez semblable à celui qui permet la construction naturelle de récifs coralliens.

Philippe Andréani, dirigeant de la société Géocorail, avec un fragment de grille recouverte de son liant déposé in situ (photo © Stéphanie Têtu / Le Moniteur)

Ce dépôt qui vient se former sur une armature de grillage métallique agglomère également tous les sédiments marins et débris en suspension dans l’eau, débris de coquillage, grains de sables et même déchets plastiques, formant un encroutement calcaire qui s’épaissit de 5 à 10 cm par an jusqu’à constituer une coque protectrice qui permet de renforcer naturellement les pieds de digues ou d’enrochement, de colmater les brèches en pied de quai ou de consolider les pieds de plage menacés d’érosion. Dès que l’ouvrage a atteint le niveau de protection recherche, il suffit de couper l’alimentation et le matériau ainsi généré devient inerte comme un dépôt calcaire naturel.

Formation de Géocorail en place pour renforcer un ouvrage de protection (source © Géocorail / La Gazette des Communes)

Dès 2016, une première application de ce procédé ingénieux a été testée à Châtelaillon-Plage, près de La Rochelle, pour renforcer une digue de protection. D’autres ont suivi depuis, notamment à Mèze, dans l’Hérault, où la société a imaginé, avec le syndicat mixte du bassin de Thau, de réaliser des cages en gabions remplies de coquilles d’huîtres pour recycler les quelques 8 500 tonnes générées chaque année par l’activité conchylicole locale. Immergés dans l’eau pendant un an, ces blocs se solidifient et peuvent ensuite remplacer des enrochements à moindre coût et faible impact environnemental. A Cannes, le béton naturel de Géocorail a aussi permis de renforcer des chaussettes brise houle immergées devant la Croisette.

Matériau biomimétique, le Géocorail offre de multiples applications, y compris pour remplacer des gabions ou des enrochements, voire pour agglomérer des sédiments pollués (source © Géocorail / Le Moniteur)

En 2021, le fonds d’investissement Truffle Capital, qui soutient cette entreprise depuis sa création, a levé 2,7 millions d’euros pour les injecter dans cette société en pleine croissance qui envisage aussi d’utiliser son procédé pour encapsuler directement au fond de l’eau des sédiments sous-marins pollués, pour éviter qu’ils ne soient remis en suspension par les hélice des bateaux ou lors de leur extraction. Un bel avenir en perspective pour cette entreprise qui mise sur une meilleure prise en compte par les collectivités de ces phénomènes d’érosion marine pour développer son carnet de commande…

L. V.