Posts Tagged ‘Recherche’

Les trains du futur bientôt sur les rails ?

9 octobre 2019

Jules Verne l’avait imaginé dès 1889 : des capsules propulsées à 1200 km/h dans des tubes aériens pour faciliter les transports rapides. L’action était supposée se déroulée en 2889. On y sera peut-être bien avant… L’idée est en effet en train de faire son chemin, reprise notamment par l’entrepreneur sud-africain Elon Musk, désormais installé à Los Angeles, fondateur d’une entreprise qui creuse des tunnels, The Boring Compagny, mais aussi à l’origine des sociétés Tesla, SolarCity ou encore Space X, dont l’objectif est, en toute modestie, de préparer la colonisation de la planète Mars.

Schéma de principe d’un train hyperloop selon la société néerlandaise Hardt Hyperloop (source © Bluewin)

En 2013, il publie un livre blanc qui pose les bases du concept Hyperloop, un moyen de transport ultra-rapide à propulsion électrique, sous forme de capsules circulant dans un tube dépressurisé pour limiter au minimum les frottements : « la vitesse de l’avion avec la fréquence d’un métro ». Depuis, plusieurs sociétés se sont mises au travail, chacune essayant de développer l’idée pour la rendre opérationnelle.

Prototype en cours de développement par la société Hyperloop TT à Toulouse (source © Midi Libre)

Curieusement, deux d’entre elles ont installé leurs bases en France. C’est le cas de l’entreprise américaine Hyperloop TT qui a installé un centre de recherche près de Toulouse sur l’ancien terrain militaire de Francazal, profitant de l’environnement technologique et scientifique de haut niveau en matière d’aéronautique et de systèmes embarqués liés aux installations d’Airbus et des pôles de compétitivité locaux.

La start-up américaine Hyperloop One a préféré, elle, construire son centre de recherche dans le sud de l’Espagne, mais l’outsider canadien, Transpod, a choisi de s’installer en Haute-Vienne, dans un petit village de 400 habitants, Droux, situé à une cinquantaine de kilomètres de Limoges, pour y construire sa piste d’essai destinée à faire circuler ses futurs prototypes à plus de 1000 km/h dans un tube de 3 km perché sur des pylônes, le long d’une voie ferrée désaffectée.

Vue d’artiste du futur hyperloop imaginé par la société Transpod (source © BFMTV)

Les technologies de ces différents projets hyperloop en pleine phase de développement diffèrent selon les équipes qui restent discrètes sur leurs secrets de fabrication. Le point commun serait de circuler dans un tube parfaitement étanche dans lequel la pression serait abaissée fortement pour réduire au minimum les frottements de l’air et économiser d’autant la consommation d’énergie dont 70 % est due aux friction de l’air et des roues, comme le rappelle le député Cédric Vilani dans une note rédigée en 2018 pour l’Office parlementaire d’évaluation des choix scientifiques et technologiques.

La propulsion électrique ou magnétique (par des moteurs à induction) limite les nuisances sonores et réduit les émissions de CO2. Quant à la friction des roues, le meilleur moyen de la réduire est de faire léviter le train au-dessus du rail, soit sur coussin d’air, comme l’imaginait initialement Elon Musk, soit par sustentation magnétique.

Esquisse de la capsule du futur Spacetrain en cours de développement sur les anciennes infrastructures de l’Aérotrain (source © Spacetrain)

Les deux technologies ont déjà été éprouvées. Celle du coussin d’air est à la base du concept d’Aérotrain développée entre 1965 et 1974 par l’ingénieur français Jean Bertin qui avait fait circuler son aérotrain sur un monorail surélevé traversant la plaine de Beauce au nord de Paris. Le projet n’avait alors pas pu atteindre le stade ultime du développement commercial et avait dû s’effacer face au développement du TGV. Mais le génie civil est toujours en place et la société française Spacetrain est en train d’y tester sa navette du futur propulsée par un moteur à induction linéaire alimenté par une pile à combustible à hydrogène qui fait tourner les turbines alimentant les coussins d’air, le tout pour atteindre une vitesse de croisière de l’ordre de 600 km/h. L’intérêt d’une telle technologie qui envisage une exploitation commerciale dès 2025 est de permettre des liaisons rapides sur des lignes comme Paris-Orléans dont la fréquentation n’est pas suffisante pour rentabiliser une infrastructure LGV.

Le Transrapid de Shangai (source © German China)

L’autre approche est celle de la lévitation magnétique à base d’aimants supraconducteurs fixés à la voie et sur lesquels lévite la capsule munie elle-même de bobines supraconductrices, les deux aimants se repoussant pour éviter le contact et donc les frottements. Le Transrapid développé par les Allemands ThyssenKrupp et Siemens qui devait relier Munich à son aéroport est basé sur ce principe, piloté entièrement à distance de manière totalement automatisé. Le projet, jugé trop coûteux, a finalement été abandonné suite à un accident, mais un train de ce type fonctionne depuis 2002 permettant de rallier l’aéroport de Shangai en quelques minutes.

Prototype du MagLev japonais (source © Japan Rail Pass)

Un autre projet comparable, japonais celui-là, le Maglev, est en cours de développement par la compagnie Central Railway Japan qui espère l’exploiter à partir de 2027, d’après Megamark, pour parcourir en 40 mn les 286 km qui séparent Tokyo de Nagoya, à une vitesse de croisière proche de 500 km/h.

Pour la technologie hyperloop, qui vise plutôt une vitesse de l’ordre de 1000 km/h (pas plus car au-delà le tube dans lequel circulera la capsule subit des ondes de choc potentiellement dommageables), une des difficultés à résoudre est la gestion de l’aérodynamisme. Selon Sciences et Avenir, Il est donc envisagé d’installer à l’avant de la capsule un compresseur axial, destiné à aspirer l’air qui a tendance à s’accumuler en amont, et à le rejeter à l’arrière, toujours dans l’objectif de limiter les frictions.

Une chose est sûre en tout cas, il n’y aura probablement pas de chauffeur dans ces trains du futur. La SNCF annonce d’ailleurs pour 2023 des trains sans conducteur, peut-être même dès 2021 pour le fret. L’objectif est clair : permettre via l’automatisation de la conduite de faire circuler davantage de trains sur une même ligne en optimisant l’accélération et le freinage. La technique est déjà largement éprouvée pour les métros, mais un peu plus complexe pour les trains qui circulent en milieu ouvert et sont donc susceptibles de rencontrer des obstacles sur la voie. Comme la distance nécessaire à un train pour stopper est relativement importante, et que par définition un train ne peut pas faire un écart pour éviter l’obstacle, il faut anticiper et détecter les obstacles éventuels à plus d’1 km en amont, de jour comme de nuit. Il existe d’ailleurs déjà des trains qui circulent en conduite autonome, pour le compte de la compagnie minière Rio Tinto en Australie, mais dans une région semi désertique où les obstacles ne sont pas légion…

Le train autonome AutoHaul piloté à distance par la société Rio Tinto en Australie (source © Détours Canal +)

Et l’innovation ferroviaire ne se limite pas aux seuls trains à grande vitesse puisque le bureau d’innovation breton Exid Concept & Développement travaille de son côté à développer son concept de Taxirail dont un premier démonstrateur est envisagé dès 2020.

Maquette du Taxirail qui pourrait redonner vie aux petites lignes abandonnées de la SNCF (source © Exid C&D / L’Usine nouvelle)

Il s’agirait d’une navette autonome de 40 places seulement destinée à circuler sur les voies SNCF existantes, y compris celles disposant d’ouvrages d’art anciens trop fragiles pour supporter les 50 à 80 tonnes des autorails classiques. Ces navettes circuleraient à la demande, appelées via une application sur smartphones ou via des bornes en gare, et seraient propulsées par un moteur électrique alimenté sur batterie accompagnée d’une réserve de biogaz pour prolonger la charge, leur donnant une autonomie de 600 km, suffisante pour la journée.

On le voit, le domaine du transport ferroviaire est en pleine innovation et pourrait bien connaître dans les années qui viennent de véritables révolutions technologiques que même Jules Verne n’avait pas osé imaginer !

L. V.

Bataille de guêpes chinoises dans les châtaigniers ardéchois

7 juillet 2019

En Ardèche, on ne plaisante pas avec la châtaigne dont la production locale, qui bénéficie depuis 2006 d’une appellation d’origine contrôlée est même appuyée par un Syndicat de défense de la châtaigne d’Ardèche.

Aire d’extension de l’Appellation d’origine protégée qui s’étend sur 197 communes, pour l’essentiel dans le département de l’Ardèche (source : Châtaigne d’Ardèche)

Présent à l’état naturel sur le territoire ardéchois, le châtaigner d’Europe, Castanea sativa, est cultivé depuis sans doute le XIIIe siècle lorsque les paysans ont appris à le greffer. Vers 1860, la production de châtaignes ardéchoises atteignait son âge d’or avec pas moins de 60 000 hectares exploités et 40 000 tonnes de châtaignes récoltées !

L’exode rural  et les vicissitudes de la vie économique ont conduit à un très net déclin de cette activité économique qui connait néanmoins un regain sensible depuis les années 1960. L’Ardèche fournit désormais de l’ordre de la moitié de la production nationale de châtaigne avec une récolte annuelle de l’ordre de 5 000 tonnes les bonnes années (mais moins de 2 000 tonnes en 2017, à cause de la sécheresse…)

Mais voilà qu’en 2005, une petite guêpe d’origine chinoise, la cynips du châtaigner, Dryocosmus kuriphilus, présente depuis 2002 en Italie où elle parasite les châtaigniers, se permet de franchir la frontière française et s’implante dans les Alpes-Maritimes. Repéré dès 2010 dans les châtaigneraies ardéchoises, ce ravageur mondialement connu inquiète au plus haut point les castanéiculteurs ardéchois.

Galles de cynips sur un châtaigner (source : ADIV environnement)

L’insecte pond ses œufs au printemps dans les bourgeons. Les larves y passent tout l’hiver bien au chaud sans que leur présence ne puisse être détectée. Au printemps, les larves se développent et libèrent des toxines qui provoquent l’atrophie de la pousse tandis que des galles apparaissent sur les feuilles. Les cynips adultes quittent les galles au début de l’été et vont pondre sur d’autres arbres, entretenant leur cycle. Les arbres infestés voient leur production décliner de 60 à 80 % et finissent même par mourir, d’autant que les galles abandonnées constituent des lieux favorables pour le développement d’un champignon parasite. En 2013, la perte de production sur le seul département de l’Ardèche était ainsi évaluée à plus de 300 tonnes.

Cycle de vie du cynips (photos © N. Borowiec et J.-C. Malausa. Infographie : V. Gavalda / source © INRA)

Face à des perspectives aussi sombres, la filière a sollicité les chercheurs de l’INRA (Institut de recherche agronomique) et du CTIFL (Centre Technique Interprofessionnel des Fruits et Légumes) pour chercher des solutions à ce fléau menaçant. Au vu de l’expérience de leurs collègues italiens, les Ardéchois se sont orientés vers la lutte biologique en s’appuyant sur une autre guêpe d’origine chinoise, prédateur naturel de la première, Torymus sinensis. Celle-ci pond ses œufs dans les galles du châtaignier, et ses propres larves se développent en se nourrissant des larves de cynips.

Torymus sinensis en train de pondre (source : Institut Sophia Agrobiotech)

Grâce à la mobilisation de dons privés et de subventions publiques, des Torymus ont donc été achetés à l’étranger et lâchés dans des vergers isolés pour leur permettre de se développer rapidement sans trop se disséminer. Comme on ne sait pas encore multiplier en laboratoire cet insecte exotique, les galles de cynips parasitées par les nouveaux arrivants doivent ensuite être récoltées pour récupérer les Torymus qui sont soigneusement séparés en mâles et femelles avant d’être relâchés sur d’autres parcelles. Un travail titanesque piloté par la Chambre d’agriculture et qui s’appuie sur le réseau de producteurs eux-mêmes, mobilisant plusieurs centaines de personnes chaque année.

Plus de 2 000 lâchers ont ainsi été opérés en 2 ans à partir de 2015 sur les châtaigneraies ardéchoises. Et ça marche ! Le résultat est variable selon les secteurs mais pour ceux qui sont les plus proches de la vallée du Rhône, là où les premiers lâchers ont été réalisés, le résultat est très prometteur. Le cynips est toujours présent et le restera, mais son activité est fortement contenue du fait de la présence de son prédateur naturel, désormais bien implanté avec en moyenne plus de 2,5 Torymus dans chaque galle de cynips.

Un résultat très spectaculaire également dans les Alpes-Maritimes où, grâce à ce duel de guêpes asiatiques orchestré par les spécialistes de la lutte biologique de l’Institut Sophia Agrobiotech, la proportion de bourgeons infestés est passé en quelques années d’environ 70 % à 2 ou 3 % seulement. Comme quoi, le salut en matière de lutte contre les parasites agricoles ne passe pas nécessairement par le développement de nouvelles molécules chimiques dont on ne maîtrise pas forcément très bien l’impact à long terme sur le milieu naturel voire la santé humaine…

L. V.

ITER : où en est-on ?

3 juin 2019

A Cadarache, situé dans le nord des Bouches-du-Rhône, près de la confluence du Verdon et de la Durance, à une quarantaine de kilomètres d’Aix-en-Provence, le Commissariat à l’énergie atomique (CEA) est chez lui depuis 1959. L’écrivain du cru, Jean Giono, s’était opposé en vain à cette installation qui avait pour objectif premier le développement du réacteur Rapsodie destiné à la propulsion des sous-marins nucléaires.

Le site du chantier d’ITER filmé par drone en février 2019 (photo © EJF Riche / ITER Organization)

Le 28 juin 2005, c’est pourtant bien loin de là, à Moscou, qu’à été prise la décision d’y construire le projet international ITER. Un acronyme qui signifie, comme chacun sait, International Thermonuclear Experimental Reactor, même si le nom évoque plutôt pour les latinistes le chemin, l’itinéraire vers le nouveau graal de la science moderne, rien de moins que le rêve prométhéen de reconstituer en laboratoire les forces cosmiques qui donnent l’énergie du soleil.

Contrairement à la fission nucléaire, à l’œuvre dans les réacteurs nucléaires classiques et qui consiste schématiquement à briser un atome lourd (l’uranium) pour dégager de l’énergie, la fusion nucléaire revient au contraire à fusionner, dans des conditions de pression et de température extrêmes comme celles qui règnent à la surface des étoiles, des atomes légers d’hydrogène pour créer de l’hélium. L’intérêt d’une telle démarche est multiple, d’une part parce que les quantités d’énergie produite peuvent être (en théorie) colossales, d’autre part du fait que la matière première est nettement plus abondante et surtout parce que le processus ne produit pas de déchet radioactif ingérable et ne présente pas de risque d’emballement incontrôlable : avec la fusion, la difficulté n’est pas d’arrêter les réactions en chaîne mais plutôt d’arriver à les amorcer…

Principe de fonctionnement d’une usine électrique à fusion par confinement magnétique (source © Ph. Magaud / CEA-IRFM)

L’idée de départ est russe et on doit les premières avancées en la matière au physicien Andreï Sakharov, inventeur de la bombe H, au travers de la construction d’une chambre de confinement magnétique de forme toroïdale, baptisée Tokamak et dont le premier modèle est entré en service en 1958. Dans les années 1970, le système a été développé un peu partout dans le monde, y compris en France à Fontenay-aux-Roses, puis à l’échelle européenne avec le Joint European Torus (JET) de Culham au Royaume-Uni, entré en service en 1983 et qui fut le premier à créer une fusion contrôlée à partir d’un mélange deutérium-tritium en 1991. Celui installé à Cadarache en 1988 (Tore Supra) est le premier à avoir été équipé d’aimants supraconducteurs permettant de créer de puissants champs magnétiques en continu, et il détient depuis 2003 le record de durée de fonctionnement (6 minutes et 30 secondes).

Vue de l’enceinte plasma du tokamak Tore Supra (photo © P. Stroppa / CEA)

Mais les difficultés à surmonter en vue de créer des conditions favorables à la fusion nucléaire pendant assez longtemps et de manière à produire plus d’énergie qu’on en consomme, sont telles que les scientifiques ont compris depuis des années que les nations avaient tout intérêt à coopérer entre elles plutôt que d’agir de manière concurrente. C’est tout l’intérêt du projet ITER, dont l’idée a été suggérée en 1983 par Mikhaïl Gorbatchev à François Mitterrand, et qui mobilise pas moins de 35 pays puisque se sont associés aux 28 de l’Union européenne, les États-Unis, la Russie, la Chine, l’Inde, la Corée du Sud, le Japon, et même la Suisse.

Si le site de Cadarache a finalement été retenu pour cette première phase du projet, c’est au Japon que devrait se produire l’étape suivante. L’objectif d’ITER est en effet de démontrer uniquement la faisabilité du processus en chauffant à 150 millions de degrés Celsius un plasma composé de deutérium et de tritium (deux isotopes de l’hydrogène), de quoi produire une énergie de 500 MW, soit dix fois plus que l’énergie théoriquement nécessaire pour chauffer le plasma à cette température. Si tout va bien, cette étape devrait être atteinte en 2025 et la pleine exploitation n’est prévue qu’en 2035. C’est alors qu’entrera en scène le versant japonais du projet, DEMO (pour Demonstration Power Plant), un réacteur qui devrait lui fonctionner en continu et alimenter directement le réseau électrique en produisant, d’ici 2048, une énergie de 2 GW, en attendant la prise de relai par des prototypes industriels qui préfigureront peut-être nos générateurs électriques de demain.

Bâtiment de conversion électrique (à gauche) destiné à alimenter les aimants du réacteur et (à droite) usine cryogénique avec les réservoirs de stockage d’hélium (photo © EJF Riche / ITER Organization)

D’ici là, l’assemblage du monstre ITER se poursuit sur le site de Cadarache. L’entreprise est gigantesque et l’on considère qu’il s’agit d’ailleurs du plus ambitieux projet scientifique du monde. Il consiste à assembler avec des moyens de levage monstrueux et avec une précision d’horlogerie des pièces qui ont été construites aux quatre coins du monde et qui sont acheminés par une route spécialement aménagée à cet effet depuis le port de Fos-sur-Mer. Bien entendu, le chantier a pris du retard et a déjà subi de nombreux aléas qui ont fait explosé la facture de 5 à probablement 19 milliards d’euros…

Lancé en 2010, le chantier, qui s’étend sur 42 ha, connaît actuellement un pic d’activité avec pas moins de 5000 personnes mobilisées, ouvriers, ingénieurs, scientifiques, administratifs… Le Tokamak lui-même pèse 400 000 tonnes. Monté sur patins anti-sismique et pourvu d’un bouclier en béton armé de 3 m d’épaisseur pour protéger contre les radiations, il mesure pas moins de 80 m de hauteur. Il est entouré par les tours de refroidissement, les pompes à vide, la salle de contrôle et un dispositif de maintenance robotisé permettant de monter et démonter à distance les éléments de la chambre de combustion. De nombreux ateliers ont été érigés sur le site même pour assembler les composants, dont les cryostats (fabriqués en Inde) ou pour réaliser le bobinage des aimants (dans un bâtiment de 257 m de long !). En mars de cette année ont ainsi eu lieu les premiers essais de fonctionnement du portique de sous-assemblage pour la chambre à vide et en juin sont attendues les premières livraisons des éléments du bouclier thermique fabriqué en Corée.

Vue aérienne du chantier d’ITER sur le site de Cadarache en novembre 2018 (source © ITER Organization)

Depuis le début des travaux, 4 km de galeries ont déjà été creusées uniquement pour faire passer les câblages destinés à l’alimentation électrique (équivalent à celle d’une ville de 12 000 habitants) et aux télécommunications. Des canalisations pour la gestion des eaux pluviales du site ont été installées sur 3,9 km et 36 km de canalisations pour l’acheminement des eaux industrielles et sanitaires sont en cours de déploiement. Plusieurs bâtiments dont celui qui abrite les bassins des tours aéroréfrigérantes ont déjà été livrés ou sont en cours d’achèvement. Vu de haut, le chantier fait figure d’une immense fourmilière en pleine activité.

Espérons désormais que cet ambitieux projet de coopération scientifique internationale comme on en a peu réalisé dans l’histoire de l’humanité et qui se déroule à nos portes tiendra ses promesses et contribuera à fournir l’énergie dont l’on aura besoin pour remplacer rapidement combustibles fossiles et centrales nucléaires d’un autre âge…

L. V.

Les punaises de lit, un nouveau fléau ?

30 septembre 2018

Une punaise de lit, Cimex lectularius

Très répandues en Europe avant la seconde guerre mondiale, les punaises de lit avaient fini par quasiment disparaître de notre paysage quotidien dans les années 1950, chassées par l’usage à grande échelle de puissants insecticides dont le fameux DDT qui a fait tant de ravages sur notre environnement. Mais elles ont fait un retour en force depuis les années 1990, grâce à leur capacité d’adaptation aux insecticides et surtout du fait de la multiplication des déplacements à travers le monde…

La manière la plus fréquente de voir son appartement infesté par ces insectes hématophages rampants, qui piquent les gens lorsqu’ils sont immobiles, généralement la nuit pendant leur sommeil, est en effet de les rapporter dans sa valise, bien cachés dans les replis de son linge. De jour, ces animaux sont très discrets et vivent cachés souvent dans les sommiers ou les matelas, les lattes de plancher, les fissures du mur et derrière les plinthes, à l’abri de la lumière et pas trop éloignés de leur proie. Ils sortent principalement la nuit et choisissent de piquer en priorité les personnes dont la peau est fine et dont le sang leur convient, ce qui explique que plusieurs personnes dormant dans le même lit ne seront pas touchées de la même manière…

Cimex lectularius, de son petit nom, est pourtant bien visible à l’œil nu. Le corps de l’adulte est ovale et aplati, de couleur brune, un peu comme un pépin de pomme de 4 à 5 mm de longueur. Mais on le voit rarement et on le repère plutôt à ses traces que sont les points noirs de ses déjections et les petites traces de sang séché laissées sur le matelas, ainsi bien sûr qu’aux boutons rouges et aux démangeaisons qu’il laisse sur la peau de ses victimes…

Pour autant, la punaise de lit n’est pas dangereuse et ne transmet pas de maladie connue à l’homme. Le seul désagrément qu’elle cause vient des démangeaisons provoquées par ses morsures car, comme la plupart des insectes suceurs de sang, elle injecte en piquant un peu de salive anticoagulante pour fluidifier le sang dont elle se nourrit, ce qui provoque chez la majorité des personnes des réactions urticantes, parfois plusieurs jours après la morsure. Rien de bien grave en réalité, mais de quoi pourrir la vie de ceux qui vivent dans un appartement infesté au point de souffrir de burn-out parce qu’ils appréhendent de s’endormir de crainte de nouvelles piqures nocturnes !

Mobilier infecté de punaises de lit dans les rues de la Belle de Mai (photo © Sarah Nedjar / Radio France)

Or, les invasions de punaises de lit deviennent de plus en plus fréquentes. A Toulon ou à Marseille, des quartiers entiers en sont envahis et on retrouve régulièrement sur les trottoirs les matelas usagers de ceux qui, ne sachant plus comment se débarrasser de ces insectes, finissent par jeter leur literie entière, ce qui contribue d’ailleurs à la propagation de ces animaux vers les immeubles voisins… Début 2018, la presse se faisait ainsi l’écho de l’exaspération des habitants de la Belle de Mai où de nombreux appartements sont envahis de ces insectes hématophages, tandis que France 3 relatait les déboires du service des urgences à l’hôpital de la Timone où cet été un tiers des chambres ont dû être momentanément fermées le temps de les désinfecter contre une invasion de punaises de lits. Même le cinéma Pathé Liberté à Toulon a dû fermer début septembre, selon France Bleu, par suite d’une invasion de punaises de lits confortablement installées dans les fauteuils de la salle !

C’est en effet une des caractéristiques de ces insectes qui recherchent avant tout la présence de l’homme et qui sont susceptibles de se développer partout, dans les hôtels 4 étoiles comme dans les taudis les plus insalubres, pourvu qu’ils y trouvent des humains à leur goût (qu’ils repèrent grâce à notre chaleur corporelle et nos émissions de CO2) et de quoi se nicher confortablement.

Cycle de vie de la punaise de lit

Pour peu que la pièce soit bien chauffée, la punaise de lit verra son cycle encore accéléré : il lui faut en effet 5 semaines en moyenne pour devenir adulte et commencer à pondre ses œufs (à raison de 3 à 8 par jour) à température ambiante de 20 °C. Mais à 30 °C, il lui suffirait de seulement 3 semaines pour atteindre un tel stade de développement ! Sachant que la durée de vie d’une punaise est généralement de 9 mois, ce sont en moyenne de l’ordre de 500 œufs qu’une femelle peut pondre au cours de son existence, de quoi entretenir largement une colonie bien installée au sein de votre matelas confortable, chaque adulte se contentant d’un repas par semaine en moyenne…

Face à un tel fléau et pour sauvegarder la qualité de leurs nuits, les hommes ont imaginé bien des stratagèmes pour se débarrasser des punaises de lits. A écouter les spécialistes tels que Pascal Delaunay, entomologiste médical et parasitologue au CHU de Nice, interviewé par Futura Sciences, ou certains professionnels de la désinsectisation qui diffusent un guide pour se débarrasser des punaises de lit, la tâche n’est pas aisée…

Piège naturel à punaises de lit, à base de poudre de diatomite

La priorité est d’abord de bien identifier les insectes à l’origine de nos maux et ensuite d’évaluer l’ampleur des dégâts par une inspection soignée des zones à risque. Des pièges mécaniques simples sous forme de scotch à double face collé sur les pieds du lit ou à base de diatomite peuvent être utiles pour une telle inspection. Des techniques de pièges plus élaborés ont aussi été développés par des chercheurs canadiens de l’université Simon Fraser, en Colombie-Britannique. Après 10 ans d’études et l’examen minutieux de plus de 10 000 punaises de lit consciencieusement nourries par une des membres de l’équipe, piquée environ 180 000 fois pour la bonne cause, ils ont identifié trois phéromones principales qui permettent d’attirer les punaises de lits (bedbugs en anglais) et ainsi d’évaluer l’importance de l’infection (mais sans détruire les œufs ni les adultes qui digèrent tranquillement leur dernier repas, bien à l’abri, pendant 10 jours et parfois bien davantage).

En cas d’invasion avérée, la lutte mécanique reste fortement conseillée pour éliminer le maximum du stock à coups d’aspirateur, de nettoyage à la vapeur, de lavage à plus de 60 °C, voire de congélation à -20 °C au minimum, tout en veillant à ce que ce grand nettoyage ne se traduise pas par une simple dispersion de la colonie et son implantation dans les autres pièces de la maison ou chez les voisins…

Au-delà, la désinfection par des sociétés spécialisées, à l’aide d’insecticides spécifiques qui ne sont pas en vente libre dans le commerce, est souvent une étape coûteuse mais indispensable. Deux passages à 15 jours d’intervalles sont d’ailleurs généralement nécessaires pour achever les larves écloses entre temps car les œufs sont globalement très résistants à tous ces traitements…

Emeline Lemarié, étudiante chercheuse au sein du projet Breaking Bugs à l’Université Aix-Marseille (photo © Jérémie Hessas / France 3 Provence-Alpes)

Une autre voie de traitement pourrait néanmoins émerger, fruit des recherches d’une équipe marseillaise composée de jeunes biologistes, bio-informaticiens et spécialistes en biologie génomique. Leur projet, baptisé du vocable typiquement provençal Breaking bugs (clin d’œil au titre d’une série américaine, bien entendu), consiste en un piège à base de phéromones qui attire les punaises et les met en contact avec un champignon pathogène, Beauveria Bassania, lequel pénètre à l’intérieur du corps de la punaise pour la faire lentement dépérir. La mort n’étant pas instantanée, la punaise infestée quitte librement le piège et infecte à son tour les autres membres de la colonie, de telle sorte que celle-ci finit par disparaître après plusieurs semaines.

Une approche ingénieuse donc, que les étudiants marseillais s’apprêtent à présenter en octobre prochain à Boston, dans le cadre de l’IGEM (International genetically engineered machine) dans l’espoir qu’elle leur vaudra, sinon une reconnaissance mondiale, du moins une audience suffisante pour assurer une large diffusion de leur invention. Les punaises de lit ont du souci à se faire…

L. V. 

Prochaine conférence du CPC : à la découverte d’univers lointains…

29 janvier 2018

Le conférencier, Jean-Gabriel Cuby (crédit photo © planetastronomy.com)

Après quelques mois d’interruption, le Cercle Progressiste Carnussien relance son cycle de conférences. La prochaine se déroulera jeudi 22 février 2018 à 18h30 et sera animée par Jean-Gabriel Cuby, astronome au Laboratoire d’astrophysique de Marseille. Elle vise à partager les avancées récentes en matière d’observation spatiale à l’aide des télescopes géants, des outils fabuleux de plus en plus performants, permettant d’améliorer sans cesse notre connaissance des univers lointains, très au-delà de notre système solaire.

Jean-Gabriel Cuby est astronome, ex-directeur du Laboratoire d’astrophysique de Marseille (LAM). Il a été, pour l’Observatoire européen austral (ESO) au Chili, le responsable de l’ensemble de l’instrumentation du « Very Large Telescope » (VLT).

Il est ainsi devenu le spécialiste français des télescopes de taille extrême, dénommés ELT pour « Extremely Large Telescope ». Il est désormais en charge de la coordination pour le CNRS – et plus précisément pour son Institut national des sciences de l’Univers (INSU) – des activités liées aux ELT en France. Il est également fortement impliqué sur les ELT au niveau européen, au travers de programmes de l’ESO ou des programmes cadres de recherche et développement de l’Union Européenne.

Vue d’artiste du futur European Extremely Large Telescope en projet dans le désert d’Atcama au Chili (crédit photo © L. Calçada / ESO)

La construction du plus grand télescope au monde a débuté dans le désert d’Atacama au Chili. Ce télescope européen aura un miroir principal de 39 mètres de diamètre, constitué de plus de 700 segments individuels. La construction et la mise en opération de ce miroir, ainsi que de nombreux autres éléments de l’instrument, soulèvent de nombreux défis technologiques. Cet œil géant européen permettra l’observation directe de planètes hors de notre système solaire jusqu’aux galaxies les plus distantes aux confins de l’Univers…

C’est à la fois l’histoire de l’observation de l’Univers et celle des recherches les plus récentes que Jean-Gabriel Cuby envisage de présenter au public lors de sa prochaine conférence à Carnoux-en-Provence le jeudi 22 février 2018, dans la salle du Clos Blancheton, rue Tony Garnier. Comme d’habitude, l’accès à cette conférence est libre et gratuit et les échanges avec le conférencier seront suivis d’un apéritif convivial.

M.M.

Des algues à la rescousse de la planète

21 octobre 2017

A Paris, la société Suez Environnement vient d’installer une nouvelle sorte de mobilier urbain qui rappelle furieusement les antiques colonnes Morris, lesquelles parsemaient les artères de la capitale au XIXème siècle pour afficher spectacles et informations diverses. Dressée sur la place d’Alésia dans le 14ème arrondissement, au centre d’un carrefour où transitent chaque jour en moyenne pas moins de 72 000 véhicules, cette colonne d »un nouveau style, est en réalité un puits de carbone expérimental, ainsi que l’ont rapporté notamment Le Monde et Les Echos.

Colonne Morris aquarium installée place d’Alésia (photo © Gilles Rolle / REA)

Le principe de fonctionnement est des plus simples. Comme chacun sait, les algues, ainsi que tous les végétaux pourvus de chloroplastes et aptes à la photosynthèse, absorbent en présence de lumière le gaz carbonique dont elles assimilent le carbone et rejettent l’oxygène.

La colonne Morris high tech de 4 m de hauteur installée en juillet 2017 place d’Alésia par Suez en accord avec la Mairie de Paris n’est ni plus ni moins qu’un vaste aquarium de 1 m³ qui contient des microalgues. Un système de ventilation leur permet de s’alimenter avec l’air ambiant chargé en gaz carbonique et en polluants divers dont le dixyde d’azote (NO2) rejeté en grande quantité par les pots d’échappement des véhicules et dont la quantité à cet endroit dépasse régulièrement le seuil réglementaire de 40 µg/m³, selon les données d’Airparif.

Principe de fonctionnement du puits de carbone (source © SUEZ)

Des diodes électroluminescentes fournissent aux algues l’éclairage suffisant pour optimiser les réactions de photosynthèse et l’oxygène ainsi produit est rejeté dans l’air ambiant grâce au système de ventilation : rien de plus simple, il suffisait d’y penser ! A force de se goinfrer ainsi de gaz carbonique, les microalgues vont naturellement croître et se multiplier. Quand il y en aura trop, un coup de chasse d’eau et la biomasse en excès filera via le réseau d’assainissement vers la station d’épuration où elle sera transformée en biogaz. Après traitement, le méthane ainsi récupéré sera ensuite réinjecté dans le réseau de gaz naturel. Un bel exemple d’économie recyclée où l’on est gagnant à chaque étape…

Prototype en cours de test à la station d’épuration de Colombes (source © SUEZ)

Le dispositif, mis au point avec la start-up Fermentalg, basée à Libourne en Gironde et spécialisée dans la production de microalgues destinées à la nutrition humaine et animale, a fait l’objet d’une présentation lors de la COP 21 en décembre 2015. En janvier 2017, un premier test en vraie grandeur a été effectué à l’usine de traitement des eaux usées du SIAAP (Syndicat interdépartemental de l’assainissement de l’agglomération parisienne) à Colombes où un puits de carbone a été mis en place, alimenté par les gaz à effet de serre rejetés par les fumées du four d’incinération des boues de l’usine. Le système a donné entière satisfaction et la durée de vie des algues s’est révélée bien plus longue que prévu grâce à cette source d’alimentation constante en CO2.

Devant le succès de l’opération, la question s’est posée de poursuivre l’expérimentation dans un site urbain où les taux de gaz carbonique varient davantage. Célia Blauel, adjointe en charge de l’environnement à la mairie de Paris, s’est ainsi laissée convaincre et la fameuse colonne Morris a donc été installée place d’Alésia. L’objectif est de fixer une tonne de CO2 par an, soit un effet comparable à une centaine d’arbres, tout en produisant une dizaine de kg de biométhane, un objectif jugé bien modeste par certains au vu du coût de l’investissement, qui n’a pas été communiqué mais qui semble assez élevé. Le système permettra aussi d’absorber une partie des polluants atmosphériques de type oxydes de soufre, mais c’est seulement à l’issue de cette phase expérimentale qu’on pourra déterminer dans quelle proportion.

Bref, le chemin semble encore bien long avant que de telles colonnes épuratoires ne se développent dans les rues de la capitale, mais l’idée est ingénieuse et vient rappeler à quel point les algues peuvent être des auxiliaires précieux de notre vie quotidienne. Les microalgues en particulier, qui sont très abondantes dans de nombreux milieux naturels et peuvent facilement être cultivées sans nécessiter pour cela de vastes surfaces agricoles, ont un potentiel de développement dix à trente fois supérieur aux plantes terrestres, puisqu’elles sont capables de doubler leur biomasse chaque jour dans des conditions optimales.

Réacteurs photo-biologiques pour la culture de micro-algues (source © WebTV de l’Université de Nantes)

Utilisées de longue date comme nutriment, cosmétique, colorant ou complément alimentaire, les microalgues pourraient bien contribuer demain à la production de biocarburants, pour l’instant issu surtout de la transformation de soja mais au prix de l’accaparement de vastes superficies de terres agricoles. Ainsi, des chercheurs chiliens sont parvenus récemment à produire du biodiesel à base de microalgues en essayant de réduire autant que possible la quantité d’énergie nécessaire pour la croissance de ces organismes unicellulaires, mais le procédé reste pour l’instant au stade de la recherche.

Bitume bio obtenu à partir de résidus de microalgues (source © WebTV de l’Université de Nantes)

En attendant, des chercheurs du CNRS et de l’université de Nantes associés avec la société AlgoSource Technologies basée à Saint-Nazaire, sont peut-être en train de mettre au point le bitume algaire de demain, ainsi que l’a rapporté Le Monde. Leurs travaux, issus du projet Algoroute, publiés en avril 2015 dans la revue ACS Sustainable Chemistry & Engineering et qui ont fait l’objet du dépôt d’un brevet, montrent en effet qu’il est possible, en laboratoire, d’obtenir à partir de résidus de microalgues placés dans un bain d’eau chauffée sous pression, une substance visqueuse hydrophobe, qui présente des caractéristiques similaires à celles du bitume pétrolier : même couleur noire, même viscoélasticité qui assure la cohésion des granulats entrant dans la composition des revêtements routiers, et propriétés rhéologiques comparables conférant au matériau résistance et flexibilité sous l’application de charges roulantes.

Voilà en tout cas qui laisse entrevoir, pour un avenir peut-être proche, des possibilités intéressantes de substitution de certains produits dérivés de l’exploitation pétrolière. A défaut de se passer de routes et de voitures, ce sont peut-être les cultures d’algues qui permettront un jour de trouver enfin un équilibre durable entre développement économique et pérennité de notre environnement naturel…

L.V.  

Marseille : les chercheurs à la plage…

18 juillet 2017

C’est l’été et tout le monde se retrouve à la plage. Même les chercheurs du CNRS qui, comme l’a révélé La Provence, profitent de la saison touristique pour venir enquêter au milieu des parasols et des serviettes de plage !

Plage de la Pointe-Rouge

Du 10 au 17 juillet, c’est une dizaine de scientifiques du CNRS, issus des laboratoires de recherche ESPACE (pour « Etude des structures, des processus d’adaptation et des changements de l’espace », ça ne s’invente pas !), Hydroscience Montpellier et le CEREGE basé à Aix-en-Provence qui ont ainsi passé leurs journées à sillonner les plages marseillaises de pointe-Rouge, du Prophète et de La Lave.

Cette opération se déroule dans le cadre des travaux de l’Observatoire Hommes-Milieux « littoral méditerranéen », un dispositif de recherche pluridisciplinaire qui vise à étudier l’effet de l’urbanisation et de l’anthropisation côtière en Méditerranée. Vaste programme qui exige donc de la part de ces scientifiques de sacrifier leurs plus belles journées de juillet pour aller se promener sur la plage, enduits de crème solaire, sur des terrains d’enquête particulièrement hostiles puisque l’étude concerne, outre le littoral marseillais, le Golfe d’Aigues-Morte et les rivages corses de Balagne et du Sud de Bastia.

L’objectif d’une telle plongée en immersion au milieu des baigneurs ? Mieux caractériser la fréquentation, les pratiques et les usages sur ces plages très fréquentées du littoral méditerranéen et en évaluer l’impact sur la qualité des eaux de baignade.

La plage du Prophète sous la Corniche

Pour cela, il s’agit d’abord de connaitre à tout moment de la journée le nombre de personnes présentes sur la plage, ce qui suppose de compter en permanence les arrivées et les départs : pas question donc de se laisser distraire par une petite sieste à l’ombre du parasol tout en lorgnant les jolies baigneuses. Pour être sûr de leurs chiffres, les chercheurs procèdent en parallèle et toutes les heures à des prises de vue de la plage depuis un point haut, de quoi occuper des armadas de stagiaires qui seront ensuite chargés de décompter les personnes présentes sur la plage et d’ajuster les observations de terrain.

En même temps, des prélèvements d’eau de mer sont effectués, toutes les heures également, pour être analysés afin de mesurer la densité de bactéries de type entérocoques, mais aussi d’évaluer la quantité de résidus de crème solaire qui agrémentent l’eau de baignade. Contre toute attente, les premiers résultats de ces analyses indiquent d’ailleurs que plus la fréquentation de la plage augmente, plus la qualité de l’eau de baignade se détériore ! Un résultat qui ne fait bien entendu que confirmer ce que chacun présentait, mais ce qui va sans dire va parfois mieux en le disant…

Et les chercheurs ne s’arrêtent pas là puisqu’ils prennent aussi le temps d’aller à l’encontre des vacanciers, questionnaires en main, pour mieux connaitre leurs us et coutumes. Une enquête sociologique très poussée qui a d’ores et déjà permis de mettre en évidence un fait troublant : à la plage, on se méfie des toilettes publiques pourtant présentes et plutôt bien entretenues de l’avis de nos anthropologues baroudeurs. Chacun préfère aller faire ses besoins dans la mer, ni vu ni connu. Un procédé qui n’est peut-être pas totalement étranger à la corrélation qui semble exister entre la densité de baigneurs et celle des bactéries dans l’eau de mer…

Qualité des eaux de baignade sur la plage du Prophète (source : site Eaux de baignade)

Mais bien entendu, comme dans tout protocole de recherche scientifique, il faut se méfier des conclusions hâtives et ne surtout pas se hasarder à vouloir anticiper sur les résultats de ce vaste programme d’études tant que toutes les analyses n’ont pas été recoupées avec toute la rigueur nécessaire. Il faudra sans doute patienter encore un peu pour que soient enfin disponibles les résultats de ces recherches passionnantes qui feront sans doute l’objet de publications scientifiques de premier plan, voire d’un colloque international, pourquoi pas sur une plage de Balagne ?

Ceci dit, et sans vouloir présager des conclusions de cette étude, il est à craindre qu’elle n’ait été entachée d’un petit biais expérimental. Le même journal de La Provence nous apprenait en effet que le jeudi 13 juillet, alors que la campagne d’observation scientifique battait son plein, trois plages marseillaises dont celle de Pointe-Rouge qui faisait l’objet de toutes les attentions des équipes de chercheurs, avaient dû être fermées au public toute la matinée du fait de la mauvaise qualité des eaux de baignade, tandis que les deux plages du Prado nord et sud étaient quant à elles toujours fermées en attendant les résultats de nouveaux test.

Plage de l’Huveaune à la fin des années 1960 (photo Jean Pagano / La Provence)

Ces mêmes plages du Prado dont on fête actuellement les 40 ans puisqu’elles ont été ouvertes au public le 18 juillet 1977, après qu’on eut déversé à l’embouchure de l’Huveaune des millions de m3 de déblais issus des travaux de creusement du métro, de quoi gagner 20 hectares supplémentaires sur la mer et permettre d’augmenter ainsi considérablement la quantité de baigneurs qui peuvent venir s’y prélasser : une fréquentation estimée à 3,5 millions de personnes chaque année. On comprend, sans forcément se livrer à des enquêtes sociologiques approfondies, qu’avec une telle pression humaine la qualité de l’eau du littoral puisse en être quelque peu altérée…

L.V. 

Du gazon aux mégots : tout se recycle !

16 janvier 2016

Blog267_LogoRecyclageNotre société de consommation croule sous les déchets dont nous ne savons plus que faire tandis que les ressources naturelles s’appauvrissent, épuisées en quelques décennies de surconsommation effrénée et déraisonnable. La solution est bien connue : il faut recycler… Redonner une nouvelle vie à nos déchets en les utilisant comme matière première pour la fabrication de nouveaux objets. Le métier de chiffonnier, qui fait le tour des maisons pour récupérer vieux vêtements et objets inutilisés, n’a pas attendu la mode du développement durable pour se créer, de même que celui de ferrailleur !

Blog267_PhBouteilles

Le préfet Eugène René Poubelle

Le préfet Eugène René Poubelle

N’oublions pas que le fameux arrêté signé le 24 novembre 1883 par un certain Eugène Poubelle, préfet de la Seine, qui oblige les propriétaires parisiens à fournir à chacun de leurs locataires un récipient muni d’un couvercle, destiné à la collecte des déchets, avait déjà imaginé le tri sélectif en rendant obligatoire trois containers, un pour les matières putrescibles, un pour les papiers et les chiffons et un troisième pour le verre, la faïence et les coquilles d’huîtres. Il a fallu près d’un siècle (et même un peu davantage à Carnoux…) pour que cette règle finisse pas s’appliquer, mais en tout cas le recyclage des déchets n’a rien d’une idée neuve !

Blog267_PhTri

En France, c’est à partir de 1992 que sont réellement mises en place les filières de recyclage des déchets ménagers et qu’est constituée la société Eco-emballage pour impliquer les producteurs dans le recyclage du verre, de l’acier, de l’aluminium et du plastique. Chaque Français produit actuellement 500 kg de déchets par an, dont 150 kg seulement sont valorisés grâce au recyclage. Papiers et cartons sont réutilisés pour la fabrication de nouvelle matière à l’identique, de même que le verre ou les métaux qui peuvent être facilement fondus pour être réutilisés. L’aluminium présent dans nos emballages alimentaires ou dans les pièces automobiles est réemployé pour fabriquer de nouvelles canettes tandis que nos bouteilles d’eau en polyéthylène fournissent le plastique nécessaire pour la réalisation de nouvelles bouteilles, de textiles, de moquettes, voire de cartes à pucesUne étude de l’ADEME en 2010 précise ainsi que 90 % des emballages fabriqués en France le sont désormais à partir de papiers et cartons recyclés tandis que ce taux atteint 60 % pour le verre d’emballage fabriqué à partir de calcin issu du verre recyclé.

La bonne nouvelle est que de nouvelles filières de recyclage voient le jour régulièrement et permettent d’étendre sans cesse les possibilités de récupération de nos montagnes de déchets. Les gravats issus des chantiers de démolition sont de plus en plus fréquemment réemployés après broyage et criblage, soit en remblai routier soit pour la production de granulats à béton. Le bois provenant de produits d’emballage, de construction ou d’ameublement est également valorisé pour la fabrication de panneaux ou de plots pour palettes neuves.

Blog267_PhGazon

Une entreprise Reval’Green vient de créer la première plateforme française permettant de recycler la pelouse artificielle qui recouvre désormais de plus en plus de stades et qui doit être renouvelée tous les 10 à 12 ans. Le gazon usagé y est broyé pour en séparer les différents composants. Sables et granulats élastomères sont réemployés en revêtement routier ou pour faire un nouveau gazon synthétique, tandis que les polymères qui forment la fibre et une partie du substrat sont valorisés comme combustible solide de récupération dans des installations industrielles.

Les matériaux composites à base de fibres de carbone sont en passe de connaître à leur tout une nouvelle vie avec le développement récent de procédés à base de solvolyse qui permet de libérer les fibres de carbone sans altérer leurs qualités. Un tel processus intéresse notamment l’industrie aéronautique dont Airbus qui espère valoriser ainsi les chutes de ses usines d’assemblage, mais permettra aussi de récupérer les composites des avions en fin de vie.Blog267_PhBeton

De même, les pales d’éoliennes, les coques de bateau de plaisance ou les cabines de douche, à base de polyester et de fibre de verre, représentent un immense gisement de matériaux jusqu’à présent non valorisable. Une société nantaise vient de développer un procédé permettant d’en tirer un béton de plastique qui présente des propriétés remarquables de légèreté, d’isolation thermique et de résistance au choc, de quoi mettre au point la production de toute une gamme de produits allant de la dalle de jardin à l’appui de fenêtre…

Blog267_PhCyClopeCitons aussi la nouvelle société Cy-Clope, créée par deux jeunes Lyonnais en vue de développer une filière de recyclage de mégots… Sachant que, malgré sa taille minuscule, un simple mégot de cigarette peut polluer à lui seul 500 litres d’eau et mettra 12 ans à se dégrader, l’enjeu environnemental est de taille et l’initiative mérite d’être saluée ! Dans ce domaine cependant, la difficulté principale réside dans la collecte. Pour cela, la société a créé le « cyclopeur », un container mis à disposition des entreprises et des administrations qui permet de recueillir jusqu’à 10 000 mégots, lesquels sont ensuite transférés dans une usine basée en Lozère où ils sont recyclés : cendres, tabac et papier sont transformés en compost tandis que la fibre, en acétate de cellulose, est valorisée dans la fabrication de plaques d’isolation en plastique ou de palettes industrielles.

L’intuition du chimiste Antoine de Lavoisier, guillotiné sous la Révolution en 1794, est plus que jamais confirmée : « rien ne se perd, rien ne se crée, tout se transforme »…

L.V.  

Recherche universitaire : vers la désexcellence ?

7 février 2015

Blog153_PhExcellence« Au royaume des slogans de l’époque, voici la nouvelle tromperie : il faut être excellent. Pour réussir dans tous les secteurs de la vie, pour briller en société, un seul objectif : devenir le meilleur. On est en pleine héroïsation de l’individu. De tous ? Mais parvenir au rang de « héros » en reconnaissance de services rendus est forcément réservé à quelques uns : les gagnants, les astucieux, les débrouillards. Ce principe fallacieux s’applique déjà à la recherche, l’enseignement, l’administration et aux services publics. Sous quelles formes ? Avec quels bénéfices ? Que signifie pour la dignité humaine de ne pas être excellent ? Et tous les secteurs de notre vie sont potentiellement visés par la charge déshumanisante de la course effrénée à la performance. »

Décrire et dénoncer les risques de l’« excellence » qui « exprime le dépassement de soi et des autres, l’accroissement continu des performances, la réussite dans un monde où seuls les plus forts seraient appelés à survivre », tel est l’ambition de cette charte de la désexcellence que viennent de publier une série d’enseignants-chercheurs de l’université libre de Bruxelles (CharteDesexcellence).

L'Université libre de Bruxelles, haut-lieu de l'Excellence ?

L’Université libre de Bruxelles, haut-lieu de l’Excellence ?

L’initiative est intéressante qui met en garde contre les excès de ce mantra incantatoire mis en avant par la pensée néolibérale et les pratiques managériales depuis les années 1980 : la recherche à tout prix de l’excellence a certes des vertus en matière d’émulation et d’amélioration de la productivité, mais ses effets pervers ne doivent pas être non plus sous-estimés, liées à l’hyper-compétition, à la dévalorisation de certains savoirs, au primat de l’évaluation selon des critères strictement économiques et au triomphe de la communication et du faire savoir sur le savoir-être et le savoir-faire.

Blog153_PhRechercheLongtemps abrité de cette épidémie qui a d’abord contaminé le monde de l’entreprise, le milieu universitaire de l’enseignement supérieur et de la recherche se retrouve confronté à cette nouvelle doxa, dans la foulée des accords de Bologne, qui ont consacré la mise en compétition des universités européennes. Du coup les impératifs de recherche et de formation tendent à devenir secondaires face à d’autres préoccupations qui consistent à «  soigner son image de marque, transformer son institution en machine de guerre capable d’absorber les meilleurs crédits, les meilleurs enseignants-chercheurs, le plus grand nombre d’étudiants, et renforcer son positionnement sur les scènes nationales et internationales ».

Blog153_DessinChercheurC’est ce que dénoncent avec beaucoup de conviction ces enseignants-chercheurs qui constatent que ces « indicateurs d’excellence » qui se sont multipliés masquent en réalité une baisse de la qualité du travail universitaire, qui se traduit par un « formatage des champs et des objets de recherche, la multiplication des résultats invalides et des fraudes, un manque de recul et d’esprit critique, la construction d’une relation marchande à l’apprentissage, la substitution des savoirs instrumentaux aux connaissances et à la réflexion, etc ».

Cette réflexion les amène à appeler, non sans ironie, à la « désexcellence » ! Il s’agit ni plus ni moins que de s’opposer « au dévoiement actuel des universités » en invitant à se préoccuper de la qualité effective du travail comme le ferait un artisan soucieux de donner un sens à ce qu’il conçoit ou fabrique. Cette démarche met aussi en avant un recentrage sur des valeurs telles que le partage, le désintéressement, l’honnêteté intellectuelle, la solidarité, des notions qui paraissent souvent bien éloigné du monde actuel de la recherche universitaire où chacun piétine allégrement son voisin et la déontologie pour essayer d’émerger dans ce qui ressemble de plus en plus à une jungle où tous les coups semblent permis.Blog153_DessinShadock

Les auteurs de la charte en ont d’ailleurs tellement conscience qu’ils conseillent un usage très prudent de leur propre manifeste pour tendre vers « une université de service public, démocratique et accessible » : seuls les professionnels disposant d’une réelle marge de manœuvre sont invités à s’emparer de cette charte, ce qui en dit long sur la précarité d’une grande partie des chercheurs actuels !

S.J.

Relaxe d’Emmanuel Giboulot : matière à réflexion…

8 décembre 2014

Emmanuel Giboulot, c’est ce viticulteur bourguignon, qui avait été condamné en avril 2014 à une amende pour avoir refusé en 2013 de traiter ses 10 hectares de vignes contre la flavescence dorée et qui vient finalement d’être relaxé par la Cour d’appel de Dijon, jeudi 4 décembre 2014.

Emmanuel Giboulot (photo AFP / Jeff Pachoud)

Emmanuel Giboulot (photo AFP / Jeff Pachoud)

Son cas a été très largement médiatisé puisque même le New York Times l’a évoqué dans un éditorial et que le quotidien Le Monde lui a consacré plusieurs articles en avril et en décembre 2014. Une pétition lancée par l’Institut pour la protection de la santé naturelle, association basée à Bruxelles, et très largement relayée par de nombreux acteurs, a rassemblé plus de 540 000 signatures, tandis qu’une page Facebook dédiée recueillait près de 130 000 « likes ».

« C’est une victoire de la mobilisation citoyenne, c’est être lanceur d’alerte », a ainsi déclaré, devant son comité de soutien, le viticulteur à l’issue du prononcé de l’arrêt de la cour. « Il y a une prise de conscience de plus en plus importante quant à l’importance de réduire l’usage des pesticides, qui me donne des espoirs pour l’avenir de l’agriculture », ajoute-t-il, interrogé par Le Monde. Bref, cet arrêt de justice a été salué par la quasi totalité des défenseurs de l’environnement comme une victoire symbolique du pot de terre porté par un adepte de l’agriculture biologique, contre le pot de fer que représenterait le rouleau compresseur de l’industrie agrochimique aidée par les oukases des fonctionnaires bornés des services préfectoraux. Une bataille exemplaire donc mais qui mérite peut-être d’en décortiquer un peu plus en détail les tenants et les aboutissants car tout n’est peut-être pas aussi simple qu’on ne le souhaiterait…

Cicadelle de la vigne

Cicadelle de la vigne

L’affaire remonte à juin 2013, lorsqu’est pris un arrêté préfectoral imposant à tous les viticulteurs de Côte d’Or de traiter leurs vignes contre la flavescence dorée, à titre préventif et alors que les foyers de cette maladie ne sont pas avérés localement. Il faut dire que cette maladie, apparue en France en 1949 et causée par un champignon de type phytoplasme, est mortelle pour la vigne : lorsqu’un plant de vigne est atteint, tout le vignoble situé dans un rayon de 1 km est directement menacé car la maladie se répand par l’intermédiaire d’un insecte vecteur, la cicadelle (Scaphoideus titanus), importée d’Amérique du Nord.

Depuis 1987, deux arrêtés ministériels ont été pris pour organiser à l’échelle nationale la lutte contre cette maladie que certains comparent au phylloxera qui a détruit une large partie du vignoble français entre 1860 et 1900. Répandue surtout dans le sud-est de la France, cette maladie se propage désormais sur tout le territoire, y compris en Bourgogne où des parcelles ont dû être arrachées en Saône-et-Loire en 2011 et 2012, ce qui explique la vigilance des services techniques de l’État rattachés désormais à la Direction régionale de l’alimentation, de l’agriculture et de la forêt (DRAAF) et qui craignent alors une propagation vers la Côte d’Or voisine.

Vigne atteinte de flavescence doréee

Vigne atteinte de flavescence doréee

En 2013, lorsqu’est pris un arrêté imposant le traitement des vignes de Côte d’Or, Emmanuel Giboulot refuse d’obtempérer, jugeant le risque insuffisamment caractérisé. Ses arguments ne manquent pas de bon sens car les traitements connus ne sont pas anodins. En agriculture biologique, le seul traitement autorisé est le Pyrevert, à base de pyrèthre, un insecticide efficace contre la cicadelle mais à large spectre et qui détruit bien d’autres insectes auxiliaires, remettant complètement en cause l’équilibre de l’écosystème auquel veille ce vigneron qui conduit son exploitation en biodynamie. Paradoxalement, le traitement conventionnel disponible est nettement plus ciblé, mais de fait interdit en agriculture biologique…

Ce refus d’obtempérer est jugement suffisamment grave par les services de l’État – d’autant que quelques ceps contaminés ont bien été observés dans le département en octobre 2013 – pour que le vigneron récalcitrant soit assigné en justice. Risquant 30 000 € d’amende et 6 mois d’emprisonnement, M. Giboulot est finalement condamné le 7 avril 2014 par le Tribunal correctionnel de Dijon à une amende de 1 000 € dont la moitié avec sursis. Une peine totalement symbolique donc puisque son montant est très inférieur à celui du traitement qu’il a ainsi économisé (ce que ne manquent d’ailleurs pas de relever ses détracteurs, soulignant que l’affaire a été un formidable coup de publicité pour ce personnage très médiatique!).

La relaxe prononcée par la Cour d’appel n’aura toutefois pas valeur de jurisprudence car la loi a évolué depuis, ce qui confirme a posteriori que la démarche des services de l’État manquait en effet sans doute de discernement. De fait, les arrêtés pris en 2014 pour rendre le traitement obligatoire ont été nettement plus ciblés, portant uniquement sur les communes réellement menacées, ce qui aurait permis de diminuer d’un tiers la quantité d’insecticide épandu.

Dominique Técher, "vigneron-paysan" à Pomerol (photo Jean-Pierre Stahl)

Dominique Técher, « vigneron-paysan » à Pomerol (photo Jean-Pierre Stahl)

Au delà de cette évolution plutôt positive, M. Giboulot plaide pour un accroissement des recherches en vue de mettre au point des traitements alternatifs. Les essais qu’il propose, à base de silice ou de kaolinite qui perturbent quelque peu le développement des larves de cicadelles, ne paraissent néanmoins guère convaincantes à ce stade. En revanche, d’autres voies mériteraient d’être explorées si l’on en croit une source relayée par Le Monde qui cite les réflexions de Dominique Técher, un vigneron de Pomerol dans le Bordelais et ancien membre de la commission départementale de lutte contre la flavescence dorée, qui préconise plutôt d’agir à la source, considérant qu’il est illusoire d’espérer éradiquer la cicadelle à coup d’insecticide. Il considère qu’il faudrait plutôt faire porter les efforts sur les plants de vigne eux-même en s’assurant de ne planter aucun cep contaminé, ce qui nécessiterait une meilleure traçabilité des pépiniéristes et la généralisation des pratiques de chauffe à 50 °C avant de planter, même si cela se traduit par des surcoûts. « Mais ça vaut mieux que d’arroser tout un département de pesticides ! » conclue t-il…

Comme quoi le débat lancé par cette affaire de la flavescence dorée mérite en effet réflexion… On comprend bien que le débat qui agite les viticulteurs confrontés à ce type de fléau ne se résume pas à un simple choix idéologique et économique quant aux méthodes à employer et qu’il est important qu’ils puissent trouver à leurs côté des chercheurs éclairés et des services techniques ouverts, et pas seulement des marchands de produits insecticides dont l’unique objectif est d’augmenter leur chiffre d’affaire. Il est temps d’admettre que l’agriculture concerne chacun d’entre nous et mérite des investissements publics adaptés !

L. V. LutinVertPetit