lundi 4 décembre 2023

Le Japon et l'Europe réussissent un pas crucial vers le Graal de la fusion nucléaire

 Le plus grand réacteur expérimental à fusion nucléaire du monde a été inauguré, ce vendredi, au nord de Tokyo. Les chercheurs progressent vers la création d'une électricité décarbonée, générée en recréant la réaction physique qui fait briller et chauffer les étoiles.

Dans une machine haute de cinq étages, sorte de sphère autour d'un tore géant, les chercheurs japonais et européens viennent de réussir à générer, pour la première fois et pendant dix secondes le plasma - un nuage de gaz ionisé - nécessaire à la production, dans le futur, d'une énergie par fusion nucléaire. A une température de plus de 15 millions de degrés Celsius.

« Ce qui se passe ici aujourd'hui va avoir demain un impact sur la création de l'énergie de fusion pour l'humanité », s'est enthousiasmé Marc Lachaise, le directeur de « Fusion For Energy », venu assister, ce vendredi, à l'Institut national japonais pour la science et la technologie quantiques (QST) d'Ibaraki, à l'inauguration de ce grand réacteur expérimental baptisé « JT-60SA ».

En collaboration avec Iter

Si plusieurs nations ont déjà réussi à créer du plasma , aucune n'avait encore réussi à en produire dans d'aussi grandes quantités. « Nous avons réussi à générer un volume record de 160 mètres cubes, insiste Satoru Higashijima, l'un des cadres du QST. C'est un record et nous allons aller encore plus loin ».

La génération de ce plasma doit permettre d'affiner les technologies utilisées dans Iter, le réacteur de fusion expérimental , deux fois plus grand, en cours de construction à Cadarache, en France, dans le cadre d'un projet de coopération internationale regroupant l'Union européenne et le Japon mais également la Chine, la Corée du Sud ou encore les Etats-Unis. 

« Le JT-60SA n'a pas vocation à produire de l'énergie mais à produire du plasma et à apprendre à le contrôler », insiste Sam Davis, l'un des chefs du projet, détaché sur place par l'organisation européenne Fusion for Energy.

« Les connaissances que nous accumulons ici vont servir au développement d'Iter puis de son successeur Demo », détaille le chercheur. La machine Demo utilisera, à l'horizon 2050, la chaleur phénoménale que permet la fusion pour produire de la vapeur puis de l'électricité, grâce à des turbines et à des alternateurs classiques.

« Le Graal »

Tous ces développements doivent permettre d'enfin maîtriser la fusion nucléaire, ce graal de la transition énergétique promettant une électricité décarbonée, très abondante, sans matière fissile et peu génératrice de déchets nucléaires.

Au QST, les scientifiques planchent sur cette technologie depuis des décennies avec l'espoir d'arriver à recréer artificiellement la réaction physique qui se déroule au coeur du soleil.

Alors que les réacteurs actuels produisent de l'énergie par fission nucléaire - en cassant des noyaux d'atomes lourds -, la fusion nucléaire vise, elle, à récupérer la gigantesque énergie dégagée lorsque des noyaux légers se percutent à très grande vitesse et fusionnent, dans un phénomène similaire à celui qui crée la lumière et la chaleur des étoiles.

De nombreux obstacles

Pour obtenir cette réaction de fusion, les chercheurs du JT-60SA font « chauffer » au sein de leur machine géante, baptisée un « tokamak », de l'hydrogène et du deutérium (un isotope stable de l'hydrogène) pour créer un plasma qu'il confine et stabilise en lui imposant des champs magnétiques extrêmement puissants.

Ces champs sont générés par une vingtaine de bobines supraconductrices géantes, dont la moitié ont été produites à Belfort par GE Power, sous la responsabilité du CEA. Au sein d'Iter, le plasma sera, pour plus d'efficacité, composé de deutérium et de tritium, un isotope plus coûteux, plus radioactif et quasi inexistant dans la nature .

Si la performance du QST est célébrée par l'industrie comme un progrès historique, il ne marque qu'une étape sur le chemin délicat de la fusion nucléaire et arrive très en retard sur les plans initiaux des scientifiques.

Immense défi

Le JT-60SA aurait dû, théoriquement, être mis en service en 2016. Mais il a accumulé des problèmes de conception, d'approvisionnement en combustible avant d'être retardé par le grand séisme de 2011 sur la côte nord-est du Japon, dont il est proche. Suite à des essais en 2021, les équipes ont aussi dû revoir la sécurité de l'alimentation des bobines magnétiques supraconductrices.

Tous les autres grands projets de réacteurs à fusion actuellement développés dans le monde, soit par des agences gouvernementales, soit par des entreprises privées, se heurtent à des obstacles techniques similaires. Prévu à l'origine pour 2025, le premier plasma du réacteur Iter ne devrait ainsi pas être généré avant le début des années 2030.

mardi 18 juillet 2023

Restera-t-il assez d'eau pour refroidir les centrales nucléaires dans un pays qui connaîtra de plus en plus de sécheresses ?

De Monsieur JANCOVICI

Restera-t-il assez d'eau pour refroidir les centrales nucléaires dans un pays qui connaîtra de plus en plus de sécheresses ? Cette question m'ayant été posée "un certain nombre de fois", comme aurait dit Fernand Raynaud, voici une étude de la Société Française d'Energie Nucléaire (https://t.ly/iUQ_ ) sur la question.


Commençons par rappeler quelques ordres de grandeur :

- notre pays reçoit chaque année 200 milliards de m3 (Mds m3) d'eau douce renouvelable (https://t.ly/-luO )

- les activités humaines en prélèvent environ 30, mais seulement 4 ne sont pas retournées au milieu. L'agriculture représente 60% de ces 4

- le nucléaire en prélève 13, mais seuls 0,4 ne sont pas retournés au milieu

- le débit du Rhône est d'environ 1000 m3/s (https://t.ly/DLfy )

- pour la Loire c'est environ le tiers.

Là-dessus il faut rajouter en ce qui concerne les centrales :

- celles en bord de mer, et 3 en bord de Rhône, prélèvent l'eau pour refroidir l'installation et rejettent ensuite la totalité de l'eau un peu réchauffée (de quelques degrés) dans la mer ou le fleuve. On les appelle "en circuit ouvert". Elles demandent environ 50 m3/s d'eau par réacteur (de 2 à 5 par centrale) fonctionnant à pleine puissance. La température maximale de rejet est réglementée pour des raisons de préservation des écosystèmes, et c'est l'impossibilité de franchir cette valeur (et non l'absence d'eau) qui a été le premier facteur limitant des étés passés. Pour la mer il n'y a pas de problème de disponibilité de l'eau, et pour le Rhône il faudrait que le débit tombe sous les 200 m3/s pour que cela empêche "physiquement" de faire fonctionner les réacteurs à pleine puissance (sachant que l'été on utilise environ 2 fois moins d'électricité que l'hiver, et que c'est aussi le moment des arrêts pour maintenance).

- les autres centrales en bord de fleuve disposent de tours de refroidissement : elles prélèvent environ 2 m3/s par réacteur à pleine puissance, et en évaporent environ 0,7 - la vapeur au-dessus des tours - pour refroidir l'installation. Là aussi il faut que le débit du fleuve baisse d'un facteur 10 pour que ce soit l'absence d'eau qui limite la production.

Admettons que cela arrive (ce qui ne peut pas se produire en bord de mer) : que se passe-t-il ? A ce moment on baisse la production pour limiter l'eau prélevée, et au pire on l'arrête.

Dans ce dernier cas, la puissance thermique du réacteur est divisée par 200 après un jour et 1000 après un mois (https://t.ly/0yBFZ ). Il faut donc 200 à 1000 fois moins d'eau pour le refroidir (et éviter l'accident), soit 200 à 40 litres/s par réacteur sur le Rhône (1000 à 200 robinets domestiques ouverts) et 10 à 2 ailleurs (50 à 10 robinets ouverts).

Même en cas de baisse des précipitations en France ces volumes resteront disponibles (sinon le pays devient semi-désertique et c'est une autre histoire !). Le risque est donc, à ce jour, celui d'une baisse de la production (comme pour l'hydro), mais pas un problème majeur de sûreté (ouf).

jeudi 1 juin 2023

Les courants océaniques profonds ralentissent plus vite que prévu

 Le ralentissement des courants océaniques profonds, causé par la fonte des glaces de l’Antarctique, est plus rapide que prévu. Voici le résultat d’une étude dévoilée le 25 mai dans la revue Nature. Jusqu’alors, les scientifiques estimaient que cette circulation ne ralentirait de 40 % que d’ici à 2050. Or, les derniers résultats, basés sur des mesures de terrain dans le bassin antarctique australien, couplées à un volet de modélisation informatique, sont plus alarmants que prévu : le processus a en fait déjà ralenti de 30 % entre les années 1990 et 2010.

Les océans sont un régulateur crucial du climat absorbant de larges quantités du carbone. L’océan profond de l’Antarctique agit, lui, comme une « pompe » des courants océaniques : c’est-à-dire qu’il capte la chaleur et le dioxyde de carbone, qui sont ensuite entraînés vers les abysses. Ainsi, les implications de ce ralentissement sont multiples. En ralentissant, moins de dioxyde de carbone et de chaleur sont « pompés ». Ce qui a pour effet d’accélérer le réchauffement climatique.

L’étude montre aussi que les taux d’oxygène atteignant l’océan profond a diminué, ce qui pourrait pousser les animaux des profondeurs à se réfugier dans d’autres régions ou à adapter leur comportement.

 Pour en savoir plus 

jeudi 4 mai 2023

Bonus : record de banquiers millionnaires dans les banques françaises

 BNP Paribas, Société Générale, Crédit Agricole et Natixis ont rémunéré 582 financiers plus d'un million d'euros l'année dernière. Du jamais vu en neuf ans, même si elles restent loin de certaines banques étrangères.

Les banques françaises cèdent aux sirènes anglo-saxonnes sur les bonus. A elles trois et pour la deuxième année consécutive , BNP Paribas, Société Générale et Crédit Agricole ont rémunéré un nombre record de banquiers plus de un million d'euros l'an dernier, selon leurs rapports sur les rémunérations de leurs salariés les mieux payés.

Avec Natixis, elles comptent 582 financiers millionnaires, du jamais vu depuis 2014 et l'entrée en vigueur du plafond sur les rémunérations variables visant à limiter les prises de risques excessives. Ce sont quelque 119 banquiers de plus en douze mois qui franchissent le seuil du million, et pas moins de 282 supplémentaires en deux ans.

Les nouveaux millions dépensés ne viennent pas seulement bénéficier aux cadres de New York ou Singapour, des places financières très disputées. Brexit oblige, les banques tricolores sont aussi attaquées sur leur propre terrain de jeu à Paris et en Europe par les grandes banques américaines , de JP Morgan à Bank of America .


jeudi 6 avril 2023

L’eau potable en France contaminée à vaste échelle par les métabolites du chlorothalonil, un pesticide interdit depuis 2019

 C’est une catastrophe comme les producteurs d’eau potable n’en ont sans doute jamais connue, dont la facture pourrait se chiffrer en milliards d’euros et dont une part importante risque de demeurer durablement ingérable. Depuis plusieurs mois, un peu partout en France, les régies et les sociétés délégataires du service public de l’eau potable s’alarment de découvrir des concentrations élevées d’un produit de dégradation (ou « métabolite ») du chlorothalonil – un pesticide commercialisé par Syngenta, utilisé depuis 1970 et interdit en Europe en 2019.

Ces inquiétudes sont fondées. Dans un rapport qui doit être rendu public jeudi 6 avril, l’Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail (Anses) confirme la présence quasi généralisée du métabolite en question – le R471811 –, dans les eaux de surface et souterraines de métropole. Ce dernier n’était pas recherché jusqu’à tout récemment, les laboratoires agréés n’étant pas tous capables de le mesurer.

Plus alarmant encore, les filières de traitement conventionnelles ne parviennent pas à s’en débarrasser : une large part des Français reçoit ainsi au robinet une eau non conforme aux critères réglementaires de qualité du fait de cette seule molécule, c’est-à-dire que la concentration de celle-ci excède la limite prévue par la réglementation de 0,1 microgramme par litre (µg/l). En janvier 2022, l’Anses a classé le R471811 « pertinent » (potentiellement problématique), il doit ainsi demeurer sous ce seuil au même titre que sa molécule-mère, considérée comme cancérogène probable par les autorités sanitaires européennes et associée à l’apparition de tumeurs rénales sur les animaux de laboratoire. Aucun effet sanitaire du métabolite en question n’est avéré à ces doses d’exposition, mais les données sont très lacunaires.

L’ensemble du Bassin parisien concerné

Selon le coup de sonde de l’Anses, qui repose sur une sélection non exhaustive des réseaux de distribution, environ 34 % de l’eau distribuée en France serait non conforme à la réglementation – chiffre qui n’est qu’une estimation dépendant des choix d’échantillons opérés par les experts de l’agence. Impossible, pour l’heure, de déterminer précisément le pourcentage de la population concernée, le R471811 n’étant pas encore intégré aux plans de surveillance de toutes les agences régionales de santé (ARS). Le responsable technique d’un gros opérateur public, s’exprimant sous le couvert de l’anonymat, s’estime « convaincu que plus de la moitié de la population française est concernée ». Certaines eaux embouteillées ne seraient pas épargnées.

Une chose est sûre : l’Anses atteste dans son rapport que de grandes zones densément peuplées sont touchées, comme par exemple l’ensemble du Bassin parisien, capitale incluse. Le Syndicat des eaux d’Ile-de-France (Sedif), qui dessert 4 millions d’usagers, confirme que plus de 3 millions d’entre eux reçoivent une eau dont les teneurs en R471811 sont quatre à cinq fois supérieures au seuil réglementaire. « Les eaux de surface, qui forment 97 % de nos ressources, la Seine, la Marne et l’Oise, sont toutes contaminées, précise Sylvie Thibert, chargée de la gestion des risques sanitaires au Sedif. Sur nos trois usines de production, celle de Méry-sur-Oise dispose de deux filières de traitement, l’une conventionnelle, l’autre membranaire. Seule cette dernière permet de faire revenir l’eau que nous distribuons sous la limite de qualité réglementaire. »

Dans le Grand Ouest, la situation n’est pas différente. « Nous recherchons cette molécule depuis janvier et nous en retrouvons presque partout, dit Mickaël Derangeon, vice-président d’Atlantic’Eau, l’un des services publics de l’eau en Loire-Atlantique. Sur nos 550 000 abonnés, 490 000 reçoivent une eau qui n’est pas conforme. » Soit environ 90 % de la population desservie, qui reçoit une eau dont la teneur en R471811 est deux à six fois au-dessus de la norme de qualité.

Dans certaines régions, les associations commencent à s’inquiéter, mais ne trouvent pas de réponse auprès des autorités. « Après des demandes d’information à l’ARS des Hauts-de-France qui se sont révélées infructueuses, nous avons décidé de procéder nous-mêmes à des tests, raconte Didier Malé, président du Regroupement des organismes de sauvegarde de l’Oise (ROSO). Des prélèvements sur les réseaux d’eau potable des communes de Montlevèque, Barbery et Vignemont ont été analysés par un laboratoire agréé et montrent des quantités très importantes du R471811 dans l’eau du robinet, qui sont quatre à vingt-deux fois supérieures au seuil de qualité. » Le Monde a pu consulter ces relevés d’analyse.

Coût de la dépollution

« C’est une situation inédite, et qui nous angoisse au plus haut point, confirme Régis Taisne, chef du département cycle de l’eau à la Fédération nationale des collectivités concédantes et régies (FNCCR). Toutes les remontées que nous avons de nos adhérents indiquent que dans la grande majorité des cas, quand on cherche cette molécule, on la trouve, et souvent à des taux supérieurs au seuil de qualité. » Les technologies à mettre en œuvre pour lutter contre le métabolite – charbons actifs, nanofiltration et/ou osmose inverse (une technique de filtration) – sont particulièrement coûteuses et énergivores.

« Le financement de la dépollution se pose avec acuité », relève Raymond Loiseleur, directeur général des services du Sedif. La probabilité est en effet forte que l’usager soit in fine mis à contribution. M. Derangeon estime que la mise à niveau des filières de traitement pourrait renchérir le prix de l’eau d’environ 50 % pour les usagers de Loire-Atlantique. Ces techniques, outre leur coût, peuvent avoir d’autres inconvénients. « Ces technologies posent aussi des questions inquiétantes de rendements à l’heure où l’on sait que la ressource va devenir de plus en plus rare, précise-t-il. Avec l’osmose inverse, par exemple, on rejette dans le milieu 15 % à 20 % de l’eau initialement pompée, et cette eau rejetée est, de plus, bien plus concentrée en polluants… »

Quels que soient les inconvénients environnementaux des solutions techniques, les investissements à consentir pour traiter le R471811 – mais également d’autres micropolluants – sont considérables. « On parle à l’échelle nationale de plusieurs milliards d’euros d’investissement qui seront nécessaires, explique Régis Taisne. On s’en sortira sans doute sur les grosses unités, mais pour les petites collectivités, il semble pour l’heure économiquement inimaginable de mettre en œuvre ces solutions techniques. » Au Sedif, on explique à titre d’exemple que la mise à niveau des usines de Neuilly-sur-Marne (Seine-Saint-Denis) et de Choisy-le-Roi (Val-de-Marne) devrait représenter un coût de 870 millions d’euros et permettrait de revenir dans la zone de conformité.

« Fracture de confiance »

Le risque, tel que l’entrevoit le responsable d’un opérateur public qui a requis l’anonymat, est de voir s’installer deux fractures. « On peut craindre une fracture territoriale, avec des petits réseaux en zones rurales qui ne pourront pas fournir une eau répondant aux critères de qualité, et une fracture de confiance avec les usagers, dit-il. Il est impossible d’expliquer aux gens que leur eau n’est pas conforme aux critères de qualité, mais qu’elle est potable. »

Une telle situation ne pourra pas durer éternellement. La réglementation n’impose pas de restriction des usages de l’eau (consommation, cuissons des aliments, etc.) lorsque les teneurs en pesticides et en métabolites pertinents dépassent les seuils de qualité – 0,1 µg/l par substance et 0,5 µg/l pour leur somme. Pour chaque produit est établi un seuil sanitaire provisoire en deçà duquel aucune restriction n’est immédiatement prévue. La valeur fixée pour le R471811, 3 µg/l, n’a jamais été dépassée dans l’eau distribuée, selon les données colligées par l’Anses. Cependant, la loi prévoit que le dépassement des seuils de qualité ne peut durer que trois ans, renouvelable une fois. Au terme de ces six années, les fournisseurs sont tenus de faire revenir l’eau distribuée dans la zone de conformité pour qu’elle puisse être bue par les usagers.

En réalité, comme le dit Mickaël Derangeon, « le chlorothalonil ayant été utilisé pendant cinquante ans, il est certain que les gens boivent un peu partout une eau qui n’est pas conforme aux normes de qualité depuis longtemps ». Quant à savoir combien de temps sera nécessaire, après l’interdiction de sa molécule-mère, pour que le R471811 disparaisse de l’environnement, la question est ouverte. Mais les éléments de réponse disponibles ne sont guère encourageants. En Suisse, où les métabolites du chlorothalonil ont été identifiés pour la première fois dès le milieu des années 2010, « la suspension d’usage que nous avons demandée aux agriculteurs, pendant plusieurs années, n’a pas permis de faire baisser les taux retrouvés dans l’eau », raconte Pierre-Antoine Hildbrand, conseiller municipal de la ville de Lausanne chargé de l’eau.

« Jusque dans l’eau d’Evian »

C’est la vigilance de chimistes de la confédération helvétique qui a alerté les autorités de différents Etats membres, dont la France. « On s’est notamment basé sur les articles de Karin Kiefer [chercheuse à l’Institut fédéral suisse des sciences et technologies aquatiques] et ses collaborateurs, publiés en 2019 et 2020, pour intégrer les métabolites du chlorothalonil dans la liste des 150 substances sur lesquelles nous voulions avoir plus de visibilité, dit-on à l’Anses. Le point d’alerte était clair, puisque nos collègues trouvaient des produits de dégradation de ce fongicide à peu près partout, jusque dans l’eau d’Evian. »

Les autorités sanitaires helvétiques ont établi que le R471811 était présent dans 60 % des captages du Plateau suisse – la région qui concentre les deux tiers de la population du pays – à des taux supérieurs à 0,1 µg/l. Et en 2022, environ 8 % des Suisses, soit 700 000 personnes, recevaient au robinet une eau non conforme pour cette molécule.

La principale inconnue demeure les effets sanitaires possibles de ces traces. « Le fait d’être au-delà des critères de qualité n’induit pas nécessairement un risque pour la santé, dit Régis Taisne. Il y a en effet une incertitude sur les risques sanitaires associés au R471811 : nous ne disposons pas d’études de long terme sur ses effets sanitaires et l’application du principe de précaution est tout à fait légitime. Mais compte tenu des investissements potentiellement gigantesques sur les filières de traitement, les acteurs de l’eau aimeraient quand même savoir si cette molécule est effectivement problématique. » Atlantic’Eau s’est ainsi rapproché de l’Institut national de la santé et de la recherche médicale (Inserm) pour financer une thèse sur le sujet, sans attendre des données nouvelles de la part du fabricant ou des autorités sanitaires.

De son côté, Syngenta précise qu’elle a mené une étude de 90 jours sur le rat à la demande de l’Anses pour « répondre aux questions dans les différents pays européens ». Les résultats finaux devraient être disponibles d’ici à la fin de l’année. Une autre étude de toxicité est en cours « conformément aux exigences de l’Anses », ajoute la firme, afin de calculer un seuil sanitaire définitif pour le R471811 qui remplacera la valeur transitoire aujourd’hui fixée à 3 µg/l.

En Suisse, les relations entre la firme et les autorités sanitaires sont tendues. En 2020, Syngenta a ainsi poursuivi l’Office fédéral de la sécurité alimentaire et des affaires vétérinaires (OSAV) devant le tribunal administratif fédéral helvétique. En cause, la classification du R471811 comme « pertinent » , c’est-à-dire potentiellement problématique, qui est contestée par la firme. Celle-ci affirme en substance que les autorités sanitaires suisses se sont contredites d’une année sur l’autre sur le risque éventuel, introduisant une inquiétude inutile chez les distributeurs et la population.

« La plainte ne porte pas uniquement sur l’ingrédient actif en soi, mais surtout sur le fait que les autorités prennent des décisions d’approbation fondées sur des données scientifiques et compréhensibles, dit-on chez Syngenta. Ce n’est qu’ainsi que l’innovation restera possible à l’avenir. Un jugement est en attente. » Interrogé à l’automne 2022 pour savoir s’il était libre de communiquer au public les informations qu’il considère utiles sur les métabolites du chlorothalonil, l’OSAV avait laconiquement répondu au Monde : « Non. »

De nombreux métabolites

En France, la direction générale de la santé assure que « le programme de contrôle sanitaire des ARS va progressivement intégrer, à partir de 2023, le chlorothalonil et ses métabolites, en lien avec la montée en compétences des laboratoires agréés », afin de fournir des résultats fiables de contamination. Selon nos informations, le cabinet de la première ministre, Elisabeth Borne, a été mis au courant de la situation le 26 mars, quatre jours avant que le président de la République, Emmanuel Macron, ne présente son plan « eau ». Le constat de la contamination des ressources hydriques par des métabolites de pesticides en est toutefois absent.

Le jour de l’annonce du plan, le ministre de l’agriculture, Marc Fesneau, annonçait en outre sa volonté de maintenir en usage le S-métolachlore, dont les métabolites sont également responsables d’une pollution à grande échelle des nappes phréatiques françaises. A l’Assemblée, une résolution a été déposée par des députés de la majorité pour éviter les « surtranspositions », c’est-à-dire les retraits de pesticides décidés au niveau national avant qu’ils n’interviennent au niveau européen. Et au Sénat, une proposition de loi portée par le sénateur Laurent Duplomb (Les Républicains) vise aussi, notamment, à permettre le maintien sur le marché de pesticides tant qu’ils n’ont pas été retirés au niveau communautaire.

Quant aux incertitudes sur l’étendue du problème, elles demeurent. « Il existe de nombreux métabolites de pesticides qu’on n’est pas encore capable de doser, et il y a encore sans doute quelques surprises à attendre », conclut Sylvie Thibert, du Sedif.

jeudi 23 mars 2023

De Fabrice Bonnifet Directeur Développement Durable & Qualité, Sécurité, Environnement Groupe Bouygues

 La synthèse des travaux du #giec qui vient d’être publiée est un événement extraordinaire, elle pose clairement le diagnostic de notre addiction aux énergies fossiles qui risque de nous précipiter dans les soins palliatifs. Et pourtant ce rapport des rapports du Giec sera globalement moins commenté dans les médias qu’un fait divers ! Le « résumé pour les décideurs » qui accompagne sa diffusion sera peut-être lu par quelques dirigeants du monde entier, mais combien d’entre eux comprendront vraiment la radicalité des mesures qu’il faudrait mettre en oeuvre, face à l’implacabilité des faits scientifiques ?

Lisons bien la principale information de cette synthèse. Les émissions mondiales de gaz à effet de serre doivent culminer au plus tard en 2025 et baisser de 43% d’ici 2030 par rapport aux niveaux de 2019 et de 84% d'ici 2050.
Une question centrale se pose : l’indispensable trajectoire de décarbonation pour garantir un avenir à l’humanité est-elle compatible avec les perspectives économiques exigées par les marchés financiers ? Rappelons qu’une croissance de 2 à 3% par an du PIB mondial aura pour effet de le doubler en une génération, soit d’ici 2050 précisément. Dans exactement la même temporalité, pour limiter le réchauffement à 1,5 °C, la consommation mondiale de charbon, de pétrole et de gaz doit diminuer respectivement de 100, 60 et 70 %.
Non les décideurs rêvent ou alors ils sont incompétents lorsqu’ils affirment que nous pouvons simultanément maintenir les mêmes trajectoires économiques, tout en décarbonant toutes les activités humaines à la vitesse exigée par la science. Notons que ces trajectoires déconnectées du respect du bien commun ne permettent plus, depuis longtemps, de réduire ni la pauvreté, ni la misère sociale. Non nous ne pourrons pas déployer des innovations technologiques qui soit n’existent pas encore, soit qui requièrent des infrastructures industrielles zéro #carbone qu’il sera impossible d’implémenter à la bonne échelle dans le temps qu’il nous reste, de surcroit dans un contexte géopolitique encore très favorable aux énergies fossiles. Non il est faux d’affirmer que les solutions d’adaptation au changement climatique nous permettront de « supporter » les dérèglements climatiques.
La seule solution pour maintenir une once d’espoir est que les pays riches acceptent de ralentir la production du non essentiel, de changer notre façon de mesurer le progrès et nos modèles économiques, pour enfin les aligner avec les limites planétaires. Les solutions pour prospérer sans carbone existent, elles combinent les hautes technologies avec les lowtech, l’impératif de rendre la sobriété désirable avec l’émergence de nouveaux imaginaires du vivre ensemble, les interdictions du superflu avec de la pédagogie, de la #démocratie locale avec de la planification continentale (EU) et surtout de la solidarité avec de la réduction des inégalités. Nous n’y arriverons sans doute pas, mais la dignité c’est d’essayer.

mercredi 8 mars 2023

Les géants du CAC 40 signent une année historique malgré la Russie

 Les grandes sociétés cotées françaises ont enregistré un niveau d'activité sans précédent en 2022, avec un chiffre d'affaires agrégé supérieur à 1.700 milliards d'euros. Leur retrait de Russie les a empêchées d'établir un nouveau record de profits, mais à plus de 140 milliards d'euros au total, leurs bénéfices se maintiennent à un niveau historique.

lundi 13 février 2023

El Niño : un retour qui inquiète

 Après trois ans d'accalmie, l'enfant terrible du climat pourrait revenir avec plus de force cette année. Les prévisionnistes anticipent de nouveaux records de chaleur sur la planète.

Faites le plein d'éventails : El Niño est de retour. Après trois ans d'absence, cette anomalie météorologique s'apprête à souffler les températures les plus élevées enregistrées sur Terre depuis l'ère préindustrielle, anticipent les prévisionnistes du Met Office britannique. « La température moyenne mondiale pour 2023 devrait se situer entre 1,08 °C et 1,32 °C (avec une estimation centrale de 1,20 °C) au-dessus de la moyenne observée depuis un siècle », rapporte Nick Dunstone, qui a dirigé cette étude notée avec un degré de certitude de 66 %. Si ces prévisions se confirment, les catastrophes climatiques pourraient connaître leur apogée avec notamment « des vagues de chaleur sans précédent ».

El Niño et sa petite soeur froide La Niña, identifiés en 1924 par le britannique Gilbert Walker sous le nom de « Southern Oscillation » (ENSO), constituent le phénomène climatique le plus énergétique de la planète. Ils sont liés au déplacement des masses océaniques du Pacifique tropical. Ses eaux chaudes sont habituellement contenues à l'ouest par les alizés. Quand ces vents faiblissent, elles s'écoulent vers l'est, amorçant la phase chaude d'ENSO, El Niño, qui perturbe le climat sur une grande partie du globe : sécheresse en Afrique australe et en Indonésie, inondations et écroulement de la biodiversité marine en Amérique latine, vagues de froid en Europe…

Conjugué au Gulf Stream

A l'inverse, La Niña apparaît quand les alizés se durcissent dans le Pacifique et provoque la remontée d'eaux profondes, plus froides. Elle tempère la météo terrestre. Sans qu'on sache vraiment pourquoi, l'un et l'autre de ces phénomènes se déclenchent de façon irrégulière tous les deux à sept ans. Il y a eu 17 épisodes, modérés à forts, de La Niña au cours du XXe siècle, et 25 de même envergure d'El Niño.

Le retour d'El Niño tombe au plus mauvais moment car les scientifiques craignent qu'il se conjugue avec le ralentissement brutal du Gulf Stream, un des principaux moteurs de régulation climatique. Une étude du Potsdam Institute for Climate Impact Research, publiée en 2021, s'est alarmée du possible effondrement de ce système. Pour étayer leur hypothèse, les chercheurs ont modélisé l'évolution de ce tapis roulant océanique depuis l'an 400 en utilisant des indicateurs des climats passés emprisonnés dans les sédiments. Selon leurs calculs, ce courant serait à son niveau le plus faible depuis 1.600 ans.

Seuil critique

« Nos résultats confortent l'hypothèse que le déclin de l'AMOC ('Atlantic meridional overturning circulation') n'est pas juste une fluctuation ou une réponse linéaire à l'augmentation des températures, mais signifie plutôt que l'on s'approche d'un seuil critique après lequel le système de circulation de l'eau peut s'effondrer », estime Stefan Rahmstorf qui a dirigé cette étude. S'il est inquiet, c'est que le Gulf Stream transporte chaque seconde des milliards de mètres cubes d'eau chaude des Antilles vers l'Arctique, où elle se densifie en refroidissant et plonge dans les profondeurs pour ressortir dans l'Atlantique Sud.

Ce phénomène est vital à l'équilibre planétaire car il permet de répartir la chaleur reçue du Soleil sur l'ensemble des latitudes. « Son impact sur d'autres grands mécanismes climatiques comme ENSO est plus que probable », jauge l'Organisation météorologique mondiale dans sa dernière publication.

Emballement diabolique

Ce dérèglement est sans doute le fruit d'un emballement diabolique. Avec le réchauffement planétaire, la fonte des grands glaciers s'accélère. « L'apport d'eau douce du Groenland et la hausse des précipitations dans cette région diluent l'eau de mer et grippent le système », explique Stefan Rahmstorf. En analysant des carottes sédimentaires collectées dans le golfe de Guinée, une équipe de paléoclimatologues a pu reconstituer un épisode similaire qui s'est produit sur terre il y a 125.000 ans. « La cascade d'effets que nous avons mis en lumière augure le pire », prévient Syee Weldeab, la principale auteure de cette étude parue dans « PNAS ».

Comme aujourd'hui, la fonte du Groenland a réduit la salinité océanique. Le Gulf Stream s'est alors ralenti, réduisant l'apport d'eau froide dans le circuit et provoquant la hausse des températures de fond, de presque 7 °C selon le calcul des chercheurs. A son tour, ce réchauffement aurait provoqué la fonte des hydrates de méthane gelés sous les sédiments marins, libérant dans l'atmosphère ce puissant gaz à effet de serre qui empêche l'évacuation du trop-plein de chaleur terrestre vers l'espace.

Records de chaleur

La radicalisation de l'oscillation ENSO trouverait là sa source, selon plusieurs experts du climat qui pointent son atypisme. « La Niña est censée refroidir la Terre mais sa mécanique s'apparente de plus en plus à celle de son grand frère, en provoquant des dépressions et des surchauffes là où on ne les attend pas », explique le professeur Adam Scaife, responsable des prévisions à long terme au Met Office. Ces dix dernières années, les températures générées par ENSO ont été d'au moins 1 °C supérieures aux niveaux préindustriels, observent ses équipes. « Ce changement conduira probablement à ce que la température mondiale en 2023 soit plus chaude qu'en 2022 », estiment-elles.

Le précédent record de chaleur avait été établi en 2016, au plus fort du dernier épisode de El Niño. Avec son retour, les prévisionnistes les plus pessimistes évoquent la possibilité de voir dépasser l'objectif de l'Accord de Paris de maintien du réchauffement à un niveau inférieur à 1,5 °C. Les conséquences pourraient être dévastatrices : assèchement de la forêt amazonienne, fournaise en Australie et aux Etats-Unis, hiver plus intense au nord de l'Europe, déluges au Sud, accélération des émissions de méthane…

Dans un rapport publié en octobre dernier, l'Organisation météorologique mondiale dévoilait que la concentration dans l'atmosphère de ce gaz au pouvoir de réchauffement 80 fois supérieur à celui du CO2 a atteint un record en 2021. « Ça n'est pas le dernier », préviennent les experts.

15 millions de personnes menacées par la fonte des glaciersLa moitié des glaciers de la planète auront disparu en 2100 en raison du réchauffement climatique, mais ils font d'ores et déjà peser de lourdes menaces sur les populations vivant à proximité. Une étude parue dans « Nature Communications » le 7 février indique qu'au moins 15 millions de personnes dans le monde pourraient être menacées par cette désintégration à cause du débordement des lacs glaciaires qu'ils forment à leur base. « Leur rupture pourrait provoquer des milliers de morts », explique la principale auteure de l'étude, Caroline Taylor, doctorante à l'Université britannique de Newcastle. Ces lacs, souvent endigués par la glace elle-même, sont particulièrement instables. Selon l'étude portant sur plus d'un millier de bassins lacustres glaciaires, leur débordement pourrait emprunter une voie située à moins de 1 kilomètre des habitats. Quatre régions du monde sont particulièrement menacées par ce risque, qui se situent en Inde, en Chine, au Pérou et au Pakistan. Dans ce dernier pays, qui compte 7.000 glaciers dans les chaînes de montagnes de l'Himalaya, des inondations dévastatrices ont affecté plus de 33 millions de personnes dans leur ligne d'évacuation l'été dernier.

En chiffres 

60millions : le nombre de personnes impactées en 2016 par le dernier épisode violent de El Niño.

1.889 ppb (parties par milliard) : la concentration actuelle en méthane, le plus puisant gaz à effet de serre. L'OMM note qu'il s'agit d'un record depuis 800.000 ans. Elle a été multipliée par 2,6 depuis le début de l'époque industrielle.

4,72millions de km2 : le 12e plus bas niveau d'étendue de la banquise depuis 43 ans. Depuis les années 1990, cette superficie se réduit chaque décennie de 1 million de kilomètres carrés. La masse de glace de la calotte du Groenland équivaut à une hausse du niveau de la mer de 7 mètres.

54,4 °C : la température enregistrée dans la Vallée de la Mort, en Californie, le 9 juillet 2021. Les 50 degrés ont été dépassés un peu partout dans le monde.

+1,8°C : la hausse des températures en France depuis les années 1990. Elle est de +1,1 °C au niveau mondial.

140millions de m3/s : le débit du Gulf Stream à la fin de son parcours sur les Bancs de Terre-Neuve. C'est 400 fois le débit de l'AmazoneLa moitié des glaciers de la planète auront disparu en 2100 en raison du réchauffement climatique, mais ils font d'ores et déjà peser de lourdes menaces sur les populations vivant à proximité. Une étude parue dans « Nature Communications » le 7 février indique qu'au moins 15 millions de personnes dans le monde pourraient être menacées par cette désintégration à cause du débordement des lacs glaciaires qu'ils forment à leur base. « Leur rupture pourrait provoquer des milliers de morts », explique la principale auteure de l'étude, Caroline Taylor, doctorante à l'Université britannique de Newcastle. Ces lacs, souvent endigués par la glace elle-même, sont particulièrement instables. Selon l'étude portant sur plus d'un millier de bassins lacustres glaciaires, leur débordement pourrait emprunter une voie située à moins de 1 kilomètre des habitats. Quatre régions du monde sont particulièrement menacées par ce risque, qui se situent en Inde, en Chine, au Pérou et au Pakistan. Dans ce dernier pays, qui compte 7.000 glaciers dans les chaînes de montagnes de l'Himalaya, des inondations dévastatrices ont affecté plus de 33 millions de personnes dans leur ligne d'évacuation l'été dernier.

jeudi 2 février 2023

La sécheresse, au cœur des inquiétudes des acteurs de l’eau, les bassines ne sont pas la solution

C’est dans un contexte climatique inquiétant, marqué par la

sécheresse historique de l’été dernier, que les acteurs de l’eau

se sont réunis les 25 et 26 janvier, à Rennes, pour la 24e édition

du Carrefour des gestions locales de l’eau (CGLE). Retour sur

quelques interventions clé.

2022 sera sûrement un tournant. L’ensemble du territoire

national est désormais touché par la sécheresse, et pas

seulement le Sud. Selon Christophe Bechu, ministre de la

Transition écologique, « 700 communes ont connu des

difficultés d’approvisionnement en eau potable » cet été. Un

« Plan eau », qui devait être annoncé au Carrefour des gestions

locales de l’eau (CGLE), est attendu dans les prochaines

semaines pour répondre à ce défi.

Tous les territoires sont impactés

Plusieurs collectivités ont détaillé comment leur territoire a été

impacté comme jamais par la sécheresse. C’est le cas par

exemple de Chartres métropole, situé dans un territoire

d’irrigation importante avec des problèmes de qualité d’eau

(pesticides, nitrates). Les prévisions pour 2023 ne sont pas

bonnes. « La nappe de la Craie est très basse sans recharge à

ce jour », s’inquiète François Bordeau, directeur du cycle de

l’eau.

Ce n’est pas mieux dans la Manche, où les parapluies de

Cherbourg semblent être rangés au placard. « Les niveaux de la

nappe à ce jour n’ont jamais été aussi bas pour la saison. Cette

crise hydrique est exceptionnelle et l’été 2023 s’annonce

difficile », s’inquiète Bernard Auric, directeur du syndicat

départemental SDeau50.

Devant cette situation, Rennes métropole, ainsi que Eau du

bassin Rennais (EBR) qui distribue l’eau potable, ont fait appel

à un doctorant pour modéliser et prédire les disponibilités en

eau de leur principale ressource, le barrage de la Chèze (8 à 15

millions de m3).

Prédictions inquiétantes

« Avec la hausse de la température et de l’évapotranspiration (+

10 %), associée à la baisse des précipitations, le barrage a du

mal à se remplir. Le changement climatique est perceptible »,

introduit Ronan Abhervé, doctorant. Pour simuler l’évolution de

la ressource dans le temps, il s’est appuyé sur les données du

Giec. Dans le cas du scénario RCP8.5, dit « Business as

usual », c’est-à-dire si on ne change rien, le modèle prévoit que

6 à 9 années sur 20 seront des années de sécheresse, entre

2020 et 2040, avec des répétitions de 2 à 3 années possibles

de sécheresse de suite. Le phénomène s’accélère encore audelà

de cette date. Les projections sur le barrage montrent une

diminution des volumes d’eau disponibles à partir de 2020. Le

barrage pourrait être vide à partir de 2032 ! « C’est une forme

de sidération. Ces résultats sont très inquiétants. Le barrage se

recharge de moins en moins », constate Ludovic Brossard, viceprésident

d’EBR.

Défi pour l’assainissement collectif

Côté assainissement, les étiages de plus en plus sévères

impliquent une sensibilité accrue à la dilution. « C’est un point

important quand on construit une nouvelle station d’épuration.

Les données sur lesquelles nous travaillons doivent être

complétement revues au vu de cette étude. Le calcul de la

dilution sera parfois impossible, car il n’y aura plus d’eau dans

les rivières. Ce sont des questions qu’on ne se posait pas

jusqu’à présent. Il va falloir être créatif ! », affirme Boris

Gueguen, directeur de la régie d’assainissement de Rennes

métropole. Jusqu’où faudra-t-il innover ? L’assainissement

collectif dans sa forme actuelle est-il durable ? C’est l’une des

questions qui a émergé de la salle.

Une approche globale indispensable

EBR va sortir son prochain schéma directeur sur l’eau en

février. « Il faut déterminer de quel pourcentage il faut réduire

notre consommation d’eau », expose Stéphane Louaisil,

responsable du pôle production, énergie, qualité de l’eau à

EBR. La poursuite des économies d’eau est importante, mais il

faudra également agir sur le prix de l’eau et la reconquête de la

qualité de l’eau. Car le problème de la quantité est aussi lié à

celui de la qualité de l’eau. Ainsi, le barrage a pu à nouveau être

alimenté par une rivière, qui a retrouvé une qualité suffisante

suite à une diminution des pesticides. Le changement

climatique nécessite une approche globale. « La sobriété

implique des choix de société. Nous militons par exemple pour

que des appareils hydro-économes soient systématiquement

installés dans tous les logements neufs. Il y a un gros travail

politique à faire », estime Ludovic Brossard.

Les fleuristes, victimes ignorées des pesticides : « Si l’on m’avait mise en garde, ma fille serait encore là »

  Dès 2017, des tests menés par  60 millions de consommateurs  sur des roses commercialisées par dix grandes enseignes en France révélaient ...