jeudi 17 décembre 2015

Bisphénol A, phtalates, pesticides : la Commission européenne condamnée pour son inaction

l n’y a, bien sûr, pas de condamnation pécuniaire, mais le coup est rude. Le Tribunal de l’Union européenne a condamné la Commission européenne, mercredi 16 décembre, pour « avoir manqué à [ses] obligations » sur le dossier des perturbateurs endocriniens (PE).

En vertu du règlement européen de 2012 sur les biocides, Bruxelles devait publier, au plus tard le 13 décembre 2013, les critères scientifiques permettant de réglementer ces molécules de synthèse agissant sur le système hormonal et présentes dans une variété de produits courants (pesticides, plastifiants, bisphénols, solvants, etc.). Or, constate le Tribunal dans son arrêt, « la Commission n’a pas adopté de tels actes » définissant les PE, en dépit d’« une obligation claire, pré́cise et inconditionnelle de [les] adopter » précisée par la réglementation.

« La Commission ne pourra pas attendre une année supplémentaire avant d’agir »

Le Tribunal de l’Union européenne, l’une des deux juridictions de la Cour de justice de l’Union européenne, avait été saisi par la Suède en juillet 2014 d’un « recours en carence » contre la Commission.
L’affaire est une question importante de santé publique : l’exposition des populations aux PE, à bas bruit, est suspectée d’être en cause dans l’augmentation d’une variété de troubles et de maladies (cancers hormono-dépendants, infertilité, troubles métaboliques ou neuro-comportementaux, etc.). D’autres Etats membres – la France, le Danemark, la Finlande, les Pays-Bas – se sont d’ailleurs associés à la plainte de la Suède, également rejoints par le Conseil européen et le Parlement de Strasbourg.
« Ce genre de recours, de la part d’un Etat membre contre la Commission est extrêmement rare, explique-t-on à la Cour de justice de l’Union européenne. En comptant le cas présent, cela ne s’est produit que quatre fois au cours des dix dernières années. » Mais jusqu’à présent, la Commission avait toujours eu gain de cause ; c’est la première fois que la Commission est condamnée pour défaut d’action. « L’arrêt rendu impose désormais à la Commission de remédier à son inaction dans un délai de temps raisonnable, poursuit-on à la haute juridiction européenne. Le terme “raisonnable” est bien sûr difficile à définir, mais nous constatons qu’il y a déjà deux ans de retard. La Commission ne pourra pas attendre une année supplémentaire avant d’agir. »

« Etude d’impact »

Pour expliquer son retard, la Commission avait plaidé devant le Tribunal la nécessité de conduire une « étude d’impact », avant de définir les critères englobant les PE. Et ce, afin notamment d’évaluer le fardeau économique pour les entreprises, que représenterait une telle réglementation.
L’argument n’a pas été jugé valable par les juges européens, qui constatent qu’« aucune disposition du ré̀glement n’exige une telle analyse d’impact ». Des documents internes à la Commission, rendus publics dans un document récent de la journaliste Stéphane Horel (Intoxication, La Découverte, 2015) montrent que cette étude d’impact, préalable à la prise d’une définition des PE, avait été expressément demandée au secrétariat général de la Commission par l’industrie chimique européenne.

« C’est un moment rare : l’abus du pouvoir conféré par le Parlement et le Conseil européen à la Commission a été pointé par la plus haute juridiction européenne, déclare l’Alliance pour la santé et l’environnement (Health and Environment Alliance, HEAL), une organisation non gouvernementale européenne qui rassemble une soixantaine d’associations de la société civile, de syndicats de soignants ou de mutuelles. La Commission va-t-elle couper court à son étude d’impact, ou va-t-elle la poursuivre, sans considération pour le coût d’un retard supplémentaire, en termes de santé publique ? »
L’association Générations futures salue également l’arrêt rendu. « Nous nous félicitons de ce jugement, déclare son porte-parole François Veillerette. Il reconnaît clairement qu’en ne publiant pas les critères scientifiques pour la détermination des propriétés perturbant le système endocrinien, la Commission a violé le droit européen, ce que nous disons depuis maintenant deux années. »

lundi 7 décembre 2015

Catastrophes naturelles : la facture des assureurs pourrait doubler en France d'ici 2040

En marge de la COP 21, l'association française de l'assurance alerte sur le coût des aléas climatiques qui pourrait grimper jusqu'à 92 milliards d'euros d'ici 2040 en France métropolitaine. Soit près du double de la facture des 25 années précédentes.
Sécheresses, inondations, submersions marines, tempêtes, grêles, neige dans l'Hexagone… Ces aléas naturels ont coûté, entre 1988 et 2013, 48 milliards d'euros aux assureurs. Soit une facture d'1,86 milliard d'euros de dommages matériels par an, chiffre l'Association française de l'assurance (Afa). Au cours des 25 dernières années, les assureurs ont ainsi indemnisé annuellement en moyenne 431.000 sinistrés.
Les coûts des aléas naturels pourraient doubler, entre 2014 et 2039, et franchir les 92 milliards d'euros en France métropolitaine, prévient l'Afa, partenaire officiel de la Conférence Paris Climat (COP 21), dans une étude parue ce 3 décembre. Celle-ci se concentre sur les dommages directs causés aux biens par les aléas naturels, y compris les pertes d'exploitation. L'étude n'intègre pas les dommages corporels ainsi que les dommages causés aux récoltes non engrangées des exploitants agricoles.
Le climat, deuxième facteur du surcoût des dégâts
"Les coûts cumulés des dégâts liés à la sécheresse, aux inondations, aux submersions marines et aux effets du vent, sur cette période, augmenteraient de 90% en euros constants par rapport à ceux des 25 années précédentes", alerte l'Afa. Soit une hausse de 44 milliards d'euros.
Plusieurs facteurs sont à l'origine de ce surcoût d'ici 2040. Le premier facteur est "l'enrichissement global de la France" (densité et valeur moyenne des logements, des entreprises, des biens des collectivités territoriales) qui "conduira naturellement à une augmentation des conséquences d'un événement climatique", expliquent les assureurs. Ce facteur "enrichissement" représente 43% du surcoût estimé, soit 19 milliards d'euros. Le changement climatique d'ici à 2040, et notamment les effets d'une hausse des températures, est le deuxième facteur. Son impact est estimé à 13 milliards d'euros. La répartition géographique des richesses sur le territoire métropolitain et la variation naturelle du climat auront quant à elles des conséquences évaluées respectivement à 8 et 4 milliards d'euros.
Ainsi, le coût de la sécheresse pourrait passer de 8 à 21 milliards d'euros d'indemnisations à l'horizon 2040. L'impact du changement climatique "est conséquent" et représente 60% de ce surcoût (soit 8 milliards d'euros). Concernant les inondations (issues des cours d'eau), l'addition passerait de 16 à 34 milliards d'euros. Soit +104% d'indemnisations par rapport à 1988 et 2013.

Facture salée des tempêtes
La France a également déjà subi 84 submersions marines, ces 30 dernières années. "La plupart sans conséquences majeures" hormis la tempête Xynthia en février 2010. Sur les 25 dernières années, le coût des submersions marines pour les assureurs a représenté 1 Md€ (dont 800 M€ pour Xynthia). D'ici 2040, l'Afa table sur un surcoût compris entre 3,2 et 4,2 milliards d'euros.
Les tempêtes, quant à elles, ont constitué l'aléa climatique le plus coûteux pour les assureurs depuis 1990. Les tempêtes Lothar et Martin de 1999 ont coûté 13,4 milliards d'euros. Leur caractère exceptionnel "amène à intégrer un facteur aléa climatique négatif" d'ici 2040. L'étude projette donc d'indemniser 33 milliards d'euros à cette échéance. Elle ne prend toutefois pas en compte les effets du réchauffement sur ce risque de tempêtes face à "une grande incertitude scientifique".
Des mesures de prévention et de protection à adapter
Cette étude "met en exergue l'importance d'adapter dès maintenant les politiques de prévention et le développement de la culture du risque dans notre pays", souligne le climatologue Jean Jouzel qui l'a préfacée.
Les assureurs observent en effet sur le terrain "des insuffisances" dans l'application "concrète" des politiques de prévention, estime l'Afa. Dans un livre blanc paru également ce 3 décembre, elle formule 34 propositions. Les assureurs appellent tout d'abord à intensifier les politiques publiques de prévention et protection. Comment ? En accélérant, notamment, le processus de prescription, d'approbation et de mise en oeuvre des Plans de prévention des risques littoraux (PPRL) non encore prescrits ou approuvés sur les communes prioritaires. Autre recommandation : réformer le Fonds de prévention des risques naturels majeurs (FPRNM) "tant du point de vue de sa gouvernance, de ses missions, de son contrôle que de sa maîtrise de la dépense". Les diagnostics des sols devraient également "être obligatoires", lors de toutes constructions ou cessions de terrain construit ou constructible, situées sur une zone répertoriée à risques et annexer le diagnostic à l'acte notarié du terrain.
L'Afa propose également des mesures visant à moderniser le régime d'assurance des catastrophes naturelles, en donnant la possibilité pour l'assureur de fixer "librement la franchise de cette garantie pour les contrats d'assurance couvrant des capitaux supérieurs à 50 M€, et pour ceux couvrant des collectivités territoriales quelle que soit leur taille". L'Afa recommande aussi de transférer l'indemnisation des sinistres résultant de la sécheresse "au régime de l'assurance de responsabilité décennale construction pour toute construction nouvelle répondant à l'obligation d'étude de sols".
 Ces publications constituent une contribution significative des assureurs français à la politique d'adaptation de notre pays au changement climatique", a déclaré Bernard Spitz, président de l'Afa. "Assureurs et réassureurs sont engagés dans la lutte contre le changement climatique à trois titres. Ils indemnisent les conséquences des aléas naturels. Ils organisent des mesures de prévention. Enfin, ils financent l'économie en investissant à long terme".
A l'initiative de l'Afa, 26 fédérations européennes et internationales d'assureurs et réassureurs ont appelé le 27 novembre les parties prenantes aux négociations, à parvenir à un accord permettant de limiter le réchauffement climatique à 2°C d'ici la fin du siècle. "Il nous semble essentiel aux côtés de nos homologues européens et internationaux d'appeler au succès des négociations", a ajouté M. Spitz. "Nous n'avons pas le choix : un monde à +2°C serait encore assurable, un monde à +4°C ne le serait certainement plus", a prévenu en octobre dernier Henri De Castries, PDG d'Axa.

jeudi 3 décembre 2015

Un nouveau prototype de batterie sans lithium

Des chercheurs du CNRS et du CEA ont mis au point une technologie alternative aux batteries lithium-ion. Au sein du Réseau sur le stockage électrochimique de l'énergie (RS2E), ils ont réussi à élaborer une batterie à base d'ions sodium "18650", un format standard utilisé dans l'industrie.

Beaucoup plus abondant (1.000 fois plus) et moins coûteux que le lithium, le sodium permet d'obtenir des batteries avec des performances comparables. Sa densité d'énergie (la quantité d'électricité que l'on peut stocker par kilogramme de batterie) atteint 90Wh/kg, un chiffre comparable à celui des batteries lithium-ion à leur début. Quant à sa durée de vie, exprimée en nombre maximum de cycles de charge et de décharge sans perte significative de performance, elle est de plus de 2.000 cycles.

L'ensemble de ces travaux a fait l'objet de plusieurs publications et brevets déposés par le CNRS et le CEA. Il a bénéficié des soutiens notamment du ministère de l'Education nationale, de l'Enseignement supérieur et de la Recherche, du CNRS, du CEA, de l'Agence nationale de la recherche (ANR) et de la Direction générale de l'armement (DGA).

mardi 10 novembre 2015

Réchauffement climatique : des grandes villes menacées par la montée des eaux

Un rapport de chercheurs américains publié dimanche souligne qu’à + 2 °C, le niveau des mers continuera à s’élever, pour couvrir des territoires aujourd’hui peuplés de 280 millions de personnes. A + 4 °C, le phénomène concernerait plus de 600 millions d’habitants, pointe l’étude de l’institut de recherche Climate Central, publiée à trois semaines de la conférence sur le climat de Paris, la COP21.
« Un réchauffement de + 2 °C représente une menace pour l’existence à long terme de nombreuses grandes villes et régions côtières », souligne Ben Strauss, l’un des auteurs. Mais les mesures prises pour réduire rapidement et drastiquement les émissions de gaz à effet de serre, qui dérèglent le climat et persistent dans l’atmosphère, feront malgré tout une différence : « Nous avons encore devant nous un vaste éventail de choix », ajoute le chercheur.
Deux cents ans ou deux mille, il est difficile d’estimer la vitesse à laquelle la mer va monter, souligne l’étude. En tout cas, si les émissions continuent sur leur lancée, entraînant un réchauffement de + 4 °C, le niveau des océans gagnera 8,9 m (chiffre médian), avance le rapport. Avec un réchauffement à + 3 °C, qui est la trajectoire tracée par les promesses actuelles des Etats pour freiner les émissions, les mers monteraient de 6,4 m, couvrant des zones de plus de 400 millions d’habitants aujourd’hui.
A + 2 °C, la mer gagne 4,7 m (3 à 6,3 m), et on passe à environ deux fois moins de personnes affectées. A + 1,5 °C maximum, objectif réclamé par les pays les plus vulnérables comme les petits Etats insulaires, l’élévation reste à 2,9 m et encore moitié moins de population concernée (137 millions).

La Chine en première ligne

En termes de population, la Chine serait en première ligne : à + 4 °C, la montée des eaux concernerait un territoire aujourd’hui peuplé de 145 millions de personnes, un chiffre divisé par deux à + 2 °C, selon cette étude, qui ne tient compte ni de l’évolution démographique ni de la construction d’infrastructures comme des digues.
Parmi les autres pays particulièrement affectés : Inde, Bangladesh, Vietnam, Indonésie, Japon, Etats-Unis, Philippines, Egypte, Brésil, Thaïlande, Birmanie, Pays-Bas… Parmi les villes principales, Hongkong, Calcutta, Dacca, Jakarta, Shanghaï, Bombay, Hanoi, Rio, Buenos Aires, New York ou Tokyo.
Un lien sur le site de Climate Central permet de visualiser les impacts pour chaque grande ville côtière. Les projections prennent en compte la dilatation de l’océan quand il se réchauffe, la fonte des glaciers, mais aussi la dégradation des calottes du Groenland et de l’Antarctique, irréversible au-delà d’un certain seuil.
Mais les mesures qui devraient être entérinées lors de la COP21 afin de réduire rapidement les émissions de gaz à effet de serre feront malgré tout une différence. « Certaines réunions historiques ont dessiné des frontières territoriales, rappelle Ben Strauss. La COP de Paris affectera la frontière globale entre terre et mer. »


jeudi 5 novembre 2015

El Nino accentue la prolifération de la dengue

L'Institut de recherche pour le développement (IRD) alerte sur une possible épidémie de dengue en Asie du Sud-Est en lien avec l'épisode El Nino de cet hiver. Une étude, publiée dans Pnas, se base sur 18 ans de rapports sanitaires issus de huit pays du Sud-Est asiatique. Elle permet aux auteurs d'affirmer qu'il existe une "corrélation des grandes vagues épidémiques [de dengue] avec des températures atmosphériques anormalement élevées liées aux événements El Nino intenses".
El Nino est un phénomène climatique qui a lieu en moyenne tous les cinq ans. Il prend naissance dans l'océan Pacifique où un courant d'eau chaude s'accumule et provoque une hausse des températures atmosphériques. Cette montée du thermomètre favorise les moustiques, vecteurs de la maladie qui se reproduisent plus vite et prolifèrent.
L'IRD rappelle que 390 millions de personnes sont touchées par la dengue chaque année. Elle observe une recrudescence des cas en Asie du Sud-Est. Cette maladie est même qualifiée de "ré-émergente".
Pour cet hiver, les climatologues annoncent un épisode de forte intensité d'El Nino. Ils craignent une grande épidémie de fièvre hémorragique en Asie en janvier 2016. Les scientifiques soulignent toutefois qu'il est encore temps pour les autorités de mettre en place des mesures de prévention.
Le 2 novembre, l'IRD a lancé, en partenariat avec le CNRS et l'Institut de la mer du Pérou, une étude du phénomène El Nino en déployant une série de capteurs le long de la côte péruvienne et au large. Objectif : mesurer les impacts de cet événement climatique extrême sur la dynamique océanique et l'écosystème côtier.

vendredi 23 octobre 2015

La plastisphère, cet écosystème qui menace les océans

Après 60 ans d'une consommation planétaire de produits à base de plastique, les océans du monde entier sont transformés en dépotoirs flottants. Si bien qu'un nouvel écosystème océanique fait son apparition.
Il existe maintenant des « îles flottantes » à la surface de tous les océans. Les courants circulaires appelés « gyres océaniques » ont concentré les déchets de plastique dans le Pacifique Nord et Sud, dans l'Atlantique Nord et Sud, dans l'océan Indien, et même la Méditerranée, une mer intérieure, en est recouverte. 
Au total, on évalue que les 192 territoires dont les frontières touchent les océans déversent environ 10 millions de tonnes de matières plastiques par année.
« C'est devenu un phénomène océanographique planétaire qui nous force maintenant à agir », affirme Kara Lavander Law, océanographe à l'école d'océanographie Sea Education Association, à Woods Hole, aux États-Unis.
Cette océanographe étudie depuis de nombreuses années la gyre de l'Atlantique Nord. Elle constate que les plastiques des gyres sont composés à 90 % de tout petits fragments. Sous l'action des rayons ultraviolets, de la chimie des eaux salées et des microorganismes, de gros objets comme des téléphones ou des bouteilles se décomposent graduellement et forment une soupe de « microplastiques ».

Le plastique océanique colonisé
 
« La nouvelle, c'est que nous découvrons que ces gyres de plastique ont un impact direct sur l'écosystème des océans », soutient Linda Amaral Zettler, biologiste au Marine Biological Laboratory de Woods Hole. Elle et son conjoint, le biologiste Érik Zettler, découvrent que toute une faune de microorganismes vivent directement sur le plastique et s'en nourrissent : des algues diatomées et des bactéries de toutes sortes.
La bactérie qui inquiète le plus le couple de chercheurs est le Vibrio. Elle fait partie d'une classe de bactéries dont la plus connue est celle qui cause le choléra chez l'humain. Celle que l'on retrouve sur le plastique océanique s'attaque au système digestif des poissons.
Le Vibrio est déjà présent dans l'océan. Ce que constatent les chercheurs, c'est que la bactérie a le potentiel de se reproduire en grande quantité dans les gyres. 
« Trente minutes après son arrivée dans l'océan, un plastique est colonisé. S'il flotte dans une aquaculture, il a le potentiel de la contaminer. »
Les derniers travaux du chercheur espagnol Andres Cozar confirment que la Méditerranée est maintenant recouverte de déchets de plastique. Il n'y a pas de gyre dans cette mer intérieure. Les plastiques se dégradent sur place lentement.
L'inquiétude est de savoir jusqu'où la contamination du plastique se rend dans la chaîne alimentaire.
« On est déjà exposés au plastique dans notre alimentation et notre environnement. Il est encore trop tôt pour mesurer l'impact du plastique océanique sur notre santé. » — Érik Zettler, biologiste





lundi 12 octobre 2015

La Question : les élus locaux, seuls responsables d’une urbanisation excessive ?

Le 8 octobre, 32 communes ont été placées en état de catastrophe naturelle par un décret, après les inondations qui ont frappé la Côte d’Azur cinq jours plus tôt. Vingt personnes ont alors perdu la vie. L’urbanisation excessive de la région aurait contribué au sinistre en empêchant l’évacuation des eaux pluies. Les élus locaux portent-ils seuls la responsabilité d’un aménagement du territoire insensible aux risques d’inondations ?


  • Les élus ne font que répondre à nos demandes, par Sylvain Rotillon, chef bureau des risques à la Direction départementale des territoires 91.
« Après les inondations, les élus ont été mis en accusation pour avoir favorisé à outrance l’urbanisation. Formellement, ce sont les maires qui signent les permis de construire, ce sont donc les grands coupables. Pourtant, s’il existe des élus indélicats, reporter la faute sur les seuls édiles est un peu rapide. Si l’urbanisation progresse, plus rapidement que la population, c’est parce que nos modes de vie sont consommateurs d’espace. Séparation des couples, confort, envie de pavillon… individuellement, on s’étale, on imperméabilise. En zone inondable, on préfère construire plus grand que plus sûr. Le coût de la prévention est pour le particulier, celui de la réparation est collectif. Les élus se retrouvent sous pression de leurs administrés pour délivrer ces autorisations, quitte à s’affranchir des règles de sécurité. Difficile de refuser à un futur électeur un projet dont on ne perçoit pas qu’additionné aux autres il va générer le risque. Les élus ne font que répondre à nos demandes. »


  • N’oublions pas le rôle joué par la décentralisation, par Mathilde Gralepois, maître de conférences Université de Tours et Lisa Lévy, maître assistante à l’université de Genève.

« La responsabilité des élus est encastrée dans les enjeux du développement urbain et de la prévention des risques. Nos villes se sont construites au bord des cours d’eau et des littoraux. Les 20 dernières années ont été marquées par des constructions qui se font dans des zones inondables déjà urbanisées, plus que par l’expansion de la ville. Il est facile de pointer du doigt la responsabilité des “maires-constructeurs en zone inondable”. Rares sont les élus qui développent leur ville illégalement. Par contre, pour s’accrocher aux ressources économiques et politiques du développement local, ils choisissent les interprétations a minima, développant la ville aux franges des zones non définies comme inondables et en délivrant des permis de construire en périodes d’incertitude réglementaire. Par exemple, Nice a continué à construire en zones inondables pendant les dix ans qu’ont duré les négociations sur le plan de prévention des risques. La responsabilité complexe des élus doit être saisie dans le lot de conséquences des transferts récents des compétences de l’État vers les collectivités : maîtrise de l’urbanisation, protection par les ouvrages, planification des secours, alerte… Les contradictions de la décentralisation dans la prévention des risques accroissent la

vendredi 9 octobre 2015

Le corail menacé par El Niño

Réapparu en mars, l’« enfant terrible du Pacifique », le courant chaud équatorial El Niño, menace les massifs coralliens. Des chercheurs de l’université du Queensland et de l’Agence américaine océanique et atmosphérique (NOAA) ont mis en garde jeudi 8 octobre du pire épisode de blanchiment corallien jamais recensé que pourrait provoquer El Niño, en 2016.

Les scientifiques expliquent dans une étude qu’il s’agira seulement du troisième événement de ce type, et que des récifs comme la Grande Barrière de corail australienne seront particulièrement touchés. « Si la situation continue de s’aggraver, la Grande Barrière de corail va subir un blanchiment généralisé, avec la mortalité que cela entraîne, la conséquence la plus fréquente de l’élévation des niveaux de températures de la mer », a déclaré le directeur de l’Institut du changement global de l’université, Ove Heogh-Guldberg.
Lors du premier épisode de blanchiment global recensé, en 1998, « plus de la moitié » de la Grande Barrière de corail, classée au Patrimoine de l’humanité, avait été touchée, et « entre 5 et 10 % des coraux sont morts », dit-il. La Grande Barrière a été épargnée au cours du deuxième épisode, survenu en 2010, « en raison de tempêtes qui ont soulagé le stress provoqué par la chaleur. Le récif pourrait ne pas avoir autant de chance en 2016 », a-t-il ajouté.
La Grande Barrière de corail, une étendue de 345 000 km2, compte quelque trois mille « systèmes » récifaux et un millier d’îles tropicales. Elle a évité de justesse d’être placée par l’Unesco sur sa liste des sites en péril, et Canberra œuvre à un plan de préservation sur trente-cinq ans.

Impact très important sur l’écosystème marin

La hausse de la température provoque un phénomène de dépérissement des coraux qui se traduit par une décoloration et entraîne une insuffisance en apports nutritifs conduisant à leur mort. Les coraux se nourrissent d’algues microscopiques, les dinoflagellés, qui vivent en vastes colonies à leur surface. La photosynthèse libère aussi de l’énergie dans les tissus du corail, lui permettant de construire le squelette de calcium qui abrite ces algues unicellulaires. Quand le corail est soumis à un stress, comme une hausse importante de la température de l’eau, il se débarrasse des dinoflagellés et blanchit.
La disparition des récifs coralliens a un impact très important sur l’écosystème marin, car les coraux fournissent nourriture et abri à de nombreuses espèces de poissons et de crustacés. En 1998, les récifs coralliens de soixante pays tropicaux avaient été touchés.
Le courant El Niño devrait persister jusqu’au printemps 2016 et pourrait être l’un des plus intenses dans les annales, d’après les scientifiques américains, et qui fait craindre de fortes perturbations météorologiques. El Niño est un phénomène irrégulier, provoquant des hausses de températures dans le Pacifique, des fortes pluies dans certaines zones, des sécheresses ailleurs, et des vents faibles. Des scientifiques soupçonnent le réchauffement climatique d’augmenter la fréquence de ce phénomène potentiellement destructeur.

jeudi 1 octobre 2015

Des enfants qui naissent « prépollués »

Les substances chimiques auxquelles les populations sont quotidiennement exposées ont des effets sur la santé de plus en plus manifestes. C’est le sens de l’alerte publiée jeudi 1er octobre dans l’International Journal of Gynecology and Obstetrics par la Fédération internationale de gynécologie et d’obstétrique (FIGO). Elle met en avant la responsabilité de certains polluants de l’environnement dans les troubles de la fertilité et souligne l’urgence d’agir pour réduire l’exposition aux pesticides, aux polluants atmosphériques, aux plastiques alimentaires (bisphénol A, phtalates…), aux solvants, etc.

C’est la première fois qu’une organisation regroupant des spécialistes de santé reproductive s’exprime sur les effets délétères de ces polluants, présents dans la chaîne alimentaire et dans l’environnement professionnel ou domestique. Un appel soutenu par des ONG dont Women in Europe for a Common Future (WECF) et Health & Environment Alliance (Heal).
La prise de position de la FIGO — qui regroupe 125 sociétés nationales de gynécologie et d’obstétrique — rejoint celle, publiée deux jours plus tôt, de l’Endocrine Society. Pour cette société savante, qui rassemble 18 000 chercheurs et cliniciens spécialisés dans l’étude du système hormonal, l’exposition aux polluants de l’environnement est aussi en cause dans plusieurs maladies émergentes : diabète de type 2, obésité, cancers hormonodépendants (sein, prostate, thyroïde) et troubles neuro-comportementaux (troubles de l’attention, hyperactivité, etc.).

Constat préoccupant

Après la publication, en 2012, du rapport de l’Organisation mondiale de la santé (OMS) et du Programme des Nations unies pour l’environnement (PNUE), ces deux nouvelles publications creusent un peu plus le fossé qui sépare l’état des connaissances et celui de la réglementation. Celle-ci ne reconnaît toujours pas l’existence de certaines substances – dites « perturbateurs endocriniens » – capables d’interférer avec le système hormonal et d’agir à des niveaux d’exposition très faibles, inférieurs aux seuils réglementaires. « Près de 800 substances chimiques environnementales sont connues ou suspectées d’interférer avec les récepteurs hormonaux, la synthèse ou la conversion des hormones », soulignait déjà, en 2012, le rapport de l’OMS et du PNUE.

« L’exposition à des produits chimiques toxiques au cours de la grossesse ou l’allaitement est ubiquitaire », note la FIGO, qui s’inquiète de ce qu’« aux Etats-Unis, une femme enceinte serait en moyenne contaminée par au moins 43 substances chimiques différentes ».
« On trouve la trace de polluants organiques persistants [POP]) chez des femmes enceintes et allaitantes dans le monde entier, ajoute la FIGO. L’Institut national américain du cancer se dit préoccupé par le fait que les bébés naissent en quelque sorte “prépollués”. »

Les effets de ces expositions in utero ou sur les nourrissons ont aussi des répercussions sur la fertilité ultérieure des individus. En France, environ 15 % des couples en âge de procréer consultent pour infertilité, selon un rapport récent de l’Institut national de la santé et de la recherche médicale (Inserm) et de l’Agence de la biomédecine sur les troubles de la fertilité. Et le nombre de couples ayant recours aux techniques de procréation médicalement assistée ne cesse de croître, « très probablement en raison de modifications environnementales, notamment l’exposition à certains toxiques comme le tabac et/ou à certains perturbateurs endocriniens ».
Dans les consultations, le constat est préoccupant. « Au cours de ces dernières années, nous avons vu une recrudescence du syndrome des ovaires micropolykystiques, cause importante de l’infertilité, de l’endométriose, qui touche des femmes de plus en plus jeunes, et la qualité du sperme s’est effondrée », souligne Richard Benhamou, gynécologue obstétricien, spécialisé dans l’infertilité, installé depuis 1985. Certes, le tabac et l’alcool sont très délétères pour la femme enceinte et pour la fertilité, mais « le rôle de l’environnement invisible est capital », avertit le docteur Benhamou.

« Les preuves des dégâts sanitaires des perturbateurs endocriniens sont plus définitives que jamais, estime Andrea Gore, professeur de pharmacologie à l’Université du Texas, à Austin, qui a présidé le groupe de scientifiques chargés de rédiger la déclaration de l’Endocrine Society. Des centaines d’études pointent dans la même direction, que ce soit des études épidémiologiques menées à long terme sur des humains, des études menées sur l’animal ou sur des cellules, ou encore sur des groupes de personnes exposées dans leur métier à des produits spécifiques. »

Hausse des pathologies

Le rapport de l’Endocrine Society est le deuxième du genre. Dès 2009, la société savante avait rassemblé les éléments disponibles dans la littérature scientifique et fait état de ses inquiétudes. Cette nouvelle édition renforce le constat précédent. « En particulier, depuis 2009, les éléments de preuve du lien entre exposition aux perturbateurs endocriniens et troubles du métabolisme, comme l’obésité et le diabète, se sont accumulés, alerte la biologiste Ana Soto (Tufts University à Boston, Ecole normale supérieure), coauteure de la précédente version du rapport. Et il faut noter que rien de ce qui était avancé en 2009 n’a dû être retiré ou revu à la baisse. Tout ce que nous suspections à l’époque a été confirmé par les travaux les plus récents. »
La part prise par l’exposition aux substances chimiques toxiques dans l’augmentation d’incidence de certains troubles ou maladies – obésité, cancer du sein, de la prostate, etc. – ne peut être précisément quantifiée. Mais la société savante rappelle que ces pathologies, en lien avec le dérèglement du système hormonal, sont toutes en hausse inquiétante. Aux Etats-Unis, 35 % de la population est obèse et la moitié est diabétique ou prédiabétique.
Hasard du calendrier, Pesticide Action Network (PAN Europe), une ONG sise à Bruxelles, rappelait, à la fin de septembre, qu’une dizaine de pesticides catégorisés comme perturbateurs endocriniens par l’Autorité européenne de sécurité des aliments (EFSA) étaient actuellement examinés par la Commission européenne afin d’être autorisés ou réautorisés sur le marché européen. A l’heure actuelle, il n’existe pas de définition réglementaire stricte de ces substances : l’exécutif européen devait au plus tard établir une telle définition en décembre 2013, mais a cédé sous les pressions de l’industrie et a repoussé sine die la mesure.

jeudi 24 septembre 2015

“ La fraude de Volkswagen n'est que la partie émergée de l'iceberg ” par Actu Environnement

La fraude de Volkswagen aux tests d'émissions de polluants pour ses véhicules diesel produits aux Etats-Unis interroge sur la pertinence des cycles actuels. Explication de Julia Hildermeier, membre de la Fédération européenne pour le transport et l'environnement (T&E).

Actu-environnement : Volkswagen aurait équipé certains de ses modèles diesel produits aux Etats-Unis de dispositif anti pollution ne s'activant que lors des phases de tests de pollution. Comment expliquer que le constructeur allemand puisse mettre en place un tel logiciel ?
Julia Hildermeier : Le problème n'est pas nouveau, depuis des années les constructeurs - et pas seulement Volkswagen - trichent lors des tests d'homologation.
Le cycle de l'examen est normé et facilement repérable par des algorithmes : il n'est pas étonnant qu'un logiciel puisse détecter lorsque la voiture est en cours d'examen. De plus, ce dispositif n'est pas la seule manière pour optimiser les valeurs d'émissions mesurées sur une voiture. Depuis quelques années, la différence entre les valeurs officielles et les émissions réelles a fortement augmenté : cela suggère que les constructeurs ont appris à mieux contourner ces tests en laboratoire.
AE : Quel est l'intérêt pour les constructeurs d'utiliser ces dispositifs anti-pollution uniquement lors des phases de test ?
JH : Les constructeurs ont intérêt à ce que les voitures durant les tests d'homologation aient des valeurs d'émissions les plus basses possibles. Ce type d'examen - et c'est pourquoi cette histoire est aussi importante - est en Europe à la base de réglementations sur les émissions des voitures. Par exemple, la norme Euro 6 limitant les oxydes d'azote (NOx) est entrée en vigueur depuis le 1er septembre 2015 pour tous les véhicules. Toutes les marques automobiles qui vendent des véhicules diesel ne respectent pas les limites d'émissions de polluants atmosphériques NOx en Europe : selon nos travaux, seulement un véhicule testé sur dix est conforme à la limite légale de cette norme. Des études de la Commission européenne montrent par ailleurs que les voitures diesel dépassent d'environ 7 fois les limites NOx. L'Europe est en train de réformer la procédure utilisée pour tester les émissions des véhicules dans les conditions réelles de conduite. Malheureusement, la nouvelle version ne répondra toujours qu'à une partie des problèmes et des manières de frauder des constructeurs.

AE : Les constructeurs semblent déployer des technologies sophistiquées pour contourner les tests. Sont-ils si difficiles à respecter ?
JH : Il est tout à fait possible pour un constructeur de respecter les normes environnementales actuelles. L'écart persistant entre les émissions officielles et réelles des véhicules diesel s'explique par l'utilisation, par les constructeurs, de systèmes de traitement des gaz d'échappement bon marché, moins efficaces pour les voitures vendues en Europe, où les procédures de test sont inefficaces. La différence de coût entre les logiciels utilisés pour tricher et les technologies permettant de respecter les normes est de 300 à 500 euros par véhicule. Ce n'est donc pas une question de technologie.
AE : Volkswagen a annoncé avoir vendu onze millions de ce type de véhicules « optimisés » dans le monde : la fraude a pu être étendue au niveau européen ?
JH : Il est bien possible que ce type de logiciel ait été utilisé dans les tests européens, puisque la moitié des voitures vendues en Europe sont des diesels. Il est donc également fort probable que des voitures vendues en Europe dépassent les valeurs d'émissions mesurées en situation réelle du fait de la tricherie de différents constructeurs.
AE : Quelles différences y-a-t-il entre les réglementations européennes et américaines et quelles sont leurs conséquences ?
JH : La duperie de Volkswagen a pu être découverte aux États-Unis parce que les examens sont beaucoup plus strictement appliqués par rapport à ceux réalisés de l'autre côté de l'Atlantique. En Europe, les agences d'homologation sont les clients des constructeurs : ces derniers peuvent payer un laboratoire pour conduire cet examen. Nous aurions besoin en Europe de deux garanties : tout d'abord, d'une procédure d'examen indépendante sous surveillance européenne et non économiquement liée aux constructeurs. Ensuite, nous devrions pouvoir assurer la conformité des voitures produites, aux valeurs testées dans le laboratoire. Ces deux conditions sont déjà déployées aux États-Unis, c'est pour cela que le gouvernement américain a été capable de détecter le contournement des tests. Il faut réagir vite au niveau européen et réaliser comme le propose Michel Sapin une enquête à l'échelle européenne. La fraude de Volkswagen n'est que la partie émergée de l'iceberg.

Des résidus de pesticides retrouvés dans des salades

80,65%. C'est le pourcentage d'échantillons de salades testés (25 sur 31) par l'ONG Générations Futures qui contiendraient au moins un résidu de pesticides, selon les résultats de son enquête "Exppert 5" dévoilés le 22 septembre.

Ces 31 salades (laitues, feuilles de chênes, frisées, batavias, scaroles, roquettes) ont été achetées dans des supermarchés de l'Oise et de la Somme (Picardie), entre le 28 mai et le 21 juillet 2015. Vingt neuf de ces salades sont d'origine française, les deux autres d'origine espagnole et italienne.

Les salades testées contiendraient en moyenne environ quatre résidus de pesticides qui ne dépassent pas la limite légale autorisée, précise l'association. Les fongicides à base de boscalid sont les plus retrouvés (22 échantillons). La limite maximale autorisée (LMR) du boscalid "est de 30mg/kg sur la laitue alors que sur d'autres cultures, où cette molécule est autorisée, les LMR sont bien plus basses", pointe l'ONG.

Plusieurs substances perturbatrices endocriniennes ou suspectées ont également été détectées : cyprodinyl (14 échantillons), fludioxonyl (13), etc. Des traces de DDT, pesticide interdit depuis 1971 en France mais persistant dans les sols, ont été retrouvées dans deux échantillons, alerte l'association. Seuls six échantillons n'auraient aucun résidu de pesticides (soit 19,35%), selon l'enquête.

mercredi 2 septembre 2015

Matthieu Ricard : « Pour des menus végétariens à l’école »

S’opposant à l’introduction d’un menu végétarien au choix pour les élèves des écoles, menu laïque par excellence qui a la vertu de ne pouvoir offenser personne tout en étant bon pour la santé, l’environnement et, bien sûr, les animaux, le maire de Châlon-sur-Saône, Gilles Platret, a déclaré qu’un tel menu posait « d’énormes problèmes » et que, « selon un grand nombre de diététiciens », le régime végétarien « n’apporte pas toutes les ressources nutritionnelles suffisantes pour l’enfant, en particulier le fer, dont la carence est source de fatigue pour l’écolier ».

Feu mon père Jean-François Revel parlait de la « connaissance inutile », qui est aussi le titre de l’un de ses ouvrages. Il est en effet désolant que des connaissances scientifiques avérées et aisément accessibles soient traitées comme si elles n’existaient pas. Le mythe des protéines « incomplètes », perpétué notamment par l’industrie de la viande, repose sur des recherches anciennes et désuètes.
Selon des données plus fiables fournies par l’Organisation mondiale de la santé et l’organisation des Nations unies pour l’alimentation et l’agriculture (FAO), les neuf acides aminés essentiels sont présents en quantité et en proportions suffisantes dans la plupart des nourritures végétales. De plus, en ce qui concerne la teneur en protéines, la comparaison d’une centaine d’aliments, établie par la FAO, montre que les 13 premiers de la liste sont des végétaux (dont le soja, 38,2 %, le pois carré, 33,1 %, le haricot rouge et les lentilles, 23,5 %) et un champignon (la levure de bière, 48 %).

La viande, loin derrière les nourritures végétales

La première viande, le jambon de porc, vient en 14e position avec 22,5 %, le premier poisson, le thon, en 23e position avec 21,5 %, tandis que les œufs et le lait viennent respectivement en 33e et en 75e position avec seulement 12,5 et 3,3 % de protéines. Une alimentation normale à base de végétaux suffit donc largement à pouvoir à nos besoins en protéines, en quantité et en qualité. De fait, c’est la nourriture carnée qui pose des problèmes. Une étude menée par l’institut EPIC (European Prospective Investigation into Cancer and Nutrition), portant sur 521 000 individus, a montré que les sujets qui mangeaient le plus de viande rouge avaient 35 % de risques supplémentaires de développer un cancer du côlon que ceux qui en consommaient le moins.
D’après une autre étude publiée à l’université Harvard en 2012 par An Pan, Frank Hu et leurs collègues, portant sur plus de 100 000 personnes suivies pendant de nombreuses années, la consommation quotidienne de viande est associée à un risque accru de mortalité cardio-vasculaire de 18 % chez les hommes et de 21 % chez les femmes, tandis que la mortalité par cancer représente respectivement 10 % et 16 %. Chez les gros consommateurs de viande rouge, le simple fait de remplacer la viande par des céréales complètes ou d’autres sources de protéines végétales diminue de 14 % le risque de mortalité précoce. Par ailleurs, à cause du phénomène de bioconcentration, la viande contient environ quatorze fois plus de résidus de pesticides que les végétaux, les produits laitiers cinq fois plus.
Les polluants organiques persistants s’accumulent en effet dans les tissus graisseux des animaux et entrent ainsi dans l’alimentation humaine. Ces polluants organiques se retrouvent également dans la chair des poissons d’élevage, nourris d’aliments concentrés fabriqués entre autres à partir de protéines animales. Ces molécules sont non seulement cancérigènes, mais aussi toxiques pour le développement du système nerveux du fœtus et des jeunes enfants. Quant à la vitamine B12, indispensable à la formation de l’hémoglobine du sang, elle est pratiquement absente des plantes, mais on la trouve dans le lait et les œufs. Les végans [qui s’abstiennent de toute nourriture d’origine animale] ont, par conséquent, besoin de s’en procurer sous forme de compléments alimentaires, qui peuvent être fabriqués à partir de cultures de bactéries.

Recommandations inappropriées

Au vu des études menées depuis une vingtaine d’années, affirmer, comme le fait l’Institut national de prévention et d’éducation pour la santé (INPES), à propos de ceux qui souhaitent s’abstenir de produits d’origine animale que « ce type d’alimentation fait courir à long terme des risques pour la santé » est donc scientifiquement inexact. Les recommandations qui en découlent sont, par voie de conséquence, inappropriées.
Pour ceux qui penseraient que le fait d’être végétarien affecte les performances physiques, la liste des champions végétariens et végans parle d’elle-même : Carl Lewis, titulaire de neuf médailles d’or aux Jeux olympiques, Bode Miller, médaillé olympique de ski alpin, Edwin Moses, invaincu 122 fois d’affilée sur le 400 mètres haies, Martina Navratilova, détentrice du plus grand nombre de titres dans l’histoire du tennis, l’ultramarathonien américain Scott Jurek, Patrik Baboumian, dénommé « l’homme le plus fort du monde », Fauja Singh, un Indien végétarien qui fut le premier centenaire à courir un marathon et le jeune champion du monde de la mémoire, Jonas von Essen.
Les assureurs ne s’y trompent pas : aux Etats-Unis, Kaiser Permanente, une importante société d’assurance-maladie, avec plus de 9 millions de membres, incite les médecins à « recommander une diète à base de végétaux à tous leurs patients ». Au Royaume-Uni, une assurance-vie propose même 25 % de rabais pour les végétariens et les végétaliens. Les auteurs d’une étude anglaise réalisée sur 65 000 personnes dont 17 000 végétariens ou végans concluent : « Les gouvernements qui désirent mettre à jour leur définition d’un régime propice à la santé et respectueux de l’environnement doivent recommander de diminuer la consommation de produits animaux. » A bon entendeur, salut !

Résolution de la crise de l’élevage par Christian Rémésy nutritionniste et directeur de recherche INRA

L’élevage français est en crise, les prix de la viande de porc ou du lait ne permettent pas d’assurer un juste revenu aux éleveurs. Comble du désarroi, nos voisins allemands ou espagnols parviennent à produire de la viande de porc à des prix encore plus bas que les éleveurs français, et emportent ainsi de nouvelles parts de marché. Inutile de s’étonner d’une telle situation puisqu’on a transformé l’élevage en industrie, en créant de toutes pièces des usines à lait, à volailles ou à porc et chacun sait qu’en matière d’industrie, ce sont les entreprises les plus compétitives qui gagnent. Et comment défendre les productions françaises, si l’usine à porc bretonne a exactement les mêmes caractéristiques que sa soeur allemande.
Xavier Beulin, le président de la FNSEA a la solution. Il demande trois milliards d’euros de financement pour développer des infrastructures analogues à celles de nos voisins et souhaite des allégements de charges sociales et de contraintes environnementales. De cette manière, la concurrence sera de plus en plus exacerbée et les élevages devront franchir un pas supplémentaire dans l’industrialisation, la spécialisation et la diminution des coûts de production.
Pour un nouveau paradigme
Au final, pourquoi ne pas délocaliser les usines animales au Brésil ou ailleurs, comme cela a déjà été fait pour les volailles. Toute cette évolution est, bien sûr, monstrueuse sur le plan du respect du vivant, totalement inadaptée sur le plan écologique, absurde sur le plan économique et social et même inefficace sur le plan nutritionnel.
Finalement, l’étendue des dérives des élevages industriels dans le monde est le reflet d’une crise profonde de civilisation que l’humanité devra résoudre pour clarifier ses rapports avec la nature, affirmer son respect du vivant et développer des modes alimentaires durables et équitables. C’est d’un changement de paradigme dont nous avons besoin. Quels traitements devons-nous accorder aux animaux ? Quelle juste place accorder à l’avenir à l’élevage après des millénaires de co-évolution avec les populations humaines ? Comment intégrer l’élevage dans une démarche globale d’agroécologie ? Quelles proportions de calories d’origine animale avons-nous réellement besoin ? Les réponses à ce questionnement sont relativement simples et seule leur prise en compte permettrait de sortir de cette situation absurde dans laquelle une majorité d’éleveurs se sont fourvoyés avec le consentement tacite des consommateurs trop souvent attirés vers les prix les plus bas, et l’encouragement d’un marketing alimentaire à consommer beaucoup de produits animaux pour satisfaire des pseudo besoins nutritionnels.
La première question à résoudre est celle du respect des animaux, de leur comportement au-delà du soit disant bien être animal, un concept largement manipulé pour justifier l’enfermement des animaux délivrés des risques et des aléas naturels. Le comportement de chaque espèce ou race animales est parfaitement connu, celui de la vache de brouter l’herbe des prés ou le foin récolté, celui de la poule de gratter et picorer, du cochon d’utiliser son groin pour consommer feuilles, tiges et racines, et de se vautrer dans la boue pour se rafraîchir. Le seul contrat domestique qui puisse être recevable entre l’éleveur et ses animaux serait que les conditions d’élevage soient compatibles avec le comportement global de l’espèce. Seulement, une conduite d’élevage la plus naturelle possible entraîne des contraintes considérables. Il est bien plus facile d’élever des porcs sur caillebotis qu’en plein air, de développer des élevages de chèvres hors sol que de conduire au pâturage ces animaux capricieux, de regrouper dans des usines à lait un nombre très élevé de vaches laitières autour d’un robot de traite plutôt que de déplacer un troupeau entier.
Les conditions contre nature des élevages industriels ont été en vain souvent montrées et dénoncées et au final justifiées par la prétendue nécessité nutritionnelle de fournir à chaque consommateur des quantités suffisamment élevées de produits animaux, à l’instar de ce slogan ministériel abusif des trois produits laitiers par jour, inefficace pour améliorer la santé osseuse. En fait, du point de vue nutritionnel, nos besoins quantitatifs en protéines animales sont très faibles. Cela tombe bien, car pour sortir de l’impasse, nous n’avons pas d’autre choix sur le plan éthique que de pratiquer des élevages plus naturels et moins performants, en améliorant même si possible les pratiques anciennes pas toujours vertueuses. De nouvelles conduites d’élevage, exemplaires sur le plan du respect du comportement animal redonneraient un sens au métier d’éleveur et leur permettraient bien plus sûrement de gagner leur vie par la valorisation de leur production. Certes les prix de la viande et du lait doubleraient certainement, mais d’un autre côté, sur le plan de la santé publique, il serait souhaitable de consommer deux fois moins de produits animaux (qui plus est de meilleure qualité nutritionnelle). L’équation économique serait ainsi largement inchangée pour un bénéfice social et écologique considérable.
Réduire la consommation en produits animaux en Occident
Il est bien connu que les régimes alimentaires de type occidental sont bien trop riches en calories d’origine animale - qui représentent près du tiers de l’énergie ingérée. Cette consommation élevée de produits animaux pose en effet des problèmes de santé publique, en particulier via les graisses animales. Aussi pourrions-nous diminuer leur consommation de moitié : 15 % des calories en produits animaux équivalent encore à une consommation d’un yaourt, d’un œuf et de 100g de viandes par jour, ce qui peut suffire au plus grand nombre ! Inutile de rentrer dans le débat végétarien, une modération très sensible de la consommation de produits animaux serait déjà une solution raisonnable sur le plan nutritionnel et culturel, qui permettrait enfin une conduite plus écologique de l’élevage. Encore faudrait-il que les pouvoirs publics donnent un signal fort aux citoyens pour parvenir à réduire de moitié en 20 ans le niveau de consommation actuel des calories d’origine animale - ils ont plutôt tendance à faire l’inverse - en expliquant les bénéfices et les enjeux d’une telle évolution, à l’instar des objectifs de réduction de gaz à effet de serre.
D’ailleurs, la désintensification de l’élevage est aussi un objectif écologique majeur, puisque ce secteur par ses émissions directes, ou via les activités agricoles qui lui sont liées est responsable selon la FAO de près de 15 % des émissions de gaz à effet de serre. Le développement des élevages industriels de par le monde pour répondre à une consommation toujours croissante de produits animaux devrait déjà être dénoncé dans le cadre de la COP 21, ce qui serait une amorce de changement salutaire.
Développer un autre discours nutritionnel
Cependant l’élévation de la consommation de produits animaux demeure encore un marqueur culturel fort d’un enrichissement économique qu’il serait urgent de dénoncer. Les discours nutritionnels conventionnels ont trop longtemps mis l’accent sur les besoins en protéines si bien que beaucoup d’hommes le perçoivent comme le besoin majeur à assouvir avec les conséquences que l’on sait. Il devient urgent de développer un autre type de vulgarisation, en cessant de justifier voire de soutenir les dérives des élevages actuels et en prônant une consommation modérée de produits animaux, puisque les besoins humains en protéines sont si faciles à couvrir en particulier par une alimentation végétale diversifiée.
Seule une perception plus juste de nos besoins pourrait contribuer à donner une place plus juste à l’élevage dans la chaîne alimentaire. Enfin délivrés de contraintes quantitatives insoutenables, des élevages plus nombreux et mieux répartis sur le territoire pourraient aider au développement d’une agro écologie nouvelle, tout en valorisant des espaces ou des productions agricoles.
Voilà, en tant que citoyens nous sommes responsables par nos choix alimentaires de l’évolution des élevages avec des conséquences écologiques et socio-économiques majeures. Les agriculteurs et les éleveurs devraient également prendre conscience de la complexité du problème et afficher la volonté ferme de le résoudre, plutôt que de chercher à produire toujours plus. Quand au discours politique, il est terriblement absent, comment pourrait-on parler juste à propos de climat ou d’écologie, tout en ayant une approche aussi conventionnelle et désuète en matière d’alimentation humaine pour satisfaire les lobbies. C’est à la société tout entière de remettre en question son approche de l’élevage et de ses habitudes alimentaires. Cela prendra du temps !

Le Pérou se prépare au retour d’El Niño

Le Pérou a conduit, lundi 31 août, des entraînements nationaux en prévision de l’arrivée du phénomène climatique El Niño sur ses côtes. Cette année, ce phénomène lié au réchauffement climatique et qui crée des ouragans particulièrement violents, promet d’être d’une ampleur remarquable.
Les anomalies de température de l’eau dans l’océan Pacifique sont au plus haut depuis le record de 1997-1998. Certains analystes pensent que le prochain épisode du d’El Niño pourrait être le plus puissant depuis les années 1950.
Ce courant équatorial chaud du Pacifique est un phénomène hivernal – il porte le nom d’El Niño, « l’enfant », en référence à Jésus car apparaissant après Noël – et les autorités redoutent qu’il soit particulièrement fort et long, jusqu’au printemps, sur la base des estimations du centre américain de prévision du climat.
Le Pérou a même renoncé à accueillir le Dakar 2016 « en prévision des effets d’une forte magnitude (provoqués par El Niño) sur la population ». Toujours par prévention, le gouvernement a déclaré l’état d’urgence dans 1 200 localités de 14 régions. Environ 65 millions de dollars ont été débloqués pour faire face aux probables désastres naturels.

vendredi 21 août 2015

L’humain, un « insoutenable » superprédateur

Vous vous demandez ce que la science appelle un superprédateur ? Regardez-vous dans le miroir. Une étude publiée dans la revue Science, vendredi 21 août, démontre que l’énorme pression exercée par l’humain sur les populations animales, terrestres comme marines, en fait un prédateur unique, et à même de déséquilibrer totalement les écosystèmes et les chaînes alimentaires, ainsi que de provoquer des extinctions de masse.
L’idée d’une exploitation extrême de la faune sauvage est déjà largement documentée. Mais les travaux de l’équipe de Chris Darimont, de l’université Victoria au Canada, ont cherché à analyser ce tableau de chasse sous un autre prisme : en comparant l’impact de l’homme à celui d’autres prédateurs non humains. Pour cela, les scientifiques ont passé en revue plus de 300 études portant sur 2 125 cas de prédation sur des espèces sauvages (poissons et mammifères terrestres) de chaque continent et océan, à l’exception de l’Antarctique.

Les résultats sont édifiants : les humains exploitent les poissons à un taux 14 fois supérieur, en moyenne, à celui des autres prédateurs marins. Ils tuent aussi des grands carnivores – comme les ours, les loups ou les lions – à un rythme 9 fois supérieur à celui qui voit ces prédateurs s’entre-tuer dans la nature. Cela signifie, concrètement, que l’industrie de la pêche capture 78 % de la population adulte de saumons d’Alaska par an, contre 6 % prélevés par les grizzlys – les plus gros prédateurs de cette espèce. Ou encore que nous chassons chaque année 32 % des pumas américains, contre 1 % tués par leurs congénères.

Cette pression ne s’exerce pas avec la même intensité selon les régions. Ainsi, les chasseurs nord-américains et européens tuent des herbivores à des taux respectivement 7 et 12 fois plus élevés que les chasseurs africains. L’impact de l’industrie de la pêche est trois fois plus prononcé dans l’océan Atlantique que Pacifique.
L’originalité de l’étude est également de comparer les taux de prédation selon les niveaux trophiques des proies – c’est-à-dire, pour simplifier, la place qu’occupe un organisme dans la chaîne alimentaire, allant des planctons aux carnivores qui ne se nourrissent que de carnivores. De manière inattendue, les humains exercent, sur terre, une pression bien plus forte sur les grands carnivores que sur les herbivores, et ce, alors qu’ils ne les consomment pas. En mer, en revanche, l’impact de l’homme est élevé à tous les niveaux, qu’il s’agisse de la pêche aux anchois, aux harengs, ou à la chasse aux requins et aux thons. Les captures de poissons, en hausse malgré la surexploitation des espèces, excèdent aujourd’hui 100 millions de tonnes par an.

Cibler davantage les jeunes

« Ce travail d’analyse gigantesque montre avec précision que nous prélevons trop de proies pour que les espèces puissent renouveler leurs populations, juge Franck Courchamp, directeur de recherches en écologie au Centre national de la recherche scientifique. Contrairement aux autres prédateurs qui sont naturellement régulés par le nombre de proies, nous subsistons grâce à énormément d’espèces à la fois. Et comme nous sommes omnivores, ce qui implique que nous ne dépendons pas des proies pour notre survie, celles-ci diminuent sans que cela ne nous pousse à relâcher la pression. »

Mais au-delà de ces quantités colossales, ce qui différencie l’humain des autres prédateurs et en fait un superprédateur au comportement « insoutenable » selon l’étude, c’est qu’il cible des proies adultes et non pas des jeunes. « Les autres prédateurs tuent en général les jeunes et les faibles, c’est-à-dire ceux qui ne se reproduisent pas. A l’inverse, nous prélevons les plus gros animaux, notamment comme trophées de chasse, qui représentent les populations les plus matures et reproductrices, regrette Heather Bryan, chercheuse à l’institut Hakai de l’université de Victoria, et l’une des coauteures de l’étude. Cela a un double impact sur la population exploitée, du fait des prises directes et du déficit de reproduction pour le futur. »
Les scientifiques appellent alors à changer de techniques de chasse et de pêche, pour cibler davantage les jeunes – une idée qui va à l’encontre des recommandations actuelles. Surtout, la prédation humaine doit être considérablement réduite. « Les niveaux décrits par les scientifiques comme durables sont encore trop élevés, poursuit la biologiste. Nous devrions nous inspirer du comportement des prédateurs non humains, qui représentent des modèles de soutenabilité à long terme. »

Record mondial de chaleur pour les 7 premiers mois de 2015

Les sept premiers mois de 2015 ont été les plus chauds enregistrés à la surface du globe depuis le début des relevés de températures, en 1880, a annoncé jeudi 20 août l’Agence américaine océanique et atmosphérique (NOAA).
La température mondiale entre janvier et juillet a dépassé de 0,85 °C la moyenne enregistrée au XXe siècle, et surpasse de 0,09 °C le précédent record, établi en 2010, précise le NOAA. Cette « surchauffe » est surtout notable au niveau des terres émergées, où la température a dépassé de 1,34 °C la moyenne.

Juillet, mois le plus chaud depuis 1880

L’agence américaine confirme également que le mois de juillet a été le plus chaud enregistré dans le monde depuis 1880 (+ 0,81 °C par rapport à la moyenne du XXe siècle), notamment en raison de températures particulièrement douces dans le Pacifique et dans l’océan Indien. Juillet 2015, qui a enregistré une température moyenne de 16,61 °C, a dépassé le précédent record qui datait seulement de 2014.
En France, juillet 2015, marqué par une hausse de 2,1 °C par rapport à la normale, est le troisième mois de juillet le plus chaud depuis 1900, selon Météo France. Les fortes températures se sont combinées à des déficits de précipitations qui ont entraîné une sécheresse des sols dans une grande partie du pays.
L’accumulation de records de chaleur accrédite le scénario d’un réchauffement climatique rapide de la planète, que la communauté internationale doit tenter de contenir en trouvant un accord lors de la conférence mondiale sur le climat (COP 21), qui se tiendra en décembre à Paris.

En savoir plus sur http://www.lemonde.fr/climat/article/2015/08/20/record-mondial-de-chaleur-pour-les-sept-premiers-mois-de-2015_4731801_1652612.html#2iJqVXSXdeG07dQK.99

mercredi 19 août 2015

Climat : El Niño devrait durer jusqu'au printemps 2016

Il y a plus de 90% de chance qu'El Niño dure jusqu'à l'hiver 2015-2016 et environ 85% de chance qu'il dure jusqu'au printemps 2016, a annoncé le Centre de prédiction climatique (CPC) des Etats-Unis, jeudi 13 août. Au cours du mois de juillet, l'agence américaine a notamment relevé des anomalies de la température de surface de l'océan Pacifique de l'ordre de +1°C, dans la zone équatoriale, et de +2°C, à l'Est.
L'ensemble des données relatives au phénomène climatique "traduisent un El Niño significatif et qui se renforce". En conséquence, les modèles climatiques anticipent un phénomène "fort" qui devrait atteindre son pic au début de l'hiver prochain et impacter l'hémisphère Nord jusqu'au printemps.
Météo France à l'affut
Début août, Météo France rappelait qu'El Niño avait des répercussions sur les températures et les précipitations françaises.
Selon ses prévisions saisonnières, "le scénario le plus probable est celui d'un trimestre plus chaud que la normale sur l'Europe [d'août à octobre], principalement sur l'Europe centrale et les régions méditerranéennes. Sur la France métropolitaine, ce scénario chaud est privilégié avec une probabilité plus élevée sur la moitié est du pays".
Pour rappel, El Niño est un courant maritime caractérisé par une montée des températures du Pacifique Est. Il a des impacts climatiques variés dans les deux hémisphères.

mardi 18 août 2015

L’ère industrielle a mis fin à 1 800 ans de refroidissement des océans

L’entrée dans l’ère industrielle a marqué, pour les océans de la planète, un profond bouleversement : alors que depuis près de deux millénaires, leurs températures baissaient de façon continue, le réchauffement dû aux activités humaines a inversé la tendance. C’est ce que fait apparaître une étude internationale publiée lundi 17 août dans la revue Nature Geoscience et à laquelle plusieurs équipes françaises ont collaboré.
Sur l’ensemble des mers du globe, des tropiques jusqu’à proximité des pôles, les chercheurs ont reconstruit les variations de températures des eaux de surface au cours des deux mille ans passés. Cela, à partir des données extraites du zooplancton fossile enfoui dans les sédiments marins ou encore de certaines molécules organiques. La teneur en magnésium et en calcium pour les premiers et le type de lipides qu’elles contenaient pour les secondes renseignent sur la chaleur des eaux superficielles où évoluaient ces organismes.

Il ressort que « les températures de surface moyennes de l’océan ont régulièrement diminué entre le Ier et le début du XIXe siècles ». L’étude ne chiffre pas cette baisse en degrés Celsius, les moyennes recouvrant de fortes disparités régionales. « Globalement, le refroidissement passé est plus prononcé près des pôles, avec des valeurs pouvant atteindre 2,5 à 3 °C, que dans les zones tropicales, où il se situe autour de 1 °C sur les deux derniers millénaires », indique Guillaume Leduc, chercheur du CNRS au Centre européen de recherche et d’enseignement de géosciences de l’environnement, cosignataire de l’étude.
« Jusqu’à présent, nous ne disposions de relevés de températures, mesurées par des navires océanographiques, que pour le siècle dernier, ajoute Marie-Alexandrine Sicre, directrice de recherche du CNRS au Laboratoire d’océanographie et du climat, qui a également participé à ce travail. Pour la première fois, nous avons une vision rétrospective de l’évolution climatique de l’océan sur deux millénaires. Le refroidissement que nous avons mis en évidence jusqu’au début de l’ère industrielle est une découverte. »
Comment expliquer ces presque deux millénaires de rafraîchissement des mers ? Les chercheurs ont fait tourner des modèles – permettant de remonter jusqu’aux années 800 seulement – en y introduisant différents facteurs possibles de « forçage » : variations de l’orbite de la Terre, intensité du rayonnement solaire, gaz à effet de serre, déforestation ou volcanisme. Conclusion : sur la période des années 800 à 1 800, l’activité volcanique est le seul paramètre susceptible d’expliquer ce coup de froid.
Activités humaines
On savait déjà que les grandes éruptions volcaniques – telles que celles du Pinatubo (Philippines, 1991), du Krakatoa (Indonésie, 1883) ou du Tambora (Indonésie, 1815) – peuvent faire chuter temporairement les températures à la surface de la Terre, parfois pendant plusieurs années. Les cendres et les gaz qu’elles propulsent jusqu’à la stratosphère se transforment en effet en aérosols qui font écran aux rayonnements solaires. L’étude montre que ces éruptions ont aussi pour conséquence « un refroidissement à long terme de la surface des océans », explique Helen McGregor (université de Wollongong en Australie), première signataire de l’article.
Tout a donc changé avec les débuts de l’industrialisation. En raison du réchauffement lié aux activités humaines, les océans montent progressivement en température. « Il est frappant de constater que le changement climatique d’origine anthropique est d’ores et déjà enregistré dans les sédiments marins qui se sont déposés au cours des deux derniers siècles », observe Guillaume Leduc.
Cette bascule est d’autant plus notable qu’une grande partie de l’énergie accumulée dans le système climatique, sous l’effet du réchauffement global, est absorbée par les océans. Et que ceux-ci jouent donc un rôle crucial dans la régulation du climat de notre planète. Les éruptions volcaniques ne s’étant pas arrêtées avec l’ère industrielle, il est vraisemblable, estime Marie-Alexandrine Sicre, que leur effet « rafraîchissant » sur les océans tempère le réchauffement réel des mers directement induit par l’homme.

mardi 23 juin 2015

Biodiversité : 130.000 espèces connues ont déjà disparu

Une équipe pluridisciplinaire de chercheurs français vient de prouver que 7% de la biodiversité terrestre a déjà disparu. Ces chercheurs de l'Institut de systématique, évolution et biodiversité, du Centre des sciences de la conservation et de l'université d'Hawaï ont publié leurs travaux dans les Proceedings of the National Academy of Science (PNAS).

Pour arriver à ce résultat, les chercheurs se sont intéressés aux mollusques terrestres (escargots et limaces). Pour 200 espèces tirées au sort, les chercheurs ont demandé à 35 experts d'évaluer si elles étaient éteintes, encore vivantes ou s'ils ne pouvaient pas se prononcer. En parallèle, toutes les informations existantes depuis deux siècles sur ces 200 espèces ont été rassemblées. "Les résultats des deux approches sont remarquablement concordants. Extrapolés aux autres compartiments de la biodiversité, ces résultats permettent donc d'estimer que nous aurions déjà perdu, non pas 1,3% mais 7% de la biodiversité terrestre de la planète", expliquent les chercheurs dans un communiqué.

En réalisant cette expérience, les chercheurs ont souhaité s'affranchir d'un biais persistant dans l'évaluation du niveau d'extinction des espèces. La statistique de "1,3%" à l'origine de la théorie de la sixième extinction est basée sur la liste rouge de l'UICN pour les oiseaux et mammifères. Les chercheurs disposent de données robustes pour ces vertébrés supérieurs mais ces espèces concentrent aussi l'essentiel des efforts de conservation. Ainsi, ce "1,3%" reflète, certes, la crise de la biodiversité (ce chiffre est en effet 100 à 200 fois supérieur au "bruit de fond" de l'extinction naturelle) ; mais il reflète aussi le succès des actions de conservation. Il est donc sous-estimé. De ce fait, les chercheurs ont choisi de s'intéresser aux mollusques terrestres, des invertébrés très peu utilisés pour quantifier plus précisément la crise de la biodiversité.

lundi 8 juin 2015

Nous avons à notre disposition le big data de la biodiversité marine

De 2009 à 2013, l'expédition Tara Océans a prélevé des milliers d'échantillons de l'écosystème planctonique. Le secrétaire de l'expédition Romain Troublé revient pour Actu-environnement sur les premiers résultats scientifiques qui en découlent et les nombreuses recherches qu'ils laissent entrevoir.

Actu-environnement : Deux ans après le retour de l'expédition Tara Océans, cinq études publiées dans la revue Science présentent les premières analyses des 35.000 échantillons de plancton collectés dans tous les océans du monde. Quelles sont les premières découvertes ?
Romain Troublé : Trois des cinq études publiées nous apprennent beaucoup sur la diversité du monde planctonique. Ces virus, bactéries, protistes et autres micro-animaux (krill, larves) sont beaucoup plus fivers que ce que nous imaginions. Alors que jusqu'à maintenant 39 virus marins avaient été identifiés, l'expédition a permis d'en découvrir plus de 5.000 ! Une expédition américaine avait fait un premier état des lieux des bactéries marines mais nous en avons découvert mille fois plus.
Pour l'instant 60 stations de prélèvement sur les 210 de l'expédition Tara Oceans ont été analysées. Les chercheurs constatent que dans chaque nouvel échantillon que l'on analyse, on ne retrouve pas ou peu de nouvelles espèces. Les données de l'Arctique en révèleront sans doute d'autres, mais on voit désormais la quasi-totalité du contenu de la boîte noire qu'est l'océan entre 0 et 500m de profondeur. Il faut maintenant travailler sur les données pour savoir précisément qui fait quoi, comment, et avec qui.
AE : Pour chaque échantillon d'eau prélevé, vous avez mesuré les conditions physico-chimiques du milieu. Quelle corrélation observez-vous entre la biodiversité et ces paramètres ?
RT : Deux des cinq études publiées ont mis en exergue l'influence des paramètres environnementaux. La température est de loin celui qui impacte le plus l'écosystème. A partir des bactéries présentes dans un échantillon, on peut en déduire la température du milieu dans lequel elles ont été prélevées. C'est très corrélé. La température semble affecter à la fois la diversité bactérienne et également les collaborations entre les espèces. Or dans cet écosystème planctonique, 80% des espèces interagissent entre elles : prédation, parasitisme, collaboration, symbiose...
Les changements climatiques et les variations de température qui vont en découler dans l'océan vont donc impacter la structure et les fonctions de l'écosystème planctonique. Or, le plancton produit l'oxygène que l'on respire. Il est la base de la chaîne alimentaire et constitue un puits de carbone, dans quel sens ? La question reste entière !
AE : Trois ans pour analyser autant d'échantillons c'est court. Comment faites-vous ?
RT : 
L'analyse est assez rapide et efficace car les protocoles d'échantillonnage, d'étiquetage et les procédures d'analyse ont été précisément préparés en amont de l'expédition.
 Les équipes scientifiques ont ensuite opté pour le séquençage génomique massif afin d'identifier les espèces présentes : on appelle cela la métagénomique. Les échantillons sont placés dans un séquenceur qui décode de petites parties d'ADN. Une fois ces petits bouts d'ADN reconstitués en séquences par des ordinateurs, ces informations sont comparées avec des bases de données connues. En ce qui nous concerne, un tiers ne correspond à rien. Par contre, on reconnaît certains marqueurs qui permettent d'en déduire si on est en présence d'un virus, d'une bactérie ou d'un protiste, etc.
La génomique est selon moi "le microscope" du troisième millénaire. On ne voit plus les formes mais l'ADN du vivant. Pour partie, ces analyses ont été soutenues à travers le projet Oceanomics grâce au financement des Investissements d'Avenir. Au Génoscope du CEA, près de 90 ingénieurs-chercheurs ont travaillé pendant deux ans au séquençage des échantillons de Tara Oceans. Résultat, le monde scientifique dispose aujourd'hui de la plus grande base de données de l'humanité sur un écosystème "complet". C'est le big data de la biodiversité marine !
AE : Cette base de données est utilisable par tous les scientifiques ?
RT : Tous les résultats sont enregistrés dans deux bases de données publiques dont celle de l'European Bioinformatics Institute à Cambridge au Royaume-Uni qui stocke toutes les données génomiques européennes. Les données physico-chimiques et environnementales sont publiées sur la base de données Pangaea en Allemagne. Ces deux bases sont reliées entre elles. Les données ont été formatées pour être compréhensibles et utilisables par le plus grand nombre de disciplines scientifiques. C'est remarquable ! Je précise qu'à partir des données de Tara Océans, il n'est pas possible de breveter une protéine ou une molécule. Les bases de données permettent de savoir quelles espèces sont présentes, quels gênes s'expriment, pour quelles fonctions… Mais pour développer des biotechnologies il faut cultiver les organismes intéressants. Il faudra donc retourner les chercher en mer, les pêcher vivants et savoir comment les cultiver. Au regard du niveau d'interactions des espèces entre elles, ce ne sera sans doute pas chose facile mais tout à fait possible.
AE : A quelles recherches peuvent servir ces données ?
RT : 
Ces données vont pouvoir alimenter les modèles climatiques pour essayer de prédire l'impact des évolutions des températures sur les écosystèmes océaniques, sur la chaîne alimentaire, sur la pompe à carbone, la présence de nitrate dans l'eau, le niveau d'oxygène produit, et bien d'autres choses qu'on ne soupçonne pas aujourd'hui. Faute de connaissances, les modèles du GIEC par exemple ne prennent pas en compte la réponse de ces écosystèmes marins au changement climatique. Pourtant, la vie marine joue un véritable rôle sur l'atmosphère.
Ces données vont pouvoir alimenter pendant plusieurs décennies tous les grands domaines de la recherche : médecine, écologie scientifique (connaissances de l'écosystème marin), écologie (comment évolue l'écosystème face aux changements globaux) mais également la recherche sur l'évolution des espèces.
Par la génomique les scientifiques peuvent remonter le temps et voir l'évolution des gènes et ainsi parfaire les arbres de l'évolution. Sachant que les scientifiques utilisent encore les données de Darwin alors qu'il est revenu il y a plus de 150 ans, vous imaginez le temps que prendra l'utilisation de ces données !

Les fleuristes, victimes ignorées des pesticides : « Si l’on m’avait mise en garde, ma fille serait encore là »

  Dès 2017, des tests menés par  60 millions de consommateurs  sur des roses commercialisées par dix grandes enseignes en France révélaient ...