[RC/CC] Climat / Changement climatique et effet de serre

Discussions concernant les conséquences sur l'environnement de la course aux ressources.

Modérateurs : Rod, Modérateurs

Avatar de l’utilisateur
mahiahi
Modérateur
Modérateur
Messages : 6954
Inscription : 14 sept. 2004, 14:01
Localisation : île de France

Message par mahiahi » 02 oct. 2005, 10:24

Faut surtout se méfier de la vision d'une nature faite de cycles longs et doux : le climat n'a jamais été stable et il ne le sera pas avant que la Terre ne soit avalée par le Soleil (et encore, il y aura toujours de l'évolution ;) )

Avatar de l’utilisateur
nopasaran
Goudron
Goudron
Messages : 178
Inscription : 23 avr. 2005, 00:35

Message par nopasaran » 03 oct. 2005, 20:31

greenchris a écrit :Kraveun, si tu continue comme ça, tu vas avoir des suicides surla conscience :evil: :evil:
Pour de remonter le moral, il suffit d'attendre 60000 ans et la nature fait elle-même le travail ;)


Effet de serre : la Terre a sa propre solution

L'augmentation de la productivité biologique des océans serait à l'origine de la fin du réchauffement de la Terre il y a 55 millions d'années.

La Terre serait peut-être capable de s'occuper elle-même du problème de l'effet de serre. Des scientifiques anglais et américains ont en effet fourni la preuve qu'une intensification de production de biomasse dans l'océan a pu venir à bout du réchauffement soudain qu'a connu la planète il y a 55 millions d'années.

Au début du Paléogène, période qui s'étend de 65 à 23,5 millions d'années, la température moyenne était supérieure d'environ sept degrés à celle d'aujourd'hui. Une végétation tropicale s'épanouissait des deux côtés de la Manche et tortues et alligators prospéraient sur les îles de l'océan arctique. Cela n'a toutefois pas empêché une nouvelle vague de chaleur de frapper la Terre entre le Paléocène (65 à 55 millions d'années) et l'Eocène (55 à 34 millions d'années). La température des eaux côtières de l'Antarctique serait alors passée de treize à vingt degrés Celsius.

Aujourd'hui, les spécialistes mettent ce réchauffement au compte d'une augmentation de la quantité de dioxyde de carbone dans l'atmosphère, provoquée par le volcanisme et peut-être aussi par la décomposition des hydrates de méthane. Ces cristaux solides faits de méthane et de glace auraient ainsi libéré près de mille cinq cents milliards de tonnes de carbone.

Comment la planète a-t-elle pu se dépêtrer de cette situation ? La réponse se trouve dans les sédiments océaniques. Quatre chercheurs de l'université d'Oxford, de l'Institution océanographique Woods Hole et de l'université de Californie ont étudié deux carottages, l'un provenant de l'Antarctique et l'autre du Nord-Ouest de l'Atlantique, à la recherche de baryte (1). Ce minerai, composé de sulfate de baryum, a la particularité d'être corrélé aux flux de carbone dans les eaux de surface.

L'analyse montre clairement qu'un regain de productivité biologique dans les océans a accompagné le dégazage du méthane et l'augmentation des températures. "Alors que le climat devenait plus humide, les pluies ont pu intensifier l'érosion des continents et ainsi provoquer un afflux de matière nutritive dans les océans", expliquent les auteurs. Conséquence directe : la multiplication de phytoplancton dans les eaux de surface. Ce dernier, par photosynthèse, aurait alors absorbé le surplus de carbone atmosphérique. "Ces mécanismes de rétroaction ont joué le rôle d'une immense pompe biologique, réduisant la concentration atmosphérique des gaz à effet de serre et imposant le retour de la Terre à des conditions identiques à celles de la fin du Paléocène", ajoutent les scientifiques.

Il est possible qu'un tel scénario puisse se rejouer dans le futur, étant donné la hausse continuelle des quantités de dioxyde de carbone due à l'activité humaine. Mais que les gouvernements, les organisations internationales et les industriels n'attendent pas les bras croisés que la planète fasse le travail à leur place. Il lui a fallu près de soixante mille ans pour retrouver une température "décente" et la pollution des océans pourrait être un sérieux frein à la croissance du phytoplancton.

Avatar de l’utilisateur
lionstone
Gaz naturel
Gaz naturel
Messages : 916
Inscription : 08 avr. 2005, 18:40
Localisation : nulpart

Message par lionstone » 14 oct. 2005, 09:37

Les ouragans s’intensifient

http://sciences.nouvelobs.com/sci_20050 ... .html?1629

La hausse des températures à l’échelle de la planète va-t-elle produire des ouragans de plus en plus violents ? L’ouragan Katrina qui a ravagé la Louisiane a remis cette question au premier plan. D’après une étude publiée aujourd’hui dans la revue Science la force des ouragans a augmenté au cours des 35 dernières années, au moment où la température augmentait à la surface des océans.

Ces violentes tempêtes, appelées ouragans, typhons ou cyclones selon les régions, se nourrissent de la chaleur des océans pour acquérir de la force. Logiquement, une hausse des températures à la surface des océans devrait accroître le nombre et l’intensité de ces cyclones. L’équipe de Peter Webster (Institute of Technology, Atlanta) a compilé les données de 35 ans de tempêtes tropicales à travers le globe. Ces chercheurs ont constaté que le nombre de tempêtes de catégorie 4 et 5 avait presque doublé en 35 ans : elles représentaient 20% des ouragans dans les années 70 contre 35% ces dix dernières années.

Ces résultats accréditent l’hypothèse d’un lien entre réchauffement climatique et intensification des tempêtes tropicales, mais la nature de ce lien est complexe, avertissent les chercheurs. Par exemple, il est difficile d’expliquer pourquoi le nombre total d’ouragans a diminué au cours des 10 dernières années, au moment où la hausse des températures des océans est la plus forte.

Un ouragan est passé près de chez nous
Laurence Dardenne

Il n'aura duré que quelques heures, mais il se situait à environ 500 km des côtes du Portugal.
Un phénomène de ce type n'a, semble-t-il, jamais été observé par les satellites. S'il venait à se répéter, il y aurait lieu de s'inquiéter.

Autant les températures plus qu'agréables de cet été indien n'ont rien d'exceptionnel, selon Marc Vandiepenbeeck, de l'Institut royal météorologique de Belgique, autant l'ouragan qui s'est développé, quelques heures durant, mardi, au large du détroit de Gibraltar, constitue, lui, une véritable «bombe météorologique».

Pas assez d'énergie

Certes, l'ouragan n'était «que» de catégorie 1, certes encore, il n'a vécu que quelques heures. Il n'empêche que le phénomène demeure tout à fait exceptionnel à cet endroit, en l'occurrence de 400 à 500 km des côtes du Portugal, et jamais observé jusqu'ici. «S'il s'est rapidement mué en tempête tropicale, c'est qu'il n'y a pas suffisamment d'énergie sur l'océan Atlantique, à cette latitude, pour qu'il s'auto-alimente et qu'il devienne destructeur, nous explique Marc Vandiepenbeeck, il n'aurait donc pas pu toucher l'Europe.»
Moderacene: le site de la moderation brut

Avatar de l’utilisateur
mahiahi
Modérateur
Modérateur
Messages : 6954
Inscription : 14 sept. 2004, 14:01
Localisation : île de France

Message par mahiahi » 14 oct. 2005, 10:18

lionstone a écrit :L’équipe de Peter Webster (Institute of Technology, Atlanta) a compilé les données de 35 ans de tempêtes tropicales à travers le globe. Ces chercheurs ont constaté que le nombre de tempêtes de catégorie 4 et 5 avait presque doublé en 35 ans
Donc, depuis le début de la collecte à grande échelle ; sauf que les moyens d'observation n'ont cessé de se perfectionner ; c'est un peu comme les problèmes de dents de sagesse recensés qui augmentent avec la montée des collections de données dentaires.
lionstone a écrit : Un ouragan est passé près de chez nous
Laurence Dardenne

Il n'aura duré que quelques heures, mais il se situait à environ 500 km des côtes du Portugal.
Un phénomène de ce type n'a, semble-t-il, jamais été observé par les satellites.
Je doute qu'un tel phénomène ait jamais été perceptible avant les satellites

Dagobert
Brut léger
Brut léger
Messages : 441
Inscription : 29 juin 2005, 15:47
Localisation : Bruxelles

Message par Dagobert » 14 oct. 2005, 10:33

Aucune logique ne nous met à l'abris de cyclone tropicaux.
Il faudra simplement qu'il frappe nos contrées pour encore augmenter la prise de conscience du réchauffement climatique. Alors peut-être les décideurs se manieront le train!! :smt015

patrickbateman
Kérogène
Kérogène
Messages : 33
Inscription : 19 août 2005, 18:40
Localisation : 35, Rennes

Message par patrickbateman » 14 oct. 2005, 18:31

Bon, je sais que ma reflexion relève plus de la météo que du climat mais vous ne trouvez pas qu'il fait étonnamment doux ces jours-ci. J'ai du mal à savoir, est-ce normal pour un mois d'octobre ou est-ce au dessus des normales saisonnières ?
Je suis rennais et, en début de semaine, il faisait aux alentours de 20°C le soir à 21h00.

_____________

Pourquoi devrions-nous accepter d'absorber des poisons sous prétexte qu'ils ne sont pas tout à fait meurtriers, de vivre dans une ambiance pas tout à fait insupportable, de fréquenter des êtres pas tout à fait ennemis, d'entendre des bruits de moteurs pas tout à fait assez stridents pour nous rendre fous ? Qui donc voudrait vivre dans un monde dont la caractéristique est de n'être pas tout à fait mortel ?
Rachel Carlson, Le Printemps silencieux, traduction française, Paris, 1963

Avatar de l’utilisateur
mahiahi
Modérateur
Modérateur
Messages : 6954
Inscription : 14 sept. 2004, 14:01
Localisation : île de France

Message par mahiahi » 14 oct. 2005, 18:47

Chez moi on a commencé par brouillard et brumes, puis l'été indien s'est installé : profitez-en car ça doit se dégrader (tout en restant chaud pour la saison) jusqu'au mois prochain... et puis après, le mercure va méchamment descendre!

Enfin, si j'en crois les prévisions

Geispe
Hydrogène
Hydrogène
Messages : 1552
Inscription : 09 mars 2005, 17:16
Localisation : Vosges du Nord

Message par Geispe » 14 oct. 2005, 19:55

Bon, je sais que ma reflexion relève plus de la météo que du climat mais vous ne trouvez pas qu'il fait étonnamment doux ces jours-ci. J'ai du mal à savoir, est-ce normal pour un mois d'octobre ou est-ce au dessus des normales saisonnières ?
Je suis rennais et, en début de semaine, il faisait aux alentours de 20°C le soir à 21h00.
il me semble que les températures diurnes sont au-delà des normales saisonnières... mais les nocturnes aussi... dans le sens inverse. Ces écarts ne sont pas très clairs : c'est un temps que l'on retrouve dans le désert avec un soleil brûlant le jour (j'ai planté des branches de saule : le soir toutes les feuilles étaient calcinées... jamais vu çà) et un froid glacial la nuit. Et la deshydratation se poursuit...

Avatar de l’utilisateur
mahiahi
Modérateur
Modérateur
Messages : 6954
Inscription : 14 sept. 2004, 14:01
Localisation : île de France

Message par mahiahi » 14 oct. 2005, 19:59

Geispe a écrit :
Bon, je sais que ma reflexion relève plus de la météo que du climat mais vous ne trouvez pas qu'il fait étonnamment doux ces jours-ci. J'ai du mal à savoir, est-ce normal pour un mois d'octobre ou est-ce au dessus des normales saisonnières ?
Je suis rennais et, en début de semaine, il faisait aux alentours de 20°C le soir à 21h00.
il me semble que les températures diurnes sont au-delà des normales saisonnières... mais les nocturnes aussi... dans le sens inverse. Ces écarts ne sont pas très clairs : c'est un temps que l'on retrouve dans le désert avec un soleil brûlant le jour (j'ai planté des branches de saule : le soir toutes les feuilles étaient calcinées... jamais vu çà) et un froid glacial la nuit. Et la deshydratation se poursuit...
C'est logique : quand il n'y a pas de nuage, la chaleur peut descendre sur la Terre le jour et... remonter vers l'espace la nuit!

Avatar de l’utilisateur
MadMax
Modérateur
Modérateur
Messages : 2990
Inscription : 12 août 2005, 08:58
Localisation : Dans un cul-de-sac gazier

Message par MadMax » 14 oct. 2005, 22:50

International

Record de chaleur dans le monde en septembre

AP | 14.10.05 | 21:33


WASHINGTON (AP) -- Le globe a connu son mois de septembre le plus chaud depuis que les archives des températures existent, selon les données publiées vendredi par le centre des données climatiques du Service océanique et atmosphérique américain.
Avec en moyenne 0,63 degrés Celsius de plus que la normale, septembre 2005 est le mois le plus chaud depuis 1880, début des archives fiables. La deuxième position est celui de septembre 2003.
Sur Internet:
Service océanique et atmosphérique américain (National Oceanic and Atmospheric Administration): http://www.noaa.gov
AP

Avatar de l’utilisateur
MadMax
Modérateur
Modérateur
Messages : 2990
Inscription : 12 août 2005, 08:58
Localisation : Dans un cul-de-sac gazier

Message par MadMax » 17 oct. 2005, 22:01

Le temps aux Etats-Unis au siècle prochain: chaud, chaud, chaud (étude)
AFP 17.10.05 | 21h36





- Le territoire américain sera soumis dès la fin du XXIème siècle à des températures plus élevées et les zones cotières du sud, ravagées il y a quelques semaines par des cyclones, recevront des précipitations plus fortes, selon une étude climatologique publiée lundi.

Les gaz à effet de serre seront deux fois plus intenses qu'aujourd'hui, précise cette étude publiée dans le journal de l'Académie nationale des sciences.


"Imaginez le temps pendant les 2 semaines les plus chaudes de l'année. D'ici la fin du siècle on pourrait avoir des températures de ce genre durant 2 mois", affirme l'un des auteurs de l'étude, Noah Diffenbaugh.

Les recherches pour cette étude ont été conduites sur les super-ordinateurs de l'université Purdue dans l'Indiana (nord) et elle est, selon ses auteurs, la plus complète menée à ce jour.

Elle prédit que le sud-ouest des Etats-Unis pourrait être soumis à une augmentation de 500% des périodes de fortes chaleurs, ce qui devrait se traduire par une nette réduction des ressources en eau dans cette région alors que sa population est en augmentation.

La région du golfe du Mexique, touchée en août et septembre par les cyclones Katrina et Rita, recevrait davantage de précipitations durant une saison des pluies plus courte. Quant aux régions du nord-est, elles devraient connaître des étés plus chauds mais aussi plus brefs.

Dans leur ensemble, les Etats-Unis seront soumis à un réchauffement de la température, estime l'étude.

"Les changements prédits seront suffisants pour avoir un impact sensible sur l'économie et les infrastructures du pays", ajoute Noah Diffenbaugh, qui est chargé de recherches en sciences terrestres et atmosphériques à l'université Purdue.

Les auteurs ont aussi véfifié l'efficacité de leur modèle en analysant les changements de temps survenus entre 1961 et 1985.

"Le modèle à fonctionné de manière admirable", a affirmé Diffenbaugh en estimant qu'il était l'outil le plus performant à ce jour aux Etats-Unis pour prédire les changements de climat.

Avatar de l’utilisateur
MadMax
Modérateur
Modérateur
Messages : 2990
Inscription : 12 août 2005, 08:58
Localisation : Dans un cul-de-sac gazier

Message par MadMax » 20 oct. 2005, 23:22

Courrier international - n° 768 - 21 juil. 2005

Enquête / Sur le réchauffement de la planète

3- CIVILISATIONS - Les apprentis sorciers du climat

Dans le passé, plusieurs civilisations ont disparu à cause de changements climatiques naturels. Les scientifiques essaient aujourd’hui de mesurer l’ampleur des modifications dont nous sommes responsables. Le danger est clair et immédiat.


Le premier empire du monde a été fondé voilà 4 300 ans, entre le Tigre et l’Euphrate, par Sargon d’Akkad. Le récit détaillé de sa création nous est parvenu sous une forme qui tient tout autant de l’histoire que du mythe. En akkadien, Sargon Sharrukin signifie “le roi légitime”. Il semble pourtant presque certain que Sargon était un usurpateur. Enfant, il aurait été retrouvé, comme Moïse, flottant sur le fleuve dans une corbeille en joncs. Puis il devint échanson du roi de Kish, l’une des plus puissantes cités de l’antique Babylone.
Avant l’avènement de Sargon, les villes babyloniennes – Kish, mais aussi Ur, Uruk et Umma – étaient essentiellement des cités-Etats indépendantes. Elles nouaient parfois des alliances éphémères – les tablettes cunéiformes témoignent de célébrations de mariages stratégiques et d’échanges de cadeaux diplomatiques –, mais elles étaient plus souvent en guerre les unes contre les autres. Sargon soumit tout d’abord les cités dissidentes de Babylone, puis entreprit la conquête – ou plus exactement le sac – de régions comme l’Elam, dans le sud-ouest de l’Iran actuel. Il avait établi sa capitale dans la ville d’Akkad, dont les vestiges seraient au sud de Bagdad. Certains textes affirment que, “chaque jour, 5 400 hommes mangeaient en sa présence”, ce qui donne sans doute à entendre qu’il entretenait une importante armée de métier. A l’apogée de sa puissance, l’empire akkadien étendait son hégémonie jusqu’aux plaines du Khabour, dans le nord-est de la Syrie, une région précieuse pour sa production céréalière. Sargon se fit appeler “roi du monde” et, plus tard, l’un de ses descendants s’arrogea le titre plus retentissant encore de “roi des quatre coins de l’univers”.
Sargon aurait régné durant 56 années. A sa suite, ses deux fils occupèrent le pouvoir pendant 24 ans, puis l’un de ses petits-fils, Naram-Sîn – qui se proclamera de nature divine –, fut élevé sur le trône. Celui-ci céda à son tour le pouvoir à son fils. Après quoi, Akkad s’effondra du jour au lendemain.
La lamentation de La Malédiction d’Akkad fut écrite moins de un siècle après la chute de l’empire. Elle attribue la ruine d’Akkad à une offense faite aux divinités. Naram-Sîn, rendu furieux par des oracles funestes, mit à sac le temple d’Enlil, dieu du vent et des tempêtes, qui, en représailles, causa sa perte et celle de son peuple.
On a cru pendant des années que, tout comme la naissance de Sargon, les événements décrits dans La Malédiction d’Akkad étaient purement imaginaires. Puis, en 1978, après avoir étudié à la loupe une série de cartes à la bibliothèque Sterling de l’université Yale, l’archéologue Harvey Weiss repéra un tumulus intriguant à la confluence de deux fleuves asséchés dans les plaines du Khabour, près de la frontière irakienne. Il entreprit des démarches auprès du gouvernement syrien pour effectuer des fouilles sur le tumulus et, à sa grande surprise, l’autorisation lui fut presque aussitôt accordée. Quelque temps plus tard, il mettait au jour une cité perdue, l’ancienne Shekhna, aujourd’hui rebaptisée Tell Leilan.

L’une des plus graves catastrophes démographiques de l’histoire

Au cours des dix années suivantes, Weiss et une équipe d’étudiants et d’ouvriers syriens découvrirent ainsi une acropole, un quartier résidentiel très densément peuplé desservi par une route pavée, et un immense silo à grains subdivisé en plusieurs salles. Les fouilles leur permirent d’établir que les gens de l’antique Shekhna cultivaient l’orge et plusieurs variétés de blé, qu’ils utilisaient des chariots pour transporter leurs récoltes et qu’ils avaient mis au point un système d’écriture inspiré de celui de leurs voisins du Sud, dont la civilisation était plus avancée. Les archéologues révélèrent en outre des milliers de tessons de poteries datant de l’empire akkadien qui indiquaient que la population recevait ses rations alimentaires dans des récipients produits en série, d’une contenance de un litre.
Sur tous les sites de fouilles, Weiss et son équipe trouvèrent également une couche de terre qui ne présentait aucun signe d’occupation humaine. Cette strate, de près de un mètre d’épaisseur, correspondait à l’époque comprise entre 2200 et 1900 av. J.-C., et indiquait qu’au moment de la chute de l’empire d’Akkad, Shekhna avait été totalement désertée. En 1991, Weiss envoya des échantillons de cette terre à un laboratoire. Les analyses montrèrent que, vers 2200 av. J.-C., toute trace de vie, jusqu’aux vers de terre, avait disparu de la ville. Weiss en conclut que le sol inerte de Shekhna et l’effondrement de l’Empire akkadien étaient les conséquences d’un seul et même phénomène : une sécheresse si prolongée et si sévère qu’elle constituait à ses yeux un exemple de “changement climatique”.
Depuis, la liste des cultures dont la disparition a été liée à un changement climatique n’a cessé de s’allonger. Citons, entre autres, la civilisation maya classique, qui s’est effondrée à l’apogée de son développement, vers l’an 800 de notre ère ; la civilisation de Tiahuanaco, qui prospéra sur les rives du lac Titicaca, dans les Andes, pendant plus d’un millénaire, puis s’évanouit vers 1100 de notre ère ; et l’Ancien Empire égyptien, qui s’effondra vers la même époque que l’Empire akkadien. Dans chacun de ces cas, ce qui n’était à l’origine qu’une hypothèse très audacieuse s’est trouvé peu à peu confirmé par des informations concrètes, pour paraître de plus en plus évident. Ainsi, l’idée que la civilisation maya ait pu être anéantie par un changement climatique est avancée pour la première fois dès la fin des années 1980, mais, à l’époque, il n’y avait pas suffisamment de preuves climatologiques pour l’étayer. Puis, vers 1995, des scientifiques américains qui étudient des carottes sédimentaires du lac Chichancanab, dans le centre-nord du Yucatán, annoncent que le régime des précipitations dans la région a bel et bien changé aux ixe et xe siècles, et que ce changement a débouché sur de longues périodes de sécheresse. Plus récemment, un groupe de chercheurs examinant des carottes de sédiments océaniques prélevées au large du Venezuela ont fourni des relevés encore plus détaillés des précipitations dans cette région, qui leur ont permis d’établir que la région avait effectivement connu plusieurs “sérieux épisodes de sécheresse qui se sont prolongés pendant plusieurs années”, à partir d’environ 750 de notre ère. La chute de la civilisation maya classique, qui a été décrite comme “l’une des plus graves catastrophes démographiques de l’histoire de l’humanité”, aurait coûté la vie à des millions de personnes.
Les changements climatiques qui ont affecté les cultures du passé précèdent l’industrialisation de plusieurs centaines d’années – et même, dans le cas des Akkadiens, de plusieurs milliers d’années. Ils reflètent la variabilité naturelle du système climatique et ont été déclenchés par des forces dont nous n’avons encore qu’une très vague idée. Les bouleversements climatiques prévus pour le siècle prochain sont en revanche imputables à des forces que nous connaissons désormais très bien. Leur ampleur en fait tout à la fois un sujet scientifique extrêmement intéressant et un phénomène qui revêt la plus grande importance historique. Dans ce contexte, que d’autres cultures aient déjà été anéanties par les changements climatiques constitue ce qu’on ne peut qualifier que d’inquiétants précédents.


L’institut Goddard d’études spatiales, plus connu sous le sigle GISS, a ses bureaux à quelques encablures au sud du campus principal de l’université Columbia, au cœur de New York, à l’angle de Broadway et de la 112e Rue Ouest. Il n’est pas très bien signalé, mais les New-Yorkais n’ont aucun mal à repérer l’immeuble : le rez-de-chaussée est occupé par Tom’s Restaurant, le café rendu célèbre par la série télévisée Seinfeld.
Antenne de la NASA, le GISS a été créé il y a 44 ans en tant que centre de recherches sur la planète. Aujourd’hui, sa fonction première est d’effectuer des prévisions sur les changements climatiques. L’institut emploie près de 150 personnes, dont beaucoup passent leurs journées à traiter des données mathématiques qui contribueront – ou non – à affiner le modèle climatique de l’institut. Certains travaillent sur des algorithmes décrivant le comportement de l’atmosphère, d’autres sur le comportement des océans, d’autres encore sur la végétation ou sur les nuages, tandis que des équipes sont chargées de confronter tous ces algorithmes et de s’assurer que leurs résultats concordent avec la réalité observée. (Il est déjà arrivé qu’après avoir poussé un peu trop loin les perfectionnements appliqués au modèle on se retrouve avec une absence presque totale de précipitations sur les forêts tropicales !) La dernière version en date du modèle du GISS, appelée ModelE, se présente sous la forme de 125 000 lignes de code informatique.

L’année la plus chaude enregistrée à la surface de la terre ou des océans

Le directeur de l’institut Goddard, James Hansen, occupe un vaste bureau encombré d’un indescriptible fouillis au septième étage de l’immeuble. (J’ai dû paraître un peu déconcertée en pénétrant dans son antre, car, dès le lendemain, il m’envoyait un e-mail pour m’assurer que son bureau était “beaucoup mieux organisé qu’il ne l’avait été par le passé”.) A 63 ans, Hansen est un homme sec au visage anguleux surmonté d’une mince frange brune. Bien qu’il ait sans doute fait plus que tout autre chercheur pour sensibiliser l’opinion aux dangers d’un réchauffement planétaire, il affiche une réserve qui confine à la timidité. Lorsque je lui demande comment il en est venu à jouer un rôle aussi important, il hausse les épaules : “Bah ! C’est l’occasion qui a fait le larron, c’est tout.”
James Hansen a commencé à s’intéresser aux changements climatiques vers 1975 et a passé son doctorat sous la direction de James Van Allen (le physicien qui a donné son nom aux ceintures de radiations de Van Allen, dans la magnétosphère terrestre). Dans sa thèse consacrée au climat de Vénus, il avance l’hypothèse selon laquelle si la planète présente une température de surface moyenne de 464 °C, c’est parce qu’elle est enveloppée d’un brouillard de gaz carbonique. Quelque temps plus tard, une sonde spatiale apporte la preuve que Vénus est effectivement isolée par une atmosphère composée à 96 % de dioxyde de carbone. Lorsque des données concrètes ont commencé à montrer l’évolution des niveaux des gaz à effet de serre dans l’atmosphère terrestre, Hansen s’est littéralement “pris de passion” pour le sujet. Il trouve bien plus intéressant de travailler sur une planète dont l’atmosphère peut se modifier en l’espace d’une vie humaine que sur une autre qui de toute façon continuera éternellement à se réchauffer. Un groupe de chercheurs de la NASA a mis au point un programme informatique pour tenter d’améliorer les prévisions météorologiques à partir des données satellitaires. Hansen et une équipe d’une demi-douzaine d’autres chercheurs entreprennent alors d’adapter leur logiciel à des prévisions à plus long terme : ils veulent savoir comment évolueront les températures mondiales sous l’effet de l’accumulation continue de gaz à effet de serre. Il leur faudra sept ans pour réaliser ce projet, qui a abouti à la première version du modèle climatique du GISS.
A l’époque, il n’y a encore que très peu de données empiriques pour étayer l’hypothèse d’un réchauffement planétaire. On ne dispose de relevés suivis et fiables des températures que depuis le milieu du XIXe siècle. Ces archives montrent que les températures mondiales moyennes ont augmenté tout au long de la première moitié du XXe siècle, puis ont fortement chuté dans les années 1950 et 1960. Au début des années 1980, Hansen est toutefois suffisamment sûr de la performance de son modèle pour lancer une série de prédictions de plus en plus audacieuses. En 1981, il prévoit ainsi que, “d’après les signes de variabilité naturelle du climat, un réchauffement dû au dioxyde de carbone devrait se manifester” vers l’an 2000. Pendant l’été exceptionnellement chaud de 1988, il témoigne devant une sous-commission sénatoriale, se déclarant certain “à 99 %” que “le réchauffement planétaire affecte d’ores et déjà notre planète”. Et, à l’été 1990, il parie 100 dollars devant une salle bondée de scientifiques que l’année la plus chaude jamais enregistrée serait soit celle-là, soit l’une des suivantes. Pour remplir tous les critères, la chaleur doit battre tous les records non seulement à la surface de la terre, mais aussi à la surface des océans et dans la basse atmosphère. 6 mois plus tard, Hansen gagne son pari.

Des milliers de cubes empilés les uns sur les autres

Comme tous les modèles climatiques, celui du GISS subdivise la planète par un empilement de cubes. 3312 cubes recouvrent ainsi la surface de la Terre, et ce quadrillage tridimensionnel est repris vingt fois à mesure que l’on s’élève dans l’atmosphère. On pourrait comparer ce schéma à un empilement d’immenses échiquiers. Chaque cube correspond à une surface de 4 degrés de latitude par 5 degrés de longitude (sa hauteur variant en fonction de l’altitude). Dans la réalité, bien entendu, une surface aussi importante présenterait un nombre incalculable de particularités ; dans le modèle, des éléments tels que des lacs et des montagnes, voire des chaînes de montagnes sont représentés par un ensemble réduit de propriétés, qui sont ensuite exprimées par des approximations numériques. Dans ce monde réduit à une grille, le temps se mesure essentiellement par intervalles discrets d’une demi-heure, ce qui signifie qu’une nouvelle série de calculs sont réalisés pour chaque cube pour chaque demi-heure censée s’être écoulée dans le monde réel. Selon la partie du globe à laquelle correspond un cube, ces calculs peuvent faire intervenir des dizaines d’algorithmes différents, de sorte qu’une modélisation type censée simuler les conditions climatiques sur les cent prochaines années fait intervenir plus de un million de milliards d’opérations différentes. Il faut en général près de un mois pour réaliser sur un supercalculateur une seule simulation à partir du modèle du GISS.
Très globalement, un modèle de circulation générale (MCG) repose sur 2 types d’équation : le premier exprime des principes physiques de base, comme la conservation de l’énergie et la loi de la pesanteur ; le second fournit une description – ou, dans le jargon du métier, une “paramétrisation” – des processus et des interactions qui ont été observés dans la nature mais qui n’ont parfois été que partiellement compris, ou des processus opérant à petite échelle et devant être extrapolés sur de grands espaces.


Tous les modèles climatiques traitent les lois de la physique de la même façon, mais, dans la mesure où chacun se fonde sur sa propre paramétrisation de phénomènes, comme la formation des nuages, ils aboutissent à des résultats différents. (A l’heure actuelle, il y a une quinzaine de grands modèles climatiques opérationnels dans le monde.) De plus, il y a, dans le monde réel, tant de forces à l’œuvre qui influencent le climat que chaque modèle tend, un peu comme les étudiants en médecine, à se spécialiser dans un processus particulier. Ainsi, le modèle du GISS s’intéresse plus particulièrement aux schémas de circulation de l’atmosphère, alors que d’autres se concentrent sur le comportement des océans et d’autres encore sur celui des terres émergées et des calottes glaciaires.
La performance d’un modèle climatique particulier ou d’une simulation est délicate à évaluer, car les résultats que fournissent ces outils sont des projections dans l’avenir. C’est pourquoi on procède généralement à une “modélisation inverse”, consistant à appliquer les modèles à des phénomènes passés afin d’apprécier la fiabilité avec laquelle ils reproduisent des tendances qui ont déjà été observées. Hansen s’est ainsi déclaré satisfait de la façon dont le ModelE avait reproduit les conséquences de l’éruption du Pinatubo, aux Philippines, en juin 1991. Les éruptions volcaniques dégagent de grandes quantités de dioxyde de soufre – le Pinatubo a émis quelque 20 millions de tonnes de ce gaz qui, une fois dans la stratosphère, se condense pour former de minuscules gouttelettes de soufre. Ces gouttelettes, ou aérosols, ont tendance à refroidir la terre en réfléchissant le rayonnement solaire vers l’espace. (Les aérosols anthropiques – produits par l’homme – issus de la combustion du charbon, du pétrole ou de la biomasse réfléchissent également le rayonnement solaire et compensent ainsi le réchauffement planétaire, mais avec de graves risques pour la santé humaine.) Cet effet de refroidissement dure aussi longtemps que les aérosols restent en suspension dans l’atmosphère. En 1992, les températures du globe, qui avaient considérablement augmenté, ont brutalement chuté de 0,5 °C, puis elles ont commencé à remonter. Le ModelE a réussi à simuler cet effet avec une précision de l’ordre de 0,09 °C. “C’est un test assez convaincant”, commente laconiquement Hansen.
Lorsque les modélisateurs parlent de ce qui régit le climat, ils se concentrent sur ce qu’ils appellent les “forçages radiatifs”. Tout processus en cours ou événement qui modifie l’équilibre énergétique moyen du système terrestre est un forçage. Outre les éruptions volcaniques, les forçages naturels peuvent provenir, entre autres phénomènes, des variations périodiques de l’orbite terrestre ou des modifications de l’intensité du rayonnement solaire liées, par exemple, aux taches solaires. Or bon nombre de modifications climatiques du passé ne sont liées à aucun forçage connu ; par exemple, personne ne sait au juste ce qui a déclenché le “petit âge glaciaire” qui a commencé en Europe il y a environ cinq cents ans. Un forçage très important devrait toutefois se traduire par un effet proportionnel et flagrant. “Si le Soleil devait passer au stade supernova [l’explosion massive d’une étoile], il ne fait aucun doute que nous pourrions modéliser ce qui se passerait”, résume un chercheur du GISS.
L’émission de dioxyde de carbone ou de tout autre gaz à effet de serre dans l’atmosphère, que ce soit en brûlant des combustibles fossiles ou en rasant les forêts, est ce que les climatologues appellent un forçage anthropique. Depuis l’époque préindustrielle, les concentrations de CO2 dans l’atmosphère terrestre ont augmenté d’environ un tiers, passant de 280 parties par million (ppm) à 378 ppm. Sur la même période, les concentrations de méthane, un gaz à effet de serre encore plus puissant (mais présentant une durée de vie moindre), ont plus que doublé, passant de 0,78 ppm à 1,76 ppm. Les scientifiques mesurent ces forçages en watts par mètre carré de surface terrestre. A l’heure actuelle, le forçage radiatif des gaz à effet de serre est estimé à 2,5 W/m2. Une simple ampoule de guirlande de Noël émet une énergie de 0,04 W, principalement sous forme de chaleur, ce qui revient à dire que nous aurions recouvert le globe de petites ampoules, à raison de six par mètre carré. Et ces ampoules restent allumées vingt-quatre heures par jour, sept jours par semaine, tout au long de l’année.

Faire monter le niveau des océans de plus de 120 mètres

Si le niveau actuel des gaz à effet de serre se maintenait, on estime qu’il faudrait plusieurs décennies pour que les effets du forçage qui est déjà à l’œuvre se fassent pleinement sentir. Cela provient du fait que la température de la terre s’élève non seulement en fonction du réchauffement de l’air et de la surface de la terre, mais aussi de la fonte des glaces de mer, du retrait des glaciers et, surtout, du réchauffement des processus océaniques à l’échelle planétaire, qui absorbent d’énormes quantités d’énergie. D’un côté, le retardateur intégré au système climatique est socialement utile, car il nous permet – grâce aux modélisations climatiques – de nous préparer à ce qui nous attend, mais, d’un autre côté, on pourrait tout aussi bien considérer qu’il est socialement catastrophique en ceci qu’il nous permet de continuer à déverser du CO2 dans l’atmosphère tout en sachant que ce sont nos enfants et nos petits-enfants qui en subiront les conséquences. Dans un cas comme dans l’autre, si les tendances actuelles se poursuivent, c’est-à-dire si l’on ne prend aucune mesure pour réduire les émissions, les niveaux de dioxyde de carbone atteindront probablement 500 ppm – soit deux fois plus que les niveaux préindustriels – vers le milieu du XXIe siècle. D’ici là, bien entendu, le forçage induit par les gaz à effet de serre aura également augmenté, pour atteindre les 4 W/m2, voire davantage. A titre de comparaison, le forçage radiatif total qui a mis fin à la dernière glaciation – un forçage qui s’est avéré suffisant pour faire fondre des nappes de glace de 1 500 mètres d’épaisseur et faire monter le niveau des océans de plus de 120 mètres – n’était que de 6,5 W/m2.
Pour un doublement des taux de CO2, les simulations du modèle du GISS prédisent que les températures moyennes de la Terre augmenteront de 2,7 °C. Seul un tiers de cette hausse est directement imputable à l’accumulation de gaz à effet de serre ; le reste provient d’effets indirects, dont le plus important est ce qu’on appelle la “rétroaction de la vapeur d’eau”. (Puisque l’air chaud contient davantage d’humidité, une hausse des températures devrait se traduire par une atmosphère plus chargée en vapeur d’eau, qui est aussi un gaz à effet de serre.) Les prévisions du GISS sont les plus optimistes des dernières projections en date. Le modèle du centre Hadley, réalisé par le Service météorologique britannique, prédit qu’un doublement des taux de CO2 aboutira à une hausse de température de 3,5 °C, tandis que l’Institut japonais d’études environnementales situe plutôt cette élévation à 4,2 °C.

A l’échelle de notre quotidien, un réchauffement de 2,7 °C, ou même de 4,2 °C, pourrait sembler n’avoir rien de particulièrement alarmant. Après tout, entre le matin et l’après-midi d’une journée d’été type, les températures de l’air augmentent très facilement de 11 °C ou plus. Mais les températures moyennes de la Terre n’ont pratiquement rien de commun avec notre petit quotidien. Au milieu de la dernière époque glaciaire, Manhattan, Boston et Chicago étaient enfouis sous une profonde couche de glace, et le niveau des océans était si bas que la Sibérie et l’Alaska étaient reliés par un pont continental de près de 1 600 kilomètres de large. A cette époque, les températures moyennes de la Terre étaient inférieures d’environ 5,5 °C aux niveaux actuels.
Mais, inversement, depuis que notre espèce a évolué, les températures moyennes n’ont jamais dépassé les moyennes actuelles de plus de 1 °C à 1,6 °C.
C’est là pour les climatologues un fait particulièrement significatif. En étudiant les carottages de glace de l’Antarctique, les chercheurs sont parvenus à reconstituer des archives complètes de la température terrestre et de la composition de l’atmosphère sur les quatre dernières glaciations. (On peut calculer les températures à partir de la composition de la glace et reconstituer la composition de l’atmosphère en analysant les minuscules bulles d’air piégées dans la glace.) Ce que ces archives montrent, c’est que la planète est aujourd’hui presque aussi chaude qu’elle l’a jamais été depuis les 420 000 dernières années. Et, avec 378 ppm, les taux de CO2 sont beaucoup plus élevés aujourd’hui qu’ils ne l’ont jamais été sur toute la période révélée par les carottes de l’Antarctique. On pense que la dernière fois que les niveaux de dioxyde de carbone se sont situés dans cette fourchette, ce devait être il y a 3 millions et demi d’années, et ils n’ont sans doute pas été beaucoup plus élevés depuis 10 millions d’années. Un chercheur de la National Oceanic and Atmospheric Administration (NOAA, Agence nationale océanique et atmosphérique) résume en plaisantant à demi : “Il est vrai que nous avons déjà eu des taux de CO2 plus élevés. Mais, à cette époque-là, nous avions aussi des dinosaures.”

“Ils n’avaient aucun moyen de faire face à ce scénario”

David Rind est climatologue au GISS depuis 1978. C’est le poil à gratter du modèle de l’institut : son rôle est de passer au peigne fin des rames entières de documents remplis de colonnes de chiffres, appelés des “diagnostics”, pour tenter de détecter les failles du modèle, et il travaille également avec le Groupe d’impacts sur le climat du GISS. (Son bureau, comme celui de Hansen, est jonché de piles poussiéreuses de sorties d’imprimante.) Bien que la hausse des températures soit le résultat le plus évident et le plus prévisible de l’augmentation des taux de CO2, d’autres conséquences de deuxième ordre, comme le relèvement du niveau des océans, les changements de la couverture végétale, la baisse de l’enneigement, pourraient bien s’avérer tout aussi significatives. Rind s’intéresse tout particulièrement à l’impact qu’aura la hausse des niveaux de CO2 sur les réserves en eau car, comme il l’explique, “on ne peut pas fabriquer de l’eau en plastique”.
Tout comme la vitesse du vent se mesure sur l’échelle de Beaufort, les ressources en eau sont évaluées à partir de l’indice de sévérité de sécheresse de Palmer (IPGS). Les différents modèles climatiques divergent très largement dans leurs prédictions sur la disponibilité future des ressources en eau ; dans son article, Rind avait appliqué les critères de l’indice de Palmer au modèle du GISS, ainsi qu’à un autre modèle, mis au point par le Geophysical Fluid Dynamics Laboratory (GFDL, Laboratoire géophysique de dynamique des fluides), antenne de la NOAA. Il en concluait que plus les niveaux de dioxyde de carbone augmentaient, plus la planète était confrontée à de graves pénuries d’eau, qui se manifestaient dans un premier temps aux abords de l’équateur, puis s’étendaient vers les pôles. Lorsqu’il a appliqué l’IPGS au modèle du GISS dans le scénario d’un doublement des concentrations atmosphériques de CO2, la simulation révélait une sécheresse très grave sur pratiquement tout le territoire des Etats-Unis. Appliqué au modèle du GFDL, l’indice de Palmer fournissait des résultats encore plus alarmants. Rind a dressé deux cartes pour rendre compte des prévisions de sécheresse estivale, indiquant les risques compris entre 40 % et 60 % en jaune, ceux évalués entre 60 % et 80 % en ocre et enfin ceux compris dans la fourchette extrême de 80 % à 100 % en marron. Sur la première carte, fondée sur la modélisation du GISS, le nord-est du pays était jaune, le Midwest ocre et les Etats des montagnes Rocheuses et la Californie apparaissaient en marron. Sur la seconde carte, traduisant les résultats du GFDL, les zones marron recouvraient pratiquement tout le territoire.
“J’ai donné une conférence en Californie sur ces indices de sévérité de sécheresse, devant un parterre de responsables de la gestion des ressources en eau, poursuit Rind. Et ils ont baissé les bras, en disant : ‘Eh bien, si c’est ce qui nous attend, n’en parlons plus !’ Ils n’avaient tout bonnement aucun moyen de faire face à ce scénario.”

“Il est évident que, si l’on en arrive à des indices de sécheresse de cet ordre, aucune adaptation n’est possible, commente-t-il. Mais supposons que les indices ne soient pas aussi graves que cela. De quel type d’adaptation parlons-nous, alors ? D’une adaptation pour 2020 ? Pour 2040 ? Ou encore à l’horizon 2060 ? De par la nature même des projections des modèles, à mesure que le réchauffement planétaire se poursuivra, une fois qu’on se sera adapté pour une décennie donnée, il faudra tout reprendre de zéro pour la décennie suivante. Nous avons peut-être une plus grande capacité technologique que les sociétés qui nous ont précédés. Mais les changements climatiques ont ceci de particulier que, potentiellement, ils sont très déstabilisants au plan politique. Et notre capacité technologique renforcée nous confère aussi une plus grande capacité destructrice. Je pense qu’il est impossible de prévoir ce qui se passera. Et je ne serais pas plus étonné que cela de constater que, d’ici à 2100, pratiquement tous les systèmes aient été détruits – mais je ne serai plus là pour le voir.” Il se tait un instant, puis reprend : “Bien sûr, c’est une vision un peu extrême des choses.”
Dernière modification par MadMax le 22 oct. 2005, 14:26, modifié 7 fois.

Avatar de l’utilisateur
MadMax
Modérateur
Modérateur
Messages : 2990
Inscription : 12 août 2005, 08:58
Localisation : Dans un cul-de-sac gazier

Message par MadMax » 20 oct. 2005, 23:36

Courrier international - n° 769 - 28 juil. 2005

Enquête / Sur le réchauffement de la planète

4- ÉTATS-UNIS - Quinze idées pour sauver le monde

Les solutions techniques pour stopper le réchauffement climatique existent ou sont à portée de main. Mais leur mise en œuvre nécessite une volonté qui fait pour l’instant défaut. D’autant que l’attitude du gouvernement Bush bloque les négociations internationales.


Le dioxyde de carbone est un gaz persistant, qui a une durée de vie dans l’atmosphère de près d’un siècle. Ainsi, s’il est possible d’accroître assez rapidement la concentration de CO2, par exemple en brûlant des combustibles fossiles ou en rasant des forêts, l’inverse n’est pas vrai. Tout se passe comme si l’on conduisait une voiture équipée d’un accélérateur mais pas de freins. On sait que ce processus est irréversible et on en a parfaitement identifié les risques à long terme. Il ne se passe pratiquement pas un mois sans que la communauté scientifique nous mette en garde contre de nouveaux dangers liés à l’augmentation des niveaux de CO2 – que ce soit pour la calotte polaire, pour la survie des récifs coralliens de la planète, voire pour l’existence même de pays situés à basse altitude. Pourtant, à l’échelle mondiale, la réaction se limite encore à des mesures d’une remarquable frilosité. Cela vaut notamment pour les Etats-Unis, pays qui est de très loin le premier responsable des rejets atmosphériques de dioxyde de carbone. (L’Américain moyen émet près de 5 tonnes de CO2 par an.) Or plus nous attendons, plus il nous sera difficile de changer de cap. “Nous n’avons plus que quelques années pour faire quelque chose, et pas dix ans, beaucoup moins”, m’assure Pieter Van Geel, le ministre de l’Environnement néerlandais.
Pour décrire un avenir où les émissions poursuivraient leur augmentation au rythme actuel, en dehors de tout contrôle, les climatologues parlent de scénario “statu quo”. Il y a quelques années, Robert Socolow, professeur de génie civil à l’université Princeton, a commencé à s’intéresser à ce scénario et à ce qu’il impliquait pour le sort de l’humanité. Fraîchement nommé directeur adjoint de la Carbon Mitigation Initiative [le projet de réduction du carbone], sponsorisée par le groupe pétrolier BP et le constructeur automobile Ford, il se considérait encore comme un néophyte en matière de climatologie. Mais en discutant avec les spécialistes il fut frappé par les graves inquiétudes qu’ils exprimaient. “Dans les nombreux domaines que j’ai pu aborder, il y a toujours un fossé entre l’opinion des spécialistes et celle du grand public, et dans la plupart des cas le grand public se montre plus préoccupé, plus alarmiste. Le nucléaire en est un excellent exemple : la plupart des professionnels du secteur sont relativement sereins face à ce qu’ils estiment être un niveau très faible de radiations, explique-t-il. Mais, dans le cas du climat, les spécialistes, ceux qui travaillent tous les jours sur les modèles climatiques, ceux qui prélèvent les carottes de glace, sont les plus inquiets. Ils font tout ce qu’ils peuvent pour tirer la sonnette d’alarme et nous ouvrir les yeux sur l’énormité des bêtises que nous sommes en train de faire.”
A 67 ans, Socolow est un homme mince aux lunettes cerclées d’acier et une tignasse grise à la Einstein. Bien qu’il ait une formation en physique théorique – il a fait sa thèse sur les quarks –, il a surtout travaillé sur des problèmes concrets, à échelle humaine, cherchant entre autres des façons de prévenir la prolifération nucléaire ou de construire des bâtiments mieux isolés. Dans les années 1970, il a ainsi participé à la conception d’un ensemble de logements privilégiant l’efficacité énergétique à Twin River, dans le New Jersey. Il a par ailleurs mis au point un système – qui n’a jamais été commercialement viable – permettant de climatiser des locaux en été en utilisant la glace accumulée en hiver. Lorsqu’il est devenu directeur adjoint de la Carbon Mitigation Initiative, il s’est tout d’abord attaché à prendre la mesure du problème. Il s’est vite rendu compte que la documentation existant sur le sujet offrait presque trop d’informations. “Je suis plutôt rompu à l’analyse quantitative, mais là, d’un jour à l’autre, j’étais incapable de retenir ces graphiques”, avoue-t-il. Il entreprit donc de remettre à plat toutes les données du problème, surtout pour tenter d’en comprendre les tenants et les aboutissants.
Il y a deux façons de mesurer les émissions de dioxyde de carbone. L’une consiste à comptabiliser la masse totale de CO2 ; l’autre, que préfère la communauté scientifique, à ne comptabiliser que la masse de carbone. Avec cette deuxième méthode, les émissions mondiales en 2004 ont été chiffrées à 7 milliards de tonnes (à eux seuls, les Etats-Unis ont émis plus de 20 % de l’ensemble des rejets, soit 1,6 milliard de tonnes de carbone). Dans le scénario “statu quo”, la trajectoire des émissions futures donne lieu à une large fourchette d’estimation, mais une projection moyenne évalue les rejets de carbone à 10,5 milliards de tonnes à l’horizon 2029, et à 14 milliards de tonnes à l’échéance 2054. Une stabilisation des émissions à leur niveau actuel infléchirait sensiblement cette trajectoire, réduisant de moitié les rejets prévus pour le demi-siècle à venir.
Socolow a néanmoins très vite compris que ce simple objectif serait déjà en soi une tâche titanesque
. Il a donc choisi de décomposer le problème en unités plus faciles à gérer, qu’il a baptisées des “triangles de stabilisation”. Pour simplifier, chaque triangle de stabilisation correspond à une stratégie qui permettrait d’éviter de déverser dans l’atmosphère 1 milliard de tonnes de carbone par an d’ici à 2054. Avec un collègue de l’université Princeton, Stephen Pacala, il a ainsi proposé 15 triangles de stabilisation, regroupés sous 3 grandes catégories répondant à des axes stratégiques donnés : demande énergétique, offre énergétique et captage et stockage du CO2 ailleurs que dans l’atmosphère. L’année dernière, les 2 chercheurs ont publié leurs résultats dans la revue Science [voir Courrier international n° 728, du 14 octobre 2004]. Leur article, qui a soulevé beaucoup d’intérêt, était certes optimiste – “l’humanité possède déjà le savoir-faire fondamental scientifique, technique et industriel pour résoudre le problème du carbone et du climat sur les cinquante années à venir”, assurait-il. Mais il remettait aussi sans complaisance les pendules à l’heure. “Aucune solution alternative n’est facile”, souligne Socolow.

Des panneaux solaires grands comme l’état du Connecticut

Prenons par exemple le triangle de stabilisation n° 11. Il concerne l’énergie solaire ou photovoltaïque – probablement la plus séduisante de toutes les énergies alternatives, du moins dans l’abstrait. Les cellules photovoltaïques existent depuis plus d’un demi-siècle et sont d’ores et déjà opérationnelles dans tout un éventail de petites applications et dans quelques autres à plus grande échelle, où le coût de raccordement au réseau électrique est prohibitif. Une fois installée, la technologie est parfaitement propre : zéro émissions, zéro déchets – pas même de l’eau. Or, sachant qu’une centrale à charbon d’une puissance de 1 000 mégawatts dégage environ 1,5 million de tonnes de carbone par an – ce type d’usine devrait à l’avenir être plus efficace –, une mesure d’atténuation passant par l’énergie solaire exigerait d’installer suffisamment de panneaux pour produire 700 000 mégawatts. Mais, le rayonnement solaire étant par définition intermittent, pour assurer un tel rendement il faudrait prévoir une capacité de 2 millions de mégawatts, ce qui exigerait de recouvrir de panneaux solaires une surface d’environ 20 000 km2, soit environ la taille d’un Etat comme le Connecticut.


Le triangle n° 10 porte sur l’électricité éolienne. Une turbine type produit en moyenne 2 mégawatts d’électricité. Pour faire de cette énergie une stratégie de stabilisation, il faudrait au moins 1 million de turbines. D’autres triangles de stabilisation présentent des difficultés différentes, d’ordre technique ou social. L’énergie nucléaire, par exemple, n’émet pas de dioxyde de carbone, mais elle génère des déchets radioactifs, avec tout ce que cela implique en matière de stockage, de traitement et de réglementations internationales : à l’heure actuelle, on compte 441 centrales nucléaires dans le monde et une stratégie de stabilisation par le nucléaire imposerait de doubler cette capacité. Socolow et Pacala ont également travaillé sur 2 mesures d’atténuation portant sur les voitures. La première appelle à utiliser moitié moins qu’aujourd’hui chaque voiture en circulation dans le monde ; la deuxième préconise de diviser par deux leur consommation en carburant.
3 des options possibles sont fondées sur une technologie dite “de captage et stockage du carbone”. Il s’agit de piéger le dioxyde de carbone dès sa source de production – une centrale énergétique ou un autre gros pollueur, par exemple –, puis de l’injecter sous très haute pression dans des structures géologiques, comme les gisements d’hydrocarbures épuisés. Aucune centrale thermique n’utilise encore cette technique de captage et stockage du carbone, et on ne sait pas avec certitude si le CO2 injecté dans le sous-sol y restera indéfiniment. En la matière, l’expérience la plus ancienne dans le monde n’est opérationnelle que depuis huit ans : c’est celle de la compagnie pétrolière norvégienne Statoil, qui stocke le CO2 provenant de l’extraction de gaz naturel dans un aquifère salin profond en mer du Nord, sur le site de Sleipner. Un triangle de stabilisation par captage et stockage du carbone nécessiterait 3 500 projets d’ampleur comparable.
Tant que les émissions de CO2 n’ont pour ainsi dire aucun coût direct, aucune des stratégies de Socolow n’a véritablement de chances d’être appliquée dans la pratique. Les acteurs économiques ne peuvent être contraints de prendre en compte le facteur carbone que par une intervention gouvernementale. A cette fin, les Etats pourraient fixer une limite stricte de rejets admissibles de CO2, puis autoriser les pollueurs à acheter et vendre des “crédits d’émission de carbone”. Aux Etats-Unis, cette stratégie a donné des résultats concluants pour réduire les rejets de dioxyde de soufre responsables des pluies acides. [Le premier marché d’émission de CO2 a ouvert ses portes en Europe le 1er janvier 2005.] Une autre solution consisterait à lever une taxe sur le carbone. Ces deux options ont été très sérieusement étudiées par des économistes. En se fondant sur leurs analyses, Socolow estime que le coût des émissions de carbone devrait dépasser les 100 dollars la tonne pour que la plupart des stratégies qu’il propose deviennent un tant soit peu attractives. [Le prix de la tonne de carbone oscillait en juillet autour de 25 euros sur le marché des crédits d’émission].

La faisabilité des stratégies dépend uniquement de notre volonté

Tous les calculs de Socolow partent du principe que ces mesures de stabilisation seront adoptées immédiatement, ou du moins dans les quelques années à venir. Pour hypothétique qu’il soit, ce postulat de départ est vital, non seulement parce que nous continuons à déverser de plus en plus de CO2 dans l’atmosphère, mais aussi parce que nous persistons à nous doter d’équipements qui ne feront qu’accroître les dégagements de CO2 à l’avenir. Aux Etats-Unis, une voiture neuve consomme en moyenne 12 litres aux 100 kilomètres. Ainsi, lorsqu’elle aura parcouru 160 000 kilomètres, elle aura émis près de 43 tonnes de carbone. Une centrale au charbon de 1 000 mégawatts construite aujourd’hui a une durée de vie moyenne de cinquante ans. Si elle n’est équipée d’aucun dispositif de captage et stockage du carbone, elle émettra dans cet intervalle 100 000 tonnes de carbone. Aussi, le message principal des triangles de Socolow est celui-ci : plus nous attendons – et plus nous construisons d’infrastructures sans tenir compte de leur impact sur les émissions –, plus il sera difficile de maintenir les niveaux de CO2 au-dessous de 500 parties par million (ppm). De fait, même si nous parvenions à stabiliser les émissions au cours des cinquante prochaines années, les graphiques de Socolow montrent que des réductions bien plus drastiques seraient nécessaires au cours du demi-siècle suivant pour empêcher les concentrations de CO2 de dépasser ce niveau.
Quand on demande à Socolow si la stabilisation des émissions est à son sens un objectif politiquement réalisable, il fronce les sourcils. “On me demande systématiquement ce que je peux dire de la faisabilité de tel ou tel projet, soupire-t-il. Je crois sincèrement que ce n’est pas la bonne question. Toutes ces stratégies sont réalisables. Songeons à des problèmes comparables auxquels nous avons été confrontés par le passé : des problèmes qui, comme celui-ci, semblaient si difficiles que chercher à les résoudre ne semblait même pas en valoir la peine. Puis on a changé d’avis. Prenez le travail des enfants, par exemple. Nous avons décidé que nous ne l’accepterions plus, quittes à payer les produits plus cher. Nous avons tout simplement changé notre échelle de priorités. Il y a cent cinquante ans, l’esclavage présentait également des caractéristiques de ce genre. Certains estimaient que c’était un système inadmissible et ils ont défendu leurs arguments, mais ils n’ont pas eu gain de cause tout de suite. Puis un déclic s’est produit ; tout d’un coup, tout le monde a reconnu que c’était intolérable et nous n’avons plus eu recours aux esclaves. Cette décision avait bien entendu un coût social. Je suppose qu’elle a renchéri le cours du coton. Mais nous avons admis que, à partir du moment où nous voulions en finir avec ce système d’exploitation, c’était le prix à payer. De la même façon, nous pourrions aujourd’hui prendre conscience du fait que nous sommes en train de dénaturer irréversiblement la Terre. Or la Terre est un système très sensible et, comme nous l’ont appris les événements du passé, nous ne comprenons pas entièrement toutes ses réactions. Et nous ne les aurons toujours pas comprises dans l’intervalle de temps qui nous reste pour prendre ces décisions. Nous savons simplement qu’elles existent. Aujourd’hui, nous pouvons choisir de ne pas nous infliger une catastrophe écologique. A partir du moment où l’on envisage le problème sous cet angle, il ne sert pas à grand-chose de se demander si c’est faisable ou non. La faisabilité des stratégies dépend exclusivement de notre volonté de faire quelque chose.”
Marty Hoffert, professeur de physique à l’université de New York, a publié dans la revue Science un article où il exprime certains désaccords avec Socolow. Il pense en particulier que maintenir les niveaux de CO2 au-dessous de 500 ppm exigerait un effort “colossal” et ne pourrait sans doute se faire qu’au prix de changements “révolutionnaires” en matière de production d’énergie. “Il n’est sans doute pas faux de dire que nous possédons déjà ‘le savoir-faire scientifique, technique et industriel pour résoudre le problème du carbone’, au même titre qu’en 1939 nous disposions des compétences scientifiques et techniques pour fabriquer des armes nucléaires”, dit-il en faisant référence à l’article de Socolow. “Mais, avant d’en arriver là, il a fallu en passer par des projets monumentaux.”

Un dixième seulement du coût du bouclier antimissiles

Marty Hoffert fait ainsi remarquer que, dans les décennies à venir, la hausse de la consommation énergétique devrait essentiellement être le fait de pays comme la Chine et l’Inde, où les réserves de charbon sont très nettement supérieures à celles de pétrole ou de gaz naturel.
(La Chine, qui envisage de construire 562 centrales à charbon d’ici à 2012, devrait détrôner les Etats-Unis de leur premier rang des émetteurs de carbone vers 2025.) Entre-temps, la production mondiale de pétrole et de gaz naturel devrait commencer à baisser – dans vingt ou trente ans selon certains experts, voire avant 2010 selon d’autres. Hoffert prédit que les rejets de carbone atmosphérique reprendront alors de plus belle, et qu’il sera donc d’autant plus difficile de stabiliser les niveaux de dioxyde de carbone. D’après ses calculs, il ne faudrait alors pas moins de douze triangles de stabilisation simplement pour maintenir l’augmentation des émissions de CO2 sur leur trajectoire actuelle. (Socolow reconnaît volontiers que plusieurs scénarios plausibles exigeraient encore plus de triangles de stabilisation.) L’Etat fédéral devrait débloquer un budget de 10 milliards à 20 milliards de dollars par an pour financer la recherche fondamentale sur les nouvelles sources d’énergie. Toutefois, et à titre de comparaison, Marty Hoffert souligne que le bouclier antimissiles du programme de la “guerre des étoiles”, qui n’a toujours pas débouché sur un système opérationnel, a d’ores et déjà coûté aux contribuables américains près de 100 milliards de dollars.
Que fait la communauté internationale ? En théorie tout au moins, elle s’est déjà engagée à réagir au réchauffement planétaire, et ce depuis plus de dix ans. En juin 1992, les Nations unies ont organisé le Sommet de la Terre à Rio de Janeiro. Les représentants de pratiquement tous les pays du monde se sont réunis pour mettre sur pied la Convention-cadre des Nations unies sur le changement climatique (CCNUCC), dont l’objectif ultime était de “stabiliser les concentrations de gaz à effet de serre dans l’atmosphère à un niveau qui empêche toute perturbation anthropique dangereuse du système climatique”. L’un des premiers signataires de cette charte fut le président George Bush père, qui, à Rio, a appelé les dirigeants du monde entier à traduire “les paroles prononcées en actions concrètes visant à protéger la planète”. Trois mois plus tard, Bush soumettait la convention au Sénat américain, qui l’approuva à l’unanimité. Elle a, depuis, été ratifiée par 165 pays.
L’une des clauses de la CCNUCC prévoit que les signataires se retrouvent régulièrement pour évaluer leurs progrès, lors de réunions appelées les “conférences des parties”. Dans les faits, personne n’avait beaucoup de progrès à rapporter. L’article 4.2.b de la convention somme les pays industrialisés de se donner pour “objectif” de ramener leurs émissions de gaz à effet de serre aux niveaux de 1990. Or, en 1995, les émissions agrégées de ces pays continuaient d’augmenter. (Les seuls ou presque qui avaient réussi à revenir aux niveaux de 1990 étaient les anciens pays du bloc soviétique, et ils ne le devaient qu’au fait que leur économie était en chute libre.) Se sont ensuivies plusieurs séries de négociations, souvent très âpres, qui ont débouché sur une session de onze jours au centre de conférences international de Kyoto, en décembre 1997.

A Washington, le sénat vote à 95 voix pour et zéro contre

Techniquement parlant, l’accord qui est sorti de cette conférence est une annexe à la convention-cadre. Aux exhortations ambitieuses ce protocole substituait des engagements contraignants. Ceux-ci s’appliquent aux pays industrialisés (ou “parties visées à l’Annexe 1”), à savoir les Etats-Unis, le Canada, le Japon, l’Europe, l’Australie, la Nouvelle-Zélande et plusieurs pays de l’ancien bloc de l’Est. Chacun a des obligations différentes, fixées en fonction de facteurs historiques et politiques propres. Ainsi, les pays de l’Union européenne sont censés parvenir à une réduction de 8 % par rapport aux niveaux de 1990, contre 7 % pour les Etats-Unis et 6 % pour le Japon. Outre le CO2, ce traité réglemente les émissions de cinq autres gaz à effet de serre – le méthane (CH4), le protoxyde d’azote (N2O), les hydrofluorocarbures (HFC), les hydrocarbures perfluorés (PFC) et l’hexafluorure de soufre (SF6) –, qui, pour simplifier la comptabilité, sont exprimées en “équivalents dioxyde de carbone”. Pour remplir leurs objectifs, les pays industrialisés peuvent, entre autres mesures, acheter et vendre des crédits d’émission et investir dans des projets de “développement propre” dans les pays en développement (ou “parties ne figurant pas à l’Annexe 1”). Ce deuxième groupe inclut des économies en transition comme la Chine et l’Inde, des pays producteurs de pétrole comme l’Arabie Saoudite et le Koweït, et des pays vivant essentiellement d’une économie de subsistance, comme le Soudan. Ceux-ci n’ont aucune obligation de réduire leurs émissions au cours de la période d’engagement du protocole de Kyoto, qui s’achève en 2012.
Il était évident dès la phase de négociations que le protocole de Kyoto se heurterait à une farouche opposition à Washington. En juillet 1997, Chuck Hagel, sénateur républicain du Nebraska, et son collègue Robert Byrd, sénateur démocrate de Virginie-Occidentale, ont émis une “recommandation du Sénat” mettant en garde l’administration Clinton contre le tour que prenaient les négociations. La résolution Byrd-Hagel posait que les Etats-Unis refusent tout accord qui les engagerait à réduire leurs émissions si les pays en développement n’étaient pas tenus à des obligations de même type. Le Sénat vota la résolution à 95 voix pour et zéro contre, ce qui reflétait l’intense travail de lobbying du secteur industriel comme des syndicats. L’administration Clinton a fini par signer le protocole de Tokyo, mais elle ne l’a jamais soumis à la ratification du Sénat, qui continue d’exiger des efforts comparables de la part des “principaux pays en développement”.
D’un certain point de vue, la logique qui sous-tend la résolution Byrd-Hagel est imparable : le contrôle des émissions revient cher, et ce coût doit être supporté par quelqu’un. Si les Etats-Unis acceptaient de limiter leurs émissions de gaz à effet de serre sans que leurs concurrents économiques, telles la Chine ou l’Inde, fassent la même chose, les entreprises américaines seraient désavantagées. “Un traité imposant aux pays industrialisés mais pas aux pays en développement des engagements contraignants de réduction des émissions de gaz à effet de serre créerait une situation très préjudiciable à l’économie américaine”, a déclaré Richard Trumka, le secrétaire-trésorier de l’AFL-CIO [le plus important syndicat américain], qui avait fait le voyage de Kyoto pour faire pression contre le protocole.


D’un autre point de vue, cependant, la logique de la résolution Byrd-Hagel trahit un égoïsme flagrant, pour ne pas dire obscène. Comparons l’ensemble des émissions anthropiques autorisées de CO2 à un gros gâteau. Si l’objectif est de maintenir les concentrations au-dessous de 500 ppm, alors la moitié de ce gâteau a déjà été consommée et, sur cette moitié, la part du lion a été engloutie par le monde industrialisé. Exiger maintenant que tous les pays réduisent leurs émissions en même temps revient à proposer de donner pratiquement tout le reste du gâteau aux pays industrialisés, sous prétexte qu’ils en ont déjà avalé la plus grosse part. En un an, un Américain moyen produit autant de gaz à effet de serre que 4,5 Mexicains, 8 Indiens ou 99 Bangladais. Si les Etats-Unis et l’Inde devaient réduire leurs émissions dans les mêmes proportions, alors un Bostonien pourrait continuer à produire indéfiniment 18 fois plus de gaz à effet de serre qu’un Bangalorais. Or, en vertu de quoi certains auraient-ils le droit d’émettre plus que d’autres ? C’est ce que souligna il y a trois ans le Premier ministre indien Atal Bihari Vajpayee lors d’une conférence au sommet sur le climat à New Delhi : “Nos émissions de gaz à effet de serre par habitant ne représentent qu’une fraction de la moyenne mondiale et elles sont inférieures d’un ordre de grandeur à celles de beaucoup de pays développés. Nous ne pensons pas que les principes de la démocratie puissent tolérer une autre norme que celle donnant aux habitants les mêmes droits aux ressources environnementales mondiales.”

Les américains sont peut-être en train de tuer l’après-Kyoto

Hors des Etats-Unis, la décision de dispenser les pays en développement des obligations de Kyoto a généralement été accueillie comme une solution juste – quoique imparfaite. Il s’agissait d’amorcer le processus, pour ensuite convaincre des pays comme la Chine et l’Inde de signer. Cette approche “bipolaire” avait été utilisée – avec succès – dans les années 1980 pour réduire par paliers les émissions de chlorofluorocarbures, les gaz responsables de la déplétion de la couche d’ozone atmosphérique. Pieter Van Geel, le ministre de l’Environnement néerlandais, chrétien-démocrate de centre droit, résume de la façon suivante sa vision des choses pour l’Europe : “Nous avons bâti notre richesse sur les combustibles fossiles que nous exploitons depuis trois cents ans, et ne pouvons pas interdire aujourd’hui aux pays émergents, au nom du problème du changement climatique, de se développer au même rythme. Nous devrions au contraire afficher nos valeurs en donnant l’exemple. Il n’y a que comme cela que nous aurons le droit d’exiger quoi que ce soit de ces pays.”
Le protocole de Kyoto est enfin entré en vigueur le 16 février 2005. L’événement a été célébré dans de nombreuses villes : la municipalité de Bonn a organisé une réception à l’hôtel de ville, l’université d’Oxford a offert un banquet pour l’occasion et à Hong Kong s’est tenue une réunion de prières pour Kyoto. Le lendemain, j’assistais au siège des Nations unies, à New York, à une conférence très pertinemment intitulée “Un jour après Kyoto : les prochaines mesures sur le climat”. Les intervenants étaient des scientifiques, des responsables du secteur des assurances et des diplomates du monde entier, parmi lesquels l’ambassadeur aux Nations unies du Tuvalu, minuscule Etat insulaire du Pacifique, qui a expliqué comment son pays risquait d’être purement et simplement rayé de la carte. Le représentant permanent britannique auprès des Nations unies, sir Emyr Jones Parry, a pour sa part débuté son discours en déclarant : “Nous ne pouvons pas continuer sur la voie que nous suivons actuellement.”
Comme se sont employés à le rappeler tous les intervenants, Kyoto n’est que la première phase d’un long processus. Même si chaque pays – y compris les Etats-Unis – remplissait les obligations auxquelles l’engage le protocole d’ici à 2012, les concentrations atmosphériques de CO2 atteindraient des niveaux dangereux. Kyoto ne fait que retarder cette issue. Les “prochaines mesures pour le climat” passent, entre autres choses, par des engagements substantiels de la part de pays comme la Chine et l’Inde. Or, tant que les émissions américaines continuent d’augmenter, pratiquement hors de tout contrôle, il semble virtuellement impossible de leur arracher de tels engagements. Ainsi, si les Etats-Unis n’ont pas réussi à saborder Kyoto, ils sont peut-être en train de faire quelque chose d’encore plus préjudiciable : tuer dans l’œuf les chances de parvenir à un accord pour l’après-Kyoto. “La réalité brutale est que, à moins que l’Amérique ne revienne à une forme de consensus international, il sera très difficile de progresser”, déclarait récemment, en termes diplomatiques, le Premier ministre britannique Tony Blair lors d’une conférence de presse.
Elizabeth Kolbert
Dernière modification par MadMax le 23 oct. 2005, 15:57, modifié 1 fois.

Avatar de l’utilisateur
MadMax
Modérateur
Modérateur
Messages : 2990
Inscription : 12 août 2005, 08:58
Localisation : Dans un cul-de-sac gazier

Message par MadMax » 20 oct. 2005, 23:40

Courrier international - n° 770-771-772 - 4 août 2005

Enquête / Sur le réchauffement de la planète

5- ETATS-UNIS - Les mensonges du lobby Exxon

Une quarantaine de groupes de pression et de think tanks s’évertuent à présenter le réchauffement climatique comme un canular ou une manipulation. Ils ont tous un point commun, celui d’émarger chez ExxonMobil, première compagnie pétrolière du monde.



Lorsqu’en janvier dernier le romancier Michael Crichton a pris la parole à Washington devant une assistance conviée à un déjeuner-débat, à première vue, on aurait pu penser qu’il ne s’agissait que d’une banale tournée promotionnelle d’un auteur à succès qui avait un livre à vendre. De fait, Crichton était bien là pour assurer la promo de son dernier thriller, State of Fear [Etat de peur, non paru en français]. Dans ce roman antiécologiste à suspense, de sombres écoterroristes tentent de provoquer des catastrophes naturelles pour entretenir des craintes totalement injustifiées sur le changement climatique planétaire. Malgré ce scénario fantaisiste, l’auteur a été accueilli comme un expert par les conseillers politiques bon chic bon genre qui se pressaient ce jour-là dans les élégants salons du Centre de conférences Wohlstetter de l’American Enterprise Institute for Public Policy Research (AEI). Dans son discours de présentation, Christopher DeMuth, président de l’AEI et ancien responsable du budget de Reagan, félicita le romancier d’avoir ainsi réussi à mettre “les données scientifiques les plus sérieuses à la portée d’un public populaire, à travers un récit palpitant”. La conférence était organisée sur le thème : “Quelle politique scientifique pour le XXIe siècle ?”
Du haut de ses deux mètres, Crichton, médecin de formation, a la stature d’un joueur de basket-ball et sa prestance comme son passé lui confèrent un certain prestige. Il se dit volontiers “anticonformiste par nature”, mais, ce jour-là, ses propos n’avaient rien pour faire sourciller son public de l’AEI. “J’ai consacré toutes ces dernières années à étudier à la loupe les questions environnementales, et plus particulièrement le réchauffement planétaire”, déclara-t-il avec quelque solennité. “Et j’ai été profondément troublé par ce que j’ai découvert, surtout parce que les preuves avancées sur un grand nombre de questions écologiques présentent, à mon sens, des failles scandaleuses et manquent de fondement.” Après quoi, il entreprit d’éreinter une étude de 1998 sur l’évolution historique des températures, contre laquelle les conservateurs avaient déjà maintes fois choisi de cibler leurs attaques.
Pratiquement toute la communauté scientifique s’accorde à dire que les gaz à effet de serre d’origine humaine sont responsables d’une hausse des températures moyennes du globe. Mais les think tanks conservateurs s’emploient à démentir cette conclusion par une campagne de désinformation exploitant des “rapports” contradictoires qui cherchent à se donner toutes les apparences du sérieux pour faire contrepoids aux études scientifiques scrupuleusement vérifiées. Ces think tanks assurent par ailleurs une couverture intellectuelle à ceux qui refusent de se rendre aux conclusions de la science la plus sérieuse qui soit actuellement ; ils offrent des munitions aux législateurs conservateurs comme James Inhofe, sénateur républicain et président de la commission sénatoriale de l’Environnement et des Travaux publics, qui qualifie le réchauffement planétaire de “canular”.

Crichton dresse un parallèle entre les climatologues et les nazis

Cet effort concerté reflète les convictions des conservateurs les plus farouchement attachés au libéralisme économique, et donc opposés à toute réglementation contraignante. Mais un autre facteur est en jeu : non contents de bénéficier du soutien de personnalités qui partagent leur sensibilité et de fondations qui leur sont idéologiquement favorables, ces groupes de réflexion sont financés par ExxonMobil, la première compagnie pétrolière du monde. Mother Jones a recensé une quarantaine d’organisations financées par ce groupe pétrolier qui ont cherché à saper les résultats scientifiques généralement admis sur le changement climatique planétaire, ou bien entretiennent des liens avec une petite coterie de scientifiques “sceptiques”. Outre les think tanks, la liste compte également des organes quasi journalistiques comme TechCentralStation.com (un site proposant “des informations, des analyses, des recherches et des commentaires”, auquel ExxonMobil a versé 95 000 dollars en 2003), un journaliste de FoxNews.com, et même des groupes religieux et des mouvements des droits civiques. A elles toutes, ces organisations ont encaissé plus de 8 millions de dollars entre 2000 et 2003 (dernière année pour laquelle on dispose de données. Sauf indication contraire, tous les chiffres fournis ci-après portent sur cette période.)
Ainsi, le PDG d’ExxonMobil, Lee Raymond, est également vice-président du conseil d’administration de l’AEI, qui a reçu 960 000 dollars d’ExxonMobil. Le Centre d’études sur les réglementations, créé conjointement par l’AEI et la Brookings Institution, qui accueillait officiellement Crichton, a pour sa part perçu 55 000 dollars.
Pendant la séance des questions-réponses qui a suivi son discours, Michael Crichton a dressé une analogie entre les convaincus du réchauffement planétaire et les eugénistes nazis : “Si Auschwitz a existé, c’est parce que la science a été politisée.” Cette déclaration en a fait frémir quelques-uns dans la salle, mais il n’a effleuré personne que cette manifestation de l’AEI tendait précisément à cela : politiser la science. Il est vrai que l’assistance était acquise à la cause du conférencier. Parmi ceux qui écoutaient d’une oreille attentive, il y avait Myron Ebell, le responsable des politiques sur le réchauffement global et les questions internationales au Competitive Enterprise Institute (CEI), auquel ExxonMobil a consenti la somme faramineuse de 1 380 000 dollars. Etait également présent, au fond de la salle, Paul Driessen, membre du Committee for a Constructive Tomorrow [Comité pour un avenir constructif] (252 000 dollars) et du Center for the Defense of Free Entreprise [Centre de défense de la libre entreprise] (40 000 dollars). Driessen s’est déclaré “réconforté par le fait qu’ExxonMobil et quelques autres groupes se soient levés pour dénoncer haut et fort cette imposture scientifique”.
Dans son rapport de mécénat, ExxonMobil explique soutenir des groupes de réflexion sur les politiques gouvernementales “dont la vocation est de rechercher des solutions libérales aux problèmes de politique”. Ce que l’entreprise ne dit pas, c’est que beaucoup de ces groupes remettent en cause non seulement le protocole de Kyoto ou la loi McCain-Lieberman [qui propose un mécanisme de réduction des émissions de gaz à effet de serre] pour des raisons économiques, mais aussi les études scientifiques portant sur le changement climatique.
Interrogée sur ce point, Lauren Kerr, porte-parole du géant pétrolier, assure qu’“ExxonMobil a toujours été très transparent et très ouvert sur le fait que, comme bien d’autres entreprises, institutions et chercheurs respectés, nous pensons que les preuves scientifiques sur les émissions de gaz à effet de serre restent peu concluantes et que les études doivent se poursuivre”. Elle s’empresse par ailleurs de souligner qu’ExxonMobil sponsorise généreusement des programmes de recherche universitaire – la compagnie envisage ainsi de doter de 100 millions de dollars le Projet sur le climat planétaire et l’énergie de l’université Stanford, et finance même la très prestigieuse Académie nationale des sciences.


Aucune autre entreprise ne semble pourtant se démener autant pour soutenir les détracteurs du réchauffement planétaire. “Un grand nombre d’entreprises ont versé des fonds par-ci par-là, mais je serais surpris d’apprendre qu’il y ait eu un mécène plus généreux qu’Exxon”, explique Myron Ebell, représentant du CEI, qui, en 2000, puis à nouveau en 2003, a engagé une procédure judiciaire contre l’Etat afin de faire interrompre la diffusion d’un rapport datant de l’époque Clinton et montrant l’impact des changements climatiques sur les Etats-Unis. Pour ces deux procès, l’avocat principal chargé de défendre le dossier du CEI était Christopher Horner – participant du déjeuner-débat de Crichton –, à qui le CEI verse 60 000 dollars d’honoraires annuels. Or en 2002, ExxonMobil a affecté 60 000 dollars aux “activités juridiques” du CEI.
Les dépenses qu’ExxonMobil consacre aux groupes de réflexion sont sans commune mesure avec son budget de lobbying – 55 millions de dollars au cours des six dernières années, selon le Centre pour la transparence publique. Et ni l’un ni l’autre de ces chiffres n’entame beaucoup le bénéfice net de la compagnie – qui a engrangé 25,3 milliards de dollars l’année dernière. Mais ce “lobbying d’idées” peut sensiblement influencer les politiques gouvernementales.
Prenons par exemple les attaques des amis d’ExxonMobil contre l’Evaluation de l’impact des changements climatiques dans l’Arctique (ACIA). Publiée en novembre dernier, cette étude internationale de référence a mobilisé quelque 300 chercheurs pendant quatre ans. Commanditée par le Conseil arctique (forum intergouvernemental où les Etats-Unis sont représentés), elle relève notamment que l’Arctique est en train de se réchauffer “presque deux fois plus vite que le reste du monde”, et que les premiers effets du changement climatique, comme la fonte de la banquise et des glaciers, sont déjà manifestes et “réduiront considérablement l’habitat marin des ours polaires, des phoques et de certains oiseaux marins, précipitant l’extinction de certaines espèces animales”.
Les défenseurs de l’industrie ont tiré à boulets rouges sur cette étude mais, faute de faits scientifiques pour étayer leurs arguments, ils ont utilisé des fragments et des communiqués de presse. “L’alerte sur l’extinction de l’ours polaire a du plomb dans l’aile”, proclamait en manchette le chroniqueur de FoxNews.com Steven Milloy, chercheur adjoint au Cato Institute (75 000 dollars d’ExxonMobil) et éditeur du site Internet JunkScience.com. Le surlendemain, le très conservateur Washington Times reprenait dans ses colonnes le même article. Aucun de ces titres de presse ne prenait toutefois la peine de préciser que Milloy, qui bat régulièrement en brèche les inquiétudes sur le climat, dirige deux organisations qui émargent chez ExxonMobil. Au-delà de la question de la déontologie journalistique, et d’un point de vue purement scientifique, les reproches qu’adressait Milloy à l’ACIA étaient d’une telle ineptie qu’ils en étaient comiques. Citant un seul et unique graphique extrait du résumé de 146 pages d’un rapport scrupuleusement annoté qui en compte plus de 1 200, il affirmait que le document “se discrédite assez bien tout seul”, car les hautes températures enregistrées dans l’Arctique “vers 1940” donnent à penser que le pic de température actuel pourrait être mis sur le compte de la variabilité naturelle. Ce qui n’a pas empêché d’autres groupes de s’empresser de reprendre à leur compte les accusations de Milloy.
Le Fraser Institute de Vancouver, pour ne citer que lui (60 000 dollars), se joignit à la curée, qualifiant le document d’“excellent exemple du stratagème de la panique que privilégient les militants antiénergie : utiliser des modèles informatiques simplifiés pour émettre des hypothèses d’avenir largement injustifiables, afin de produire un inventaire à la Prévert de projections effarantes”. Dans le même communiqué, le Fraser Institute ajoutait que “2004 a été l’une des années les plus froides de l’histoire récente”. Remarquons qu’un mois plus tard l’Organisation météorologique des Nations unies déclarait 2004 “la quatrième année la plus chaude d’après les relevés de températures effectués depuis 1861”. Il est vrai que la science n’a pas toujours eu le poids qu’elle a aujourd’hui. Il y a peu encore, pratiquement tous les secteurs industriels exploitant les énergies fossiles – les constructeurs automobiles, les centrales énergétiques, les mines de charbon et même les chemins de fer – se positionnaient aux côtés d’ExxonMobil pour la remettre en cause. En 1989, l’industrie du pétrole, celle de l’automobile et la National Association of Manufacturers [l’Association nationale de l’industrie manufacturière] ont créé la Global Climate Coalition [GCC, Coalition sur le climat planétaire] pour faire front contre les mesures contraignantes adoptées en réponse au réchauffement planétaire.

Une liste noire de climatologues dont Bush allait se débarrasser

Mais tandis que l’industrie mobilisait le camp des sceptiques, une collaboration scientifique internationale se mettait en place, qui devait changer à jamais les termes du débat. En 1988, sous l’égide des Nations unies, des scientifiques et des responsables gouvernementaux ont lancé le Groupe d’experts intergouvernemental sur l’évolution du climat (GIEC), un organisme scientifique international qui ferait plancher des milliers d’experts sur la question et s’imposerait comme la référence en matière de climatologie. Dans son premier rapport d’évaluation, publié en 1990, le GIEC exprimait encore une marge raisonnable de doute. Mais le deuxième rapport du Groupe, achevé en 1995, concluait que la marque distinctive de l’action humaine était évidente. Le troisième rapport du GIEC, en 2001, affirme que les émissions anthropiques de gaz à effet de serre risquent, si on les laisse progresser hors de tout contrôle, de faire grimper les températures mondiales moyennes de 1,4 °C à 5,8 °C d’ici à 2100. “Il est très rare que les milieux scientifiques parviennent à un consensus aussi marqué que celui qui s’est créé autour de ce sujet”, écrivait en 2001 dans son éditorial le rédacteur en chef de la revue Science, Donald Kennedy. Même certaines grandes entreprises qui étaient jusqu’alors du côté des “sceptiques” ont alors changé de camp. Les principales compagnies pétrolières comme Shell, Texaco et British Petroleum, et avec eux plusieurs constructeurs automobiles comme Ford, General Motors et DaimlerChrysler, ont quitté la Global Climate Coalition, qui elle-même a cessé ses activités après 2002.


Pourtant le front du déni persistait – mené notamment par ExxonMobil et l’Institut américain du pétrole, dont ExxonMobil est l’un des membres les plus en vue. L’un des fers de lance du mouvement était Randy Randol, lobbyiste d’ExxonMobil qui a récemment pris sa retraite mais semble avoir été très efficace pendant le premier mandat de George W. Bush. Moins d’un mois après l’entrée en fonction de Bush, il a envoyé un mémorandum au Conseil de la Maison-Blanche sur la qualité de l’environnement (CEQ). Dans ce texte, il dénonçait le président du GIEC de l’époque, Robert Watson, grand nom des sciences atmosphériques, comme quelqu’un qui avait été “choisi par Al Gore” et dont l’objectif réel était d’“offrir une tribune médiatique à ses opinions”. (Lorsque l’existence de ce mémo a été ébruitée, ExxonMobil a pris une position curieuse, admettant que Randol l’avait transmis au CEQ mais précisant qu’il n’émanait ni de lui ni d’aucune autre personne liée à la compagnie.) “Est-il maintenant possible de remplacer Watson à la demande des Etats-Unis ?” interrogeait-il sans ambages. Le texte mettait en cause d’autres experts du climat de l’administration Clinton, cherchant à savoir s’ils avaient été “démis de leur position d’influence”. C’était ni plus ni moins la liste noire des climatologues attachés au gouvernement américain, dressée par l’industrie. Un an plus tard, Bush empêchait la réélection de Watson au poste de président du GIEC.
En fait, les liens d’ExxonMobil avec l’administration actuelle vont beaucoup plus loin, filtrant jusqu’aux niveaux décisionnaires les plus bas mais aussi les plus déterminants. Le mémo “transmis” par Randy Randol recommandait par exemple de faire intervenir Harlan Watson, membre républicain de la commission parlementaire sur les Sciences, pour pousser les efforts diplomatiques des Etats-Unis sur la question du changement climatique. Ce Harlan Watson – rien à voir avec le précédent – est maintenant “responsable des négociations sur le climat” pour le département d’Etat.

Le réchauffement ne serait qu’un immense canular

Dans le même esprit, l’administration Bush a nommé à la tête du CEQ l’ancien avocat de l’Institut américain du pétrole, Philip Cooney – opposant déclaré du protocole de Kyoto, qui dirigeait la “cellule climat” de l’Institut. En juin 2003, le New York Times rapportait que le CEQ avait édulcoré les commentaires sur le changement climatique d’un rapport de l’Agence de protection de l’environnement (EPA), ce qui avait contraint les chercheurs de l’EPA à dénoncer ce document, lui reprochant de “ne plus offrir une image fidèle du consensus scientifique”.
Le 16 février 2005, 140 pays ont célébré la ratification du protocole de Kyoto. Dans les semaines qui ont précédé, alors que les amis d’ExxonMobil prenaient les devants pour protéger l’administration Bush des critiques que lui vaudrait inévitablement son refus de signer le traité international prévoyant des mesures pour limiter le réchauffement planétaire, une nouvelle audition parlementaire fut organisée. Cet événement, accueilli sous les lambris de bois d’une salle sombre du Sénat, ne pouvait qu’inspirer le respect. Mais il n’était pas plus objectif que le discours de Crichton. Le panel d’experts, sponsorisé par l’Institut George C. Marshall et la Cooler Heads Coalition, réunissait Myron Ebell, l’avocat Christopher Horner et William O’Keefe – dont la carte de visite décline les titres de PDG de l’Institut Marshall, ancien cadre de l’Institut américain du pétrole et président de la Global Climate Coalition.
Mais personne n’incarnait mieux l’esprit de cet événement que le maître de cérémonie lui-même : le sénateur Inhofe. Déclarant que le roman de Crichton devrait être une “lecture obligatoire”, il demanda à ceux de l’assistance qui l’avaient lu jusqu’au bout de lever la main. Puis il se lança dans une diatribe contre les tenants du réchauffement climatique et stigmatisa l’étude d’impact sur l’Arctique (ACIA), qui, selon lui, ne s’appuyait sur “aucune note ni citation” – ce qui est effectivement le cas du résumé de l’étude, conçu comme “une synthèse en langage simple” du rapport scientifique dûment référencé. En tout état de cause, Inhofe avait mené sa propre enquête. Il sortit de sa manche un article de Time Magazine remontant à 1974 et, d’un air narquois, cita ce papier vieux de trente ans qui tirait la sonnette d’alarme sur le refroidissement des températures mondiales. Dans un résumé expéditif, il répéta que l’idée que les humains soient responsables d’un réchauffement planétaire était ni plus ni moins “un canular”, et qualifia tous ceux qui pensaient autrement d’“hystériques et de gens qui font de l’hystérie leur fonds de commerce. Il s’agit ici d’une véritable religion.” Ayant ainsi balayé d’un revers de main quelque 2 000 scientifiques, toutes les données qu’ils avaient pu collationner, les archives climatiques et les preuves de la fonte des glaciers, du recul des terres insulaires et de la disparition de biotopes, comme autant d’hystériques, de totems et de mythes, Inhofe se jura de continuer à se battre avec détermination pour sa conception de la vérité et de “porter ce combat sur le terrain du Sénat”.

Chris Mooney
Mother Jones
Dernière modification par MadMax le 23 oct. 2005, 16:17, modifié 1 fois.

Avatar de l’utilisateur
MadMax
Modérateur
Modérateur
Messages : 2990
Inscription : 12 août 2005, 08:58
Localisation : Dans un cul-de-sac gazier

Message par MadMax » 20 oct. 2005, 23:42

Je mettrai les passages intéressants en gras et/ou en couleur, don't panic. Dodo.

Répondre