GillesH38 a écrit :
ce que tu calcules c'est la probabilité que les écarts soient en réalité les mêmes, alors qu'ils sont mesurés différents. Mais ce n'est pas ça que je veux dire : c'est le fait d'interpréter les écarts (réels) comme une preuve d'un phénomène nouveau. Si tu mesures à deux journées d'intervalle l'écart en température entre le matin et le midi, il y a peu de chances que tu trouves le même résultat. Ca ne veut pas dire qu'ils sont physiquement dus à deux causes totalement différentes.
Non, mais ça veut dire que l'intensité n'est pas la même, dans ton exemple, ça pourrait être une différence d'ensolleillement entre les 2 journées.
donc il n'y a pas de différence significative de causes naturelles entre 1910-1940 et 1970-2000, et donc pas de raison précise qui oblige à supposer qu'un phénomène nouveau a été prédominant dans la 2e période.
Mais pourquoi arrêter l'analyse à 1940 et à 2000? Si tu veux argumenter que c'est le même phénomène naturel inconnu qui a agit dans les 2 cas, il faut pouvoir continuer l'analogie, donc jusque 1950 et 2010. Or on observe à la fin de la décennie 1940 une baisse de la T, alors que la fin de la décennie 2000 poursuit la hausse (avec une baisse de rythme).
Ca ne veut bien sur pas dire non plus que ça prouve qu'il n'y en a pas. Ca veut dire que les écarts de comportement ne sont pas suffisants pour être sur qu'il y en a un, ou plutot pour etre précis sur son amplitude. On peut arguer physiquement qu'il DOIT y en avoir un, à cause de l'effet d'absorption du CO2 - mais prétendre que les données sont suffisantes pour etre précis sur sa valeur, assez précis pour extrapoler ensuite l'effet mesuré d'un ordre de grandeur, c'est quand même assez ... contestable.
Comme je l'ai dit x fois, on n'aura jamais de preuves comme on en a pour la théorie de la gravitation, mais on a de fortes présomptions.
ce qui amène DANS LES MODELES, encore une fois.
Fatalement, à un moment ou à un autre il faut bien faire un calcul, donc il y a modèle. Maintenant est-ce que calculer la variation d'albédo suite à la fonte de par exemple 10 millions de km^2 de glace au niveau du 60ème parallèle et en déduire une variation de l'équilibre radiatif de la Terre te semble être de même nature que faire tourner des modèles de prévisions météo sur un supercalculateur et faire ensuite des moyennes?
donc tu supposes que la sensibilité a un sens pour comparer les glaciaires aux interglaciaires, avec la MEME valeur numérique que maintenant ? il me semble que tu disais le contraire un peu avant ... donc si c'est le cas, je répète la question :
Mais ce n'est *justement* pas la meme valeur numérique. J'ai dit que la sensibilité climatique entre un glaciaire et un interglaciaire était de 6 degré environs mais qu'il fallait diminuer ce chiffre pour tenir compte de la cryosphère moins abondante aujourd'hui et de l'absence de variation du forçage astronomique.
si ce genre de calcul à la louche a un sens, et donne une valeur de sensibilité supposée constante (et donc indépendante de la fréquence, puisqu'apparemment tu ne tiens aucun compte d'une réponse fréquentielle dans ce calcul), pourquoi la courbe de température n'est -elle pas la copie fidèle de la courbe de forçage astronomique ?
Elle ne peut pas être une copie fidèle, tout simplement parce que les constantes de temps qui régissent les rétroactions, en particulier pour l'inertie de l'océan et de la fonte des calottes, ne sont pas les mêmes que par exemple l'effet du CO2 ou de la fonte de la banquise. De plus, certains forçages de plus faible amplitude ne sont pas plus prévisibles dans le passé qu'ils ne le sont aujourd'hui, c'est le cas des périodes de faible/forte activité solaire comme le minimum de Maunder et certains événements non linéaires comme le déblocage des glaces du St Laurent ont une influence notable à moyenne échéance (1000 ans) sur la T. N'empêche que la périodicité de 100 000 ans de l'excentricité est visible comme le nez au milieu de la figure dans les carottes de Vostok.