Aller au contenu

Messages recommandés

Non NDC : en amont Fenster a demandé qu'on lui présente une réfutation des travaux de Svensmark. Cela dit cela n'aucune importance.

Personne ne demande ici qu'on présente un modèle comme une preuve.

Cependant, le résultat d'une résolution d'un système d'équations, si chacune de ces équations est correctement justifiée et appliquée dans le cadre de son domaine de validité, et si des études de sensibilité de qualité suffisante sont menées, a une valeur scientifique. Encore une fois, autrement, on ne fait rien.

Quand à Minority Report, je laisse chacun juger de la comparaison proposée.

Lien vers le commentaire

...

Personne ne demande ici qu'on présente un modèle comme une preuve...

Si, dans la mesure ou nous sommes nombreux à demander la preuve du réchauffement anthropique catastrophique nécessitant action politique, et que la seule qu'on nous propose est celle là 

Lien vers le commentaire

Je ne te demande pas une action politique personnellement.

Ce que tu appelles un modèle climatique est la résolution d'un système d'équations. Soit tu contestes le bien fondé d'une ou plusieurs de ces équations au point que la modifier change sensiblement les résultats du modèle, soit tu contestes certains paramètres nécessaires au modèle (de la même manière), soit tu demandes la prise en compte d'un effet extérieur nécessaire au modèle et qui changerait significativement les résultats (revenons à Svensmark...), mais que tu contestes en soi qu'on propose un résultat de calcul comme une preuve scientifique me paraît difficilement tenable, epistemologiquement.

Lien vers le commentaire

Ça tombe bien : je ne souhaite pas entreprendre des actions impliquant des contraintes.

Ce n'est pas ce que je dis.

 

Concentrons nous sur ce débat là car je n'ai ni le temps ni l'énergie de mener chaque débat point par point. Êtes vous maintenant d'accord que les travaux de Svensmark ne devraient plus être présentés comme un une thèse crédible comme ils le sont par exemple sur Wikibéral ?

Nous non plus on n'est pas à plein temps et on n'a pas forcément l'énergie pour se faire chier avec des réchauffistes. Chacun sa merde.

Maintenant, il faut quand même que tu comprennes que parmi les gens qui sont ici, il y a plusieurs opinions sceptiques différentes entre elles et qu'il est possible que tout le monde ne pense pas comme wikiberal.

 

Je n'ai jamais prétendu défendre le travail des autres groupes du GIEC (impliquant des disciplines beaucoup moins sérieuses et des politiques), juste le groupe 1, parce que je ne comprendrais pas l'attitude consistant à attaquer la bonne (pour moi) science au lieu de la mauvaise (selon moi) politique.

Voilà ce qu'on peut lire dans le rapport :

La tendance linéaire de la moyenne globale des données de température de surface combinant les terres émergées

et les océans indique un réchauffement de 0,85 [0,65 à 1,06] °C au cours de la période 1880–2012, pour laquelle il

existe plusieurs jeux de données indépendants. L’augmentation totale de la moyenne entre la période 1850–1900 et

la période 2003–2012 est de 0,78 [0,72 à 0,85] °C, en s’appuyant sur l’ensemble de données le plus long disponible

Je t'ai déjà expliqué plein de fois que je ne croyais pas aux mesures anciennes dans ces sensibilités là. Il y a d'ailleurs jusqu'à 0.4°C d'écart entre les bornes, soit 40 à 66% des valeurs desdites bornes. Je ne dis pas que c'est possible de faire mieux. Je dis que c'est faiblard en termes de robustesse.

Je remarque par ailleurs que dans la figure RID1 du rapport (https://www.ipcc.ch/pdf/assessment-report/ar5/wg1/WG1AR5_SummaryVolume_FINAL_FRENCH.pdf), les zones à plus fort réchauffement depuis 1901 sont presque exclusivement des zones à faible densité de données. C'est pratique. Si ça influence de 0.1 ou 0.2 au niveau global, on se retrouve potentiellement avec 0.2 à 0.3°C, bien moins impressionnant et bien trop faible par rapport à la fiabilité des mesures.

Et damn it, arrêtons de faire croire aux gens qu'on a des putains de mesures. Celles d'aujourd'hui sont déjà particulièrement médiocres, je l'ai déjà expliqué. Celles du passé, qui existent, pas les interpolées, extrapolées et reconstituées sont forcément encore plus minables.

 

Les données relatives au niveau des mers issues de mesures indirectes et instrumentales indiquent qu’une transition a eu

lieu entre la fin du XIXe et le début du XXe siècle, où l’on est passé de vitesses d’élévation relativement faibles au cours

des deux millénaires précédents à des vitesses plus importantes (degré de confiance élevé). Il est probable que la vitesse

d’élévation du niveau des mers continue à augmenter depuis le début du XXe siècle;

Je me demande bien de quel ordre de précision et de densité pouvaient être les mesures du niveau des mers avant la période récente.

 

La réduction observée de la tendance du réchauffement en surface sur la période 1998-2012, par rapport à celle observée sur la

période 1951-2012, est due à parts à peu près égales à une réduction de la tendance du forçage radiatif et à une contribution

de la variabilité interne allant dans le sens d’un refroidissement, dont une possible redistribution de la chaleur au sein de l’océan

(degré de confiance moyen). La réduction de la tendance du forçage radiatif est principalement due aux éruptions volcaniques

et à la dernière phase descendante du cycle solaire de 11 ans. Cependant, le degré de confiance avec lequel le rôle de ces

changements de forçage radiatif dans la tendance au réchauffement est quantifié est faible. La variabilité naturelle interne

décennale explique une part importante de la différence entre les observations et les simulations (degré de confiance moyen);

il n’est pas attendu que ces dernières puissent représenter la phase de la variabilité naturelle interne. Des erreurs au niveau

des forçages prescrits pourraient également y contribuer ainsi que, pour certains modèles, une surestimation de la réponse

liée à l’augmentation du forçage des gaz à effet de serre et autres facteurs anthropiques (dominés par l’effet des aérosols);

{9.4, encadré 9.2, 10.3, encadré 10.2, 11.3}

Il n'y a que moi qui comprend que le forçage radiatif et la variabilité interne, c'est pas très cool sauf si ça explique des choses que les modèles avaient pas vu mais z'inquiétez pas maintenant ils les voient ?

etc.

 

Je serais intéressé par des démonstrations (scientifiques et publiées, pas issues de blogs) de cette retouche massive des données.

Si même c'était le cas, il faudrait me démontrer que les modèles et paramètres entrés dans les calculs sont tellement faux (dans le cadre des incertitudes) que le résultat pourrait significativement en être affecté avec un jeu de paramètres et de modèles crédibles (il faudrait bien entendu aussi faire ça à partir de faits publiés).

Cependant j'aurai du mal à mener tous les débats à la fois et instantanément. Donc concentrons nous sur Svensmark pour l'instant ?

Svensmark :

Dont-Give-A-Fuck-GIF-2015.gif

 

Pour les données, il y a des sources brutes des années 80 qui ne correspondent pas à ce qu'il y a maintenant dans les DB. Voir plus haut dans le fil.

Les correctifs appliqués l'ont manifestement été à sens unique, sur des données dont la fiabilité est médiocre de toute façon.

 

A part ça, on pourrait aussi redébattre de la possibilité réelle de publier quelque chose qui ne va pas dans le bon sens... vu de l'intérieur, je peux assurer que c'est encore pire que ce qu'on dit. Mais enfin, personne n'est obligé de me croire.

Voir encore plus haut dans le fil.

Lien vers le commentaire

Ça tombe bien : je ne souhaite pas entreprendre des actions impliquant des contraintes.

Juste défendre des résultats scientifiques qui me paraissent meilleurs que les arguments des sceptiques. On m'a demandé plus haut de présenter des réfutations du travail de Svensmark (qui permettait de relativiser fortement l'implication du CO2 d'origine anthropique dans le changement climatique). Il me semble que j'ai amorcé le travail (je ne suis pas à plein temps à essayer de présenter des arguments béton contre chaque réfutation et contre chaque argument).

Concentrons nous sur ce débat là car je n'ai ni le temps ni l'énergie de mener chaque débat point par point. Êtes vous maintenant d'accord que les travaux de Svensmark ne devraient plus être présentés comme un une thèse crédible comme ils le sont par exemple sur Wikibéral ?

Je n'ai jamais prétendu défendre le travail des autres groupes du GIEC (impliquant des disciplines beaucoup moins sérieuses et des politiques), juste le groupe 1, parce que je ne comprendrais pas l'attitude consistant à attaquer la bonne (pour moi) science au lieu de la mauvaise (selon moi) politique.

 

Je suis pour refermer le débat sur Svensmark. Ca ne signifie pas que le "mécanisme de Svensmark" (l'amplification de l'impact des cycles solaires sur le climat terrestre via les processus de nucléation) n'existe pas, juste que ça ne permet pas d'en expliquer assez pour clore le débat sur le RCA. Au passage, au coeur même de la "nébuleuse" sceptique, il y a des gens qui se battent contre le mythe que les variations solaires expliquent presque tout. W Eschenbach a détaillé dans une série de billets sur WUWT le fait qu'il faut que la sphère sceptique arrête d'utiliser l'argument étant donné qu'on ne voit pas de corrélation correcte entre les variations de température récentes et l'évolution du rayonnement incident.

 

https://wattsupwiththat.com/2014/05/24/its-the-evidence-stupid/

Lien vers le commentaire

Ok pour Svensmark alors...

Je trouve Cugieran, ta position équilibrée. Je suis loin d'être un spécialiste de la reconstruction des températures et je n'ai pas eu le temps d'approfondir depuis la dernière fois que tu as présenté ces arguments.

Cela dit, admettons qu'on ne s'intéresse même pas aux données expérimentales dont on dispose parce qu'elles seraient de mauvaise qualité pour telle ou telle raison (je n'en suis pas convaincu au préalable comme toi car je doute que le problème ne se soit pas posé et qu'on n'ait cherché nullement honnêtement à le résoudre, mais je n'ai pas le temps d'approfondir le sujet là maintenant), on a quand même une physique qui est pour tout ou partie assez bien connue qui donne des équations que l'on résoud avec un maillage en temps et en espace de plus en plus fin, et selon divers scénarios d'émissions de CO2. Qu'est ce qui est selon vous très contestable dans ces calculs (comme ça je me documenterai dessus et je reviendrai quand je me serai forgé un avis sur vos objections) ?

Cela ne me paraît pas épistémologiquement contestable. Supposons qu'on ait (ce qui est le cas) une bonne connaissance des équations de la relativité générale et qu'on s'en serve pour prédire tel ou tel phénomène dans l'univers sans avoir pour l'instant la capacité de l'observer avec une précision suffisante pour le différencier de ce qu'on obtiendrait avec la mécanique Newtonienne. Cela n'invaliderait pas pour moi la prévision, ni les équations de la relat, tant qu'on aurait validé celles ci sur autre chose.

Sur la possibilité de publier, étant donné que Svensmark a pu publier ses travaux et que le CERN a designé des manips pour étudier le mécanisme, je suis assez étonné quand même. Sauf si tu trouves que la situation a beaucoup évolué récemment. Apres je suis d'accord de manière générale que les referees ont souvent une approche assez conservatrice de la science ;-).

Lien vers le commentaire

Ok pour Svensmark alors...

Je trouve Cugieran, ta position équilibrée. Je suis loin d'être un spécialiste de la reconstruction des températures et je n'ai pas eu le temps d'approfondir depuis la dernière fois que tu as présenté ces arguments.

Cela dit, admettons qu'on ne s'intéresse même pas aux données expérimentales dont on dispose parce qu'elles seraient de mauvaise qualité pour telle ou telle raison (je n'en suis pas convaincu au préalable comme toi car je doute que le problème ne se soit pas posé et qu'on n'ait cherché nullement honnêtement à le résoudre, mais je n'ai pas le temps d'approfondir le sujet là maintenant), on a quand même une physique qui est pour tout ou partie assez bien connue qui donne des équations que l'on résoud avec un maillage en temps et en espace de plus en plus fin, et selon divers scénarios d'émissions de CO2. Qu'est ce qui est selon vous très contestable dans ces calculs (comme ça je me documenterai dessus et je reviendrai quand je me serai forgé un avis sur vos objections) ?

Cela ne me paraît pas épistémologiquement contestable. Supposons qu'on ait (ce qui est le cas) une bonne connaissance des équations de la relativité générale et qu'on s'en serve pour prédire tel ou tel phénomène dans l'univers sans avoir pour l'instant la capacité de l'observer avec une précision suffisante pour le différencier de ce qu'on obtiendrait avec la mécanique Newtonienne. Cela n'invaliderait pas pour moi la prévision, ni les équations de la relat, tant qu'on aurait validé celles ci sur autre chose.

Sur la possibilité de publier, étant donné que Svensmark a pu publier ses travaux et que le CERN a designé des manips pour étudier le mécanisme, je suis assez étonné quand même. Sauf si tu trouves que la situation a beaucoup évolué récemment. Apres je suis d'accord de manière générale que les referees ont souvent une approche assez conservatrice de la science ;-).

 

Concernant les températures :

https://www.wmo.int/pages/prog/www/IMOP/publications/IOM-55_Part-II.pdf

 

On a une représentativité des mesures super variable mais globalement moyenne + (acceptable tout juste), aujourd'hui, dans les pays développés.

Avant, non. Ailleurs, non.

C'est très compliqué de mesurer des températures représentatives. Je répète qu'à quelques mètres près, la fonte de la neige est ou non constatée pour une température de 0.5°C. Ce phénomène physique ne ment pas. C'est l'épaisseur du trait et je ne parle même pas des nouvelles constructions et des arbres non entretenus à proximité des sites.

Pour faire une mesure fiable, il faut que la station se situe à 10 fois la hauteur du premier obstacle. Une rangée d'arbre qui double sa taille en 15 ans cloisonne le site et occasionne une surchauffe, par exemple.

 

A partir de là, j'ai modérément envie de m'avancer plus sur les modèles. Néanmoins, le fait que sur une courte période, j'insiste, courte période, un forçage explique une variable de sortie ne signifie pas qu'il est réellement explicatif.

 

Imaginons une crue qui survient à 18h. Sur le pont, un bouchon survient en même temps. Comme tous les soirs. Sur une semaine, il y a des bouchons tous les soirs mais une seule crue. Sur une journée, je peux faire un modèle qui relie la fréquentation du pont avec le débit, j'ai bon. Sauf que mon postulat de départ est faux. 

Je peux faire pareil avec une hausse du débit liée à la fonte de neige... ou à une pluie régulière.

 

Ce n'est pas que je dis que les modèles sont intrinsèquement faux.

J'estime que les postulats de départ son discutables et qu'il est difficile de les discuter (je maintiens, malgré quelques publications sceptiques qui passent, qu'il est très difficile de discuter le moindre point dans la rechercher, et que pour trouver des financements pour des projets qui n'iraient pas dans le bon sens, c'est impossible. Le milieu est militant, sans aucun doute) et que les données utilisées, pas que la température, mais entre autres, souffrent d'un gros problème de qualité, de représentativité et de densité spatio-temporelle.

Il a par exemple fallu 90 ans pour invalider le record foireux lybien de 57.8°C... https://fr.wikipedia.org/wiki/El_Azizia_(Libye)

On ne s'est intéressé à cette mesure que parce qu'il y a eu record. Combien de cas silencieux ?

  • Yea 1
Lien vers le commentaire

Je comprends donc qu'il est difficile de mesurer "très précisément" une température à un instant T.

Mais :

- il y a des possibilités de reconstruction des températures du passé récent (en étudiant les arbres par exemple), et ancien (les carottages par exemple). Ces mesures ne sont elles pas en accord avec les mesures de station météo ?

- est ce que la multiplicité des points de mesure proches les uns des autres ne réduit pas statistiquement l'incertitude sur la mesure ? Sauf biais systématique, ça devrait être le cas.

Ensuite sur l'exemple des voitures et du pont. Il montre que corrélation (encore plus locale) n'est pas raison. C'est évident, nous sommes d'accord. Cependant si on trouve un lien physique plausible de cause à conséquence ce n'est pas tout à fait pareil...

Finalement la chose la plus intéressante à discuter selon moi c'est l'incertitude sur le bien fondé des ingrédients du modèle et son influence sur l'output. Le Giec le fait d'ailleurs, tout comme les modelisateurs . Sur le bien fondé des équations de Navier Stokes ou des spectres d'absorption utilisés c'est à peu près zéro, sur les mécanismes de formation de nuages c'est "beaucoup". Ce qui ressort de leur analyse (évidemment c'est la leur, mais elle me paraît de bonne qualité), l'incertitude "en output" n'est pas de nature à remettre en cause la conclusion. C'est évidemment quelque chose qui est difficile à analyser car il faut être multi-spécialiste vu la variété des domaines de la physique impliqués. Ou alors il faut faire relativement confiance.

Lien vers le commentaire

, on a quand même une physique qui est pour tout ou partie assez bien connue qui donne des équations que l'on résoud avec un maillage en temps et en espace de plus en plus fin, et selon divers scénarios d'émissions de CO2. Qu'est ce qui est selon vous très contestable dans ces calculs (comme ça je me documenterai dessus et je reviendrai quand je me serai forgé un avis sur vos objections) ?

 

On a des équations et des données fiables en physique du rayonnement, en mécanique des fluides, etc .. mais on sait également que le système "terre" est chaotique.

 

On sait que ce système trouve, bon an mal an, son équilibre, dans la réalité, et donc qu'il existe des "attracteurs" autours desquels vont osciller les variations météorologiques, pour former un climat relativement stable. Mais si nous avons des équations pour trouver précisément les attracteurs dans un certain nombre de systèmes, notamment électriques, nous n'avons pas d'équations propres au climat.

 

Or, l'hypothèse de base, c'est que si la météo n'est pas prévisible, le point d'équilibre, le climat, l'est. Les modélisateurs se débrouillent pour que les modèles trouvent un point d'équilibre et pour relier l'évolution de ce point d'équilibre aux grandeurs d'entrées voulues. Mais à ma connaissance, il n'y a pas de preuve que les mécanismes qui permettent aux modèles de trouver un équilibre représentent des phénomènes physiques effectivement à l’œuvre.

 

Je délire peut-être. Mais le fait que les modèles climatiques "tournent" systématiquement à des niveaux de températures supérieurs aux relevés en est, il me semble, un indice. Il y aussi le fameux cas de l'introuvable point chaud des modèles.

 

J'accorde sans problème aux modèles la capacité à fixer des bornes à l'évolution de certains paramètres. Mais trouver le point d'équilibre global de la température terrestre, rien ne me dit que ce soit a priori à la portée de quelque modèle que ce soit. Bref, ça me semble très facile de prendre des artifices de calcul pour une réalité physique sous jacente.

 

Voir aussi cet article, qui montre amha de manière assez convaincante que le point d'équilibre trouvé par les modèles ne vient pas de la physique+de l'évolution libre du système, mais de la métastructure des modèles

https://wattsupwiththat.com/2013/06/03/climate-sensitivity-deconstructed/

 

Three years ago, inspired by Lucia Liljegren’s ultra-simple climate model that she called “Lumpy”, and with the indispensable assistance of the math-fu of commenters Paul_K and Joe Born, I made what to me was a very surprising discovery. The GISSE climate model could be accurately replicated by a one-line equation. In other words, the global temperature output of the GISSE model is described almost exactly by a lagged linear transformation of the input to the models (the “forcings” in climatespeak, from the sun, volcanoes, CO2 and the like).

Lien vers le commentaire

Je comprends donc qu'il est difficile de mesurer "très précisément" une température à un instant T.

Mais :

- il y a des possibilités de reconstruction des températures du passé récent (en étudiant les arbres par exemple), et ancien (les carottages par exemple). Ces mesures ne sont elles pas en accord avec les mesures de station météo ?

Généralement, ce type de "mesure" n'est pas utilisé pour des périodes durant lesquelles des stations sont disponibles et on en sort surtout des valeurs relatives, parfois même en base 100 tant on a une idée assez imprécise de la valeur absolue. Quant aux ordres de grandeur, on reste encore sur du 0.8 au total, donc moins à l'époque. C'est très compliqué...

- est ce que la multiplicité des points de mesure proches les uns des autres ne réduit pas statistiquement l'incertitude sur la mesure ? Sauf biais systématique, ça devrait être le cas.

Non, pas forcément. Il faut déjà que la densité soit forte pour que ça se vérifie et c'est assez rare : nous avons en gros des pays riches sur quelque chose comme 30% de la surface des terres émergées, soit 8% de la planète. Ailleurs, il n'y a que peu de valeurs.

Ensuite, il y a tout un tas de phénomènes naturels comme les brises de cote, de pente, l'ombrage, les inversions et j'en passe, qui dépendent des saisons et des situations, et qui interdisent de dégager des biais systématiques facilement. J'ai passé beaucoup de temps à reconstruire des données de température à partir de stations voisines pour augmenter la longueur de la chronique. Tu serais surpris de voir la complexité de la routine. Pour des données horaires, tu dois déjà décomposer ta transformation entre chaque heure. Ensuite entre chaque saison. Il te faut aussi regarder le vent (brassage), la couverture nuageuse (ensoleillement) et la pression (inversions) pour déterminer une relation par heure et par situation... et tu ne fites pas encore à 0.99. Je sais qu'on ne prend pas autant de peine à s'intéresser à des variations très locales (mais qui peuvent atteindre 10°C!, généralement 0 à 2°C) quand on a un énorme set de données à corriger.

Et là, je ne discute pas végétation et bétonnage...

Ensuite sur l'exemple des voitures et du pont. Il montre que corrélation (encore plus locale) n'est pas raison. C'est évident, nous sommes d'accord. Cependant si on trouve un lien physique plausible de cause à conséquence ce n'est pas tout à fait pareil...

Je suis d'accord que l'exemple est faible, voilà pourquoi j'ai ajouté celui de la pluie et de la neige. Sur le principe on s'est compris.

Finalement la chose la plus intéressante à discuter selon moi c'est l'incertitude sur le bien fondé des ingrédients du modèle et son influence sur l'output. Le Giec le fait d'ailleurs, tout comme les modelisateurs . Sur le bien fondé des équations de Navier Stokes ou des spectres d'absorption utilisés c'est à peu près zéro, sur les mécanismes de formation de nuages c'est "beaucoup". Ce qui ressort de leur analyse (évidemment c'est la leur, mais elle me paraît de bonne qualité), l'incertitude "en output" n'est pas de nature à remettre en cause la conclusion. C'est évidemment quelque chose qui est difficile à analyser car il faut être multi-spécialiste vu la variété des domaines de la physique impliqués. Ou alors il faut faire relativement confiance.

Il faudrait faire relativement confiance mais les intérêts en présence ne m'y incitent pas.

J'ai passé beaucoup de temps aussi à travailler sur les propagations d'incertitudes dans des systèmes à base physique et dans des systèmes statistiques (ANN). Détailler qu'est-ce qui fait quoi, c'est un acte de foi.

Je reste très dubitatif sur le rôle des nuages dans toutes ces affaires... l'eau est le premier GES reconnu et peiner à maîtriser cet aspect (impact des précipitations, du cloud cover, de l'enneigement ou de l'absence d'enneigement, de l'inertie de l'atmosphère saturée et non saturée etc.) ne m'inspire pas grand chose de bon... Mais je suis moins spécialisé dans ces questions.

Lien vers le commentaire

Présenter les modèles comme preuves est exactement le scénario de Minority Report.

Les mots ont un sens

La criminalité a été réduite à néant dans Minority Report. Et le scénario est bourré de plot holes.

La comparaison n'est pas pertinente car là où le monde de Minority Report avait des moyens directs d'observation (chute de la criminalité, crime imminent...) le changement climatique échappe à toute possibilité de vérification objective à court-moyen-terme.

Il faudra peut-être 20 ou 30 ans pour avoir un avis objectif sur la performance des modèles.

Lien vers le commentaire

Si on n'acceptait pas comme preuve préalable à une action des résultats de simulation (qui ne sont qu'une manière de résoudre des équations un peu compliquées, donc un papier/crayon 2.0) on ne ferait pas grand chose...

Même les mathématiciens ont beaucoup de mal à admettre des preuves de plus de 20 pages comme on commence à en générer aujourd'hui. Et les mecs disposent d'outils de vérification de preuve automatique, hein. Simplement il faut vérifier le vérificateur et admettre de ne rien comprendre à la preuve étudiée. Le mec qui prouve une seconde fois le théorème des 4 couleurs mais en seulement 2 ou 3 pages, celui-là aura le plus grand respect de la communauté mathématique. Par ailleurs, il aura la possibilité de communiquer avec des non-sorciers-mathématiciens, ce qui est plutôt mieux d'un point point de vue scientifique.

Dans le reste de la science, le consensus est très clair depuis 3000 ans : une preuve de 3 kilomètres n'en est pas une.

 

 

Personne ne demande ici qu'on présente un modèle comme une preuve.

Cependant, le résultat d'une résolution d'un système d'équations, si chacune de ces équations est correctement justifiée et appliquée dans le cadre de son domaine de validité, et si des études de sensibilité de qualité suffisante sont menées, a une valeur scientifique. Encore une fois, autrement, on ne fait rien.

Bien-sûr que si on peut faire plein de chose sans empiler 43 modèles les uns sur les autres. D'ailleurs le consensus est clair à ce propos : plus tu dois empiler de modèles, plus tu fais des hypothèses. Et plus tu fais des hypothèses, moins ton résultats est intéressant. De même, plus ton calcul est lourdingue, plus le risque d'erreur est élevé et moins il y a de gens pour le vérifier. Jamais rien n'a été prouvé de cette cette manière sans un faisceaux d'indice impressionnant et des observations incontestables.

 

Cela ne me paraît pas épistémologiquement contestable. Supposons qu'on ait (ce qui est le cas) une bonne connaissance des équations de la relativité générale et qu'on s'en serve pour prédire tel ou tel phénomène dans l'univers sans avoir pour l'instant la capacité de l'observer avec une précision suffisante pour le différencier de ce qu'on obtiendrait avec la mécanique Newtonienne. Cela n'invaliderait pas pour moi la prévision, ni les équations de la relat, tant qu'on aurait validé celles ci sur autre chose.

Là on a un corpus d’équations simples, des calculs faits sur papier, des expériences reproductibles à moindre frais et des observations de l'orbite de la planète Mercure correctement documentée. De même, Newton est connu pour avoir pondu une équation toute bête capable de prédire des trajectoires balistiques ainsi l'arrivée d'une comète dont l'observation était bien documentée sur plusieurs siècles.

Les climatologues ont des modèles empilés les uns sur les autres (d'ailleurs comme tu le dis toi-même ils travailent sur un grand nombre de variations de ce corpus d'équation, variations parfois contradictoires et/ou divergentes et /ou corrigées des artefacts qu'elles génèrent), des calculs invérifiables et non-reproductibles pour qui n'est pas proche de la pompe à pognon gouvernementale et des observations de piètre qualité. Quand ils auront corrigé chacun de ses défauts, la raison commandera tout homme raisonnable de les croire, d'ici là, elle nous dit de se méfier car l'erreur est la norme et la découverte l'exception.

  • Yea 1
Lien vers le commentaire

Le cours de physique de Feynman, mécanique 1,

mentionne page 32 le Cycle de Krebs https://fr.wikipedia.org/wiki/Cycle_de_Krebs

 

Pour un truc aussi "simple", les chercheurs ont bossé longtemps (et bossent encore).

Je ne sais même pas si on s'est aventuré à pondre des modèles/simulations de ce cycle ?

Si c'est le cas, je me demande qu'elle est/serait la précision de ces simulations ?

 

Alors quand je vois la longueur du cycle (supposé) de l'atmosphère terrestre, sa taille,

les variabilités locales (dues à la taille), les connaissances lacunaires (pour être poli) sur plein d'étapes, etc

... je me dis qu'il faut être sacrément gonflé/inconscient/prétentieux pour prétendre faire,

en 2017, des prédictions précises sur une telle usine à gaz.

Perso, je trouve que ça ressemble à tout, mais justement pas beaucoup à de la science.

 

  • Yea 1
Lien vers le commentaire

C'est triste de devoir attendre la retraite pour dire ce qu'on pense...

Il a signifié les irrégularités au management, puis au congrès, en temps et en heure. 

 

Ce qu'il fait maintenant n'est que de dire les mêmes choses directement au grand public 

Lien vers le commentaire

Concernant les données de températures fournies par la NOAA :

dailymail.co.uk

 

"Un lanceur d’alerte de haut niveau a déclaré à ce journal que la NOAA (l’Administration nationale océanique et atmosphérique de l’Amérique) a enfreint ses propres règles sur l’intégrité scientifique quand il a publié le rapport sensationnel mais erroné, visant à faire le maximum d’impact possible sur les dirigeants mondiaux, incluant Barack Obama et David Cameron à la conférence climatique de l’ONU à Paris en 2015.
Le rapport affirme que la « Pause » ou le « ralentissement » du réchauffement climatique depuis 1998 – révélée par les scientifiques de l’ONU en 2013 – n’a jamais existé et que les températures mondiales ont augmenté plus vite que prévu par les scientifiques. Lancé par la NOAA dans une fanfare de relations publiques, cela a fait sensation à travers les médias du monde, et cité à plusieurs reprises par les politiciens et les décideurs politiques.
Mais le lanceur d’alerte, le Dr John Bates, un scientifique de haut niveau de la NOAA avec une réputation impeccable, a montré à « The Mail on Sunday » la preuve irréfutable que le document était basé sur des données trompeuses, non vérifiées.
Il n’a jamais été soumis au processus rigoureux d’évaluation interne de la NOAA – que le Dr Bates a conçu.
Ses objections véhémentes à la publication des données défectueuses ont été ignorées par ses supérieurs de NOAA dans ce qu’il décrit comme « une tentative flagrante d’intensifier l’impact » de ce qui est devenu connu comme le papier sur « Le casseur de la Pause ».
Ses révélations risquent de raidir le président Trump dans sa détermination à promulguer ses engagements de revenir sur les politiques « vertes » de son prédécesseur et de se retirer de l’accord de Paris, déclenchant ainsi une intense querelle politique."

Traduction  : google+moi

Lien vers le commentaire

Créer un compte ou se connecter pour commenter

Vous devez être membre afin de pouvoir déposer un commentaire

Créer un compte

Créez un compte sur notre communauté. C’est facile !

Créer un nouveau compte

Se connecter

Vous avez déjà un compte ? Connectez-vous ici.

Connectez-vous maintenant
×
×
  • Créer...