Der von Menschen gemachte Klimawandel

Confidence-Intervalle allein sind keine Garantie für neutrale Kommunikation

Zwar benennt das IPCC Unsicherheiten formal korrekt mit Confidence-Intervallen – aber das Narrativ, das daraus in Medien, Politik und sogar in manchen IPCC-Zusammenfassungen für Entscheidungsträger entsteht, ist oft unausgewogen alarmistisch.

Die untere Bandbreite wird kaum kommuniziert – der Fokus liegt auf Worst-Case-Szenarien.

Nein. Denn auch die Folgen von z.B. nur 2° Erwärmung pro CO2-Verdoppelung (best case vom IPCC) sind die gleichen, nur eben ein klein wenig später. Ob z.B. die Korallen in 30 oder 50 Jahren aussterben werden ist aber für die Entscheidung, sie möglichst nicht aussterben zu lassen, beinahe irrelevant. Ebenso die anderen dramatischeren Kippelemente (schmelzen der Westantarktis, Permafrost abtauen etc...). Ob es in 50 oder vielleicht mit Glück erst in 70 Jahren droht, dass 2,5° Erwärmung überschritten wird (falls weiter nur schwach gebremst), macht für politische Entscheidungen keinen großen Unterschied, weil wir doch möglichst weit unter 2,5° bleiben sollten.

Paleoklimadaten ≠ heutiger CO₂-getriebener Wandel

Ja, aber auch bei den damaligen Klimaveränderungen (-erwärmungen) spielte CO2 eine Rolle. Auch bei denen, die ihre Grundursache in z.B. Variationen der Erdbahn haben. Da kommt CO2 über Rückkopplungen mit ins Spiel, was dann die Erwärmung sogar noch verstärkt.

Und die (vielleicht dämpfenden) Rückkopplungen wenn vorhanden über Wolkenbildung etc. auf die Du so gerne verweist, waren damals vermutlich auch nicht viel anders. Die Wolkenbildungs-Mechanismen etc. (wann sich warum welche Wolken wo bilden) werden sich nicht drastisch verändert haben.

Zwar fließen Daten aus Eisbohrkernen und anderen geologischen Quellen in die Schätzungen zur Klimasensitivität ein, aber diese Daten sind extrem ungenau, indirekt und interpretationsabhängig.

Paleoklima ist nützlich für Hypothesenbildung, aber viel zu spekulativ, um damit heutige Politiken zu rechtfertigen.

Diese historischen Schätzungen enthalten viele Störfaktoren: Vulkane, Sonnenzyklen, Veränderungen der Erdumlaufbahn – nicht nur CO₂. Daraus präzise Zahlen für zukünftige Sensitivität abzuleiten, ist wissenschaftlich hochgradig unsicher.

Weswegen es auch nicht die einzige Quelle von Schätzungen ist.

Modellkonvergenz ≠ Realitätsnähe


Der „best estimate“ von 3 °C Klimasensitivität basiert größtenteils auf Modellen, die gegenseitig kalibriert sind, aber nicht notwendigerweise die Realität akkurat abbilden.

Nein, sie sind nicht gegenseitig kalibriert, sie benutzen unabhängig gemessene Modelparameter, die kontinuierlich verbessert und eingereicht werden. Da gibt es tausende Einzelstudien über das Albedo von Oberflächen in Abhängigkeit von der Temperatur, über die Schmelzgeschwindigkeit von Eis bei mehr oder weniger Ruß, ozeanische Strömungen in Abhängigkeit vom Salzgehalt uvm.

Zum Beispiel: Vor ein paar Jahren ließ sich das Forschungsschiff Polarstern über ein Jahr im Nordpolarmeer einfrieren, um sich mit der Eisdrift mit treiben zu lassen. Dabei wurden sehr viele meteorlogische, klimatologische, geografische und ozeanografische Messungen durchgeführt, die ebenfalls teilweise in die Modelle mit einfließen. Ein Freund von mir hat als Wissenschaftler an dieser Expedition teilgenommen (und musste/durfte Pandemie-bedingt sogar etwas länger als ursprünglich geplant an Bord bleiben).

Dass andere Studien teils höhere Werte ergeben, zeigt eher die Bandbreite der Unsicherheit – nicht eine Absicherung des „best guess“.

Und es zeigt, dass das IPCC nicht nur auf worst case setzt.

Und gerade diese Unsicherheit muss auch in Richtung geringerer Sensitivität offen gehalten werden.

Dann zeige die vielen seriösen Studien, die geringere Werte aufzeigen, und die noch nicht falsifiziert wurden. Für die IRIS-Hypothese von Leizden gilt das näcmlich nicht. DAS konnte entkräftet werden.

Wissenschaft ist da nicht demokratisch "fair", dass sie dann diese Unsicherheit nach unten ohne Hinweise drauf offen lässt, nur weil es nach oben diese Unsicherheit gibt. Confidenzintervalle müssen nicht symmetrisch sein und bleiben.

Confidence-Intervalle sind nur so gut wie ihre Grundlagen. Und wenn diese Grundlagen stark modell- und annahmeabhängig sind, dürfen wir sie nicht wie Naturgesetze behandeln.

Sie sind aber nicht so stark annahme-abhängig, wie Du es hier darstellen willst.
 
Zuletzt bearbeitet:
Werbung:
Joey schrieb:
Dann zeige die vielen seriösen Studien, die geringere Werte aufzeigen, und die noch nicht falsifiziert wurden. Für die IRIS-Hypothese von Leizden gilt das näcmlich nicht. DAS konnte entkräftet werden.


Zahlreiche Peer-Review-Studien zeigen geringere Werte für die Klimasensitivität (ECS – Equilibrium Climate Sensitivity) zwischen 1,0 °C und 2,0 °C pro CO₂-Verdopplung. Diese stammen u. a. von:

Lewis & Curry (2018, 2021): ECS ≈ 1,5–1,8 °C

Otto et al. (2013): ECS ≈ 1,9 °C

Hargreaves et al. (2012)

Chaudhuri et al. (2022)

u. a.


Diese Studien verwenden empirische Ansätze, z. B. Energiebilanzen der Erde, und nicht rein klimamodellgestützte Projektionen.

Diese empirischen Studien sind nicht falsifiziert worden, sie werden nur in den IPCC-Zusammenfassungen marginalisiert, oft mit der Begründung, dass sie zu konservativ seien oder Unsicherheiten nicht ausreichend abbildeten.

IRIS-Hypothese war ein Aspekt, nicht die Basis

Dass Lindzens IRIS-Hypothese (negative Rückkopplung durch Wolken) nicht empirisch bestätigt wurde, heißt nicht, dass seine generelle Kritik an hoher Klimasensitivität hinfällig ist.
Selbst ohne IRIS gibt es mehrere physikalische Argumente und Beobachtungen, die gegen hohe ECS-Werte sprechen:

Sättigungseffekt von CO₂ bei bestimmten Infrarot-Wellenlängen

natürliche Variabilität (z. B. Pazifische Dekaden-Oszillation) unterschätzt

moderat bleibende Erwärmung in mehreren Beobachtungszeiträumen (z. B. 2000–2015) trotz CO₂-Anstieg


Die Modellannahmen bestimmen das Ergebnis. Wenn man gewisse Rückkopplungen voraussetzt, erhält man zwangsläufig hohe Sensitivität.
 
(...)
Diese empirischen Studien sind nicht falsifiziert worden, sie werden nur in den IPCC-Zusammenfassungen marginalisiert, oft mit der Begründung, dass sie zu konservativ seien oder Unsicherheiten nicht ausreichend abbildeten.

Und schon auf die Idee gekommen, dass das IPCC mit diesen Punkten Recht haben könnte?

Wir sind ja jetzt schon bei knapp 1,5° Erwärmung und einer knappen ver-1,5-fachung des CO2 gegenüber vorindustrieller Zeit. Da musst Du schon sehr wohlwollend abziehen und podtulieten um das ECS klein zu halten.

Und diese Werte liegen nicht so weit unter den 2°, die das IPCC als best case angibt.

Sättigungseffekt von CO₂ bei bestimmten Infrarot-Wellenlängen

Diese Sättigung (bei ziemlich vielen Wellenlängen) bewirkt, dass diese Sensitivität eine annähernd logarithmische Größe ist- also Offset pro Verdoppelung und nicht linear Offset pro Offset. Ein Argument, dass der Offset pro Verdopprlung auch klein sein muss, ist das nicht.

moderat bleibende Erwärmung in mehreren Beobachtungszeiträumen (z. B. 2000–2015) trotz CO₂-Anstieg

Ach ja, ich erinnere mich an Diskussionen mit Klimawandel-Leugnern damals, die jubelten, dass die Kurve von ganz alleine abflachen würde und behaupteten, dass es bald umkehren und suf 0 zurückkehren würde. Das Fegenteil ist passiert. Und mittlerweile ist auch dieser Dipp in der Kurve erklärt.

Die Modellannahmen bestimmen das Ergebnis. Wenn man gewisse Rückkopplungen voraussetzt, erhält man zwangsläufig hohe Sensitivität.

Die Modellannahmen sind aber nicht aus der hohlen Hand gepfiffen. Modellannahmen und besagte Rückkopplungen können auch richtig sein.
 
Und schon auf die Idee gekommen, dass das IPCC mit diesen Punkten Recht haben könnte?

Ja, könnte..

Wir sind ja jetzt schon bei knapp 1,5° Erwärmung und einer knappen ver-1,5-fachung des CO2 gegenüber vorindustrieller Zeit. Da musst Du schon sehr wohlwollend abziehen und podtulieten um das ECS klein zu halten.

Und diese Werte liegen nicht so weit unter den 2°, die das IPCC als best case angibt.


Die gegenwärtige globale Erwärmung um ~1,5 °C seit vorindustrieller Zeit bezieht sich auf beobachtete Veränderungen im Zeitraum von ~1850 bis heute – sie ist also transient, nicht „im Gleichgewicht“.

Die Klimasensitivität (ECS) beschreibt jedoch die Erwärmung nach vollständiger Anpassung des Klimasystems an eine CO₂-Verdopplung – was Jahrhunderte dauern kann.


Die CO₂-Konzentration ist seit vorindustrieller Zeit von ~280 auf ~420 ppm gestiegen – das ist keine 1,5-fache Zunahme im log-Klimasystem, sondern bedeutet eine halbe CO₂-Verdopplung (da 280 × 2 = 560 ppm).

Wenn 1,5 °C Erwärmung auf eine halbe CO₂-Verdopplung zurückginge, läge ECS bei ~3 °C.
Aber: Wenn nur ~1 °C davon tatsächlich durch CO₂ verursacht wurde, läge ECS bei ~2 °C oder weniger.

Die beobachtete Erwärmung lässt sich nicht einfach 1:1 auf CO₂ zurückrechnen. Das wäre methodisch verkürzt.
Der Anteil anderer Faktoren sowie die fehlende Gleichgewichtsanpassung führen dazu, dass die reale Klimasensitivität deutlich niedriger liegen kann als oft angenommen.

Diese Sättigung (bei ziemlich vielen Wellenlängen) bewirkt, dass diese Sensitivität eine annähernd logarithmische Größe ist- also Offset pro Verdoppelung und nicht linear Offset pro Offset. Ein Argument, dass der Offset pro Verdopprlung auch klein sein muss, ist das nicht.

Der logarithmische Zusammenhang allein beweist keine hohe Sensitivität.
Man kann nicht aus der mathematischen Form auf die Stärke der Reaktion schließen – dazu braucht es empirische Plausibilität, und genau daran bestehen laut Lindzen und anderen erhebliche Zweifel.

Ach ja, ich erinnere mich an Diskussionen mit Klimawandel-Leugnern damals, die jubelten, dass die Kurve von ganz alleine abflachen würde und behaupteten, dass es bald umkehren und suf 0 zurückkehren würde. Das Fegenteil ist passiert. Und mittlerweile ist auch dieser Dipp in der Kurve erklärt.

Skepsis gegenüber den stärksten Klimamodellen oder der politischen Kommunikation bedeutet nicht, dass man den Klimawandel leugnet.

Die Modellannahmen sind aber nicht aus der hohlen Hand gepfiffen. Modellannahmen und besagte Rückkopplungen können auch richtig sein.


Natürlich stammen die Modellannahmen nicht aus der Luft. Niemand behauptet das.

Aber die entscheidenden Unsicherheiten liegen nicht in der Existenz von Rückkopplungen, sondern in deren Stärke, Wechselwirkung und zeitlichem Verlauf.

Die Modelle müssen viele dieser Prozesse parametrisieren, also durch Näherungswerte ersetzen – insbesondere wie gesagt bei Wolkenbildung (die größte Unsicherheitsquelle),Wasserdampfverstärkung, Ozeanzirkulationen und deren Verzögerungseffekte und Landnutzungsänderungen, Aerosole, etc.


Viele dieser Rückkopplungen verstärken sich nicht linear, wirken zeitverzögert oder sogar gegenseitig abschwächend.

Die Modelle wurden vielfach auf vergangene Daten kalibriert. Wenn Rückkopplungsannahmen dort "funktionieren", bedeutet das nicht, dass sie in Zukunft vorhersagbar richtig reagieren – besonders unter veränderten Randbedingungen.

Die Rückkopplungen könnten stimmen, aber das ist eine Hypothese mit großer Bandbreite.
Solange zentrale Faktoren wie Wolken nur sehr grob modelliert werden können, ist Vorsicht statt Gewissheit geboten.
 
Die gegenwärtige globale Erwärmung um ~1,5 °C seit vorindustrieller Zeit bezieht sich auf beobachtete Veränderungen im Zeitraum von ~1850 bis heute – sie ist also transient, nicht „im Gleichgewicht“.

Die Klimasensitivität (ECS) beschreibt jedoch die Erwärmung nach vollständiger Anpassung des Klimasystems an eine CO₂-Verdopplung – was Jahrhunderte dauern kann.

Und was lässt Dich glauben, der transiente Zustand aktuell wäre über das Gleichgewicht hinaus geschossen? Das ist Deine Vorannahme hier. Nur dann wäre das ein Argument.

Man könnte das gleiche auch umgekehrt sehen und sagen, dass das Klimasystem träge sei und es deswegen erst Zeit braucht, bis die Erwärmung in Fahrt kommt. Dann wären die 1,5° sogar zu wenig.

Wenn 1,5 °C Erwärmung auf eine halbe CO₂-Verdopplung zurückginge, läge ECS bei ~3 °C.
Aber: Wenn nur ~1 °C davon tatsächlich durch CO₂ verursacht wurde, läge ECS bei ~2 °C oder weniger.

Wenn...

Mathematische Spitzfindigkeit: Eine ver-1,5-fachung ist keine halbe Verdoppelung, sondern eine etwa 0,585-fache Verdoppelung.

Die beobachtete Erwärmung lässt sich nicht einfach 1:1 auf CO₂ zurückrechnen. Das wäre methodisch verkürzt.

Aber es lässt sich gut sagen, dass CO2 sei die stark dominante Ursache aktuell.

Der Anteil anderer Faktoren sowie die fehlende Gleichgewichtsanpassung führen dazu, dass die reale Klimasensitivität deutlich niedriger liegen kann als oft angenommen.

... oder auch deutlich höher.

Der logarithmische Zusammenhang allein beweist keine hohe Sensitivität.

Das habe ich auch nicht behauptet.
Die (annähernd) logarithmische Form der Sensitivität ist ein Effekt der Sättigung. Wäre keine Sättigung da, wäre es linear.

Du hast geschrieben, die Sättigung wäre ein Argument dafür, dass die Sensitivität klein wäre. Und das ist nicht richtig. Die Sättigung ist ein Argument für die Form, aber nicht dafür, dass der Vorfaktor kleiner sein muss, als es aussieht.

Man kann nicht aus der mathematischen Form auf die Stärke der Reaktion schließen – dazu braucht es empirische Plausibilität, und genau daran bestehen laut Lindzen und anderen erhebliche Zweifel.

Doch, kann man. Das Absorptionsspektrum der Treibhausgase kann man sehr genau vermessen und so auch den Treibhauseffekt im Labor vereinfacht nachahmen. Dieser Anteil der Modellrechnungen ist auch sowohl vergleichsweisr einfach als auch sehr abgesichert und keine groben Vorannahmen. Es ist eine simple Strahlungs- und Energiebilanzrechnung. Die Unsicherheiten kommen großantrelig durch die Variabilität des Albedo.

Skepsis gegenüber den stärksten Klimamodellen oder der politischen Kommunikation bedeutet nicht, dass man den Klimawandel leugnet.

Richtig. Klimawandel-Leugner benutzen allerdings genau die selbe Skepsis.

Natürlich stammen die Modellannahmen nicht aus der Luft. Niemand behauptet das.

Aber die entscheidenden Unsicherheiten liegen nicht in der Existenz von Rückkopplungen, sondern in deren Stärke, Wechselwirkung und zeitlichem Verlauf.

Die Modelle müssen viele dieser Prozesse parametrisieren, also durch Näherungswerte ersetzen – insbesondere wie gesagt bei Wolkenbildung (die größte Unsicherheitsquelle),Wasserdampfverstärkung, Ozeanzirkulationen und deren Verzögerungseffekte und Landnutzungsänderungen, Aerosole, etc.

Und da hält man nicht auf groben Annahmen fest, sondern beobachtet und misst eifrig, was dann auch in die Klimamodelle eingeht. Sonst hätte die IRIS-Hypothese nicht falsifiziert werden können - darin ging es ja um Wolken. Und so wurden die Klimamodelle tatsächlich besser und besser. Und nichts deutet drauf hin, dass sie noch grobe Fehler enthalten.

Die Rückkopplungen könnten stimmen, aber das ist eine Hypothese mit großer Bandbreite.

Was durch das Confidence-Intervall gespiegelt wird.

Solange zentrale Faktoren wie Wolken nur sehr grob modelliert werden können, ist Vorsicht statt Gewissheit geboten.

Vorsicht worin? Wenn es nur um die akademische Diskussion ginge, wie hoch der Vorfaktor der Klimasensitivität ist, ist es ok, auf diesen Unsicherheiten rumzureiten.

Vorsicht beim Klimaschutz ist aber dennoch nicht angebracht.

Du tust wieder so, als würden die Unsicherheiten bedeuten, dass es sicher schon nicht so schlimm wäre, wie das IPCC sagt, und dass irgendwann in der Zukunft eine Deus-Ex-Machina-Dämpfung die aktuell schon überschießende Erwärmung zurückholen würde. Kann passieren; schön wäre es.

Diese Unsicherheiten bedeuten aber auch, dass es deutlich schlimmer ist, und das IPCC sogar versehentlich untertreibt. Schonmal an alleine diese Möglichkeit gedacht?
 
Zuletzt bearbeitet:
Interessant ist, dass der Satzbau, die Zeichensetzung und die Verwendung von Fachbegriffen @Nuss mal erstaunlich leicht fallen - und mal nicht. Wenn man zwecks Überprüfung der Rechtschreibung oder zur Recherche eine KI benutzt, finde ich das völlig in Ordnung. Aber ich würde erwarten, dass jemand der KI Texte kopiert und einstellt, diese auch verstanden hat.
 
Werbung:
Zurück
Oben