Astrologie als Thema beim ZDF Magazin Royale

Der Thread, der sich offensichtlich NICHT in "Esoterik kritisch" befindet,
wurde, wie schon viele vor ihm, bereits ausgiebig von Störern befallen.
Da kommt es auf ein paar mehr Beiträge dieser Art auch nicht mehr an.

Und wieso wäre ich ein Störer hier? Es wurden fundierte kenntnisse zur Statistik erwünscht, und die habe ich. Sogar so gut fundiert, dass ich weiß - und auch erklären kann - was der p-Wert genau ist, und dass er NICHT gleichbedeutend ist mit der Wahrscheinlichkeit eines richtigen positiven Ergebnisses.

PS: Falls @fckw an einer weiteren Vertiefung der methodischen Feinheiten und statistischen Interpretationen interessiert ist, können wir das auch gerne im Unterforum "Wissenschaft und Spiritualität" oder in "Esoterik kritisch" fortführen.
 
Werbung:
Hier EINSEITIG positiv über Astrologie zu schreiben ist natürlich keine Störung des Threads obwohl es ja um die Sendung vom ZDF also von Böhmermann geht.

.. zu der es im Grunde wenig zu sagen gibt. Daß es ihm an Begreifen fehlt,
offenbart er ja schon in den ersten Minuten des Videos. Drum lohnt sichs
meinem Empfinden nach auch nicht, es sich überhaupt ganz anzusehen.
 
Hier EINSEITIG positiv über Astrologie zu schreiben ist natürlich keine Störung des Threads
obwohl es ja um die Sendung vom ZDF also von Böhmermann geht.

In einem Kreis von Leuten, die was von Astrologie verstehen, ließe sich über das Thema konstruktiv reden;
vorausgesetzt sie wären bereit, überhaupt Zeit und Mühe dafür aufzubringen. (Es gibt Interessanteres. ;) )

Das wäre der Unterschied zu einem Thread, der bloß von platten "die können nix!"-Rufen vereinnahmt wird.
Ein Kenner schreibt gute Sachen, als Reaktion kommt ein dummes "du hast keine Argumente gebracht";
was sollte man dazu noch sagen? Das ist einfach eine Ebene, auf der mag nicht jeder mitspielen, weil doff.
 
Ja diese bösen Störer, gehen einen sowas auf den Senkel

Och, daß sie einem auf den Senkel gehen, würd ich nichtmal sagen.
Wenn einem langweilig ist, hat´s ja sogar bissl was Unterhaltsames.
Ich mag halt einfach den Umgang mit verständigen Leuten lieber.
Da kommt mehr bei raus und das Zusammensein fühlt sich besser an.
Aber wenn der Wurm drin ist, ist er das eben. Drum: jetz is eh egal.
 
Och, daß sie einem auf den Senkel gehen, würd ich nichtmal sagen.
Wenn einem langweilig ist, hat´s ja sogar bissl was Unterhaltsames.
Ich mag halt einfach den Umgang mit verständigen Leuten lieber.
Da kommt mehr bei raus und das Zusammensein fühlt sich besser an.
Aber wenn der Wurm drin ist, ist er das eben. Drum: jetz is eh egal.
sie können einen nicht auf den Senkel gehen weil sie , die Würmer der Senkel sind.
 
So, nun will ich mich doch mal hier reinklinken, obwohl ich ja andernorts mal versprochen habe, in gewisse Unterforen nicht rein zu schreiben, weil mir gesagt wurde, eine wissenschaftliche Sicht wäre da (bzw. sogar im Forum allgemein) unerwünscht.
Aber nun gut, jetztg, wo hier Paper hervorgekramt werden und fundierte Statistik-Kenntnisse erwünscht werden - die habe ich - werde ich hier mal etwas dazu schreiben.

Ich habe schon seit einigen Tagen hier mitgelesen, und es hat immer wieder mal in den Fingern gejuckt...

Also: Ich habe das Paper gelesen. Es gibt einige Dinge, die mir da positiv aufgefallen sind:

Der Verfasser reitet nicht nur auf dem p-Wert rum, sondern betrachtet auch die Effektgröße. Ich werde weiter unten auch erklären, warum der p-Wert alleine seine Tücken hat.

Das sind ALLES Studien-Designs, die ich in ähnlichen Diskussionen der Vergangenheit schon selbst hier skizzenhaft vorgestellt habe, wo allerdings mir von Anhängern der Astrologie immer wortreich erklärt wurde, warum das nie und nimmer so klappen könnte.

Der Autor des Papers erwähnt stichworthaft einige methodische Feinheiten bzw. Fallstricke - Verblindung, p-Hacking, Cherrypicking etc. pp. - breitet diese Erklärungen aber nicht stark aus. Dabei betreibt er allerdings selbst Cherry-Picking, in dem er einige positive Studien ausführlich beschreibt, die Kritik an diesen Studien und negativ verlaufene Reproduktions-Versuche aber bestenfalls nur mit einem der Stichworte und einer Quellenangabe anreißt.

Da Du "fundierte Statistikk-Kenntnisse" erwünscht hast, will ich in weiteren Erläuterungen auch aufzeigen, dass Deine Erläuterungen der statistischen Angaben hier fehlerhaft ist:



Der p-Wert - die statistische Signifikanz - gibt die Wahrscheinlichkeit an, dass das gefundene Ergebnis (einschließlich aller "besseren" Ergebnis-Möglichkeiten) im Rahmen der Nullhypothese beobachtet werden würde. Das bedeutet anschaulich erklärt: Wenn wir 100 Versuche machen, die einen Nicht-Effekt untersuchen, werden im Schnitt 5 davon ein falsch-positives Ergebnis haben, indem der p-Wert ihres Ergebnisses unter den besagten 5% liegt.

Das ist NICHT gleichbedeutend, dass das Studien-Ergebnis mit 95%-Wahrscheinlichkeit richtig wäre. Das ist die Tücke des p-Wertes - mindestens, wenn man ihn alleine betrachtet und als einzige Messlatte zwischen beleg/nicht-beleg behandelt.

Zur Veranschaulichung der Tücke, und warum das nicht gleichbedeutend mit "zu 95% wahr" ist, ein Gedanken-Experiment:
Stellen wir uns zwei Urnen vor. In Urne A sind 100 Zettelchen mit Behauptungen, von denen 20 wahr sind. In Urne B sind 100 Zettelchen mit Behauptungen, von denen 80 wahr sind. Nun wird zu jeder dieser Behauptungen eine (statistische) Studie erstellt. Für alle wahren Behauptungen nehmen wir mal an, dass diese zuverlässig entdeckt werden, bei allen falschen behauptungen gibt es die durch die p-Wert-Grenze gegebene Wahrscheinlichkeit eines falsch-positiven Ergebnisses von 5%.

In Urne A werden also alle 20 wahren Behauptungen auch als wahr bestätigt, und von den 80 falschen Behauptungen bekommen 4 ein falsch-positives Ergebnis. Bei den insgesamt 24 Studien mit einem positiven Ergebnis ist die Wahrscheinlichkeit, dass das Ergebnis richtig ist, also nicht 19/20 (95%), sondern nur 5/6 (etwa 83%).

In Urne B werden alle 80 wahren Behauptungen bestätigt, und von den 20 falschen Behauptungen bekommt eine ein falsch-positives Ergebnis. Von den 81 Studien mit positivem Ergebnis ist die Wahrscheinlichkeit, dass dieses richtig ist, nicht nur 95%, sondern sogar 80/81 (knapp 99%).

Um die Wahrscheinlichkeit zu ermitteln, dass ein gegebenes (positives) Ergebnis wirklich wahr ist, brauchen wir nicht nur den p-Wert, wird müssten auch eine a-priori-Wahrscheinlichkeit wissen, die wir nicht kennen. Wenn wir diese a-priori-Wahrscheinlichkeit kennen würden, könnten wir das Endergebnis, also die Wahrscheinlichkeit, dass das positive Ergebnis wirklich richtig ist, mit dem p-Wert und der a-priori-Wahrscheinlichkeit zusammen über Bayes Theorem (mein Liebliengs-Theorem aus der statistischen Mathematik) ermitteln.

Da wir diese a-priori-Wahrscheinlichkeit aber nicht kennen - bestenfalls könnten wir versuchen, sie über die Plausibilität der Behauptung etwas abzuschätzen - können wir nur den p-Wert als Messlatte benutzen, ob ein Ergebnis statistisch signifikant ist oder nicht.

Das Problem ist nicht nur in den sog. Grenzbereichen der Wissenschaften gegeben, sondern ist eine allgegenwärige Mahnung im allgemeinen Forschungsbetrieb.

Man könnte jetzt auch fragen, warum man die Grenze zur statistischen Signifikanz so locker wählt und nur fordert, dass der p-Wert unter 5% liegt. In der Physik ist die Grenze da sehr viel strenger; da gilt das sog 5-Sigma-Kriterium, was einem p-Wert entspricht, der noch unwahrscheinlicher ist als ein Lotto-Hauptgewinn. Die Antwort ist ganz einfach, dass mit den Stichproben-Größen, mit denen in Medizin und Sozial-Wissenschaften gearbeitet wird, eine solche statistische Signifikant nicht erreichbar ist oder nur nach sehr sehr langwierigen Studien.

Was folgt daraus? Um dem zu begegnen, gibt es mehrere wichtige Ansätze, die Fehlschlüsse reduzieren und schlussendlich doch auch wieder aussortieren. Zum einen: Man betrachtet nunmal nicht nur den p-Wert sondern suche auch zusätzlich auf weitere statistische Merkmale, die einen Hinweis geben können - wie zum Beispiel die Effekt-Größe. Darüber hinaus ist es ohnehin eine wissenschaftliche Forderung, dass ein Ergebnis auch unabhängig reproduzierbar sein muss. Eine Studie mit einem statistisch signifikanten Ergebnis und möglicherweise auch einer guten Effekt-Größe ist kein Beweis. Der Beweis kristallisiert sich erst dann heraus, wenn sich dieses Ergebnis auch in weiteren - möglicherweise auch verbesserten - Studien wieder und wieder zeigt.

Zurück konkret zum Paper:
Er bespricht wie gesagt einzelne Ansätze für Studien-Designs und beschreibt ausführlich einzelne solcher Studien, die ein positives Ergebnis hatten. Kritik an diesen Studien, die es auch zu Hauf gab (z.B. zum "Mars-Effekt" kann man da auf Skeptiker-Seiten einiges finden) erwähnt er gar nicht oder nur mit einem Stichwort und kurzer Quellen-Angabe. Sein Artikel wäre besser/neutraler, wenn er vielleicht auch dazu ein wenig weiter ausgeholt hätte. Und ich weiß, dass es sehr viel mehr Studien zum Themenkomplex gab, als er da aufführt. Wieso erwähnt er nicht auch einige explizit und ähnlcih ausführlich beschrieben mit negativem Ergebnis? Mir fällt auf die Schnelle leider nur eine Studie von Edgar Wunder ein, die in die 3. Studien-Kategorie des Papers passen würde... aus der besagter Edgar Wudner aber leider (noch) keine Veröffentlichung gemacht hat. Die Studie selber fand in den 00-er Jahren statt, und ich weiß von ihr, weil einer der teilnehmenden Astrologen auf seiner Webseite davonb bverichtet und Zwischenergebnisse veröffentlich that, die zunächst positiv waren... aber mit Fortschreiten der Studie verschwanden die Effekte wieder aus der wachsenden Statistik.

Soll ich nich ein wenig mehr über die möglichen Mängel und Fallstricke erklären? Ich kann auch einiges dazu schreiben, was dieses p-Hacking genau bedeutet, und warum das ein Problem ist.
Ich bin gern bereit, das weiter zu diskutieren. Das Ding ist allerdings: Mich interessiert nicht, ob nun irgendein Detail an Studie XYZ besser sein könnte. Mir ist ebenfalls aufgefallen, dass in der Studie die kritischen Stimmen etwas fehlen - dann aber wiederum gibt's so viele Negativstudien, dass ich es durchaus vertretbar finde, dass der Autor schon gar nicht erst allzu sehr darauf eingeht, sondern hauptsächlich der Frage nachgeht, wie denn eine empirisch fundierte Studie zu Astrologie auszusehen hat. Sein Anliegen war ja offenbar nicht, Beweise für das Funktionieren der Astrologie zu erbringen, sondern zu ergründen, wie Studien aufgebaut sein müssten, um ernsthaft herauszufinden, ob Astrologie funktioniert.

Im Grunde genommen müssten ja Wissenschaftler der halben Welt jetzt versuchen, diese referenzierten Studien zu verifizieren - denn falls auch nur eine davon stimmt, dann müsste das unser szientistisches Weltverständnis völlig umwälzen.

Nur - das geschieht nicht. Und die Frage ist jetzt, ist das wegen Voreingenommenheit, oder weil letztlich nichts hinter jenen Studien steht, die positive Ergebnisse berichten?
 
Ich bin gern bereit, das weiter zu diskutieren. Das Ding ist allerdings: Mich interessiert nicht, ob nun irgendein Detail an Studie XYZ besser sein könnte. Mir ist ebenfalls aufgefallen, dass in der Studie die kritischen Stimmen etwas fehlen - dann aber wiederum gibt's so viele Negativstudien, dass ich es durchaus vertretbar finde, dass der Autor schon gar nicht erst allzu sehr darauf eingeht, sondern hauptsächlich der Frage nachgeht, wie denn eine empirisch fundierte Studie zu Astrologie auszusehen hat. Sein Anliegen war ja offenbar nicht, Beweise für das Funktionieren der Astrologie zu erbringen, sondern zu ergründen, wie Studien aufgebaut sein müssten, um ernsthaft herauszufinden, ob Astrologie funktioniert.

Ja, Und was mich dabei besonders freut, ist dass es genau die gleichen Studien-Designs sind, die ich in unzähligen Diskussionen vorgeschlagen und erklärt habe. Dabei habe ich diese Vorschläge nicht nur auf eigenen Überlegungen dargelegt, wie ich alleine eine solche Studie aufbauen würde, sondern auch, weil ich weiß, dass solche Studien stattgefunden haben und auch noch stattfinden.

Im Grunde genommen müssten ja Wissenschaftler der halben Welt jetzt versuchen, diese referenzierten Studien zu verifizieren - denn falls auch nur eine davon stimmt, dann müsste das unser szientistisches Weltverständnis völlig umwälzen.

Nur - das geschieht nicht. Und die Frage ist jetzt, ist das wegen Voreingenommenheit, oder weil letztlich nichts hinter jenen Studien steht, die positive Ergebnisse berichten?

Wissenschaftler weltweit waren und sind ja dabei diese Studien zu betrachten, untersuchen und ggf. versuchen zu reproduzieren. Die Vielzahl an Negativstudien, die Du oben erwähnst, beruht zum Teil genau da drauf. Das sind nicht nur tumb-skeptische Stimmen a la: "Glauben wir nicht!!! Ist blöd!!!", sondern sinngemäß: "Darin sind diese und jene methodische Mängel enthalten, und wenn wir versuchen das Ergebnis zu reproduzieren, kriegen wir kein positives Ergebnis für die Astrologie mehr."

Mit anderen Worten: Es geschieht doch. Wissenschaftler weltweit schauen sich auch diese Studien unvoreingenommen an und betrachten Methodik und Ergebnis entsprechend und versuchen dann auch das Experiment (möglicherweise verbessert) zu reproduzieren. Du verweise selbst darauf, indem Du bestätigst: "dann aber wiederum gibt's so viele Negativstudien"

Es gibt allerdings einen Punkt, der den Enthusiasmus der Wissenschaftler weltweit ein wenig dämpfen könnte:
Wissenschaftler weltweit haben auch das Anliegen, möglichst vielversprechende Forschung zu betreiben, auf dass ihre oftmals befristeten Arbeitsverträge verlängert oder bestenfalls gar entfristet werden, so dass sie auch die Perspektive haven in zwölf Monaten oder noch länger hinaus nicht nach neuer Arbeit suchen zu müssen. Die Wahrscheinlichkeit dafür ist größer, wenn sie Fachartikel mit positivem Ausgang publizieren als wenn sie ausschließlich Paper alleinig mit dem Inhalt: "Wir haben xyz probiert... hat auch wieder nicht geklappt." in ihrem CV haben. So müssen sie also Themen suchen, bei denen sie glauben die Chance zu haben auch etwas wirklich interessantes zu finden - also eine Vorauswahl nach Plausibilität machen. Das hat nichts mit Voreingenommenheit zu tun, sondern damit, dass auch Wissenschaftler ihre Miete dauerhaft zahlen wollen und z.B. auch wissen wollen, ob sie ein Jahr später noch am gleichen Ort wohnen und arbeiten können etc. Das ist ein Grund, warum sich Wissenschaftler vielleicht nicht ganz so wild auf solche Ergebnisse stürzen, wie Du es offenbar gerne hättest. Sie alle sehen durchaus die Studien, viele fänden es vielleicht sogar interessant sie zu replizieren oder gar zu verbessern... aber aus verschiedenen rational nachvollziehbaren Gründen schätzen sie die Chance eher gering ein, dass dabei auch ein so positives Ergebnis bei rauskommen würde.

Paradigma hin oder her: Wenn Du willst, dass die Astrologie noch stärker weiter empirisch getestet wird, als es ohnehin schon geschieht, musst Du nichts am Paradigma der Wissenschaft ändern, sondern an Wissenschafts-schädigenden Problemen wie dem Publikationsdruck ("Publish or perrish") oder dem eklatanten Mangel an permanenten Forschungs-Stellen außerhalb von Professuren.
 
Werbung:
Zurück
Oben