bis zu wieviel % gilt denn ein zufallsergebnis? aus einem bericht (ging um nähere erforschung intuition) entnahm ich...der liege unterhalb von 12 %. darüber wäre es keiner mehr. absolut bewiesen wäre es allerdings auch nicht wenn's darüber liegt. nur die wahrscheinlichkeit erhöht sich. die frage ist deshalb. ...ab welchem prozentsatz wäre etwas überhaupt bewiesen? 100% wird es wohl nie geben da ja jeder körper individuell reagiert bzw es immer ausnahmen geben wird.
Dazu gibt es keine feste Trefferquote oder ähnliches. Du zu nehmende Hürde ist dabei die sog "statistische Signifikanz". Damit ist die Wahrscheinlichkeit des erzielten Ergebnisses unter der Annahme der Nullhypothese (= Hypothese keines Zusatz-Phänomens) gemeint. je nach Versuchsaufbau und Größe der Stichprobe (Anzahl der Versuchsdurchläufe) muss man die geforderte Trefferquote berechnen, die die Signifikanz-Schwelle überschreitet. In medizinischen Versuchen wird dabei meist 5% als zu unterbietende Hürde genommen - d.h. unter der Annahme der Nullhypothese muss die Wahrscheinlichkeit des erzielten Ergebnisses kleiner als 5% sein, um die Nullhypothese zu verwerfen und da den untersuchten Effekt/Wirkung zu akzeptieren. Diese Wahrscheinlichkeit wird im Wissenschafts-Slang auch gerne "p-Wert" genannt.
In der Physik sind wir da teilweise viel strenger. Da gilt z.B. das 5-Sigma-Kriterium, welches einem p-Wert von weniger als 1 zu 10000000 entspricht. Aufgrund der sehr großen Datenmengen, die wir hier ansammeln können, können wir uns das leisten. In medizinischen Studien sind solche Kriterien fast unmöglich zu erreichen.
Das ist allerdings alles immernoch mit Vorsicht zu genießen. Die Wahrscheinlichkeit des (positiven) Ergebnisses unter der Annahme der Nullhypothese ist NICHT zu verwechseln mit der Wahrscheinlichkeit, dass das erzielte Ergebnis Zufall war, also, dass die Nullhypothese zutrifft, mit dem erzielten Ergebnis (welches möglicherweise anders aussieht) - siehe dazu z.B. den Artiekl "Der Fluch des p-Werts" in Spektrum der Wissenschaft September 2014 (glaube ich). Um letztendlich diese Wahrscheinlichkeit abschätzen zu können benötigt man auch wieder sowas wie die wissenschaftliche Plausibilität.
Zur Verdeutlichung stelle Dir zwei Schalen vor, in der jeweils 1000 Zettelchen mit Behauptungen drauf sind. In der einen Schale (Schale A) sind plausible Behauptungen, und in der anderen (Schale B) sind unplausible. Sagen wir mal - einfach nur als Zahlenbeispiel - 90% der plausiblen Behauptungen sind wahr und 10% der unplausiblen. Und nehmen wir weiter an, dann wahre Behauptungen zuverlässig erkannt werden (wem diese Annahme zu vereinfachend ist, kann die spätere Rechnung gerne auch anders durchführen, an der Schlussfolgerung wird es nichts ändern.
Nun testen wir alle Behauptungen.
In Schale A haben wir 900 wahre behauptungen und 100 unwahre. die 900 wahren Behauptungen werden alle erkannt, von den unwahren bekommen aber 5% - also 5 - ein falsch-positives Ergebnis (<5% Wahrscheinlichkeit des positiven Ergebnisses unter Annahme der Nullhypothese, die bei diesen 100 falschen behauptungen ja wahr ist). Von den 905 positiv getesteten Behauptungen sind 900 wahr. Die Irrtumswahrscheinlichkeit in dieser Schale liegt also bei etwa 0,55% - ist also recht gut.
In Schale B sieht die Situation folgendermassen aus: 100 positiv erkannte wahre Aussagen und 45 falsch positive Aussagen. Die Irrtumswahrscheinlichkeit bei den positiven Aussagen beträgt hier etwa 31%.
Nun wissen wir nicht so einfach, wie groß diese "a priori Wahrscheinlichkeit" ist - das können wir nur über die Plausibilität irgendwie abschätzen. Aber das ist sozusagen die mathematische begründung, dass je unplausibler eine Bejhauptung ist - je abgedrehter, je mehr Zusatzvariablen postuliert werden etc. pp - desto strenger muss man hinschauen, desto tiefer muss man diese messlatte der Signifikanz hängen, um sie zu akzeptieren.
Streng genommen lässt sich herzlich wenig wirklich beweisen. Aber, je mehr gute Realitätschecks eine Behauptung übersteht, desto "gesicherter" ist sie. Ein guter p-Wert kann nichts beweisen, aber kann mehr oder weniger starke "Schubser" zur Plausibilität geben (oder nicht).