@Urmel: Soweit ich die Sache verstanden habe: Bei einem statistischen Test dieser Art geht man von einer Hypothese aus, die man versucht zu falsifizieren (z.B. "Minocyclin und Placebo wirken gleich gut"). p = 0.06 bedeutet nun, dass der gefundene Zusammenhang (etwa dass Minocyclin besser als Placebo wirkt) mit einer Wahrscheinlichkeit von 6 % durch Zufall zustande gekommen ist (weil man ja stellvertretend für die gesamte Menschheit nur eine Stichprobe in der Studie untersucht). Wenn die Wahrscheinlichkeit für dieses Ereignis < 5 % bzw. p < 0.05 ist, nennt man das Ergebnis signifikant und verwirft die Anfangshypothese, d.h. man folgert "Minocyclin wirkt besser als Placebo".
Die andere Sache (und das ist was mich umtreibt), ist, dass man die Hypothese ("Minocyclin und Placebo wirken gleich") fälschlicherweise als wahr annimmt, obwohl sie falsch ist und hätte verworfen werden müssen. Diesen Fehler nennt man soweit ich weiß Betafehler und der ist im Gegensatz zur Signifikanz (bzw. Alphafehler) nicht oder nur sehr schwer berechenbar und wird in den Publikationen auch nicht angegeben. Man kann also bei p = 0.06 nicht sagen, dass Minocyclin nicht besser als Placebo wirkt. Man kann lediglich sagen: "Die Hypothese, dass Minocyclin und Placebo gleich wirken, kann auf Basis der Stichprobe und einem Signifikanzniveau von p < 0.05 nicht verworfen werden." Die Fehlerwahrscheinlichkeit, die Hypothese fälschlicherweise als wahr anzunehmen, kann beträchtlich sein. Ich hoffe das ist inhaltlich korrekt wiedergegeben. Um die Sache wirklich durchdringen zu können, müsste man sich ordentlich mit Statistik auseinandersetzen, da fehlt mir wirklich die Motivation dazu. Ich bin da halt beim Thema Metronidazol drauf gestoßen, da aufgrund der sehr schlechten Datenlage die Hypothese "Metronidazol verursacht keinen Krebs" nicht verworfen werden kann, was dann die meisten Leute und auch Ärzte zu dem Gedanken veranlasst, dass Metronidazol nicht kanzerogen ist. Diesen Schluß kann man nach meinem Verständnis aber keinesfalls ziehen. Vielleicht liest hier jemand mit, der in der Thematik drin steckt.
Die andere Sache (und das ist was mich umtreibt), ist, dass man die Hypothese ("Minocyclin und Placebo wirken gleich") fälschlicherweise als wahr annimmt, obwohl sie falsch ist und hätte verworfen werden müssen. Diesen Fehler nennt man soweit ich weiß Betafehler und der ist im Gegensatz zur Signifikanz (bzw. Alphafehler) nicht oder nur sehr schwer berechenbar und wird in den Publikationen auch nicht angegeben. Man kann also bei p = 0.06 nicht sagen, dass Minocyclin nicht besser als Placebo wirkt. Man kann lediglich sagen: "Die Hypothese, dass Minocyclin und Placebo gleich wirken, kann auf Basis der Stichprobe und einem Signifikanzniveau von p < 0.05 nicht verworfen werden." Die Fehlerwahrscheinlichkeit, die Hypothese fälschlicherweise als wahr anzunehmen, kann beträchtlich sein. Ich hoffe das ist inhaltlich korrekt wiedergegeben. Um die Sache wirklich durchdringen zu können, müsste man sich ordentlich mit Statistik auseinandersetzen, da fehlt mir wirklich die Motivation dazu. Ich bin da halt beim Thema Metronidazol drauf gestoßen, da aufgrund der sehr schlechten Datenlage die Hypothese "Metronidazol verursacht keinen Krebs" nicht verworfen werden kann, was dann die meisten Leute und auch Ärzte zu dem Gedanken veranlasst, dass Metronidazol nicht kanzerogen ist. Diesen Schluß kann man nach meinem Verständnis aber keinesfalls ziehen. Vielleicht liest hier jemand mit, der in der Thematik drin steckt.
Dr. Rainer Rothfuß: Feindbilder pflastern den Weg zum Dritten Weltkrieg