R


Signifikanzniveau


Stochastik


Definition


Das Signifikanzniveau ist der maximale Wert für die Wahrscheinlichkeit, bei einem Hypothesentest einen Fehler erster Art zu begehen, den man noch akzeptieren will. Das ist hier kurz vorgestellt.

Ausführliche Erklärung von Signifikanzniveau


Bei einem statistischen Hypothesentest will man aufgrund einer Stichprobe zwischen einer sogenannten Nullhypothese und der Alternativhypothese unterscheiden. Dabei kann es sein, dass zwar die Nullhypothese tatsächlich zutrifft, aber aufgrund von Zufallsschwankungen vorgegaukelt wird, als würde sie nicht gelten und man besser zur Alternativhypothese wechseln möchte. Dieser Fehler heißt auch Fehler erster Art. Die Wahrscheinlichkeit für einen Fehler erster Art kann man nie sinnvoll auf 0 reduzieren, aber man kann sie durch Verkleinerung des Annahmebereichs beliebig klein machen. Die Wahrscheinlichkeit, mit der man dann einen Fehler erste Art gerade noch akzeptiert nennt man das Signifikanzniveau.

Was ist ein sinnvolles Signifikanzniveau?


Als Standard für das Signifikanzniveau wird allgemein 5 % akzeptiert. Es gibt keinen logisch zwingenden Grund für diese Wert zu wählen, er hat sich nur fest eingebürgert.

Was sagt das Signifikanzniveau nicht?


Das Signifikanzniveau gibt an, in wie vielen Prozent der Fälle, bei denen man den Hypothesentest durchführt, der reine Zufall vorgaukelt, dass die Alternativhypothese zutrifft, obwohl sie nicht zutrifft und die Nullhypothese mit ihren Zufallsschwankungen alles erklären kann. Damit sagt der Signifikanztest auch nicht, wie stark die Alternativhypothese ist[1]. Ein alternative Angabe ist das sogenannte Konfidenzintervall ↗

Fußnoten