A B C D E F G H I J K L M N O P Q R S T U V W X Y Z 9 Ω


Satz von Bayes


Stochastik


Basiswissen


P(A|B) = [P(B|A)·P(A)]/[P(B)]: mit dem Satz von Bayes, auch Bayessche Formel genannt[4], kann man aus einer gegebenen bedingten Wahrscheinlichkeit P(A|B) die umgekehrt gedachte bedingte Wahrscheinlichkeit P(B|A) berechnen. Das ginge auch ohne den Satz des Bayes, etwa über die Umkehrung eines Baumdiagrammes, wäre dann aber erheblich viel aufwändiger.

Der Satz von Bayes


P(A|B) = [P(B|A)·P(A)]/[P(B)]

Legende



Zweck des Satzes von Bayes


Der Satz von Bayes verbindet zwei unterschiedliche bedingte Wahrscheinlichkeiten in einer Formel. Kennt man eine bedingte Wahrscheinlichkeit, kann man die andere durch Umstellen der Formel oft bestimmen. Siehe auch Formeln umstellen ↗

Beispiel Medizin


Ein Test für eine genetisch verursachte Krankheit zeigt in 99 % der Fälle korrekt an, dass jemand die Krankheit hat. In 95 % zeigt er korrekt an, dass jemand die Krankheit nicht hat. Nur 0,001 % der Menschen in einer Population tragen die Krankheit. Wie groß ist dann die Wahrscheinlichkeit, dass jemand mit einem positiven Testausgang auch tatsächlich die AKrankheitin sich trägt?


Gesucht ist jetzt die Wahrscheinlichkeit, dass jemand die Krankheit auch wirklich hat, wenn der Testausgang positiv ist, also die Wahrscheinlichkeit P(A|B):


Um die gesuchte Wahrscheinlichkeit nach dem Satz von Bayes zu berechnen benötigt man hier also noch die Wahrscheinlichkeit P(B), also die Wahrscheinlichkeit für eine positiven Testausgang. Sie ist die einzige noch unbekannte Variable auf der rechten Seite der Gleichung. Um das Zwischenergebnis P(B) zu berechnen, nutzt man den Satz von der totalen Wahrscheinlichkeit[6]:


Mit


Wird also


Einsetzen in den Satz von Bayes:


Das Ergebnis ist verblüffend: es bedeutet, wenn jemand einen positiven Testausgang hat, dann ist die Wahrscheinlichkeit dafür, dass er die AKrankheitauch wirklich hat noch nicht einmal ein zehntel Prozent. Diesen nur scheinbaren Widerspruch bezeichnet man auch als False positive Paradoxon ↗

Beispiel Konsumforschung


Angenommen Konsumforscher hätten Befragungen unter Konsumenten durchgeführt. Dabei haben sie festgestellt: die Wahrscheinlichkeit P(A), dass ein Konsument gerne Kaffee trinkt sei 0,4. Die Wahrscheinlichkeit P(B), dass ein Konsument gerne Süßigkeiten isst, sei 0,6. Die Wahrscheinlichkeit P(B|A), dass ein Kaffeeliebhaber auch gerne Süßigkeiten esse sei 0,7. Daraus kann man die umgekehrte bedingte Wahrscheinlichkeit P(A|B) berechnen, dass ein Süßigkeitenliebhaber auch gerne Kaffe trinke. Über die Bayes-Formel erhält man: P(A|B) = 0,47 (gerundet). In Sprache: Kaffeliebhaber neigen oft auch zu Süßigkeiten. Süßigkeitenliebhaber hingegen neigen weniger stark zu Kaffee. Siehe auch bedingte Wahrscheinlichkeit ↗

Beispiel Robotik


Ein Roboter soll über einen Infrarotsensor erkennen, ob eine Tür offen ist oder nicht. Dabei hat der Sensor ein sogenanntes Rauschen, seine Werte sind nicht immer zuverlässig. Für einen konkreten Roboter und eine konkrete Raumsituation ergibt die folgenden bedingten Wahrscheinlichkeiten: unter der Bedingung, dass die Tür geöffnet ist, zeigt der Senor in 60 % der Fälle auch an dass sie geöffnet. Das heißt im Umkehrschluss, dass der Sensor bei offener Tür in 40 % der Fälle anzeigt, dass sie geschlossen ist. Zuverlässiger arbeitet der Sensor bei geschlossener Tür: hier zeigt er in 80 % der Fälle an, dass sie geschlossen ist. Nur in 20 % der Fälle zeigt er fälschlicherweise eine offene Tür an. Die interessante Frage ist nun: mit welcher Wahrscheinlichkeit liegt der Roboter richtig, wenn er eine offene Tür misst und er daraufhin auch annimmt, dass die Tür wirklich offen ist? Um diese Frage zu beantworten, wird der Satz von Bayes verwendet.[2]

Fußnoten