Satz von Bayes
Stochastik
Basiswissen
P(A|B) = [P(B|A)·P(A)]/[P(B)]: mit dem Satz von Bayes, auch Bayessche Formel genannt[4], kann man aus einer gegebenen bedingten Wahrscheinlichkeit P(A|B) die umgekehrt gedachte bedingte Wahrscheinlichkeit P(B|A) berechnen. Das ginge auch ohne den Satz des Bayes, etwa über die Umkehrung eines Baumdiagrammes, wäre dann aber erheblich viel aufwändiger.
Der Satz von Bayes
P(A|B) = [P(B|A)·P(A)]/[P(B)]
Legende
- P(A|B) = Wahrscheinlichkeit für A in den Fällen, für die auch B gilt.
- P(B|A) = Wahrscheinlichkeit für B in den Fällen, für die auch A gilt.
- P(A) = Wahrscheinlichkeit für A (egal ob mit oder ohne B)
- P(B) = Wahrscheinlichkeit für B (egal ob mit oder ohne A)
Zweck des Satzes von Bayes
Der Satz von Bayes verbindet zwei unterschiedliche bedingte Wahrscheinlichkeiten in einer Formel. Kennt man eine bedingte Wahrscheinlichkeit, kann man die andere durch Umstellen der Formel oft bestimmen. Siehe auch Formeln umstellen ↗
Beispiel Medizin
Ein Test für eine genetisch verursachte Krankheit zeigt in 99 % der Fälle korrekt an, dass jemand die Krankheit hat. In 95 % zeigt er korrekt an, dass jemand die Krankheit nicht hat. Nur 0,001 % der Menschen in einer Population tragen die Krankheit. Wie groß ist dann die Wahrscheinlichkeit, dass jemand mit einem positiven Testausgang auch tatsächlich die AKrankheitin sich trägt?
- P(A) = Jemand trägt die Krankheit, hier 0,001 %
- P(Ā) = Jemand trägt die Krankheit nicht, hier 99.999 %
- P(B) = jemand hat einen positiven Testausgang, noch unbekannt
- P(A|B) = jemand trägt die Krankheit, vorausgesetzt er hat einen positiven Test
- P(B|Ā) = jemand hat einen positiven Testausgang ohne die Krankheit zu tragen, hier 5 %
- P(B|A) = jemand hat einen positiven Test, vorausgesetzt er trägt die Krankheit, hier die 99 %
Gesucht ist jetzt die Wahrscheinlichkeit, dass jemand die Krankheit auch wirklich hat, wenn der Testausgang positiv ist, also die Wahrscheinlichkeit P(A|B):
- P(A|B) = [P(B|A)·P(A)]/[P(B)]
Um die gesuchte Wahrscheinlichkeit nach dem Satz von Bayes zu berechnen benötigt man hier also noch die Wahrscheinlichkeit P(B), also die Wahrscheinlichkeit für eine positiven Testausgang. Sie ist die einzige noch unbekannte Variable auf der rechten Seite der Gleichung. Um das Zwischenergebnis P(B) zu berechnen, nutzt man den Satz von der totalen Wahrscheinlichkeit[6]:
- P(B) = P(A)·P(B|A) + P(Ā)·P(B|Ā)
Mit
- P(A) = Jemand trägt die Krankheit, hier 0,001 % = 0,00001
- P(Ā) = Jemand trägt die Krankheit nicht, hier 0,99999
- P(B|A) = jemand hat einen positiven Test, vorausgesetzt er trägt die Krankheit, hier die 0,99
- P(B|Ā) jemand hat einen positiven Testausgang ohne die Krankheit zu tragen, hier 0,01
Wird also
- P(B) = 0,00001·0,99 + 0,99999·0,01
- P(B) = 0.0100098 oder 1,00098 %
Einsetzen in den Satz von Bayes:
- P(A|B) = (0,00001·0,99)/0.0100098
- P(A|B) = 0.00098903074
- P(A|B) = 0.098903074 %[5]
Das Ergebnis ist verblüffend: es bedeutet, wenn jemand einen positiven Testausgang hat, dann ist die Wahrscheinlichkeit dafür, dass er die AKrankheitauch wirklich hat noch nicht einmal ein zehntel Prozent. Diesen nur scheinbaren Widerspruch bezeichnet man auch als False positive Paradoxon ↗
Beispiel Konsumforschung
Angenommen Konsumforscher hätten Befragungen unter Konsumenten durchgeführt. Dabei haben sie festgestellt: die Wahrscheinlichkeit P(A), dass ein Konsument gerne Kaffee trinkt sei 0,4. Die Wahrscheinlichkeit P(B), dass ein Konsument gerne Süßigkeiten isst, sei 0,6. Die Wahrscheinlichkeit P(B|A), dass ein Kaffeeliebhaber auch gerne Süßigkeiten esse sei 0,7. Daraus kann man die umgekehrte bedingte Wahrscheinlichkeit P(A|B) berechnen, dass ein Süßigkeitenliebhaber auch gerne Kaffe trinke. Über die Bayes-Formel erhält man: P(A|B) = 0,47 (gerundet). In Sprache: Kaffeliebhaber neigen oft auch zu Süßigkeiten. Süßigkeitenliebhaber hingegen neigen weniger stark zu Kaffee. Siehe auch bedingte Wahrscheinlichkeit ↗
Beispiel Robotik
Ein Roboter soll über einen Infrarotsensor erkennen, ob eine Tür offen ist oder nicht. Dabei hat der Sensor ein sogenanntes Rauschen, seine Werte sind nicht immer zuverlässig. Für einen konkreten Roboter und eine konkrete Raumsituation ergibt die folgenden bedingten Wahrscheinlichkeiten: unter der Bedingung, dass die Tür geöffnet ist, zeigt der Senor in 60 % der Fälle auch an dass sie geöffnet. Das heißt im Umkehrschluss, dass der Sensor bei offener Tür in 40 % der Fälle anzeigt, dass sie geschlossen ist. Zuverlässiger arbeitet der Sensor bei geschlossener Tür: hier zeigt er in 80 % der Fälle an, dass sie geschlossen ist. Nur in 20 % der Fälle zeigt er fälschlicherweise eine offene Tür an. Die interessante Frage ist nun: mit welcher Wahrscheinlichkeit liegt der Roboter richtig, wenn er eine offene Tür misst und er daraufhin auch annimmt, dass die Tür wirklich offen ist? Um diese Frage zu beantworten, wird der Satz von Bayes verwendet.[2]
Fußnoten
- [1] Thomas Bayes: An Essay Towards Solving a Problem in the Doctrine of Chances. First published in 1763.
- [2] Sebastian Thrun, Wolfram Burgard, Dieter Fox: Probabilistic Robotics. The MIT Press. Cambridge, Massachusetts. 2006. ISBN: 978-0-262-20162-9. Dort das Kapitel: The Bayes Filter Algorithm. Seite 26 ff.
- [3] Siehe dazu auch zweistufiger Zufallsversuch ↗
- [4] Guido Walz: Spektrum Lexikon der Mathematik. Band 1. A bis Eif; 2000; ISBN: 3-8274-0303-0. Dort der Artikel "Bayessche Formel". Online: https://www.spektrum.de/lexikon/mathematik/bayessche-formel/970
- [5] Zu demselben Ergebnis kommt eine englischsprachige Erklärseite (Stand Mai 2024). Online: https://www.statisticshowto.com/inverse-probability/
- [6] Hier hilft es, sich das Beispiel als zweistufiges Baumdiagramm vorzustellen. Die totale Wahrscheinlichkeit ist die Summe der Ausgangswahrscheinlihckeiten von zwei kompletten Pfaden. Das drückt der Satz von der totalen Wahrscheinlichkeit formal aus.