Estadísticas - Teorema de Bayes de probabilidad

Uno de los desarrollos más significativos en el campo de probabilidad ha sido el desarrollo de la teoría de decisión bayesiana, que ha demostrado ser de gran ayuda para tomar decisiones en condiciones inciertas. El teorema de Bayes fue desarrollado por un matemático británico, el reverendo Thomas Bayes. La probabilidad dada bajo el teorema de Bayes también se conoce con el nombre de probabilidad inversa, probabilidad posterior o probabilidad revisada. Este teorema encuentra la probabilidad de un evento al considerar la información de muestra dada; de ahí el nombre de probabilidad posterior. El teorema de Bayes se basa en la fórmula de probabilidad condicional.

probabilidad condicional del evento $ {A_1} $ evento dado $ {B} $ es

$ {P (A_1 / B) = \ frac {P (A_1 \ y \ B)} {P (B)}} $

De manera similar, la probabilidad del evento $ {A_1} $ evento dado $ {B} $ es

$ {P (A_2 / B) = \ frac {P (A_2 \ y \ B)} {P (B)}} $

Dónde

$ {P (B) = P (A_1 \ y \ B) + P (A_2 \ and \ B) \\ [7pt] P (B) = P (A_1) \ times P (B / A_1) + P (A_2 ) \ veces P (BA_2)} $
$ {P (A_1 / B)} $ se puede reescribir como
$ {P (A_1 / B) = \ frac {P (A_1) \ times P (B / A_1)} {P (A_1)} \ times P (B / A_1) + P (A_2) \ times P (BA_2) PS

Por lo tanto, la forma general del teorema de Bayes es

$ {P (A_i / B) = \ frac {P (A_i) \ times P (B / A_i)} {\ sum_ {i = 1} ^ k P (A_i) \ times P (B / A_i)}} $

Donde $ {A_1} $, $ {A_2} $ ... $ {A_i} $ ... $ {A_n} $ son un conjunto de n eventos mutuamente excluyentes y exhaustivos.