probabilidad condicional danyyyy

download probabilidad condicional danyyyy

of 47

Transcript of probabilidad condicional danyyyy

  • En gran nmero de problemas prcticos, los eventos de mayor inters son aquellos cuya ocurrencia est condicionada a la ocurrencia de otro even-to. De aqu que interese introducir el concepto de probabilidad condicional, esto es, la probabilidad condicionada a que haya ocurrido o pudiese ocurrir cierto evento.

    Invocando el criterio de Laplace y apoyndose en el diagrama anterior,

    puede verse que si el evento B se da por hecho, entonces el espacio muestral condicional es el evento B, constituido por N(B) puntos muestrales, que repre-sentan el nmero de casos posibles; para la ocurrencia del evento A es necesa-ria la ocurrencia conjunta A B , Un evento constituido por N A B puntos muestrales, que representan el nmero de casos favorables a A.

    La probabilidad de ocurrencia del evento A, dado que el evento B ocurre, lo cual se expresa con la notacin P A | B est dada por:

    N A B

    P A | BN B

    nmero de casos favorables a Anmero de casos posibles dado B

    ___ (1.38)

    As fue utilizado el concepto de probabilidad condicional por los prime-ros estudiosos de la probabilidad. El gran mrito de Thomas Bayes consisti en haber expresado la probabilidad condicional en funcin de la probabilidad

    conjunta: P A B

    P A | B , P B 0P B

    ____ (1.38) Esto es, la probabilidad de A, dado B, defi nida como la razn de la probabi-

    lidad conjunta a la probabilidad del evento B.Ntese que, en general: P A | B P B | A , ya que

    P A BP B | A

    P A

    Las probabilidades condicionales tambin cumplen con los tres axiomas de probabilidad y con los teoremas derivados de stos. Se deja al lector la tarea de demostrarlos.

    1.5.1PROBABILIDADCONDICIONAL

    PROBABILIDAD CONDICIONAL1.5

  • 1. No negatividad: iP A | B 0 2. Normatividad: P S | B 13. Aditividad: P A B | C P A | C P B | C , A B 4. Probabilidad del complemento: P A | B 1 P A | B 5. Probabilidad del evento imposible: P | B 0 6. Ley de adicin de probabilidades: P A B | C P A | C P B | C P A B | C Se denomina probabilidad marginal a la probabilidad de cualquier evento,

    para distinguir que es incondicional, que no importa la ocurrencia de ningn otro evento.

    Ejemplo 1.54. SERVICIOS DE TELECOMUNICACIONES. Suponga que es de inters conocer la probabilidad de que un usuario de Telex, que tiene se-al de televisin satelital, tenga servicio ilimitado de larga distancia de cober-tura nacional. El espacio muestral se reduce automticamente, se condiciona a la ocurrencia de un evento, se restringe a los usuarios que tienen televisin satelital. Ahora bien, 1 de cada 5 usuarios tiene seal de televisin y 3 de cada 25 tiene tanto seal de televisin como larga distancia nacional, por lo que, por cada 25 usuarios, habr 5 que tengan seal de televisin y 3 de ellos tambin tendrn servicio de larga distancia nacional; es decir, por cada 5 usuarios con televisin satelital, habr 3 con servicio de larga distancia nacional. Entonces, la probabilidad de que un usuario tenga servicio de larga distancia nacional, dado que tiene seal de televisin satelital, es 3/5.

    Calcule las siguientes probabilidades de que un usuario de Telex:a) Tenga seal de televisin satelital, dado que tiene Internet de banda ancha:

    P I T 0.10 1P T | I 0.333P I 0.30 3

    b) Tenga Internet de banda ancha, dado que tiene seal de televisin satelital:

    P I T 0.10 1P I |T 0.5P T 0.20 2

    c) No tenga Internet, dado que tiene seal de televisin satelital:

    P I T 0.10 1P I |T 0.5P T 0.20 2

    d) Tenga seal de televisin satelital, dado que no tiene servicio de larga dis-

    tancia: P T L 0P T | L 0

    0.30P L

    e) Tenga servicio de larga distancia, dado que tiene seal de televisin:

    P L T 0.20P L |T 1P T 0.20

    f) Tenga larga distancia o seal de televisin, dado que tiene Internet: P L T | I P L | I P T | I P L T | I

    P L I P T I P L T I 0.23 0.10 0.10 0.23 0.766P I P I P I 0.30 0.30 0.30 0.30

    PROBABILIDAD CONDICIONAL

    144

  • Ejemplo 1.55. ROS CONTAMINADOS. Los desechos slidos de la com-paa papelera de Tuxtepec, Oax., contaminan eventualmente los ros Tonto y Papaloapan, con probabilidades de 2/5 y 3/4, respectivamente; adems, se ha observado que slo en el 20% de los casos, ninguno de los dos ros se conta-mina. El gerente quiere que se observe sistemticamente slo uno de los ros y a partir del comportamiento de ste, inferir el comportamiento del otro ro. Cul de los dos ros deber observarse?

    Sean los eventos: T = {Tonto contaminado} P T 0.40 P = {Papaloapan contaminado} P P 0.75 Ninguno contaminado: P T P 0.20

    Para decidir cul de los dos ros conviene observar, es necesario calcular las probabilidades condicionales del comportamiento de cada ro, suponiendo determinado comportamiento del otro ro.

    P T P 1 P T P 1 P T P 1 0.20 0.80 P T P P T P P P T P , 0.80 0.40 0.75 P T P

    P T P 0.35 7P T P 0.35, P T | P 0.466P P 0.75 15

    7 8P T | P 1 P T | P 1 0.53315 15 Si se observa primero el Papaloapan y resulta contaminado, el comporta-

    miento del Tonto es muy dudoso.

    P T P P T P 0.20 0.20 4P T | P 0.80

    1 P P 1 0.75 0.25 5P P

    4 1P T | P 1 P T | P 1 0.205 5 Si se observa el Papaloapan y no est contaminado, es muy probable que el

    Tonto tampoco lo est.

    P P T 0.35 7P P |T 0.875

    P T 0.40 8

    7 1P P |T 1 P P |T 1 0.1258 8 Si se observa primero el Tonto y resulta contaminado, es muy probable que

    el Papaloapan tambin lo est.

    P P T P P T 0.20 0.20 1P P |T 0.333

    1 P T 1 0.40 0.60 3P T

    1 2P P |T 1 P P |T 1 0.6663 3 Si se observa el Tonto y no est contaminado, es ms probable que el Papa-

    loapan est contaminado a que no lo est.Podra concluirse entonces que sera ms til observar el ro Papaloapan;

    sin embargo, se estn soslayando las consecuencias de cometer un error de apreciacin y que puede ser de dos tipos: suponer un ro contaminado, cuando no lo est, o suponer un ro no contaminado cuando s lo est.

    PROBABILIDAD CONDICIONAL

    14

  • Ley de multiplicacin de probabilidadesEn muchas ocasiones, las probabilidades condicionales estn disponibles,

    mientras que las incgnitas son las probabilidades conjuntas. Tal circunstancia no implica difi cultad alguna, porque la ecuacin 1.57 se puede expresar como un producto, dando por resultado la ley de multiplicacin de probabilidades:

    P A B P B P A | B ____ (1.39) P A B P A P B | A ____ (1.39)Este resultado fue utilizado intuitivamente por todos los estudiosos de la

    probabilidad en el siglo XVII, pero fue Abraham De Moivre quien habiendo distinguido los sucesos dependientes y los independientes, luego formaliz el teorema: la probabilidad de que ocurran dos eventos dependientes es igual al producto de la probabilidad de que ocurra el primero por la probabilidad de que el otro ocurra cuando el primero ya ha ocurrido

    Ejemplo 1.56. ENTRONQUE VIADUCTO-PERIFRICO. Considere el entronque Viaducto y Perifrico, en el sentido sur-norte, conformado por los tramos x, y, z, tal como se muestra en la fi gura

    Se ha observado que los tramos x e y se congestionan con probabilidades 0.1 y 0.2, respectivamente, y que cuando el tramo y se congestiona, el tramo x se congestiona con probabilidad 0.5. Considerando que los tres tramos tienen la misma capacidad, con tres carriles, a una velocidad permisible de 80 km/h, Sean los eventos: x = {tramo x saturado} P x 0.1

    y = {tramo y saturado} P y 0.2 P x | y 0.5 Calcule la probabilidad de que:

    a) se saturen los tramos x e y: P x y P y P x | y 0.2 0.5 0.1

    b) se sature al menos uno de los tramos x o y: P x y P x P y P x y 0.1 0.2 0.1 0.2

    c) no se sature ni el tramo x ni el tramo y: P x y P x y 1 P x y 1 0.2 0.8 Ntese que: x y y; x y x x y

    PROBABILIDAD CONDICIONAL

    146

  • La regla de multiplicacin de probabilidades puede generalizarse por induc-cin matemtica a varios eventos y la expansin correspondiente es muy til.

    Sean los eventos A1, A2,, An; su probabilidad de ocurrencia conjunta est determinada por la denominada ley de multiplicacin de probabilidades:

    n i 1n

    i i ji 1i 1 j 1

    P A P A A

    Para i = 1: 1 01i i j 1 1

    i 1i 1 j 1

    P A P A A , P A P A

    Para i = 2:

    2 12i i j 1 2 1 2 1i 1i 1 j 1

    P A P A A , P A A P A P A | A

    Para i = k: suponiendo cierto que:

    k i 1k

    i i ji 1i 1 j 1

    P A P A A

    Para i = k + 1:

    k 1 k 0 kk

    i i k 1 i j k 1 ii 1i 1 i 1 j 1 i 1

    P A P A A P A A P A A

    k i 1 2 i 1 k 1 1 2 k

    i 1

    P A | A A ... A P A | A A ... A

    i 1k 1 k 1i 1 2 i 1 i j

    i 1 i 1 j 1

    P A | A A ... A P A A

    La generalizacin de la ley de probabilidades para varios sucesos, De Moi-

    vre la explic as: Se necesita elegir uno de ellos como el primero, otro como el segundo, y as. Luego, la ocurrencia del primero debe considerarse inde-pendiente de todas las dems; el segundo debe considerarse, con la condicin de que el primero ha ocurrido; el tercero con la condicin de que tanto el primero como el segundo han ocurrido, y as. De aqu, la probabilidad de ocurrencia conjunta de todos los sucesos es igual al producto de todas las probabilidades

    Existen n! frmulas para obtener n

    ii 1

    P A

    por ejemplo, si n = 3, cualquie-ra de las siguientes 6 frmulas nos permite obtener la probabilidad conjunta:

    P A B C P A P B | A P C | A B P A B C P A P C | A P B | A C P A B C P B P A | B P C | A B P A B C P B P C | B P A | B C P A B C P C P A | C P B | A C P A B C P C P A | C P B | A C

    PROBABILIDAD CONDICIONAL

    14

  • Ejemplo 1.57. ENTRONQUE VIADUCTO-PERIFRICO. Considere el entronque Viaducto y Perifrico, en el sentido sur-norte. Sabiendo que, cuando los tramos x e y trabajan debajo de sus capacidades, la probabilidad de que el tramo z se sature es de 0.20.

    La informacin adicional es: P z | x y 0.20 ; z = {tamo z saturado}Previamente obtuvimos: P x y 0.1, P x y 0.2, P x y 0.8 Puesto que los tres tramos tienen las mismas capacidades, basta con que se

    sature el tamo x o el tramo y, para que se sature el tramo z; por lo tanto: P z | x y P z | x y P z | x y 1

    Calcule la probabilidad de que:a) se saturen los tres tramos:

    P x y z P y P x | y P z | x y 0.2 0.5 1 0.1 b) se sature solamente el tramo z: P x y z P x P y | x P z | x y

    P y x 0.80 8P x 1 P x 1 0.1 0.9; P y | x 0.888

    0.90 9P x

    8 4P x y z 0.9 0.2 0.169 25 c) se sature solamente el tramo: P x y z P x P y | x P z | x y

    8 1P y | x 1 P y | x 1 0.1119 9 P z | x y 1 P z | x y 1 1 0 1P x y z 0.9 0 09

    d) no se sature ningn tramo: P x y z P x P y | x P z | x y 4P z | x y 1 P z | x y 1 0.2 0.85 8 4 16P x y z 0.9 0.649 5 25

    Ejemplo 1.58. DADO. Considere el experimento consistente en lanzar un dado y observar la cara que queda hacia arriba. Sean los eventos: A = {cae par}, B = {cae 2 o 4} y C = {cae 1 o 2}; las probabilidades correspondientes son: P(A) = 1/2, P(B) = 1/3 y P(C) = 1/3.

    Calcularemos las siguientes probabilidades condicionales, utilizando la in-terpretacin clsica o a priori:

    N A B NP A | B 1

    N B N cae 2 o 4

    cae 2 o 4

    N A B N 2P B | AN A N 3

    cae 2 o 4cae par

    N A C N 1P A | C

    N C N 2 cae 2

    cae 1 o 2

    N A C N 1P C | AN A N 3

    cae 2cae par

    PROBABILIDAD CONDICIONAL

    148

  • La ocurrencia de B afecta la probabilidad de ocurrencia de A: P A | B P A y viceversa, la ocurrencia de A afecta la probabilidad de ocurrencia de B: P B | A P B ; se dice entonces que los eventos A y B son estadsticamente

    dependientes.En contraparte, la ocurrencia de C no afecta la probabilidad de ocurrencia

    de A: , y viceversa, la ocurrencia de A no afecta la pro-babilidad de ocurrencia de C: ; se dice entonces que los eventos A y C son estadsticamente independientes.

    De Moivre discuti el concepto de independencia de sucesos aleatorios: Diremos que dos sucesos son independientes, si uno de ellos no tiene ninguna relacin con el otro, e hizo lo propio para defi nir dependencia de sucesos: Dos sucesos son dependientes si estn ligados el uno al otro y la probabili-dad de ocurrencia de uno de ellos infl uye en la probabilidad de ocurrencia del otro

    Cabe sealar, que la dependencia estadstica entre eventos siempre tiene una explicacin fsica, siempre se pueden establecer relaciones causa efecto; en el ejemplo anterior, los eventos A y B son fsicamente dependientes, porque la ocurrencia de uno de ellos hace ms fcil la ocurrencia del otro. En cambio, a la independencia estadstica no siempre puede drsele un signifi cado fsico.

    Considere las proposiciones lgicas siguientes:p: A y B estadsticamente dependientes ~p: A y B estadsticamente independientesq: A y B fsicamente dependientes ~q: A y B fsicamente independientesDependencia estadstica implica dependencia fsica: p q ; en tanto que

    dependencia fsica no implica dependencia estadstica: qp Independencia fsica implica independencia estadstica: q p , en tan-

    to que independencia estadstica no implica independencia fsica: p q

    Eventos estadsticamente independientesDos eventos son estadsticamente independientes, si y slo si, la ocurrencia de uno no afecta la probabilidad de ocurrencia del otro:

    P A | B P A ____ (1.40) P B | A P B ____ (1.40)

    Vemos que la independencia estadstica es una relacin simtrica: si el evento A es independiente del evento B, entonces el B es independiente del A y viceversa.

    En efecto: P A B P A P B | A ; P A B P B P A | B Igualando los segundos miembros: P A P B | A P B P A | B Si P A | B P A P A P B | A P B P A , P B | A P B Si P B | A P B P A P B P B P A | B , P A | B P A Por lo tanto: P A | B P A P B | A P B

    INDEPENDENCIA EN PROBABILIDAD

    1.5.2INDEPENDENCIAEN PROBABILIDAD

    14

  • Si P A B P A P B | A y P B | A P B P A B P A P B Si P A B P B P A | B y P A | B P A P A B P B P A Estos resultados corroboran la otra forma de defi nir formalmente indepen-

    dencia estadstica: Dos eventos A y B son independientes si, y solo si, su pro-babilidad de ocurrencia conjunta es el producto de las probabilidades indivi-duales P(A) y P(B) de ocurrencia: ____ (1.34)

    Esta expresin ya haba sido obtenida en el apartado 1.4.3 para defi nir pro-babilidad conjunta de eventos independientes.

    La difi cultad en la aplicacin de la ley de multiplicacin de probabilidades est en saber identifi car cundo dos eventos son o no independientes estadsti-camente, y entonces usar la regla 1.34 o la regla 1.39, respectivamente.

    Ejemplo 1.59 URNA. Considere una urna que contiene 6 bolas rojas, 4 blan-cas y 5 azules, de la que se extraen sucesivamente de la urna tres bolas, con reemplazo.

    Sean los eventos: A = {sale bola azul} P A 5 / 15 1 / 3 B = {sale bola blanca} P B 4 / 15

    R = {sale bola roja} P R 6 / 15 2 / 5 Calcule las siguientes probabilidades:

    a) Que salgan en el orden roja, azul, blanca: 6 5 4 120 8P R A B P R P A | R P B | R A

    15 15 15 3375 225

    Despus de haber salido una bola roja, sta es devuelta a la urna, por lo que sigue habiendo 15 bolas, 5 de las cuales son azules: P A | R 5 / 15 P A

    Despus de haber salido una bola azul, sta es devuelta a la urna, por lo que si-gue habiendo 15 bolas, 4 de las cuales son blancas: P B | R A 4 / 15 P B b) Que salgan en el orden azul, roja azul:

    5 6 5 150 2P A R A P A P R | A P A | A R15 15 15 3375 45

    c) Que salgan tres bolas blancas:

    4 4 4 64P B B B P B P B | B P B | B B15 15 15 3375

    d) Que salgan una roja, una azul y una blanca, sin importar el orden:

    8 16P 6 P R A B 6225 75 1 roja, 1 azul y 1 blanca

    e) Que salgan dos azules y una roja:

    2 2P 345 15 2 azules y una roja

    Vemos que cuando la extraccin se hace con reemplazo, las probabilidades de ocurrencia de eventos sucesivos no dependen, no estn condicionadas a la ocurrencia de eventos previos. La razn por la que las probabilidades se man-tienen constantes, de extraccin a extraccin, es que fsicamente las extraccio-nes son independientes; en tal caso, los eventos son fsica y estadsticamente independientes.

    PROBABILIDAD CONDICIONAL

    150

  • Ejemplo 1.60 URNA. Considere nuevamente la urna con 6 bolas rojas, 4 blancas y 5 azules, de la que se extraen sucesivamente tres bolas, sin reempla-zo. Calcule las mismas probabilidades que las solicitadas en el ejemplo 1.59.a) Que salgan en el orden roja, azul, blanca:

    6 5 4 120 4P R A B P R P A | R P B | R A15 14 13 2730 91

    Despus de haber salido en primer lugar la bola roja, en la urna quedan 14

    bolas, 5 de las cuales son azules: P A | R 5 / 14 Despus de haber salido bola roja y bola azul, en la urna quedan 13 bolas,

    4 de las cuales son blancas: b) Que salgan en el orden azul, roja azul:

    5 6 4 120 4P A R A P A P R | A P A | A R15 14 13 2730 91

    c) Que salgan tres bolas blancas:

    4 3 2 24 4P B B B P B P B | B P B | B B15 14 13 2730 455

    d) Que salgan una roja, una azul y una blanca, sin importar el orden:

    P 1 roja, 1 azul y 1 blanca P R A B R B A A R B A B R B R A B A R

    P R A B P R B A P A R B P A B R P B R A P B A R 4 246 P R A B 6

    91 91

    e) Que salgan dos azules y una roja: 4 12P 3 P A R A 3

    91 91 2 azules y una roja

    Se aprecia que, cuando la extraccin se hace sin reemplazo, las probabili-dades de ocurrencia de eventos sucesivos se ven afectadas por la ocurrencia de eventos previos, es decir, estn condicionadas a esa ocurrencia. Despus de cada extraccin, en la urna hay una bola menos, siendo sta la causa principal de que las probabilidades se alteren, en extracciones subsecuentes; en tal caso, los eventos son fsica y estadsticamente dependientes.

    Ejemplo 1.61. CIRCUITO ELCTRICO. Considere el circuito elctrico esquematizado en el diagrama siguiente. La probabilidad de que un interruptor est cerrado es p = 0.7 y se considera que los tres interruptores funcionan inde-pendientemente. Se trata de determinar la probabilidad de que fl uya corriente de la terminal 1 a la terminal 2.

    La corriente fl uye de la terminal 1 a la terminal 2, siempre que el interruptor X est cerrado, o que los interruptores Y y Z, ambos estn cerrados.

    INDEPENDENCIA EN PROBABILIDAD

    1

  • Lo resolveremos por tres procedimientos diferentes:a) Considerando eventos mutuamente exclusivos: Defi nimos el evento C = {corriente entre 1 y 2}, con dos posibles resultados para cada interruptor: 1, cerrado, y 0, abierto.

    P P 1 1 1 1 1 0 1 0 1 0 1 1 1 0 0 C P 1 1 1 P 1 1 0 P 1 0 1 P 0 1 1 P 1 0 0

    3 2 2 3 2P 1 3 P 1 P 0 P 1 P 0 p 3p 1 p p 1 p 3 2 3 2 3 2 3 2 3p 3p 3p p 1 2p p p 3p 3p p 2p p

    3 2p p p 0.343 0.49 0.7 0.847 b) Considerando la ley de adicin de probabilidades:

    Defi nimos los eventos {x}, {y}, {z} como indicativos de que estn cerrados sendos interruptores.

    P C P x y z P x P y z P x y z 2 3P x P y P z P x P y P z p p p

    0.7 0.49 0.343 0.847 c) Considerando la regla del complemento: P C P 0 1 0 0 0 1 0 0 0

    P 0 1 0 P 0 0 1 P 0 0 0

    2 3 2 32P 1 P 0 P 0 2p 1 p 1 p 2 2 32p 1 2p p 1 3p 3p p

    2 3 2 3 3 22p 4p 2p 1 3p 3p p 1 p p p 3 2 3 2P C 1 P C 1 1 p p p p p p 0.847

    Ntese la diferencia entre los circuitos de los ejemplos 1.53 y 1.61; en el

    primero hay tres interruptores en paralelo y en este ltimo son dos interrupto-res es serie con uno en paralelo. Ambos se analizan de manera similar, consi-derando independencia en el funcionamiento de los interruptores.

    Ejemplo 1.62. FAMILIAS DE TRES HIJOS. Considere solo familias con tres hijos y el experimento consistente en registrar el sexo de los hijos; si H = {hombre}, M = {mujer}, con las probabilidades aceptadas: P(H) = 18/35 y P(M) = 17/35.

    El espacio muestral del experimento es: S HHH , HHM , HMH , MHH , HMM , MHM , MMH , MMM

    Las probabilidades de los cuatro diferentes puntos muestrales son:Tres varones: 318P HHH P H P H P H 0.136

    35

    Dos varones: 218 17P HHM P H P H P M 0.12835 35

    Un varn: 218 17P HMM P H P M P M 0.12135 35

    PROBABILIDAD CONDICIONAL

    152

  • Ningn varn: 317P MMM P M P M P M 0.11535

    Calcule las probabilidades de los siguientes eventos:a) A = {familias con hijos de uno y otro sexo}

    P A P HHM HMH MHH HMM MHM MMH 3P HHM 3P HMM 3 0.128 3 0.121 0.749

    b) B = {familias con un mximo de un hijo varn} P B P HMM MHM MMH MMM

    3P HMM P MMM 3 0.121 0.115 0.479 c) La probabilidad conjunta de A y B

    P A B P HMM MHM MMH 3 0.121 0.364 d) Determine si los eventos A y B son estadsticamente independientes.

    Para establecer si los eventos A y B son estadsticamente independientes, multiplicamos las probabilidades individuales y comparamos el resultado con la probabilidad conjunta: P A P B 0.749 0.479 0.359 0.364 P A B

    En virtud de que no hay coincidencia, concluimos que los eventos A y B son estadsticamente dependientes, lo cual implica que debe existir una depen-dencia fsica entre ellos. Y efectivamente, la ocurrencia de uno favorece ligera-mente la ocurrencia del otro, y eso ocurre porque la probabilidad de hijo varn y de hija mujer no son simtricos. Si hubiramos considerado equiprobabilidad con P(H) = P(M) = 0.5, los resultados seran los siguientes:

    3P HHH P HHM P HMM P MMM 0.5 0.125 P A 6P HHM 6 0.125 0.75 P B 4P HMM 4 0.125 0.5 P A B 3P HMM 3 0.125 0.375 P A P B 0.75 0.5 0.375

    y entonces, los eventos A y B seran independientes. Ahora sabemos que la falta de simetra es la que provoc la dependencia, en este caso. Ejemplo 1.63. CIRCUITO ELCTRICO. Sea el circuito mostrado en la siguiente fi gura; los cuatro interruptores operan elctricamente, cada uno tiene un mecanismo de operacin independiente y todos se controlan simultnea-mente en el mismo impulso, esto es, se intenta que todos los interruptores cierren o abran simultneamente. Cada interruptor tiene, sin embargo, una pro-babilidad p de falla.

    INDEPENDENCIA EN PROBABILIDAD

    1

  • Sean los eventos: F = {falla el interruptor i} N = {no falla el interruptor i}

    C = {Hay corriente entre A y B}El espacio muestral del experimento es: NNNN , NNNF , NNFN , NFNN , FNNN , NNFF , NFNF , NFFN ,

    FNNF , FNFN , NFNN , NFFF , FNFF , FFNF , FFFN , FFFF

    Las probabilidades de los cinco diferentes puntos muestrales son:Ninguna falla: 4P NNNN P N P N P N P N 1 p Una falla: 3P NNNF P N P N P N P F 1 p p Dos fallas: 2 2P NNFF P N P N P F P F 1 p p Tres fallas: 3P NFFF P N P F P F P F 1 p p Cuatro fallas: 4P FFFF P F P F P F P F p

    a) Cul es la probabilidad de que haya corriente entre las terminales A y B? P C P NNNN NNNF NNFN NFNN FNNN NNFF FFNN

    4 3 2 2P NNNN 4P NNNF 2P NNFF 1 p 4 1 p p 2 1 p p

    2 3 4 2 3 4 2 3 41 4p 6p 4p p 4p 12p 12p 4p 2p 4p 2p

    2 3 41 4p 4p p b) Cul es la probabilidad de falla del sistema? 2 3 4 2 3 4P C 1 P C 1 1 4p 4p p 4p 4p p c) Mejorara la operacin del sistema la adicin del conector 5?

    Es obvio suponer que la adicin del conector 5 mejorara la operacin del sistema, es decir, la probabilidad de que haya corriente entre las terminales A y B sera mayor si existe el conector 5, que si no existe.

    Sea el evento K = {Hay corriente entre A y B, con conector 5}

    NNNN NNNF NNFN NFNN FNNN

    P K PNNFF FFNN NFFN FNNF

    4 3 2 2P K P NNNN 4P NNNF 4P NNFF 1 p 4 1 p p 4 1 p p

    2 3 4 2 3 4 2 3 41 4p 6p 4p p 4p 12p 12p 4p 4p 8p 4p

    2 41 2p p

    Debemos probar entonces que: 2 4 2 32p p 1 4p 4p p 2 4 2 3 41 2p p 1 4p 4p p 0

    2 3 4 2 3 42p 4p 2p 0, p 2p p 0 22 2 2p 1 2p p 0, p 1 p 0 22p 0, p 0, 1 p 0, 1 p 0 Efectivamente, el sistema es ms efi ciente con el conector 5 que sin l.

    d) El espacio muestral cambia a:

    PROBABILIDAD CONDICIONAL

    154

  • NNNNN , NNNNF , NNNFN , NFNNN , FNNNN , NNNFF , NFNNF , NFNFN ,

    FNNNF , FNNFN , NFNNN , NFNFF , FNNFF , FFNNF , FFNFN , FFNFF ,S'

    NNFNN , NNFNF , NNFFN , NFFNN , FNFNN , NNFFF , NFFNF , NFFFN ,

    FNFNF , FNFFN , NFFNN , NFFFF , FNFFF , FFFNF , FFFFN , FFFFF

    Sea el evento G = {Hay corriente entre A y B, con interruptor 5}

    NNNNN NNNNF NNNFN NNFNN NFNNN FNNNN

    P G NNNFF NNFNF NNFFN NFNFN FNNNF

    FFNNN FNFNN NFFNN NNFFF FFFNN

    P NNNNN 5P NNNNF 8P NNNFF 2P NNFFF 5 4 3 22 31 p 5 1 p p 8 1 p p 2 1 p p

    2 3 4 5 2 3 4 51 5p 10p 10p 5p p 5p 20p 30p 20p 5p

    2 3 4 5 3 4 58p 24p 24p 8p 2p 4p 2p

    2 3 4 51 2p 2p 5p 2p Se debe cumplir que: 2 4 2 3 4 51 2p p 1 2p 2p 5p 2p

    2 4 2 3 4 5 3 4 51 2p p 1 2p 2p 5p 2p 0, 2p 4p 2p 0 2 23 2 3 32p 1 2p p 0, p 1 p 0, p 0, p 0, 1 p 0, 1 p 0

    Tambin se debe cumplir: 2 3 4 5 2 3 41 2p 2p 5p 2p 1 4p 4p p 2 3 4 5 2 3 4 2 3 4 51 2p 2p 5p 2p 1 4p 4p p 0, 2p 6p 6p 2p 0

    3 32 2 3 2 22p 1 3p 3p p 0, p 1 p 0, p 0, p 0, 1 p 0, 1 p 0 e) Sea el evento D = {fallan exactamente 2 interruptores} P D P NNFF NFNF NFFN FNNF FNFN FFNN

    2 26P NNFF 6 1 p p 2 2P C D P NFNF FNFN 2P NNFF 2 1 p p 2 2P C D P NFNF FNFN 2P NNFF 2 1 p p

    Ntese que a travs de una funcin polinomial se establece el modelo pro-

    babilstico indicativo del comportamiento del sistema, bajo determinadas cir-cunstancias: con 4 o 5 interruptores, con un conector adicional, etc. Mediante el trazo de las curvas polinomiales es posible hacer un anlisis de sensibilidad del circuito para distintos valores de p.

    1

    INDEPENDENCIA EN PROBABILIDAD

  • Aunque generalmente la independencia mutua parece prcticamente asegu-rada si los eventos son independientes por pares: i j i jP A A P A P A , i j , i 1,n en algunos casos, esta independen-cia no es sufi ciente para garantizar la independencia mutua. Ejemplo 1.64. TETRAEDRO. Si en lugar de lanzar un dado, se lanza un te-traedro, cuyas caras estn numeradas del 1 al 4, defi nimos los eventos:A = {1, 2}, B = {1, 3}, C = {1, 4}, las probabilidades correspondientes son: P(A) = 1/2, P(B) = 1/2, P(C) = 1/2. Ahora, utilizando el criterio de Laplace, calculamos las siguientes probabilidades conjuntas:

    N A B 1P A BN 4

    N A C 1P A C

    N 4

    N B C 1P B CN 4

    N A B C 1P A B C

    N 4

    Vemos que los eventos A, B y C son independientes por pares, pues:

    1 1 1P A B P A P B2 2 4

    1 1 1P A C P A P C2 2 4

    1 1 1P B C P B P C2 2 4

    Sin embargo, A, B y C no son mutuamente independientes, ya que:

    1 1 1 1 1P A B C P A P B P C2 2 2 8 4

    La probabilidad condicional se defi ne como un cociente y, como tal, no tiene problema alguno desde la perspectiva matemtica; sin embargo, si presenta serias difi cultades conceptuales en su aplicacin, las cuales conviene identifi car, distinguir qu circunstancias las provocan y solventarlas totalmen-te, a efecto de que el aprendizaje del tema sea signifi cativo.

    Cuando las personas empiezan a tratar con el concepto de condicionali-dad, comnmente lo confunden con el de causalidad, porque les cuesta mucho trabajo aceptar que la ocurrencia de un evento posterior pueda condicionar la ocurrencia de un evento previo. En el numerador del cociente que defi ne la probabilidad condicional P(A|B), aparece la probabilidad de la ocurrencia conjunta P( A B ), que no expresa ocurrencia simultnea; el evento A puede ocurrir 10 millones de aos despus que el evento B, 15 segundos antes, o al mismo tiempo; ah empieza la difi cultad, y la mejor manera de solventarla es desligando la variable tiempo de la ocurrencia de los eventos. As, cuando se hable de la probabilidad condicional de un evento A, dada la ocurrencia del evento B, no se debe entender que el evento A habr de ocurrir necesariamente posterior al evento B. Ms an, en muchas ocasiones, aunque los dos eventos hayan ocurrido, sin importar el orden temporal de ocurrencia, se pueden medir ambas probabilidades condicionales, P(A|B) y P(B|A).

    La segunda difi cultad es de naturaleza prctica y se refi ere a la complejidad en la distincin de los eventos condicionados y condicionantes, con proble-mticas inmersas en contextos muy diversos. La propuesta para resolver esto es recurrir a la retroalimentacin, que permita aclarar dudas, contextualizar el problema y as poder plantearlo sin equvocos.

    PROBABILIDAD CONDICIONAL

    1.5.3CONDICIONALIDAD

    EN IMGENES

    156

  • Finalmente, la tercera difi cultad proviene de lo variada que resulta la infor-macin de que se dispone para enfrentar problemas de probabilidad condicio-nal, pues es en funcin de ella, que se tiene que proceder. No se trata de esta-blecer un algoritmo para cada caso, que conduzca a la bsqueda de la frmula correcta, sino de conocer la gama de posibilidades y reconocer los diferentes caminos para resolverlos, sin soslayar informacin relevante.

    Considerando nicamente dos eventos A y B correspondientes a un cierto espacio de probabilidad, al tomar en cuenta los eventos complementarios Ac y Bc, se pueden establecer ocho relaciones de probabilidad condicional, conside-rando todos los denominadores diferentes de cero.

    P A B P B AP A | B ; P B | A

    P B P A

    c cc c

    P A B P B AP A | B ; P B | A

    P B P A

    c cc c

    c c

    P A B P B AP A | B ; P B | A

    P B P A

    c c c cc c c c

    c c

    P A B P B AP A | B ; P B | A

    P B P A

    Todo el conocimiento posible involucrado en esas 8 relaciones se resume en 16 elementos: 8 probabilidades condicionales, 4 probabilidades conjuntas y 4 probabilidades marginales, y signifi ca que un problema de probabilidad condicional ha quedado totalmente resuelto slo cuando se han evaluados los 16 elementos.

    Para resolver totalmente un problema de probabilidad condicional slo se requieren tres elementos no complementarios, siendo las 9 posibilidades las siguientes:

    1 marginal y 2 conjuntas 1 marginal y 2 condicionales 1 conjunta y 2 marginales 1 conjunta y 2 condicionales 1 marginal, 1 conjunta y 1 condicional 2 marginales y 1 conjunta 2 marginales y 1 condicional 2 conjuntas y 1 condicional 3 condicionalesHasta aqu, los problemas de probabilidad condicional los hemos resuelto

    de la manera usual, utilizando el lgebra para considerar de manera simultnea tres reglas bsicas: la probabilidad del complemento y las leyes de adicin y de multiplicacin de probabilidades. Existen otros recursos visuales, que vale la pena explorar; ellos son las tablas de doble entrada, los rboles de probabilidad condicional y los diagramas de cuadrado unitario, todos ellos de fcil manejo, muy tiles para entender claramente los conceptos y para visualizar todos los resultados simultneamente, aunque ninguno de ellos es autosufi ciente para enfrentar cualquier tipo de problema de probabilidad condicional.

    CONDICIONALIDAD EN IMGENES

    1

  • Tablas de doble entradaEn primera instancia consideramos problemas de probabilidad condicional

    que involucran nicamente dos eventos y sus respectivos complementos; para llos, el elemento base es una tabla de doble entrada o matriz de 2 x 2, que contiene o debe contener la informacin de las 4 probabilidades conjuntas:

    Esta tabla se complementa adicionndole una columna, en la que se obtie-nen las dos probabilidades marginales correspondiente a A y Ac, sumando las probabilidades conjuntas de cada uno de los renglones; y adicionndole un rengln, en el que se obtienen las dos probabilidades marginales correspon-dientes a B y Bc.

    La tabla ampliada incorpora las ocho probabilidades condicionales, cuatro en dos columnas adicionales y las otras cuatro en do renglones adicionales.

    Ejemplo 1.65. ROS CONTAMINADOS. Con referencia al ejemplo 1.55, los datos del problema son: P(T) = 2/5, P(P) = 3/4, c cP T P = 0.20

    PROBABILIDAD CONDICIONAL

    158

  • Las tablas de doble entrada son fciles de manipular y facilitan los clculos, pero no son la panacea, pues cuando los datos disponibles son 3 condicionales o bien 2 condicionales y 1 marginal, no se relacionadas, es necesario salirse de la tabla y recurrir al lgebra para obtener al menos 1 probabilidad conjunta, para luego continuar en la tabla y concluir el ejercicio. Como tarea para el lector quedan los dos casos siguientes, con otros datos del problema:

    a) P(P) = 0.75, P(P|T) = 0.875, P(Pc|Tc) = 0.333b) P(Tc|Pc) = 1/4, P(T|P) = 7/15, P(P|Tc) = 2/3

    rboles de probabilidades condicionalesOtra manera de visualizar las probabilidades condicionales en contexto, es

    a travs de diagramas de rbol, que por la informacin que contienen, son de-nominados rboles de probabilidad condicional.

    Se construyen dos rboles de probabilidades, uno para cada evento bsico. El rbol correspondiente al evento A es un arreglo como el siguiente:

    La herramienta es fcil de construir, bajo las siguientes reglas:a) Las ramas que parten de un mismo nodo corresponden a eventos com-

    plementariosb) En las dos ramas que parten del nodo inicial se anotan las probabilidades

    marginales P(A) y P(Ac)c) En las ramas que parten de los segundos nodos se anotan las probabilida-

    des condicionales P(A|B), P(Ac|B), P(A|Bc) y P(Ac|Bc), siguiendo la secuen-cia de la rama previa.

    El rbol ampliado con toda la informacin complementaria es el siguiente:

    d) Al fi nal de cada rama terminal se anota la probabilidad conjunta corres-pondiente al producto de la marginal y la condicional, anotadas sobre ramas consecutivas, conforme a la ley de multiplicacin de probabilidades: y c c c cP B A , P B A , P B A P B A .

    CONDICIONALIDAD EN IMGENES

    1

  • e) Al margen derecho del diagrama se anotan las probabilidades marginales del otro evento bsico y su complemento: P(B) y P(Bc), sumando las proba-bilidades conjuntas asociadas; la suma de estas dos marginales debe sumar 1 y es la manera de corroborar operaciones aritmticas.

    El rbol correspondiente al evento B se construye de manera idntica, inter-cambiando A por B y la B por A.

    Ejemplo 1.66. ENTRONQUE. Con referencia al ejemplo 1.56, los datos del problema son: P(x) = 0.1, P(y) = 0.2, P x | y 0.5

    Como ocurre con las tablas de doble entrada, los rboles de probabilidad condicional son recursos muy visuales, fciles de manejar, pero no son infa-libles; si los datos del problema son 3 condicionales, 2 de ellas se ubican en un rbol y la tercera en el otro, o si son 2 condicionales con 1 marginal o una conjunta que no estn en lnea de secuencia, hay que abandonar los diagramas y recurrir al lgebra, para obtener al menos otra probabilidad conjunta u otra marginal, para luego retornar a los diagramas y concluir el ejercicio. Al lector le quedan estos dos ejercicios, con diferentes datos del problema:

    a) P(xc|y) = 1/2, P(y|x) = 1, P(yc|xc) = 8/9 b) c cP x y 0.8 , P(x|y) = 0.5 , P(yc|x) =0

    PROBABILIDAD CONDICIONAL

    160

  • Diagramas de cuadrado unitarioLa dependencia o independencia de eventos no se puede identifi car median-

    te de un diagrama de Venn tradicional; los eventos A y B pueden ser depen-diente en cualquiera de los tres siguientes diagramas, y pueden ser indepen-dientes slo en el segundo, pero no necesariamente.

    De hecho, los dos diagramas de los extremos representan los dos casos l-mite del caso general, simbolizado por el segundo diagrama: cuando no hay ocurrencia conjunta y cuando hay ocurrencia implicada, en esos dos casos, la dependencia entre los eventos es total.

    En el primer diagrama, donde A y B son eventos mutuamente exclusivos, si B ocurre, entonces la probabilidad de A es nula; y si A ocurre, entonces la probabilidad de B es nula; por eso son dependientes.

    En el tercer diagrama, donde la ocurrencia de A implica la ocurrencia de B, si B ocurre, entonces la probabilidad de A es la probabilidad conjunta de A y B; y si A ocurre, entonces la probabilidad de B es uno; por eso son dependientes.

    Entonces, cuando hay incompatibilidad o continencia, se puede asegurar que los eventos no son independientes. De hecho se trata del mismo tipo de relacin entre eventos, como se puede apreciar en los siguientes diagramas:

    El caso general es donde cuesta trabajo dilucidar si los eventos son indepen-

    dientes o no, y un diagrama de Venn no ayuda en nada. Para visualizar probabi-lidades condicionales, proponemos el uso de diagramas de cuadrado unitario, que son aplicables en todos los casos y se construyen como sigue:

    a) El segmento unitario horizontal se particiona en dos subintervalos que representan los dos eventos que se pueden dar por ocurridos, asignando a cada longitud de subintervalo, la probabilidad del evento correspondiente: P(B) y P(Bc).

    b) Sobre cada uno de los dos subintervalos defi nidos hay un rectngulo de altura unitaria, el cual se particiona en dos regiones; la inferior con una altura igual a la probabilidad condicional P(A|) y cuya rea corresponde a la pro-babilidad conjunta P( A ), y la superior con altura igual a la probabilidad condicional P(Ac|), delimitada automticamente por el valor uno y cuya rea corresponde a la probabilidad conjunta P( cA ).

    c) Se puede construir un diagrama cuadrado unitario equivalente, en el que verticalmente se representan las probabilidades condicionales P(B|) y P(Bc|) como alturas de dos regiones de los rectngulos formados sobre los subinter-valos horizontales en los que se representan las probabilidades P(A) y P(Ac).

    CONDICIONALIDAD EN IMGENES

    1

  • Ejemplo 1.67. DIAGRAMAS DE CUADRADO UNITARIO. Sean los eventos A y B, cuyas probabilidades fi jaremos en P(A) = 0.4 y P(B) = 0.5. Para ilustrar el procedimiento de construccin de un diagrama de cuadrado unitario consideraremos cinco casos representativos:a) Los eventos A y B son mutuamente exclusivos:

    A B P A B 0 c c c cc

    P A 0.4P A | B 0, P A | B 1, P A | B 0.8, P A | B 0.20.5P B

    c c c ccP B 0.5P B | A 1, P B | A 0, P B | A 0.833, P B | A 0.166

    0.6P A

    b) El evento A est contenido en el evento B.

    cP A 0.4A B A B A P A | B 0.8, P A | B 0.2P B 0.5

    c c cc

    P A P B0 0.5P A | B 0, P A | B 1, P B | A 10.5 P B 0.5P B

    c

    c c c cc

    P B A 0.1P B | A 0, P B | A 0.166, P B | A 0.8330.6P A

    c) P A B 0.1 eventos dependientesP A P B 0.4 0.5 0.2 0.1

    cc c

    c

    P A BP A B 0.1 0.3P A | B 0.2, P A | B 0.8, P A | B 0.6P B 0.5 0.5P B

    PROBABILIDAD CONDICIONAL

    162

  • c c c0.1P A | B 0.4, P B | A 0.25, P B | A 0.750.4

    cc c c

    c

    P B A 0.4P B | A 0.666, P B | A 0.3330.6P A

    d) P A B 0.2 eventos independientesP A P B 0.4 0.5 0.2 P A B

    cc c

    c

    P A BP A B 0.2 0.2P A | B 0.4, P A | B 0.6, P A | B 0.4P B 0.5 0.5P B

    c c c0.2P A | B 0.6, P B | A 0.5, P B | A 0.50.4

    cc c c

    c

    P B A 0.3P B | A 0.5, P B | A 0.50.6P A

    e) P A B 0.3 eventos dependientesP A P B 0.4 0.5 0.2 0.3

    cc c

    c

    P A BP A B 0.3 0.1P A | B 0.6, P A | B 0.4, P A | B 0.2P B 0.5 0.5P B

    c c c0.3P A | B 0.8, P B | A 0.75, P B | A 0.250.4

    cc c c

    c

    P B A 0.2P B | A 0.333, P B | A 0.6660.6P A

    CONDICIONALIDAD EN IMGENES

    1

  • La serie de diagramas de cuadrado unitario obtenidos en el ejercicio da pi

    para distinguir no slo los casos de dependencia o independencia de eventos, sino tambin para identifi car el tipo de relacin que guardan los eventos entre s, cuando hay dependencia.

    Considerando que los datos de partida fueron: P(A) = 0.4 y P(B) = 0.5, que conllevan el producto P(A)P(B) = 0.2, en el siguiente cuadro resumen se observan las conclusiones para diferentes valores de la probabilidad conjunta:P(AB) P(A|B) P(B|A) Relacin

    0 0 0 la ocurrencia de uno inhibe la ocurrencia del otro

    0.1 0.2 0.25 la ocurrencia de uno desfavorece la ocurrencia del otro

    0.2 0.4 0.5 eventos estadsticamente independientes

    0.3 0.6 0.75 la ocurrencia de uno favorece la ocurrencia del otro

    0.4 0.8 1 la ocurrencia de uno obliga la ocurrencia del otro

    De manera general: 0 P A B P A ; 0 P A B P B Si P A B 0 A B Si P A B P A A B, P B | A 1 Si P A B P B B A P A | B 1 Si P A B P A P B A B Si P A B P A P B existe correlacin positiva entre A y BSi P A B P A P B existe correlacin negativa entre A y BLa construccin de diagramas de cuadrado unitario se puede generalizar

    muy fcilmente a cualquier nmero de eventos mutuamente exclusivos a in-cluir en el segmento unitario horizontal, con dos eventos complementarios a considerar en el sentido vertical.

    PROBABILIDAD CONDICIONAL

    164

  • Considere una particin del espacio muestral , constituida por los even-tos B1, B2,..., Bn que son mutuamente exclusivos y colectivamente ex-haustivos. Un evento A cualquiera siempre se puede descomponer en los eventos ( 1A B ), ( 2A B ),, ( nA B ), que son mutuamente exclusivos:

    n ii 1

    A A B

    La probabilidad del evento A siempre puede expresarse como la suma de las

    probabilidades de los eventos iA B , i=1,2,, n n i

    i 1P A P A B

    ____ (1.41)

    Cada trmino puede expandirse conforme a la ley de multiplicacin de pro-babilidades dada en (1.39), de manera que la ecuacin (1.41) tambin puede escribirse como:

    n i ii 1

    P A P A | B P B

    ____ (1.42)Este resultado se conoce como teorema de probabilidad total y representa la

    expansin de la probabilidad de un evento en trminos de sus probabilidades condicionales, condicionadas sobre un conjunto de eventos mutuamente ex-clusivos y colectivamente exhaustivos.

    En efecto:

    n1 2 n ii 1

    P A P A B A B ... A B P A B

    Pero i jB B , i j por lo que: i jA B A B , i j Entonces: n i

    i 1P A P A B

    La probabilidad total obtenida a travs de (1.41) o (1.42) es la probabilidad marginal de A, es decir, es la probabilidad de ocurrencia de A, sin importar la ocurrencia de cualquier otro evento.

    PROBABILIDAD TOTAL

    1.5.4TEOREMA DEPROBABILIDADTOTAL

    1

  • Hagamos ahora una pequea transformacin, renombrando las ocurrencias conjuntas en la forma: i iC A B , de manera el evento A es la unin de n eventos Ci mutuamente exclusivos:

    n

    i i ji 1

    A C , C C , i j

    , constitu-yendo una descomposicin del evento A.

    Por lo tanto, la probabilidad total del evento A es la suma de las probabili-dades de los eventos Ci, lo cual replica el tercer axioma de probabilidad:

    n ni i i j

    i 1i 1

    P A P C P C C C , i j

    Aunque no lo pareca, aquel que denominamos teorema de probabilidad

    total en el captulo 1.2 y que durante ms de doscientos aos fuera considerado uno de los tres teoremas fundamentales de la probabilidad, es exactamente el mismo que el tratado en este apartado, slo que estaba presentado de otra manera; con la adecuacin realizada, se pudo ver claramente que se trata del mismo concepto.

    Ejemplo 1.68. URNAS. Se tienen tres urnas que contienen 24 bolas cada una. La urna 1 tiene 16 bolas rojas y 8 blancas, la urna 2 tiene 20 bolas rojas y 4 blancas, y la urna 3 tiene 6 bolas rojas y 18 blancas. Se ha extrado una bola de alguna de las urnas, cul es la probabilidad de que la bola sea blanca?

    Cabe suponer cuatro soluciones: Si la bola sali de la urna 1, la probabili-

    dad de que sea blanca es 1/3, porque hay 8 de 24 bolas, que son blancas. Si la bola sali de la urna 2, la probabilidad de que sea blanca es 1/6, porque hay 4 de 24 bolas, que son blancas. Y si la bola sali de la urna 3, la probabilidad de que sea blanca es 3/4, porque hay 18 de 24 bolas, que son blancas. Finalmen-te, si no sabemos de cul de las tres urnas sali, entonces la probabilidad de que sea blanca es 5/12, porque, en total, hay 30 de 72 bolas, que son blancas.

    PROBABILIDAD CONDICIONAL

    166

  • Sera posible que las cuatro respuestas fueran correctas? Pues si supone-mos que la bola sali de la urna 1, la respuesta correcta es la primera; es una probabilidad condicional, condicionada a que la urna elegida haya sido la 1. Se puede decir exactamente lo mismo, si suponemos la extraccin de la urna

    2, o de la 3: 8 1 4 1 18 3P B |1 , P B | 2 , P B | 324 3 24 6 24 4

    La cuarta respuesta corresponde a una probabilidad no condicional, pues

    aqu no hay necesidad de suponer nada; considerando que la urna elegida pudo ser cualquiera de las tres, con igual probabilidad de 1/3, la probabilidad total de que la bola sea blanca es: P B P B |1 P 1 P B | 2 P 2 P B | 3 P 3

    1 1 1 1 3 1 1 1 1 4 2 9 15 53 3 6 3 4 3 9 18 4 36 36 12

    Cuando se obtiene probabilidad total, el diagrama de cuadrado unitario se

    puede simplifi car omitiendo las probabilidades correspondientes a los comple-metos, quedando nicamente una distribucin de probabilidad:

    Ejemplo 1.69. DEFECTUOSOS. Tres mquinas A, B y C producen, respec-tivamente, 50%, 30% y 20% del nmero total de artculos de una fbrica; los porcentajes de desperfectos de produccin de estas mquinas son, respectiva-mente, 4%, 2% y 3%. Existe inters en determinar cul es el porcentaje de artculos defectuosos en toda la fbrica.

    Intuitivamente, tal porcentaje se puede obtener sumando los productos de

    los porcentajes de produccin de cada mquina por sus correspondientes por-centajes de desperfectos:

    0.50 0.04 0.30 0.02 0.20 0.03 0.02 0.006 0.006 0.032

    PROBABILIDAD TOTAL

    1

  • El porcentaje total de artculos defectuosos es de 3.2%Formalmente: Sean los eventos: A = {artculo producido por la mquina A} B = {artculo producido por la mquina B} C = {artculo producido por la mquina C} D = {artculo defectuoso}Con las siguientes probabilidades: P A 0.50, P D | A 0.04 P B 0.30, P D | B 0.02 P C 0.20, P D | C 0.03 P D P A P D | A P B P D | B P C P D | C 0.50 0.04 0.30 0.02 0.20 0.03 0.02 0.006 0.006 0.032

    Nos damos cuenta que la manera en que resolvimos los problemas de pro-babilidad condicional fue aplicando intuitivamente el teorema de probabilidad total, porque estuvimos tratando con eventos complementarios, y stos son mutuamente exclusivos y colectivamente exhaustivos:

    c cA A B A B A c cA A B A B A B

    c c cP B P B A P B A P B | A P A P B | A P A Ejemplo 1.70. ENTRONQUE. En el ejercicio del entronque Viaducto Peri-frico, se desea obtener la probabilidad de que se sature el tramo z, usando el teorema de probabilidad total.

    Tomando los eventos: x y , x y , x y , x y , que son mutua-mente exclusivos y colectivamente exhaustivos, calculamos la probabilidad total: P z P z | x y P x y P z | x y P x y

    P z | x y P x y P z | x y P x y Y sustituyendo: P x y P x | y P y , P x y P x | y P y P x y P x | y P y , P x y P x | y P y

    PROBABILIDAD CONDICIONAL

    168

  • P z P z | x y P x | y P y P z | x y P x | y P y P z | x y P x | y P y P z | x y P x | y P y Los datos son: P x 0.1, P y 0.2, P x | y 0.5, P z | x y 0.2

    Ya se haban obtenido: P x y 0.1, P x y 0.8 P z | x y P z | x y P z | x y 1, P x 0.9, P y 0.8

    P x y 0.8P x | y 1 P x | y 1 0.5 0.5; P x | y 1

    0.8P y

    P x | y 1 P x | y 1 1 0 P z 1 0.5 0.2 1 0 0.8 1 0.5 0.2 0.2 1 0.8

    0.1 0 0.1 0.16 0.36 En un anlisis ms profundo, interesara conocer la capacidad que debera

    tener el tramo z para que la falla sea menos probable, tomando en cuenta el costo social y el costo de la obra.

    Ejemplo 1.71. CIRCUITO ELCTRICO. Considerando el conector 5, la probabilidad de que haya corriente entre las terminales A y B se puede obte-ner utilizando el teorema de probabilidad total, considerando los 16 eventos elementales del espacio muestral, que son mutuamente exclusivos y colectiva-mente exhaustivos. P C P C | NNNN P NNNN P C | NNNF P NNNF ... P C | FFFF P FFFF P C | NNNN P C | NNNF P C | NNFN P C | NFNN P C | FNNN 1 P C | NNFF P C | NFFN P C | FFNN P C | FNNF 1 P C | NFNF P C | FNFN 0 P C | NFFF P C | FNFF P C | FFNF P C | FFFN 0 4P NNNN 1 p 3P NNNF P NNFN P NFNN P FNNN p 1 p 22P NNFF P NFFN P FFNN P FNNF P NFNF P FNFN p 1 p 3P NFFF P FNFF P FFNF P FFFN p 1 p 4P FFFF p 4 3 22 3 4P C 1 1 p 4 1 p 1 p 2 1 p 1 p 4 0 p 1 p 1 0 p

    4 3 221 p 4p 1 p 2p 1 p

    2 3 4 2 3 4 2 3 41 4p 6p 4p p 4p 12p 12p 4p 2p 4p 2p

    2 3 41 4p 4p p Este resultado coincide con el obtenido previamente, utilizando otras reglas

    PROBABILIDAD TOTAL

    1

  • Bajo los mismos supuestos establecidos para el teorema de probabilidad to-tal, por defi nicin de probabilidad condicional, la probabilidad de ocurren-cia del evento B, dada la ocurrencia del evento Aj es: jj j

    P A BP B | A

    P A

    Y puesto que j j j j jP B A P A P B | A P A B P B P A | B , entonces: jj

    P A BP A | B

    P B

    El numerador jP A B representa un trmino de la ecuacin 1.41, y pue-de ser reemplazado, como en la ecuacin 1.42 por el producto j jP B | A P A y en forma similar, el denominador puede ser reemplazado por la suma de tales

    trminos: j j

    j jn

    i ii 1

    P B | A P AP A | B , A

    P B | A P A

    ____ (1.43)

    Este resultado es conocido como teorema de Bayes, el cual provee una regla cuya validez es indiscutible para obtener, a partir de un conjunto de probabi-lidades a priori, asignadas objetiva o subjetivamente, un conjunto de proba-bilidades a posteriori, que permiten corroborar aquellas, si su asignacin fue objetiva, o permiten modifi carlas y corregirlas, si su asignacin fue subjetiva, con fundamento en la evidencia de que un determinado evento ha ocurrido.

    Cuando decimos: dada la ocurrencia del evento B, esto no se debe inter-pretar como que B es el resultado de un experimento determinstico, al suponer que si ha ocurrido, entonces P(B) =1. La riqueza del espaol facilita expresar la idea de una mejor manera, con la frase: si el evento B ocurriera.

    Si bien la regla de Bayes parece una expresin complicada, sigue siendo en esencia el mismo cociente que defi ne probabilidad condicional, excepto que el denominador, que corresponde a una probabilidad marginal, ahora est expan-dido conforme al teorema de probabilidad total. En esencia, el teorema invoca nicamente dos leyes: adicin y multiplicacin de probabilidades.

    PROBABILIDAD CONDICIONAL

    1.5.5TEOREMADE BAYES

    170

  • Revisemos con detenimiento el signifi cado de los trminos contenidos en la denominada regla de Bayes: P(Ai) = Probabilidad a priori de ocurrencia del evento Ai P(B|Ai) = Probabilidad condicional de ocurrencia del evento B, dado que

    el evento Ai ocurre. El evento Ai visto como la causa de ocurrencia del evento B

    P(Ai|B) = Probabilidad condicional de ocurrencia del evento Ai, si es que el evento B ocurriera. El evento B visto como el efecto de la ocurrencia del evento Ai.

    Tanto el teorema como la probabilidad subjetiva asociada a ste, siempre han suscitado polmica. Las llamadas probabilidades a priori P(Ai) pueden provenir de cualquiera de las interpretaciones de probabilidad: clsica, fre-cuentista o subjetiva; la objetividad en la asignacin est condicionada, pues slo en los juegos de azar se puede invocar simetra y slo disponiendo de abundante informacin estadstica es posible usar frecuencias relativas; en la mayora de los problemas reales, las llamadas probabilidades a priori han de ser evaluadas subjetivamente, en el mejor de los casos con un criterio lgico.

    En general, en el mbito profesional, las probabilidades subjetivas no son ocurrencias irresponsables de alguien; aunque no se basen en ningn clculo preciso, en general corresponden a evaluaciones razonables que realizan per-sonas bien informadas y comprometidas, traducindolas en creencias; en el teorema de Bayes, el trmino matemtico para creencia se llama probabilidad a priori, aquella que estara cambiando permanentemente en funcin de nuevos datos, siempre en el rango entre 0 y 1.

    El conocimiento previo que tenemos de muchas cosas se basa en nuestras creencias y suposiciones, infl uyendo en nuestra percepcin; y nuestra percep-cin es ms o menos sensible a la informacin en la medida en que sta mo-difi ca nuestras creencias sobre el mundo. El teorema de Bayes permite fundir las probabilidades subjetivas, a priori, con informacin experimental nueva, para obtener unas segundas probabilidades revisadas o a posteriori. La regla se puede aplicar iterativamente como un proceso de naturaleza secuencial y adaptativa, que permite ir afi nando las probabilidades a priori, a medida que se va generando nueva evidencia.

    El enfoque bayesiano ha sido til en algunas estimaciones basadas en co-nocimiento subjetivo, pues el hecho de poder revisar tales estimaciones, en congruencia con evidencia emprica adicional, abre nuevas formas de crear conocimiento. La perspectiva bayesiana ha sido revolucionaria hasta el punto de convertirse en el punto de vista mayoritario; la regla de Bayes es la frmula matemtica de las creencias, la que mide qu tanto la nueva evidencia es capaz de alterar las probabilidades a priori. Hoy en da es posible medir las creencias de las personas y tambin medir los cambios de percepcin producidos, luego de recibir determinada informacin.

    El teorema de Bayes se utiliza actualmente en una amplia variedad de pro-blemas, que van desde la exploracin petrolera fuera de costa, hasta la discri-minacin del spam en sistemas de correo electrnico.

    TEOREMA DE BAYES

    17

  • El nombre del teorema honra la memoria de Thomas Bayes; sin embargo, ahora se sabe que l slo particip marginalmente en su expresin, pues hay evidencia que nunca estuvo en condiciones de hacer formulaciones a partir de probabilidades totales. El primero que lo enunci fue Abraham De Moivre, pero quien realmente lo desarroll fue Laplace, quien en 1812 expres: Sea A un suceso que ocurre en conjuncin con uno y slo uno de los n sucesos dis-juntos B1, B2,, Bn. Si se sabe que el suceso A ha ocurrido, cul es la proba-bilidad de que el suceso Bj tambin? La probabilidad de existencia de una de esas causas es igual a una fraccin con un numerador igual a la probabilidad del suceso que se sigue de esta causa y un denominador que es la suma de las probabilidades similares relativas a todas las posibles causas.

    Ejemplo 1.72. URNAS. Como continuacin del ejemplo 1.68, considere que de alguna de las tres urnas se extrajo una bola que result ser blanca, ahora in-teresa calcular la probabilidad de que la urna elegida haya sido la 1, la 2 o la 3.

    Probabilidades a priori, clsicas: P 1 1 / 3, P 2 1 / 3, P 3 1 / 3 P B |1 1 / 3, P B | 2 1 / 6, P B | 3 3 / 4 Ya se haba calculado: P B 5 / 12, P R 7 / 12

    a) Que haya sido la 1: P B |1 P 1 1 / 3 1 / 3 4P 1 | B 0.266

    P B 5 / 12 15

    b) Que haya sido la 2: P B | 2 P 2 1 / 6 1 / 3 2P 2 | B 0.133

    P B 5 / 12 15

    c) Que haya sido la 3: P B | 3 P 3 3 / 4 1 / 3 3P 3 | B 0.6

    P B 5 / 12 5

    Ejemplo 1.73. DEFECTUOSOS. De los artculos producidos por tres dife-rentes mquinas, suponga que se ha elegido aleatoriamente un artculo y ste ha resultado defectuoso; calcule la probabilidad de que provenga de la mqui-na A, de la B o de la C.

    Probabilidades frecuentistas: P A 0.50, P B 0.30, P C 0.20 P D | A 0.04, P D | B 0.02, P D | C 0.03 Ya se haba calculado: cP D 0.032, P D 0.968

    a) Que provenga de la A:

    P D | A P A 0.04 0.50 0.02 5P A | D 0.625

    P D 0.032 0.032 8

    b) Que provenga de la B:

    P D | B P B 0.02 0.30 0.006 3P B | D 0.1875

    P D 0.032 0.032 16

    c) Que provenga de la C:

    P D | C P C 0.03 0.20 0.006 3P C | D 0.1875

    P D 0.032 0.032 16

    PROBABILIDAD CONDICIONAL

    172

  • Ejemplo 1.74. ENTRONQUE. Para el caso del entronque Viaducto Perif-rico, calcularemos algunas probabilidades condicionales.

    Se tenan ya: P x 0.1, P y 0.2, P x | y 0.5, P z | x y 0.2 P x y 0.1, P x y 0.8, P z | x y P z | x y P z | x y 1 P x 0.9, P y 0.8, P x | y 0.5, P x | y 1, P x | y 0, P z 0.36

    Suponiendo que el tramo z se satura:a) Probabilidad de que los tramos x e y tambin se saturen:

    P z | x y P x y P z | x y P x | y P y 1 0.5 0.2 5P x y | z

    P z P z 0.36 18

    b) Probabilidad de que se sature el tramo x, pero no el tramo y:

    P z | x y P x | y P y 1 0 0.8P x y | z 0

    P z 0.36

    c) Probabilidad de que se sature el tramo y, pero no el x,:

    P z | x y P x | y P y 1 0.5 0.2 5P x y | z

    P z 0.36 18

    d) Probabilidad de que no se sature ni el tramo x ni el tramo y:

    P z | x y P x | y P y 0.2 1 0.8 4P x y | z

    P z 0.36 9

    Suponiendo que el tramo z no se satura, calcularemos primero: P z | x y 1 P z | x y 1 0.2 0.8 P z | x y P z | x y P z | x y 0

    e) Probabilidad de que los tramos x e y si se saturen:

    P z | x y P x | y P y 0 0.5 0.2P x y | z 0

    0.64P z

    f) Probabilidad de que se sature el tramo x, pero no el y:

    P x y | z 0 g) Probabilidad de que se sature el tramo y, pero no el x: P x y | z 0 h) no se sature ninguno de los dos tramos.

    P z | x y P x | y P y 0.8 1 0.8P x y | z 1

    0.64P z

    Ejemplo 1.75. CIRCUITO ELCTRICO. Considerando el conector 5, y la probabilidad p asignada empricamente; dado que hay corriente entre las ter-minales A y B, calcule las siguientes probabilidades:a) De est cerrado el primer interruptor: 1P N | C P NNNN NNNF NNFN NFNN

    NNFF NFNF NFFN NFFF | C

    TEOREMA DE BAYES

    17

  • P NNNN | C P NNNF | C P NNFN | C P NFNN | C P NNFF | C P NFNF | C P NFFN | C P NFFF | C

    P NNNN | C P NNNN P NNNF | C P NNNFP C P C

    P NNFN | C P NNFN P NFNN | C P NFNNP C P C

    P NNFF | C P NNFF P NFNF | C P NFNF

    P C P C

    P NFFN | C P NFFN P NFFF | C P NFFFP C P C

    4 3 222 3 4

    1 1 p 3 1 p 1 p 2 1 p 1 p 01 4p 4p p

    2 3 4 2 3 4 2 3 4

    2 3 4

    1 4p 6p 4p p 3p 9p 9p p 2p 4p p1 4p 4p p

    2 3

    2 3 4

    1 p p p1 4p 4p p

    b) De que estn cerrados los interruptores 1 y 4: 1 4P N N | C P NNNN NNFN NFNN NFFN | C

    P NNNN | C P NNFN | C P NFNN | C P NFFN | C

    P NNNN | C P NNNN P NNFN | C P NNFNP C P C

    P NFNN | C P NFNN P NFFN | C P NFFN

    P C P C

    4 3 222 3 4

    1 1 p 2 1 p 1 p 1 p 1 p1 4p 4p p

    2 3 4 2 3 4 2 3 4

    2 3 4

    1 4p 6p 4p p 2p 6p 6p 2p p 2p p1 4p 4p p

    2

    2 3 4

    1 2p p1 4p 4p p

    c) De que estn abiertos los interruptores 1 y 4: 1 4P F F | C P FFFF FFNF FNFF FNNF | C

    P FFFF | C P FFNF | C P FNFF | C P FNNF | C

    P FFFF | C P FFFF P FFNF | C P FFNFP C P C

    P FNFF | C P FNFF P FNNF | C P FNNF

    P C P C

    24 3 2 2 3 4

    2 3 4 2 3 4

    0 p 2 0 p 1 p 1 p 1 p p 2p p1 4p 4p p 1 4p 4p p

    PROBABILIDAD CONDICIONAL

    174

  • d) De que estn cerrados los cuatro interruptores:

    P FFFF | C P FFFF

    P NNNN | CP C

    4 2 3 42 3 4 2 3 4

    1 1 p 1 4p 6p 4p p1 4p 4p p 1 4p 4p p

    rboles de probabilidades a priori y a posterioriUna manera grfi ca de visualizar la aplicacin de los teoremas de probabi-

    lidad total y de Bayes, es a travs de los rboles de probabilidad condicional, ahora en forma generalizada.

    Las reglas para su construccin son prcticamente las mismas que las que se vieron previamente y aqu se puntualizan. A partir de probabilidades mar-ginales a priori, P(Ai) de los eventos A1, A2,, An, mutuamente exclusivos y colectivamente exhaustivos, y de las probabilidades condicionales asociadas con ellos: P(B|Ai), se puede construir un diagrama que se denomina rbol de probabilidades a priori:

    De acuerdo con las siguientes reglas:a) La suma de las probabilidades de los eventos correspondientes a ramas

    que parten de un mismo nodo debe ser 1, lo cual implica que tales eventos de-ben ser mutuamente exclusivos y colectivamente exhaustivos.

    b) Hay n ramas que parten del nodo inicial, en las que se anotan sendas probabilidades marginales a priori conocidas de los n eventos A1, A2,, An, mutuamente exclusivos y colectivamente exhaustivos.

    c) Hay dos ramas que parten de los n segundos nodos, en los que se anotan, respectivamente, las probabilidades condicionales: P(B|Ai), que es conocida, y P(Bc|Ai), que es calculada por complemento; estas dos probabilidades co-rrespondientes al nodo i, i=1,2,, n, deben sumar 1, pues se trata de eventos complementarios en el espacio muestral condicional Ai; dentro de este espacio, tales eventos son mutuamente exclusivos y colectivamente exhaustivos.

    d) Las probabilidades conjuntas y ci iP B A P B A se anotan como valores terminales de las ramas del rbol, y se obtiene respectivamente de los productos P(B|Ai)P(Ai) y P(B

    c|Ai)P(Ai), cuyos valores aparecen sobre ramas consecuentes en el rbol. Esta es la ley de multiplicacin de probabilidades.

    TEOREMA DE BAYES

    17

  • e) Las probabilidades marginales P(B) y P(Bc), se obtienen respectivamen-te de las sumas P(B|Ai)P(Ai) y P(Bc|Ai)P(Ai), cuyos trminos aparecen al-ternadamente como valores terminales del rbol. Este es el teorema de proba-bilidad total.

    f) Las probabilidades marginales P(B) y P(Bc) obviamente deben sumar 1; esta es la mejor manera de corroborar operaciones aritmticas.

    Luego, partiendo del rbol de probabilidades a priori, se construye el res-pectivo rbol de probabilidades a posteriori:

    De acuerdo a las siguientes reglas:g) La suma de las probabilidades de los eventos correspondientes a ramas

    que parten de un mismo nodo debe ser 1, lo cual implica que tales eventos de-ben ser mutuamente exclusivos y colectivamente exhaustivos.

    h) Hay dos ramas que parten del nodo inicial, en las que se anotan, respec-tivamente, las probabilidades marginales P(B) y P(Bc) calculadas a travs del teorema de probabilidad total; los eventos B y Bc son complementarios y, por consiguiente, mutuamente exclusivos y colectivamente exhaustivos.

    i) Hay n ramas que parten de los 2 segundos nodos, en los que deben apa-recer sendas probabilidades condicionales a posteriori: P(Ai|B), para el nodo correspondiente a B, y P(Ai|Bc), para el nodo correspondiente a Bc; no ha sido calculado todava el valor de estas probabilidades, solo se sabe que la suma correspondiente a cada uno de los nodos debe ser 1, pues se trata de eventos mutuamente exclusivos y colectivamente exhaustivos en los espacios condi-cionales B y Bc, respectivamente.

    j) Las probabilidades conjuntas y ci iP A B P A B , que ya se haban calculado a travs de la ley de multiplicacin de probabilidades, se anotan como valores terminales de las ramas de este segundo rbol, sabiendo que co-rresponden a los productos P(Ai|B)P(B) y P(Ai|B

    c)P(Bc), cuyos valores apare-cen sobre ramas consecuentes en este segundo rbol.

    k) Las probabilidades condicionales a posteriori desconocidas P(Ai|B) y P(Ai|B

    c), se obtienen, respectivamente, dividiendo el valor terminal iP A Bentre la probabilidad marginal P(B), y dividiendo el valor terminal ciP A Bentre la probabilidad marginal P(Bc). Esto es el teorema de Bayes.

    PROBABILIDAD CONDICIONAL

    176

  • l) Las probabilidades marginales P(Ai), i = 1, 2,, n, se obtienen respec-tivamente de las sumas + ci iP A B P A B , cuyos trminos aparecen sal-teados, como valores terminales del rbol.

    m) La suma de las probabilidades marginales P(Ai) obviamente debe sumar 1; esta es la mejor manera de corroborar operaciones aritmticas.

    Arreglos matriciales1. Las dos ecuaciones que relacionan las probabilidades de eventos comple-

    mentarios: c cP A P A 1, P B P B 1 , se pueden expresar mediante el producto de la matriz de probabilidades individuales por un vector unitario y

    da por resultado un vector unitario:

    c

    c

    P A P A 1 11 1P B P B

    2. Las ecuaciones que relacionan las probabilidades conjuntas con pro-babilidades marginales corresponden al teorema de probabilidad total: c c c c cP A B P A B P A , P A B P A B P A c c c c cP B A P B A P B , P B A P B A P B

    y se pueden expresar a travs del producto de una matriz de probabilidades conjuntas por un vector unitario y da por resultado un vector de probabilidades marginales complementarias:

    c

    cc c c

    P A B P A B P A11 P AP A B P A B

    c

    cc c c

    P B A P B A P B11 P BP B A P B A

    Ntese que en el segundo sistema de ecuaciones la matriz de probabilidades

    conjuntas es la traspuesta de la matriz de probabilidades conjuntas del primero. 3. Las ecuaciones que relacionan las probabilidades condicionales con las

    probabilidades marginales de dos eventos, tambin corresponden al teorema de probabilidad total, pero con cada trmino expandido como producto: c cP A | B P B P A | B P B P A c c c c cP A | B P B P A | B P B P A c cP B | A P A P B | A P A P B c c c c cP B | A P A P B | A P A P B

    y se puede expresar mediante el producto de una matriz cuyos elementos son productos de condicionales por marginales, por un vector de probabilidades marginales y da por resultado el otro vector de probabilidades marginales:

    c

    c cc c c

    P A | B P A | B P B P A

    P B P AP A | B P A | B

    c

    c cc c c

    P B | A P B | A P A P B

    P A P BP B | A P B | A

    TEOREMA DE BAYES

    17

  • Ntese que el primer sistema de ecuaciones est asociado al rbol de proba-bilidades a priori y el segundo sistema de ecuaciones est asociado al rbol de probabilidades a posteriori.

    Ejemplo 1.76. DEFECTUOSOS. Los datos estadsticos indican que las m-quinas A, B y C producen, respectivamente, 50%, 30% y 20% del nmero total de artculos de una fbrica; los porcentajes de desperfectos de produccin de estas mquinas son, respectivamente, 4%, 2% y 3%. Construya rboles de probabilidad a priori y a posteriori, para visualizar la aplicacin de los teore-mas de probabilidad total y de Bayes, a la solucin de este problema.

    rbol a priori:

    rbol a posteriori:

    Y matricialmente:

    0.50.04 0.02 0.03 0.032

    0.30.96 0.96 0.97 0.968

    0.2

    0.6250 0.4959 0.50.032

    0.1875 0.3037 0.30.968

    0.1875 0.2004 0.2

    PROBABILIDAD CONDICIONAL

    178

  • La construccin de rboles de probabilidades se puede generalizar para cuando se tienen k conjuntos de eventos mutuamente exclusivos y colectiva-mente exhaustivos.

    Ejemplo 1.77. ENTRONQUE. En el entronque Viaducto y Perifrico se ha observado que los tramos x e y se congestionan con probabilidades 0.1 y 0.2, respectivamente, que cuando el tramo y se congestiona, el tramo x se conges-tiona con probabilidad 0.5, y que cuando los tramos x e y trabajan debajo de sus capacidades, la probabilidad de que el tramo z se sature es de 0.2. Constru-ya rboles de probabilidad a priori y a posteriori, para visualizar la aplicacin de los teoremas de probabilidad total y de Bayes, al resolver este problema.

    Toda la informacin requerida ya ha sido calculada previamente y resumida en el ejemplo 1.74, misma que ahora se vaca en los rboles de probabilidades.

    rbol a priori:

    rbol a posteriori:

    TEOREMA DE BAYES

    17

  • Independencia condicionalSi A, B y C son tres eventos que pueden ocurrir conjuntamente, entonces se

    dice que los eventos A y B son condicionalmente independientes dada la ocu-rrencia del evento C, con P(C) > 0, si al ocurrir C, la ocurrencia o no ocurren-cia de A no aporta ninguna informacin sobre la probabilidad de ocurrencia de B y la ocurrencia o no ocurrencia de B no aporta ninguna informacin sobre la probabilidad de ocurrencia de A:

    P A | B C P A | C , P B C 0 P B | A C P B | C , P A C 0

    Cuando A y B son condicionalmente independientes dado C, se escribe:

    A B | C , y otra defi nicin alternativa equivalente es: P A B | C P A | C P B | C En otro caso, se dice que A y B son condicionalmente dependientes dado C

    y se escribe: A B | CLa independencia estadstica no implica independencia condicional y la inde-

    pendencia condicional no implica independencia estadstica. De hecho, cuando la independencia es condicional, si el evento C ocurre, los eventos A y B son independientes y si C no ocurre, entonces A y B son dependientes.

    En los problemas de diagnstico lo que interesa es identifi car la hiptesis ms probable de acuerdo a la evidencia disponible, y la regla de Bayes es la frmula de recurrencia que formaliza el hecho de que los grados de creencia se pueden renovar, abriendo un camino inductivo al mtodo cientfi co para crear nuevo conocimiento.

    As es que el teorema de Bayes se ha convertido en el procedimiento gen-rico que combina iterativamente diferentes fuentes de informacin y hace diag-nsticos basados en relaciones causales. Las probabilidades directas del tipo P(efecto|causa), denominadas probabilidades causales, suelen ser ms fciles de obtener que las probabilidades inversas del tipo P(causa|efecto), llamadas probabilidades de diagnosis. En general, el teorema permite pasar de unas a otras fcilmente, pero a medida que se va incorporando informacin relativa a ms y ms efectos, el problema puede hacerse inmanejable, incluso en com-putadoras muy poderosas. Y es que el nmero n de efectos considerados, hace que el nmero de probabilidades causales a evaluar, crezca exponencialmente a 2n+1, presentndolas en una sola tabla de doble entrada, con dos renglones y 2n columnas; con la difi cultad adicional de tener que asignar probabilidades a eventos que involucran n efectos simultneamente.

    PROBABILIDAD CONDICIONAL

    180

  • Las evidentes limitaciones prcticas en la aplicacin de la regla de Bayes, por cuanto al crecimiento en el nmero de efectos, provocaron que la mayo-ra de los investigadores de todo el mundo descartaran por mucho tiempo los mtodos basados en el enfoque bayesiano. Slo hasta que se introdujo como hiptesis la independencia condicional, fue que el teorema de Bayes recobr vigencia; la propuesta supone que la probabilidad de ocurrencia de un efecto es independiente de los dems efectos que no dependen directamente de l. El su-puesto se justifi ca plenamente, porque en los fenmenos reales, cada efecto se relaciona solamente con algunos otros efectos, y no se relaciona directamente con todos los dems. Por eso es necesario que en cada diagnstico, se dis-criminen los efectos que son o pueden ser considerados independientes entre s, en presencia de una causa, de aquellos otros que manifi estan dependencia estadstica.

    Con esa informacin se construyen las llamadas redes probabilsticas baye-sianas, que representan grfi camente el conjunto de relaciones entre causas y efectos de cada problema; asociada a cada aspecto consignado en esa red, se dispone de una pequea tabla que contiene las probabilidades de ese aspecto, dados las aspectos directamente relacionados con l; as, en vez de una gran tabla de nmeros que relacione todos los aspectos, se requiere un conjunto de pequeas tablas con unas cuantas probabilidades en cada una.

    En la representacin de una red bayesiana, la presencia de un enlace indica dependencia causal, y la ausencia de un enlace indica, de manera implcita, su independencia mutua; por ello, estas redes poseen un cierto grado de modula-ridad, que facilita el clculo de probabilidades elementales conjuntas de n+1 dimensiones. Si una causa C tuviese n efectos Ei, todos ellos independientes entre s, el nmero de probabilidades a evaluar se reducira a n+1 en vez de ser

    2n+1: n1 2 n ii 1

    P C E E ... E P C P E | C

    Para hacer la inferencia probabilstica lo nico que se requiere es conocer

    las probabilidades causales de cada evento por separado y multiplicarlas entre s; por eso el problema se hace mucho ms manejable. Si los n efectos fuesen estadsticamente independientes, sera muy simple calcular las 2n+1 probabi-lidades condicionales combinadas, a travs del producto de n probabilidades condicionales simples; pero no es comn que esto suceda.

    Actualmente se desarrollan infi nidad de sistemas de inteligencia artifi cial capaces de enfrentar y resolver problemas grandes y complejos; ellos estn soportados por redes bayesianas de las que se extraen soluciones probabilsti-cas inductivas racionales. Con ellos se puede predecir el precio del petrleo, predecir las fl uctuaciones de la bolsa de valores, se pueden hacer diagnsticos mdicos a control remoto, diagnosticar las fallas en el funcionamiento de todo tipo de red, se puede hacer la seleccin del mejor cultivo en una determinada regin o la determinacin del mejor prospecto de localizacin para un pozo petrolero exploratorio.

    Curiosamente, se considera que nuestro cerebro asigna constantemente pro-babilidades subjetivas y utiliza el enfoque bayesiano para aprender y reapren-der cada da.

    TEOREMA DE BAYES

    1

  • Ejemplo 1.78. Diagnstico mdico. Supuestamente un mdico conoce de ma-nera subjetiva la frecuencia con la que se presenta cada enfermedad, P(Ai), as las como la frecuencia con la que aparecen los sntomas asociados a ella P(Bj|Ai), aunque sabe que determinado sntoma tambin podra deberse a otro padecimiento. El diagnstico del mdico consiste en evaluar la probabilidad P(Ai|Bj) de cada enfermedad Ai, a partir de la presencia de sntomas Bj. No se le puede exigir objetividad en su asignacin de probabilidades a priori, porque no es factible su comprobacin emprica. No obstante que sus estimaciones son subjetivas, como asignaciones de probabilidad se consideran buenas.

    En cada diagnstico mdico el cuestionamiento es el mismo: dado que el paciente presenta estos sntomas, cul de las posibles enfermedades es la que tiene el paciente? La incertidumbre del mdico proviene del desconocimiento detallado de los hechos, pues el paciente aporta datos subjetivos, imprecisos, incompletos o errneos; adems, las relaciones entre las enfermedades y los sntomas no son deterministas, puesto que un mismo conjunto de sntomas puede estar asociado a diferentes enfermedades.

    Cuando un paciente tiene dolor de muelas, el mdico puede suponer inme-diatamente que se trata de un problema de caries; pero al dejar fuera otras po-sibilidades, como muela del juicio o sinusitis, puede no acertar en su diagns-tico. Claro que ser exhaustivo implica ms trabajo y un mejor conocimiento terico y prctico sobre todas las reglas de inferencia que relacionas sntomas con enfermedades.

    Basado en su percepcin y experiencia, el mdico posee un esquema mental de evaluacin que le dice que un paciente con dolor de muelas, tiene caries con probabilidad del 80% y lo denota matemticamente en la forma P C | D 0.8;esa es una forma de expresar el conocimiento subjetivo, con la probabilidad como grado de creencia, que no de certeza; esa probabilidad subjetiva puede estar cambiando y afi nndose permanentemente, a medida que se tienen nue-vas evidencias.

    La probabilidad incondicional asociada a un evento, es el grado de creencia sobre la ocurrencia de ese evento, en ausencia de cualquier otra informacin o evidencia; por ejemplo: oP C 0.2 P C D 0.16

    La probabilidad condicional asociada a un evento, dada la ocurrencia de otro, es el grado de creencia sobre la ocurrencia del primer evento, dado que todo lo que sabemos es que ocurre otro evento; por ejemplo: P C | D 0.8 signifi ca que una vez sabido que un paciente tiene dolor de muelas, y el mdico slo sabe eso, su creencia es que el paciente tendr caries con probabilidad 0.8.

    La probabilidad condicional no es lo mismo que una implicacin lgica con incertidumbre, es decir, P C | D 0.8 no signifi ca que cada vez que haya dolor la probabilidad de caries es del 80%, sino indica que ante la presencia de dolor, como nica evidencia conocida, 8 de cada 10 veces, el paciente tendr caries.

    En este caso podemos distinguir que P C | D es una probabilidad condicio-nal a priori, que mide la posibilidad de ocurrencia de la causa llamada caries, ante la presencia del efecto llamado dolor; en cambio, P D | C es una probabi-lidad condicional a posteriori, que mide la posibilidad de ocurrencia del efecto llamado dolor, ante la presencia de la causa llamada caries.

    PROBABILIDAD CONDICIONAL

    182

  • Si adems de considerar el dolor como sntoma, se toma en cuenta la presen-cia o no, de una oquedad en una pieza dental, entonces los eventos elementales son ocho, y la forma de presentar las probabilidades conjuntas es en una tabla de doble entrada, con dos renglones para los datos asociados a la enfermedad y cuatro columnas para los datos asociados a los sntomas:

    P C 0.128 0.032 0.032 0.008 0.20 P D 0.128 0.006 0.032 0.034 0.20 P O 0.128 0.006 0.032 0.174 0.34

    P C D 0.128 0.032 0.16P C | D 0.80P D 0.2 0.2

    c

    cP C D 0.006 0.034 0.04P C | D 0.20

    P D 0.2 0.2

    La pareja de probabilidades condicionales complementarias cP C | D ,P C | D 0.8,0.2 suma uno, porque la probabilidad margi-

    nal P D funciona como una constante que normaliza las probabilidades de ocurrencia condicional.

    c c 1 1P C | D P C D , P C | D P C D , 5P D 0.2 c cP C | D ,P C | D P C D ,P C D 5 0.16,0.04 0.8,0.2

    En este caso la informacin de la que se dispone es la de probabilidades causales sntoma enfermedadP | y lo que calcula la regla de Bayes son pro-babilidades de diagnstico enfermedad sntomaP | .

    P C D O 0.128 0.128P C | D O 0.9552

    P D O 0.128 0.006 0.134

    P C | D O 0.0448 Para este ejemplo en el que los sntomas son dos: dolor y oquedad, hubo que

    calcular 8 probabilidades condicionales; si en vez de dos hubieran sido cinco sntomas, las probabilidades que tendran que ser evaluadas seran 64.

    Supongamos ahora que estos dos sntomas son estadsticamente indepen-dientes; para ello requerimos de dos tablas con cuatro datos cada una:

    Dolor y oquedad son eventos que dependen de que el paciente tenga caries

    o algn otro padecimiento. Sin embargo, una vez que sabemos que el paciente tiene caries, podemos suponer que oquedad y dolor son eventos independien-tes; es decir, si la caries es causa tanto del dolor como de la oquedad, podemos asumir que sentir dolor no afecta la probabilidad de que haya oquedad y vice-versa, lo cual equivale a considerar que oquedad y dolor son eventos condicio-nalmente independientes: P O D | C P O | C P D | C

    TEOREMA DE BAYES

    1

  • P C D O P D O | C P C P D | C P O | C P C

    P C | D OP D O P D O P D O

    P C | D O ,P C | D O P D | C P O | C P C ,P D | C P O | C P C

    0.8 0.8 0.2,0.2 0.5294 0.8 0.128,0.0847 0.6018,0.3982 P C | D O 0.60, P C | D O 0.40, P D O 0.2127 P D O C P D O | C P C P D | C P O | C P C 0.8 0.8 0.2 0.128

    La probabilidad conjunta P O D , aunque ahora es desconocida y no re-quiere ser evaluada, debe funcionar como una constante que normaliza las probabilidades de ocurrencia condicional:

    1P O D

    P C | D O ,P C | D O P D | C P O | C P C ,P D | C P O | C P C

    0.8 0.8 0.2,0.2 0.5294 0.8 0.128,0.0847 0.6018,0.3982 P C | D O 0.60, P C | D O 0.40

    Vemos que estos resultados basados en la hiptesis de independencia condi-cional difi eren mucho de los calculados previamente a partir de probabilidades elementales conjuntas. Y una de dos, o la asignacin de estas ltimas deja mucho que desear, o la consideracin de eventos condicionalmente indepen-dientes simplemente no es vlida.

    La hiptesis de independencia condicional entre eventos facilita la asigna-cin de las 8 probabilidades elementales conjuntas, con las que se describe el comportamiento probabilstico de la caries y sus sntomas: P C D O P D O | C P C P D | C P O | C P C 0.8 0.8 0.2 0.128 En lugar de tener una tabla con 8 nmeros independientes, slo requerimos

    4 nmeros independientes, localizados en dos tablas.

    Las cuatro esquinasLas 28 fi chas de domin son colocadas sobre la mesa, boca abajo, de modo

    que no puedan ser vistos los puntos grabados en ellas; se revuelven muy bien para garantizar que se ha alterado el orden; luego se acomodan en un rectngu-lo de 4x7; fi nalmente se voltean exclusivamente las cuatro fi chas que quedaron en las esquinas del rectngulo. Calcule la probabilidad de que al menos una de las cuatro fi chas volteadas sea una mula.

    PROBABILIDAD CONDICIONAL

    1.5.6PROBLEMAS

    CLSICOS

    184

  • P M M M M P M P M P M P M P M M P M M P M M P M M P M M P M M P M M M P M M M P M M M P M M M P M M M M P M M M M 4P M 6P M M 4P M M M P M M M M

    2 3 41 1 1 14 6 44 4 4 4

    1 0.375 0.0625 0.00390625 0.6836 Aproximadamente 7 de cada 10 veces saldr al menos una mula y puedes

    apostar a que as ocurrir.

    Seguro de vida de parejaDesde muy pequeos los seres humanos nos enteramos que vamos a morir,

    sin saber cundo. Si tomamos un grupo grande de personas nacidas en el mis-mo ao y le damos seguimiento mediante un estudio retrospectivo que com-prende desde su nacimiento hasta cien aos despus, observaremos que con el transcurrir del tiempo, el nmero de muertes se va incrementando cada ao, hasta que el grupo generacional se extingue. Si calculamos el cociente del n-mero de personas fallecidas por ao entre el total de personas del grupo inicial, obtenemos cien frecuencias relativas que miden la posibilidad de ocurrencia de muerte para cada edad, es decir, las probabilidades de fallecimiento segn edad, las cuales de denotan formalmente por qx, y son las probabilidades de que alguien que tiene la edad x muera antes de alcanzar la edad x+1. Salvo los primeros 4 aos de vida, en los que hay todava alta mortalidad, las probabili-dades de fallecimiento son crecientes con respecto a la edad.

    Para efecto de visualizar estos cien valores como nmeros enteros, tradi-cionalmente stos se presentan, no como probabilidades, sino como tasas de mortalidad por edad, defi nidas como el nmero de muertes por edad, por cada 100,000 personas del grupo generacional. El registro tabular de estos valores se conoce como tabla longitudinal de mortalidad para las personas de esa ge-neracin.

    Otra manera de presentar datos de mortalidad consiste en registrar el nme-ro de defunciones acaecidas en cualquier ao, separando las edades; a este tipo de registros se les denomina tablas transversales de mortalidad, en las que cada una de las cien edades corresponde a una generacin diferente.

    Si bien el objetivo primordial de una tabla de mortalidad es medir mortali-dad, de ella se pueden deducir algunas estadsticas que interesan a cientfi cos y humanistas, para muy diversos propsitos, y son tiles en estudios de creci-miento poblacional, composicin poblacional, longevidad, migracin, orfan-dad, viudez, fertilidad, etc.

    Adems de las probabilidades de fallecimiento qx, hay algunas otras esta-dsticas importantes; por el momento, destacaremos cuatro de ellas:

    1. Las probabilidades de supervivencia por edad, que se denota formalmen-te por px y es la probabilidad de que alguien que tiene la edad x sobreviva la edad x+1: px = 1 - qx

    PROBLEMAS CLSICOS

    1

  • 2. La esperanza de vida al nacer es una estimacin del promedio de aos que vivira un grupo de personas de la misma generacin, si los movimientos en la tasa de mortalidad de la regin evaluada, se mantuvieran constantes. Y en forma transversal, la esperanza de vida es el nmero promedio de aos que vive una determinada poblacin en un cierto periodo de tiempo.

    3. La esperanza de vida remanente a cualquier edad: el nmero de personas que sobreviven a la edad x: lx+1 = lx(1-qx) = lxpx; lx+1/lx = px

    En la actualidad se acostumbra presentar las estadsticas de hombres y mu-jeres en forma separada, porque son signifi cativamente diferentes. La espe-ranza de vida de las mujeres es superior a la de los hombres y eso es cierto a cualquier edad y la diferencia no es nada despreciable; los datos de 2009 mues-tran que mientras la esperanza de vida al nacer para los hombres era de 76.6 aos, la de las mujeres era de 82.4 aos, una diferencia de casi seis aos. Ese diferencial de mortalidad entre sexos, observable en todas las edades, implica que el riesgo de fallecimiento es menor para las mujeres que para los hombres, en un cierto periodo de tiempo. La diferencia en favor de la mujer, se tiene que traducir en una menor prima de seguro, porque implica menor riesgo para la compaa aseguradora; es decir, un seguro de vida ms barato para una mujer que para un hombre.

    Las aseguradoras establecen las tarifas para las primas de seguro de una persona, segn su edad y su sexo, con base en una sola tabla de supervivencia. Pero la compaa recibe ocasionalmente la solicitud de cotizacin de seguro para un matrimonio, y el problema consiste en establecer la prima que debe pagar la pareja para obtener la obligacin de que el asegurador pague una renta al marido y luego a su viuda, si l fallece.

    Para establecer un seguro para dos personas, se requiere conocer la proba-bilidad de supervivencia o de extincin de la pareja. Conforme a la defi nicin de probabilidad frecuentista, habra que dar seguimiento a la supervivencia de numerosos grupos de dos personas y deducir estadsticamente un valor aproximado de la probabilidad buscada. Sera necesario establecer las tasas de supervivencia para