Apunte 2012 Probabilidad UNPA

download Apunte 2012 Probabilidad UNPA

of 44

Transcript of Apunte 2012 Probabilidad UNPA

UNPA UARG / 2012Profesorado en MatemticaProbabilidad y Estadstica Material de ctedra

Introduccin e historiaLa Estadstica es una rama de la matemtica que sirve como metodologa de investigacin para diversas ciencias y disciplinas tales como la medicina, la psicologa, la meteorologa, la sociologa, las ingenieras, la geografa, etc. Se basa en la toma de muestras y en el anlisis de sus datos con mtodos y procedimientos standarizados universalmente.La Teora de probabilidades es la fundamentacin o teora matemtica de la Estadstica, se basa en otras ramas de la matemtica como por ejemplo el anlisis matemtico, la teora de la medida, la teora de conjuntos, la geometra, el clculo combinatorio, la teora de cardinales y ordinales, etc., y termin de ser axiomatizada y formalizada matemticamente hacia 1933-1936 por los rusos Nikolai Alexander Kolmogorov (25 / IV / 1903 20 / X / 1987), Aleksander Mijilovich Lyapounov ( 6 / VI /1857 3 / XI /1918), Alexandre Khintchine ( 19 / VII / 1894 18 / XI / 1959) , el francs Paul Pierre Levy (15 / IX / 1886 15 / XII /1971) , el norteamericano Henry Scheff (11 / IV / 1907 5 / VII / 1977) y otros muchos probabilistas.

Algunos momentos destacados de la historia de la teora de probabilidad fueron los siguientes :En 1560 el matemtico italiano Girolamo Cardano (Pava 24/IX/1501 ; Roma 21/IX/ 1576) escribe el primer libro de probabilidades sobre los juegos de azar, el Liber de ludo aleae, publicado recin en 1663. El filsofo, fsico y matemtico francs Blaise Pascal Begon (Clermont Ferrand 19/VI/1623 Pars 19/VIII/1662) publica en 1654 en Pars su Trait du triangle arithmetique en el que desarrolla los coeficientes binomiales con su famosa formacin triangular, y otra obra titulada Combinaisons en la que analiza probabilidades de jugadas de dados que le fueran propuestas por su amigo el escritor y matemtico aficionado Antoine Gombaud, Caballero de Mr (Poitou 1607 29/XII/1684). El problema ms famoso que de Mr quien en realidad no era noble pero se haca llamar chevallier- le plante a Pascal ya era conocido en la Edad Media y fue el siguiente : Supngase que dos jugadores acuerdan jugar un determinado nmero de partidas de dados, digamos, jugar al mejor de siete, y se les interrumpe antes de que puedan terminar la tanda. Cmo debera repartirse el dinero apostado si, por ejemplo, uno ha ganado tres partidas y el otro una? Pascal comparti el desafo de resolverlo con otro pionero de las probabilidades, el abogado, eximio matemtico aficionado (diletante) y juez de Toulouse, Pierre de Fermat Cazeneuve (Beaumont de Lomagne 17/VIII/1601 Castres 12/I/1665), a quienes conectaba otro matemtico aficionado, el Rvdo. Padre jesuita Marin Mersenne (Sarthe 8/IX/1588 Paris 1/IX/1648), quien adems de desarrollar varios resultados en nmeros primos mantena una red de contactos con los mencionados matemticos y con muchos otros como Galileo, Huygens, Roverbal o Descartes, de quien fue compaero de convento.En 1713 aparece publicado en Basilea el primer libro tcnico sobre teora de probabilidades, el Ars Conjectandi (Arte de conjeturar), del matemtico suizo de origen francs Jacques Bernoulli (Basilea 27/XII/1654 Basilea 16/VIII/1705), hermano de Johann Bernoulli (Basilea 27/VII/1667 Basilea 11/I/1748) cuyo hijo el holands Daniel Bernoulli (Groningen 8/II/1700 Basilea 17/III/1782) edit la obra de su to despus de su muerte.Abraham De Moivre En 1812 el fsico matemtico Pierre Simon, conde (en 1806) y marqus (en 1817) de Laplace (Beaumont en Auge, Normanda 28/III/1749 Pars 5/III/1827) publica en Pars la Theorie analytique des probabilits (Teora analtica de las probabilidades), dedicado a Napolen y en 1814 el Essai philosophique sur les probabilits (Ensayo filosfico de las probabilidades), dos obras fundamentales para el avance de esta rama de la matemtica. Laplace fue alumno en la Universidad de Caen de otro gran matemtico francs, Jean Le Rond dAlembert (Pars, 17/XI/1717 Pars 29/X/1783), quien fue uno de sus directores de tesis, y fue profesor del probabilista Simon Denis Poisson (Pithiviers 21/VI/1781 Sceaux, Haute Seine, 25/IV/1840), quien en 1837 introdujo su distribucin de probabilidades de gran uso an hoy en da.

C. 1935 Nikolai Kolmogorov : axiomatiz las probabilidades.

El objetivo mnimo de este curso es introducir al alumno en la forma tan particular y caracterstica del pensamiento probabilstico y en el planteo y uso de los modelos probabilsticos.

Nociones preliminares y definiciones bsicasExperimento aleatorio : es toda experiencia no determinstica. Los experimentos determinsticos son aquellos cuyo resultado se puede predecir mediante una frmula como por ejemplo en la Fsica, en la banca, o en la Qumica. Veamos en qu consiste un experimento aleatorio .Caractersticas de un experimento aleatorio i) No se conoce el resultado de a priori, pero s todos sus posibles resultados .ii) Se puede iterar (repetir) indefinidamente, se supone que idealmente siempre bajo las mismas condiciones.iii) Con el transcurso de muchas repeticiones (n), el resultado de tiende a estabilizarse y no a comportarse errticamente. Resultados elementales: en el punto i) anterior, al conjunto de todos los posibles resultados individuales y puntuales de un , lo llamaremos conjunto de resultados elementales, denotado

Ejemplos:1) No son experimentos aleatorios si no determinsticos la cada libre de un cuerpo (la velocidad final, distancia, etc. se pueden calcular previamente), arrojar una copa de cristal contra una pared, encender una hornalla, los intereses bancarios de un depsito, etc.2) Un experimento aleatorio bsico es lanzar una moneda () y todos sus posibles resultados son

; o de otra forma tambin Observemos que la representacin matemtica de no es necesariamente nica.3) Otro experimento aleatorio muy simple es : Arrojar un dado regular El conjunto de todos los posibles resultados es, en este caso,

Notemos que algunos son conjuntos numricos mientras que otros no son conjuntos formados por elementos de naturaleza matemtica. 4) Un nuevo puede ser el siguiente, : Una mquina fabrica tornillos y se clasifican en buenos (b) y defectuosos (d). Entonces tenemos que

5) Otro ejemplo, : Encender una lmpara y anotar el tiempo que tarda en quemarse. En esta oportunidad

En este ejemplo notamos que es continuo, i.e. # , mientras que en los ejemplos 2, 3 y 4 vemos que # (finito).6) : Se fabrican microchips hasta obtener 20 chips buenos, descartando los defectuosos, y se cuenta el total de chips fabricados.

# (Aleph cero, el cardinal de los Naturales)Entonces, siempre es importante analizar el cardinal # (la cantidad de elementos) del conjunto , esto es, tener en cuenta # para clasificar .Eventos o sucesos :

Dado un experimento aleatorio , y sus elementales (o resultados posibles) , podemos formar la - lgebra (el prefijo significa hasta en cantidad numerable) S de los sucesos o eventos a partir de los elementales

Esta - lgebra se compone de todas las operaciones usuales entre conjuntos que sean subconjuntos posibles de , es decir que S es cerrada con las operaciones conjuntistas habituales de , hasta en cantidades numerables de estas operaciones. Las posibilidades para construir la lgebra de eventos S son solamente las 3 siguientes, de acuerdo al cardinal de :

S = ( ), si # n , si #

y S = B ( ), si #

donde ( ) es partes de , i.e. todos los posibles subconjuntos de , y B() son los borelianos de , una estructura de conjuntos similar a la anterior, que lleva ese nombre en recuerdo del matemtico francs Emile Borel (7/I/1871 3/II/1956), uno de los creadores de la teora de la medida junto con sus compatriotas Henri Lebesgue (28/VI/1875 26/VII/1941), Marie Ennemond Camille Jordan (5/I/1838 22/I/1922) y Rene Louis Baire (21/I/1874 5/VII/1932).

Borelianos : son todas las operaciones conjuntistas de etc, hasta en cantidad numerable que se pueden hacer con los intervalos abiertos de una recta o de un segmento de recta o de una semirrecta o semiplano, etc., como los siguientes intervalos reales :

0 a b c d e f R

Los borelianos B(R) son los eventos cuando el conjunto de todos los posibles resultados del es = R, la recta real. En el Ejemplo 5, tenemos que

y S = B ([0;+00)]

Notemos que los borelianos de R, i.e. B(R), son ms en cantidad que los intervalos abiertos, cerrados o semiabiertos de R.

Ejemplos (de eventos)

1) : Arrojar una moneda regular

S = (

Recordemos que si un conjunto B tiene n elementos, es decir, si # B = n ; entonces, por aplicacin del Teorema del Binomio de Newton se tiene que # (B) = .

En este caso # (Evento nulo o imposible : lo notamos con y significa que el experimento aleatorio abort y no obtuvimos ningn resultado elemental .Evento cierto o seguro : lo notamos con y significa que el experimento aleatorio se concret y obtuvimos algn resultado elemental .2) : Arrojar un dado regular

#

S =

# lo que nos dice que tenemos un total de 64 eventos asociados a y , disponibles;

S = Es inmediato que utilizamos la teora de conjuntos, porque los eventos o sucesos son conjuntos. En este sentido conviene observar que si A, B , E, son eventos asociados a un , i.e. son elementos de S, entonces tambin son eventos:i) A U B ( ocurre A B, inclusiva)ii) A B ( ocurren A y B simultneamente)iii) ( no ocurre A)iv)

Si , (ocurre al menos uno de ellos)v) Si repito dos veces, SxS representa los eventos de repetir dos veces.vi) Si repito n veces , SxSxSx xS representa sus eventos.Eventos mutuamente excluyentes o disjuntos:Dos eventos A y B de S son mutuamente excluyentes (como conjuntos son disjuntos) si la ocurrencia de uno impide automticamente la ocurrencia del otro. Formalmente, A y B mutuamente excluyentes si A B = Espacio Muestral :

Dado un experimento aleatorio , diremos que la terna ( , , S) es un espacio muestral para , y lo notaremos EM ( , , S). Este espacio ambiente fue llamado as por el matemtico alemn Richard Edler Von Mises (Lemberg 19/IV/1883 Boston USA 14/VII/1953) , probabilista que lider la corriente frecuencialista en el s. XX aunque luego prevaleci la corriente formalista terica. El frecuencialismo intent definir el concepto de probabilidad de manera a posteriori, empricamente, es decir replicando n veces y calculando su frecuencia relativa de ocurrencia.

Frecuencias: Dado un EM ( ;; S ) y un evento o suceso A S, las frecuencias posibles asociadas al suceso A son las siguientes : Frecuencia Absoluta : , la cantidad de veces que ocurri A en n repeticiones de .

Frecuencia Relativa : , la proporcin de ocurrencias de A en las n interaciones del experimento aleatorio .

Llamando , se tiene que:i) , y si A no ocurre nunca en las n repeticiones de ; mientras que , cuando A ocurre siempre, i.e. A ocurre en todas las iteraciones de .ii) Si B es otro evento, con A y B mutuamente excluyentes, entonces , donde es la proporcin de veces que ocurre A o B (o ambos) en las n repeticiones de .iii) Cuando n (i.e. se repiti muchas veces ), se observa que tiende a estabilizarse alrededor de un valor numrico k, constante.

Probabilidad (P)Definicin axiomtica de probabilidad:

Sea (,,S) un E.M. Una funcin P : S [O;1] que cumple los siguientes axiomas :i) A es, 0 , llamado axioma de normalizacinii) P y P ( ) = O , i.e. el evento cierto tiene probabilidad total mientras que el evento nulo tiene probabilidad nula, son los casos extremos.iii)

Si son eventos mutuamente excluyentes, es decir que ij es =O, entonces P () = . Este axioma, llamado de aditividad de P, es la clave del funcionamiento de una ley de probabilidad P.Observacin : Del axioma iii) de aditividad finita se deduce la -actividad de P :

si son mutuamente excluyentes, i.e. i es , entonces se cumple que:

P

Espacio probabilstico (EP)

Es un espacio ambiente EP(, , S, P) para algn y un EM (, , S) suyo, donde P es una funcin o ley de probabilidad que cumple los axiomas anteriores.

Teorema 1 : Si tenemos un EP (, , S, P), entonces P () = ODemostracin: Como A, o sea A y son mutuamente excluyentes, por el axioma iii) es P (AU) = P(A) + P () P (A) + P () =P (A) P ()= O. Pero por otro lado P (AU) = P(A), de donde sigue el resultado.

Teorema 2 : Si en un EP(,,S, P) tenemos un evento A, entonces :

P ( ) = 1 P (A)Demostracin :

Como y A = (un conjunto y su complemento son disjuntos)

tenemos que P = P ( A U) y entonces 1 = P (A) + P(), de donde sigue inmediatamente el teorema.

Teorema 3 : Ley de inclusin exclusinEste resultado, como tantos otros, se debe a Laplace.Nos preguntamos ahora como calcular la probabilidad de que ocurra al menos un evento de entre dos eventos conocidos A y B ( i.e. P (A U B ) ) de los que no se sabe si son mutuamente excluyentes (i.e. disjuntos) o no lo son. Ya no se puede aplicar el axioma de aditividad de P y debemos encontrar una frmula adecuada.

Sea un EP (

Ejercicios: 1) Se arroja una moneda regular hasta que aparece una cara (H). Describir un adecuado,sus eventos S y exhibir un par de eventos; definir una ley de probabilidades P y calcular las probabilidades de los eventos exhibidos.2) Se arroja un dado n veces. Idem al anterior.3) Un punto gira libremente sobre la circunferencia o borde de un crculo de radio r hasta que se detiene. Idem al anterior.4) Se arroja una moneda irregular. Mostrar una ley P (probabilidad) que no sea la equiprobable.

Distribucin uniforme

P es una distribucin de probabilidades uniforme sobre un recinto

Probabilidades geomtricasIdea conceptual : son modelos de probabilidades continuas, i.e. cuando c ; en este caso la idea de probabilidad es medir, o sea comparar longitudes , reas, volmenes, tiempos o cualquier otra magnitud continua en . A travs de una modelizacin geomtrica de un problema se puede analizarlo y calcular probabilidades de eventos, que en este caso son los borelianos reales de dimensin n, .Dos ejemplos clsicos de probabilidades geomtricas : 1) La aguja de Buffon: (Georges Louis Leclerc, conde de Buffon a partir de 1725, cientfico naturalista francs, Montbard 7/IX/1707 ; Pars 17/IV/1788) El experimento aleatorio consiste en

: arrojar una aguja de longitud sobre una hoja rayada con lneas paralelas equidistantes a una distancia 2, y anotar si la aguja corta o toca alguna de las paralelas

Analicemos geomtricamente . Sea r la distancia entre el punto medio de la aguja (M) y la paralela mas cercana a la aguja, sea el ngulo entre la aguja y la direccin de las paralelas y sea d la distancia entre esa paralela y el punto medio de la aguja (M). Cualquier posicin en la que caiga la aguja puede ser descripta en trminos de las variables r y .Entonces podemos plantear un EP ( , , S ) adecuado para el anlisis del problema, que consiste en responder la siguiente pregunta : Cul es la probabilidad de que al arrojar la aguja, esta corte a una paralela?

Observemos la curiosa consecuencia de esta experiencia : arrojando una aguja sobre un papel rayado con lneas paralelas, podemos aproximarnos al valor de . Este descubrimiento del conde de Buffon en 1777 llev posteriormente a la idea de estereologa como mtodo de estimacin geomtrica, que tiene muchas aplicaciones modernas, por ejemplo a la biologa y la medicina, como la tomografa computada. Uno de sus pioneros fue el matemtico hispano argentino Luis Alberto Santal (Gerona, Espaa, 9/X/1911 ; Buenos Aires 23/XI/2001).

2 ) La paradoja de Bertrand (1889)Joseph Louis Francois Betrand, matemtico, fsico y economista francs (Pars 11/III/1822 ; Pars 5/IV/1900) A travs de este ejemplo paradjico de probabilidades geomtricas se pone en evidencia que, de acuerdo al espacio muestral EM(,,S) que elijamos para , podemos definir varias probabilidades para un mismo evento, lo que en principio suena contradictorio. Analicemos el experimento aleatorio siguiente : : se traza una cuerda aleatoria (al azar) en un crculo unitario de centro 0 y radio 1.

Recordemos que dados dos puntos sobre la circunferencia , determinan una cuerda. El problema consiste en calcular la probabilidad de que ocurra el evento A, que es el siguiente

A = { la longitud de la cuerda es mayor que el lado del tringulo equiltero inscripto (cuyo lado mide Observemos que el lado del tringulo equiltero inscripto en el crculo unitario vale porque por el teorema del coseno,

Veamos ahora que se puede encontrar ms de una solucin para la pregunta inicial,sin caer en contradicciones.1 solucin : Sea L la longitud de la cuerda aleatoria que arrojamos sobre el crculo unitario.Observar que esa longitud L depende del punto medio o centro (C) de la cuerda . Entonces se puede redefinir as : { elegir un punto aleatorio C dentro del crculo unitario, trazar el radio r que pasa por C y finalmente trazar la cuerda perpendicular a r que pase por C }

Es inmediato que : ocurre A Sea ahora h = radio del crculo inscripto en el tringulo equiltero que a su vez estaba inscripto en el crculo unitario. Entonces se puede observar que h = sen 30 = , lo que justifica la ltima parte de la triple equivalencia anterior.

Luego, si tomamos este espacio muestral : = Crc ( 0 ; 1) , S = tenemos que el evento A que nos interesa -esto es que la cuerda aleatoria sea mayor que el lado del tringulo equiltero inscripto, se puede escribir sintticamente como A = , y entonces, por comparacin de reas, es P(A) =

Notemos que estamos tomando = C (0,1) , S= B

2 solucin : Fijemos ahora uno de los vrtices del tringulo equiltero inscripto y llammoslo P. Fijaremos en P uno de los extremos de la cuerda aleatoria. Elegimos otro punto Q al azar (aleatorio) sobre la circunferencia como el segundo extremo de la cuerda aleatoria . Vemos que el tringulo equiltero divide a la circunferencia unitaria en 3 partes iguales, cada una de longitud 2/3 .

Luego, es inmediato que : ocurre A Calculamos P(A) por comparacin de longitudes (recordar que en la 1 solucin antes eran reas):

P(A)= = =

En este caso hemos tomado y S = B Este segundo valor para la probabilidad de que la cuerda sea mayor que el lado del tringulo contradice el primer valor obtenido. Qu sucedi? La aparente paradoja tiene una rpida aclaracin : P(A) da distintos resultados de acuerdo al EM y al EP que adoptemos o elegimos para un mismo y un mismo evento A. Otro ejemplo de probabilidades geomtricas :

: elegir o sortear dos puntos aleatorios (al azar), x e y en el intervalo real (0;1)

0 1 R Tomamos S= B (0;1) y un evento particular A = { los tres segmentos que determinan x e y en el segmento (0;1), forman un tringulo }. Podemos reescribir A as :

A={ (x;y) : (0 V ( 0 } A1 A2

Consideremos tener 2 segmentos ( 0 ; 1 ) y sorteamos un punto en cada segmento (as estamos tomando otro espacio muestral , ahora en el plano):

A= , son disjuntos P(A) = P donde

P( y P , entonces

P(A) = (25%)

Espacios muestrales finitos: (nos ayudamos con la combinatoria)Recordemos que es muy importante observar siempre el cardinal del espacio muestral, que en definitiva es # y que solo puede ser uno de estos tres casos :

# finito (i.e. # = n ) (aqu se aplica la combinatoria)

Espacios muestrales: # numerable (# = , infinito numerable)

# continuo (# = c)Frmula de Laplace (1812)En un EP( ; ; S; P) , cuando es finito y P es la equiprobable, entonces vale la frmula de Laplace para calcular probabilidades de eventos. Esta frmula nos dice que si A es un evento , A S , se puede calcular su probabilidad as :

P (A) = En general, # = n, luego solo necesitamos contar los casos favorables para A, i.e. # A , y los casos posibles (n) y es all donde aparecen las tcnicas de combinatoria para el conteo de estos dos valores con los que la frmula de Laplace tambin se puede escribir de la siguiente manera :

Ejemplos: 1) Colocar r bolas en n celdas (problema de los bosones). Esto equivale a elegir una celda para cada bola. En este caso:

= { es el nmero de la celda de la i-sima bola con 1}2) : arrojar r veces una moneda.

# ; S = () ; # S = Sea A S el siguiente suceso : A = { no aparece ninguna cara (H) en los r intentos)Sea P equiprobable; i.e. vale la frmula de Laplace, entonces:

; P()= por lo que P(A) = 0

Observaciones : a) Dados objetos se quieren extraer (uno por uno) hasta obtener una muestra aleatoria de tamao r. Este procedimiento puede hacerse con sustitucin, i.e. devolviendo cada objeto extrado a la poblacin, con lo que este objeto puede volver a ser elegido; o puede hacerse sin sustitucin, i.e. dejando cada objeto extrado fuera de la poblacin con lo que un objeto no puede ser elegido dos veces. b) Una muestra aleatoria es una seleccin de objetos al azar obtenida de una poblacin, de manera que todas las muestras posibles de un mismo tamao tengan la misma probabilidad de ser tomadas.c) La combinatoria nos asegura que habr un total de muestras con sustitucin y puede ser r , es decir que puede suponerse que la poblacin es infinita aunque de hecho no lo sea.

Habr un total de = n muestras sin sustitucin y ordenadas, con r .

Habr en total muestras sin sustitucin y no ordenadas , con r .Ejemplo clsico (Problema de los cumpleaos) Cuntas personas deberamos reunir como mnimo en una habitacin para suponer con certeza que hay dos de ellas que cumplen aos el mismo mes y dia, sin importar el ao de nacimiento ? : {Anotar la fecha (solo el mes y el da del ao) de cada persona i-sima; i = 1;;r }

Es el cumpleaos (mes y da o nmero de orden del dia del ao) de la persona i-sima ; i = 1;; r . Entonces, la combinatoria nos dice que # = 36. Supongamos P equiprobable, o sea que no hay ninguna preferencia en los das del ao con respecto al nacimiento de las personas. El evento que nos interesa analizar es : A = {Hay dos personas (al menos) que cumplen aos el mismo mes y dia del ao}

Usaremos la propiedad del evento complementario : P(A) = 1 - P() ; donde es el evento en el que no ocurre A :

Observamos que es ms sencillo calcular la probabilidad de que no ocurra A, utilizando la frmula de Laplace : CF 365 364 363 362 . . . . .365-(r-2)365-(r-1)

Persona 1 2 3 4 . . . . . r - 1 R

CP 365 365 365 365 . . . . . 365 365

Multiplicando los CF por un lado y los CP por otro en base a la independencia intuitiva de los das en los que nacen las personas, podemos aplicar la frmula de Laplace : Luego, P(A) = 1 - ) = 1 - Por ejemplo, en una habitacin con 5 personas ( r = 5 ) la probabilidad de que al menos dos de esas personas cumplan aos el mismo da del ao es P(A) = 1 - = 1 - 0,9717 = 0,028 < 3 %A partir de qu cantidad de personas tendremos una probabilidad mayor del 50% de encontrar al menos dos personas que cumplan aos el mismo da y mes del ao?

Otro ejemplo clsico (Problema de la secretara sin memoria)Una secretaria tiene que enviar n mails a n personas distintas, pero perdi las direcciones electrnicas y entonces al olvidarse de la direccin de cada uno, las pone al azar. Cul es la probabilidad de que ningn e-mail llegue a destino?Direccin D1 D2 D3 . . . . . Dn

Sobre 1 2 3 . . . . . n

Para resolver este problema recordemos el concepto de Permutaciones : es otro mtodo de conteo combinatorio. Un experimento aleatorio puede ser :

# = n! ; S = ( ) ; # S = ; P equiprobable, i.e., Definamos , para cada i = 1,2, . , n , el evento

Es decir que el evento Ai se interpreta como que el i-simo e-mail llega a su destino.Analizaremos este problema combinatoriamente aplicando en particular el concepto de permutaciones simples de n objetos diferentes, los que en este caso son los n e-mails que debe enviar la secretaria a sus n destinatarios distintos.Observemos que en esta clase de situaciones podemos considerar indistintamente como objetos y como lugares a los e-mails o a sus destinatarios, segn nos conviene para que el anlisis sea ms claro y simple.Vemos que entonces, por la Frmula de Laplace : , y para que dos mails lleguen a sus destinos correctamente se tiene que, si , aplicando Laplace : = , y generalizando estos eventos, la probabilidad de que e-mails lleguen al destinatario deseado es, por recurrencia de la expresin anterior : , sin perder de vista que en general es .Entonces, resumiendo,

Probabilidad condicional

Dado un E.P (,,S,P) , supongamos que ocurre un evento cualquiera A S con P ( A ) > 0. Ya sabemos que P ( ) = 1 .

A B

Sea B otro evento cualquiera, B S. Nos hacen saber que ya ocurri A.Una vez que sabemos que ya ocurri A , queremos conocer la probabilidad de que ocurra B, pero ahora teniendo en cuenta la nueva informacin de que ya ha ocurrido A, i.e. el espacio muestral se reproduce al evento A (pues no puede ocurrir ), y entonces, a partir de ahora debemos considerar A = .

Luego, ocurrir B solamente si ocurre AB en A = .

BA= `

Entonces, la probabilidad de que ocurra B, dado que ya sabemos que ocurri A, es la siguiente:

P(B/A) =donde A se denomina evento condicionante y B evento condicionado. La expresin anterior es la definicin formal de probabilidad condicional y la utilizaremos de aqu en ms.Independencia de Eventos Una consecuencia inmediata de la definicin de probabilidad condicional es que si tenemos dos eventos A y B que no influyen o inciden cada uno en la ocurrencia del otro, esto es tales que P (A / B ) = P(A) y P ( B / A ) = P(B)Pero entonces, si reemplazamos por ejemplo la segunda de estas igualdades en la definicin de probabilidad condicional, concluimos que si dos eventos A y B son independientes, entonces

que es la condicin de independencia de eventos y juega un papel importante en la Teora de Probabilidades.Otra consecuencia de la definicin de probabilidad condicional que hemos dado y que en apariencia es trivial pero que aportar interesantes efectos, es que, indistintamente, Con estas dos consecuencias encontraremos una frmula y un teorema bsicos en la probabilidad condicional :

Frmula de la Probabilidad TotalSea un E.P( ,,S,P)

A A

Tomemos en ese E.P. una coleccin de eventos que formen una particin de , i.e.

Sea B otro evento cualquiera , B S

BA A

Luego, tenemos que

Teorema 6 ( de Bayes )(Rvdo. Thomas Bayes Carpenter, Londres 1701 Tunbridge Wells, Kent, 17/IV/ 1761)Este famoso teorema fue publicado post mortem en 1764, en un artculo titulado Essay towards solving a problem in the doctrine of chances de la revista cientfica Philosophical Transactions of the Royal Society of London, a la que fue enviado por un amigo de Bayes llamado Richard Price.Tambin se lo conoce como teorema de las causas, y su enunciado es el siguiente :

N N N B B B

N B BB N N UVWSea : se arroja un dado y si sale 1,2 o 3 se extrae una bola de la caja U, si sale un 4 de la caja V y si sale 5 o 6 de la caja W ; y se anota el color de la bola extrada. Sea el evento A S, A = { la bola extrada es blanca (B) }P(A)?

A = A

P(A)=P(A

Calculamos, aplicando el T de Bayes, las probabilidades de las causas.En esta situacin, podemos considerar a las urnas como las causas.Una vez calculada la probabilidad total, i.e. el denominador del T de Bayes, podemos evaluar las probabilidades condicionales de cada causa.Una posible utilidad de este teorema es comparar las probabilidades de cada causa, para establecer una pauta de adjudicacin de responsabilidad a la causa cuya probabilidad sea mayor. Ahora calcularemos la probabilidad de que si la bola extraida es blanca, haya provenido de la urna V. Queda como ejercicio el clculo de las probabilidades anlogas de las otras urnas y de su comparacin- establecer cul es la urna ms probable de la que provenga una bola blanca.

Variable aleatoriaIntroduciremos ahora unas funciones de suma importancia en la Teora de Probabilidades que se aplican a los eventos y toman valores en R, a las que les asignaremos las probabilidades correspondientes. Este concepto de variable aleatoria, al que abreviaremos r.v. (random variable) nos evitar el problema de los que no estaban compuestos por objetos matemticos.Esto lo haremos tambin para cuantificar los posibles resultados y eventos, y as unificar los espacios muestrales numricamente, quedndonos solo con un nico que ser R.

Definicin : Sea un EP (,,S,P). Una funcin real

Otra definicin ms operativa de variable aleatoria r.v. es esta : basta con exigir que las imgenes inversas de las semirrectas de R a travs de la funcin X sean eventos de S, ya que los borelianos de R ((R)), pueden generarse a partir de las semirrectas mediante operaciones a lo sumo numerables de

Luego, Da lo mismo tomar otras semirrectas, tales como (- ; x ) ; [ x , + ) ; ( x ; + ) para definir una r.v. X. Resumiendo lo expuesto, podemos decir que

si

Teorema 8 : ( Las operaciones racionales entre r.v., son r.v. )Este teorema nos garantiza que la clase de funciones reales que constituyen las r.v. es muy amplia e incluye a la mayora de las funciones matemticas ya estudiadas en el Anlisis Matemtico o en los cursos de Algebra, lo que en cierto modo nos da la seguridad de no caer fuera de este importante conjunto de funciones.

X () HH 2HT 1TH 1TT 0

Distribucin de probabilidades de una r.v. XSi X es una r.v. sobre un EP (,,S,P), induce otro EP (,,(R),Q) por medio de la siguiente relacin entre eventos y la preimgen de X :

Llamaremos a esta nueva probabilidad Q = , la distribucn de probabilidades de la r.v. X en su nuevo EM que ahora es R .Funcin de Distribucin Acumulada (o simplemente Distribucin) de una r.v. XSea X una r.v. sobre un EP (,,S,P). La funcin de distribucin acumulada o simplemente Distribucin de la r.v. X es una funcin real F : R R , tal que cumple los siguientes axiomas:i) F es no decreciente ii) F es semicontinua a derechaiii) F (= 0iv) F (+Tambin se la denomina Funcin de Distribucin Acumulada. Nosotros la llamaremos distribucin.

Cmo se define una distribucin F ?

Observacin Existe una correspondencia biunvoca entre las r.v. y las distribucionesX F

En el ejemplo 2 anterior se tiene: Probabilidades de X (suponemos que en (,,S,P), P es equiprobable

P()

HH

HT

TH

TT

X()F(x)

0

1

2

Ejemplo 3 : se arrojan dos dados distinguibles, por ejemplo uno azul y otro rojo

zQ(z)

21/36

32/36

43/36

54/36

65/36

76/36

85/36

94/36

103/36

112/36

121/36

Veamos la distribucin de Z (acumulada) Cunto vale F(x) ?

Por ejemplo:Q ( 6 ) = F(6) F(5) = 15/36 -10 /36 = 5/36e.g : En qu punto (valor de Z) se alcanza la mitad (0,5) de la distribucin total ?

Observamos quien es F(0,5) y vemos que en Z = 7 se sobrepasa por primera vez ese valor . Este valor recibe el nombre de cuantil central o Mediana, y es una medida importante de la tendencia central o de la posicin de la r.v. Z

Y cul es el primer cuantil? F(1/4) = 5Recordemos siempre que una distribucin F de una r.v. X, es SCD (semicontinua a derecha) , i.e.

Observacin : la buena definicin de una distribucin F depende del orden usual que consideramos habitualmente en R, ya que si queremos obtener un cuantil cualquiera F(y) , con y [0,1] es el orden real lo que nos provee de un nico resultado.

Al no existir un orden como el real , i.e un orden total, en R con n 2, se dificulta mucho definir una distribucin all. Este problema se estudia en una especialidad de la teora de Probabilidades denominada cpulas ptimas.Variables aleatorias discretas

Una r.v. X sobre un E.P (,,S,P) es discreta si , i.e E un conjunto numerable a cuyos elementos llamaremos tomos o valores admisibles por la r.v. X, tal que P { X E } = 1, i.e. si X toma una cantidad a lo sumo numerable de valores , con en el caso finito, y con en el caso infinito numerable, (notemos que cada es un boreliano porque

Al conjunto de todas las probabilidades se lo llama masas probabilsticas o pesos de los tomos , cargas, o simplemente distribucin de probabilidades de la r.v. X. Cmo funciona la distribucin (acumulada) en una r.v. discreta?Si F es la distribucin de la r.v. discreta X

Variable aleatoria continua (segundo tipo de r.v.)

Una r.v. X sobre un SI f es la distribucin de la r.v. continua X , se tiene que

(Para ello, F debe ser absolutamente continua)Se pueden calcular probabilidades con la distribucin F:

Observacin: puede darse que la densidad f no sea una funcin continua , en cuyo caso la distribucin tampoco lo es, aunque si es SCDCmo obtener (recuperar) la densidad f de una r.v. continua conociendo la distribucin F?

Si F es la distribucin de la r.v. continua X que tiene densidad f, y si F es absolutamente continua y f es continua en un punto x R , entonces:

Ejemplo 4 (una r.v. continua)X r.v. con densidad

F(x) =

Variable aleatoria binomial

(,,S,P) ={A, A

: Repetir n (fijo) veces un experimento aleatorio , bajo las mismas condiciones y observar la ocurrencia o no de un suceso fijo A S , cuya probabilidad p= P(A) es constante.Las repeticiones de deben ser totalmente independientes. Definimos la variable aleatoria binomial X del siguiente modo:X: la cantidad de veces que ocurre A en las repeticiones de .Valores asumibles por X: 0,1,2,3,5,,n (n+1 valores)X r.v. discreta finita

Las probabilidades con las que la r.v. X toma cada valor posible k {0,1,2,.,n} son las siguientes (el modelo binomial)

Ejemplo1:Un bateador de bisbol tiene un promedio de bateo de 0,352 . En un partido se lanzan 10 bolas. Cul es la probabilidad de que batee 6 bolas? n= 10 k=0,1,2,3, . ,10A= {el bateador impacta la bola}

Notacin: (X sigue una distribucin binomial en parmetros de n y p)Si p= la forma tiende a ser simtrica y el mximo se ubica en los valores medios de k

En efecto si p=P(A) = 1- p = y P(X=k)= (=P marca la distancia de los escalonesSupongamos que el promedio de bateo es 0,5. Cul es la probabilidades mxima y a qu cantidad de impactos corresponde? (Tringulo de Pascal)

Variable aleatoria uniforme

Una r.v. X continua sobre un E.P (,,S,P) es uniforme en un intervalo (a;b) si su densidad es

Variable aleatoria de Poisson(Denise Simeon Poisson (1781-1840)

Si tenemos un intercalo en R , o una regin (recinto) en Ra un volumen en R,etc, y en l tenemos colocados (arrojados) al azar un gran nmero de objetos que nos interesan: rboles en el mapa de un bosque o plantas en una plantancin (R) Llamadas telefnicas en un intervalo de tiempo (R) Bacterias en un recipiente de lquido (cartn de leche) (R) Gotas de lluvia que caen en un patio (piso) (R)Sea > el nmero de puntos distinguidos (en promedio) en una unidad de longitud, rea, volumen , etc. del recinto en cuestin.Entonces definimos la r.v. (discreta) de Poisson , X como la cantidad de puntos o elementos notables ( distinguidos) que puedo encontrar al tomar la unidad (de longitud , superficie, volumen, etc) al azar. Los valores discretos que puede tomar X son k = 0,1,2,3, .,, (discreto numerable)las probabilidades con las que una r.v. de Poisson X, toma sus valores admisibles son:

Observemos que :

Notacin: si X r.v. sigue una distribucin poisscriana, notaremos X Recordemos que si X tiene dos parmetros. En cambio, si X tiene un solo parmetro.Un parmetro de una distribucin o r.v. , es un nmero fijo que caracteriza a esa r.v. Ejemplo : supongamos tener una poblacin de tomates tal que el promedio de plantas por metro cuadrado es 4,5. Si se toma un metro de cuadrado al azar y se cuentan las plantas. Cul es la probabilidad de encontrar 8 plantas? Y de no encontrar ninguna planta?

Funcin de una variable aleatoriaSea X r.v. y f: R R una funcin real Cundo f(x) = f. X = y es otra r.v. ?. y Cul ser su distribucin?

Definicin: funcin medible Borel. Sea Q : R R una funcin real. Diremos que es medible Borel o B- medible si se cumple que (es boreliano) , i.e. es B- medible si las imgenes inversas de borelianos son bordianosTeorema 9:

Sea X r.v. es un E.P (,,S,P) con distribucin F, y : R R es B- medible, entonces :

y= o X =(X) es una r.v. y su distribucin G(y) es conocidoDemostracin:

Adems , si G es la distribucin de Y:

Ejemplo 1: Sea X r.v. una distribucin F

Entonces f(x) =(X) es otra r.v. Porque y= f(x)= |x| es B- mediable. Su distribucin G(y) es por definicin Puedo calcular la distribucin acumulada de la nueva r.v. (y) usando la distribucin acumulada de la vieja r.v. X (f)El evento (1) en y equivale al evento (2) en X, i.e la imagen inversa por f de una semirrecta (1) es un segmento (boreliano) (2) en X, luego f es B- medible y as y es r.v. Ejemplo 2:

Es y r.v.? ; Cul ser du distribucin si es r.v.?

La transformacin de los valores que asume X r.v. es: k {0,1,2,3,4,5 .} {3,4,7,12,19,28,}XYNuevamente y siempre voy a poder escribir la distribucin acumulada de la vieja r.v. (X).Teorema 10: Densidad de una funcin de una r.v.

Sea X una r.v continua con densidad conocida f, y sea y=g (x) con g: R R , diferenciable y montona creciente (i.e. con g (x) > 0, ) o decreciente (i.e. con g (x) < 0, ). Entonces y= g(x) es r.v. continua y su densidad es

Observacin 2: en el caso y= g(x) no sea una funcin montona (ya sea creciente o decreciente) , siempre queda el recurso de calcular la distribucin H(y) por definicin y luego derivarla, para encontrar la densidad h(y) .Teorema 11:

Sea X r.v. continua , con densidad conocida f(x). Sea y = g(x) una funcin de r.v. tal que y g(x) es continua y se anula en una cantidad finita de puntos. Entonces , se tiene uno de los siguientes resultados:

Variable Aleatoria geomtrica

Sea E.P (,,S,P) . Repetimos hasta observar la ocurrencia de un evento A S , de manera que las repeticiones son ensayos de Bernoulli.

Ensayos de Bernoulli : Iteramos un , observando solamente si ocurre un evento fijo A, o no ocurre () ,siendo las repeticiones independientes entre s, y siendo la probabilidad de que ocurra A, P(A) = p constante, (en cada iteracin vale siempre la misma) , con p > 0En otras palabras, un ensayo de Bernoulii es una r.v. X Definimos una r.v. geomtrica X como el nmero de repeticiones (ensayos de Bernoulli) necesarios hasta la primera ocurrencia de A:

En general X= k cuando :

Observar que, a diferencia del modelo Binomial (cantidad de repeticiones fija (n) y cantidad de xitos (A) variable) , el modelo geomtrico tiene la cantidad de xitos (A) fija (1) y la cantidad de repeticiones (k) variableNotacin: X geomtrica (p) La r.v. geomtrica tiene un solo parmetro p : discreta numerable.Por qu se llama geomtrica? Veririfquemos que 1) es efectivamente una distribucin de probabilidades:

Variables Aleatorias N- Dimensionales ) vectores aleatorios

Vector aleatorio (de dimensin n ) : es cualquier funcin real multivariada X= Se debe cumplir que :

Nos dedicaremos , sin perder por eso generalidad, al caso bidimensional (n=2)

(semirrecta generalizada para n=2 ) (-

Distribucin (acumulada ) de un vector aleatorio: caso bidimensional

Sea X = (Xun vector aleatorio en R . Definimos su distribucin (acumulada) F (x ; y)

1) F (x;y) es no decreciente y semicontinua a derecho (SCO) tanto en x como en y 2) F (+

Cmo se calculan probabilidades en Rcon la distancia F?

Sea A un recinto (evento) en R

Variables aleatorias bidimensionales discretas

Un vector aleatorio ( x; y ) bidimensional es discreto si

y llamaremos a los valores (cargas o pesos) , la distribucin conjunta de probabilidades de la r.v. bidimensionales (x;y)

Debe cumplirse que Si f es la distribucin de (x,y) , entonces

Observacin:

Variables aleatorias bidimensionales continuas

Un vector aleatorio (x,y) bidimensional es continuo si llamda densidad conjunta tal que, Donde f es la distribucin (acumulada) de la r.v. (x , y) . Se debe cumplir que :

Adems , anlogamente al caso de una variable aleatoria unidimensional, se puede recuperar la densidad a partir de la distribucin derivando parcialmente: siempre que f sea continua y derivable.