probabilidad y estadistica

196

Click here to load reader

description

Este es un documento en la cual podrás ver como es el concepto de cada temas de estadísticas y probabilidad que dentro hay, al igual que podrás ver formulas y ejemplos de dichos temas en los cuales cada uno es diferente y varia, por lo tanto podras identificar el uso que se puede dar a la estadística en diferentes amitos, al igual que la probabilidad en varios puntos de la vida y su aplicacion

Transcript of probabilidad y estadistica

Probabilidad y estadstica

Probabilidad y Estadstica

CASTILLO FLORENCIO ALEJANDRA SARAHI6M.

Estadistica descriptiva.

PROPIEDADES DE LA VARIANZA1Lavarianzaser siempre unvalor positivo o cero, en el caso de que las puntuaciones sean iguales.2Si a todos losvaloresde la variable se lessumaunnmerolavarianza no vara.3Si todos losvaloresde la variable semultiplicanpor unnmerolavarianzaquedamultiplicadapor elcuadradode dichonmero.4Si tenemos varias distribuciones con la mismamediay conocemos sus respectivasvarianzasse puede calcular lavarianza total.Si todas las muestras tienen el mismo tamao:Si las muestras tienen distinto tamao:

VARIANZA- DATOS AGRUPADOSPara simplificar elclculo de la varianzavamos o utilizar las siguientes expresiones que son equivalentes a las anteriores.

EJEMPLO.1Calcular la varianzade la distribucin:9, 3, 8, 8, 9, 8, 9, 18

MEDIDAS DE FORMASESGOAPUNTAMIENTOSMOMENTOSSESGOEnestadsticase llamasesgode unestimadora la diferencia entre suesperanza matemticay elvalor numricodel parmetro que estima. Un estimador cuyo sesgo es nulo se llamainsesgadoocentrado.

El no tener sesgo es una propiedad deseable de los estimadores. Una propiedad relacionada con sta es la de laconsistencia: un estimador puede tener un sesgo pero el tamao de ste converge a cero conforme crece el tamao muestral.Dada la importancia de la falta de sesgo, en ocasiones, en lugar de estimadoresnaturalesse utilizan otros corregidos para eliminar el sesgo. As ocurre, por ejemplo, con lavarianza muestral.

Otra propiedad razonable que podemos pedir al estimador de un parmetro es que, en promedio, sus valores coincidan con . Cuando sucede esto decimos que el estimador es centradooinsesgado.

Un smil coloquial que suele aplicarse a la estimacin puntual es considerarla como un ejercicio de tiro a una diana. En este sentido, el centro de la diana sera el parmetro a estimar ().De manera los disparos de un tirador insesgado estaran centrados alrededor del centro de la diana. Mientras que los disparos de un tirador sesgado estaran sistemticamente desviados de la diana (como sucedera si el can de nuestra arma no estuviese recto).

Tirador insesgado Tirador sesgado

Podemos fijarnos que en la diana del tirador insesgado, el centro de masas de los disparos coincide con el centro de la diana (que representa el verdadero valor del parmetro). Como ya vimos anteriormente, el concepto de centro de masas est relacionado con la esperanza de una variable aleatoria y, precisamente as, obtenemos la definicin formal de estimador insesgado: un estimadorTde un parmetro diremos que es centrado o insesgado si su esperanza es precisamente

Si, al contrario, tenemos un estimador U sesgado, la desviacin respecto al verdadero valor a estimar se mide por el sesgo:

De manera que el sesgo de un estimador puede ser:Positivo: Si producen, en promedio,estimaciones por exceso.Cero: Si es un estimador centrado o insesgado.Negativo: Si producen, en promedio,estimaciones por defecto.

APUNTAMIENTOSEnteora de la probabilidadyestadstica, lacurtosises una medida de la forma. As, las medidas de curtosis tratan de estudiar la proporcin de la varianza que se explica por la combinacin de datos extremos respecto a la media en contraposicin con datos poco alejados de la misma. Una mayor curtosis implica una mayor concentracin de datos muy cerca de la media de la distribucin coexistiendo al mismo tiempo con una relativamente elevada frecuencia de datos muy alejados de la misma. Esto explica una forma de la distribucin de frecuencias con colas muy elevadas y con un centro muy apuntado.La otra medida de forma que vamos a considerar es el apuntamiento, al igual que con la simetra hemos de tomar una referencia para ver si la distribucin de los datos es apuntada o no.Esa referencia ser la distribucin normal, distinguiremos tres casos que la distribucin sea ms picuda que la normal, igual a ella o ms aplastada. Para poder comparar las distribuciones con la normal podemos tomar el estadstico.

El apuntamiento o curtosis como tambin se le llama es una medida de la forma o apuntamiento de las distribuciones de datos. Las medidas de apuntamiento estudian la mayor o menor concentracin de las frecuencias de los datos alrededor de la media y en la parte central de la distribucin.

La curtosis es una medida de altura de la curva y por tanto est representada por el cuarto momento de la media. En la misma forma que para la asimetra, su clculo se efecta en funcin de l desviacin tpica y de los momentos unidimensionales de orden cuatro con respecto a la media aritmtica.Si la curva es ms plana que la normal, la distribucin se llama achatada o platicrtica; si es ms aguda, lleva el nombre De apuntada o leptocrtica. Si la curva es normal se le denominada mesocrtica.

MOMENTOSEn estadstica, unparmetroes un nmero que resume la ingente cantidad de datos que pueden derivarse del estudio de unavariable estadstica.El clculo de este nmero estbien definido, usualmente mediante una frmulaaritmticaobtenida a partir dedatosde la poblacin.Los parmetros estadsticos son una consecuencia inevitable del propsito esencial de la estadstica:crear un modelode la realidad.El estudio de una gran cantidad de datos individuales de una poblacin puede ser farragoso e inoperativo, por lo que se hace necesario realizar un resumen que permita tener una idea global de la poblacin, compararla con otras, comprobar suajuste a un modelo ideal, realizarestimaciones sobre datos desconocidos de la misma y, en definitiva,tomar decisiones. A estas tareas contribuyen de modo esencial los parmetros estadsticos.Por ejemplo, suele ofrecerse como resumen de lajuventudde una poblacin la media aritmtica de las edades de sus miembros, esto es, la suma de todas ellas, dividida por el total de individuos que componen tal poblacin.

Son formulaciones matemticas, que se definen como parmetros estadsticos, algunos de ellos cuales tienen amplia connotacin dentro del estudio de curvas de distribucin de frecuencias y ms especficamente respecto del sesgo y de la curtosis.

Los momentos son una forma de generalizar toda la teora relativa a los parmetros estadsticos y guardan relacin con una buena parte de ellos. Dada una distribucin de datos estadsticosx1,x2, ...,xn, se define elmomento centralomomento centradode ordenkcomo

Para variables continuas la definicin cambia sumas discretas por integrales (suma continua), aunque la definicin es, esencialmente, la misma.De esta definicin y las propiedades de los parmetros implicados que se han visto ms arriba, se deduce inmediatamente que:y queSe llama momento no centrado de ordenka la siguiente expresin:De la definicin se deduce que:Usando elbinomio de Newton, puede obtenerse la siguiente relacin entre los momentos centrados y no centrados:Los momentos de una distribucin estadstica la caracterizan unvocamente.

FORMULAS DE LA ANTERIOR DIAPOSITIVA

MomentosEn estadstica, un momento es un nmero que resume la ingente cantidad de datos que pueden derivarse del estudio de una variable estadstica. El clculo de este nmero est bien definido, usualmente mediante una frmula aritmtica obtenida a partir de datos de la poblacin.

MEDIDAS DE CORRELACIONCOEFICIENTE DE CORRELACIONRECTA DE REGRESIONERROR ESTANDAR DE ESTIMACIONCOEFICIENTE DE CORRELACIONElcoeficiente de correlacin lineales el cociente entre la covarianzay el producto de lasdesviaciones tpicasde ambas variables.Elcoeficiente de correlacin linealse expresa mediante la letrar.

123PROPIEDADESElcoeficiente de correlacinno vara al hacerlo la escala de medicin.Es decir, si expresamos la altura en metros o en centmetros el coeficiente de correlacin no vara.

El signo delcoeficiente de correlacines el mismo que el de lacovarianza.Si la covarianza es positiva, la correlacin es directa.Si la covarianza es negativa, la correlacin es inversa.Si la covarianza es nula, no existe correlacin.

Elcoeficiente de correlacin lineales un nmero real comprendido entre 1 y 1.

Si elcoeficiente de correlacin linealtoma valores cercanos a 1 la correlacin esfuerte e inversa, y ser tanto ms fuerte cuanto ms se aproxime r a 1.5.Si elcoeficiente de correlacin linealtoma valores cercanos a 1 la correlacin esfuerte y directa, y ser tanto ms fuerte cuanto ms se aproxime r a 1.6.Si elcoeficiente de correlacin linealtoma valores cercanos a 0, la correlacin esdbil.7.Si r = 1 1, los puntos de la nube estn sobre la recta creciente o decreciente. Entre ambas variables haydependencia funcional.

FORMULA

Coeficiente de correlacin de Karl PearsonDado dosvariables, la correlacin permite hacer estimaciones delvalorde una de ellas conociendo el valor de la otra variable.Los coeficientes de correlacin son medidas que indican la situacin relativa de los mismos sucesos respecto a las dos variables, es decir, son la expresin numrica que nos indica el grado de relacin existente entre las 2 variables y en qu medida se relacionan. Son nmeros que varan entre loslmites+1 y -1. Su magnitud indica el grado de asociacin entre las variables; el valor r = 0 indica que no existe relacin entre las variables;los valores ( 1 sonindicadoresde una correlacin perfecta positiva (al crecer o decrecer X, crece o decrece Y) o negativa (Al crecer o decrecer X, decrece o crece Y).

RECTA DE REGRESIONLarecta de regresines la que mejor se ajusta a lanube de puntos.Larecta de regresinpasa por el puntollamadocentro de gravedad.

Llamamoslnea de regresina la curva que mejor se ajusta a nube de puntos, es una curva ideal en torno a la que se distribuyen los puntos de la nube.Se utiliza para predecir la variable dependiente (Y) a partir de la independiente (X).La diferencia entre el valor real (yi) y el terico (yi*) se llamaresiduo.

En nuestro caso esta lnea es una recta que se calcula imponiendo dos condiciones:Debe pasar por el punto (x,y), centro de gravedad de la distribucin.La suma de los cuadrados de los residuosdebe ser mnima.Con esto obtenemos la ecuacin de laRECTA de REGRESIN de Y sobre X:La pendiente de esta recta es el llamadoCOEFICIENTE de REGRESIN

RECTA DE REGRESIN DE Y SOBRE X

La recta de regresin de Y sobre X se utiliza para estimar los valores de la Y a partir de los de la X.Lapendientede la recta es el cociente entre la covarianza y la varianza de la variable X.

RECTA DE REGRESIN DE X SOBRE Y

Larecta de regresinde X sobre Y se utiliza para estimar los valores de la X a partir de los de la Y.Lapendientede la recta es el cociente entre la covarianza y la varianza de la variable Y.

La forma de obtener estas rectas es por el procedimiento conocido como el mtodo de los mnimos cuadrados. Buscamos una recta de ecuacin y=mx+n que sea la mejor aproximacin. Cada punto xide la primera variable tendr, por una parte, el valor correspondiente a la segunda variable yi,y por otra, su imagen por la recta de regresin y=mxi+n. Entre estos dos valores existir una diferencia di=mxi+n-yi. Vamos a calcular la recta con la condicin de que la suma de los cuadrados de todas estas diferencias (mxi+n-yi)2sea mnima. Derivando respecto de m y de n y realizando los clculos matemticos necesarios, llegamos a la recta de regresin de Y sobre X, que tiene por ecuacin en la forma punto-pendiente:

ERROR ESTANDAR DE ESTIMACIONElerror estndares ladesviacin estndarde ladistribucin muestralde un estadstico.El trmino se refiere tambin a una estimacin de la desviacin estndar, derivada de una muestra particular usada para computar la estimacin.Lamedia muestrales el estimador usual de una media poblacional. Sin embargo, diferentes muestras escogidas de la misma poblacin tienden en general a dar distintos valores de medias mustrales. Elerror estndar de la media(es decir, el error debido a la estimacin de la media poblacional a partir de las medias mustrales) es la desviacin estndar de todas las posibles muestras (de un tamao dado) escogidos de esa poblacin.Adems, el error estndar de la media puede referirse a una estimacin de la desviacin estndar, calculada desde una muestra de datos que est siendo analizada al mismo tiempo.En aplicaciones prcticas, el verdadero valor de la desviacin estndar (o del error) es generalmente desconocido. Como resultado, el trmino "error estndar" se usa a veces para referirse a una estimacin de esta cantidad desconocida. En tales casos es importante tener claro de donde proviene, ya que el error estndar es slo una estimacin. Desafortunadamente, esto no es siempre posible y puede ser mejor usar una aproximacin que evite usar el error estndar, por ejemplo usando la estimacin demxima verosimilitudo una aproximacin ms formal derivada de losintervalos de confianza. Uno caso bien conocido donde se pueda usar de forma apropiada puede ser en la distribucin t de Student para proporcionar un intervalo de confianza para una media estimada o diferencia de medias. En otros casos, el error estndar puede ser usado para proveer una indicacin del tamao de la incertidumbre, pero su uso formal o semi-formal para proporcionar intervalos de confianza o test debe ser evitado a menos que el tamao de la muestra sea al menos moderadamente grande. Aqu el concepto "grande" depender de las cantidades particulares que vayan a ser analizadas

ERROR ESTNDAR DE LA MEDIA

El error estndar de la media (llamado en ingls "standard error of the mean" (SEM)) cuantifica4 las oscilaciones de la media muestral (media obtenida en los datos) alrededor de la media poblacional (verdadero valor de la media). El EEM o SEM se estima generalmente dividiendo la desviacin estndar de la poblacin entre la raz cuadrada del tamao de la muestra (asumiendo independencia estadstica de los valores en la muestra):

Donde:S:es ladesviacin estndar(es decir, la estimacin basada en la muestra de la desviacin estndar de la poblacin).nes el tamao (nmero de individuos de la muestra)

SUPUESTOS Y UTILIZACIN

Si se asume que los datos utilizados estn distribuidos por la normal, los cuantales de la distribucin normal, la media de la muestra y el error estndar pueden ser usados para calcular intervalos de confianza aproximados para la media. Las siguientes expresiones pueden ser usadas para calcular los lmites de confianza por encima y por debajo del 95%, dondees igual a la media de la muestra,es igual al error estndar para la media de la muestra, y 1,96 es el cuantil 0.975 de la distribucin normal:Por encima del 95% Lmite =Por debajo del 95% Lmite =En particular, el error estndar de unamuestra estadstica(como lo es de lamediade la muestra) es la desviacin estndar estimada del error en el proceso que sta es generada. En otras palabras, el error estndar es la desviacin estndar de ladistribucin muestralde la muestra estadstica. La notacin para el error estndar (del ingls) puede ser,(por error estndar de "medida" (measurement) o "media" (mean)), o.

Los errores estndar proporcionan una medida sobra la incertidumbre de las medidas de la muestra en un nico valor que es usado a menudo porque:Si el error estndar de varias cantidades individuales es conocido entonces el error estndar de alguna funcin matemtica de esas cantidades puede ser fcilmente calculado en muchos casos:Donde la distribucin de probabilidad del valor es conocida, sta puede ser usada para calcular una buena aproximacin de un intervalo de confianza exacto.Donde la distribucin de probabilidad es desconocida, relaciones como laDesigualdad de Chebyshovo ladesigualdad de VysochanskiPetunin pueden ser usadas para calcular unos intervalos de confianza conservativos.Como el tamao de la muestra tiende a infinito, elteorema del lmite centralgarantiza que la distribucin de la media muestral es asintticamente la distribucin normal.

PROBABILIDADTEORIA DE CONJUNTOSTECNICAS DE CONTEOPROBABILIDAD PARA EVENTOS

TEORIA DE CONJUNTOSOPERACIN CON CONJUNTOSDIAGRAMA DE VENNTEOREMA DEL BINOMIODIAGRAMA DE ARBOL EVENTOS COMPLEMENTARIOSOPERACIN CON CONJUNTOSLa Un conjunto es una agrupacin, clase o coleccin de objetos denominados elementos del conjunto teora de conjuntos es una divisin de las matemticas que estudia los conjuntos.

Sabemos que la palabra conjunto implica la idea de una coleccin de objetos que se caracterizan en algo comn.En matemtica tiene el mismo significado, slo que a estos objetos se les llama elementos o miembros del conjunto. Un conjunto es una coleccin bien definida de objetos de cualquier clase.

UNION

La unin de los conjuntos A y B es el conjunto de todos los elementos de A con todos los elementos de B sin repetir ninguno y se denota como A B . Esto es:

Interseccin

La interseccin de los conjuntos A y B es el conjunto de los elementos de A que tambin pertenecen a B y se denota como A B . Esto es:

Complemento

El complemento del conjunto A con respecto al conjunto universal U es el conjunto de todos los elementos de U que no estn en A y se denota como 'A . Esto es:

Diferencia

La diferencia de los conjuntos A y B (en ese orden) es el conjunto de los elementos quepertenecen a A y no pertenecen a B y se denota como A B . Esto es:

DIAGRAMA DE VENNLosdiagramas de Vennson esquemas usados en lateora de conjuntos, tema de inters en matemtica,lgica de clasesyrazonamiento diagramtico. Estos diagramas muestran colecciones (conjuntos) de cosas (elementos) por medio de lneas cerradas. La lnea cerrada exterior abarca a todos los elementos bajo consideracin, el conjunto universalU.

InterseccinDado que los conjuntos pueden tener elementos comunes, las regiones encerradas por sus lneas lmite se superponen. El conjunto de los elementos que pertenecen simultneamente a otros dos es la interseccin de ambos.1A = {1; 2; 3; 4; 6; 12}B = {1; 3; 5; 15}U = {1; 2; 3; 4; 5; 6; 7; 8; 9; 10; 11; 12; 13; 14; 15; 16}Diagrama de Venn - interseccin con elementosA = {x | x es divisor natural de 12}B = {x | x es divisor natural de 15}U = {x | x es natural menor o igual que 16}Diagrama de Venn - interseccin sin elementosInclusin

Inclusin.Si todos los elementos de un conjunto son parte de los elementos de otro, se dice que el primero es unsubconjuntodel segundo o queest incluidoen el segundo.1En los diagramas de Venn, todas las regiones de superposicin posibles deben ser representadas. Y, cuando hay regiones que no contienen elementos (regiones vacas), la situacin se indica anulndolas (con un color de fondo distinto).2

A = {1; 2; 3; 4; 6; 12}B = {1; 2; 3; 6}U = {1; 2; 3; 4; 5; 6; 7; 8; 9; 10; 11; 12}

DIAGRAMA DE TRES CONJUNTOS

Tienen 8 regiones. Los diagramas de tres conjuntos fueron los ms usados por Venn en toda su obra. Un ejemplo de aplicacin podra ser el siguiente: dado un grupo de personas,Aes el conjunto de las de sexo masculino,Bel conjunto de las mayores de 18 aos yCel conjunto de las que trabajan. De este modo, la regin verde sera la de las personas de sexo masculino, mayores de 18 aos, que no trabajan.DIAGRAMAS DE MS DE TRES CONJUNTOS

La dificultad de representar ms de tres conjuntos mediante diagramas de Venn es evidente. Venn senta aficin por los diagramas de ms de tres conjuntos, a los que defina como "figuras simtricas, elegantes en s mismas". A lo largo de su vida, dise varias representaciones usando elipses, y dej indicaciones para la construccin de diagramas con cualquier cantidad de curvas, partiendo del diagrama de tres crculos.TEOREMA DEL BINOMIOEl teorema del binomio, tambin llamado binomio de Newton, expresa la ensima potencia de unbinomio como un polinomio. El desarrollo del binomio (a + b)^n posee singular importancia ya queaparece con mucha frecuencia en Matemticas y posee diversasaplicaciones en otras reas delconocimiento.Sea un binomio de la forma (a +b).

Si a este binomio se le multiplica sucesivamente por si mismo se obtienen las siguientes potencias:

De lo anterior, se aprecia que:

a) El desarrollo de(a + b)^n tiene n +1 trminos.b) Las potencias de a empiezan con n en el primer trmino y van disminuyendo en cada trmino,hasta cero en el ltimo.c) Las potencias de b empiezan con exponente cero en el primer trmino y van aumentando en unocon cada trmino, hasta n en el ltimo.d) Para cada trmino la suma de los exponentes de a y b es n .e) El coeficiente del primer trmino es uno y el del segundo es n .f) El coeficiente de un trmino cualquiera es igual al producto del coeficiente del trmino anterior por elexponente de a dividido entre el nmero que indica el orden de ese trmino.g) Los trminos que equidistan de los extremos tienen coeficientes iguales.

EJEMPLOObtener el desarrollo de 2( x 5y)^4

SolucinHaciendo a = 2 x y b = 5y

OTRO PUNTO DE VISTAEnmatemtica, elteorema del binomioes una frmula que proporciona el desarrollo de la potencia n-sima de n (siendo n, entero positivo) de unbinomio. De acuerdo con el teorema, es posible expandir lapotencia(x+y)nen unasumaque implica trminos de la formaaxbyc, donde los exponentesbycsonnmeros naturalesconb+c=n, y elcoeficienteade cada trmino es unnmero entero positivo que depende denyb. Cuando un exponente es cero, la correspondiente potencia es usualmente omitida del trmino.

El coeficienteaen los trminos dexbyc- xcybes conocido como elcoeficiente binomial(los dos tienen el mismo valor).

DIAGRAMA DE ARBOLUndiagrama de rboles una herramienta que se utiliza para determinar todos los posibles resultados de un experimento aleatorio. En el clculo de la probabilidad se requiere conocer el nmero de objetos que forman parte del espacio muestral, estos se pueden determinar con la construccin de un diagrama de rbol. Ejemplo: Si Juan tiene 3 pantalones y 2 camisas basta multiplicar 3x2=6 y son 6 posibilidades de que se pueda vestir.El diagrama de rbol es una representacin grfica de los posibles resultados del experimento, el cual consta una serie de pasos, donde cada uno de los pasos tiene un nmero finito de maneras de ser llevado a cabo. Se utiliza en los problemas de conteo y probabilidad.Para la construccin de un diagrama en rbol se partir poniendo una rama para cada una de las posibilidades, acompaada de su probabilidad. Cada una de estas ramas se conoce como rama de primera generacin.En el final de cada rama de primera generacin se constituye a su vez, un nudo del cual parten nuevas ramas conocidas como ramas de segunda generacin, segn las posibilidades del siguiente paso, salvo si el nudo representa un posible final del experimento (nudo final).

Hay que tener en cuenta que la construccin de un rbol no depende de tener el mismo nmero de ramas de segunda generacin que salen de cada rama de primera generacin y que la suma de probabilidades de las ramas de cada nudo ha de dar 1.Existe un principio sencillo de los diagramas de rbol que hace que stos sean mucho ms tiles para los clculos rpidos de probabilidad: multiplicamos las probabilidades si se trata de ramas adyacentes (contiguas), el ejemplo de alumna de la primera facultad, o bien las sumamos si se trata de ramas separadas que emergen de un mismo punto, el ejemplo de encontrar un alumno.

.

EJEMPLO.2

EVENTOS COMPLEMENTARIOSEvento.Es un conjunto de resultados que tiene cierta caracterstica comn. Los eventos pueden ser;

Eventoseguro

Eventoimposible.

Eventocomplementario

Eventocolectivamente exhaustivo.

EVENTO SEGUROUn evento seguro es cuando se tiene el 100 % de probabilidad de que ocurra, por ejemplo, el agua a presin normal y "limpia" hervir a los 100 C, es lo que yo conozco como un evento determinstico.tambin puede ocurrir que un evento tenga varios resultados posibles, como lanzar un dado y decimos que hay un 100 % de que el numero que quede en la cara de arriba al lanzarlo sea un 1 o 2 o 3 o 4 o 5 o 6 , es decir planteamos como "evento", todas las posibilidades que se puedan dar.EVENTO IMPOSIBLE un evento el cual no tienen probabilidades de sucederes imposibleque eventualmente mientras sucede esta conversacinuna aguja este de manera vertical conforme el eje de la tierra y que un avin de doble escape mejor conocido como caza este sobrevolando la misma are sobre la aguja y deje caer un ptalo de rosa que tras transcurrir ciertos minutos el ptalo sea atravesado por la agujacuando las probabilidades de que eso suceda sean 1 en 10,000,000,000 sea que es algo imposible.EVENTO COMPLEMENTARIOsuceda lo "opuesto" del fenmeno del cual conoces la probabilidad.

Por ejemplo la probabilidad de que una persona conteste "Si" en una encuesta de 2 alternativas es 0,7, la probabilidad del evento complementario seria que respondiera "No" que vendra siendo de 0,3, se llama Probabilidad del evento complementario ya que entre ambas probabilidades deben sumar 1.

Otro ejemplo:

La probabilidad que una persona se despierte para trabajar un da domingo es de 0,2 cual es la probabilidad de que este no se despierte un da domingo para trabajar?

Seria la probabilidad del evento complementario, que vendra siendo del 0,8.En el universo muestral,son eventos complementarios todos los que completan el espacio muestral.

Para el espacio muestral "las seis caras de un dado",para el evento "salieron 2,3,4,6"el evento complementario es "salieron 1,5"

Si el evento muestral es "los palos de la baraja",para el evento "salieron copa, espada, basto"el evento complementario es "salieron oros"

Las probabilidades de los eventos complementariosson iguales a la unidad menos la probabilidad de los eventos considerados.TECNICAS DE CONTEOPRINCIPIO DE LA SUMA Y LA MULTIPLICACION

PERMUTACION Y COMBINACIONPRINCIPIO DE LA SUMA Y LA MULTIPLICACIONNuestra explicacin anterior de intersecciones y uniones sugera que nos interesa calcular las probabilidades de sucesos tales como AyB y AoB. Estos clculos pueden hacerse con ayuda de las 2 reglas bsicas de la probabilidad.

REGLA DE LA SUMALa regla de la Suma se aplica para hallar la probabilidad AoB (es decir se SUMA). Y esta regla afirma que:Si A y B son sucesos mutuamente excluyentes, habremos de sumar la Probabilidad de suceso A a la Probabilidad del Suceso B.

Si A y B son sucesos NO mutuamente excluyentes, habremos de sumar la Probabilidad de suceso A a la Probabilidad del Suceso B y restar la probabilidad conjunta de los sucesos A y B.

Ejemplo:Probabilidad de sacar un As o una carta de corazones en una sola extraccin de una baraja. Es decir buscamos P(A o H). Observar que As (A) y corazones (H) no son mutuamente excluyentes. Los 2 ocurren su se saca un As de corazones. Entonces:

168REGLA DE LA MULTIPLICACIONLa regla de la Multiplicacin para hallar la probabilidad conjunta A y B (es decir producto). Y esta regla afirma que:Si A y B son sucesos independientes, habremos de multiplicar la probabilidad del suceso A por la Probabilidad del suceso B.

Si A y B son sucesos dependientes habremos de multiplicar la probabilidad del suceso A por la Probabilidad del suceso B siempre que A haya ocurrido ya.

Ejemplo:Probabilidad condicional se puede tomar de una tabla de probabilidades. Supongamos que la Seora Highwater quisiera calcular la probabilidad de que una montura sea grande sabiendo que es de plstico. Se representa as:

PERMUTACION Y COMBINACIONuna permutacin de objetos es un arreglo de stos en el que orden s importa. Para encontrar el nmero de permutaciones denobjetos diferentes en grupos der, se usan las siguientes frmulas:

Una combinacin de objetos es un arreglo de stos en el que el orden no importa. Para encontrar el nmero de combinaciones denobjetos en grupos der, se usa la siguiente frmula:

PERMUTACIONCon las 3 nicas letras: A, B y Cuntas permutaciones de orden 3 podemos obtener. Las permutaciones son disposiciones en que cuenta el orden. La lista de permutaciones de los 3 elementos es:

Obsrvese que las 6 permutaciones diferentes e obtienen por mera reordenacin de los elementos. Como en la permutacin cuenta el orden , una ordenacin distinta da lugar a una permutacin diferente.

COMBINACIONSupongamos que en la feria ahora ya se han elegido a los 3 cerdos ganadores y que a cada uno se le concede una cinta sin distinguir entre los puestos 1ero, 2do y 3ero. En este caso el orden de seleccin no es importante.

Hay 120 maneras de premiar con una cinta a 3 de los 10 cerdos.

VARIACIONES CON REPETICION Las variaciones con repeticin son una tcnica combinatoria en que el orden cuenta. Se distinguen de las permutaciones y combinaciones porque se permite la repeticin. En el caso de las variaciones con repeticin, se puede utilizar el mismo elemento mas de una vez. El numero de variaciones con repeticin de n elementos tomados r en r es:

TECNICAS COMBINATORIASLos mtodos para determinar cuantos subconjuntos se pueden obtener de un conjunto de objetos se denominan tcnicas combinatorias.

.Permutaciones.CombinacionesvariacionesMultiplicacin

PROBABILIDAD PARA EVENTOSPROBABILIDAD CONDICIONALEVENTOS INDEPENDIENTESTEOREMA DE BAYESSELECCIN AL AZAR, CON O SIN REEMPLAZOPROBABILIDAD CONDICIONALProbabilidad condicionales laprobabilidadde que ocurra uneventoA, sabiendo que tambin sucede otro eventoB. La probabilidad condicional se escribeP(A|B), y se lee la probabilidad deAdadoB.No tiene por qu haber una relacin causal o temporal entreAyB.Apuede preceder en el tiempo aB, sucederlo o pueden ocurrir simultneamente.Apuede causarB, viceversa o pueden no tener relacin causal. Las relaciones causales o temporales son nociones que no pertenecen al mbito de la probabilidad. Pueden desempear un papel o no dependiendo de la interpretacin que se le d a los eventos.Un ejemplo clsico es el lanzamiento de una moneda para luego lanzar un dado. Cul es la probabilidad de obtener una cara (moneda) y luego un 6 (dado)? Pues eso se escribira como P (Cara | 6).Elcondicionamientode probabilidades puede lograrse aplicando elteorema de Bayes.

Interpretacin

se puede interpretar como, tomando los mundos en los que B se cumple, la fraccin en los que tambin se cumple A. Si el evento B es, por ejemplo, tener la gripe, y el evento A es tener dolor de cabeza,sera la probabilidad de tener dolor de cabeza cuando se est enfermo de gripe.

Grficamente, si se interpreta el espacio de la ilustracin como el espacio de todos los mundos posibles, A seran los mundos en los que se tiene dolor de cabeza y B el espacio en el que se tiene gripe. La zona verde de la interseccin representara los mundos en los que se tiene gripe y dolor de cabezaEn este caso, es decir, la probabilidad de que alguien tenga dolor de cabeza sabiendo que tiene gripe, sera la proporcin de mundos con gripe y dolor de cabeza (color verde) de todos los mundos con gripe: El rea verde dividida por el rea de B. Como el rea verde representay el rea de B representa a, formalmente se tiene que:

PROPIEDADES

Es decir, si todos los que tienen gripe siempre tienen dolor de cabeza, entonces la probabilidad de tener dolor de cabeza dado que tengo gripe es 1.

LA FALACIA DE LA PROBABILIDAD CONDICIONALLafalaciade la probabilidad condicional se basa en asumir queP(A|B) es casi igual aP(B|A). El matemticoJohn Allen Pauloanaliza en su libroEl hombre a numricoeste error muy comn cometido por personas que desconocen laprobabilidad.La verdadera relacin entreP(A|B) yP(B|A) es la siguiente:

EVENTOS INDEPENDIENTESAlgunas situaciones deprobabilidadimplican ms de unevento. Cuando los eventos no se afectan entre s, se les conoce comoeventos independientes. Los eventos independientes pueden incluir la repeticin de una accin como lanzar un dado ms de una vez, o usar dos elementosaleatoriosdiferentes, como lanzar una moneda y girar una ruleta. Muchas otras situaciones tambin pueden incluir eventos independientes. Para calcular correctamente las probabilidades, necesitamos saber si un evento influye en elresultadode otros eventos.

CARACTERISTICASLa principal caracterstica de una situacin con eventos independientes es que el estado original de la situacin no cambia cuando ocurre un evento. Existen dos maneras de que esto suceda:

Los eventos independientes ocurren ya sea cuando:

el proceso que genera el elemento aleatorio no elimina ningn posible resultado oel proceso que s elimina un posible resultado, pero el resultado es sustituido antes de que suceda una segunda accin. (A esto se le llama sacar unreemplazo.)

EJEMPLOSSituacinEventosPor qu los eventos son independientesLanzas un dado, y si no sale 6, lanzas de nuevo. Cul es la probabilidad de sacar un 6 en el segundo lanzamiento?El primer lanzamiento no es un 6.El primer lanzamiento es un 6.El hecho de que el primer lanzamiento no es un 6 no cambia la probabilidad de que el segundo lanzamiento sea un 6. (A algunas personas les gusta decir, "el dando no se acuerda qu sacaste antes.")Sacas una canica de una bolsa con 2 canicas rojas, 2 blancas, y una verde. Observas el color, la pones de nuevo en la bolsa, y sacar otra canica. Cul es la probabilidad de sacar una canica roja ambas veces?Sacar una canica roja en el primer intento.Sacar una canica roja en el segundo intento.Los eventos son independientes porque regresaste la primera canica a la bolsa y tu segundo intento fue con la bolsa en su estado original.Sacas una carta de un mazo de 52 cartas, y luego lanzas un dado. Cul es la probabilidad de sacar un 2 y luego lanzar y que caiga 2?La carta es un 2.El dado cae en 2.Aunque la carta no es regresada al mazo despus de sacarla, el lanzamiento del dado no depende de las cartas, por lo que ningn posible resultado ha sido reemplazado. A pesar del resultado de sacar la carta, la probabilidad de del dado no ser afectada.

TEOREMA DE BAYESEn lateora de la probabilidadelteorema de Bayeses un resultado enunciado porThomas Bayes en 17631que expresa la probabilidad condicionalde unevento aleatorioAdadoBen trminos de la distribucin de probabilidad condicional del eventoBdado Ay ladistribucin de probabilidad marginalde sloA.

En trminos ms generales y menos matemticos, el teorema de Bayes es de enorme relevancia puesto que vincula la probabilidad de A dado B con la probabilidad de B dado A. Es decir que sabiendo la probabilidad de tener un dolor de cabeza dado que se tiene gripe, se podra saber (si se tiene algn dato ms), la probabilidad de tener gripe si se tiene un dolor de cabeza, muestra este sencillo ejemplo la alta relevancia del teorema en cuestin para la ciencia en todas sus ramas, puesto que tiene vinculacin ntima con la comprensin de la probabilidad de aspectos causales dados los efectos observados.Thomas Bayes(1763)Sea \{A_1, A_2, ..., A_i, ..., A_n\} un conjunto de sucesos mutuamente excluyentes y exhaustivos, y tales que la probabilidad de cada uno de ellos es distinta de cero (0). Sea B un suceso cualquiera del que se conocen las probabilidades condicionales P(B | A_i). Entonces, la probabilidad P(A_i | B) viene dada por la expresin:P(A_i|B) = \frac{P(B | A_i) P(A_i)}{P(B)}donde:P(A_i) son las probabilidades a priori.P(B|A_i) es la probabilidad de B en la hiptesis A_i.P(A_i|B) son las probabilidades a posteriori.

FRMULA DE BAYES

Con base en la definicin deProbabilidad condicionada, obtenemos la Frmula de Bayes, tambin conocida como la Regla de Bayes:

APLICACIONESEl teorema de Bayes es vlido en todas las aplicaciones de la teora de la probabilidad. Sin embargo, hay una controversia sobre el tipo de probabilidades que emplea. En esencia, los seguidores de laestadstica tradicional slo admiten probabilidades basadas en experimentos repetibles y que tengan una confirmacin emprica mientras que los llamados estadsticos bayesianos permiten probabilidades subjetivas. El teorema puede servir entonces para indicar cmo debemos modificar nuestras probabilidades subjetivas cuando recibimos informacin adicional de un experimento. La estadstica bayesiana est demostrando su utilidad en ciertas estimaciones basadas en el conocimiento subjetivo a priori y el hecho de permitir revisar esas estimaciones en funcin de la evidencia emprica es lo que est abriendo nuevas formas de hacer conocimiento. Una aplicacin de esto son losclasificadores bayesianosque son frecuentemente usados en implementaciones de filtros de correo basura ospam, que se adaptan con el uso.Como observacin, se tieney su demostracin resulta trivial.

SELECCIONES AL AZAR,CON O SIN REEMPLAZOEn este caso seleccin al azar quiere decir tomar una muestra de un cierto conjunto (como un su muestra si as lo quieres ver).Con reemplazo se refiere a que tu despus de tomar muestra la vuelves a dejar en el conjunto de donde la tomaste.Sin reemplazo se refiere a que despus de tomar la muestra no la devuelves y la apartas del conjunto de donde la tomaste.Bueno esto para que sirve? sirve mucho en el control de calidad de productos (por ejemplo) y lo interpretas mas o menos asi:CON REEMPLAZO:Supn que tienes una bolsa con 10 pelotas: 3 rojas, 3negras y 4blancas. tu tomas una pelota (muestra de una unidad) y dependiendo que es lo que ests buscando en esa muestra tienes el 30% de sacar una pelota roja, 30% de sacar una negra y 40% de sacar una blanca. despus de observar que color es, la devuelves a la bolsa y sacas otra pelota, como es CON REEMPLAZO tu estas regresando la pelota y la probabilidad no se ve afectada ya que sigues teniendo las mismas 10 pelotas de los mismos colores y cantidades por lo que en otra muestra tienes las mismas probabilidades.SIN REEMPLAZO:En el mismo ejemplo mencionado, tu sacas una pelota y tienes: el 30% de sacar una pelota roja, 30% de sacar una negra y 40% de sacar una blanca, en este caso tu despus de tomar la pelota la apartas y dependiendo de que color haya salido puede ver que ya no tienes las 10 pelotas sino 9 por lo tanto la probabilidad va disminuyendo y puede ser mas fcil el que por probabilidad deduzcas de que color saldra la otra pelota.

Eleccin al azar, con o sin reemplazo.La seleccin al azar es tomar una muestra de un cierto conjunto.El reemplazo se da cuando tu despus de tomar una muestra la vuelves a dejar en el conjunto de donde la tomaste.El no reemplazo se refiere a que despus de tomar la muestra no la devuelves y la apartas del conjunto de donde la tomaste.Seleccin al azar con o sin reemplazoEjemplos:CON REEMPLAZO:Supongamos que tienen una bolsa con 10 pelotas: 3 rojas, 3 negras y 4 blancas. Toman una pelota (muestra de una unidad) y dependiendo que es lo que estn buscando en esa muestra tienen el 30% de sacar una pelota roja, 30% de sacar una negra y 40% de sacar una blanca. Despus de observar que color es, la devuelven a la bolsa y sacan otra pelota, como es CON REEMPLAZO tu estas regresando la pelota y la probabilidad no se ve afectada ya que sigues teniendo las mismas 10 pelotas de los mismos colores y cantidades por lo que en otra muestra tienes las mismas probabilidades.Seleccin al azar con o sin reemplazoEjemplos:SIN REEMPLAZO:En el mismo ejemplo mencionado, Podemos sacas una pelota y tenemos: el 30% de sacar una pelota roja, 30% de sacar una negra y 40% de sacar una blanca, en este caso si despus de tomar la pelota la apartamos y dependiendo de que color haya salido puede ver que ya no tienes las 10 pelotas sino 9 por lo tanto la probabilidad va disminuyendo y puede ser mas fcil el que por probabilidad deduzcas de que color saldr la otra pelota.