ESTRUCTURA DE ESTADISTICA

24

Click here to load reader

Transcript of ESTRUCTURA DE ESTADISTICA

Page 1: ESTRUCTURA DE ESTADISTICA

UNIVERSIDAD CENTRAL DE VENEZUELA

FACULTAD DE CIENCIAES ECONOMICAS Y SOCIALES

ESCUELA DE ESTUDIOS INTERNACIONALES

CATEDRA: ESTADISTICA I

SECCION: 13

TEORIA DE LAS PROBABILIDADES

AUTORES:

ADRIAN EDISON.

LANDAETA AARON.

MIGUEL SALVADOR.

NITTOLI ADOLFO.

SANDOVAL ANGELICA.

SINTAL ANDERSON.

PROFA: LISBETH DOMINGUEZ

CARACAS, ENERO 2011

Page 2: ESTRUCTURA DE ESTADISTICA

INTRODUCCION

Todo inició con un juego de azar en la Francia del siglo XVII, donde, en una

disputa se estudió el comportamiento que tenían los dados y las barajas

durante uno de los juegos, asimismo en términos estadísticos se abocaron al

estudio de los sucesos aleatorios que en él se dan y buscando una forman

de predecir los posibles resultados, en ese sentido Pierre y Simón Laplace

agrega que "Es notable que una ciencia que comenzó con consideraciones

sobre juegos de azar haya llegado a el objeto más importante del

conocimiento humano". La doctrina de las probabilidades data desde Pierre

de Fermat y Blaise Pascal en 1654, asimismo Christian Huygens en 1657 le

dieron tratamiento científico, luego Ars Conjectandi, Jakob Bernoulli y

Abraham de Moivre trataron el tema como una rama de las matemáticas.

De ese modo la siguiente investigación tiene como fin exponer;

historia y conceptos básicos como la Definición Clásica de Probabilidades o

de Laplace, experimentos y sucesos aleatorios con sus respectivos tipos de

sucesos como: compatible, incompatible, dependiente e independiente. Así

como también los axiomas de la teoría de probabilidades y distribución de

Poisson. Del mismo modo las formulas y su aplicabilidad en la teoría de las

probabilidades según Soto Negrín, de ese modo, para comprender de

manera general la utilidad de las probabilidades y, ante hechos especulativos

que luego de un procedimiento matemático llegar a datos concretos hacen

gala la capacidad de predecir los resultados ante un estudio estadístico, en

tal sentido mediante el análisis probabilístico y de la comprensión estadística

de los resultados establecer la decisión pertinente ante un estudio el área

profesional.

Page 3: ESTRUCTURA DE ESTADISTICA

HISTORIA Y ORIGEN DE LA TEORIA DE LAS PROBABILIDADES

La teoría de las probabilidades es resultado de una disputa ocurrida a

mediados del siglo XVII, entre jugadores de azar. Esta disputa se origina

debido al comportamiento que tenían los dados y las barajas durante uno de

los juegos, es aquí donde un caballero de la época, conocido como el

Chevalier De Meré, se da a la tarea de contactar a Blaise Pascal y Pierre De

Fermat, ambos matemáticos de la época, los cuales se darían a la tarea de

realizar estudios sobre el comportamiento de los dados a la hora de utilizar

uno o dos en un juego, las combinaciones que estos tendrían y las

probabilidades que existen de sacar una combinación a la hora de realizar

una jugada, particularmente, la resolución de este problema, constituye las

bases y el origen de la teoría de probabilidades moderna. Negrin S., (1999.

p.137).

Así mismo, tenemos que:

La probabilidad matemática tiene sus orígenes en los juegos de

azar, principalmente los juegos con dados y cartas, muy

populares desde tiempos antiguos. Los primeros estudios

“científicos” sobre fenómenos aleatorios se centraban en dos

problemas:

1. Contabilizar el número de posibles resultados de lanzar un

dado varias veces.

2. Distribuir las ganancias entre jugadores cuando el juego se

interrumpía antes de finalizar, conocido como el ‘problema del

reparto de apuestas’. (Salinero, P., (2005), p.3)

Luego de las bases y resultados matemáticos establecidos por Pascal

y Fermat, han sido muchos los personajes que han contribuido al

enriquecimiento de la teoría de probabilidades, entre ellos se encuentran,

Page 4: ESTRUCTURA DE ESTADISTICA

Christiaan Huygens, James Bernoulli y Abraham De Moivre, quienes se

encargaron de desarrollar los estudios probabilísticos, que posteriormente

serian recogidos y publicados por Pedro Simón Laplace, acotándole este

ultimo la conocida definición clásica de probabilidad.

Durante los siglos XIX y XX, la teoría de probabilidades alcanzó gran

auge e importancia debido a las utilidades y beneficios matemáticos que

otorgaba, por tal se considera que la teoría de probabilidades es la base

matemática de las ciencias estadísticas actuales. Negrin S., (1999; p.137).

DEFINICION CLASICA Y MODERNA DE PROBABILIDAD

Definición Clásica de Probabilidades o de Laplace:

“Se define, como la relación o cociente entre los casos favorables sobre el

total de casos posibles que resultan al efectuar un experimento aleatorio

(experimento en que no puede predecirse su resultado a priori)”.

Escrito de forma matemática tenemos que:

p=CF/CP

Donde:

P= probabilidad favorable, de éxito o de acierto.

CF= Casos Favorables; CP= Casos Posibles

De igual manera, para conocer la probabilidad de fracaso o contraria

tenemos que:

q=CC/CP

Donde:

q= probabilidad de contraria, de fracaso o desfavorable.

Page 5: ESTRUCTURA DE ESTADISTICA

CC= casos contrarios

Dado que nuestras formulas están expresadas en forma cociente conocemos

que la suma de ambas será igual a uno (1), escrito de forma matemática:

p+q= 1, para conocer la probabilidad favorable o contraria solo debemos

despejar. Negrin S., (1999; p.138).

Definición Moderna de Probabilidad

La probabilidad es todo número o cantidad numérica

asociada a cada uno de los sucesos que se pueden presentar al

realizar un experimento aleatorio, cantidad que viene medida

por el límite de la Frecuencia relativa cuando el número de ellos

“N” tiende al infinito. Negrin S., (1999; p.139).

En formulas matemáticas:

limN→∞

❑( FiN )

EXPERIMENTOS Y SUCESOS ALEATORIOS

Según Negrín (1999; pág. 377) experimentos son “aquellos en que es

imposible predecir sus resultados a priori, ya que ellos varían de una

observación a otra. Son experimentos que realizándose en condiciones

similares indefinidamente, pueden dar lugar a resultados distintos”

Una de las características más importantes de ellos, establece que si

el experimento se realiza una cantidad suficientemente grande de veces, se

observa una tendencia a la estabilización en el valor de la Frecuencia

Relativa, acercándose hacia valores aproximadamente fijos.

Page 6: ESTRUCTURA DE ESTADISTICA

Los resultados del experimento aleatorio son denominados sucesos

aleatorios, clasificándose como compatibles e incompatibles, (los cuales

varían si pueden ser o no verificables de forma simultánea) dependientes o

independientes de acuerdo a que sean con o sin reemplazamiento

respectivo.

Según la clasificación anterior (sucesos compatibles, incompatibles,

dependientes o independientes) se desarrolla a continuación el concepto

correspondiente a cada uno de ellos.

Sucesos compatibles: Son verificables simultáneamente o a la

misma vez.

Sucesos incompatibles: Son aquellos sucesos que no pueden

ocurrir de forma simultánea.

Sucesos dependientes: La ocurrencia de unos afecta la

probabilidad de ocurrencia de los demás, asociándose con el

término “sin reemplazamiento”. Al efectuar la extracción de una

tarjeta o bola de una caja, se altera el número de casos posibles, y

por tanto se alteran también las respectivas probabilidades de los

elementos restantes.

Sucesos independientes: En éstos, la ocurrencia de unos no afecta

la probabilidad de los demás, ya que cada vez que se realiza una

extracción, el elemento es reemplazado (con reemplazamiento), a

su lugar de origen.

Como consecuencia, se definen los sucesos aleatorios como los

resultados de un experimento cuya variación (la de los resultados) es debida

al azar.

Page 7: ESTRUCTURA DE ESTADISTICA

AXIOMA Y AXIOMAS DE LA TEORÍA DE LA PROBABILIDAD

Afirma Negrín (1999), que un axioma es una “Verdad evidente por sí

misma que no es susceptible de ninguna demostración”. Por esto, se puede

definir que el axioma es aquello que parecía ser verdadero sin ninguna

necesidad de prueba.

Las condiciones mínimas que deben verificarse para que una función

definida sobre un conjunto de sucesos determine consistentemente sus

probabilidades se entienden como los axiomas de probabilidad y fueron

formulados por Kolmogórov en 1933. Por tanto la probabilidad es siempre un

número comprendido entre cero y uno:

0≤ p≤1

Axiomas fundamentales de la teoría de probabilidades (Negrín. 1999)

La probabilidad de un suceso seguro es siempre igual a uno.

p(A)=1

La probabilidad de un suceso imposible es siempre igual a cero.

p(A)=0

La probabilidad de éxito o de acierto más la probabilidad contraria

o de fracaso, es siempre igual a la unidad.

Σ p (A1)

TEOREMAS FUNDAMENTALES DE LA TEORÍA DE PROBABILIDADES

Page 8: ESTRUCTURA DE ESTADISTICA

Se entiende como teorema aquel que “…generalmente posee un

número de condiciones que deben ser enumeradas o aclaradas de antemano

y que se denominan propuestas. Luego existe una conclusión, una

afirmación matemática, la cual es verdadera bajo las condiciones en las que

se trabaja. El contenido informativo del teorema es la relación que existe

entre la hipótesis y la tesis o conclusión.” (Artículo en línea)

Los teoremas fundamentales de la teoría de probabilidades, “…son los

denominados Teorema Aditivo, o también Teorema de la Suma o de la “O”

(que resulte una cosa o la otra); y Teorema del Producto o de la “Y” (que se

obtenga un suceso o evento y el otro)” (Negrín. 1999; p. 439)

Teorema Aditivo: Considera como caso favorable cuando ocurra una

cosa o la otra (Es por esto que también se conoce como Teorema de la “O”).

El Teorema Aditivo se clasifica en Teorema para sucesos incompatibles y

para sucesos compatibles.

Teorema Aditivo para sucesos incompatibles: Tiene probabilidad

cuando la suma de dos o más sucesos es igual a la suma de la probabilidad

de cada uno de ellos.

p (S1+S2+…S N )=p (S1 )+ p (S2 )+…p (SN )

Teorema Aditivo para sucesos compatibles: La probabilidad de dos o

más sucesos cuando éstos son compatibles, es igual a la suma de las

probabilidades de cada una de ellos menos la probabilidad del suceso

común.

p (S1+S2 )=p (S1 )+ p (S2 )−p (S1 . S2 )

Teorema del Producto: Se llama también de la “Y” por considerar

como caso favorable una cosa “Y” la otra. El teorema del producto se

Page 9: ESTRUCTURA DE ESTADISTICA

clasifica en: Teorema del Producto para Sucesos Independientes y para

Sucesos Dependiente.

Teorema del Producto para Sucesos Independientes: La probabilidad del

producto de dos o más sucesos cuando éstos son independientes es igual al

producto de las probabilidades de cada uno de ellos.

p (S1 . S2…S N )=p (S1 ) . p (S2 ) .…. p(SN)

Teorema del Producto para Sucesos Dependientes: La probabilidad del

producto de dos o más sucesos cuando éstos son dependientes, es igual al

producto de la probabilidad del primero por la probabilidad del segundo

condicionado al primero, y así sucesivamente con el tercero, cuarto, hasta el

enésimo suceso condicionado al suceso anterior.

p (S1 . S2…S N )=p (S1 ) . p (S2/S1 ).…. p(SN / SN−1)

Variables Discretas y Continuas

Para poder comenzar a definir los tipos de variables debemos conocer

primero el término de Variable que no es más que un símbolo que representa

un elemento no especificado de un conjunto dado. Dicho conjunto es llamado

conjunto universal de la variable, universo o variar de la variable, y cada

elemento del conjunto es un valor de la variable.

Sea x una variable cuyo universo es el conjunto {1,3,5,7,9,11,13}; entonces x

puede tener cualquiera de esos valores: 1,2,3,5,7,9,11,13. En otras palabras

x puede reemplazarse por cualquier entero positivo impar menor que 14.

Esta variable es un elemento de una fórmula, proposición o algoritmo que

puede adquirir o ser sustituido por un valor cualquiera (siempre dentro de su

Page 10: ESTRUCTURA DE ESTADISTICA

universo). Los valores que una variable es capaz de recibir, pueden estar

definidos dentro de un rango.

Las variables, también llamadas caracteres cuantitativos, son aquellas cuyas

variaciones son susceptibles de ser medidas cuantitativamente, es decir, que

pueden expresar numéricamente la magnitud de dichas variaciones. Por

intuición y por experiencia sabemos que pueden distinguirse dos tipos de

variables; las continuas y las discretas

Ahora ya habiendo definido el concepto de variable podemos hablar de cada

una de ellas, comenzaremos definiendo:

La Variable Discreta que no es más que una variable para la que se dan de

modo inherente separaciones entre valores observables sucesivos. Dicho

con más rigor, se define una variable discreta como la variable tal que entre

dos cualesquiera valores observables (potencialmente), hay por lo menos un

valor no observable (potencialmente). Son aquellas que solo toman un

determinado números de valores, porque entre dos valores consecutivos no

pueden tomar ningún otro.

Por ejemplo, un recuento del número de colonias de un cultivo en agar es

una variable discreta. Mientras que cuentas de 3 y 4 son potencialmente

observables, no lo es una de 3,5.

La Variable Continua tiene la propiedad de que entre 2 cualesquiera valores

observables (potencialmente), hay otro valor observable (potencialmente).

Una variable continua toma valores a lo largo de un continuo, esto es, en

todo un intervalo de valores. Longitudes y pesos son ejemplos de variables

continuas. La estatura de una persona, por ejemplo, puede ser de 1,70 m o

de 1,75 m, pero en potencia al menos podría tomar cualquier valor

intermedio, como 1,7351 m. Las variables continuas se caracterizan por el

Page 11: ESTRUCTURA DE ESTADISTICA

hecho de que puede tomar infinitos valores intermedios dentro de dos

valores consecutivos.

Un atributo esencial de una variable continua es que, a diferencia de una

variable discreta, nunca se la puede medir en términos de unidad.

Por esto se puede decir, que todo aquello susceptible de ser contado son

Variables Discretas, mientras más bien lo que puede ser medido caería en el

concepto de Variables Continuas.

La Probabilidad es todo numero o cantidad numérica asociada a cada uno de

los sucesos que se pueden presentar al realizar un experimento, cantidad

que viene medida por el limite de frecuencia relativa cuando el numero de

ellos tiende a ser infinito. Por eso a continuación vamos a definir a la variable

aleatoria y su clasificación para así poder abordar más aun en el tema de la

Distribución de Probabilidades.

Una Variable Aleatoria es un valor numérico que corresponde al resultado de

un experimento aleatorio, como la suma de los puntos obtenidos al lanzar

dos dados.

Las Variables Aleatorias Discretas son aquellas que pueden tomar solamente

un número finito o un número infinito numerable de valores. A este nivel, las

únicas variables aleatorias que consideraremos son aquellas que toman un

número finito de valores. Un ejemplo de este tipo de variable aleatoria sería

el resultado de lanzar un dado.

Las Variables Aleatorias Continuas son aquellas que pueden tomar cualquier

valor en un intervalo de la recta real. Un ejemplo de este tipo de variable

aleatoria seria la altura de una persona.

6.6 Distribuciones Probabilísticas

Page 12: ESTRUCTURA DE ESTADISTICA

La Distribución de Probabilidad de una variable aleatoria es una función que

asigna a cada suceso definido sobre la variable aleatoria la probabilidad de

que dicho suceso ocurra. La distribución de probabilidad está definida sobre

el conjunto de todos los eventos rango de valores de la variable aleatoria.

Distribución de Poisson o de los sucesos raros:

Es una distribución de tipo discreta y por tanto aplicable a variables

aleatorias de tipo discreto. Se denomina de los sucesos raros ya que

generalmente es aplicada a sucesos cuya probabilidad de ocurrencia está

muy cerca de cero, de tal forma que el producto (np) sea menor que cinco.

Función de probabilidad de la distribución de Poisson:

p ( x )= λxe− λ

X !

Donde:

p (x): Probabilidad de Poisson dada por la aplicación de la formula anterior

λ❑ (Léase landa) es igual a la media aritmética de Poisson y la cual se

obtiene mediante el producto (n) (p), siendo (n) igual al tamaño de la

muestra.

λx: Landa elevada a la cantidad de casos favorables.

e: base de los Logaritmos Neperianos e igual a 2, 7118.

x: Casos favorables.

X ! : lease Factorial, el producto de la descomposición de un nuemero hasta

llegar a la unidad.

Page 13: ESTRUCTURA DE ESTADISTICA

Los valores de e se encuentran tabulados en la tabla de Poisson, con lo cual

nos evitamos el tener que trabajar con valores elevados a exponentes

negativos.

Ajuste a la distribución de Poisson:

a) Se halla la media aritmética de la distribución en estudio y se supone que

es igual a la media aritmética de Poisson.

FORMULA ¡! Se escribe a mano pq es como complejo en la PC ¡

b) Se determinan las respectivas probabilidades por la función de Poisson

para cada uno de los valores de la variable en estudio.

FORMULA ¡! Se escribe a mano pq es como complejo en la PC ¡

c) Se hallan las frecuencias teóricas, calculadas o esperadas (ft)

multiplicando la sumatoria de frecuencias absolutas u observables por cada

probabilidad P (x)

ft= (∑fii) P(x)

d) Se compara cada frecuencia teórica (ft) con cada frecuencia absoluta u

observada (fi) y se observa aparentemente si hay o no diferencias

significativas o discrepancias entre unas y otras.

Page 14: ESTRUCTURA DE ESTADISTICA

Características de la distribución de Poisson:

La distribución de Poisson, se aplica a varios fenómenos discretos de la

naturaleza (esto es, aquellos fenómenos que ocurren 0, 1, 2, 3,…., n veces

durante un periodo definido de tiempo o en un área determinada) cuando la

probabilidad de ocurrencia del fenómeno es constante en el tiempo o el

espacio. Ejemplos de estos eventos que pueden ser modelados por la

distribución de Poisson incluyen:

Los éxitos buscados en este tipo de experimentos son expresados por

unidad de área, tiempo, pieza, etc.

De defectos de una tela por m2

De aviones que aterrizan en un aeropuerto por día, hora, minuto, etc.

De bacterias por cm2 de cultivo

De llamadas telefónicas a un conmutador por hora, minuto, etc.

De llegadas de embarcaciones a  un puerto por día, mes, etc.

El número de errores de ortografía que uno comete al escribir una

única página.

El número de mutaciones de determinada cadena de ADN después de

cierta cantidad de radiación.

La inventiva de un inventor a través de su carrera.

Ejemplo

Si el 2% de los libros encuadernados en cierto taller tiene encuadernación

defectuosa, para obtener la probabilidad de que 5 de 400 libros

encuadernados en este taller tengan encuadernaciones defectuosas usamos

la distribución de Poisson. En este caso concreto, k es 5 y , λ, el valor

esperado de libros defectuosos es el 2% de 400, es decir, 8. Por lo tanto, la

probabilidad buscada es

Page 15: ESTRUCTURA DE ESTADISTICA

Este problema también podría resolverse recurriendo a una distribución

binomial de parámetros k = 5, n = 400 y θ=0,02.

Ejemplos chi cuadrado

En cierta máquina Expendedora de Refrescos existen 4 canales que expiden

el mismo tipo de bebida. Estamos interesados en averiguar si la elección de

cualquiera de estos canales se hace de forma aleatoria o por el contrario

existe algún tipo de preferencia en la selección de alguno de ellos por los

consumidores. La siguiente tabla muestra el número de bebidas vendidas en

cada uno de los 4 canales durante una semana. Contrastar la hipótesis de

que los canales son seleccionados al azar a un nivel de significación del 5%.

1 13

2 22

3 18

4 17

SOLUCIÓN:

Page 16: ESTRUCTURA DE ESTADISTICA

Para realizar el contraste de Bondad de Ajuste debemos calcular las frecuencias esperadas de cada suceso bajo la hipótesis de uniformidad entre los valores. Si la selección del canal fuera aleatoria, todos los canales tendrían la misma probabilidad de selección y por lo tanto la frecuencia esperada de bebidas vendidas en cada uno de ellos debería ser aproximadamente la misma. Como se han vendido en total 70 refrescos, la frecuencia esperada en cada canal es

Ei= n * p i = 70* ¼ = 17.5 i = 1, ..., k

El estadístico del contraste sería

Este valor debemos compararlo con el valor crítico de la distribución x2 con (4-1)=3 grados de libertad. Este valor es: x0.95

2 (3 )=7.81

Puesto que el valor del estadístico (2.34) es menor que el valor crítico, no podemos rechazar la hipótesis de que los datos se ajustan a una distribución uniforme. Es decir, que los canales son seleccionados aleatoriamente entre los consumidores.

Otro ejemplo:

Se sabe que en un cruce T x T de palma, la descendencia de duras, teneras y pisiferas esta en una proporción de 1:2:1. En una muestra de 104 palmas se obtuvieron 28 duras, 49 teneras y 27 pisiferas. Se ajustan estos datos a la proporción esperada?

Calculo :

Durase = 104 * 1                       4

Tenerase 104 * 1                     2

Pisiferase = 104 * 1                            4

Page 17: ESTRUCTURA DE ESTADISTICA

Categoría Esperado Observado (o-e)2/e

Duras 26 28 0.1538

Teneras 52 49 0.1731

Pisiferas 26 27 0.0385

Total 104 104 0.3654

 

X2c = 0.365 y  Gl = 2

Los grados de libertad (Gl) se obtienen restándole 1 al número de categorías.

Haciendo uso de la tabla de probabilidades de x2 y con los grados de libertad obtenidos, se determina el valor crítico al nivel de significancia deseado. En este caso para Gl = 2 y para un nivel de 0.05 P se obtiene x2 = 5.991.

Como x2c < x2t entonces se acepta la hipótesis planteada y se concluye que los datos corresponden a una proporción de 1:2:1.

Otro ejemplo:

Supongamos que en una escuela las estadísticas de años pasados muestran que, la comisión de admisión tiende a aceptar 4 alumnos por 1 que se rechaza. Y en el presente año una comisión constituida por un grupo diferentes de personas, aceptó 275 y rechazó 60. ¿Se puede decir que esta nueva comisión difiere de manera significativa con la razón de rechazo de laanterior comisión?Corresponde en este caso calcular c 2 para esta razón de rechazo comparada con la tradicional. De manera que tratándose de 330 casos en total, si la comisión anterior hubiera actuado se esperaría que aceptaran 264 alumnos y rechazaran 66. Así pues tomamos estos números (razón 4:1) como las frecuencias esperadas en cada caso.Aceptado Rechazados TotalFrecuencia observada (fo) 275 55 330Frecuencia esperada (fe) 264 66 330( fe - fo ) = 11 -11( fe - fo )2 = 121 121( fe - fo )2/ fe = 121/ 264 121/66( fe - fo )2/ fe = 0.4589 1.83c 2 = 0.4589 + 1.83 = 2.29Al comparar el valor c 2 obtenido con el valor crítico de un grado de libertad y .05 de significatividad a dos colas vemos que el valor crítico (3.841) es mayor que el observado por lo que no se puede desacreditar la hipótesis

Page 18: ESTRUCTURA DE ESTADISTICA

nula y se concluye que la nueva comisión no muestra una política diferente a la de la comisión anterior.