Estadistica no parametrica
Transcript of Estadistica no parametrica
1 Estadística aplicada a la Educación Científica.
“Año de la Promoción de la Industria Responsable y Compromiso Climático”
UNIVERSIDAD NACIONAL DE EDUCACION
ENRIQUE GUZMAN Y VALLE
ESCUELA DE POSTGRADO
ESTADÍSTICA APLICADA A LA EDUCACIÓN CIENTÍFICA
TEMA:
ESTADÍSTICA PARAMÉTRICA Y NO PARAMÉTRICA
DOCENTE:
Dr. NARCISO FERNANDEZ SAUCEDO
MAESTRISTAS:
Freddy TARAZONA SANCHEZ.
Martha GALINDO QUISPE.
Alfredo Henry MANRIQUE ARIAS.
Henry Edwin PONCE REYES.
2014
2 Estadística aplicada a la Educación Científica.
A Dios por permitirnos ser cada día mejores.
3 Estadística aplicada a la Educación Científica.
INDICE
Índice General. 3
Introducción 4
CAPÍTULO I: Estadística No paramétrica
1.1 ¿Qué es la estadística no paramétrica? 5
1.2 Ventajas y desventajas de la estadística no paramétrica. 5
1.3 Las principales pruebas no paramétricas 6
CAPÍTULO II: Herramientas de la estadística No paramétrica
2.1 Prueba χ² de Pearson 7
2.2 Contraste de los signos e intervalos de confianza 8
2.3 Prueba de rangos asignados de Wilcoxon 9
2.4 Prueba de Mann – Whitney. 10
2.5 Coeficiente de correlación de Spearman 12
2.6 Prueba exacta de Fisher 13
2.7 Prueba de la mediana 13
2.8 Prueba de Kruskal-Wallis 14
2.9 Prueba de Anderson-Darling 14
2.10 Prueba de Cohen kappa 15
2.11 Prueba de Friedman 16
2.12 Prueba de Cochran 17
2.13 Prueba de Kendall 17
2.14 Prueba de Kolmogórov-Smirnov 18
2.15 Prueba de Siegel-Tukey 19
Conclusiones 21
Glosario 22
Simbología 23
Bibliografía 24
Web grafía 24
4 Estadística aplicada a la Educación Científica.
INTRODUCCIÓN
La Estadística Inferencial se divide principalmente en:
Las técnicas paramétricas y las no paramétricas. Las primeras se basan en suposiciones
específicas acerca de la población de la que se desea hacer algún tipo de inferencia,
mientras que en cambio las técnicas no paramétricas hacen supuestos muy generales
respecto a la distribución poblacional de la que se desea hacer inferencias. Son supuestos
generales por ejemplo la simetría o continuidad de la distribución. Tradicionalmente lo que
separa ambas técnicas estadísticas es el supuesto de que la población de la que se toman
los datos sigue una distribución normal.
Durante mucho tiempo los estadísticos han preferido las técnicas paramétricas o han
optado por diversas transformaciones a fin de poder aplicarlas, dejando como recurso
final a las pruebas no paramétricas cuando no se ha podido encontrar evidencia
estadística de que la población sigue una distribución normal. Por otro lado Hollander M.,
Wolfe D. (1973) recalcan la falta de robustez de las pruebas paramétricas frente al
supuesto de normalidad en la mayoría de los casos. Indican además que los supuestos de
donde se parte para el desarrollo teórico de dichas técnicas son “fuertes”, es decir difíciles
de suponer sin pruebas de hipótesis apropiadas, mientras que las pruebas no
paramétricas permiten soluciones “elegantes” donde los supuestos son más sencillos de
cumplir que los propuestos por las técnicas paramétricas.
En esta monografía nos centraremos en el desarrollo de la estadística NO paramétrica,
5 Estadística aplicada a la Educación Científica.
CAPITULO I
LA ESTADÍSTICA NO PARAMÉTRICA
1.1. ¿QUÉ ES LA ESTADÍSTICA NO PARAMÉTRICA?
La estadística no paramétrica es una rama de la estadística que estudia las pruebas
y modelos estadísticos cuya distribución subyacente no se ajusta a los llamados
criterios paramétricos. Su distribución no puede ser definida a priori, pues son los
datos observados los que la determinan. La utilización de estos métodos se hace
recomendable cuando no se puede asumir que los datos se ajusten a una
distribución conocida, cuando el nivel de medida empleado no sea, como mínimo,
de intervalo.
Una estadística no paramétrica está basada en un modelo que especifica solo
condiciones muy generales y ninguna acerca de la forma específica de la
distribución de la cual fue obtenida la muestra.
Los procedimientos no paramétricos permiten probar diferentes hipótesis acerca de
la población, precisamente donde los procedimientos paramétricos no actúan.
1.2. VENTAJAS Y DESVENTAJAS DE LA ESTADISTICA NO PARAMÉTRICA:
1.2.1. Ventajas de la Estadística No Paramétrica:
Si el tamaño de la muestra es muy pequeño, puede no haber otra
opción que usar una prueba no paramétrica, a menos que la naturaleza
de la distribución de la población se conozca con exactitud.
Las pruebas no paramétricas típicamente hacen menos suposiciones
acerca de los datos y pueden ser más relevantes a una situación
particular.
Los métodos no paramétricos están disponibles para tratar datos que
son simplemente clasificatorios, es decir medidos en escala nominal.
Existen pruebas no paramétricas que son adecuadas para tratar
muestras obtenidas en observaciones de diferentes poblaciones.
La interpretación de una prueba no paramétrica suele ser más directa
que la interpretación de las pruebas paramétricas.
6 Estadística aplicada a la Educación Científica.
1.2.2. Desventajas de la Estadística No Paramétrica:
Las estadísticas no paramétricas No son sistemáticas.
Las estadísticas no paramétricas se relaciona con la conveniencia, por
lo que en ocasiones puede ser un problema elegir la adecuada.
1.3. LAS PRINCIPALES PRUEBAS NO PARAMÉTRICAS:
Prueba χ² de Pearson
Contraste de los signos e intervalos de confianza
Prueba de rangos asignados de Wilcoxon
Prueba de Mann – Whitney.
Coeficiente de correlación de Spearman
Prueba exacta de Fisher
Prueba de la mediana
Prueba de Kruskal-Wallis
Prueba de Anderson-Darling
Prueba de Cohen kappa
Prueba de Friedman
Prueba de Cochran
Prueba de Kendall
Prueba de Kolmogórov-Smirnov
Prueba de Siegel-Tukey
Prueba binomial
Prueba de Kuiper
Prueba de cambio de McNemar
Tablas de contingencia
Prueba de Wald-Wolfowitz
En la Estadística no Paramétrica se utiliza a partir de escalas nominales u ordinales
con variables cualitativas, o bien, cuando no se cumple alguno de los tres supuestos
anteriores.
7 Estadística aplicada a la Educación Científica.
CAPITULO II
HERRAMIENTAS DE LA ESTADÍSTICA NO
PARAMÉTRICA
2.1. Prueba X2 de Pearson:1
La prueba X2 de Pearson es considerada como una prueba no paramétrica que
mide la discrepancia entre una distribución observada y otra teórica (bondad de
ajuste), indicando en qué medida las diferencias existentes entre ambas, de
haberlas, se deben al azar en el contraste de hipótesis. También se utiliza para
probar la independencia de dos variables entre sí, mediante la presentación de los
datos en tablas de contingencia.
2.1.1. Bondad de ajuste:
Permite comprobar si la distribución empírica de una variable cualitativa se
ajusta a una distribución teórica.
Es una extensión del contraste sobre una proporción para el caso de que la
variable tenga más de dos categorías.
La fórmula que da el estadístico es la siguiente:
2
2
1
Ii i
i i
observada teoricaX
teorica
La zona crítica: 2 2
1I kX
Se rechaza Ho si 2 2
1I kX
En caso de rechazar Ho, puede investigarse la causa calculando los
errores:
i i ie observado teorico
o el error tipificado: i
i ie
i
observado teoricoZ
teorico
2.1.2. Independencia e igualdad de proporciones:
Se utiliza para evaluar si existe relación entre dos variables cualitativas.
1 https://www.uam.es/personal_pdi/psicologia/cadalso/Docencia/ADII/Materiales/esquema_tema_6.pdf
8 Estadística aplicada a la Educación Científica.
Si la distribución de una variable es igual en todos los grupos de la otra.
Se comprueba si la distribución conjunta de ambas variables se ajusta a lo
esperado bajo la hipótesis de independencia.
Las hipótesis son:
Ho : las variables son independientes.
H1 : las variables están relacionadas.
En este caso la zona crítica para la toma de decisión es:
2 2
1 1I JX
2.2. Contraste de los signos e intervalos de confianza:
El contraste no paramétrico más sencillo de realizar es el contraste de signos. Se utiliza principalmente para contrastar hipótesis sobre la posición central (mediana) de una distribución poblacional o para analizar datos de muestras pareadas. El contraste de signos se emplea en los estudios de mercado para averiguar si los consumidores prefieren uno de dos productos. Dado que los encuestados manifiestan simplemente su preferencia, los datos son nominales y se prestan a métodos no paramétricos.
2.2.1. Contraste de signos de muestras pareadas:
Cuando se toman muestras pareadas de una población y se descartan las
diferencias iguales a 0, por lo que quedan “n” observaciones. El contraste
de signos puede utilizarse para contrastar la hipótesis nula de que la
mediana poblacional de las diferencias es 0. Sea + una diferencia positiva y
– una diferencia negativa. Si la hipótesis nula fuera verdadera, nuestra
secuencia de diferencias + y – podría concebirse como una muestra
aleatoria extraída de una población en la que las probabilidades de + y –
fueran cada una de 0,5. En ese caso, las observaciones constituirían una
muestra aleatoria extraída de una población binomial en la que la
probabilidad de + sería de 0,5. Por lo tanto, si P representa la verdadera
proporción de + que hay en la población (es decir, la verdadera proporción
de diferencias positivas), la hipótesis nula es simplemente
0 : 0,5H P
Donde P es la proporción de observaciones no nulas en la población que
son positivas.
9 Estadística aplicada a la Educación Científica.
2.2.2. Aproximación normal:
Puede utilizarse la distribución normal como aproximación de la distribución
binomial si el tamaño de la muestra es grande. Los expertos discrepan
sobre la definición exacta de “grande”. Sugerimos que la aproximación
normal es aceptable si el tamaño de la muestra es de más de 20. Un factor
de corrección de continuidad del estadístico del contraste compensa la
estimación de datos discretos con una distribución continua y permite
aproximarse más al p-valor.
El contraste de signos de grandes muestras se basa en la aproximación
normal de la media y desviación típica:
Media: nP Desviación típica: 1nP P
El estadístico de contraste es:
* *S S PnZ
P n
2.3. Prueba de Wilcoxon basado en la ordenación de las diferencias:
Uno de los inconvenientes del contraste de signos es que solo tiene en cuenta una
cantidad muy reducida de información, a saber, los signos de las diferencias.
Cuando el tamaño de la muestra es pequeño, es de esperar, pues, que el
contraste no sea muy poderoso. El contraste de Wilcoxon basado en la ordenación
de las diferencias es un método para incorporar información sobre la magnitud de
las diferencias entre pares enlazados. Sigue siendo un contraste que no depende
de la distribución. Al igual que muchos contrastes no paramétricos, se basa en las
ordenaciones.
La prueba de Wilcoxon puede emplearse cuando se dispone de una muestra
aleatoria de pares enlazados. Si la distribución poblacional de las diferencias en
estas muestras pareadas es simétrica y que queremos contrastar la hipótesis nula
de que esta distribución está centrado en 0. Descartando los pares entre los que la
diferencia es 0, ordenamos las n diferencias absolutas restantes en sentido
ascendente; en caso de empate, el puesto asignado es la media de los puestos
que ocupan en la ordenación. Se calculan las sumas de los puestos
correspondientes a las diferencias positivas y negativas y la menor de estas sumas
es el estadístico de Wilcoxon, T, es decir,
min ,T T T
10 Estadística aplicada a la Educación Científica.
Donde:
T = suma de los puestos correspondientes a diferencias positivas.
T = suma de los puestos correspondientes a diferencias negativas.
Se rechaza la hipótesis nula si T es menor o igual que el valor de la tabla.
En la hipótesis nula de que las diferencias poblacionales están centradas en 0, el
contraste de Wilcoxon tiene una media y una varianza que vienen dadas por:
1
4T
n nE T
2 1 2 1
24T
n n nVar T
Y cuando el tamaño de la muestra, es grande, la distribución de la variable
aleatoria,
Z, es aproximadamente normal estándar donde:
T
T
TZ
2.4. Prueba de Mann – Whitney:2
Se presenta cuando se toman muestras aleatorias independientes de las dos
poblaciones, el contraste U de Mann-Whitney. La distribución del estadístico de
Mann-Whitney, U, se aproxima a la distribución normal a un ritmo bastante rápido
a medida que aumenta el número de observaciones muestrales. La aproximación
es adecuada si cada muestra contiene al menos 10 observaciones. Por lo tanto,
solo consideraremos aquí las muestras en las que 1 210 10n y n . Para
contrastar la hipótesis nula de que la posición central de las dos distribuciones
poblacionales es igual, suponemos que, aparte de la existencia de cualquier
posible diferencia entre las posiciones centrales, las dos distribuciones
poblacionales son idénticas.
2.4.1. Supongamos que, aparte de la existencia de posibles diferencias entre las
posiciones centrales, las dos distribuciones poblacionales son idénticas.
2 Estadística para administradores y economía. Capítulo 15.
11 Estadística aplicada a la Educación Científica.
Supongamos que se dispone de 1n observaciones de la primera población y
2n observaciones de la segunda. Se juntan las dos muestras y se ordenan
las observaciones en sentido ascendente, asignando, en caso de empate, la
media de los puestos correspondientes. Sea 1R la suma de los puestos de
las observaciones de la primera población. En ese caso, el estadístico U de
Mann-Whitney se define de la forma siguiente:
1 1
1 2 1
1
2
n nU n n R
2.4.2. Contraste U de Mann-Whitney: aproximación normal.
Suponiendo como hipótesis nula que las posiciones centrales de las dos
distribuciones poblacionales son iguales, el estadístico U de Mann-Whitney
tiene la media y la varianza siguientes:
1 2
2U
n nE U
2 1 2 1 2 1
12U
n n n nVar U
Cuando las muestras son de gran tamaño (ambas son como mínimo de 10),
la distribución normal es una buena aproximación de la distribución de la
variable aleatoria:
U
U
UZ
2.4.3. Reglas de decisión del contraste U de Mann-Whitney.
Se supone que las dos distribuciones poblacionales son idénticas, aparte de
las diferencias que puedan existir entre sus posiciones centrales. Para
contrastar la hipótesis nula de que las dos distribuciones poblacionales
tienen la misma posición central, las reglas de decisión para un nivel de
significación dado son las siguientes:
Si la hipótesis alternativa es la hipótesis de la cola superior unilateral, la
regla de decisión es:
0Re U
U
Uchazar H si z
Si la hipótesis alternativa es la hipótesis de la cola inferior unilateral, la regla
de decisión es:
0Re U
U
Uchazar H si z
12 Estadística aplicada a la Educación Científica.
2.5. Correlación de orden de Sperman:
El coeficiente de correlación muestral puede verse seriamente afectado por las
observaciones extremas. Además, los contrastes basados en él recurren para su
validez al supuesto de la normalidad. Puede obtenerse una medida de la
correlación en la que no influyen seriamente los valores extremos y en la que
pueden basarse contrastes validos de distribuciones poblacionales muy generales
utilizando los puestos en ordenaciones. El contraste resultante será en ese caso
no paramétrico.
Supongamos que se toma una muestra aleatoria 1 1, ,..., ,n nx y x y de n pares
de observaciones. Si las ix y las
jy se ordenan en sentido ascendente y se
calcula la correlación muestral de estos puestos, el coeficiente resultante se llama
coeficiente de correlación de orden de Spearman. Si no hay empates, una formula
equivalente para calcular este coeficiente es:
2
1
2
6
11
n
i
is
d
rn n
Donde las id son las diferencias entre los puestos de los miembros de los
distintos pares. Los siguientes contrastes de la hipótesis nula Ho de que no existe
ninguna relación en la población tienen un nivel de significación .
Para contrastar la hipótesis nula de que no existe ninguna relación frente a la
hipótesis alternativa de que existe una relación positiva, la regia de decisión es:
0 ,Re s schazar H si r r
Para contrastar la hipótesis nula de que no existe ninguna relación frente a la
hipótesis alternativa de que existe una relación negativa, la regia de decisión es:
0 ,Re s schazar H si r r
13 Estadística aplicada a la Educación Científica.
2.6. Prueba exacta de Fisher para tablas de 2 x 2.
La prueba de la probabilidad exacta de Fisher para tablas de 2 x 2 es una técnica
extremadamente satisfactoria para analizar datos discretos (tanto nominales como
ordinales) cuando dos muestras independientes son pequeñas.
Se usa cuando las observaciones de dos muestras independientes al azar caen
dentro de dos clases mutuamente excluyentes; las cuales son representadas por
frecuencias en una tabla de 2 x 2.
Los encabezados de los renglones, pueden tener cualquiera de dos
clasificaciones: por arriba y por debajo de la media, acertaron y erraron, ciencias
mayores y artes mayores, acuerdos y desacuerdos, etc.
La prueba determina si los dos grupos difieren en las proporciones en donde caen
dentro de cualquiera de las clasificaciones.
2.7. Prueba de la mediana:
Es un procedimiento para evaluar si dos grupos independientes difieren en sus
tendencias culturales. Más precisamente, esta prueba nos proporciona información
acerca de que tan probable es que dos grupos independientes (no necesariamente
del mismo tamaño) hayan sido extraídos de la misma población con la misma
mediana. La hipótesis nula plantea que los dos grupos son la misma población y
tienen la misma mediana; la hipótesis alterna puede plantear que la mediana de
una población es diferente de la otra población, o que la mediana de una población
es superios que la otra población.
La prueba puede utilizarse cuando las puntuaciones de los dos grupos se miden,
al menos, en una escala ordinal.
Se podrá observar que no puede existir una prueba alterna a la prueba de la
mediana, aún para datos en escala de intervalo. Esto podría ocurrir cuando una o
más de las observaciones están “fuera de la escala” y truncadas hacia el máximo o
el mínimo de las observaciones asignadas.
Esta prueba está especialmente indicada cuando los datos sean extremos o estén
sesgados.
14 Estadística aplicada a la Educación Científica.
2.8. Prueba de Kruskal – Wallis:
El análisis de la varianza unifactorial por rangos. De Kruskal – Wallis, es una
prueba extremadamente útil para decidir si k muestras independientes provienen
de diferentes poblaciones. Los valores de la muestra invariablemente difieren de
alguna manera, y la pregunta es si la diferencia entre las muestras significan
diferencias genuinas en la población o si solo representan la clase de variaciones
que pueden esperarse en muestras que se obtiene al azar de la misma población.
La técnica Kruskal – Wallis prueba la hipótesis nula de que las k muestras
provienen de la misma población o de poblaciones idénticas con la misma
mediana. Para especificar explícitamente las hipótesis nula y alterna, j debe ser
la mediana de la población para el j-esimo grupo o muestra. Entonces podemos
escribir la hipotesis nula de que las medianas son las mismas como
0 1 2: .... kH y la hipótesis alterna como 1 : i jH para algunos
grupos i y j.
Si la hipótesis alterna es verdadera, al menos un par de grupos tienen medianas
diferentes. Según la hipótesis nula, la prueba supone que las variables en estudio
tienen la misma distribución subyacente; además, requiere que las mediciones de
la variable se encuentres, al menos, en escala nominal.
El estadístico de prueba es:
2
1
123 1
1
kj
j j
RH n
n n n
2.9. La prueba de Anderson-Darling
Es una prueba estadística que permite determinar si una muestra de datos se
extrae de una distribución de probabilidad. En su forma básica, la prueba asume
que no existen parámetros a estimar en la distribución que se está probando, en
cuyo caso la prueba y su conjunto de valores críticos siguen una distribución libre.
Sin embargo, la prueba se utiliza con mayor frecuencia en contextos en los que se
está probando una familia de distribuciones, en cuyo caso deben ser estimados los
parámetros de esa familia y debe tenerse estos en cuenta a la hora de ajustar la
prueba estadística y sus valores críticos. Cuando se aplica para probar si una
15 Estadística aplicada a la Educación Científica.
distribución normal describe adecuadamente un conjunto de datos, es una de las
herramientas estadísticas más potentes para la detección de la mayoría de las
desviaciones de la normalidad.
2.10. El Coeficiente kappa de Cohen:3
Es una medida de concordancia propuesta por Cohen en 1960, que se basa en
comparar la concordancia observada en un conjunto de datos, respecto a la que
podría ocurrir por mero azar. Es útil para todas las tablas, pero tiene algunas
peculiaridades cuando se aplica a tablas de 2 x 2. Para el caso de más de dos
evaluadores, clasificaciones, métodos, etc., Fleiss generalizó el método de Cohen,
por lo que a veces se conoce también como Kappa de Fleiss.
Está claro que una medida simple de concordancia, sería la proporción de
coincidencias frente al total de sujetos. En la tabla de 2 x 2, y con la nomenclatura
que habitualmente utilizamos sería a d
n
. No obstante, aunque no hubiera
ninguna relación entre los dos métodos de clasificación o evaluación o entre los
observadores, o entre las dos escalas de evaluación, podría haber algún grado de
coincidencia por mero azar. Si empleáramos una moneda para clasificar una
población asignándole una situación según salga cara o cruz, y volvemos a
evaluarlo mediante el lanzamiento de otra moneda, lo más probable es que haya
aproximadamente un 50% de coincidencias. Si se quiere eliminar ese sesgo, hay
que eliminar de alguna forma la concordancia esperada por azar.
Si denominamos Co a la proporción de la concordancia observada (en tanto por
uno), y Ca, a la proporción de concordancia que se esperaría por mero azar, K
sería igual a:
1
Co CaK
Ca
Si K es cero, ello significa que la concordancia observada coincide con la que
ocurriría por puro azar. Valores positivos señalan mayor concordancia que la que
3 http://www.samiuc.es/index.php/estadisticas-con-variables-binarias/medidas-de-concordancia/kappa-
de-cohen.html
16 Estadística aplicada a la Educación Científica.
se esperaría por el puro azar. Si el resultado fuera 1, se trataría de una
concordancia perfecta. Si K toma un valor negativo, significa existencia de
discordancia, que solamente en la tabla de 2 x 2, podría llegar hasta –1, lo que
señalaría una discordancia total entre las dos clasificaciones o evaluaciones.
Con todo, hay que calcular también el intervalo de confianza en el que se mueve
K, ya que, aunque K tenga valores positivos, si el intervalo de confianza es muy
amplio, habría que reconsiderar la significación, es decir, si es suficiente para
decidir que ambas clasificaciones, observadores, etc. son similares.
Aunque siempre es una escala subjetiva, Landis y Koch propusieron unos límites
para el grado de acuerdo estimado con el resultado del cálculo de Kappa:
Otros discuten la afirmación de que kappa "tiene en cuenta" la posibilidad de
acuerdo. Para hacerlo con eficacia se requeriría un modelo explícito de cómo
afecta el azar a las decisiones de los observadores. El llamado ajuste por azar del
estadístico kappa supone que, cuando no están absolutamente seguros, los
evaluadores simplemente aventuran una respuesta (un escenario muy poco
realista)
2.11. Prueba de Friedman:4
La prueba de Friedman es la alternativa no paramétrica para el análisis de la
varianza de una vía con medidas repetidas.
Fue desarrollado por el economista Milton Friedman.
Esta prueba puede utilizarse en aquellas situaciones en las que se seleccionan n
grupos de k elementos de forma que los elementos de cada grupo sean lo más
parecidos posible entre sí, el método consiste en ordenar los datos por filas o
bloques, reemplazándolos por su respectivo orden.
Las hipótesis a plantearse son:
Ho : No existen diferencias entre los grupos.
H1 : Existen diferencias entre los grupos.
4 http://www.estadisticafi.unam.mx/point/11.pdf
17 Estadística aplicada a la Educación Científica.
Para resolver el contraste de hipótesis anterior, Friedman propuso un estadístico
que distribuye como una Chi-cuadrado con K – 1 grados de libertad, siendo K el
número de variables relacionadas; se calcula mediante la siguiente expresión.
El estadístico de prueba es:
2 212
3 11
rX Rc H KHK K
Donde:
2
rX Estadístico calculado del análisis de varianza por rangos de Friedman.
H = representa el número de elementos o bloques.
K = el número de variables relacionadas.
2Rc = es la suma de rangos por columnas al cuadrado.
2.12. Prueba de Cochran:5
Es una prueba no paramétrica de comparación de proporciones para tres o más
muestras relacionadas, debe cumplir las siguientes características:
a) Los datos se ajustan a la distribución de chi cuadrada
b) Nivel nominal de la variable dependiente
Su función es comparar el cambio en la distribución de proporciones entre más de
dos mediciones de una variable dicotómica y determinar que la diferencia no se
deba al azar (que las diferencia sea estadísticamente significativa).
2.13. Prueba de Kendall:
En lugar de comparar los rangos, solo se calcula si una coordenada es mayor que
la otra.
El coeficiente tau de Kendall es:
2
1
C DN N
N N
; 1 1
5 http://www.let.rug.nl/nerbonne/teach/rema-stats-meth-seminar/presentations/Vonk-Cochrans-Q-
2011-June-7.pdf
18 Estadística aplicada a la Educación Científica.
En caso de empates se usa:
2
1 1
C D
X Y
N N
N N T N N T
Las Hipótesis pueden ser:
Ho : No hay correlación entre las variables.
H1 : Hay correlación entre las variables.
Ho se acepta si : /2,NC
tiende rápidamente a una distribución normal con: (N > 10)
0
4 10
9 1
N
N N
3 1
4 10
N Nz
N
El coeficiente de Kendall indica la diferencia de la probabilidad de que las dos
variables estén en el mismo orden menos la probabilidad de que estén en un
orden diferente.
2.14. Prueba de Kolmogórov – Smirnov:6
En esta prueba se usan como hipótesis de contraste a los siguientes:
Ho : Los datos analizados siguen una distribución M.
H1 : Los datos analizados no siguen una distribución M.
El estadístico de contraste es:
01
sup n i ii n
D F x F x
Donde:
ix es el i-esimo valor observado en la muestra (cuyos valores se han ordenado
previamente de menor a mayor).
n iF x es un estimador de probabilidad de observar valores menores o iguales
que ix .
0 iF x es la probabilidad de observar valores menores o iguales que ix cuando
Ho es cierta. 6
http://www2.ulpgc.es/hege/almacen/download/5/5015/Complemento_3_Prueba_de_Bondad_de_Ajuste_de_Kolmogorov_Smirnov.pdf
19 Estadística aplicada a la Educación Científica.
De esa manera, D es la mayor diferencia absoluta observada entre la frecuencia
acumulada observada n iF x y la frecuencia acumulada teórica 0 iF x ,
obtenida a partir de la distribución de probabilidad que se especifica como
hipótesis nula.
Cuanto mayor sea la discrepancia entre la distribución empírica n iF x y la
distribución teórica, mayor será el valor de D.
Por lo tanto, el criterio para la toma de decisiones entre las dos hipótesis será de la
forma:
0Si D D Aceptar H
0ReSi D D chazar H
Donde D se elige de tal manera que:
0 0Re /
/
P chazar H H es cierta
P D D los datos siguen la distribución M
Siendo el nivel de significación del contraste.
2.15. Prueba de Siegel-Tukey:7
El procedimiento de Mann-Whitney fue adaptado por S. Siegel y J. Tukey puede
adaptarse para contrastar si dos muestras independientes han sido extraídas de
poblaciones con igual varianza, frente a la hipótesis alternativa de que han sido
extraídas de poblaciones con varianzas diferentes. Para ello, una vez ordenados
todos los elementos de ambas muestras, combinados, se asignan rangos
comenzando desde el menor y el mayor, hacia el centro: al menor valor se le
asocia el rango 1; al valor más elevado y al que le precede se asignan los rangos 2
y 3 ; al segundo y tercer valores más bajos se asignan los rangos 4 y 5, y así
sucesivamente. Si el número total de observaciones en ambas muestras es par,
una de ellas se quedará sin rango. Las expresiones anteriores se utilizan para
7 https://www.ucm.es/data/cont/docs/518-2013-11-13-noparam.pdf
20 Estadística aplicada a la Educación Científica.
calcular el estadístico Rm, que es la suma de rangos de la muestra de menor
tamaño. La interpretación del contraste estriba en que si una de las dos muestras
procede de una población con mayor dispersión, recibirá los rangos menores,
mientras que la que procede de una muestra de menor variabilidad recibirá los
rangos mayores. Puede apreciarse que el contraste tiene interés cuando
condicionamos en que ambas distribuciones tienen una media de posición central
similar.
El estadístico mR puede aproximarse, para
1 2 20n n , por una distribución
Normal:
1 21 1;
2 2
m
m
n n n n nR N
Donde: 1 2 1 2min , ,mn n n y n n n
21 Estadística aplicada a la Educación Científica.
CONCLUSIONES
Cumpliendo el supuesto de normalidad, para tamaños de muestra pequeños, la
longitud del intervalo de confianza para el valor plausible correspondiente a la prueba
no paramétrica (Prueba de Wilcoxon) es menor que el correspondiente a las
paramétricas (Prueba Z y t). A medida que el tamaño de muestra crece tenemos que
los intervalos de confianza del valor plausible de ambas pruebas llegan a tener
longitudes que no difieren significativamente. El número de aceptaciones de la
hipótesis nula entre las pruebas paramétricas y no paramétricas tampoco difiere
significativamente. Las pruebas paramétricas fueron más potentes que las no
paramétricas. La varianza de la media aritmética para poblaciones normales fue menor
que la de la mediana muestral para todos los casos, ya sean estos al variar el
parámetro σ2 o al variar el tamaño de la muestra. A medida que se aumenta el tamaño
de muestra y el valor del parámetro σ2, el valor de la mediana muestral se acerca
mucho más al valor real de la media poblacional que el valor correspondiente a la
media aritmética en el mismo caso.
Para dos muestras cumpliéndose el supuesto de normalidad si las varianzas de ambas
distribuciones son iguales y las muestras difieren mucho en tamaño, se tiene que las
conclusiones son muy similares para las pruebas paramétricas y no paramétricas. El
valor plausible correspondiente a la prueba paramétrica (prueba t para dos muestras)
es mucho mayor que el de su equivalente no paramétrico (prueba de Mann-Withney) y
sus intervalos de confianza son también de mayor longitud, aunque no
significativamente.
22 Estadística aplicada a la Educación Científica.
GLOSARIO
CONCEPTOS BÁSICOS
Población: Todo el conjunto de elementos, finito o infinito, que tiene una o varias
características que satisfacen el objeto de estudio de una investigación.
Censo: Está directamente relacionado con la población. Es un listado de los elementos
que componen una población.
Muestra: Es cualquier subconjunto de una población y, para que sea válida, ha de ser
representativa de la población porque se va a trabajar con ella y las conclusiones se
van a extrapolar a la población. Ej. 300 alumnos de la Universidad de Enrique Guzmán
y Valle.
Parámetro: Es cualquier función definida a partir de los valores numéricos de una
población. Se representan con letras griegas.
μ = media
σ = desviación típica
Estadístico: Es cualquier función calculada sobre los valores numéricos de una
muestra (media, moda, mediana, varianza...). Todos ellos permiten describir en forma
simplificada al conjunto de datos obtenidos en la muestra.
X , M = media
S, DT = desviación típica
En definitiva, lo que en la investigación interesa es describir las poblaciones.
Pero debido a que suelen ser muy grandes y su conocimiento es costoso, la
Estadística Inferencial se encarga de estimar los parámetros a partir de los
correspondientes estadísticos.
Tabular: Es clasificar la información de forma resumida mediante una tabla.
Tabla: Conjunto de clases o modalidades
23 Estadística aplicada a la Educación Científica.
Clase: Agrupaciones de distintos elementos que siguen un criterio (exhaustivas,
excluyentes, definidas).
Frecuencia absoluta (F): número de observaciones que aparece en cada clase o
modalidad.
Frecuencia relativa (Fr ): es igual al cociente entre las frecuencias absolutas y el
número total de datos.
Porcentajes: columnas de las frecuencias relativas multiplicadas por 100. Tiene la
misma función que las frecuencias relativas. % = Fr * 100
Frecuencia acumulada (Fa): Indica el número de casos comprendidos en un
intervalo o por debajo del mismo. La frecuencia acumulada no se puede conocer en
variables cualitativas en escala nominal.
SIMBOLOGÍA
μ Media poblacional
x Media aritmética muestral
μ ~ Mediana poblacional
x~ Mediana muestral
σ2 Varianza poblacional
σ Desviación estándar de la población
H0 Hipótesis Nula
H1 Hipótesis Alterna
ρij Coeficiente de correlación entre la variable Xi y la variable Xj
β0, β1 Parámetros del modelo de regresión lineal simple
T+, T- Estadísticos de Wilcoxon
U1, U2 Estadísticos de Mann-Whitney
W1, W2 Estadísticos de Ansari-Bradley
24 Estadística aplicada a la Educación Científica.
BIBLIOGRAFIA
Introducción a la estadística descriptiva - Esther Chiner
"Técnicas Estadísticas Paramétricas y No Paramétricas Equivalentes: Resultados” Comparativos por Simulación- Muman Andrés Rojas Dávila-Escuela Superior Politécnica del Litoral-Ecuador.2003.
WEB GRAFIA
http://www.iuma.ulpgc.es/~nunez/mastertecnologiastelecomunicacion/RecursosGenerale
s/TesisEstadisticaParametricayNoPara "Técnicas Estadísticas Paramétricas y No
Paramétricas Equivalentes: Resultados Comparativos” Por Simulación"
http://scientific-european-federation-osteopaths.org/es/prueba-estadisticas“Las pruebas
estadísticas”
http://es.wikipedia.org/wiki/Par%C3%A1metro_estad%C3%ADstico#Principales_par.C3.A
1metros parámetros
https://www.ucm.es/data/cont/docs/518-2013-11-13-noparam.pdf
http://www2.ulpgc.es/hege/almacen/download/5/5015/Complemento_3_Prueba_de_Bondad_de_Ajuste_de_Kolmogorov_Smirnov.pdf
http://www.let.rug.nl/nerbonne/teach/rema-stats-meth-seminar/presentations/Vonk-
Cochrans-Q-2011-June-7.pdf
http://www.estadisticafi.unam.mx/point/11.pdf
http://www.samiuc.es/index.php/estadisticas-con-variables-binarias/medidas-de-
concordancia/kappa-de-cohen.html
https://www.uam.es/personal_pdi/psicologia/cadalso/Docencia/ADII/Materiales/esquema_t
ema_6.pdf