Estimaci on de modelos de estructura de covarianza ...

101
Estimaci´ on de modelos de estructura de covarianza mediante algoritmos gen´ eticos Leidy Laura Arboleda Quintero Universidad Nacional de Colombia Escuela de Estad´ ıstica Medell´ ın, Colombia 2017

Transcript of Estimaci on de modelos de estructura de covarianza ...

Page 1: Estimaci on de modelos de estructura de covarianza ...

Estimacion de modelos de estructurade covarianza mediante algoritmos

geneticos

Leidy Laura Arboleda Quintero

Universidad Nacional de ColombiaEscuela de Estadıstica

Medellın, Colombia2017

Page 2: Estimaci on de modelos de estructura de covarianza ...

Estimacion de modelos de estructurade covarianza mediante algoritmos

geneticos

Leidy Laura Arboleda Quintero

Tesis de grado presentado como requisito para optar al tıtulo de:Magister en Estadıstica

Director:Ph.D. Juan Carlos Correa Morales

Universidad Nacional de ColombiaEscuela de Estadıstica

Medellın, Colombia2017

Page 3: Estimaci on de modelos de estructura de covarianza ...

”La estadıstica es el unico tribunal de apelacionpara juzgar el nuevo conocimiento.”

P. C. Mahalanobis

A mi esposo y mis padres

Page 4: Estimaci on de modelos de estructura de covarianza ...

Agradecimientos

Agradezco a Dios por darme la fortaleza y guiar mis pasos durante esta investigacion, faci-litando el camino y sobre todo por haberme inspirado.

A la universidad, por brindarme las herramientas necesarias para alzar mis metas y dar-me el impulso para ampliar mis horizontes academicos.

A mi tutor Juan Carlos Correa por sus consejos y guıa durante el proceso de formacione investigacion, gracias a su acompanamiento he logrado alcanzar un peldano mas en micarrera.

A mis padres, que siempre han estado presentes para brindarme apoyo de una u otra manera,en los buenos y malos momentos. Los quiero con todo mi corazon.

A mi esposo Walter Dıaz por ayudarme a solucionar cada uno de los problemas que se presen-taron en el camino, por su companıa durante las largas jornadas de trabajo en mi tesis, porsus consejos, su estoica paciencia, su apoyo incondicional y por impulsarme a seguir adelante.

A todas las personas que directa o indirectamente me han brindado su ayuda durante elproceso academico e investigativo que esta plasmado en este documento.

Page 5: Estimaci on de modelos de estructura de covarianza ...

5

Resumen

El estudio de constructos o conceptos que denotan un comportamiento social como la cali-dad de vida, la inteligencia, entre otros, se ha convertido en la base para la construccion deacciones en pro de un mejor entendimiento y direccionamiento de una comunidad. Actual-mente existen varias opciones metodologıas que permiten abordar este tipo de estudio, segunlas caracterısticas particulares de investigacion que se tengan. Particularmente, la teorıa delos modelos de estructura de covarianza se enfoca en el analisis de las relaciones causalesentre un conjunto de variables observables y variables latentes, lo cual es de gran ayudapara disciplinas como la psicologıa y las ciencias sociales. El desarrollo de esta metodologıaha traıdo consigo la creacion de software especializados en esta materia como lo son: PROCCALIS de SAS, AMOS de IBM SPSS, Paquete SEM y Lavaan de R Project, LISREL de SSI,EQS, RAMONA, LISCOMP, SEPATH, Mx, Mplus y Tetrad. Estos, a pesar de su utilidad ypracticidad, presentan dificultades en la etapa de estimacion de los parametros del modelo;debido a que el algoritmo de optimizacion proviene de la teorıa de metodos numericos, locual tiende a producir soluciones que solo alcanzan a ser localmente optimas. Como alter-nativa, la estrategia de solucion se basa en ejecutar el algoritmo varias veces con diferentesvalores iniciales para ası verificar si las estimaciones siguen siendo las mismas cada vez o sisurgen diferencias, para luego seleccionar la mejor solucion. Esto plantea la necesidad de unasolucion mas robusta, lo que conlleva al desarrollo de este trabajo, el cual pretende emplearalgoritmos geneticos para contribuir a mejorar el problema de convergencia local en la etapade estimacion de los parametros de los modelos de estructura de covarianza, con el fin deproporcionar una estrategia que sea poco influenciable ante superficies de busqueda multi-modales y sea capaz de generar soluciones optimas globales.

Palabras clave: Modelos de estructura de covarianza, SEM, algoritmos geneticos, al-

goritmos evolutivos, algoritmo de optimizacion, maxima verosimilitud, mınimos cua-

drados generalizados.

Page 6: Estimaci on de modelos de estructura de covarianza ...

6

Abstract

The study of constructs or concepts denoting a social behavior such as life quality andintelligence, among others, has become the basis for creating actions intended for a betterunderstanding and orientation of a community. Currently there ara several methodologicaloptions which allow to approach this kind of study according to the particular research cha-racteristics. In particular, the theory of covariance structure models focuses on the analysisof causal relationships between a set of observable variables and latent variables. This is ofgreat help for disciplines such as Psychology and Social Sciences. The development of thismethodology has brought about the creation of specialized programas such as: PROC CALISfrom SAS, AMOS from IBM SPSS, SEM package and Lavaan from R Project, LISREL fromSSI, EQS, RAMONA, LISCOMP, SEPATH, Mx, Mplus and Tetrad. Althoug these programsare very useful and practical, they present difficulties in the stage of model parameter esti-mation. This happens because the optimization algorithm comes from the numeric methodtheory, which thends to produce solutions that can only be optimal locally. As an alternative,the solution strategy is based on running the algorithm several times with different initialvalues to verify if estimations are still the same or if differences arise to then select the bestsolution. This calls for a more analytical solition, which is why this work was developed. Theaim is to provide a little more robust solution by using genetic algorythms to contribute toimprove the problem of local convergence in the stage of estimation of covariance structuremodel parameters. This will provide a strategy that is not vey much influenced by multimo-dal search surfaces and which can be able to generate optimal global solutions.

Keywords: covariance structure models, SEM, genetic algorithms, evolutionary algo-

rithms, optimization algorithm, maximum likelihood, generalized least square.

Page 7: Estimaci on de modelos de estructura de covarianza ...

Indice general

Agradecimientos 4

Resumen 5

1. Sıntesis del problema 9

2. Modelos de estructura de covarianza 122.1. El analisis factorial y el analisis de componentes principales . . . . . . . . . . 12

2.1.1. Discrepancias entre el AF y el ACP . . . . . . . . . . . . . . . . . . . 132.1.2. Similitudes entre el AF y el ACP . . . . . . . . . . . . . . . . . . . . 16

2.2. Fases de construccion de los MEC . . . . . . . . . . . . . . . . . . . . . . . . 162.2.1. Planteamiento del modelo causal hipotetico . . . . . . . . . . . . . . 162.2.2. Sımbolos principales empleados en el diagrama path . . . . . . . . . . 192.2.3. Estructura matematica o especificacion del modelo . . . . . . . . . . 20

2.3. Identificacion del modelo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 252.4. Estimacion de los parametros . . . . . . . . . . . . . . . . . . . . . . . . . . 262.5. Criterios de bondad de ajuste del modelo . . . . . . . . . . . . . . . . . . . . 28

2.5.1. Criterios de ajuste del modelo global . . . . . . . . . . . . . . . . . . 302.5.2. Criterios de ajuste del modelo de medida . . . . . . . . . . . . . . . . 332.5.3. Criterios de ajuste del modelo estructural . . . . . . . . . . . . . . . 35

2.6. Reespecificacion del modelo . . . . . . . . . . . . . . . . . . . . . . . . . . . 36

3. R y los modelos de estructura de covarianza 393.1. Paquete lavaan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 393.2. Argumentos de la funcion sem() . . . . . . . . . . . . . . . . . . . . . . . . . 403.3. Notacion del modelo en la funcion sem() . . . . . . . . . . . . . . . . . . . . 403.4. Restriccion en la estimacion de los parametros . . . . . . . . . . . . . . . . . 413.5. Extraccion de informacion . . . . . . . . . . . . . . . . . . . . . . . . . . . . 423.6. Diagrama del modelo SEM en R . . . . . . . . . . . . . . . . . . . . . . . . . 433.7. Aplicacion practica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44

4. Algoritmos geneticos 494.1. Ventajas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 494.2. Desventajas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50

Page 8: Estimaci on de modelos de estructura de covarianza ...

INDICE GENERAL 8

4.3. Esquema de funcionamiento . . . . . . . . . . . . . . . . . . . . . . . . . . . 524.4. Operadores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53

4.4.1. Representacion del problema . . . . . . . . . . . . . . . . . . . . . . . 534.4.2. Poblacion inicial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 534.4.3. Funcion objetivo o de ajuste . . . . . . . . . . . . . . . . . . . . . . . 534.4.4. Operador de seleccion . . . . . . . . . . . . . . . . . . . . . . . . . . 544.4.5. Cruce . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 564.4.6. Reemplazo de la poblacion . . . . . . . . . . . . . . . . . . . . . . . . 604.4.7. Condicion de parada . . . . . . . . . . . . . . . . . . . . . . . . . . . 60

4.5. Aplicacion practica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61

5. Comparacion entre diferentes metodos de estimacion: caso aplicable 665.1. Metodologıa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66

5.1.1. Modelo propuesto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 665.1.2. Matriz de varianza covarianza del modelo propuesto . . . . . . . . . . 685.1.3. Estrategia de estimacion del modelo propuesto . . . . . . . . . . . . . 70

5.2. Analisis de resultados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 755.2.1. Estimacion vıa algoritmos geneticos . . . . . . . . . . . . . . . . . . . 755.2.2. Comparacion entre metodos de estimacion . . . . . . . . . . . . . . . 76

5.3. Conclusiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77

A. Anexo: Programa macro 81

Page 9: Estimaci on de modelos de estructura de covarianza ...

Capıtulo 1

Sıntesis del problema

Las necesidades investigativas de ciencias como la psicologıa, las ciencias sociales, etc., plan-tean el estudio y analisis de constructos abstractos o conceptos teoricos que denotan com-portamientos o actitudes, como por ejemplo: la felicidad, la calidad de vida, la inteligencia,entre otras. Estos constructos, conocidos en lenguaje investigativo como variables latentes,no son absolutos ya que su definicion es versatil y dependen en gran medida de un marcodefinido a juicio por el propio investigador. Dada esta particularidad, estas variables solopueden medirse de manera indirecta a traves de variables observables como la edad, el es-trato, el nivel de estudio, el salario, etc. Los modelos de estructura de covarianza (MEC),tambien conocidos como analisis de variables latentes, modelos LISREL (Linear StructuralRelations) y SEM (Structural Equation Models) se destacan por analizar las relaciones cau-sales, de dependencia o interdependencia, que se pueden presentar simultaneamente entreun conjunto de variables observables y latentes. Uno de los primeros trabajos al respecto fuellevado a cabo por Spearman (1904); quien utilizo esta tecnica para determinar si la inteli-gencia general subyace en el rendimiento individual de una prueba o examen (Bollen, 2014).Los modelos de estructura de covarianza agrupan dos tecnicas llamadas analisis factorialexploratorio y confirmatorio, este ultimo sera tratado en el desarrollo del documento. Enla actualidad existen varios programas informaticos especializados en dicha tecnica, como:PROC CALIS de SAS, AMOS de IBM SPSS, Paquete SEM y Lavaan de R Project, LISRELde SSI, EQS, RAMONA, LISCOMP, SEPATH, Mx, Mplus y Tetrad.

Los modelos de estructura de covarianza presentan bondades metodologicas fuertes ya queno se limitan unicamente a revelar medidas de asociacion o correlacion entre variables sinotambien las relaciones de causalidad. A su vez permite identificar y diferenciar los efectos ylos errores de medida entre las variables observables y los constructos. Por otro lado, en lateorıa de los modelos de estructura de covarianza la etapa de estimacion de los parametrosvıa maxima verosimilitud o mınimos cuadrados involucra la implementacion de un algoritmode optimizacion el cual deberıa producir la mejor solucion global, proporcionando como re-sultado, un conjunto de valores parametricos con la mayor verosimilitud. Los algoritmos deoptimizacion empleados actualmente son codificados segun los metodos iterativos de la teorıade metodos numericos como expectacion-maximizacion, expectacion-maximizacion estocas-

Page 10: Estimaci on de modelos de estructura de covarianza ...

10

tico, newton-rapson o una combinacion entre estos (Diebolt y Ip, 1996) y los metodos montecarlo de cadenas de markov (Robert, 1996). Algunos autores han identificado y expuestoalgunas desventajas frente a este tipo de codificacion. Particularmente Picon et al. (2006)mencionan que “Encontrar el optimo global resulta complicado para estos algoritmos, ya quesu estrategia es moverse siempre cuesta arriba y las posibilidades de obtener un optimo localaumentan a medida que aumenta la complejidad del modelo, esto debido al aumento en elnumero de variables latentes. Para intentar evitar en lo posible este problema, nada mejorque ejecutar el algoritmo varias veces con diferentes valores parametricos de salida, verifican-do que se consigue la misma solucion en cada vez o, si aparecen diferencias, seleccionando lamejor solucion.”

Hoy en dıa y gracias a las investigaciones academicas, se cuenta con metodologıas alter-nativas para afrontar los procesos que requieren de un modelo de optimizacion. En estesentido, los avances investigativos en materia computacional han popularizado el uso de losalgoritmos geneticos que hacen parte de los metodos empleados para resolver problemas deoptimizacion y busqueda de soluciones. Esta tecnica emula el mecanismo de evolucion de lasespecies, donde el individuo mas fuerte tiene la mayor probabilidad de sobrevivir, reprodu-cirse y transmitir su material genetico a las nuevas generaciones. Por imitacion del procesode evolucion natural de las especies, los algoritmos geneticos son capaces de hallar solucionesa problemas reales. Esta forma de actuar los convierte en un metodo robusto aplicado aproblemas para los cuales no existen tecnicas especializadas, incluso cuando estas existen,pueden aportar mejores resultados. Bajo ciertas caracterısticas, este tipo de algoritmo hademostrado ser eficiente y confiable en la resolucion de problemas de optimizacion.

Teniendo presente la falencia metodologica de los MEC y las caracterısticas de los algoritmosgeneticos en los procesos de optimizacion, se pretende desarrollar una fusion de estas dosteorıas para encontrar mejores soluciones al problema de estimacion de los parametros delmodelo ya que esta ultima tecnica es mas robusta ante la presencia de optimos locales.En otras palabras, el objetivo principal es la implementacion de un algoritmo genetico enla fase de estimacion de los parametros del modelo que complemente las tecnicas actualesempleadas en el proceso operativo de los software creados, ya sea para constituirse como unmetodo de estimacion no parametrico, en una herramienta de verificacion de los parametrosestimados por los metodos clasicos y/o como un generador de potenciales valores inicialespara los metodos tradicionales. Para determinar y evidenciar las ventajas de esta solucion;la implementacion del codigo se realizara en el software estadıstico R, donde ademas sedistinguiran vıa simulacion, los resultados obtenidos en las estimaciones bajo los diferentesmetodos (algoritmos geneticos, maxima verosimilitud, mınimos cuadrados), los criterios decomparacion para las soluciones obtenidas y la aplicacion a un caso real. El caso practicoestara apoyado en el modelo MEC presentado por Parra (1998) con la intencion de conocerpreviamente los valores estimados para cada parametro y usarlo como punto de referenciapara la comparacion entre las estimaciones obtenidas con los metodos clasicos y algoritmosgeneticos. El diagrama path usado esta construido bajo la hipotesis de relacion entre tresvariables latentes, cada una asociada a tres variables observables. La idea de combinar losalgoritmos geneticos a las tecnicas de estimacion de parametros de los modelos estadısticos hasido especialmente atractiva y estudiada, un ejemplo de ello es el artıculo publicado por Rivas

Page 11: Estimaci on de modelos de estructura de covarianza ...

11

et al. (2007) llamado: “Aplicacion de los algoritmo geneticos para estimar los parametros enun modelo de regresion de Cox”, donde se concluye que las estimaciones generadas por elalgoritmo genetico son superiores a las halladas por otros metodos.

Page 12: Estimaci on de modelos de estructura de covarianza ...

Capıtulo 2

Modelos de estructura de covarianza

Los modelos de estructura de covarianza (MEC) se consideran un analisis de tipo confir-matorio, es decir, pretenden buscar evidencia y demostrar la veracidad de ciertas relacioneshipoteticas entre variables y constructos creados a priori por el investigador, mientras queotras tecnicas como el analisis factorial y componentes principales se emplean frecuentementecomo analisis de tipo exploratorio Hatcher (1994). Los MEC presentan bondades metodolo-gicas fuertes ya que no se limitan unicamente a revelar medidas de asociacion o correlacionentre variables sino tambien las relaciones de causalidad, que a su vez permiten identificar ydiferenciar los efectos y los errores de medida entre las variables observables y los construc-tos. Sin embargo, en contra, se tiene que estos modelos pueden llegar a presentar una sobreestimacion.

Actualmente, programas como PROC CALIS de Statistical Analysis System (SAS), AMOSde IBM SPSS, Paquete SEM y Lavaan de R Project; entre muchos otros, permiten llevar ala practica esta tecnica de analisis y en general la iteracion entre el usuario y el software essencilla. Schoenberg (1989)

2.1. El analisis factorial y el analisis de componentes

principales

Como parte del conjunto de tecnicas del analisis multivariante, empleado para la investigacionde un fenomeno mediante el estudio de un conjunto de variables, se encuentra el analisisfactorial - AF y el analisis de componente principales - ACP. Ambas metodologıas entiendenuna situacion particular como el resultado del efecto de un conjunto de variables y buscandeterminar una explicacion al comportamiento de los datos. Entre el AF y el ACP existenalgunas similitudes y diferencias metodologicas, segun Hatcher (1994), que impactan en elresultado final.

Page 13: Estimaci on de modelos de estructura de covarianza ...

2.1 El analisis factorial y el analisis de componentes principales 13

2.1.1. Discrepancias entre el AF y el ACP

Entre el AF y el ACP existen basicamente dos diferencias, estas hacen que dichas tecnicasse presenten como dos alternativas metodologicas donde su aplicacion depende del objetivodel estudio o el enfoque deseado por el investigador.

La primera diferencia esta en la forma como se conciben las variables en la ecuacion delmodelo. En este sentido, el ACP concibe el modelo como una combinacion lineal de todaslas variables observadas, donde la puntuacion final de cada sujeto se determina a traves dela formula de la primera componente (Hatcher, 1994):

C1 = b11(X1) + b12(X2) + · · ·+ b1p(Xp), (2.1)

donde,

C1: puntuacion final del sujeto en la primera componente principal.

b1p: coeficiente de regresion o peso de la p-esima variable.

Xp: puntuacion del sujeto respecto a la p-esima variable.

Para ilustrar lo anterior,

Ejemplo 2.1. Considere que se tienen 5 medidas corporales de 49 pajaros (Dıaz y Morales,2012). Ası:

X1: longitud total.

X2: extension de las alas.

X3: longitud de pico y cabeza.

X4: longitud del humero.

X5: longitud de la quilla (esternon o pecho).

Con los datos del problema se obtiene la primera componente que corresponde aquella queretiene la mayor variabilidad y esta dada por la combinacion lineal de todas las variables:

C1 = −0,4518(X1)− 0,4617(X2)− 0,4505(X3)− 0,4707(X4)− 0,3977(X5),

Por el contrario, el AF asume que las variables observables son una combinacion lineal defactores o variables latentes (Hatcher, 1994):

C1 = b1(F1) + b2(F2) + · · ·+ bq(Fq) + d1(U1) (2.2)

donde,

X1: puntuacion del sujeto en la variable observada.

bq: coeficiente de regresion o peso del factor q.

Page 14: Estimaci on de modelos de estructura de covarianza ...

2.1 El analisis factorial y el analisis de componentes principales 14

Fq: puntuacion del sujeto sobre el factor q.

d1: puntuacion para el factor unico asociado con X1.

U1: el factor unico asociado con X1.

Ahora, el siguiente es un caso practico de lo expuesto anteriormente.

Ejemplo 2.2. El modelo de la Figura 2.1 mide la autoestima (Self) a traves de 4 factoresy 14 variables observadas, tomado de Herrero (2010):

Figura 2.1: Diagrama de un modelo para la medicion de la autoestima

V1: tengo poca resistencia fısica.

V2: tengo una salud excelente.

V3: tengo partes de mi cuerpo que me gustarıa cambiar.

V4: me excito con facilidad.

V5: soy nervioso/a.

V6: soy equilibrado emocionalmente.

V7: me cuesta controlarme.

V8: me siento querido en mi familia.

V9: me siento feliz en mi familia.

Page 15: Estimaci on de modelos de estructura de covarianza ...

2.1 El analisis factorial y el analisis de componentes principales 15

V10: mis relaciones familiares son insatisfactorias.

V11: mis ideas, consejos y opiniones son bien valoradas en mi familia.

V12: pierdo facilmente amigos.

V13: en general, no se valora mi amistad.

V14: mis relaciones sociales son insatisfactorias.

Los factores son:

ξ1: fısico.

ξ2: emocional.

ξ3: familiar.

ξ4: social.

Cada uno de los Ei, i = 1, . . . , 14 de la Figura 2.1 representa los errores de medida conrespecto a la variable, entonces, para este caso, la expresion matematica para la variable V1conforme a lo expuesto en la ecuacion 2.2 serıa:

V1 = −0,564(ξ1) + E1

La representacion matricial de los modelos factoriales es presentada con mayor profundidaden el apartado 2.2 La segunda diferencia entre el AF y el ACP se encuentra en la varianza.Segun Hatcher (1994), la varianza total de una variable esta compuesta a su vez por dostipos de varianza. Una es la varianza que corresponde a la influencia que ejercen las demasvariables del estudio y la segunda es la varianza unica que obedece a la variabilidad propiade la variable, es decir:

Varianza total = varianza comun + varianza unica

Mientras el ACP emplea la varianza total de todas las variables del estudio, el AF utilizasolo la varianza comun entre las variables. Este es el punto donde la ligera similitud entrelas dos metodologıas se interrumpe. El ACP busca optimizar de la varianza total explicaday por su parte el AF busca la conformacion de constructos o variables latentes que exponganlo comun entre un agrupo de variables. El conjunto de variables se crea a traves de suvarianza comun o comunalidad. Como muestra de esto, retomando el ejemplo 2.2., el modeloesta conformado por 4 constructos: fısico, emocional, familiar y social. Estos expresan unacaracterıstica comun entre el grupo de variables que lo conforman. Las variables V1 (Tengopoca resistencia fısica), V2 (Tengo una salud excelente) y V3 (Tengo partes de mi cuerpoque me gustarıa cambiar) tienen en comun la percepcion fısica que tiene el individuo de sımismo, por ende conforman el factor “Fısico” dentro del modelo que pretende determinar elnivel de autoestima.

En consecuencia, el ACP recurre al analisis de la matriz de correlacion no ajustada con valoresde uno (1) en su diagonal debido a la estandarizacion de las variables. Por el contrario el

Page 16: Estimaci on de modelos de estructura de covarianza ...

2.2 Fases de construccion de los MEC 16

AF emplea la matriz de correlacion ajustada, donde su diagonal contiene la comunalidad ovarianza comun de cada una de las variables observables, por esto, el AF a diferencia delACP permite la identificacion de constructos.

2.1.2. Similitudes entre el AF y el ACP

En general, el AF y el ACP guardan mucha similitud y a simple vista pueden llegar aconfundirse. Ambas son metodologıas ideales para la condensacion de informacion cuandose cuenta con un numero considerable de variables, esto permite la caracterizacion de unfenomeno de interes a traves de una escala de valores resultantes de la medicion directa deun conjunto de variables observables. Por ejemplo, sı la situacion de interes resultara serla calidad de vida de la poblacion en situacion de discapacidad que vive en un territoriodeterminado, entonces, luego del proceso estadıstico se podrıa obtener un indicador con unrango de valores de 0 a 100, donde 100 expresa una calidad de vida optima y 0 una malacalidad de vida.

En ciertos casos puede llegar a ser indiferente la aplicacion de cualquiera de estas dos meto-dologıas debido a la similitud en los resultados, esto como consecuencia de la comunalidadde las variables. Si la comunalidad es alta, es decir, los valores de la diagonal en la matrizde correlacion ajustada son cercanos a 1, entonces la matriz empleada en el AF se convierteanalogamente en la misma matriz considerada en el ACP.

Para una compresion teorica mas amplia sobre la formalizacion y desarrollo de los metodosACP y AF, referencias como Stevens (2002) y Hatcher (1994) abordan el tema desde elpunto de vista teorico y practico a traves del uso de software como SAS y SPSS, Cuadras(2014) presenta una completa y estricta formalizacion del ACP y AF, entre otros temasmultivariados, Dıaz (2002) introduce las tecnicas empleando finalmente en la parte aplicadael software R y SAS.

2.2. Fases de construccion de los MEC

La aplicacion metodologica de los MEC considera varias fases: planteamiento del modelocausal hipotetico, especificacion matematica del modelo, identificacion del modelo, estima-cion, criterios de ajuste y en algunos casos la reespecificacion del modelo y por ultimo lainterpretacion del modelo.

2.2.1. Planteamiento del modelo causal hipotetico

El planteamiento hipotetico del modelo pretende plasmar la relacion de causalidad entrelas variables y los constructos pensados previamente por el investigador. Esta etapa exigeun conocimiento claro y vasto sobre el tema que se pretende analizar, de esto dependera

Page 17: Estimaci on de modelos de estructura de covarianza ...

2.2 Fases de construccion de los MEC 17

Diseño de un modelo teórico o experimental

Diagrama de paso y especificación del modelo

Identificación de cada parámetro del modelo

Tipos de datos

Correlaciones Matriz de datos Covarianzas

Estimación de los parámetros

Evaluación del ajuste

Interpretación del modelo

Reespecificación del modelo

Interpretación del modelo

Figura 2.2: Pasos del proceso de modelizacion.

Page 18: Estimaci on de modelos de estructura de covarianza ...

2.2 Fases de construccion de los MEC 18

el nivel de asertividad de las hipotesis construidas inicialmente y su interpretacion final.Es aconsejable la realizacion de analisis exploratorios previos que ayuden a sustentar lascausalidades planteadas.

Usualmente, este tipo de planteamientos se lleva a cabo de manera grafica teniendo en cuentalos siguientes conceptos expresados en Mangin y Mallou (2006) y presentados en la figura2.2.

Variables exogenas: tambien llamadas variables independientes ya que no se encuentraninfluenciadas por otras variables en el modelo. A menudo son denotadas ξ y X.

Variables endogenas: reconocidas comunmente como variables dependientes dado que soncausadas por otras variables del modelo. En los modelos MEC son identificadas como η y Y .

Variables observables: son variables que se pueden observar y medir directamente, ejem-plo: La edad, la profesion, el dinero invertido, etc. Suelen ser representadas por las letraslatinas X (variable exogena) y Y (variable endogena).

Variables latentes: son constructos o factores que representan conceptos abstractos comola inteligencia, la felicidad, el estatus economico, etc. y solo son medibles a traves de variablesobservables. Son denotadas por las letras griegas ξ (variable exogena) y η (variable endogena).

Errores de medida: representa el error asociado a la medicion de las variables. Son identi-ficados con las letras griegas ε (para variables observables exogenas (X)) y δ (para variablesobservables endogenas (Y )).

Coeficientes de regresion: λ denota la relacion entre las variables latentes y observables,mostrando la influencia de las primeras en las segundas. γ, indica la relacion entre unavariable latente independiente (ξ) y otra dependiente (η). β es usada en la relacion entre dosconstructos dependientes, si el modelo emplea un solo coeficiente β.

Las covarianzas: entre los constructos independientes, la covarianza se simboliza por mediode φ y estan ocasionadas por predictores comunes de los factores independientes no contem-plados en el modelo. Por su parte, los factores latentes dependientes no se espera que estenpredichos perfectamente por los independientes, por lo que se les asocia un termino de errorestructural ζ. Entre estos terminos puede existir una relacion (ψ), indicando que los facto-res dependientes asociados con ellos comparten una variacion comun no explicada por lasrelaciones que se expresan en el modelo (Jimenez y Manzano, 2005).

Finalmente, el uso de ciertas figuras geometricas permite unir y definir las relaciones hipote-ticas existentes entre las variables latentes y las variables observables a traves del diagramapath o diagrama de sendero. Esta representacion permite visualizar el sistema de ecuacionessimultaneas producto de las relaciones entre variables establecidas hipoteticamente por elinvestigador.

Page 19: Estimaci on de modelos de estructura de covarianza ...

2.2 Fases de construccion de los MEC 19

2.2.2. Sımbolos principales empleados en el diagrama path

X1

Un rectangulo o cuadrado indica una variable observa-ble.

𝝃𝟏

Un cırculo o elipse indica una variable latente o cons-tructo.

𝝃𝟏 X1

𝛆𝟏

Una variable no enmarcada indica termino de disturbio(error ya sea en la ecuacion o en la medicion). La flecharecta indica el supuesto de que la variable en la base dela flecha “causa” la variable en la punta de la flecha. Sise produce un cambio en la variable situada en el origende la flecha, tambien se producira en la variable ubicadaal final de la flecha.

𝝃𝟏

𝝃𝟐

Las flechas curvas de dos puntas indican asociacion en-tre dos variables, es decir, un cambio en una variableimplicara un cambio en la otra y viceversa.

𝜼𝟏 𝜼𝟐

Dos flechas rectas de una punta conectando dos variablesindican relacion recıproca o causa recıproca.

Las nociones anteriores, presentadas por Lopez y Quaglino (2012), son plasmadas a modode ejemplo en la Figura 2.3.

Page 20: Estimaci on de modelos de estructura de covarianza ...

2.2 Fases de construccion de los MEC 20

Figura 2.3: Ejemplo de diagramacion de un modelo causal de Picon et al. (2006).

2.2.3. Estructura matematica o especificacion del modelo

La especificacion de las relaciones causales del modelo a construir puede ser plasmada pormedio de un sistema de ecuaciones lineales o un diagrama como fue visto anteriormente. Estosmodelos estan compuestos por dos sub-modelos que representan dos aspectos diferentes enlas relaciones establecidas por el investigador y se conocen como modelo de medida o matrizfactorial y modelo estructural o matriz estructural.

Especificacion del modelo de medida o matriz factorial

Este conjunto de ecuaciones representa las relaciones establecidas a priori entre las variableslatentes y las variables observables.

La ecuacion y la representacion matricial entre las constructos dependientes y las variablesobservables definidas previamente por el investigador en el modelo de causalidad correspondea la ecuacion 2.3 (Mangin y Mallou, 2006):

Y = Λyη + ε, (2.3)y1...yp

p×1

=

λy11 · · · λy1m...

. . ....

λyp1 · · · λypm

p×m

η1...ηm

m×1

+

ε1...εp

p×1

,

donde,

Page 21: Estimaci on de modelos de estructura de covarianza ...

2.2 Fases de construccion de los MEC 21

Y : son las variables observables dependientes. Estas estan relacionadas o miden los cons-tructos dependientes.

Λy: son los coeficientes de regresion entre Y y los constructos dependientes.

η: corresponden al sımbolo de identificacion de los constructos o variables latentes endogenas.

ε: representa el vector de errores de medida respecto a las variables observables dependientes.

La representacion de la relacion existente entre las variables observables y los constructosindependientes (exogenas) corresponde a la ecuacion 2.4:

X = Λxξ + δ (2.4)

x1...xq

q×1

=

λx11 · · · λx1n...

. . ....

λxq1 · · · λxqn

q×n

ξ1...ξn

n×1

+

δ1...δq

q×1

,

donde,

X: son las variables observables independientes. Estas estan relacionadas o miden los cons-tructos independientes.

Λx: son los coeficientes de regresion entre X y los constructos independientes.

ξ: corresponden al sımbolo de identificacion de los constructos o variables latentes exogenas.

δ: representa el vector de errores de medida respecto a las variables observables indepen-dientes.

Lopez y Quaglino (2012) muestra algunas precisiones sobre las expresiones anteriores: Lasvariables aleatorias en X son indicadores de las variables latentes exogenas (ξ). Las varia-bles aleatorias en Y son indicadoras de las variables latentes endogenas (η). En general, Xes q × 1 (donde q es el numero de indicadoras de ξ) e Y es p × 1 (donde p es el numerode indicadores de η). Las matrices Λx y Λy contienen parametros que corresponden a loscoeficientes estructurales que relacionan las variables latentes con las manifiestas. Estos coe-ficientes representan las magnitudes del cambio esperado en la variable observada por unaunidad de cambio en la variable latente. La matriz Λx es q × n (donde n es el numero devariables latentes endogenas). El vector de los errores de medida para X es δ, y es q × 1.El vector de errores para Y es ε y es p × 1. Generalmente, δ y ε son vectores de variablesaleatorias.

Las matrices Θδ y Θε son matrices de covarianza de los errores de medicion. La diagonalprincipal contiene las varianzas de error asociados con los indicadores. Los elementos fuera dela diagonal son las covarianzas de los errores de medicion para los diferentes indicadores. Lamatriz Θδ es q× q y contiene las varianzas del error y covarianzas para las variables X, y Θε

es una matriz p×p que contiene las varianzas del error y sus covarianzas para las variables Y .Los correspondientes errores de medicion pueden estar positivamente correlacionados debido

Page 22: Estimaci on de modelos de estructura de covarianza ...

2.2 Fases de construccion de los MEC 22

a sesgos sistematicos presentes, por lo que los elementos fuera de la diagonal pueden serdistintos de cero; es decir, que el error de medicion de una variable puede correlacionarse conel error de medicion de otra variables. Esta es unas de las caracterısticas mas importantesde las ecuaciones estructurales con variables latentes que la distingue del enfoque de laregresion estandar. Estos modelos se acercan mas a la realidad ya que permiten tener erroresde mediacion en variables observadas. A su vez, las diferencias sistematicas en escala sonintroducidas con los coeficientes λ.

Ecuacion del modelo de medida

X = λxξ + δ

Y = λyη + ε

Supuestos

Los valores esperados de η, ξ, ε y δ son cero.

ε es incorrelacionado de η, ξ y δ.

δ es incorrelacionado de η, ξ y ε.

Sımbolo Nombre Dimension DefinicionVariables

X q × 1 Indicadora observada de ξY p× 1 Indicadora observada de ηδ delta q × 1 Errores de medicion para Xε epsilon p× 1 Errores de medicion para Y

CoeficientesΛx lambda x q ×m Coeficiente que relaciona a X con ξΛy lambda y p× n Coeficiente que relaciona a Y con η

Matrices de covarianzaΘδ theta delta q × q Matriz de covarianza de δΘε theta epsilon p× p Matriz de covarianza de ε

Tabla 2.1: Resumen de la notacion del modelo de medida, tomado de Lopez (2012).

Retomando el ejemplo presentado en la Figura 2.3, la representacion de la matriz factorial

Page 23: Estimaci on de modelos de estructura de covarianza ...

2.2 Fases de construccion de los MEC 23

de este modelo es:

X = λxξ + δ (2.5)

x1x2x3x4

=

λ1 0λ2 00 λ30 λ4

[ξ1ξ2]

+

δ1δ2δ3δ4

Y = λyη + ε (2.6)

y1y2y3y4

=

λ5 0λ6 00 λ70 λ8

[η1η2]

+

ε1ε2ε3ε4

Especificacion del modelo estructural o matriz estructural

Este tipo de representacion estructural plasma la relacion creada por el investigador entre losconstructos independientes y dependientes. Su forma corresponde a la ecuacion 2.7 (Manginy Mallou, 2006):

η = βη + Γξ + ζ, (2.7)

η1...ηm

=

0 β12 · · · β1mβ21 0 · · · β2m...

.... . .

...βm1 βm2 · · · 0

η1...ηm

+

γ11 · · · γ1n...

. . ....

γm1 · · · γmn

ξ1...ξn

+

ζ1...ζm

,donde,

η: representa el conjunto de variables latentes endogenas.

β: es la matriz de coeficientes de regresion entre las variables latentes dependientes (endo-genas). Un modelo se clasifica como recursivo cuando presenta un solo coeficiente β ysu matriz β es triangular.

Γ: es la matriz de coeficientes de regresion entre las variables latentes independientes (exo-genas) y dependientes (endogenas).

ξ: es el vector de variables latentes independientes.

ζ: corresponde al vector de errores en las ecuaciones.

Page 24: Estimaci on de modelos de estructura de covarianza ...

2.2 Fases de construccion de los MEC 24

Lopez y Quaglino (2012) precisa en su documento las siguientes claridades respecto a laecuacion estructural de los modelos. Las variables en el modelo son desviaciones de su mediapor lo que no se incluyen terminos de intercepcion. La variable η es un vector de dimensionm × 1 de variables latentes aleatorias endogenas. El vector ξ es n × 1 y representa las nvariables latentes exogenas. En la mayorıa de los casos ξ es un vector de variables aleatorias.Los errores en las ecuaciones o disturbios estan representados por ζ como un vector m× 1.Un ζi esta asociado con cada ηi, con i que va de 1 a m. El vector ζ generalmente contienevariables aleatorias. Como en regresion, el disturbio ζi incluye variables que influencian ηipero no son incluidas en la ecuacion de ηi. Se asume que los factores omitidos en la ecuacionoriginan ζi, tiene E[ζi] = 0 y no estan correlacionados con las variables exogenas en ξ. Deotro modo, es probable obtener estimadores inconsistentes de los coeficientes.

Las matrices de los coeficientes son β y Γ. La matriz β es una matriz de coeficientes m×mpara las variables latentes endogenas, muestra la influencia de las variables latentes entresı. Su elemento tıpico es βij donde i y j se refieren a la posicion de la fila y la columna.El modelo asume que (I − β) es no singular y que existe (I − β)−1. La diagonal principalde β es siempre igual a cero. Esto sirve para eliminar ηi del lado derecho de la ecuacioni-esima para la cual es la variable dependiente, es decir, se asume que una variable no es unacausa inmediata e instantanea de sı misma. Un cero en β tambien indica la ausencia de unefecto de una de las variables latentes endogenas sobre la otra. La matriz Γ es una matriz decoeficientes m× n para las variables latentes exogenas. Sus elementos son simbolizados porγij.

La matriz de covarianza de las variables latentes exogenas n × n es Φ con elementos φij.Como toda matriz de covarianza, es simetrica. Si las varianzas de las variables ξ son igualesa uno, entonces Φ es una matriz de correlaciones. La matriz de covarianza m × m de loserrores en las ecuaciones es Ψ con elementos ψij. Cada elemento de la diagonal principal deΨ es la varianza de la correspondiente variable ηi que no esta explicada por las variablesexplicativas incluidas en la i-esima ecuacion. La matriz de covarianza de η es una funcionde β,Γ,Φ y Ψ. No tiene un sımbolo especial. A continuacion se presenta un resumen de lanotacion del modelo estructural.

Ecuacion del modelo estructural

η = βη + Γξ + ζ

Supuestos

Los valores esperados de η, ξ y ζ son cero.

ζ es incorrelacionado de ξ.

β es no singular.

Page 25: Estimaci on de modelos de estructura de covarianza ...

2.3 Identificacion del modelo 25

Sımbolo Nombre Dimension DefinicionVariables

η eta m× 1 Variables latentes endogenasξ xi n× 1 Variables latentes exogenasζ zeta m× 1 Errores latentes en la ecuacion

Coeficientesβ beta m×m Matriz de coeficientes para ηΓ gamma m× n Matriz de coeficientes para ξ

Matrices de covarianzaΦ phi m×m Matriz de covarianza de ξΨ psi m× n Matriz de covarianza de ζ

Tabla 2.2: Resumen de la notacion del modelo estructural.

Como caso practico, la representacion matricial estructural del modelo presentado en laFigura 2.3 corresponde a la ecuacion 2.8:

η = βη + Γξ + ζ (2.8)

[η1η2

]=

[0 0β21 0

] [η1η2

]+

[γ1 γ2γ3 γ4

] [ξ1ξ2

]+

[ζ1ζ2

]

2.3. Identificacion del modelo

La identificacion del modelo refiere a la estimacion de los parametros de forma unica me-diante la identificacion del numero de incognitas y ecuaciones existentes. Se espera que estaidentificacion evidencie una de las siguientes clasificaciones (Mangin y Mallou, 2006)[pag.19]:

Sobreidentificado: Los grados de libertad son superiores a cero. Lo que indica que losparametros del modelo pueden ser estimados y cuenta con suficientes restricciones.

Exactamente identificado: Los grados de libertad son iguales a cero.

Subidentificado: Los grados de libertad son inferiores a cero, es decir, uno o mas parametrosdel modelo no pueden ser estimados. En este caso se hace necesario la creacion de nuevasrestricciones sobre los parametros con sentido logico y a su vez consistentes con la teorıadetras del modelo.

Mangin y Mallou (2006) menciona que los grados de libertad del modelo se deben calcularcomo la diferencia entre el numero de momentos distintos (relaciones posibles entre variableslatentes) y el numero de parametros distintos a estimar (relaciones del modelo presentado).Los momentos del modelo pueden calcularse a traves de la siguiente ecuacion 2.9:

M =1

2[(p+ q) (p+ q + 1)] , (2.9)

Page 26: Estimaci on de modelos de estructura de covarianza ...

2.4 Estimacion de los parametros 26

donde, p es el total de variables o indicadores endogenos y q el total de variables o indicadoresexogenos.

Aplicando la ecuacion 2.9 al modelo propuesto en la Figura 2.3, se tiene que el total demomentos son:

M =1

2[(4 + 4) (4 + 4 + 1)] = 36

Ahora, el total de parametros distintos a estimar es 25 (4 γ′s,8 λ′s,1 β,4 δ′s,4 ε′s,2 φ′s,2 ζ ′s).Luego la diferencia entre los momentos y el total de parametros indica que el modelo posee11 grados de libertad, deduciendose ası la viabilidad de su estimacion (modelo sobreidenti-ficado).

En algunos casos, a pesar del cumplimiento de esta regla, se puede llegar a presentar unaestimacion erronea de los coeficientes como varianzas de errores negativas (casos Heywood)y coeficientes estandarizados superiores a la unidad. Esto denota fallas en la especificaciony/o identificacion del modelo. Algunas soluciones utiles podrıan ser aumentar el tamano dela muestra, modificar el modelo o fijar valores para los parametros errados.

Lopez y Quaglino (2012) senala otros tipos de reglas alternativas para lograr la identificacionde los modelos, entre las cuales menciona: la regla de dos pasos; donde se debe asumir quela matriz Θδ es diagonal lo cual puede no ser real, la regla del pulgar, la regla de las tresmedidas, la regla de las dos medidas, y por ultimo las pruebas empıricas.

2.4. Estimacion de los parametros

El proceso de estimacion de los parametros del modelo se realiza a traves del calculo ite-rativo de las covarianzas, donde el criterio de parada se activa cuando la matriz resultantede la diferencia entre la matriz de covarianza muestral (S) y la inducida por el modelo (Σ)calculado es proxima a cero. La hipotesis fundamental es que la matriz de covarianza delas variables observadas es una funcion de un conjunto de parametros, donde si los parame-tros y el modelo propuesto fuesen correctos, la matriz de covarianza poblacional Σ (θ) serıareproducida exactamente (Lopez y Quaglino, 2012).

La expresion Σ (θ) puede considerarse como el ensamble de tres partes: (1) la matriz decovarianza de Y , (2) la matriz de covarianza de X con Y , (3) la matriz de covarianza deX; todas en funcion de los parametros del modelo, tal como lo expone Jimenez y Manzano(2005) con la ecuacion 2.10.

Σ (θ) =

[Σyy (θ) Σyx (θ)Σxy (θ) Σxx (θ)

]= E

[yy′ yx′

xy′ xx′

](2.10)

Page 27: Estimaci on de modelos de estructura de covarianza ...

2.4 Estimacion de los parametros 27

Al sustituir las ecuaciones 2.3 y 2.4 en 2.10 se obtiene la ecuacion 2.11 :

Σ (θ) = E

[(λyη + ε) (λyη + ε)′ (λyη + ε) (λxξ + δ)′

(λxξ + δ) (λyη + ε)′ (λxξ + δ) (λxξ + δ)′

]

=

[Λy (I − β)−1 (ΓΦΓ′ + Ψ)

[(I − β)−1

]′Λ′y + Θε Λy (I − β)−1 ΓΦΛ′x

ΛxΦΓ′[(I − β)−1

]′Λ′y ΛxΦΛ′x + Θδ

](2.11)

Demostrando ası, que la estimacion del modelo busca aquellos estimadores que hacen quela matriz Σ estimada se parezca lo mas posible a la poblacional Σ (θ). Los metodos masempleados para la estimacion de los parametros en la teorıa de los modelos de estructura decovarianza son (Mangin y Mallou, 2006): maxima verosimilitud (ML), mınimos cuadradosgeneralizados (GLS) y mınimos cuadrados no ponderados (ULS), donde cada uno, respec-tivamente, es cada vez menos riguroso con el supuesto de normalidad multivariante. Comoalternativa al no cumplimiento de la condicion de normalidad de los datos, la literatura su-giere el uso de la tecnica libre de distribucion asintotica (ADF) o el metodo de ajuste demınimos cuadrados generales asintoticos (AGLS).

Como alternativa a estos metodos de estimacion parametricos diversos autores han incorpo-rado los conceptos de la estadıstica bayesiana a los modelos de estructura de covarianza. Laidea principal es partir de la matriz de covarianza de los datos y la distribucion a priori delos parametros del modelo para obtener una distribucion posteriori y, mediante las tecnicasde muestreo iterativo, obtener una muestra que permita estimar los valores de los parame-tros (Scheines et al., 1999). Como metodos de muestreo la cadena de Markov Monte Carlo(MCMC), el algoritmo de Gibbs y P-splines proporcionan un conjunto de datos provenien-te de la distribucion posteriori para todas las incognitas, incluyendo las variables latentes(Scheines et al., 1999; Yang et al., 2016).

1. Maxima verosimilitud (ML):

FML = tr(SΣ (θ)−1

)− (p+ q) + ln |Σ (θ)| − ln |S| (2.12)

Este metodo asume que los datos son generados por una distribucion conocida, el loga-ritmo de la normal multivariada, ver ecuacion 2.12. Los estimadores por maxima vero-similitud tienen la propiedad de ser asintoticamente insesgados y eficientes (Boomsma,2000). Mangin y Mallou (2006) recomiendan el uso de mınimo cinco observaciones porparametro. Software como R y SAS presentan una serie de alternativas para el procesode estimacion, dentro de las cuales se considera la tecnica de maxima verosimilitud.

2. Mınimos cuadrados generalizados (GLS):

FGLS =1

2tr[(S−1 (S − Σ (θ))

)2](2.13)

El supuesto de normalidad, en este caso, es mas flexible en comparacion con la meto-dologıa de maxima verosimilitud, pero al igual que esta, los estimadores son insesgados

Page 28: Estimaci on de modelos de estructura de covarianza ...

2.5 Criterios de bondad de ajuste del modelo 28

y eficientes(Boomsma, 2000). En este caso cada elemento de (S − Σ (θ)) de la ecuacion2.13 es ponderado de acuerdo a las varianza y covarianzas de cada error residual (Lopezy Quaglino, 2012).

3. Mınimos cuadrados no ponderados (ULS):

FULS =1

2tr[((S − Σ (θ)))2

](2.14)

La ecuacion 2.14 minimiza 1/2 de la suma de cuadrados de cada elemento en la matrizde residuales, (S − Σ (θ)), dandole la misma ponderacion a cada elemento, como silos errores encada ecuacion tuvieran la misma varianza y covarianza (Lopez y Qua-glino, 2012). El uso de este metodo es poco comun y requiere de un tamano muestralconsiderable. Hace parte de los metodos considerados por el Software R.

Lopez y Quaglino (2012) en uno de sus apartados presenta una vision completa de lafuncionalidad de los algoritmos iterativos empleados por los software estadısticos.

2.5. Criterios de bondad de ajuste del modelo

Despues de realizar la estimacion de los parametros es preciso evaluar el ajuste del modelo,pero incluso antes de esto se debe realizar una inspeccion de los resultados obtenidos en lasestimaciones. En general se busca la presencia de varianzas negativas (caso de Heywood) ocorrelaciones superiores a 1. Lopez y Quaglino (2012) aducen la presencia de las dos situa-ciones infractoras anteriores, en primer lugar, a que la muestra pudo haber sido una muestraatıpica poco probable; en segundo lugar, la matriz de covarianza (correlacion) analizada pudohaber tenido valores atıpicos (outliers) u observaciones influyentes que llevaron a medidasde asociacion distorsionadas de las variables observadas. Tambien menciona como estrategiareestimar el modelo con la restriccion de que ninguna de las varianzas del error sean negati-vas. Otra estrategia es eliminar la variable con varianza negativa o ignorar el valor negativoy considerarlo esencialmente 0. El inconveniente al eliminar la variable es que puede llevara un modelo no identificado a menos que se incorporen nuevas restricciones al modelo. Lamejor manera de prevenir este tipo de resultados es la inspeccion inicial de los datos con elfin de detectar valores atıpicos antes aplicar la metodologıa de los modelos MEC. Adicional,muestras pequenas y pocas variables medibles por variable latente tambien influyen en lapresencia de varianzas negativas. Para esto, Verdugo et al. (2008), recomiendan mınimo 150observaciones o mınimo 5 casos por cada parametro a estimar, prefiriendo especialmentemuestras grandes para subsanar el efecto que se puede presentar en caso de realizar mo-dificaciones al modelo. Al mismo tiempo, exponen que tecnicamente se debe contar con almenos dos indicadores por cada variable latente para evitar inconveniente de identificaciony convergencia.

Kline (2015) considera que la muestra es “pequena” si tiene menos de 100 sujetos, “media” sitiene de 100 a 200 sujetos, y “grande” si la integran mas de 200 sujetos. No obstante, no ha

Page 29: Estimaci on de modelos de estructura de covarianza ...

2.5 Criterios de bondad de ajuste del modelo 29

sido posible la determinacion absoluta de que tan grande o pequena es una muestra pero losestudios han mostrado que esto depende en gran medida de la complejidad y los parametrosconsiderados en el modelo. Wolf et al. (2013) evaluo el tamano de muestra necesario paraun modelo MEC en funcion de su numero de variables latentes, variables observables, lamagnitud de los coeficientes y el porcentaje de datos perdidos; empleando la tecnica desimulacion Monte Carlo. Algunas de sus conclusiones indican que:

Coeficientes con valores altos requieren muestras mas pequenas.

Modelos con dos o tres variables latentes requieren una muestra mas grande en com-paracion con aquellos que solo tienen un constructo.

Ademas; independiente de la cantidad de variables indirectas (variables latentes), en-tre menos variables observables se consideren mayor sera la cantidad de casos queconformaran la muestra.

Las publicaciones en torno al tamano de la muestra para los modelos MEC dan cuenta delos diversos puntos de vista abordados por los investigadores. Autores como Yadama y Pan-dey (1995) estudian el efecto del tamano de la muestra en los ındices de bondad de ajuste,por su parte Jackson (2001) analiza el tamano de muestra teniendo en cuenta el numero deparametros a estimar para un modelo de analisis factorial confirmatorio (CFA) mediante latecnica de estimacion por maxima verosimilitud concluyendo efectos poco significativos enla relacion planteada, Gagne y Hancock (2006) estudian el grado de afectacion en la con-vergencia y la estimacion de los parametros en un modelo CFA debido al tamano muestral.Kelley y Lai (2011) autoras de la tecnica Accuracy in Parameter Estimation (AIPE) emplea-da para determinar el tamano de muestra mınimo requerido en los modelos de ecuacionesestructurales empleando uno de los criterios de ajuste para evaluar el modelo global (ındicede la Raız Cuadrada Media del Error de Aproximacion – RMSEA). Su propuesta consisteen proporcionar un tamano de muestra considerando la precision en la estimacion de losparametros mediante la especificacion del ancho deseado para el intervalo de confianza delRMSEA, lo que finalmente facilitara la evaluacion del ajuste global del modelo.

Lin y Weng (2014) presentan una extension del trabajo (AIPE) realizado por Kelley y Lai(2011) llamado Graphical Extension with Accuracy in Parameter Estimation (GAIPE), enel cual incorporan dos cambios sustanciales como complemento para decidir el tamano demuestra; el primero es la visualizacion de los valores del RMSEA incluidos en el intervalo deconfianza, y el segundo son los valores de la potencia estadıstica asociada a las pruebas dehipotesis relacionadas con el ajuste de modelo global. Esta tecnica se encuentra disponibleen el software estadıstico R en la librerıa llamada GAIPE escrita por Lin y Weng (2014); enla cual se debe especificar el valor del RMSEA esperado para la prueba de ajuste del modeloglobal, los grados de libertad del modelo planteado, el ancho esperado para el intervalo deconfianza del RMSEA y la prueba de hipotesis deseada. El manual incorporado en la librerıaGAIPE proporciona mas claridad respecto a su uso. El siguiente ejemplo, tomado de Liny Weng (2014), indaga sobre los posibles tamanos de muestra de un modelo para el cualse espera un valor de RMSEA = 0.05, con 30 grados de libertad y a su vez considera dosamplitudes para el intervalo de confianza del 95 % del RMSEA (0.03 y 0.04), ademas de la

Page 30: Estimaci on de modelos de estructura de covarianza ...

2.5 Criterios de bondad de ajuste del modelo 30

Figura 2.4: Diversos tamanos de muestra proporcionados por la tecnica GAIPE de Lin yWeng (2014)

prueba de hipotesis para un ajuste perfecto del modelo global (Figura 2.4). Por defecto lalibrerıa GAIPE asume un intervalo de confianza del 95 %, diversos tamanos de muestra quevan de 100 hasta 1800 y tres lıneas para identificar los valores de la potencia estadısticacorrespondientes a 0.8, 0.9 y 0.95; estos valores pueden variar siguiendo las indicaciones delmanual antes mencionado.

> library(GAIPE)

> GAIPE.RMSEA(rmsea=0.05,df=30,width=c(0.03,0.04),

+ PA_method="exact.fit",H0rmsea=0)

Para determinar si un modelo es aceptado o no, es necesario realizar un analisis de bondadde ajuste sobre el modelo global, el modelo de medida y el modelo estructural (Mangin yMallou, 2006). Para cada uno de estos existen criterios de evaluacion diferentes.

2.5.1. Criterios de ajuste del modelo global

La valoracion de ajuste del modelo global cuenta con criterios de medidas de ajuste absolutoque develan el nivel de prediccion del modelo global a partir del modelo de medida y elestructural, por otro lado las medidas de ajuste incremental comparan el modelo propuestocon el peor modelo posible, y por ultimo los ajustes de parsimonia muestran el nivel de ajustede los coeficientes estimados. La medidas de ajuste absoluto son: el ındice de la chi-cuadrado,

Page 31: Estimaci on de modelos de estructura de covarianza ...

2.5 Criterios de bondad de ajuste del modelo 31

el ındice de bondad de ajuste, el ındice de la raız cuadrada media del error de aproximaciony por ultimo el parametro de no centralidad ponderada. El segundo grupo son las medidas deajuste incremental que corresponden a: el ındice de ajuste normalizado, el ındice de ajusteno normalizado y el ındice de ajuste comparativo. Finalmente, los criterios de evaluacionde parsimonia son: el criterio de informacion de akaike, el ındice de ajuste parsimoniconormalizado, el ındice de bondad del ajuste parsimonico, chi-cuadrado normalizada y criterioN de hoelter (Mangin y Mallou, 2006).

Practicamente todas las medidas de ajuste global involucran S y Σ. Estos ındices evaluanque tan cerca esta S de Σ de diferentes maneras. La principal ventaja de las medidas deajuste global es que evaluan el modelo total y que pueden indicar fallas que no son reveladaspor el ajuste de los componentes del modelo (ecuaciones y estimadores de parametros). Unade las limitantes es que no pueden ser aplicados a modelos exactamente identificados ya que,en esta situacion, S siempre es igual a Σ. En modelos sobreidentificados es posible que Sdifiera de Σ por lo que se puede probar si las restricciones que llevan a la sobreidentificacionson validas. Una segunda limitante de las medidas de ajuste global es que pueden diferirdel ajuste de los componentes del modelo, por ejemplo, el ajuste puede ser bueno, pero losestimadores de los parametros pueden no ser estadısticamente significativos o pueden tenersignos opuestos a lo esperado, asimismo, el ajuste global de Σ y S no indica que tan bienlas variables explicativas predicen a las variables dependientes; por esta razon no se puedenemplear las medidas de ajuste global aisladas de las medidas de ajuste de los componentesdel modelo. (Lopez y Quaglino, 2012).

1. Indice de la chi-cuadrado (χ2)

La hipotesis nula H0 establece que la matriz de covarianza poblacional es igual a laajustada por el modelo estimado y el criterio de aceptacion se da si el valor-p > α,siendo α el nivel de significancia seleccionado. Mulaik et al. (1989) sugiere que este me-todo es sensible al tamano de la muestra, es decir, que muestras grandes posiblementeproduciran un rechazo del modelo. Joreskog y Sorbom (1984) manifiestan que estaprueba de ajuste no es confiable cuando se analiza la matriz de correlacion y Boomsma(1984) comenta en uno de sus trabajos que la conclusion final obtenida por a partirdel ındice de la chi-cuadrado es poco confiable en muestras menores a 50 y aconsejaemplear mas de 100 casos.

2. Indice de bondad de ajuste

Este estadıstico de prueba senala la variabilidad explicada por el modelo, sus valoresoscilan entre 0 (pobre ajuste) y 1 (perfecto ajuste). Valores superiores a 0.90, indicanun buen ajuste. Es mucho menos sensible al tamano de la muestra. (Mangin y Mallou,2006).

GFI = 1−

∥∥∥S − Σ∥∥∥2

‖S‖2.

Page 32: Estimaci on de modelos de estructura de covarianza ...

2.5 Criterios de bondad de ajuste del modelo 32

3. Indice de la raız cuadrada media del error de aproximacion

Contrario a la prueba Chi-Cuadrado, este ındice es menos sensible a las muestrasgrandes pero sı en presencia de una cantidad pequena de datos, tiende a rechazarmodelos que en realidad son correctos. Se concluye que el modelo es bueno para valoresinferiores a 0.05, aceptable si el resultado oscila entre 0.05 y 0.08. (Mangin y Mallou,2006).

Considerando que df refiere a los grados de libertad, N al total de datos consideradosy χ2 el ındice Chi-Cuadrado:

RMSEA =

(χ2 − df

df (N − 1)

)2

.

4. Indice de ajuste normalizado

Compara el modelo nulo y el propuesto, identificando la diferencia cuando se pasa delmodelo nulo al propuesto. En presencia de muestras pequenas tiende a subestimar losajustes. Los valores del ındice varıan entre 0 y 1. Valores superiores a 0.90 sugieren unbuen ajuste.

NFI =χ2nulo − χ2

modelo

χ2nulo

5. Indice ajustado normado de bondad de ajuste

Posee la misma interpretacion del R2 ajustado en la regresion multiple. Valores supe-riores a 0.9 indican un buen ajuste.

AGFI = 1−[

(p+ q) (p+ q + 1)

2 (df)

] tr(

Σ−1S − 1)2

tr(

Σ−1S)2 .

Considerando que: p es el total de variables endogenas, q la cantidad de variablesexogenas, df los grados de libertad, (Σ−1 ) la matriz de covarianza inversa del modeloy S la matriz muestral de covarianzas. (Mangin y Mallou, 2006).

6. Indice de ajuste no normalizado

Este ındice involucra los grados de libertad del modelo nulo y el propuesto. Es pocoinfluenciado por el tamano de la muestra y sus valores oscilan entre 0 y 1, valoressuperiores a 0.9 concluyen un buen ajuste.

NNFI =χ2nulo −

dfnulodfmodelo

χ2modelo

χ2nulo − dfnulo

,

donde, χ2modelo es el ajuste bajo el modelo de interes, dfmodelo los grados de libertad del

modelo propuesto, χ2nulo es el ajuste del modelo de independencia en el cual se estiman

Page 33: Estimaci on de modelos de estructura de covarianza ...

2.5 Criterios de bondad de ajuste del modelo 33

las varianzas pero no las covarianzas y dfnulo son los grados de libertad del modelo nulo.Este ındice es una modificacion del NFI propuesta por Bollen (2014).

7. Indice de ajuste comparativo

Es una medida de centralidad. El rango de valores va de 0 a 1, entre mas cercano a 1mejor sera el ajuste.

CFI =

∣∣∣∣(χ2nulo − dfnulo)− (χ2

modelo − dfmodelo)

χ2nulo − dfnulo

∣∣∣∣ ,donde χ2

modeloes el ajuste bajo el modelo de interes, dfmodelo los grados de libertad delmodelo propuesto, χ2

nulo es el ajuste del modelo de independencia en el cual se estimanlas varianzas pero no las covarianzas y dfnulo son los grados de libertad del modelo nulo.(Mangin y Mallou, 2006).

2.5.2. Criterios de ajuste del modelo de medida

Para la determinacion del nivel de ajuste del modelo de medida es necesario evaluar tresaspectos; el primero es la validez del constructo, el segundo la unidimensionalidad de losconstructos y el tercero la fiabilidad. La validez del constructo, segun Mangin y Mallou(2006), quedara confirmada si las cargas factoriales estandarizadas, ademas de significativas,son grandes (superiores en su mayorıa a 0,6). Vila et al. (2000), sugieren el uso del test dela diferencia entre las chi-cuadrado o el test del intervalo de confianza para comprobar launidimensionalidad de los constructos considerados. El ultimo aspecto sometido a analisis esla fiabilidad, para el cual se emplean las medidas de fiabilidad compuesta y varianza extraıda.

1. Fiabilidad compuesta

Permite comprobar la rigurosidad con que las variables observables miden las variableslatentes (Fornell y Larcker, 1981).

ρ =(Σiλi)

2

(Σiλi)2 + Σivar (εi)

,

donde, λi son las cargas estandarizadas del indicador i, εi los errores de medida delindicador i y var(εi) = 1 − λ2i . Bernstein y Nunnally (1994) sugieren 0.7 como valorpara una fiabilidad “modesta”.

2. Varianza extraıda

Proporciona la cantidad de varianza que un constructo obtiene de sus indicadores (va-riables observables) con relacion a la cantidad de varianza debida al error de medicion,siendo lo ideal un valor superior a 0.5 (Fornell y Larcker, 1981).

ρ =Σiλ

2i

Σiλ2i + Σivar (εi),

Page 34: Estimaci on de modelos de estructura de covarianza ...

2.5 Criterios de bondad de ajuste del modelo 34

Ayuda a los

conocidos

Donaciones

económicas

X1

X2

X3

X4

X5

X6

Figura 2.5: Ejemplo de aplicacion para la fiabilidad compuesta y la varianza extraıda.

donde λi son las cargas estandarizadas del indicador i, εi los errores de medida delindicador i y var(εi) = 1−λ2i . En su artıculo, Fornell y Larcker (1981) concluyen que siρ es menor que 0.50, la varianza debida al error de medicion es mayor que la varianzacapturada por el constructo, y la validez de las variables observables, ası como la delconstructo, son cuestionables.

A modo de ejemplo suponga el modelo de la Figura 2.5 (Jimenez y Manzano, 2005) dondeel constructo “Ayuda a los conocidos” es medido a traves de:

X1: abandono lo que estoy haciendo para ayudar a un companero de trabajo.

X2: abandono lo que estoy haciendo para ayudar a un pariente.

X3: abandono lo que estoy haciendo para ayudar a un amigo.

Y el constructo “Donaciones economicas” medido como:

X4: doy dinero para la caridad en la Iglesia.

X5: doy dinero para caridad no relacionada con la religion.

X6: doy dinero a la gente que pide en la calle.

Las cargas estandarizadas para cada una de las variables indicadoras, la fiabilidad compuestay la varianza extraıda son:

Page 35: Estimaci on de modelos de estructura de covarianza ...

2.5 Criterios de bondad de ajuste del modelo 35

Carga factorial Cuadrado de la Varianza delConstructo e indicadores estandarizada carga factorial termino de error

λi estandarizada var(εi) = 1− λ2iAyuda a desconocidosX1 0.963 0.927 0.073X2 0.514 0.264 0.736X3 0.741 0.549 0.451Sumatoria 2.218 1.741 1.259Donaciones economicasX4 0.945 0.893 0.107X5 0.657 0.432 0.568X6 0.673 0.453 0.547Sumatoria 2.275 1.778 1.222

Tabla 2.3: Ejemplo calculo de la fiabilidad compuesta.

Fiabilidad compuesta del constructo 1 =(2,218)2

(2,218)2 + 1,259= 0,796

Fiabilidad compuesta del constructo 2 =(2,275)2

(2,275)2 + 1,222= 0,809

Varianza extraida del constructo 1 =1,741

1,741 + 1,259= 0,580

Varianza extraida del constructo 2 =1,778

1,778 + 1,222= 0,592

2.5.3. Criterios de ajuste del modelo estructural

El analisis de bondad de ajuste del modelo estructural esta determinado por la significacion decada uno de los parametros estimados. Si alguno o algunos de estos presentaran la condicionde ser no significativos, se hace entonces necesario su eliminacion de manera gradual, lo cualimplica realizar de nuevo todo el proceso de estimacion (Mangin y Mallou, 2006).

Mulaik et al. (1989), propone el ındice de ajuste relativo normado (RNFI) como opcion paramedir el ajuste estructural de los modelos y ası concluir a cerca de la relaciones causaleshipoteticas entre las variables latentes. Los valores ideales son aquellos cercanos a 1, indicandoque las relaciones establecidas entre variables latentes son acordes a los datos.

RNFI =χ2u − χ2

j

χ2u − χ2

m − (dfj − dfm),

donde,

Page 36: Estimaci on de modelos de estructura de covarianza ...

2.6 Reespecificacion del modelo 36

χ2u: χ

2 del modelo con variables latentes no correlacionadas.

χ2j : χ

2 del modelo de interes.

χ2m: χ2 del modelo de medida.

dfj: grados de libertad para el modelo de interes.

dfm: grados de libertad para el modelo de medida.

2.6. Reespecificacion del modelo

Cuando se hayan elegido algunos de los criterios anteriores y sus resultados indiquen que esnecesario suprimir o modificar algunas relaciones (variables) establecidas, entonces es precisorepensar el modelo disenado inicialmente y comenzar de nuevo toda la fase de planteamiento,identificacion, estimacion y analisis de bondad de ajuste del nuevo modelo.

Basicamente existen dos razones por las cuales se hace necesario incurrir en la modificaciondel modelo inicialmente planteado: mejorar el ajuste del modelo a los datos o probar unahipotesis, Ullman (2006). Boomsma (2000) comenta que esta circunstancia tambien puededarse por otras razones como el tamano de la muestra, la no normalidad, datos faltantes,etc. y afirma que esta fase se caracteriza por la retroalimentacion a los postulados teoricosque constituyeron el modelo en primer lugar, lo que significa que los resultados tienen queser evaluados dentro del marco teorico que dio origen al modelo en estudio. Las siguienterecomendaciones para la modificacion de modelos son planteadas y tomadas de los autoresHatcher (1994) y MacCallum et al. (1992):

Utilizar muestras grandes: las muestras pequenas pueden conducir a soluciones ines-tables. MacCallum et al. (1992) encontraron que la estabilidad del modelo era masprobable con muestras grandes o 800 o mas. Lo ideal serıa intentar obtener muestrasde este tamano, especialmente si se preven muchas modificaciones del modelo.

Hacer pocas modificaciones: las primeras modificaciones puedan estar asociadas a unmodelo que refleje las relaciones poblacionales; las siguientes, probablemente, reflejaranrelaciones especıficas de la muestra.

Hacer solo cambios que puedan ser interpretados de manera significativa: antes de hacercambios, se debe considerar si las modificaciones pueden ser apoyadas en terminos deteorıa o investigaciones previas. Estos cambios deben justificarse cuando se discutenlos hallazgos del estudio.

Seguir un procedimiento de busqueda paralela: se recomienda que los investigadoresdividan aleatoriamente grandes muestras en dos y realicen el proceso de estimacion porseparado. Si ambos modelos conducen al mismo conjunto de modificaciones, se puedeconfiar mas en la estabilidad del modelo final.

Page 37: Estimaci on de modelos de estructura de covarianza ...

2.6 Reespecificacion del modelo 37

Comparar modelos a priori alternativos: en lugar de comenzar con un solo modelo yluego realizar modificaciones hasta que un modelo final se ajuste a los datos, a menudoes preferible comenzar con varios modelos competidores y realizar analisis individualesen cada uno para determinar cual proporciona el mejor ajuste a los datos.

Describir cuidadosamente las limitaciones de su estudio: la mayorıa de los estudios ana-lıticos son estudios de una sola muestra en los que se hacen una serie de modificacionesimpulsadas por datos para llegar a un modelo con buen ajuste. Cuando se sigue esteenfoque, es importante que el informe de investigacion reconozca que esta estrategiapuede resultar en modelos que bien pueden no generalizar a la poblacion.

Para abordar el tema de modificacion del modelo debe iniciarse con la identificacion y eli-minacion de los parametros no significativo, lo cual sugiere un modelo cada vez mas simple.Autores como Kaplan (1993) y Boomsma (2000) recomiendan un enfoque de modificacioncuidadoso con cambios subsiguientes realizados uno a la vez, ya que cambiar un parametrosprovoca cambios en los demas parametros.

Otro instrumento de apoyo para direccionar los cambios es el test de χ2 para diferencia quebusca determinar si el modelo con los residuos correlacionados es significativamente mejorque el modelo que no los considera bajo la premisa de que el modelo inicial es un subconjuntode un nuevo modelo mas grande, cuando los datos provienen de una distribucion el calculo deeste se limita simplemente a la diferencia de los χ2 de ambos modelos, pero por el contrario sino se cumple el criterio de normalidad entonces la prueba es ajustada mediante el factor decorreccion de escala de Satorra-Bentler, tal como se ve en las ecuaciones 2.15 y 2.16, Ullman(2006).

χ2S-B diferencia =

χ2ML modelo anidado − χ2

ML modelo comparado

Correccion de escala, (2.15)

Correccion de escala =(dfmodelo anidado)(

χ2ML modelo anidado

χ2S-B modelo anidado

)

dfmodelo anidado

−(−dfmodelo comparado)(

χ2ML modelo comparado

χ2S-B modelo comparado

)

−dfmodelo comparado

,

(2.16)

El multiplicador de lagrange (ML) tambien provee informacion sobre los posibles cambiosque requiere el modelo evaluando la mejora obtenida del test χ2 al incluir nuevas relacionesentre variables que no se habıan considerado inicialmente. Incluir una o varias relaciones (ocovarianzas) al modelo pueden dar lugar a una disminucion significativa en el χ2 y si la pruebade significancia del valor-p que acompana a esta estadıstica es inferior a .05, puede suponerseque la adicion sugerida al modelo resultara en una mejora estadısticamente significativa enel estadıstico χ2, Hatcher (1994). Esta prueba ofrece dos contraste, uno de tipo univariado yotro multivariado. El primero considera el incremento en la χ2 si se introdujera, por separado,cada una de las relaciones consideradas; mientras que el segundo se enfoca en identificar elparametro unico que conducirıa a la mayor caıda en el modelo χ2 y calcula el χ2 si se agregaeste parametro Ullman (2006). La autora tambien menciona la cautela al usar el ML con datos

Page 38: Estimaci on de modelos de estructura de covarianza ...

2.6 Reespecificacion del modelo 38

no normales dado que por lo general los software tienen por defecto el calculo en condicionesde normalidad, es decir, no incluyen el factor de correccion mencionado anteriormente. Elcontrate de wald, al igual que el ML, estima el cambiado en la prueba χ2 pero esta vez bajoel cuestionamiento de la eliminacion de parametros existentes en el modelo, acompanado dela prueba de significancia de valor-p.

Ullman (2006) senala que conforme a MacCallum (1986), el orden en que se modificanlos parametros del modelo puede afectar a los restantes, incluso sobreestimar el error tipoI por lo que recomienda considerar niveles de significancia prudente, como por ejemplo,α = 0, 01 para el multiplicador de lagrange y α = 0, 05 para el contraste de wald. Otroenfoque alternativo puede ser la estimacion de modelos locales empleando la tecnica deanalisis factorial o analisis de componentes principales por cada constructo en relacion a lasvariables observables previamente asociadas, con el fin de tener otro tipo de soporte sobre siestas variables explicativas pertenecen o no al constructo y a partir de hay ir reconstruyendonuevamente el modelo.

Page 39: Estimaci on de modelos de estructura de covarianza ...

Capıtulo 3

R y los modelos de estructura decovarianza

En la actualidad existen programas computacionales enfocados a la teorıa de los modelos deestructura de covarianza, lo que ha facilitado la aplicacion metodologica en las investigacionesen el ambito social, especialmente. Algunos programas como LISREL creado por Joreskog ySorbom (1984), el paquete PROC CALIS realizado por el Instituto SAS, SPSS con el moduloAMOS elaborado por Arbuckle (2010) requieren de una inversion en dinero para adquirirsu licencia de uso. Una alternativa es el uso de programas de libre distribucion como el RProject que emplea librerıas como el lavaan creado por Rosseel et al. (2015) de la Universidadde Gante (Belgica), sem de Fox (2006) y openMx de Boker et al. (2011) para la aplicacionde la teorıa de los Modelos de Estructura de Covarianza. Los apartados tratados en estecapıtulo tienen como objetivo proporcionar una guıa basica del uso de los paquete lavaan ysemPlot.

3.1. Paquete lavaan

La facilidad para asentar la estructura del modelo de medida y el modelo estructural plantea-do por el investigar y la posibilidad de elegir entre los diferentes metodos de estimacion paralos parametros del modelo son, entre otras, las caracterısticas fundamentales de la librerıalavaan.

Lavaan contiene las funcion cfa() y sem(). La funcion cfa() es especial para la estimacion demodelos factoriales confirmatorios, mientras que sem() es ideal para modelos de ecuacionesestructurales. Los siguientes apartados estan dedicados al uso de la funcion sem() en R.

Page 40: Estimaci on de modelos de estructura de covarianza ...

3.2 Argumentos de la funcion sem() 40

3.2. Argumentos de la funcion sem()

La codificacion de la funcion sem considera un conjunto amplio de argumentos de entradalos cuales varıan segun la particularidad del modelo propuesto, las caracterısticas de losdatos recolectados y las alternativas metodologicas elegidas por el investigador. Sem permitetrabajar con el conjunto de datos recolectados o con la matriz de covarianzas y el numero deobservaciones de la base de datos. Por defecto emplea la metodologıa de maxima verosimilitudpara el proceso de estimacion de los parametros. Es importante tener presente que el modeloa trabajar debe ser sobreidentificado, ver seccion 2.3.

Los argumentos basicos que se deben especificar en la rutina sem() son (Rosseel et al., 2015):

Model: debe especificarse el modelo planteado por el investigado a traves de ecuacionesempleando los operadores considerados por la librerıa lavaan.

Data: para este argumento debe especificarse el nombre dado previamente al conjunto dedatos que contiene las variables expresadas en el modelo. Corresponde a un conjunto dataframe.

sample.cov: se debe indicar cual es la matriz numerica de covarianza muestral asociada alconjunto de datos. Esta debe contener los nombres de las variables bien sea en las filas o enlas columnas de la matriz.

sample.nobs: corresponde al total de datos contenidos en la base de datos.

Los demas argumentos se encuentran referenciados en el manual de la librerıa lavaan escritopor Rosseel et al. (2015).

3.3. Notacion del modelo en la funcion sem()

Como se vio en la seccion 2.2, las hipotesis del modelo propuesto pueden ser planteadas demanera matricial, generandose entonces un conjunto de ecuaciones lineales. Para la funcionsem se hace necesario especificar dichas ecuaciones empleando los operadores ya predefinidosen la librerıa lavaan, ver tabla 3.1.

Operador Nemotecnico=∼ Especifica la relacion entre las variables latentes y las variables observables.∼ Especifica la relacion entre variables latentes.∼∼ Especifica la relacion de covarianza entre variables.

Tabla 3.1: Operadores para la especificacion de modelos con la librearıa lavaan.

La escritura de las multiples ecuaciones puede realizarse de manera conjunta encerrando lasexpresiones con comillas, esto simplifica la especificacion de los argumentos al momento derealizar la estimacion del modelo. En este punto puede incluirse, si se requiere, la restriccion

Page 41: Estimaci on de modelos de estructura de covarianza ...

3.4 Restriccion en la estimacion de los parametros 41

que implica que la estimacion de ciertos parametros sean iguales, lo cual es util cuando secuenta con variables observable que miden un mismo aspecto en dos momentos diferentes(Rosseel, 2012).

3.4. Restriccion en la estimacion de los parametros

En la practica, segun la particularidad del fenomeno objeto de estudio, se hace necesario lainclusion de ciertas condiciones sobre los parametros del modelo a estimar, algunas alterna-tivas son mencionadas por Rosseel (2012):

1. Parametros iguales

En algunos casos, dadas ciertas circunstancias, como por ejemplo la consideracion enel modelo de variables que fueron medidas en dos momentos distintos; el investigadorpodrıa considerar como necesario obtener valores iguales para dos o mas parametrosque esten asociados a dos o mas variables.

Segun Rosseel (2012) la manera de limitar que dos o mas parametros tengan el mismovalor estimado se lleva a cabo mediante la inclusion de etiquetas para dichos parame-tros. Por ejemplo, si se tienen las siguientes ecuaciones matriciales de cierto modelopropuesto:

> ma_1 =~ x1 + x2 + x3

> ma_2 =~ y1 + y2 + y3 + y4

> ma_3 =~ y5 + y6 + y7 + y8

Y se quisiera que el valor estimado de y3 sea el mismo para y6, entonces la ecuaciondebe incluir una etiqueta, por ejemplo, b1:

> ma_1 =~ x1 + x2 + x3

> ma_2 =~ y1 + y2 +b1* y3 + y4

> ma_3 =~ y5 + b1*y6 + y7 + y8

2. Parametros con valores a priori

En alguna circunstancia puede ser necesario la inclusion a priori de valores para ciertosparametros del modelo. En este caso, el proceso es similar al presentado anteriormente,y en vez de emplear etiquetas simplemente se multiplica el valor considerado por lavariable implicada, ejemplo:

> ma_1 =~ x1 + x2 + x3

> ma_2 =~ y1 + y2 + y3 + 0.8* y4

> ma_3 =~ y5 + 0.99*y6 + y7 + y8

3. Parametros estimados bajo condiciones no lineales

Supongase que se tiene la siguiente ecuacion:

Page 42: Estimaci on de modelos de estructura de covarianza ...

3.5 Extraccion de informacion 42

> ma_2 =~ y1 + b1*y2 + b2*y3 + b3* y4

Y se requiere que los coeficientes etiquetados como b1, b2 y b3 cumplan con las si-guientes restricciones:

> b1 == (b2 + b3)^2

> b1 > exp(b2 + b3)

Entonces, al momento de escribir todas las ecuaciones asociadas al modelo propuestose deben incluir las restricciones no lineales consideradas:

> library(lavaan)

> model <- '

+

+ ma_1 =~x1 + x2 + x3

+ ma_2 =~y1 + b1*y2 + b2*y3 + b3*y4

+ ma_3 =~y5 + y6 + y7 + y8

+

+ b1 == (b2 + b3)^2

+ b1 > exp(b2 + b3)

+ '

4. Parametros libres

Por defecto, cuando no se fija ningun tipo de restriccion, lavaan siempre fijar el valor delprimer parametro a 1 y los demas los considera libres y sus valores son proporcionadospor los algoritmos de estimacion.

3.5. Extraccion de informacion

En cuanto a la visualizacion de los resultados en R, esta funciona bajo la premisa de“dar sololo que el usuario pide”, es ası como en principio solo se logra ver una parte de la informaciongenerada internamente por los algoritmos que componen los paquetes empleados; los datosrestantes deben ser “llamados” a traves de comandos. Rosseel (2012) en su documento intro-ductorio al paquete lavaan expone las siguientes funciones que le permiten al investigadortener acceso a los resultados “ocultos”:

1. Summary()

La funcion summary() da una vision general de los resultados del modelo estimado.Esta funcion requiere como argumento basico el nombre del objeto que contiene elmodelo ajustado. Supongase que se tiene la siguiente lınea de codigo:

> fit<-sem(model, data=PoliticalDemocracy)

Donde “fit” es el objeto que contiene el modelo ajustado, por consiguiente tendremosque summary(fit) mostrara los coeficientes estimados, las covarianzas, las varianzas y

Page 43: Estimaci on de modelos de estructura de covarianza ...

3.6 Diagrama del modelo SEM en R 43

para cada uno de estos su respectivo error estandar y prueba de significancia.

2. FitMeasures()

Existen dos formas de emplear la funcion fitMeasures(); una es a traves del comandosummary() donde este se convierte en uno mas de los argumentos mediante la escriturade fit.measures=TRUE, obteniendo como resultado la informacion basica de la funcionsummary() antes mencionada y adicional, algunos indicadores de ajuste del modeloestimado. Otra opcion es usar la funcion fitMeasures() de manera individual, donde elprimer argumento es el objeto que contiene el modelo estimado y el segundo argumentoes un vector de caracteres que contiene los nombres de los indicadores de ajuste que sedesean extraer, en caso de querer visualizar todos las medidas de ajuste, entonces solose hace necesario incluir el primer argumento de esta funcion.

3. ParameterEstimates()

La funcion parameterEstimates() extrae no solo los valores de los parametros estimados,sino tambien la los errores estandar, los valores z y los intervalos de confianza de losparametros estimados. Como argumento es necesario el objeto que contiene el modeloestimado.

4. StandardizedSolution()

La funcion standardizedSolution() es similar a la funcion parameterEstimates(), perosolo muestra las estimaciones de los parametros no normalizados y estandarizados.

5. Fitted.values()

Las funciones fitted() y fitted.values() devuelven la matriz de covarianza implıcita y elvector de medias del modelo estimado.

3.6. Diagrama del modelo SEM en R

El paquete semPlot(), creado por Sacha Epskamp, es una de las opciones que presenta elsoftware R para visualizar graficamente los modelos hipoteticos. Dentro de esta librerıa seencuentra el comando semPaths() el cual proporciona el diagrama path del modelo semconsiderado. Considera aproximadamente 76 argumentos los cuales facilitan la adaptaciondel formato y la informacion que se desea visualizar. Tomando como referencia lo expuesto porEpskamp (2015) en el manual creado para el paquete semPlot(), a continuacion se explicanalgunos argumentos de la funcion semPaths():

> semPaths(object, "est", residuals=FALSE, rotation=4,

+ fixedStyle=c("black",2),freeStyle=c("black",1),

+ edge.label.cex = 0.7, sizeLat = 6)

Argumentos:

Object: Objeto que contiene el modelo estimado.

Page 44: Estimaci on de modelos de estructura de covarianza ...

3.7 Aplicacion practica 44

est: permite visualizar en el grafico los valores estimados para los parametros del modelo.

residuals: Permite incluir los residuales y las varianzas del modelo estimado.

rotation: Son numeros enteros del 1 al 4 que indican la posicion de las variables exogenas.

fixedStyle: Es un vector que indica el color y el estilo de la lınea de los parametros fijos delmodelo.

freeStyle: Es un vector que indica el color y el estilo de la lınea de los parametros libres delmodelo.

edge.label.cex: Determina el tamano de los valores estimados para los parametros delmodelo.

sizeLat: Determina el tamano de las variables latentes en el grafico.

3.7. Aplicacion practica

El siguiente ejemplo es presentado Rosseel (2012) en uno de sus artıculos. La base de datosllamada“PoliticalDemocracy”es un conjunto de datos sobre la industrializacion y las polıticasde democracia de los paıses en desarrollo y es proporcionada por la librerıa lavaan y constade 11 variables y 75 observaciones.

El conjunto de variables exogenas son:

x1: el producto nacional bruto (PNB) per capita en 1960.

x2: el consumo de energıa inanimada per capita en 1960.

x3: el porcentaje de la fuerza laboral en la industria en 1960.

El conjunto de variables endogenas son:

y1: valoracion de expertos sobre la libertad de prensa en 1960.

y2: la libertad de la oposicion polıtica en 1960.

y3: la imparcialidad de las elecciones en 1960.

y4: la eficacia de la legislatura electa en 1960.

y5: valoracion de expertos sobre la libertad de prensa en 1965.

y6: la libertad de la oposicion polıtica en 1965.

y7: la imparcialidad de las elecciones en 1965.

y8: la eficacia de la legislatura electa en 1965.

El diagrama del modelo que especifica las relaciones hipoteticas establecidas para las variablesya descritas corresponde a la Figura 3.1:

Page 45: Estimaci on de modelos de estructura de covarianza ...

3.7 Aplicacion practica 45

Figura 3.1: Diagrama Path asociado a los datos PoliticalDemocracy.

Como se logra identificar en la Figura 3.1. el modelo consta de dos planteamiento: un modelode medida y un modelo estructural y a su vez estable la relacion de covarianza entre lasvariables observables. En este orden, la definicion de las ecuaciones en R estan dadas por:

> model1<-'

+ ind60 =~ x1 + x2 + x3

+ dem60 =~ y1 + y2 + y3 + y4

+ dem65 =~ y5 + y6 + y7 + y8

+

+ dem60 ~ ind60

+ dem65 ~ ind60 + dem60

+

+ y1 ~~ y5

+ y2 ~~ y4 + y6

+ y3 ~~ y7

+ y4 ~~ y8

+ y6 ~~ y8

+ '

Las ecuaciones anteriores consideran que las estimaciones de los parametros asociados a lasvariables son diferentes. Si se quisiera aplicar la condicion de que ciertas variables tengan el

Page 46: Estimaci on de modelos de estructura de covarianza ...

3.7 Aplicacion practica 46

mismo valor para sus parametros, entonces la codificacion seria la siguiente:

> model2<-'

+ ind60 =~ x1 + x2 + x3

+ dem60 =~ y1 + d1*y2 + d2*y3 + d3*y4

+ dem65 =~ y5 + d1*y6 + d2*y7 + d3*y8

+

+ dem60 ~ ind60

+ dem65 ~ ind60 + dem60

+

+ y1 ~~ y5

+ y2 ~~ y4 + y6

+ y3 ~~ y7

+ y4 ~~ y8

+ y6 ~~ y8

+ '

Las ecuaciones dem60 y dem65 indican, por ejemplo, que el parametro d1 sera el mismo parala variables y2 (La libertad de la oposicion polıtica en 1960) y y6 (La libertad de la oposicionpolıtica en 1965). Luego de la especificacion de las ecuaciones que denotan la relacion plan-teada entre las variables, puede procederse con la estimacion y posterior analisis del nivel deajuste del modelo estimado.

> fit<-sem(model1, data=PoliticalDemocracy)

> summary(fit, standardized=TRUE)

Los resultados obtenidos son:

lavaan (0.5-22) converged normally after 68 iterations

Number of observations 75

Estimator ML

Minimum Function Test Statistic 38.125

Degrees of freedom 35

P-value (Chi-square) 0.329

Parameter Estimates:

Information Expected

Standard Errors Standard

Page 47: Estimaci on de modelos de estructura de covarianza ...

3.7 Aplicacion practica 47

Latent Variables:

Estimate Std.Err z-value P(>|z|) Std.lv Std.all

ind60 =~

x1 1.000 0.670 0.920

x2 2.180 0.139 15.742 0.000 1.460 0.973

x3 1.819 0.152 11.967 0.000 1.218 0.872

dem60 =~

y1 1.000 2.223 0.850

y2 1.257 0.182 6.889 0.000 2.794 0.717

y3 1.058 0.151 6.987 0.000 2.351 0.722

y4 1.265 0.145 8.722 0.000 2.812 0.846

dem65 =~

y5 1.000 2.103 0.808

y6 1.186 0.169 7.024 0.000 2.493 0.746

y7 1.280 0.160 8.002 0.000 2.691 0.824

y8 1.266 0.158 8.007 0.000 2.662 0.828

Regressions:

Estimate Std.Err z-value P(>|z|) Std.lv Std.all

dem60 ~

ind60 1.483 0.399 3.715 0.000 0.447 0.447

dem65 ~

ind60 0.572 0.221 2.586 0.010 0.182 0.182

dem60 0.837 0.098 8.514 0.000 0.885 0.885

Covariances:

Estimate Std.Err z-value P(>|z|) Std.lv Std.all

.y1 ~~

.y5 0.624 0.358 1.741 0.082 0.624 0.296

.y2 ~~

.y4 1.313 0.702 1.871 0.061 1.313 0.273

.y6 2.153 0.734 2.934 0.003 2.153 0.356

.y3 ~~

.y7 0.795 0.608 1.308 0.191 0.795 0.191

.y4 ~~

.y8 0.348 0.442 0.787 0.431 0.348 0.109

.y6 ~~

.y8 1.356 0.568 2.386 0.017 1.356 0.338

Variances:

Estimate Std.Err z-value P(>|z|) Std.lv Std.all

.x1 0.082 0.019 4.184 0.000 0.082 0.154

.x2 0.120 0.070 1.718 0.086 0.120 0.053

.x3 0.467 0.090 5.177 0.000 0.467 0.239

Page 48: Estimaci on de modelos de estructura de covarianza ...

3.7 Aplicacion practica 48

.y1 1.891 0.444 4.256 0.000 1.891 0.277

.y2 7.373 1.374 5.366 0.000 7.373 0.486

.y3 5.067 0.952 5.324 0.000 5.067 0.478

.y4 3.148 0.739 4.261 0.000 3.148 0.285

.y5 2.351 0.480 4.895 0.000 2.351 0.347

.y6 4.954 0.914 5.419 0.000 4.954 0.443

.y7 3.431 0.713 4.814 0.000 3.431 0.322

.y8 3.254 0.695 4.685 0.000 3.254 0.315

ind60 0.448 0.087 5.173 0.000 1.000 1.000

.dem60 3.956 0.921 4.295 0.000 0.800 0.800

.dem65 0.172 0.215 0.803 0.422 0.039 0.039

Para visualizar el diagrama path con los valores de los parametros estimados se emplea elsiguiente codigo, dado como resultado la Figura 3.2.

> library(semPlot)

> semPaths(fit,"est",residuals=FALSE,rotation = 4,

+ fixedStyle = c("black",2),freeStyle=c("black",1),

+ edge.label.cex = 0.7,sizeLat = 6)

> title("Diagrama Path")

Figura 3.2: Diagrama Path asociado a los datos PoliticalDemocracy obtenido con sem-Paths().

Page 49: Estimaci on de modelos de estructura de covarianza ...

Capıtulo 4

Algoritmos geneticos

Los algoritmos geneticos hacen parte del campo de la informatica y han venido desarro-llandose rapidamente por su atractivo como metodo estrategico para resolver problemas deoptimizacion y busqueda de soluciones. Esta tecnica adopta el mecanismo de evolucion de lasespecies postulado por Darwin, donde el individuo mas fuerte tiene la mayor probabilidadde sobrevivir, reproducirse y transmitir su material genetico a las nuevas generaciones.

John Holland de la Universidad de Michigan es considerado el creador de los algoritmosgeneticos; durante la decada de los 60’, investigo junto con su equipo de trabajo la manerade adaptar las estrategias evolutivas a los sistemas computaciones. Anos mas tarde, DavidGoldberg, estudiante de Holland aplica los algoritmos geneticos a un problema industrial.Este y otro trabajos derivados de estudiantes de Holland crearon las bases del campo deaplicacion convirtiendola en una metodologıa cada vez mas aceptada e innovadora.

Por imitacion del proceso de evolucion natural de las especies, los algoritmos geneticos soncapaces de hallar soluciones a problemas reales. Esta forma de actuar los convierte en unmetodo robusto aplicado a problemas para los cuales no existen tecnicas especializadas,incluso cuando estas existen, pueden aportar mejores resultados. Este tipo de algoritmo hademostrado ser eficientes y confiables en la resolucion de problemas de optimizacion, sinembargo, dichos problemas deben cumplir con ciertas caracterısticas ya que no todos sepueden resolver a traves de algoritmos geneticos. En primer lugar, el espacio de busquedao posibles soluciones debe estar dentro de un rango especıfico, debe tener en consideracionla creacion de una funcion de ajuste que permita evidenciar que tan buena o mala es ciertarespuesta y por ultimo la codificacion de las soluciones debe ser sencilla computacionalmente(Gil, 2006).

4.1. Ventajas

La logica funcional de los algoritmos geneticos agrupa un numero de ventajas, lo cual haceque tenga“resuelto”una cantidad de problemas metodologicos presentados por otras tecnicas

Page 50: Estimaci on de modelos de estructura de covarianza ...

4.2 Desventajas 50

de busqueda. Algunas de estas caracterısticas son mencionados por Moujahid et al. (2008)y Gil (2006):

La principal ventaja radica en la mınima probabilidad que tienen para arrojar solu-ciones locales en comparacion a los metodos tradicionales por ser una tecnica robusta,que ademas abarca un amplio campo de aplicacion.

Produce resultados de un nivel aceptable en un tiempo competitivo.

Cuando existen tecnicas especıficas para determinados problemas, los algoritmos ge-neticos por si solos podrıan no arrojar una solucion optima pero al hibridar las dosmetodologıas podrıan obtenerse mejoras sustanciales.

Los conceptos de codificacion son sencillos.

Emplean operadores probabilısticos para la seleccion de los mejores “individuos”.

Permiten incorporar conocimientos sobre el dominio del problema.

Permite explorar el espacio de posibles soluciones en diferentes direcciones, aumentandola posibilidad de hallar una solucion optima global. Los demas metodos de optimizacionevaluan las soluciones en una sola dimension, por lo que al encontrar una respuestasatisfactoria al problema se corre el riesgo de que esta sea optima localmente.

Es ideal para problemas donde el espacio de busqueda exhaustiva de potenciales solu-ciones es grande.

Los algoritmos geneticos, en comparacion con otros metodos, presentan un mejordesempeno en los problemas que incluyen una funcion objetivo discontinua, ruidosa,cambiante en el tiempo o que posee varios optimos locales.

Permite manipular simultaneamente varios parametros, generando multiples solucio-nes igualmente buenas al problema planteado. Lo ideal en estos casos es llegar a unasolucion optima paretiana o no dominada, donde se optimiza un parametro hasta elpunto en el que ese parametro no puede mejorarse mas sin causar una correspondienteperdida de calidad en algun otro parametro.

No requieren estrictamente de conocimientos previos sobre el problema planteado, locual es una gran ventaja en comparacion con otros algoritmos, donde el conocimientoa priori requerido puede resultar insuficiente o errado sesgando la solucion a un optimolocal. El mecanismo de aleatoriedad empleado por los algoritmos evolutivos permiteexplorar multiples caminos de busqueda.

4.2. Desventajas

Si bien las ventajas presentadas dan una caracterıstica general de robustez a los algoritmosevolutivos, estos presentan ciertas falencias que pueden ser superables. Gil (2006) expone demanera concisa las siguientes desventajas con salidas alternativas:

Page 51: Estimaci on de modelos de estructura de covarianza ...

4.2 Desventajas 51

La primera y mas importante consideracion al crear un algoritmo es definir una re-presentacion del problema. El lenguaje utilizado para especificar soluciones candidatasdebe ser robusto; es decir, debe ser capaz de tolerar cambios aleatorios que no produz-can constantemente errores fatales o resultados sin sentido. Hay dos maneras princi-pales para conseguir esto. La primera, utilizada por la mayorıa de los AG, es definir alos individuos como listas de numeros -binarios, enteros o reales- donde cada numerorepresenta algun aspecto de la solucion candidata. Si los individuos son cadenas bina-rias, un 0 o 1 podrıa significar la ausencia o presencia de una cierta caracterıstica. Sison listas de numeros, estos numeros podrıan representar muchas cosas distintas: lospesos de las conexiones en una red neuronal, el orden de las ciudades visitadas en unrecorrido dado, la situacion espacial de componentes electronicos, los valores con losque se alimenta a un controlador, los angulos de torsion de los enlaces peptidos de unaproteına, etc. Ası, la mutacion implica cambiar estos numeros, cambiar bits o sumaro restar valores aleatorios. En este caso, el propio codigo del programa no cambia; elcodigo es lo que dirige la simulacion y hace un seguimiento de los individuos, evaluandosus aptitudes y quiza asegurando que solo se producen valores realistas y posibles parael problema dado.

El problema de como escribir la funcion objetivo debe considerarse cuidadosamentepara que se pueda alcanzar una mayor aptitud y verdaderamente signifique una solucionmejor para el problema dado. Si se elige mal una funcion objetivo o se define de manerainexacta, puede que el algoritmo sea incapaz de encontrar una solucion al problema, opuede acabar resolviendo el problema equivocado. (Esta ultima situacion se describea veces como la tendencia del algoritmo a “enganar”, aunque en realidad lo que estapasando es que el algoritmo esta haciendo lo que se le pidio hacer, no lo que suscreadores pretendıan que hiciera).

Ademas de elegir bien la funcion objetivo, tambien deben elegirse cuidadosamente losotros parametros de un algoritmo -el tamano de la poblacion, el ritmo de mutacion ycruzamiento, el tipo y fuerza de la seleccion. Si el tamano de la poblacion es demasiadopequeno, puede que el algoritmo no explore suficientemente el espacio de solucionespara encontrar buenas soluciones consistentemente. Si el ritmo de cambio genetico esdemasiado alto o el sistema de seleccion se escoge inadecuadamente, puede alterarse eldesarrollo de esquemas beneficiosos y la poblacion puede entrar en catastrofe de errores,al cambiar demasiado rapido para que la seleccion llegue a producir convergencia.

Un problema muy conocido que puede surgir se conoce como convergencia prematu-ra. Si un individuo que es mas apto que la mayorıa de sus competidores emerge muypronto en el curso de la ejecucion, se puede reproducir tan abundantemente que mermela diversidad de la poblacion demasiado pronto, provocando que el algoritmo conver-ja hacia el optimo local que representa ese individuo, en lugar de rastrear el paisajeadaptativo lo bastante a fondo para encontrar el optimo global. Esto es un problemaespecialmente comun en las poblaciones pequenas, donde incluso una variacion alea-toria en el ritmo de reproduccion puede provocar que un genotipo se haga dominantesobre los otros. Los metodos mas comunes implementados por los investigadores para

Page 52: Estimaci on de modelos de estructura de covarianza ...

4.3 Esquema de funcionamiento 52

Generar la población

inicial y evaluarla con

una función fitness

Aplicar operador de

selección para

obtener individuos

“padres”

Aplicar operadores de

cruce y mutación para

generar descendencia

(hijos)

Evaluar los nuevos

individuos con la función

fitness

Reemplazar los peores

individuos por los recién

creados

¿Criterio de

optimización

alcanzado?

Devolver el mejor

individuo (solución)

Si

No

Figura 4.1: Esquema de funcionamiento de un algoritmo evolutivo.

solucionar este problema implican controlar la fuerza selectiva, para no proporcionartanta ventaja a los individuos excesivamente aptos. La seleccion escalada, por rango ypor torneo, son tres de los metodos principales para conseguir esto; algunos metodosde seleccion escalada son el escalado sigma, en el que la reproduccion se basa en unacomparacion estadıstica de la aptitud media de la poblacion, y la seleccion de Boltz-mann, en la que la fuerza selectiva aumenta durante la ejecucion de manera similar ala variable “temperatura” en el recocido simulado. La convergencia prematura ocurreen la naturaleza (los biologos la llaman deriva genetica).

4.3. Esquema de funcionamiento

Los algoritmos evolutivos imitan el proceso de evolucion de las especies, donde el mejorindividuo es aquel mas fuerte capaz de sobrevivir y reproducirse logrando transmitir sugenetica a la siguiente generacion, como se muestra en la figura 4.1. Desde una conceptua-lizacion menos analoga, los algoritmos evolutivos son metodos de optimizacion que tratande hallar x1, . . . , xn tales que F (x1, . . . , xn) se maximice. Para lograr la optimizacion, losalgoritmos evolutivos emplean, al igual que en la naturaleza, el sistema de cruce y mutacionpara la reproduccion de nuevos individuos (soluciones), con el fin de reemplazar los menos“ fuertes” por los nuevos individuos creados, logrando obtener un nuevo conjunto de sujetos(x1, . . . , xn) que conforman la solucion i evaluada en la funcion objetivo F (x1, . . . , xn). Lafuncion F (x1, . . . , xn) dictamina que tan acertada es la solucion hallada y es por tanto elcriterio de convergencia del algoritmo, donde si este se cumple, entonces la solucion optimaseran todos los x1, . . . , xn que fueron evaluados, de lo contrario el ciclo se repite.

Page 53: Estimaci on de modelos de estructura de covarianza ...

4.4 Operadores 53

4.4. Operadores

Dado que los algoritmos geneticos estan basados en el proceso biologico de las especies, suteorıa aplica ciertos terminos para referirse a las transformaciones y soluciones resultantes,por ejemplo, una solucion representada por el conjunto de x1, . . . , xn es referido como uncromosoma, el cual a su vez, esta conformado por varios genes entendidos como cada xi con1 < i < n. La creacion de una codificacion bajo la metodologıa de los algoritmos geneticosimplica los siguientes operadores basicos:

4.4.1. Representacion del problema

En principio debe identificarse la mejor manera de representar las soluciones en la codificaciondel algoritmo. La representacion binaria (0, 1), entera o real son la forma basica de plasmarlas soluciones siendo los dos ultimos los mas complejos de manejar (Moujahid et al., 2008).

4.4.2. Poblacion inicial

La creacion de una poblacion inicial puede darse de dos maneras: aleatoria o no aleatoria.La inicializacion no aleatorizada puede acelerar el proceso de convergencia y resultar, enalgunos casos, proporcionando soluciones locales. Unos de los planteamientos importantesen la codificacion de este parametro es la determinacion del tamano de la poblacion a gene-rar. Tamanos muy grandes pueden provocar un gasto computacional grande, mientras quetamanos de poblacion muy pequenos produciran soluciones poco optimas (Arranz de la Penay Parra, 2007).

4.4.3. Funcion objetivo o de ajuste

Debe ser disenada para cada problema e incorporar de alguna manera la verificacion delas restricciones del problema. Dado un cromosoma particular, la funcion de adaptacion leasigna un numero real, que se supone refleja el nivel de adaptacion al problema del individuorepresentado por el cromosoma evidenciando que tan buena o mala es la solucion.

Gil (2006) menciona que la regla general para construir una buena funcion objetivo es queesta debe reflejar el valor del individuo de una manera “real”, pero en muchos problemas deoptimizacion combinatoria, donde existe gran cantidad de restricciones, buena parte de lospuntos del espacio de busqueda representan individuos no validos. Para este planteamientoen el que los individuos estan sometidos a restricciones, se han propuesto varias soluciones.La primera serıa la que se podrıa denominar absolutista, en la que aquellos individuos queno verifican las restricciones, no son considerados como tales, y se siguen efectuando crucesy mutaciones hasta obtener individuos validos, o bien, a dichos individuos se les asigna unafuncion objetivo igual a cero. Otra posibilidad consiste en reconstruir aquellos individuos

Page 54: Estimaci on de modelos de estructura de covarianza ...

4.4 Operadores 54

que no verifican las restricciones. Dicha reconstruccion suele llevarse a cabo por medio de unnuevo operador que se acostumbra a denominar reparador. Otro enfoque esta basado en lapenalizacion de la funcion objetivo. La idea general consiste en dividir la funcion objetivodel individuo por una cantidad (la penalizacion) que guarda relacion con las restriccionesque dicho individuo viola. Dicha cantidad puede simplemente tener en cuenta el numerode restricciones violadas o bien el denominado costo esperado de reconstruccion, es decir elcoste asociado a la conversion de dicho individuo en otro que no viole ninguna restriccion.Otra tecnica que se ha venido utilizando en el caso en que la computacion de la funcionobjetivo sea muy compleja es la denominada evaluacion aproximada de la funcion objetivo.En algunos casos la obtencion de n funciones objetivo aproximadas puede resultar mejor quela evaluacion exacta de una unica funcion objetivo (supuesto el caso de que la evaluacionaproximada resulta como mınimo n veces mas rapida que la evaluacion exacta).

4.4.4. Operador de seleccion

Este operador es el encargado de seleccionar las soluciones o cromosomas mas competentespara que sean estos quienes creen la nueva descendencia. Los genes que componen estoscromosomas son considerados los “padres”, quienes luego de aplicar los operadores de crucey mutacion daran como resultado una nueva solucion conocida como “hijos” o “nueva ge-neracion”. Para desarrollar este paso es necesario que cada una de las soluciones haya sidoevaluada por medio de la funcion objetivo establecida para el problema en particular. Lateorıa provee diferentes metodos para la seleccion de cromosomas:

Ruleta o seleccion proporcional

Con este metodo la probabilidad que tiene un individuo de reproducirse es proporcional asu valor de funcion de evaluacion, es decir, a su adaptacion; el comportamiento es similar alde una ruleta, donde se define un avance cada tirada a partir de la posicion actual y tiene laventaja de que no es posible escoger dos veces consecutivas el mismo elemento (Gil, 2006).Sivanandam y Deepa (2007) mencionan que este metodo de seleccion es mas facil de aplicar,pero ruidoso y la tasa de evolucion depende de la varianza de la aptitud de la poblacion,tambien describen el paso a paso de esta metodologıa:

1. Denotar T como la suma de todos los valores esperados de cada uno de los individuosde la poblacion.

2. Considerar N como el total de la poblacion. Repetir N veces:

a) Elegir un valor r entre 0 y T.

b) Recorrer los individuos de la poblacion, hasta que la suma de los valores esperadossea mayor que o igual a r. El individuo seleccionado debe ser aquel cuyo valoresperado completa la suma sobre el lımite de r.

Page 55: Estimaci on de modelos de estructura de covarianza ...

4.4 Operadores 55

Ranking

Segun Sivanandam y Deepa (2007), el metodo de la ruleta tendra un problema cuando losvalores de la funcion objetivo difieren mucho. Si la mejor condicion de un cromosoma es90 %, la circunferencia ocupa el 90 % de la rueda de la ruleta, y luego los otros cromosomasque tienen muy pocas posibilidades de ser seleccionados tendran una menor proporcion. Elmetodo de seleccion por Rango ordena la poblacion y cada cromosoma recibe la aptitud delranking. El peor ajuste tendra un valor de 1 y el mejor tiene N, donde N es el tamano dela poblacion. Este metodo da lugar a una convergencia lenta. Tambien mantiene la presionde seleccion cuando la varianza de la funcion de objetivo o de ajuste es baja. Conserva ladiversidad y por lo tanto conduce a una busqueda exitosa. En efecto, se seleccionan los padrespotenciales y un torneo se lleva a cabo para decidir cual de los individuos sera el padre. Haymuchas maneras en que esto se puede lograr y dos sugerencias son:

1. Seleccionar un par de individuos al azar. Generar un numero aleatorio, R, entre 0 y 1.Si R < r, se elige el primer individuo como padre. Si el R ≥ r, se utiliza el segundoindividuo como padre. Esto se repite para seleccionar el segundo padre. El valor de res un parametro de este metodo.

2. Seleccionar dos individuos al azar. El individuo con la evaluacion mas alta se convierteen el padre. Repetir el proceso para encontrar un segundo padre.

Torneo

A diferencia, la seleccion de la ruleta, la estrategia de seleccion por torneo proporciona unapresion selectiva mediante la celebracion de una competicion entre los individuos. El mejorindividuo del torneo es el que tiene el valor de ajuste mas alto, convirtiendose en el ganador delas N competiciones. Luego, el ganador se inserta en la poblacion que estara conformada portodos los padres. La competicion del torneo se repite hasta que se completa dicha poblacionpara la generacion de nuevas hijos. La poblacion de padres que comprende los ganadores deltorneo tiene el mayor ajuste medio de la poblacion inicial. Este metodo es mas eficiente yconduce a una solucion optima (Sivanandam y Deepa, 2007).

Estas tres alternativas metodologicas son las mas empleadas a la hora de determinar laestrategia de seleccion en el algoritmo, pero aun existen muchas otras, entre ellas algunasmencionadas por Arranz de la Pena y Parra (2007) como la seleccion elitista que copia elmejor o algunos de los mejores cromosomas padres en la nueva poblacion, con el fin deno perder aquellos individuos con mejor adaptacion, otro tipo es la seleccion por estadoestacionario donde la descendencia de los individuos seleccionados en cada generacion vuelvea la poblacion genetica preexistente, reemplazando a algunos de los miembros menos aptosde la anterior generacion haciendo que se conserven algunos individuos entre generacion,Tambien presenta la seleccion jerarquica y la seleccion escalada. Sivanandam y Deepa (2007)presenta la seleccion Boltzmann y la seleccion por muestreo estocastico universal.

Page 56: Estimaci on de modelos de estructura de covarianza ...

4.4 Operadores 56

Padre 1 10110010

Padre 2 10101111

Hijo 1 10101110

Hijo 2 10110011

Figura 4.2: Ejemplo de unico punto de cruce.

4.4.5. Cruce

Este operador explora toda la informacion que contiene la poblacion para luego crear nue-vos individuos a partir de la combinacion de los ya existentes. Algunas de las tecnicas decombinacion existentes presentadas por Sivanandam y Deepa (2007) son:

Unico punto de cruce

El algoritmo genetico tradicional utiliza un solo punto de cruce, donde los dos cromosomasde apareamiento se cortan una vez en los puntos correspondientes y las secciones despues delos recortes son intercambiadas.

Aquı, un sitio cruz o punto de cruce se selecciona al azar a lo largo de la longitud de la cadenade representacion elegida, por ejemplo la binaria. Si se elige el punto adecuado, mejores hijosse pueden obtener mediante la combinacion de los buenos padres. La Figura 4.2 ilustra latecnica del unico punto de cruce y se puede observar que los bits proximos al punto de crucese intercambian para producir hijos. El punto de cruce puede ser elegido al azar.

Dos puntos de cruce

Aparte de un solo punto de cruce, muchos algoritmos de cruce diferentes se han ideado, amenudo con mas de un punto de corte como se observa en la figura 4.3. Cabe senalar quela adicion de mas puntos de cruce reduce el rendimiento del algoritmo. El problema con laadicion de puntos de cruce adicionales es que los bloques de construccion son mas propensosa ser interrumpido; sin embargo, la ventaja de tener mas puntos de cruce es que el espaciodel problema puede ser explorado mas a fondo. En dos puntos de cruce, dos puntos de cruce

Page 57: Estimaci on de modelos de estructura de covarianza ...

4.4 Operadores 57

Padre 1 10110010

Padre 2 10101111

Hijo 1 10101110

Hijo 2 10110011

Figura 4.3: Ejemplo de dos puntos de cruce

son elegidos y el contenido entre estos puntos se intercambian entre dos padres generandoun hijo.

Cruce uniforme

Cada gen en la descendencia se crea copiando el gen correspondiente de uno o del otroprogenitor elegido de acuerdo a un numero binario generado aleatoriamente de la mismalongitud que los cromosomas. Cuando el numero aleatorio presenta un 1, el gen se copia delprimer padre, y donde hay un 0 se copia del segundo progenitor. Para cada par de padres sedebe crear un nuevo numero. Los descendientes, por lo tanto, contienen una mezcla de genesde cada padre. En la Figura 4.4 se puede observar que, mientras la generacion del hijo1,cuando hay un 1 en el numero aleatorio, el gen se copia del padre 1 de lo contrario, es decircuando hay un 0, se toma el gen del padre 2. En la produccion del hijo2, cuando hay un 1 enel numero aleatorio, el gen se copia del padre 2, cuando hay un 0; el gen se copia del padre1.

Probabilidad de mutacion

Arranz de la Pena y Parra (2007) explican que la probabilidad de cruce indica la frecuenciacon la que se producen cruces entre los cromosomas padre es decir, que haya probabilidadde reproduccion entre ellos. En caso de que no exista probabilidad de reproduccion, loshijos seran copias exactas de los padres. En caso de haberla, los hijos tendran partes de loscromosomas de los padres. Si la probabilidad de cruce es del 100 % el hijo se crea totalmentepor cruce, no por partes.

Page 58: Estimaci on de modelos de estructura de covarianza ...

4.4 Operadores 58

Padre 1 10110010

Padre 2 10101111

Número aleatorio 10110011

Hijo 1 10111110

Hijo 2 10100011

Figura 4.4: Ejemplo de cruce uniforme.

Sivanandam y Deepa (2007) destacan otros metodos como el cruce multipunto, el cruce detres padres, el cruce con sustitucion reducida, la mezcla de cruces, entre otros.

Mutacion

Sivanandam y Deepa (2007), despues de cruce, los hilos se someten a mutacion. La mutacionimpide que el algoritmo sea atrapado en un mınimo local. La mutacion desempena el papelde la recuperacion de los materiales geneticos perdidos, es una poliza de seguro contra laperdida irreversible de material genetico. La mutacion es vista como un operador de fondopara mantener la diversidad genetica en la poblacion. Introduce nuevas estructuras geneti-cas en la poblacion mediante la modificacion al azar algunos de sus componentes basicos.Tambien mantiene la reserva genetica bien surtido, y asegurando ası ergodicidad. Un espaciode busqueda se dice que es ergodica si existe una probabilidad no nula de generar cualquiersolucion de cualquier estado de la poblacion.

Hay muchas formas diferentes de mutacion para los diferentes tipos de representacion. Parala representacion binaria, una mutacion simple puede consistir en invertir el valor de cada gencon una pequena probabilidad. La probabilidad se toma usualmente como 1/L, donde L es lalongitud del cromosoma. Tambien es posible implementar otro tipo de operador de mutacionque hace mutacion solo si se mejora la calidad de la solucion. Este operador puede acelerarla busqueda. Pero se debe tener cuidado, ya que tambien podrıa reducir la diversidad en lapoblacion y hacer que el algoritmo converja hacia un optimo local. Las tecnicas presentadaspor Sivanandam y Deepa (2007) son:

Flipping

Esta tecnica implica el cambio de 0 a 1 y 1 a 0 basado en un cromosoma mutacion generadoaleatoriamente. Para un padre seleccionado se considera un cromosoma de mutacion. Cuandoel cromosoma de mutacion toma el valor de 1, el bit correspondiente en el cromosoma padre

Page 59: Estimaci on de modelos de estructura de covarianza ...

4.4 Operadores 59

Padre 1 11110010

Cromosoma de mutación 10001001

Hijo 1 011111011

Figura 4.5: Ejemplo de mutacion Flipping.

se voltea (0 a 1 y de 1 a 0) para producir el cromosoma hijo. En la Figura 4.5 se observacomo la posicion 1, 5 y 8 indican el cambio del padre para generar el hijo.

Intercambio

Dos posiciones aleatorias de la cadena se eligen y los bits correspondientes a esas posicionesse intercambian, tal como se observa en la Figura 4.6, donde la posicion 2 y 6 generan elcambio.

Padre 1 1 0 110 1 0 1Hijo 1 1 1 110 0 0 1

Figura 4.6: Ejemplo de mutacion de intercambio.

Reversion

Una posicion aleatoria se elige y los bits proximos a esa posicion se invierten y se produce elcromosoma hijo. Esto se muestra en la Figura 4.7

Padre 1 10110101Hijo 1 10110110

Figura 4.7: Ejemplo de mutacion de intercambio.

Probabilidad de mutacion

Arranz de la Pena y Parra (2007) explican que la probabilidad de mutacion indica la frecuen-cia con la que los genes de un cromosoma son mutados. Si no hay mutacion, los descendientesson los mismos que habıa tras la reproduccion. En caso de que haya mutacion, parte del cro-mosoma descendiente es modificado y si la probabilidad de mutacion es del 100 %, la totalidaddel cromosoma se cambia. En este caso, no se cambian simplemente unos bits del cromosoma

Page 60: Estimaci on de modelos de estructura de covarianza ...

4.4 Operadores 60

sino que se cambian todos, lo que significa que se produce una inversion en el cromosoma yno una mutacion por lo que la poblacion degenera muy rapidamente.

Moujahid et al. (2008) comentan que a pesar de que la mayorıa de los algoritmos geneticosasumen que la probabilidad de cruce y de mutacion permanecen constantes, algunos autoreshan obtenido mejores resultados experimentales modificando la probabilidad de mutaciona medida que aumenta el numero de iteraciones. Tambien presentan que la probabilidadde mutacion puede ser obtenida por medio de `−1 , donde ` es la longitud de la cadenanumerica o mediante la expresion 1/λ0,9318`0,4535, donde λ denota el numero de individuosen la poblacion.

4.4.6. Reemplazo de la poblacion

Existen varios metodos de reemplazo; entre ellos Sivanandam & Deepa (2008) senalan lossiguientes tres:

Sustitucion aleatoria

En este caso, los hijos generados reemplazan los individuos elegidos al azar en la poblacionsin importar el valor de la funcion objetivo. Los padres tambien son candidatos para laseleccion. Esto puede ser util para continuar la busqueda en poblaciones pequenas, ya quelos individuos debiles pueden ser introducidos en la poblacion.

Sustitucion del individuo debil

Esta tecnica busca identificar el individuo mas debil de la poblacion que sera sustituido poruno de los nuevos individuos (hijos). Este proceso mejora el valor de la funcion de ajuste dela poblacion cuando se combina con una tecnica de seleccion que selecciona los padres convalores de ajustes tanto buenos como debiles para cruzarlos.

Ambos padres

Esta tecnica reemplaza todos los padres por los hijos. En este caso, cada individuo de lapoblacion solo se reproduce una vez.

4.4.7. Condicion de parada

Es un indicador del estado de la poblacion que proporciona la convergencia del algoritmo.Sivanandam y Deepa (2007) listan las siguientes condiciones:

Page 61: Estimaci on de modelos de estructura de covarianza ...

4.5 Aplicacion practica 61

Numero maximo de generaciones

El algoritmo genetico se detiene cuando se llega a un numero de generaciones ya determinado.

Tiempo transcurrido

El algoritmo terminara cuando haya transcurrido un tiempo especificado. Si se ha alcanzadoel numero maximo de generacion antes de que haya transcurrido el tiempo especificado, elproceso terminara.

No hay cambios en la funcion de ajuste

El algoritmo terminara si no hay un mejor cambio en la funcion de ajuste durante un de-terminado numero de generaciones. Si se ha alcanzado el numero maximo de generacionantes de que se haya alcanzado el numero especificado de generacion sin cambios, el procesoterminara.

4.5. Aplicacion practica

A continuacion se ilustrar el uso de la metodologıa de algoritmos geneticos usando el softwareestadıstico R. Tomado de Willighagen et al. (2015), refiere a la optimizacion de dos valores:π y√

50. El ejemplo es presentado por el autor en el manual del paquete genalg y en elpretende llegar a los verdaderos valores a traves de un espacio de busqueda tomando comovalores mınimos y maximos los vectores c(1,1) y c(5,10). El paquete genalg tiene a disposiciondel usuario dos funciones para la puesta en marcha del algoritmo de optimizacion: rbga.biny rbga, la primera para aquellos casos donde es necesario trabajar con numeros binarios yla segunda para el caso de los reales. rbga requiere de la especificacion de un mınimo deargumentos, entre ellos:

stringMin: vector con valores mınimos.

stringMax: vector con valores maximos.

popSize: tamano de la poblacion.

iters: numero de iteraciones.

evalFunc: funcion objetivo proporcionada por el usuario.

El siguiente codigo empleado para definir la funcion objetivo inicia leyendo un vector nu-merico c(), seguido verifica que el tamano de dicho vector sea igual a 2 debido a que comose menciono anteriormente el problema de optimizacion involucra solo dos valores. Si estacondicion se cumple entonces se genera una variable llamada returnVal encargada de medirque tan distante se encuentra la solucion hallada en cada iteracion de la funcion rbga y el

Page 62: Estimaci on de modelos de estructura de covarianza ...

4.5 Aplicacion practica 62

verdadero valor a traves de la suma de las distancias absolutas. En este paso es importantetener presente que la librerıa genalg se encuentra codificada de manera tal que la optimi-zacion se de obteniendo el valor mınimo para el problema planteado; por tanto al analizardesde ese punto de vista la funcion objetivo codificada, esta pretende encontrar valores paraπ y√

50 que minimicen la variable returnVal.

> evaluate <- function(string=c()) {

+ returnVal = NA;

+ if (length(string) == 2) {

+ returnVal = abs(string[1]-pi) + abs(string[2]-sqrt(50));

+ } else {

+ stop("Expecting a chromosome of length 2!");

+ }

+ returnVal

+ }

Finalmente, para usar la funcion rbga deben especificar los valores para los vectores demınimos y maximos y llamar la funcion objetivo. Cuando los argumentos iters y popSize nose especifican, el paquete asigna por defecto los valores de 100 y 200 respectivamente.

> rbga.results = rbga(c(1, 1), c(5, 10), evalFunc=evaluate)

Luego de ejecutar el codigo anterior, R proporciona un informe detallado de los resultadosobtenidos. La primera parte entrega un resumen sobre el numero de iteraciones, el tamano dela poblacion, y los valores mınimos y maximos usados por la funcion rbga; por defecto paraeste ejemplo iters=100 y popSize=200. Para cada una de las 100 iteraciones se genera un totalde 200 posibles soluciones y los resultados a los parametros optimizados son visualizados enla matriz population de 200 filas por 2 columnas para la ultima iteracion, donde las columnascorresponden en este caso a los valores encontrados para pi y

√50. Dada la cantidad de datos,

en este documento solo se mostraran los primeros 10 y los ultimos 10 resultados. Tambienes posible ver el valor usado para el elitismo y la tasa de mutacion, al igual que los valoresarrojados por la funcion objetivo que corresponden a cada uno de los 200 resultados de lamatriz population. El vector best, guarda para cada iteracion el mejor valor otorgado porla funcion objetivo. mean es un vector, en este caso, de dimension 100x1 que contiene losvalores medios de las puntuaciones obtenidas por la funcion objetivo en cada iteracion.

$type

[1] "floats chromosome"

$stringMin

[1] 1 1

$stringMax

[1] 5 10

$popSize

Page 63: Estimaci on de modelos de estructura de covarianza ...

4.5 Aplicacion practica 63

[1] 200

$iters

[1] 100

$suggestions

NULL

$population

[,1] [,2]

[1,] 3.140205 7.070471

[2,] 3.140205 7.070471

[3,] 3.140205 7.070471

[4,] 3.140205 7.070471

[5,] 3.140205 7.070471

[6,] 3.140205 7.070471

[7,] 3.140205 7.070471

[8,] 3.140205 7.070471

[9,] 3.140205 7.070471

[10,] 3.140205 7.070471

. . .

. . .

. . .

[190,] 3.270105 7.163771

[191,] 3.140205 7.163771

[192,] 3.140205 7.070471

[193,] 3.140205 7.163771

[194,] 3.140205 7.070471

[195,] 3.140205 7.070471

[196,] 3.140205 7.070471

[197,] 3.270105 7.070471

[198,] 3.140205 7.070471

[199,] 3.053605 6.977171

[200,] 3.096905 7.163771

$elitism

[1] 40

$mutationChance

[1] 0.3333333

$evaluations

[1] 0.001983991 0.001983991 0.001983991 0.001983991 0.001983991 0.001983991

0.001983991 0.001983991 0.001983991

Page 64: Estimaci on de modelos de estructura de covarianza ...

4.5 Aplicacion practica 64

[10] 0.001983991 0.001983991 0.001983991 0.001983991 0.001983991 0.001983991

0.001983991 0.001983991 0.001983991

.

.

.

[190] 0.221216009 0.094091358 0.001983991 0.094091358 0.001983991 0.001983991

0.001983991 0.129108642 0.001983991

[199] 0.181883991 0.137391358

$best

[1] 0.083714275 0.083714275 0.083714275 0.038822509 0.017320401 0.017320401

0.017320401 0.005507695 0.003322838

[10] 0.003322838 0.003322838 0.003322838 0.003322838 0.003322838 0.003322838

0.003322838 0.003322838 0.003322838

.

.

.

[91] 0.001983991 0.001983991 0.001983991 0.001983991 0.001983991 0.001983991

0.001983991 0.001983991 0.001983991

[100] 0.001983991

$mean

[1] 3.33972767 2.20544664 1.57524941 1.39183202 1.17206983 1.22966635

1.00526566 1.07744587 1.11517200 0.96434875

.

.

.

[91] 0.39365465 0.33357309 0.35715340 0.27441924 0.21299476 0.19143787

0.16474569 0.13643447 0.09734650 0.04969619

attr(,"class")

[1] "rbga"

Para tomar el mejor resultado se debe tener presente el mejor valor obtenido a partir dela funcion objetivo y determinar a cual de las 200 soluciones de la matriz population estaasociada.Para este ejemplo la mejor solucion hallada fue pi = 3,140205 y

√50 = 7,070471,

obtenidos mediante el siguiente comando tomado de Baquela y Redchuk (2013):

> rbga.results$population[order(rbga.results$evaluations)[1],]

El segundo ejemplo se basa en el artıculo publicado por Rivas et al. (2007) titulado: aplicacionde los algoritmos geneticos para estimar los parametros en un modelo de regresion de Cox.En el se toma como caso de estudio los valores de los parametros del modelo COX obtenidopor Borges (2002) en su analisis de supervivencia realizado a pacientes del servicio de dialisisperitoneal del Hospital Clınico Universitario de Caracas entre 1980 y 2000, con el fin de

Page 65: Estimaci on de modelos de estructura de covarianza ...

4.5 Aplicacion practica 65

compararlo con los resultados obtenidos a traves de la creacion de un algoritmo genetico. laTabla 4.1 muestra los valores estimados por Borges (2002) y su respectivo AIC.

β1 β2 β3 AIC0,5492 0,0315 -0,0969 507,542

Tabla 4.1: Valores estimados de los parametros del Modelo de Regresion de Cox presentadopor Borges (2002). Tomado de Rivas et al. (2007)

A lo largo de la publicacion se expone la manera como fue abordado el analisis y se realizauna comparacion entre el AIC de la Tabla 4.1 y el AIC obtenido para cada una de las 10prueba usando algoritmos geneticos, ver Tabla 4.2. Finalmente los autores concluyen que losmejores valores del AIC son aquellos asociados a las estimaciones realizadas con el algoritmogenetico.

Prueba β1 β2 β3 AIC1 0,533051 0,070153 -0,584849 402,7292 -0,052507 0,027918 -0,383819 407,2763 -0,099685 0,04056 -0,485062 394,5074 -0,502085 -0,022684 -0,353294 447,7795 0,425578 -0,010896 -0,317306 430,4296 -0,479252 0,034671 -0,520996 394,9287 0,423431 -0,015299 -0,437233 421,4278 -0,2721 -0,008445 -0,39926 424,7429 -0,536755 0,05092 -0,441887 406,57110 0,756753 -0,014112 -0,747774 428,597

Tabla 4.2: Valores estimados de los parametros del Modelo de Regresion de Cox con susrespectivos valores de AIC, en 10 pruebas del algoritmo. Tomado de Rivas et al. (2007)

Page 66: Estimaci on de modelos de estructura de covarianza ...

Capıtulo 5

Comparacion entre diferentesmetodos de estimacion: caso aplicable

Los programas computacionales disponibles para trabajar la teorıa de los Modelos de Estruc-tura de Covarianza (MEC) consideran en su codigo algoritmos de optimizacion propios de lateorıa de metodos numericos conocidos como metodos iterativos, por ejemplo: Expectacion-Maximizacion, Expectacion-Maximizacion Estocastico, Newton-Rapson o una combinacionentre estos Diebolt y Ip (1996) y los metodos Monte Carlo de Cadenas de Markov (Robert,1996); que si bien han permitido emplear esta tecnica en la practica; presentan falenciasen su convergencia dada la alta influencia que ejercen los maximos locales. Por esta razon,el siguiente analisis tiene como objetivo general proporcionar una solucion alternativa noparametrica que permita superar el tema de convergencia antes mencionado adoptando unalgoritmo genetico en la etapa en la etapa de estimacion de los MEC, ya que su principalventaja es la generacion de soluciones con maximos globales.

Para determinar y evidenciar las ventajas de dicha propuesta se tomara en consideracion elmodelo MEC presentado por Parra (1998) y se estudiaran vıa simulacion los diferentes resul-tados obtenidos en las estimaciones bajo diferentes metodos (algoritmos geneticos, maximaverosimilitud, mınimos cuadrados generalizados), esto haciendo uso del software estadısticoR.

5.1. Metodologıa

5.1.1. Modelo propuesto

Para cumplir con los objetivos propuestos, todo el analisis tendra como punto partida elmodelo MEC presentado por Parra (1998) en su tesis de maestrıa titulada “Efectos de ob-servaciones outliers en modelos de estructura de covarianza”, esto con el fin de tener un

Page 67: Estimaci on de modelos de estructura de covarianza ...

5.1 Metodologıa 67

𝝃

𝜼𝟏

𝜼𝟐

𝐘𝟏1

𝐘𝟐1

𝐘𝟑1

𝐘𝟒1

𝐘𝟓1

𝐘𝟔1

𝐗𝟏1

𝐗𝟐1

𝐗𝟑1

𝜽𝟏

𝜽𝟐

𝜽𝟑

𝜽𝟕

𝜽𝟖

𝜽𝟗

𝜽𝟓

𝜽𝟔

𝜹𝟏

𝜹𝟐

𝜹𝟑

𝜺𝟏

𝜺𝟐

𝜺𝟑

𝜺𝟒

𝜺𝟓

𝜺𝟔

𝝀𝟑

𝝀𝟖

𝝍𝟐

𝝍𝟏

𝜻𝟏

𝜻𝟐

𝜸𝟏

𝜸𝟐

𝜷

𝝓

𝜽𝟒

Figura 5.1: Diagrama Path del modelo estructural presentado por Parra (1998).

conocimiento a priori sobre los valores estimados para los parametros y la matriz de cova-rianza Σ; obtenidos mediante la simulacion de 10.000 observaciones multivariadas N9 (0,Σ).

Tal y como lo expresa Parra (1998), el modelo consta de dos variables latentes endogenas(η1, η2) y una exogena (ξ), cada una de las cuales tiene asociada 3 variables observablescuyos errores de medicion estan incorrelacionados, ademas se fijan valores para tres variablesobservables con el fin de evitar soluciones no posibles en la poblacion. Ver Figura 5.1.

Los valores para los parametros restringidos corresponden a λ1 = 2,λ4 = 0,1323, φ = 1. Te-niendo en cuenta esto y lo planteado en el anterior diagrama path; el vector de estimacionesesta conformado por los siguientes 21 parametros: λ2, λ3, λ5, λ6, λ7, λ8, λ9, γ1, γ2, β, θ1, θ2, . . . , θ9, ψ1

y ψ2.

A continuacion se muestran las ecuaciones lineales que pertenecen al modelo de medida yque representa las relaciones entre las variables latentes y las variables observables implıcitasen el diagrama path, al igual que las ecuaciones concernientes a la especificacion del modeloestructural que plasma la relacion entre los constructos independientes y dependientes:

Especificacion del modelo de medida:

X = λxξ + δ (5.1)

Y = λyη + ε (5.2)

X =

x1x2x3

, λx =

λ7λ8λ9

, δ =

δ1δ2δ3

Page 68: Estimaci on de modelos de estructura de covarianza ...

5.1 Metodologıa 68

Y =

y1y2y3y4y5y6

, λy =

λ1 0λ2 0λ3 00 λ40 λ50 λ6

, ε =

ε1ε2ε3ε4ε5ε6

Especificacion del modelo estructural:

η = βη + γξ + ζ

η =

[η1η2

], β =

[0 0β 0

], γ =

[γ1γ2

], ζ =

[ζ1ζ2

], ξ = [ξ]

Ademas, Parra (1998) asume que:

Var[ξ] = φ

Cov(ζ) =diag[ψi, i = 1, 2]

Cov(ε) = θε =diag[θi, i = 1, 2, . . . , 6]

Cov(δ) = θδ =diag[θj, j = 7, 8, 9]

Cov(ζ, ξ) =Cov(δ, ξ) =Cov(ε, η) = 0

Cov(ζ, δ) =Cov(ζ, ε) =Cov(δ, ε) = 0

Con φ la varianza de la variable latente exogena; ψi la varianza del error en la ecuacion paraηi, i = 1, 2; θi la varianza del error en la ecuacion para la variable medible Yi, i = 1, 2, . . . , 6;θ7, θ8, θ9 las varianzas de los errores en las ecuaciones de X1, X2, X3 respectivamente. Seestablece ademas la incorrelacion de ζ con los errores de medicion de δ y en ε, la incorrelacionentre estos ultimos y la incorrelacion entre los errores de medicion en ε con las variables enη.

El modelo presentado cuenta con un total de 45 momentos (elementos no redundantes en lamatriz de varianzas y covarianzas) y 21 parametros a estimar, por tanto este posee 24 gradosde libertad lo que indica que los parametros del modelo pueden ser estimados y cuenta consuficientes restricciones (modelo sobreidentificado). El numero de variables observables es 9y los grados de libertad del modelo nulo son: 45-9=36.

5.1.2. Matriz de varianza covarianza del modelo propuesto

Como se demostro anteriormente en al seccion 2.4, la matriz de covarianza de las variablesobservadas puede ser reproducida a partir de los parametros estimados del modelo; y ademas

Page 69: Estimaci on de modelos de estructura de covarianza ...

5.1 Metodologıa 69

la matriz Σ (θ) puede representarse en 4 submatrices: ΣY Y ,ΣXY ,ΣY X ,ΣXX ; que para efectosdel modelo tomado estas estan dadas por las siguientes expresiones:

ΣY Y = λY (1− β)−1 (φγγ′ + ψ)[(

(1− β)−1)]′

λ′Y + θε (5.3)

ΣXX = λXφλ′X + θδ (5.4)

ΣY X = λY[(

(1− β)−1)]′

γφλ′X (5.5)

ΣXY = (ΣY X)′ (5.6)

Entonces, la matriz de varianza covarianza presentada por Parra (1998) es:

9 4, 5356 1, 7693 1, 8525 0, 9616 0, 7845 6 1, 24 0, 9304, 5356 3, 5715 1, 0031 1, 0503 0, 5452 0, 4448 3, 4017 0, 703 0, 52731, 7693 1, 0031 1, 3913 0, 4098 0, 2127 0, 1735 1, 3270 0, 2742 0, 20571, 8525 1, 0503 0, 4098 1, 5253 0, 2727 0, 2224 1, 9848 0, 4102 0, 30760, 9616 0, 5452 0, 2127 0, 2727 1, 1415 0, 1155 1, 0303 0, 2129 0, 15970, 7845 0, 4448 0, 1735 0, 2224 0, 1155 1, 0942 0, 8405 0, 1737 0, 1303

6 3, 4017 1, 3270 1, 9848 1, 0303 0, 8405 10 1, 86 1, 3951, 24 0, 703 0, 2742 0, 4102 0, 2129 0, 1737 1, 86 1, 3844 0, 28830, 930 0, 5273 0, 2057 0, 3076 0, 1597 0, 1303 1, 395 0, 2883 1, 2162

Los valores para los parametros del modelo son:

λ1 = 2 λ9 = 0,465 θ5 = 1λ2 = 1,1339 γ1 = 1 θ6 = 1λ3 = 0,4423 γ2 = 3 θ7 = 1λ4 = 0,1323 β = 2 θ8 = 1λ5 = 0,0687 θ1 = 1 θ9 = 1λ6 = 0,056 θ2 = 1 ψ1 = 1λ7 = 3 θ3 = 1 ψ2 = 1λ8 = 0,62 θ4 = 1 φ = 1

Page 70: Estimaci on de modelos de estructura de covarianza ...

5.1 Metodologıa 70

5.1.3. Estrategia de estimacion del modelo propuesto

La etapa de estimacion de los parametros obedece a tres estrategias, la primera correspon-de a los resultados aplicando el metodo de Maxima Verosimilitud; como segunda opcionse tomo en consideracion la tecnica de Mınimos Cuadrados Generalizados y por ultimo laimplementacion de un algoritmo genetico, siendo este el objetivo general de este trabajo.

Los metodos de Maxima Verosimilitud y Mınimos Cuadrados Generalizados son aplicadosa traves de la funcion sem() del paquete lavaan de R-project (Ver capıtulo 3). Como se havenido formulando, los algoritmos geneticos pueden llegar a jugar un papel importante enla estimacion de los modelos de estructura de covarianza y para exponer este punto se hizouso de la librerıa genalg y su funcion rbga(). El codigo creado se encuentra en el anexo1; el diagrama de flujo (Figuras 5.2, 5.3 y 5.4) esboza y facilita la comprension de sufuncionamiento.

A modo general, el codigo inicia por activar la librerıa genalg; creada por Willighagen et al.(2015) para trabajar el tema de optimizacion empleando la teorıa computacional de losalgoritmos geneticos; donde el optimo es el menor valor del problema que se plantee, portanto, sı la intencion fuera maximizar se debe agregar un sımbolo negativo a la funcionobjetivo o determinar una estrategia que permita cumplir el objetivo. rbga(), es una de lasfunciones disponibles de dicha librerıa y con ella es posible abordar problemas que puedenser representados por numeros racionales; si el interes fuera el conjunto de numeros binarios,rbga.bin() es la funcion enfocada a este aspecto.

La matriz de covarianza presentada por Parra (1998) en su tesis (pagina 67); que paraefectos de este trabajo se considera la matriz de covarianza original de los datos y la funcioncov estimada() codificada acorde a las ecuaciones de la 5.3 a la 5.6 son necesarias paraconstatar los resultados arrojados al emplear algoritmos geneticos, es decir, teniendo encuenta que anteriormente se expuso y se demostro que los parametros del modelo puedenreproducir la matriz de covarianza de los datos (Ver ecuacion 2.11); y teniendo como puntode referencia la matriz presentada por Parra (1998), al obtener vıa algoritmos geneticoslas estimaciones de los parametros del modelo estas pueden ser transformadas mediantela funcion cov estimada() y la diferencia entre esta matriz y la original deberan dar comoresultado ideal una matriz nula o con componentes cercanos a cero donde cada elementoobedece al error de estimacion; se toma como valores aceptables los errores menores o igualesa 0,05.

Uno de los atributos requeridos por la funcion rbga() es evalFunc y corresponde a la fun-cion objetivo, en ella se caracteriza el problema a optimizar. Para este caso, como ya semenciono, la idea a plasmar es que si los valores hallados para los 21 parametros libres delmodelo son correctos entonces con ellos se puede obtener una matriz igual o similar a lamatriz de covarianza original, para ello la funcion denominada fn objetivo() lee un vectorque contiene 21 valores y los transforma en la matriz de covarianza estimada usando la fun-cion cov estimada(), luego realiza la diferencia entre la matriz de covarianza original y laestimada y para cada componente de la matriz resultante verifica si el valor absoluto de estees menor o igual a 0,05; si es falso, la variable acumuladora p suma el valor absoluto de la

Page 71: Estimaci on de modelos de estructura de covarianza ...

5.1 Metodologıa 71

componente evaluada, por el contrario si se cumple con la condicion, entonces p suma cero.Se decidio hacer uso del error absoluto debido a que el calculo del error relativo puede pro-porcionar una magnitud poco fiable cuando los parametros son cercanos a cero. La variablep caracteriza el castigo para aquellos componentes de la matriz de error que superan el 0,05;haciendo entonces que el problema de optimizacion planteado deba ser minimizado, es decir,si p es igual o lo suficientemente cercano a cero indica que la solucion hallada para los 21parametros del modelo es correcta dado que reproducen fielmente la matriz de covarianzaoriginal y por tanto dicha solucion debe ser igual o parecida a los valores presentados porParra (1998) (numeral 5.1.2).

Describiendo la funcion fn objetivo() de manera mas general, se tiene que: sea Σ(Θ)d×d lamatriz de covarianza de los datos y Θ ∈ R(d(d+1))/2 un vector de parametros. Considere zun vector de valores iniciales y g(z) = Θl la transformacion de z a traves de la tecnicade algoritmos geneticos, obteniendo como resultado un vector Θl que contiene los valoresestimados de los parametros del modelo y a consecuencia la matriz de covarianza Σ(Θl)d×dcalculada a partir de Θl. Ahora, |Σ(Θ)d×d − Σ(Θl)d×d| = Σl

d×d, y P (z) =∑

i≥ j(σlij > 0,05)

donde, Σld×d = σlij, ∀i, j = 1, . . . , d; por tanto la funcion objetivo construida plantea una

solucion de optimizacion minimizando Σld×d.

Finalmente, para dar inicio a la ejecucion del codigo se emplea la funcion rbga(stringMin=c(),stringMax=c(),popSize=10000, iters=700, evalFunc=NULL, verbose=TRUE) y como atri-butos requeridos se encuentran dos vectores que representan el rango de busqueda; uno devalores mınimos y otro de maximos ambos de dimension igual al total de parametros aestimar, el tamano de la poblacion (popSize), el numero de iteraciones (iters) y la funcionobjetivo (evalFunc) definida previamente. En este punto para cada una de las 700 iteraciones,rbga() genera una poblacion de 10000 cromosomas, es decir, un conjunto de 10000 solucionesdonde cada solucion esta compuesta por 21 valores pertenecientes a los parametros del mo-delo. Cada solucion es evaluada por la funcion objetivo creada con el fin de determinar lasmejores y ası poder aplicar los operadores de seleccion, cruce y mutacion para generar unanueva poblacion para la siguiente iteracion reemplazando los peores individuos por los nue-vos creados; ası hasta completar el numero de iteraciones definidas, obteniendo finalmente laultima poblacion considerada la mejor. Para extraer la mejor solucion de esta poblacion sedebe hacer uso de la salida $population que posee la ultima poblacion de soluciones generadaen una matriz de 10000 filas y 21 columnas; y $evaluations correspondiente a un vector dedimension 10000x1 donde cada elemento corresponde al valor asignado por la funcion obje-tivo a cada solucion contenida en $population. Ambas salidas son enlazadas por la funcionorder() para reorganizar de manera descendente los elementos del vector $evaluations mos-trando solo la posicion que estos ocupaban originalmente, en este sentido el primer elementodel vector resultante sera la posicion de la mejor puntuacion asignada por la funcion objetivo,por tanto esa sera la posicion de la fila en la salida $population que corresponde a la mejorsolucion generada por el algoritmo.

Page 72: Estimaci on de modelos de estructura de covarianza ...

5.1 Metodologıa 72

Inicio

Cargar la

librería genalg

Leer matriz de covarianza de los datos: cov_original()

Leer la función para la covarianza estimada: cov_estimada(); codificada según la ecuación 8.

Leer la función objetivo: fn_objetivo<-function(string=c())

Llamar la función rbga(); ingresar sus atributos: vectores de máximos y mínimos para los parámetros, tamaño de la población, número de iteraciones y la función objetivo: rbga(c(0,…,0),c(6,…,6), popSize=15000,iters=600, evalFunc=fn_objetivo, verbose=TRUE).

2

1

Figura 5.2: Diagrama de Flujo del codigo para la estimacion de los parametros del modeloMEC con algoritmos geneticos. Parte 1

Page 73: Estimaci on de modelos de estructura de covarianza ...

5.1 Metodologıa 73

Leer el vector de la población generada: string=c()

covarianza_E=cov_estimada(string) p=0

p=ifelse(abs(cov_original[i,j]-

covarianza_E[i,j]))<=0.05

p=p+0 p=p+abs(cov_original[i,j]-covarianza_E[i,j])

Si No

Desde 1<= i <=9

Desde 1<= j <=9

j+1 <=9 Si

No

i+1 <=9

Si

No

Devuelva p

1

Figura 5.3: Diagrama de Flujo del codigo para la estimacion de los parametros del modeloMEC con algoritmos geneticos. Parte 2

Page 74: Estimaci on de modelos de estructura de covarianza ...

5.1 Metodologıa 74

Evaluar la función

objetivo.

Desde 1<= iters

<=600

Desde 1<= popSize

<=15000

Aplicar operador

de selección para

obtener individuos

“padres”

Aplicar operadores de

cruce y mutación para

generar descendencia

(hijos)

Evaluar los nuevos

individuos con la

función objetivo

Reemplazar los peores

individuos por los

recién creados

Generar población con

15000 “individuos” o

soluciones.

popSize+1

<=15000

Si

N

Iters+1 <=600

Si

Devolver el mejor

individuo (solución)

Fin

2

Figura 5.4: Diagrama de Flujo del codigo para la estimacion de los parametros del modeloMEC con algoritmos geneticos. Parte 3

Page 75: Estimaci on de modelos de estructura de covarianza ...

5.2 Analisis de resultados 75

5.2. Analisis de resultados

5.2.1. Estimacion vıa algoritmos geneticos

Concretada e implementada la metodologıa, los valores estimados para los parametros vıaalgoritmos geneticos son los siguientes:

λ1 = 2,0000 λ9 = 0,4599 θ5 = 0,9493λ2 = 1,1307 γ1 = 1,0281 θ6 = 0,9716λ3 = 0,4490 γ2 = 2,8478 θ7 = 1,1817λ4 = 0,1323 β = 2,1133 θ8 = 1,0069λ5 = 0,0718 θ1 = 1,3511 θ9 = 0,9578λ6 = 0,0531 θ2 = 1,1624 ψ1 = 0,8660λ7 = 2,9631 θ3 = 0,9625 ψ2 = 0,0210λ8 = 0,6115 θ4 = 1,0403 φ = 1,0000

La matriz de varianza covarianza muestral (S) generada por las anteriores estimacionescorresponde a:

S =

9,04338204,3489822 3,62115691,7269701 0,9763708 1,35025001,8500825 1,0459744 0,4153539 1,54953461,0037014 0,5674590 0,2253366 0,2762784 1,09918690,7431448 0,4201491 0,1668402 0,2045577 0,1109760 1,05377206,0930496 3,4448054 1,3679237 1,9681633 1,0677622 0,7905758 9,96179191,2573545 0,7108659 0,2822831 0,4061478 0,2203421 0,1631423 1,8118431 1,38074780,9457818 0,5347132 0,2123333 0,3055043 0,1657413 0,1227156 1,3628680 0,2812398 1,1693627

Teniendo en cuenta la matriz de varianza covarianza presentada por Parra (1998), la dife-rencia entre esta y S esta dada por:

S−Σ =

0,0433820−0,1866178 0,0496569−0,0423299 −0,0267292 −0,0410500−0,0024175 −0,0043256 0,0055539 0,02423460,0421014 0,0222590 0,0126366 0,0035784 −0,0423131−0,0413552 −0,0246509 −0,0066598 −0,0178423 −0,0045240 −0,04042800,0930496 0,0431054 0,0409237 −0,0166367 0,0374622 −0,0499242 −0,03820810,0173545 0,0078659 0,0080831 −0,0040522 0,0074421 −0,0105577 −0,0481569 −0,00365220,0157818 0,0074132 0,0066333 −0,0020957 0,0060413 −0,0075844 −0,0321320 −0,0070602 −0,0468373

Para la solucion obtenida, la variable de castigo p traducida como aquella que acumula lasdiferencias entre cada una de las componentes de S y Σ que superan el error de estimacionmaximo permitido (0,05); obtuvo un valor de 0,2797. Observando la matriz triangular S−Σ,la Cov(Y1, Y2) y la Cov(Y1, X1) superan el valor de error establecido, siendo la covarianzaentre Y1, Y2 la mas alta y como es de esperarse, la suma de la diferencia de estimacion deestas dos covarianzas coinciden con el valor de la variable p. Ademas de las 45 estimaciones,20 se encuentran sobrestimadas y las 25 restantes subestimadas. A pesar de que el rangode busqueda definido consideraba una pequena porcion de numero negativos ([−1, 6]), lametodologıa de algoritmos geneticos fue capaz de generar una solucion con valores positivospara las estimaciones de los parametros del modelo.

Page 76: Estimaci on de modelos de estructura de covarianza ...

5.2 Analisis de resultados 76

5.2.2. Comparacion entre metodos de estimacion

La estimacion de los parametros del modelo vıa maxima verosimilitud y mınimos cuadradosgeneralizados hacen parte de lo determinado en el planteamiento metodologico.

Parámetros

Valor Estimado de los Parámetros Diferencia*

Original Algoritmos

Genéticos

Máxima

Verosimilitud

Mínimos

Cuadrados

Generalizados

Algoritmos

Genéticos

Máxima

Verosimilitud

Mínimos

Cuadrados

Generalizados

𝜆1∗∗

2,0000 2,0000 2,0000 2,0000 0,0000 0,0000 0,0000

𝜆2 1,1339 1,1307 1,1340 1,1340 0,0032 0,0001 0,0001

𝜆3 0,4423 0,4490 0,4420 0,4420 0,0067 0,0003 0,0003

𝜆4∗∗

0,1323 0,1323 0,1320 0,1320 0,0000 0,0003 0,0003

𝜆5 0,0687 0,0718 0,0690 0,0690 0,0031 0,0003 0,0003

𝜆6 0,0560 0,0531 0,0560 0,0560 0,0029 0,0000 0,0000

𝜆7 3,0000 2,9631 1,0000 1,0000 0,0369 2,0000 2,0000

𝜆8 0,6200 0,6115 0,2070 0,2070 0,0085 0,4130 0,4130

𝜆9 0,4650 0,4599 0,1550 0,1550 0,0051 0,3100 0,3100

𝜃1 1,0000 1,3511 1,0000 1,0000 0,3511 0,0000 0,0000

𝜃2 1,0000 1,1624 1,0000 1,0000 0,1624 0,0000 0,0000

𝜃3 1,0000 0,9625 1,0000 1,0000 0,0375 0,0000 0,0000

𝜃4 1,0000 1,0403 1,0000 1,0000 0,0403 0,0000 0,0000

𝜃5 1,0000 0,9493 1,0000 1,0000 0,0507 0,0000 0,0000

𝜃6 1,0000 0,9716 1,0000 1,0000 0,0284 0,0000 0,0000

𝜃7 1,0000 1,1817 1,0000 1,0000 0,1817 0,0000 0,0000

𝜃8 1,0000 1,0069 1,0000 1,0000 0,0069 0,0000 0,0000

𝜃9 1,0000 0,9578 1,0000 1,0000 0,0422 0,0000 0,0000

𝛽 2,0000 2,1133 2,0010 2,0010 0,1133 0,0010 0,0010

𝛾1 1,0000 1,0281 0,3330 0,3330 0,0281 0,6670 0,6670

𝛾2 3,0000 2,8478 1,0000 1,0000 0,1522 2,0000 2,0000

𝜙∗∗ 1,0000 1,0000 8,9990 9,0000 0,0000 7,9990 8,0000

𝜓1 1,0000 0,8660 1,0000 1,0000 0,1340 0,0000 0,0000

𝜓2 1,0000 0,0210 1,0020 1,0020 0,9790 0,0020 0,0020

* La diferencia es calculada entre el valor original y el obtenido según el método de estimación.

** Parámetros con valores fijos.

Tabla 5.1: Comparacion entre estimaciones.

La Tabla 5.1 contiene los valores de referencia presentados por Parra (1998), las estimacionesobtenidas con algoritmos geneticos, maxima verosimilitud y mınimos cuadrados generaliza-dos, y la diferencia entre los parametros originales y los valores obtenidos con cada uno delos metodos de estimacion. Los resultados conseguidos a traves de maxima verosimilitud sonidenticos a los generados por mınimos cuadrados generalizados excluyendo el parametro φ; apesar de esto la diferencia es poco significativa. En particular para φ, segun el modelo MECtrabajado, este es un parametro fijo y tiene un valor igual a 1. Al incluir esta restriccion en

Page 77: Estimaci on de modelos de estructura de covarianza ...

5.3 Conclusiones 77

la definicion del modelo, la funcion sem() rechaza esta condicion advirtiendo problemas deconvergencia, dado esto, las estimaciones obtenidas a traves de la librerıa lavaan no incluyenla fijacion de φ y por tanto su valor difiere en gran medida del estimado mediante algoritmosgeneticos y del original. A partir de este punto del trabajo, dada la similitud entre maximaverosimilitud y mınimos cuadrados generalizados, en el texto se hara referencia a ellos comolos metodos clasicos de estimacion.

La distancia promedio generada por algoritmos geneticos es de 0,099 y 0,558 para los meto-dos clasicos de estimacion, este ultimo esta claramente influencio por el valor estimado de φ.Sin tomar en cuenta las distancias de los valores fijados, las distancias mınimas de 0,0029 y0,000 corresponden a algoritmos geneticos y las metodologıas tradicionales, respectivamen-te. Analizando las estimaciones y considerando los parametros fijos λ1, λ4 y φ, los valoresasignados son respetados en la solucion generada por algoritmos geneticos; caso contrario alo sucedido con las tecnicas tradicionales que presenta cambios en 2 de 3 de las cantidadesconsideradas. Descartando las distancias de los metodos de estimacion al valor original de λ1,algoritmos geneticos en comparacion con los metodos clasicos posee 7 de las diferencias maspequenas, es decir, que 7 de sus valores estimados son mas cercanos a los reales que aquellosobtenidos por las tecnicas tradicionales. En general, se puede observar que la mayorıa de lasdiferencias obtenidas por uno u otro metodo son cercanas a cero.

5.3. Conclusiones

Una parte fundamental al momento de aplicar la teorıa de algoritmos geneticos a la estima-cion de los parametros de un modelo de estructura de covarianza es determinar el tamanode la poblacion o el numero de soluciones generadas y el total de iteraciones al emplear lafuncion rbga() del paquete genalg. Luego de varias simulaciones modificando el valor de lapoblacion, el numero total de iteraciones y fijando el rango de busqueda de soluciones entre -1y 6, los mejores resultados para la variable de castigo p fueron obtenidos con combinacionesde poblaciones alrededor de 9000 e iteraciones relativamente cercanas a 600. El mejor valorobtenido para p fue 0,2797 con una poblacion de 10000 soluciones y 700 iteraciones. Tambiense observo que entre mas grande sea el tamano de la poblacion y el numero de iteraciones,los resultados para p no mejoran, por ende es importante hallar un equilibrio entre estos dosvalores (Tabla 5.2).

Para el proceso de estimacion de los parametros es fundamental contar con la matriz devarianza covarianza de los datos, en especial cuando se pretende trabajar con algoritmosgeneticos. Otros programas como R Project permiten trabajar con dicha matriz y a su vezes necesario traducir a su lenguaje de funcionamiento el diagrama phat planteado por elinvestigador el cual contiene las relaciones hipoteticas entre las variables observables y losconstructos. En algunas ocasiones estos programas pueden generar aviso de no convergenciao algun otro tipo de alerta debido a diferentes situaciones de las cuales no podrıa tenersecerteza alguna sobre su causa dado que podrıa deberse a problemas en la definicion delmodelo, a los valores fijos elegidos, las restricciones impuestas o incluso a inconvenientes en

Page 78: Estimaci on de modelos de estructura de covarianza ...

5.3 Conclusiones 78

p Rango de busqueda Tamano poblacional Total iteraciones7.75 [−1, 6] 400 10009.45 [−1, 6] 400 5008.33 [−1, 6] 800 5000.919 [−1, 6] 8000 5000.39 [−1, 6] 9000 5005.291 [−1, 6] 10000 1001.89 [−1, 6] 10000 7000.2797 [−1, 6] 10000 7002.3570 [−1, 6] 12000 9002.0782 [−1, 6] 15000 8003.0256 [−1, 6] 15000 10000

Tabla 5.2: Valor obtenidos para la variable de castigo p en diferentes simulaciones variandoel tamano poblacional y el numero de iteraciones.

el codigo fuente del software empleado, por lo que estas alertas pueden generar incertidumbreal momento de determinar si son o no una ventaja, todo depende de la seguridad que se tengasobre el codigo interno del programa. Ante esta situacion los algoritmos geneticos son pocoinfluenciables aun cuando no se fijan valores; y siempre proporcionan una solucion para losparametros del modelo.

En la mayorıa de los casos, cuando se trabaja con modelos de estructura de covarianza nose tiene conocimiento a priori sobre los posibles valores de los parametros, por esta razones muy comun considerar en principio la definicion del modelo con parametros libres, anteesta posicion la funcion sem() por defecto impone el valor de 1 al primer parametro de cadaconstructo definido. En contraste con el caso practico desarrollado en este documento elprimer parametro lambda de cada grupo de variables observables tiene 1 como valor estimadoy el resto de sus estimaciones, a excepcion de los θδ y θε son poco acertadas, tal y comose observa en la Tabla 5.3 donde se muestran los valores originales para los parametro delmodelo y aquellos estimados sin considerar la fijacion de parametros usando la funcion sem()de la librerıa lavaan empleando los metodos de maxima verosimilitud y mınimos cuadradosy adicional para algoritmos geneticos los cuales difieren en gran medida de las estimacionesoriginales y las obtenidas con sem() tomando incluso valores negativos para β y ψ1, sinembargo los resultados de la variable de castigo p permiten concluir que estas estimacionesreproducen la matriz de covarianza de los datos con mayor acierto que las estimaciones dadaspor maxima verosimilitud y mınimos cuadrados. Por ende, cuando todos los parametros delmodelo son libres, la tecnica de algoritmos geneticos podrıa usarse para mejorar las tecnicasclasicas.

Los espacios de busqueda de soluciones pueden llegar a presentar superficies multimodales yen conjunto con una mala eleccion de valores mınimos y maximos para acotar la exploracionpueden generar estimaciones sesgadas debido a la influencia de maximos locales, siendo esteun aspecto vulnerable en los programas computacionales disponibles pero poco frecuente enla tecnica de algoritmos geneticos dada su robustez y su concepcion en el cruce y muta-

Page 79: Estimaci on de modelos de estructura de covarianza ...

5.3 Conclusiones 79

Valor estimado de los parmetros libresAlgoritmos Maxima Mınimos

Parametros Original geneticos verosimilitud cuadradosλ1 2 3.841 1 1λ2 1.1339 2.121 0.567 0.567λ3 0.4423 0.824 0.221 0.221λ4 0.1323 0.804 1 1λ5 0.0687 0.426 0.519 0.519λ6 0.056 0.343 0.423 0.423λ7 3 5.479 1 1λ8 0.62 1.168 0.207 0.207λ9 0.465 0.947 0.155 0.155θ1 1 0.672 1 1θ2 1 1.098 1 1θ3 1 0.969 1 1θ4 1 1.137 1 1θ5 1 1.068 1 1θ6 1 1.063 1 1θ7 1 3.392 1 1θ8 1 1.063 1 1θ9 1 1.066 1 1β 2 -0.031 0.132 0.132γ1 1 1.296 0.667 0.667γ2 3 2.122 0.132 0.132φ 1 0.189 8.999 9ψ1 1 -0.283 4 4ψ2 1 0.222 0.018 0.018p − 0.863 46.966 46.968

Tabla 5.3: Estimacion de los parametros libres

cion para generar nuevas poblaciones; logrando ası explorar soluciones diferentes sin seguir,por ejemplo, la estrategia de tendencia hacia abajo considerada en algunas tecnicas de losmetodos numericos usados comunmente por los programas actuales.

En la practica se hace difıcil cumplir con los supuestos requeridos por los metodos de estima-cion clasicos, entre ellos que los datos provengan de una distribucion normal multivariada.Incorporar la tecnica de algoritmos geneticos a la estimacion de los parametros proporcionaotra ventaja al no depender de la distribucion de los datos, tambien supone una ventaja al su-ministrar total libertad para incorporar restricciones a los parametros. Si bien los programasactuales permiten tener en cuenta condiciones sobre el modelo, estas son limitadas.

Es factible que al usar algoritmos geneticos se obtengan varianzas negativas y por ende solu-ciones no confiables, por esta razon siempre es necesario hacer uso de restricciones adicionalesque eviten este tipo de situaciones.

Page 80: Estimaci on de modelos de estructura de covarianza ...

5.3 Conclusiones 80

Aparte de considerar la tecnica de algoritmos geneticos como una alternativa metodologicade estimacion no parametrica sus resultados tambien podrıan usarse como valores iniciales alemplear otros programas; ayudando ası a minimizar la probabilidad de sesgo por influenciade maximos locales. Sus soluciones tambien pueden ser usadas como valores de referenciacon el fin de validar o calibrar los resultados obtenidos a traves del uso de otras metodologıasde estimacion y otros programas computacionales.

Page 81: Estimaci on de modelos de estructura de covarianza ...

Apendice A

Anexo: Programa macro

### Cargar Librerıas ###

library("genalg")

library("lavaan")

library("semTools")

####### Estimacion del Modelo con Parametros Fijo - Algoritmos Geneticos ########

cov_original<-matrix(c(9,4.5356,1.7693,1.8525,0.9616,0.7845,6,1.24,0.930,

4.5356,3.5715,1.0031,1.0503,0.5452,0.4448,3.4017,

0.703,0.5273,1.7693, 1.0031,1.3913,0.4098,0.2127,

0.1735,1.3270,0.2742,0.2057,1.8525,1.0503,0.4098,

1.5253,0.2727,0.2224,1.9848,0.4102,0.3076,0.9616,

0.5452,0.2127,0.2727,1.1415,0.1155,1.0303,0.2129,

0.1597,0.7845,0.4448,0.1735,0.2224,0.1155,1.0942,

0.8405,0.1737,0.1303,6,3.4017,1.3270,1.9848,1.0303,

0.8405,10,1.86,1.395,1.24,0.703,0.2742,0.4102,

0.2129,0.1737,1.86,1.3844,0.2883,0.930,0.5273,

0.2057,0.3076,0.1597,0.1303,1.395,0.2883,1.2162),

nrow=9, ncol=9)

cov_estimada<-function (string=c()){

lambday<-matrix(c(2,string[1:2],0,0,0,0,0,0,0.1323,string[3:4]),

nrow=6, ncol=2)

lambdax<-matrix(data=string[5:7], nrow=3, ncol=1)

teta_epsilony<-matrix(c(string[8],0,0,0,0,0,0,string[9],

0,0,0,0,0,0,string[10],0,0,0,0,0,0,

string[11],0,0,0,0,0,0,string[12],

Page 82: Estimaci on de modelos de estructura de covarianza ...

82

0,0,0,0,0,0,string[13]),nrow=6, ncol=6)

teta_deltax<-matrix(c(string[14],0,0,0,string[15],0,0,

0,string[16]),nrow=3, ncol=3)

beta<-matrix(c(0,string[17],0,0),nrow=2, ncol=2)

gamma<-matrix(c(string[18],string[19]),nrow=2, ncol=1)

phi<-matrix(c(1),nrow=1, ncol=1)

psi<-matrix(c(string[20],0,0,string[21]),nrow=2, ncol=2)

I<-matrix(c(1,0,0,1),nrow=2, ncol=2)

sigma_yy<-(lambday%*%solve(I-beta)%*%(gamma%*%phi%*%t(gamma)+psi)%*%

t(solve(I-beta))%*%t(lambday))+teta_epsilony

sigma_xx<-(lambdax%*%phi%*%t(lambdax))+teta_deltax

sigma_yx<-lambday%*%solve(I-beta)%*%gamma%*%phi%*%t(lambdax)

sigma_xy<-lambdax%*%phi%*%t(gamma)%*%t(solve(I-beta))%*%t(lambday)

sigma_estimada<-matrix(c(sigma_yy[1:6],sigma_xy[1:3],

sigma_yy[7:12],sigma_xy[4:6],

sigma_yy[13:18],sigma_xy[7:9],

sigma_yy[19:24],sigma_xy[10:12],

sigma_yy[25:30],sigma_xy[13:15],

sigma_yy[31:36],sigma_xy[16:18],

sigma_yx[1:6],sigma_xx[1:3],

sigma_yx[7:12],sigma_xx[4:6],

sigma_yx[13:18],sigma_xx[7:9]),

nrow=9, ncol=9)

sigma_estimada

}

fn_objetivo<-function(string=c()) {

covarianza_E=cov_estimada(string)

diag_co=c(diag(cov_original))

diag_ce=c(diag(covarianza_E))

p=ifelse(abs(diag_co[1]-diag_ce[1])<=0.05,0,abs(diag_co[1]-diag_ce[1]))

p=p+ifelse(abs(diag_co[2]-diag_ce[2])<=0.05,0,abs(diag_co[2]-diag_ce[2]))

p=p+ifelse(abs(diag_co[3]-diag_ce[3])<=0.05,0,abs(diag_co[3]-diag_ce[3]))

p=p+ifelse(abs(diag_co[4]-diag_ce[4])<=0.05,0,abs(diag_co[4]-diag_ce[4]))

p=p+ifelse(abs(diag_co[5]-diag_ce[5])<=0.05,0,abs(diag_co[5]-diag_ce[5]))

p=p+ifelse(abs(diag_co[6]-diag_ce[6])<=0.05,0,abs(diag_co[6]-diag_ce[6]))

p=p+ifelse(abs(diag_co[7]-diag_ce[7])<=0.05,0,abs(diag_co[7]-diag_ce[7]))

p=p+ifelse(abs(diag_co[8]-diag_ce[8])<=0.05,0,abs(diag_co[8]-diag_ce[8]))

p=p+ifelse(abs(diag_co[9]-diag_ce[9])<=0.05,0,abs(diag_co[9]-diag_ce[9]))

p=p+ifelse(abs(cov_original[2,1]-covarianza_E[2,1])<=0.05,0,

abs(cov_original [2,1]-covarianza_E[2,1]))

Page 83: Estimaci on de modelos de estructura de covarianza ...

83

p=p+ifelse(abs(cov_original[3,1]-covarianza_E[3,1])<=0.05,0,

abs(cov_original[3,1]-covarianza_E[3,1]))

p=p+ifelse(abs(cov_original[3,2]-covarianza_E[3,2])<=0.05,0,

abs(cov_original[3,2]-covarianza_E[3,2]))

p=p+ifelse(abs(cov_original[4,1]-covarianza_E[4,1])<=0.05,0,

abs(cov_original[4,1]-covarianza_E[4,1]))

p=p+ifelse(abs(cov_original[4,2]-covarianza_E[4,2])<=0.05,0,

abs(cov_original[4,2]-covarianza_E[4,2]))

p=p+ifelse(abs(cov_original[4,3]-covarianza_E[4,3])<=0.05,0,

abs(cov_original[4,3]-covarianza_E[4,3]))

p=p+ifelse(abs(cov_original[5,1]-covarianza_E[5,1])<=0.05,0,

abs(cov_original[5,1]-covarianza_E[5,1]))

p=p+ifelse(abs(cov_original[5,2]-covarianza_E[5,2])<=0.05,0,

abs(cov_original[5,2]-covarianza_E[5,2]))

p=p+ifelse(abs(cov_original[5,3]-covarianza_E[5,3])<=0.05,0,

abs(cov_original[5,3]-covarianza_E[5,3]))

p=p+ifelse(abs(cov_original[5,4]-covarianza_E[5,4])<=0.05,0,

abs(cov_original[5,4]-covarianza_E[5,4]))

p=p+ifelse(abs(cov_original[6,1]-covarianza_E[6,1])<=0.05,0,

abs(cov_original[6,1]-covarianza_E[6,1]))

p=p+ifelse(abs(cov_original[6,2]-covarianza_E[6,2])<=0.05,0,

abs(cov_original[6,2]-covarianza_E[6,2]))

p=p+ifelse(abs(cov_original[6,3]-covarianza_E[6,3])<=0.05,0,

abs(cov_original[6,3]-covarianza_E[6,3]))

p=p+ifelse(abs(cov_original[6,4]-covarianza_E[6,4])<=0.05,0,

abs(cov_original[6,4]-covarianza_E[6,4]))

p=p+ifelse(abs(cov_original[6,5]-covarianza_E[6,5])<=0.05,0,

abs(cov_original[6,5]-covarianza_E[6,5]))

p=p+ifelse(abs(cov_original[7,1]-covarianza_E[7,1])<=0.05,0,

abs(cov_original[7,1]-covarianza_E[7,1]))

p=p+ifelse(abs(cov_original[7,2]-covarianza_E[7,2])<=0.05,0,

abs(cov_original[7,2]-covarianza_E[7,2]))

p=p+ifelse(abs(cov_original[7,3]-covarianza_E[7,3])<=0.05,0,

abs(cov_original[7,3]-covarianza_E[7,3]))

p=p+ifelse(abs(cov_original[7,4]-covarianza_E[7,4])<=0.05,0,

abs(cov_original[7,4]-covarianza_E[7,4]))

p=p+ifelse(abs(cov_original[7,5]-covarianza_E[7,5])<=0.05,0,

abs(cov_original[7,5]-covarianza_E[7,5]))

p=p+ifelse(abs(cov_original[7,6]-covarianza_E[7,6])<=0.05,0,

abs(cov_original[7,6]-covarianza_E[7,6]))

p=p+ifelse(abs(cov_original[8,1]-covarianza_E[8,1])<=0.05,0,

abs(cov_original[8,1]-covarianza_E[8,1]))

p=p+ifelse(abs(cov_original[8,2]-covarianza_E[8,2])<=0.05,0,

abs(cov_original[8,2]-covarianza_E[8,2]))

Page 84: Estimaci on de modelos de estructura de covarianza ...

84

p=p+ifelse(abs(cov_original[8,3]-covarianza_E[8,3])<=0.05,0,

abs(cov_original[8,3]-covarianza_E[8,3]))

p=p+ifelse(abs(cov_original[8,4]-covarianza_E[8,4])<=0.05,0,

abs(cov_original[8,4]-covarianza_E[8,4]))

p=p+ifelse(abs(cov_original[8,5]-covarianza_E[8,5])<=0.05,0,

abs(cov_original[8,5]-covarianza_E[8,5]))

p=p+ifelse(abs(cov_original[8,6]-covarianza_E[8,6])<=0.05,0,

abs(cov_original[8,6]-covarianza_E[8,6]))

p=p+ifelse(abs(cov_original[8,7]-covarianza_E[8,7])<=0.05,0,

abs(cov_original[8,7]-covarianza_E[8,7]))

p=p+ifelse(abs(cov_original[9,1]-covarianza_E[9,1])<=0.05,0,

abs(cov_original[9,1]-covarianza_E[9,1]))

p=p+ifelse(abs(cov_original[9,2]-covarianza_E[9,2])<=0.05,0,

abs(cov_original[9,2]-covarianza_E[9,2]))

p=p+ifelse(abs(cov_original[9,3]-covarianza_E[9,3])<=0.05,0,

abs(cov_original[9,3]-covarianza_E[9,3]))

p=p+ifelse(abs(cov_original[9,4]-covarianza_E[9,4])<=0.05,0,

abs(cov_original[9,4]-covarianza_E[9,4]))

p=p+ifelse(abs(cov_original[9,5]-covarianza_E[9,5])<=0.05,0,

abs(cov_original[9,5]-covarianza_E[9,5]))

p=p+ifelse(abs(cov_original[9,6]-covarianza_E[9,6])<=0.05,0,

abs(cov_original[9,6]-covarianza_E[9,6]))

p=p+ifelse(abs(cov_original[9,7]-covarianza_E[9,7])<=0.05,0,

abs(cov_original[9,7]-covarianza_E[9,7]))

p=p+ifelse(abs(cov_original[9,8]-covarianza_E[9,8])<=0.05,0,

abs(cov_original[9,8]-covarianza_E[9,8]))

m=p

returnValue(m)

print(m)

}

rbga.results = rbga(c(-1,-1,-1,-1,-1,-1,-1,-1,-1,-1,-1,-1,-1,-1,

-1,-1,-1,-1,-1,-1,-1),c(6,6,6,6,6,6,6,6,6,6,

6,6,6,6,6,6,6,6,6,6,6),popSize=10000,iters=700,

evalFunc=fn_objetivo,verbose=TRUE)

summary(rbga.results$evaluations)

rbga.results$population

rbga.results$best

rbga.results$mean

rbga.results$stringMin

Param_Est<-matrix((res2$population[order(res2$evaluations)[1],]),

nrow=21,ncol=1)

Page 85: Estimaci on de modelos de estructura de covarianza ...

85

####### Estimacion del Modelo con Parametros Fijo - Paquete Lavaan ########

cov_original<-'9,

4.5356, 3.5715,

1.7693, 1.0031, 1.3913,

1.8525, 1.0503, 0.4098, 1.5253,

0.9616, 0.5452, 0.2127, 0.2727, 1.1415,

0.7845, 0.4448, 0.1735, 0.2224, 0.1155, 1.0942,

6, 3.4017, 1.3270, 1.9848, 1.0303, 0.8405, 10,

1.24, 0.703, 0.2742, 0.4102, 0.2129, 0.1737, 1.86,

1.3844, 0.930, 0.5273, 0.2057, 0.3076, 0.1597, 0.1303,

1.395, 0.2883, 1.2162'

cov_original.cov <- getCov(cov_original, names=c("Y1","Y2","Y3",

"Y4","Y5","Y6","X1","X2","X3"))

modelo<- '

XI=~X1+X2+X3

ETA1=~2*Y1+Y2+Y3

ETA2=~0.1323*Y4+Y5+Y6

ETA1~XI

ETA2~ETA1+XI'

###XI~~1*XI'

#### Estimacion del Modelo con Parametros Fijos: Maxima Verosimilitud ###

fit_ML<- sem(modelo, sample.cov=cov_original.cov,

sample.nobs=10000, estimator="ML")

summary(fit_ML, standardized=TRUE)

moreFitIndices(fit_ML, fit.measures = "all", nPrior = 10000)

#### Estimacion Modelo con Parametros Fijos: Mınimos Cuadrados Generalizados ###

fit_GLS<- sem(modelo, sample.cov=cov_original.cov,

sample.nobs=10000, estimator="GLS")

summary(fit_GLS, standardized=TRUE)

moreFitIndices(fit_GLS, fit.measures = "all", nPrior = 10000)

Param_Est<-matrix((res2$population[order(res2$evaluations)[1],]),

nrow=21,ncol=1)

d<-matrix(c(1.1339,0.4423,0.0687,0.056,3,0.62,0.465,1,1,

1,1,1,1,1,1,1,2,1,3,1,1),nrow=21,ncol=1)

Page 86: Estimaci on de modelos de estructura de covarianza ...

86

c<-cov_estimada(Param_Est)-cov_original

round(c,1)

Param_Est

####### Estimacion del Modelo con Parametros Libres ########

### Cargar Librerıas ###

library("genalg")

library("lavaan")

library("semTools")

#### Estimacion del Modelo con Parametros Libres: Algoritmos Geneticos ###

cov_original<-matrix(c(9,4.5356,1.7693,1.8525,0.9616,0.7845,6,1.24,0.930,

4.5356,3.5715,1.0031,1.0503,0.5452,0.4448,3.4017,

0.703,0.5273,1.7693,1.0031,1.3913,0.4098,0.2127,

0.1735,1.3270,0.2742,0.2057,1.8525,1.0503,0.4098,

1.5253,0.2727,0.2224,1.9848,0.4102,0.3076,0.9616,

0.5452,0.2127,0.2727,1.1415,0.1155,1.0303,0.2129,

0.1597,0.7845,0.4448,0.1735,0.2224,0.1155,1.0942,

0.8405,0.1737,0.1303,6,3.4017,1.3270,1.9848,1.0303,

0.8405,10,1.86,1.395,1.24,0.703,0.2742,0.4102,

0.2129,0.1737,1.86,1.3844,0.2883,0.930,0.5273,

0.2057,0.3076,0.1597,0.1303,1.395,0.2883,1.2162),

nrow=9, ncol=9)

cov_estimada<-function (string=c()){

lambday<-matrix(c(string[1:3],0,0,0,0,0,0,string[4:6]),

nrow=6, ncol=2)

lambdax<-matrix(data=string[7:9], nrow=3, ncol=1)

teta_epsilony<-matrix(c(string[10],0,0,0,0,0,0,string[11],

0,0,0,0,0,0,string[12],0,0,0,0,0,0,

string[13],0,0,0,0,0,0,string[14],0,

0,0,0,0,0,string[15]),nrow=6, ncol=6)

teta_deltax<-matrix(c(string[16],0,0,0,string[17],0,0,

0,string[18]),nrow=3, ncol=3)

beta<-matrix(c(0,string[19],0,0),nrow=2, ncol=2)

gamma<-matrix(c(string[20],string[21]),nrow=2, ncol=1)

phi<-matrix(string[24],nrow=1, ncol=1)

Page 87: Estimaci on de modelos de estructura de covarianza ...

87

psi<-matrix(c(string[22],0,0,string[23]),nrow=2, ncol=2)

I<-matrix(c(1,0,0,1),nrow=2, ncol=2)

sigma_yy<-(lambday%*%solve(I-beta)%*%(gamma%*%phi%*%t(gamma)+psi)%*%

t(solve(I-beta))%*%t(lambday))+teta_epsilony

sigma_xx<-(lambdax%*%phi%*%t(lambdax))+teta_deltax

sigma_yx<-lambday%*%solve(I-beta)%*%gamma%*%phi%*%t(lambdax)

sigma_xy<-lambdax%*%phi%*%t(gamma)%*%t(solve(I-beta))%*%t(lambday)

sigma_estimada<-matrix(c(sigma_yy[1:6],sigma_xy[1:3],

sigma_yy[7:12],sigma_xy[4:6],

sigma_yy[13:18],sigma_xy[7:9],

sigma_yy[19:24],sigma_xy[10:12],

sigma_yy[25:30],sigma_xy[13:15],

sigma_yy[31:36],sigma_xy[16:18],

sigma_yx[1:6],sigma_xx[1:3],

sigma_yx[7:12],sigma_xx[4:6],

sigma_yx[13:18],sigma_xx[7:9]),

nrow=9, ncol=9)

sigma_estimada

}

fn_objetivo<-function(string=c()) {

covarianza_E=cov_estimada(string)

diag_co=c(diag(cov_original))

diag_ce=c(diag(Cov_Min_Cua))

p=ifelse(abs(diag_co[1]-diag_ce[1])<=0.05,0,abs(diag_co[1]-diag_ce[1]))

p=p+ifelse(abs(diag_co[2]-diag_ce[2])<=0.05,0,abs(diag_co[2]-diag_ce[2]))

p=p+ifelse(abs(diag_co[3]-diag_ce[3])<=0.05,0,abs(diag_co[3]-diag_ce[3]))

p=p+ifelse(abs(diag_co[4]-diag_ce[4])<=0.05,0,abs(diag_co[4]-diag_ce[4]))

p=p+ifelse(abs(diag_co[5]-diag_ce[5])<=0.05,0,abs(diag_co[5]-diag_ce[5]))

p=p+ifelse(abs(diag_co[6]-diag_ce[6])<=0.05,0,abs(diag_co[6]-diag_ce[6]))

p=p+ifelse(abs(diag_co[7]-diag_ce[7])<=0.05,0,abs(diag_co[7]-diag_ce[7]))

p=p+ifelse(abs(diag_co[8]-diag_ce[8])<=0.05,0,abs(diag_co[8]-diag_ce[8]))

p=p+ifelse(abs(diag_co[9]-diag_ce[9])<=0.05,0,abs(diag_co[9]-diag_ce[9]))

p=p+ifelse(abs(cov_original[2,1]-Cov_Min_Cua[2,1])<=0.05,0,

abs(cov_original[2,1]-Cov_Min_Cua[2,1]))

p=p+ifelse(abs(cov_original[3,1]-Cov_Min_Cua[3,1])<=0.05,0,

abs(cov_original[3,1]-Cov_Min_Cua[3,1]))

p=p+ifelse(abs(cov_original[3,2]-Cov_Min_Cua[3,2])<=0.05,0,

abs(cov_original[3,2]-Cov_Min_Cua[3,2]))

Page 88: Estimaci on de modelos de estructura de covarianza ...

88

p=p+ifelse(abs(cov_original[4,1]-Cov_Min_Cua[4,1])<=0.05,0,

abs(cov_original[4,1]-Cov_Min_Cua[4,1]))

p=p+ifelse(abs(cov_original[4,2]-Cov_Min_Cua[4,2])<=0.05,0,

abs(cov_original[4,2]-Cov_Min_Cua[4,2]))

p=p+ifelse(abs(cov_original[4,3]-Cov_Min_Cua[4,3])<=0.05,0,

abs(cov_original[4,3]-Cov_Min_Cua[4,3]))

p=p+ifelse(abs(cov_original[5,1]-Cov_Min_Cua[5,1])<=0.05,0,

abs(cov_original[5,1]-Cov_Min_Cua[5,1]))

p=p+ifelse(abs(cov_original[5,2]-Cov_Min_Cua[5,2])<=0.05,0,

abs(cov_original[5,2]-Cov_Min_Cua[5,2]))

p=p+ifelse(abs(cov_original[5,3]-Cov_Min_Cua[5,3])<=0.05,0,

abs(cov_original[5,3]-Cov_Min_Cua[5,3]))

p=p+ifelse(abs(cov_original[5,4]-Cov_Min_Cua[5,4])<=0.05,0,

abs(cov_original[5,4]-Cov_Min_Cua[5,4]))

p=p+ifelse(abs(cov_original[6,1]-Cov_Min_Cua[6,1])<=0.05,0,

abs(cov_original[6,1]-Cov_Min_Cua[6,1]))

p=p+ifelse(abs(cov_original[6,2]-Cov_Min_Cua[6,2])<=0.05,0,

abs(cov_original[6,2]-Cov_Min_Cua[6,2]))

p=p+ifelse(abs(cov_original[6,3]-Cov_Min_Cua[6,3])<=0.05,0,

abs(cov_original[6,3]-Cov_Min_Cua[6,3]))

p=p+ifelse(abs(cov_original[6,4]-Cov_Min_Cua[6,4])<=0.05,0,

abs(cov_original[6,4]-Cov_Min_Cua[6,4]))

p=p+ifelse(abs(cov_original[6,5]-Cov_Min_Cua[6,5])<=0.05,0,

abs(cov_original[6,5]-Cov_Min_Cua[6,5]))

p=p+ifelse(abs(cov_original[7,1]-Cov_Min_Cua[7,1])<=0.05,0,

abs(cov_original[7,1]-Cov_Min_Cua[7,1]))

p=p+ifelse(abs(cov_original[7,2]-Cov_Min_Cua[7,2])<=0.05,0,

abs(cov_original[7,2]-Cov_Min_Cua[7,2]))

p=p+ifelse(abs(cov_original[7,3]-Cov_Min_Cua[7,3])<=0.05,0,

abs(cov_original[7,3]-Cov_Min_Cua[7,3]))

p=p+ifelse(abs(cov_original[7,4]-Cov_Min_Cua[7,4])<=0.05,0,

abs(cov_original[7,4]-Cov_Min_Cua[7,4]))

p=p+ifelse(abs(cov_original[7,5]-Cov_Min_Cua[7,5])<=0.05,0,

abs(cov_original[7,5]-Cov_Min_Cua[7,5]))

p=p+ifelse(abs(cov_original[7,6]-Cov_Min_Cua[7,6])<=0.05,0,

abs(cov_original[7,6]-Cov_Min_Cua[7,6]))

p=p+ifelse(abs(cov_original[8,1]-Cov_Min_Cua[8,1])<=0.05,0,

abs(cov_original[8,1]-Cov_Min_Cua[8,1]))

p=p+ifelse(abs(cov_original[8,2]-Cov_Min_Cua[8,2])<=0.05,0,

abs(cov_original[8,2]-Cov_Min_Cua[8,2]))

p=p+ifelse(abs(cov_original[8,3]-Cov_Min_Cua[8,3])<=0.05,0,

abs(cov_original[8,3]-Cov_Min_Cua[8,3]))

p=p+ifelse(abs(cov_original[8,4]-Cov_Min_Cua[8,4])<=0.05,0,

abs(cov_original[8,4]-Cov_Min_Cua[8,4]))

Page 89: Estimaci on de modelos de estructura de covarianza ...

89

p=p+ifelse(abs(cov_original[8,5]-Cov_Min_Cua[8,5])<=0.05,0,

abs(cov_original[8,5]-Cov_Min_Cua[8,5]))

p=p+ifelse(abs(cov_original[8,6]-Cov_Min_Cua[8,6])<=0.05,0,

abs(cov_original[8,6]-Cov_Min_Cua[8,6]))

p=p+ifelse(abs(cov_original[8,7]-Cov_Min_Cua[8,7])<=0.05,0,

abs(cov_original[8,7]-Cov_Min_Cua[8,7]))

p=p+ifelse(abs(cov_original[9,1]-Cov_Min_Cua[9,1])<=0.05,0,

abs(cov_original[9,1]-Cov_Min_Cua[9,1]))

p=p+ifelse(abs(cov_original[9,2]-Cov_Min_Cua[9,2])<=0.05,0,

abs(cov_original[9,2]-Cov_Min_Cua[9,2]))

p=p+ifelse(abs(cov_original[9,3]-Cov_Min_Cua[9,3])<=0.05,0,

abs(cov_original[9,3]-Cov_Min_Cua[9,3]))

p=p+ifelse(abs(cov_original[9,4]-Cov_Min_Cua[9,4])<=0.05,0,

abs(cov_original[9,4]-Cov_Min_Cua[9,4]))

p=p+ifelse(abs(cov_original[9,5]-Cov_Min_Cua[9,5])<=0.05,0,

abs(cov_original[9,5]-Cov_Min_Cua[9,5]))

p=p+ifelse(abs(cov_original[9,6]-Cov_Min_Cua[9,6])<=0.05,0,

abs(cov_original[9,6]-Cov_Min_Cua[9,6]))

p=p+ifelse(abs(cov_original[9,7]-Cov_Min_Cua[9,7])<=0.05,0,

abs(cov_original[9,7]-Cov_Min_Cua[9,7]))

p=p+ifelse(abs(cov_original[9,8]-Cov_Min_Cua[9,8])<=0.05,0,

abs(cov_original[9,8]-Cov_Min_Cua[9,8]))

m=p

returnValue(m)

print(m)

}

rbga.results = rbga(c(-1,-1,-1,-1,-1,-1,-1,-1,-1,-1,-1,-1,-1,-1,-1,

-1,-1,-1,-1,-1,-1,-1,-1,-1),c(6,6,6,6,6,6,6,6,

6,6,6,6,6,6,6,6,6,6,6,6,6,6,6,6),popSize=10000,

iters=700,evalFunc=fn_objetivo,verbose=TRUE)

res3<-rbga.results

summary(rbga.results$evaluations)

rbga.results$population

rbga.results$best

rbga.results$mean

rbga.results$stringMin

summary(res3$evaluations)

res3$stringMin

Page 90: Estimaci on de modelos de estructura de covarianza ...

90

res3$stringMax

res3$size

res3$popSize

res3$iters

res3$suggestions

res3$population

res3$elitism

res3$mutationChance

res3$evaluations

res3$best

res3$mean

res3$population

Param_Est<-matrix((res3$population[order(res3$evaluations)[1],]),nrow=24,ncol=1)

Cov_Alg_Gen<-cov_estimada(Param_Est)

Dif_Alg_Gen<-cov_estimada(Param_Est)-cov_original

diag_co=c(diag(cov_original))

diag_ce=c(diag(Cov_Alg_Gen))

p=ifelse(abs(diag_co[1]-diag_ce[1])<=0.05,0,abs(diag_co[1]-diag_ce[1]))

p=p+ifelse(abs(diag_co[2]-diag_ce[2])<=0.05,0,abs(diag_co[2]-diag_ce[2]))

p=p+ifelse(abs(diag_co[3]-diag_ce[3])<=0.05,0,abs(diag_co[3]-diag_ce[3]))

p=p+ifelse(abs(diag_co[4]-diag_ce[4])<=0.05,0,abs(diag_co[4]-diag_ce[4]))

p=p+ifelse(abs(diag_co[5]-diag_ce[5])<=0.05,0,abs(diag_co[5]-diag_ce[5]))

p=p+ifelse(abs(diag_co[6]-diag_ce[6])<=0.05,0,abs(diag_co[6]-diag_ce[6]))

p=p+ifelse(abs(diag_co[7]-diag_ce[7])<=0.05,0,abs(diag_co[7]-diag_ce[7]))

p=p+ifelse(abs(diag_co[8]-diag_ce[8])<=0.05,0,abs(diag_co[8]-diag_ce[8]))

p=p+ifelse(abs(diag_co[9]-diag_ce[9])<=0.05,0,abs(diag_co[9]-diag_ce[9]))

p=p+ifelse(abs(cov_original[2,1]-Cov_Alg_Gen[2,1])<=0.05,0,

abs(cov_original[2,1]-Cov_Alg_Gen[2,1]))

p=p+ifelse(abs(cov_original[3,1]-Cov_Alg_Gen[3,1])<=0.05,0,

abs(cov_original[3,1]-Cov_Alg_Gen[3,1]))

p=p+ifelse(abs(cov_original[3,2]-Cov_Alg_Gen[3,2])<=0.05,0,

abs(cov_original[3,2]-Cov_Alg_Gen[3,2]))

p=p+ifelse(abs(cov_original[4,1]-Cov_Alg_Gen[4,1])<=0.05,0,

abs(cov_original[4,1]-Cov_Alg_Gen[4,1]))

p=p+ifelse(abs(cov_original[4,2]-Cov_Alg_Gen[4,2])<=0.05,0,

abs(cov_original[4,2]-Cov_Alg_Gen[4,2]))

p=p+ifelse(abs(cov_original[4,3]-Cov_Alg_Gen[4,3])<=0.05,0,

abs(cov_original[4,3]-Cov_Alg_Gen[4,3]))

p=p+ifelse(abs(cov_original[5,1]-Cov_Alg_Gen[5,1])<=0.05,0,

abs(cov_original[5,1]-Cov_Alg_Gen[5,1]))

p=p+ifelse(abs(cov_original[5,2]-Cov_Alg_Gen[5,2])<=0.05,0,

abs(cov_original[5,2]-Cov_Alg_Gen[5,2]))

Page 91: Estimaci on de modelos de estructura de covarianza ...

91

p=p+ifelse(abs(cov_original[5,3]-Cov_Alg_Gen[5,3])<=0.05,0,

abs(cov_original[5,3]-Cov_Alg_Gen[5,3]))

p=p+ifelse(abs(cov_original[5,4]-Cov_Alg_Gen[5,4])<=0.05,0,

abs(cov_original[5,4]-Cov_Alg_Gen[5,4]))

p=p+ifelse(abs(cov_original[6,1]-Cov_Alg_Gen[6,1])<=0.05,0,

abs(cov_original[6,1]-Cov_Alg_Gen[6,1]))

p=p+ifelse(abs(cov_original[6,2]-Cov_Alg_Gen[6,2])<=0.05,0,

abs(cov_original[6,2]-Cov_Alg_Gen[6,2]))

p=p+ifelse(abs(cov_original[6,3]-Cov_Alg_Gen[6,3])<=0.05,0,

abs(cov_original[6,3]-Cov_Alg_Gen[6,3]))

p=p+ifelse(abs(cov_original[6,4]-Cov_Alg_Gen[6,4])<=0.05,0,

abs(cov_original[6,4]-Cov_Alg_Gen[6,4]))

p=p+ifelse(abs(cov_original[6,5]-Cov_Alg_Gen[6,5])<=0.05,0,

abs(cov_original[6,5]-Cov_Alg_Gen[6,5]))

p=p+ifelse(abs(cov_original[7,1]-Cov_Alg_Gen[7,1])<=0.05,0,

abs(cov_original[7,1]-Cov_Alg_Gen[7,1]))

p=p+ifelse(abs(cov_original[7,2]-Cov_Alg_Gen[7,2])<=0.05,0,

abs(cov_original[7,2]-Cov_Alg_Gen[7,2]))

p=p+ifelse(abs(cov_original[7,3]-Cov_Alg_Gen[7,3])<=0.05,0,

abs(cov_original[7,3]-Cov_Alg_Gen[7,3]))

p=p+ifelse(abs(cov_original[7,4]-Cov_Alg_Gen[7,4])<=0.05,0,

abs(cov_original[7,4]-Cov_Alg_Gen[7,4]))

p=p+ifelse(abs(cov_original[7,5]-Cov_Alg_Gen[7,5])<=0.05,0,

abs(cov_original[7,5]-Cov_Alg_Gen[7,5]))

p=p+ifelse(abs(cov_original[7,6]-Cov_Alg_Gen[7,6])<=0.05,0,

abs(cov_original[7,6]-Cov_Alg_Gen[7,6]))

p=p+ifelse(abs(cov_original[8,1]-Cov_Alg_Gen[8,1])<=0.05,0,

abs(cov_original[8,1]-Cov_Alg_Gen[8,1]))

p=p+ifelse(abs(cov_original[8,2]-Cov_Alg_Gen[8,2])<=0.05,0,

abs(cov_original[8,2]-Cov_Alg_Gen[8,2]))

p=p+ifelse(abs(cov_original[8,3]-Cov_Alg_Gen[8,3])<=0.05,0,

abs(cov_original[8,3]-Cov_Alg_Gen[8,3]))

p=p+ifelse(abs(cov_original[8,4]-Cov_Alg_Gen[8,4])<=0.05,0,

abs(cov_original[8,4]-Cov_Alg_Gen[8,4]))

p=p+ifelse(abs(cov_original[8,5]-Cov_Alg_Gen[8,5])<=0.05,0,

abs(cov_original[8,5]-Cov_Alg_Gen[8,5]))

p=p+ifelse(abs(cov_original[8,6]-Cov_Alg_Gen[8,6])<=0.05,0,

abs(cov_original[8,6]-Cov_Alg_Gen[8,6]))

p=p+ifelse(abs(cov_original[8,7]-Cov_Alg_Gen[8,7])<=0.05,0,

abs(cov_original[8,7]-Cov_Alg_Gen[8,7]))

p=p+ifelse(abs(cov_original[9,1]-Cov_Alg_Gen[9,1])<=0.05,0,

abs(cov_original[9,1]-Cov_Alg_Gen[9,1]))

p=p+ifelse(abs(cov_original[9,2]-Cov_Alg_Gen[9,2])<=0.05,0,

abs(cov_original[9,2]-Cov_Alg_Gen[9,2]))

Page 92: Estimaci on de modelos de estructura de covarianza ...

92

p=p+ifelse(abs(cov_original[9,3]-Cov_Alg_Gen[9,3])<=0.05,0,

abs(cov_original[9,3]-Cov_Alg_Gen[9,3]))

p=p+ifelse(abs(cov_original[9,4]-Cov_Alg_Gen[9,4])<=0.05,0,

abs(cov_original[9,4]-Cov_Alg_Gen[9,4]))

p=p+ifelse(abs(cov_original[9,5]-Cov_Alg_Gen[9,5])<=0.05,0,

abs(cov_original[9,5]-Cov_Alg_Gen[9,5]))

p=p+ifelse(abs(cov_original[9,6]-Cov_Alg_Gen[9,6])<=0.05,0,

abs(cov_original[9,6]-Cov_Alg_Gen[9,6]))

p=p+ifelse(abs(cov_original[9,7]-Cov_Alg_Gen[9,7])<=0.05,0,

abs(cov_original[9,7]-Cov_Alg_Gen[9,7]))

p=p+ifelse(abs(cov_original[9,8]-Cov_Alg_Gen[9,8])<=0.05,0,

abs(cov_original[9,8]-Cov_Alg_Gen[9,8]))

p_Alg_Gen<-p

#### Estimacion del Modelo con Parametros Libres: Maxima Verosimilitud - SEM() ###

cov_original<-'9,

4.5356, 3.5715,

1.7693, 1.0031, 1.3913,

1.8525, 1.0503, 0.4098, 1.5253,

0.9616, 0.5452, 0.2127, 0.2727, 1.1415,

0.7845, 0.4448, 0.1735, 0.2224, 0.1155, 1.0942,

6, 3.4017, 1.3270, 1.9848, 1.0303, 0.8405, 10,

1.24, 0.703, 0.2742, 0.4102, 0.2129, 0.1737, 1.86, 1.3844,

0.930, 0.5273, 0.2057, 0.3076, 0.1597, 0.1303, 1.395, 0.2883, 1.2162'

cov_original.cov <- getCov(cov_original,names=c("Y1","Y2","Y3",

"Y4","Y5","Y6","X1","X2","X3"))

modelo<- '

XI=~X1+X2+X3

ETA1=~Y1+Y2+Y3

ETA2=~Y4+Y5+Y6

ETA1~XI

ETA2~ETA1+XI'

fit_ML<- sem(modelo, sample.cov=cov_original.cov,

sample.nobs=10000, estimator="ML")

summary(fit_ML, standardized=TRUE)

Max_Ver<-matrix(c(1,0.567,0.221,1,0.519,0.423,1,0.207,0.155,1,1,1,1,1,1,

1,1,1,0.132,0.667,0.132,8.999,4,0.018),nrow=24,ncol=1)

Page 93: Estimaci on de modelos de estructura de covarianza ...

93

Cov_Max_Ver<-cov_estimada(Max_Ver)

Dif_Max_Ver<-cov_estimada(Max_Ver)-cov_original

diag_co=c(diag(cov_original))

diag_ce=c(diag(Cov_Max_Ver))

p=ifelse(abs(diag_co[1]-diag_ce[1])<=0.05,0,abs(diag_co[1]-diag_ce[1]))

p=p+ifelse(abs(diag_co[2]-diag_ce[2])<=0.05,0,abs(diag_co[2]-diag_ce[2]))

p=p+ifelse(abs(diag_co[3]-diag_ce[3])<=0.05,0,abs(diag_co[3]-diag_ce[3]))

p=p+ifelse(abs(diag_co[4]-diag_ce[4])<=0.05,0,abs(diag_co[4]-diag_ce[4]))

p=p+ifelse(abs(diag_co[5]-diag_ce[5])<=0.05,0,abs(diag_co[5]-diag_ce[5]))

p=p+ifelse(abs(diag_co[6]-diag_ce[6])<=0.05,0,abs(diag_co[6]-diag_ce[6]))

p=p+ifelse(abs(diag_co[7]-diag_ce[7])<=0.05,0,abs(diag_co[7]-diag_ce[7]))

p=p+ifelse(abs(diag_co[8]-diag_ce[8])<=0.05,0,abs(diag_co[8]-diag_ce[8]))

p=p+ifelse(abs(diag_co[9]-diag_ce[9])<=0.05,0,abs(diag_co[9]-diag_ce[9]))

p=p+ifelse(abs(cov_original[2,1]-Cov_Max_Ver[2,1])<=0.05,0,

abs(cov_original[2,1]-Cov_Max_Ver[2,1]))

p=p+ifelse(abs(cov_original[3,1]-Cov_Max_Ver[3,1])<=0.05,0,

abs(cov_original[3,1]-Cov_Max_Ver[3,1]))

p=p+ifelse(abs(cov_original[3,2]-Cov_Max_Ver[3,2])<=0.05,0,

abs(cov_original[3,2]-Cov_Max_Ver[3,2]))

p=p+ifelse(abs(cov_original[4,1]-Cov_Max_Ver[4,1])<=0.05,0,

abs(cov_original[4,1]-Cov_Max_Ver[4,1]))

p=p+ifelse(abs(cov_original[4,2]-Cov_Max_Ver[4,2])<=0.05,0,

abs(cov_original[4,2]-Cov_Max_Ver[4,2]))

p=p+ifelse(abs(cov_original[4,3]-Cov_Max_Ver[4,3])<=0.05,0,

abs(cov_original[4,3]-Cov_Max_Ver[4,3]))

p=p+ifelse(abs(cov_original[5,1]-Cov_Max_Ver[5,1])<=0.05,0,

abs(cov_original[5,1]-Cov_Max_Ver[5,1]))

p=p+ifelse(abs(cov_original[5,2]-Cov_Max_Ver[5,2])<=0.05,0,

abs(cov_original[5,2]-Cov_Max_Ver[5,2]))

p=p+ifelse(abs(cov_original[5,3]-Cov_Max_Ver[5,3])<=0.05,0,

abs(cov_original[5,3]-Cov_Max_Ver[5,3]))

p=p+ifelse(abs(cov_original[5,4]-Cov_Max_Ver[5,4])<=0.05,0,

abs(cov_original[5,4]-Cov_Max_Ver[5,4]))

p=p+ifelse(abs(cov_original[6,1]-Cov_Max_Ver[6,1])<=0.05,0,

abs(cov_original[6,1]-Cov_Max_Ver[6,1]))

p=p+ifelse(abs(cov_original[6,2]-Cov_Max_Ver[6,2])<=0.05,0,

abs(cov_original[6,2]-Cov_Max_Ver[6,2]))

p=p+ifelse(abs(cov_original[6,3]-Cov_Max_Ver[6,3])<=0.05,0,

abs(cov_original[6,3]-Cov_Max_Ver[6,3]))

p=p+ifelse(abs(cov_original[6,4]-Cov_Max_Ver[6,4])<=0.05,0,

abs(cov_original[6,4]-Cov_Max_Ver[6,4]))

p=p+ifelse(abs(cov_original[6,5]-Cov_Max_Ver[6,5])<=0.05,0,

abs(cov_original[6,5]-Cov_Max_Ver[6,5]))

Page 94: Estimaci on de modelos de estructura de covarianza ...

94

p=p+ifelse(abs(cov_original[7,1]-Cov_Max_Ver[7,1])<=0.05,0,

abs(cov_original[7,1]-Cov_Max_Ver[7,1]))

p=p+ifelse(abs(cov_original[7,2]-Cov_Max_Ver[7,2])<=0.05,0,

abs(cov_original[7,2]-Cov_Max_Ver[7,2]))

p=p+ifelse(abs(cov_original[7,3]-Cov_Max_Ver[7,3])<=0.05,0,

abs(cov_original[7,3]-Cov_Max_Ver[7,3]))

p=p+ifelse(abs(cov_original[7,4]-Cov_Max_Ver[7,4])<=0.05,0,

abs(cov_original[7,4]-Cov_Max_Ver[7,4]))

p=p+ifelse(abs(cov_original[7,5]-Cov_Max_Ver[7,5])<=0.05,0,

abs(cov_original[7,5]-Cov_Max_Ver[7,5]))

p=p+ifelse(abs(cov_original[7,6]-Cov_Max_Ver[7,6])<=0.05,0,

abs(cov_original[7,6]-Cov_Max_Ver[7,6]))

p=p+ifelse(abs(cov_original[8,1]-Cov_Max_Ver[8,1])<=0.05,0,

abs(cov_original[8,1]-Cov_Max_Ver[8,1]))

p=p+ifelse(abs(cov_original[8,2]-Cov_Max_Ver[8,2])<=0.05,0,

abs(cov_original[8,2]-Cov_Max_Ver[8,2]))

p=p+ifelse(abs(cov_original[8,3]-Cov_Max_Ver[8,3])<=0.05,0,

abs(cov_original[8,3]-Cov_Max_Ver[8,3]))

p=p+ifelse(abs(cov_original[8,4]-Cov_Max_Ver[8,4])<=0.05,0,

abs(cov_original[8,4]-Cov_Max_Ver[8,4]))

p=p+ifelse(abs(cov_original[8,5]-Cov_Max_Ver[8,5])<=0.05,0,

abs(cov_original[8,5]-Cov_Max_Ver[8,5]))

p=p+ifelse(abs(cov_original[8,6]-Cov_Max_Ver[8,6])<=0.05,0,

abs(cov_original[8,6]-Cov_Max_Ver[8,6]))

p=p+ifelse(abs(cov_original[8,7]-Cov_Max_Ver[8,7])<=0.05,0,

abs(cov_original[8,7]-Cov_Max_Ver[8,7]))

p=p+ifelse(abs(cov_original[9,1]-Cov_Max_Ver[9,1])<=0.05,0,

abs(cov_original[9,1]-Cov_Max_Ver[9,1]))

p=p+ifelse(abs(cov_original[9,2]-Cov_Max_Ver[9,2])<=0.05,0,

abs(cov_original[9,2]-Cov_Max_Ver[9,2]))

p=p+ifelse(abs(cov_original[9,3]-Cov_Max_Ver[9,3])<=0.05,0,

abs(cov_original[9,3]-Cov_Max_Ver[9,3]))

p=p+ifelse(abs(cov_original[9,4]-Cov_Max_Ver[9,4])<=0.05,0,

abs(cov_original[9,4]-Cov_Max_Ver[9,4]))

p=p+ifelse(abs(cov_original[9,5]-Cov_Max_Ver[9,5])<=0.05,0,

abs(cov_original[9,5]-Cov_Max_Ver[9,5]))

p=p+ifelse(abs(cov_original[9,6]-Cov_Max_Ver[9,6])<=0.05,0,

abs(cov_original[9,6]-Cov_Max_Ver[9,6]))

p=p+ifelse(abs(cov_original[9,7]-Cov_Max_Ver[9,7])<=0.05,0,

abs(cov_original[9,7]-Cov_Max_Ver[9,7]))

p=p+ifelse(abs(cov_original[9,8]-Cov_Max_Ver[9,8])<=0.05,0,

abs(cov_original[9,8]-Cov_Max_Ver[9,8]))

p_Max_Ver<-p

Page 95: Estimaci on de modelos de estructura de covarianza ...

95

#### Estimacion Modelo con Parametros Libres: Mınimos Cuadrados Generalizados ###

fit_GLS<- sem(modelo, sample.cov=cov_original.cov,

sample.nobs=10000, estimator="GLS")

summary(fit_GLS, standardized=TRUE)

Min_Cua<-matrix(c(1,0.567,0.221,1,0.519,0.423,1,0.207,0.155,1,1,1,1,1,

1,1,1,1,0.132,0.667,0.132,9,4,0.018),nrow=24,ncol=1)

Cov_Min_Cua<-cov_estimada(Min_Cua)

Dif_Min_Cua<-cov_estimada(Min_Cua)-cov_original

diag_co=c(diag(cov_original))

diag_ce=c(diag(Cov_Min_Cua))

p=ifelse(abs(diag_co[1]-diag_ce[1])<=0.05,0,abs(diag_co[1]-diag_ce[1]))

p=p+ifelse(abs(diag_co[2]-diag_ce[2])<=0.05,0,abs(diag_co[2]-diag_ce[2]))

p=p+ifelse(abs(diag_co[3]-diag_ce[3])<=0.05,0,abs(diag_co[3]-diag_ce[3]))

p=p+ifelse(abs(diag_co[4]-diag_ce[4])<=0.05,0,abs(diag_co[4]-diag_ce[4]))

p=p+ifelse(abs(diag_co[5]-diag_ce[5])<=0.05,0,abs(diag_co[5]-diag_ce[5]))

p=p+ifelse(abs(diag_co[6]-diag_ce[6])<=0.05,0,abs(diag_co[6]-diag_ce[6]))

p=p+ifelse(abs(diag_co[7]-diag_ce[7])<=0.05,0,abs(diag_co[7]-diag_ce[7]))

p=p+ifelse(abs(diag_co[8]-diag_ce[8])<=0.05,0,abs(diag_co[8]-diag_ce[8]))

p=p+ifelse(abs(diag_co[9]-diag_ce[9])<=0.05,0,abs(diag_co[9]-diag_ce[9]))

p=p+ifelse(abs(cov_original[2,1]-Cov_Min_Cua[2,1])<=0.05,0,

abs(cov_original[2,1]-Cov_Min_Cua[2,1]))

p=p+ifelse(abs(cov_original[3,1]-Cov_Min_Cua[3,1])<=0.05,0,

abs(cov_original[3,1]-Cov_Min_Cua[3,1]))

p=p+ifelse(abs(cov_original[3,2]-Cov_Min_Cua[3,2])<=0.05,0,

abs(cov_original[3,2]-Cov_Min_Cua[3,2]))

p=p+ifelse(abs(cov_original[4,1]-Cov_Min_Cua[4,1])<=0.05,0,

abs(cov_original[4,1]-Cov_Min_Cua[4,1]))

p=p+ifelse(abs(cov_original[4,2]-Cov_Min_Cua[4,2])<=0.05,0,

abs(cov_original[4,2]-Cov_Min_Cua[4,2]))

p=p+ifelse(abs(cov_original[4,3]-Cov_Min_Cua[4,3])<=0.05,0,

abs(cov_original[4,3]-Cov_Min_Cua[4,3]))

p=p+ifelse(abs(cov_original[5,1]-Cov_Min_Cua[5,1])<=0.05,0,

abs(cov_original[5,1]-Cov_Min_Cua[5,1]))

p=p+ifelse(abs(cov_original[5,2]-Cov_Min_Cua[5,2])<=0.05,0,

abs(cov_original[5,2]-Cov_Min_Cua[5,2]))

p=p+ifelse(abs(cov_original[5,3]-Cov_Min_Cua[5,3])<=0.05,0,

abs(cov_original[5,3]-Cov_Min_Cua[5,3]))

p=p+ifelse(abs(cov_original[5,4]-Cov_Min_Cua[5,4])<=0.05,0,

abs(cov_original[5,4]-Cov_Min_Cua[5,4]))

Page 96: Estimaci on de modelos de estructura de covarianza ...

96

p=p+ifelse(abs(cov_original[6,1]-Cov_Min_Cua[6,1])<=0.05,0,

abs(cov_original[6,1]-Cov_Min_Cua[6,1]))

p=p+ifelse(abs(cov_original[6,2]-Cov_Min_Cua[6,2])<=0.05,0,

abs(cov_original[6,2]-Cov_Min_Cua[6,2]))

p=p+ifelse(abs(cov_original[6,3]-Cov_Min_Cua[6,3])<=0.05,0,

abs(cov_original[6,3]-Cov_Min_Cua[6,3]))

p=p+ifelse(abs(cov_original[6,4]-Cov_Min_Cua[6,4])<=0.05,0,

abs(cov_original[6,4]-Cov_Min_Cua[6,4]))

p=p+ifelse(abs(cov_original[6,5]-Cov_Min_Cua[6,5])<=0.05,0,

abs(cov_original[6,5]-Cov_Min_Cua[6,5]))

p=p+ifelse(abs(cov_original[7,1]-Cov_Min_Cua[7,1])<=0.05,0,

abs(cov_original[7,1]-Cov_Min_Cua[7,1]))

p=p+ifelse(abs(cov_original[7,2]-Cov_Min_Cua[7,2])<=0.05,0,

abs(cov_original[7,2]-Cov_Min_Cua[7,2]))

p=p+ifelse(abs(cov_original[7,3]-Cov_Min_Cua[7,3])<=0.05,0,

abs(cov_original[7,3]-Cov_Min_Cua[7,3]))

p=p+ifelse(abs(cov_original[7,4]-Cov_Min_Cua[7,4])<=0.05,0,

abs(cov_original[7,4]-Cov_Min_Cua[7,4]))

p=p+ifelse(abs(cov_original[7,5]-Cov_Min_Cua[7,5])<=0.05,0,

abs(cov_original[7,5]-Cov_Min_Cua[7,5]))

p=p+ifelse(abs(cov_original[7,6]-Cov_Min_Cua[7,6])<=0.05,0,

abs(cov_original[7,6]-Cov_Min_Cua[7,6]))

p=p+ifelse(abs(cov_original[8,1]-Cov_Min_Cua[8,1])<=0.05,0,

abs(cov_original[8,1]-Cov_Min_Cua[8,1]))

p=p+ifelse(abs(cov_original[8,2]-Cov_Min_Cua[8,2])<=0.05,0,

abs(cov_original[8,2]-Cov_Min_Cua[8,2]))

p=p+ifelse(abs(cov_original[8,3]-Cov_Min_Cua[8,3])<=0.05,0,

abs(cov_original[8,3]-Cov_Min_Cua[8,3]))

p=p+ifelse(abs(cov_original[8,4]-Cov_Min_Cua[8,4])<=0.05,0,

abs(cov_original[8,4]-Cov_Min_Cua[8,4]))

p=p+ifelse(abs(cov_original[8,5]-Cov_Min_Cua[8,5])<=0.05,0,

abs(cov_original[8,5]-Cov_Min_Cua[8,5]))

p=p+ifelse(abs(cov_original[8,6]-Cov_Min_Cua[8,6])<=0.05,0,

abs(cov_original[8,6]-Cov_Min_Cua[8,6]))

p=p+ifelse(abs(cov_original[8,7]-Cov_Min_Cua[8,7])<=0.05,0,

abs(cov_original[8,7]-Cov_Min_Cua[8,7]))

p=p+ifelse(abs(cov_original[9,1]-Cov_Min_Cua[9,1])<=0.05,0,

abs(cov_original[9,1]-Cov_Min_Cua[9,1]))

p=p+ifelse(abs(cov_original[9,2]-Cov_Min_Cua[9,2])<=0.05,0,

abs(cov_original[9,2]-Cov_Min_Cua[9,2]))

p=p+ifelse(abs(cov_original[9,3]-Cov_Min_Cua[9,3])<=0.05,0,

abs(cov_original[9,3]-Cov_Min_Cua[9,3]))

p=p+ifelse(abs(cov_original[9,4]-Cov_Min_Cua[9,4])<=0.05,0,

abs(cov_original[9,4]-Cov_Min_Cua[9,4]))

Page 97: Estimaci on de modelos de estructura de covarianza ...

97

p=p+ifelse(abs(cov_original[9,5]-Cov_Min_Cua[9,5])<=0.05,0,

abs(cov_original[9,5]-Cov_Min_Cua[9,5]))

p=p+ifelse(abs(cov_original[9,6]-Cov_Min_Cua[9,6])<=0.05,0,

abs(cov_original[9,6]-Cov_Min_Cua[9,6]))

p=p+ifelse(abs(cov_original[9,7]-Cov_Min_Cua[9,7])<=0.05,0,

abs(cov_original[9,7]-Cov_Min_Cua[9,7]))

p=p+ifelse(abs(cov_original[9,8]-Cov_Min_Cua[9,8])<=0.05,0,

abs(cov_original[9,8]-Cov_Min_Cua[9,8]))

p_Min_Cua<-p

p_Alg_Gen

p_Max_Ver

p_Min_Cua

Page 98: Estimaci on de modelos de estructura de covarianza ...

Bibliografıa

Arbuckle, J. L. (2010). Ibm spss amos 19 user’s guide. Crawfordville, FL: Amos DevelopmentCorporation, 635.

Arranz de la Pena, J. y Parra, T. A. (2007). Algoritmos geneticos. Universidad Carlos III.

Baquela, E. y Redchuk, A. (2013). Optimizacion Matematica con R. Volumen l: Introduccional modelado y resolucion de problemas. Bubok, Madrid.

Bernstein, I. H. y Nunnally, J. (1994). Psychometric theory. New York: McGraw-Hill. Oliva,TA, Oliver, RL, & MacMillan, IC (1992). A catastrophe model for developing servicesatisfaction strategies. Journal of Marketing, 56:83–95.

Boker, S., Neale, M., Maes, H., Wilde, M., Spiegel, M., Brick, T., Spies, J., Estabrook, R.,Kenny, S., Bates, T., et al. (2011). Openmx: an open source extended structural equationmodeling framework. Psychometrika, 76(2):306–317.

Bollen, K. A. (2014). Structural equations with latent variables. John Wiley & Sons.

Boomsma, A. (1984). On the robustness of lisrel (maximun likelihood estimation) againstsmall sample size and nonnormality. Amsterdam: Sociometrics Research Foundation.

Boomsma, A. (2000). Reporting analyses of covariance structures. Structural EquationModeling: A Multidisciplinary Journal, 7(3):461–483.

Borges, R. (2002). Analisis de supervivencia aplicado a un caso de dialisis renal y dialisisperitoneal en el hospital clınico universitario de caracas y hemodialisis en el hospital declınicas caracas 1980-2000.

Cuadras, C. M. (2014). Nuevos Metodos de Analisis Multivariante. CMC Editions, Barcelona.

Dıaz, L. (2002). Estadıstica Multivariada: inferencia y metodos. Universidad Nacional deColombia, Bogota.

Dıaz, L. y Morales, M. (2012). Analisis Estadıstico de Datos Multivariados. UniversidadNacional, Bogota.

Diebolt, J. y Ip, E. H. S. (1996). Stochastic em: method and application. In Markov ChainMonte Carlo in Practice, Chapman & Hall/CRC Interdisciplinary Statistics. Taylor &Francis.

Page 99: Estimaci on de modelos de estructura de covarianza ...

BIBLIOGRAFIA 99

Epskamp, S. (2015). semplot: Unified visualizations of structural equation models. StructuralEquation Modeling: A Multidisciplinary Journal, 22(3):474–483.

Fornell, C. y Larcker, D. F. (1981). Evaluating structural equation models with unobservablevariables and measurement error. Journal of marketing research, pages 39–50.

Fox, J. (2006). Teacher’s corner: structural equation modeling with the sem package in r.Structural equation modeling, 13(3):465–486.

Gagne, P. y Hancock, G. R. (2006). Measurement model quality, sample size, and solutionpropriety in confirmatory factor models. Multivariate Behavioral Research, 41(1):65–83.

Gil, N. (2006). Algoritmos geneticos. Master’s thesis, Universidad Nacional de Colombia,Medellin.

Hatcher, L. (1994). A step-by-step approach to using the sas system for factor analysis andstructural equation modeling.

Herrero, J. (2010). El analisis factorial confirmatorio en el estudio de la estructura y esta-bilidad de los instrumentos de evaluacion: Un ejemplo con el cuestionario de autoestimaca–14. Psychosocial Intervention, 19(3):289–300.

Jackson, D. L. (2001). Sample size and number of parameter estimates in maximum likelihoodconfirmatory factor analysis: A monte carlo investigation. Structural Equation Modeling,8(2):205–223.

Jimenez, E. U. y Manzano, J. A. (2005). Analisis multivariante aplicado: aplicaciones almarketing, investigacion de mercados, economıa, direccion de empresas y turismo.

Joreskog, K. G. y Sorbom, D. (1984). LISREL VI: Analysis of Linear Structural Relations-hips by Maximun Likelihood and Least Square Methods. Mooresville: Scientific SoftwareInternational, Inc.

Kaplan, D.and Wenger, R. N. (1993). Asymptotic independence and separability in covarian-ce structure models: Implications for specification error, power, and model modification.Multivariate Behavioral Research, 28:467–482.

Kelley, K. y Lai, K. (2011). Accuracy in parameter estimation for the root mean squareerror of approximation: Sample size planning for narrow confidence intervals. MultivariateBehavioral Research, 46(1):1–32.

Kline, R. B. (2015). Principles and practice of structural equation modeling. Guilford publi-cations.

Lin, T. Y. y Weng, L. J. (2014). Graphical extension of sample size planning with aipe onrmsea using r. Structural Equation Modeling: A Multidisciplinary Journal, 21(3):482–490.

Lopez, M. V. y Quaglino, M. B. (2012). Modelo de ecuaciones estructurales para la evaluacionde la calidad de una vacuna bovina.

Page 100: Estimaci on de modelos de estructura de covarianza ...

BIBLIOGRAFIA 100

MacCallum, R. (1986). Specification searches in covariance structure modeling. PsychologicalBulletin, 100(1):107.

MacCallum, R. C., Roznowski, M., y Necowitz, L. B. (1992). Model modifications in co-variance structure analysis: The problem of capitalization on chance. The PsychologicalBulletin, 111:490–504.

Mangin, J. P. L. y Mallou, J. V. (2006). Modelizacion con estructuras de covarianzas enCiencias Sociales: temas esenciales, avanzados y aportaciones especiales. Netbiblo.

Moujahid, A., Inza, I., y Larranaga, P. (2008). Tema 2. algoritmos geneticos. Departamentode Ciencias de la Computacion e Inteligencia Artificial Universidad del Paıs Vasco.

Mulaik, S. A., James, L. R., Van Alstine, J., Bennett, N., Lind, S., y Stilwell, C. D. (1989).Evaluation of goodness-of-fit indices for structural equation models. Psychological bulletin,105(3):430.

Parra, C. M. (1998). Efectos de observaciones outliers en modelos de estructura de covarianza.Master’s thesis, Universidad Nacional de Colombia, Medellin.

Picon, E., Levy, J. P., y Voces, C. (2006). Modelizacion con variables latentes y mezclas fini-tas. In Modelizacion con estructuras de covarianzas en Ciencias Sociales: temas esenciales,avanzados y aportaciones especiales. Netbiblo.

Rivas, D., Maldonado, J. L., Borges, R., y Colmenares, G. (2007). Aplicacion de los algorit-mos geneticos para estimar los parametros en un modelo de regresion de cox. Economıa,XXXI, 22:57–74.

Robert, C. P. (1996). Mixtures of distributions; inference and estimation. In Markov ChainMonte Carlo in Practice, Chapman & Hall/CRC Interdisciplinary Statistics. Taylor &Francis.

Rosseel, Y. (2012). lavaan: An r package for structural equation modeling. Journal ofStatistical Software, 48(2):1–36.

Rosseel, Y., Oberski, D., Byrnes, J., Vanbrabant, L., Savalei, V., Merkle, E., Hallquist, M.,Rhemtulla, M., Katsikatsou, M., Barendse, M., et al. (2015). Package ‘lavaan’.

Scheines, R., Hoijtink, H., y Boomsma, A. (1999). Bayesian estimation and testing of struc-tural equation models. Psychometrika, 64(1):37–52.

Schoenberg, R. (1989). Covariance structure models. Annual Review of Sociology, 15:425–440.

Sivanandam, S. N. y Deepa, S. N. (2007). Introduction to genetic algorithms. SpringerScience & Business Media.

Spearman, C. (1904). “general intelligence,” objectively determined and measured. TheAmerican Journal of Psychology, 15(2):201–292.

Page 101: Estimaci on de modelos de estructura de covarianza ...

BIBLIOGRAFIA 101

Stevens, J. (2002). Applied multivariate statistics for the social sciences: Analyses with SASand IBM’s SPSS. Lawrence Erlbaum Inc., Mahwah, NJ.

Ullman, J. (2006). Structural equation modeling: Reviewing the basics and moving forward.Journal of Personality Assessment, 87:35–50.

Verdugo, M. A., Crespo, M., Badıa, M., y Arias, B. (2008). Metodologıa en la investigacionsobre discapacidad. introduccion al uso de las ecuaciones estructurales.

Vila, N., Kuster, I., y Aldas, J. (2000). Desarrollo y validacion de escalas de medida enMarketing. Departamento de Comercializacion e Investigacion de Mercados, Universitatde Valencia.

Willighagen, E., Ballings, M., y Ballings, M. M. (2015). Package ‘genalg’.

Wolf, E. J., Harrington, K. M., Clark, S. L., y Miller, M. W. (2013). Sample size require-ments for structural equation models an evaluation of power, bias, and solution propriety.Educational and Psychological Measurement, 73(6):913–934.

Yadama, G. N. y Pandey, S. (1995). Effect of sample size on goodness-fit of-fit indices instructural equation models. Journal of Social Service Research, 20(3-4):49–70.

Yang, Y., Dunson, D. B., et al. (2016). Bayesian manifold regression. The Annals of Statistics,44(2):876–905.