sistemas2015umss.files.wordpress.com · Web viewEste fue el problema computacional que llevo a la...

29
Recientes desarrollos en Econometría: Un recuento histórico. 1. Introducción. El objeto de este artículo son los "recientes desarrollos en Econometría", pero el seguimiento que se realiza es histórico y como quiera que sean discutidos tales desarrollos recientes serán vistos como evolucionarios más que como revolucionarios. Esta aproximación histórica se ilustra en las tablas 1 a 4, las que indican algunos fundamentos desarrollados en la Econometría Teórica y en la Econometría Aplicada los mismos que serán tratados en este artículo. La Econometría tiene una historia relativamente larga como rama de la economía, ya que se puede fijar su nacimiento oficial en 1932, cuando la Sociedad de Econometría fue fundada y la revista Econometrica empezó a publicarse. Dado que este año se celebra el 68° aniversario de la fundación de la Sociedad de Econometría, este es un buen momento para contribuir al progreso que se ha hecho en esta materia y su impacto en el resto de la economía. 2. Una revisión histórica de los desarrollos en Econometría. Volviendo ahora a la historia de la Econometría, sugeriría que el periodo a ser estudiado sea dividido en cuatro etapas, aunque no todos ellos han sido excelentes. La Etapa del Descubrimiento (desde 1930 hasta mediados de 1950). Aún cuando la fundación de la Sociedad de Econometría sea tomada para fijar el nacimiento oficial de esta disciplina, la Econometría no tuvo su "Teoría General" hasta 1944, cuando "Econometrica" publico un suplemento especial escrito por

Transcript of sistemas2015umss.files.wordpress.com · Web viewEste fue el problema computacional que llevo a la...

Page 1: sistemas2015umss.files.wordpress.com · Web viewEste fue el problema computacional que llevo a la comisión Cowles a desarrollar la alternativa más fácilmente computable del Modelo

Recientes desarrollos en Econometría: Un recuento histórico.1. Introducción.

El objeto de este artículo son los "recientes desarrollos en Econometría", pero el seguimiento que se realiza es histórico y como quiera que sean discutidos tales desarrollos recientes serán vistos como evolucionarios más que como revolucionarios. Esta aproximación histórica se ilustra en las tablas 1 a 4, las que indican algunos fundamentos desarrollados en la

Econometría Teórica y en la Econometría Aplicada los mismos que serán tratados en este artículo.

La Econometría tiene una historia relativamente larga como rama de la economía, ya que se puede fijar su nacimiento oficial en 1932, cuando la Sociedad de Econometría fue fundada y la revista Econometrica empezó a publicarse. Dado que este año se celebra el 68° aniversario de la fundación de la Sociedad de Econometría, este es un buen momento para contribuir al progreso que se ha hecho en esta materia y su impacto en el resto de la economía.

2. Una revisión histórica de los desarrollos en Econometría.

Volviendo ahora a la historia de la Econometría, sugeriría que el periodo a ser estudiado sea dividido en cuatro etapas, aunque no todos ellos han sido excelentes.

La Etapa del Descubrimiento (desde 1930 hasta mediados de 1950).

Aún cuando la fundación de la Sociedad de Econometría sea tomada para fijar el nacimiento oficial de esta disciplina, la Econometría no tuvo su "Teoría General" hasta 1944, cuando "Econometrica" publico un suplemento especial escrito por Trigve Haavelmo. Este ofrecía una estructura teórica básica para la estimación de ecuaciones simultáneas dentro de la cual la Econometría Teórica era desarrollada.

Las ideas fundamentales de Haavelmo recogidas por la Fundación Cowles, la cual fue apoyada por la Universidad de Chicago. Ellas fueron notablemente exitosas, y al adoptar la aproximación de Máxima Verosimilitud a los problemas que se presentaron en ese tipo, solucionaron virtualmente todos los problemas teóricos en los que se interesaron a mediados de 1950. Todo lo concerniente al modelo el cual podía incorporar cualquier combinación de restricciones económicas y estadísticas fue el Modelo de Máxima Verosimilitud de Información Completa (MVIC).

Page 2: sistemas2015umss.files.wordpress.com · Web viewEste fue el problema computacional que llevo a la comisión Cowles a desarrollar la alternativa más fácilmente computable del Modelo

Sin embargo, la mayor restricción en la aplicación del modelo MVIC fue la falta de poder de la computación, lo cual esta gráficamente representado en las fotografías existentes del laboratorio de computación de la Comisión Cowles en 1952, cuando las computadoras no eran máquinas, sino personas que pasaban todo el día colocando números en las máquinas calculadoras de escritorio. Este fue el problema computacional que llevo a la comisión Cowles a desarrollar la alternativa más fácilmente computable del Modelo de Máxima Verosimilitud de Información Limitada (MVIL) y, en 1953, a Henry Theil a presentar el Modelo de Mínimos Cuadrados en dos etapas (MC2E).

A pesar del hecho de que los MC2E ofrecen una técnica que podría ser implementada pese a los problemas computacionales, los Mínimos Cuadrados Ordinarios (MCO) continúan siendo el método de estimación más ampliamente utilizado. Durante este período, hubo poco interés en analizar los supuestos que subyacen al modelo MCO, excepto para la autocorrelación de primer orden (AR1) y su transformación, y en 1950/51 Durbin y Watson publicaron su prueba de errores de AR1. La prueba de Durbin y Watson rápidamente llego a ser común y la transformación de Cochrane-Orcutt la cual tuvo uso generalizado en el trabajo de Econometría Aplicada, desafortunadamente, ayudaron a persuadir a muchos economistas que la autocorrelación debía y podía ser tratada como un problema puramente estadístico y no como una señal de mala especificación del modelo.

Metodológicamente, los economistas ocupados en el trabajo empírico durante este período tendieron a ignorar la mayoría de los desarrollos teóricos y continuaron estimando modelos uniecuacionales y evaluándolos sobre la base de un simple e inadecuado criterio:

(I) La bondad del ajuste; un valor alto para el R2 fue usualmente lo primero y principalmente el principal objetivo.

(II) Los signos y magnitudes de los parámetros estimados en relación a las expectativas de la teoría económica, y

(III) Las pruebas t y F de hipótesis económicas simples.

Esta metodología será examinada con mayor detalle más adelante en este artículo, pero la pregunta a considerarse aquí es por qué la disciplina se tardo tanto para tener un gran impacto sobre el resto de los economistas en esta época. ¿ por qué es esto? Sugeriría tres razones: 1. Escasez de profesores y libros: Como una nueva disciplina a estudiar, hubieron retrasos en la introducción de cursos debido a la falta de profesores entrenados para enseñar la materia y la ausencia de libros y material apropiado para los estudiantes; 2. Escasez de datos apropiados: Las nuevas ideas de la Econometría Teórica fueron también lentas para ser adoptadas debido a la escasez de datos adecuados. Al principio del periodo las cuentas sobre el Ingreso nacional no existían, e inclusive cuando comenzaron a aparecer durante y después de la 2° guerra mundial, la información fue casi de series de

Page 3: sistemas2015umss.files.wordpress.com · Web viewEste fue el problema computacional que llevo a la comisión Cowles a desarrollar la alternativa más fácilmente computable del Modelo

tiempo muy cortas; y 3. Problemas computacionales: En años recientes han llegado a tal punto el alto grado de desarrollo del poder de la computación, desde la computadora de sistema principal hasta las modernas Notebook, que es difícil recordar las labores de cálculos intensivos y hasta el cálculo de la ecuación de regresión simple.

Estas restricciones, particularmente la tercera, ha influenciado en el desarrollo de la Econometría Aplicada y en la velocidad a la que ha sido adoptada en aspecto importantes como se muestra en la tabla 1.

Tabla 1. La etapa del descubrimiento.

La Etapa de la Certidumbre (desde mediados de 1950 hasta mediados de 1970).

Tabla 2. Etapa de la Certidumbre.

Page 4: sistemas2015umss.files.wordpress.com · Web viewEste fue el problema computacional que llevo a la comisión Cowles a desarrollar la alternativa más fácilmente computable del Modelo

A pesar de que hubieron importantes avances teóricos durante este periodo, con el desarrollo de un modelo general para la estimación de Variables Instrumentales (VI) (Sargan 1958) y los Mínimos cuadrados en 3 etapas (MC3E) (Zellner y Theil 1962), la característica principal de este período fue la consolidación y la aplicación.

Esta fue la etapa de la construcción de modelos, así como de la disponibilidad de computadoras de sistema principal y de programas econométricos especializados lo que hizo posible construir modelos macroeconométricos de gran escala. En los EE.UU., Lawrence Klein había desarrollado el gran modelo de la escuela Wharton en la Universidad de Philafelphia y otros grandes modelos fueron patrocinados por el Instituto Brookings y la Junta de la Reserva Federal en colaboración con el M.I.T. La Escuela de Negocios de Londres fue una de las primeras pioneras en el Reino Unido y, antes de terminar este período el Banco de Inglaterra, el cual normalmente no esta interesado en estas innovaciones técnicas, había construido un modelo econométrico.

Las predicciones de varios modelos fueron bastante precisas y los constructores de modelos obtuvieron considerable prestigio por sus trabajos. Sin embargo, con la ventaja de observar el pasado, uno debe sugerir que fueron algo afortunados al trabajar en un período de continua expansión del mundo de la economía, lo que hizo más fácil predecir los cambios de las grandes variables económicas.

Hubieron algunos desarrollos en las pruebas de diagnóstico, con el trabajo sobre las pruebas de heterocedasticidad y estabilidad (Chow 1960), pero estos tendieron a ser usados muy pocas veces.

Ya existían programas universitarios formando profesionales en Econometría, muchos de los cuales fueron contratados por los grandes centros de modelística macroeconométrica. Sin embargo, la mayoría de estos profesionales permanece sin conocer los desarrollos de la Econometría Teórica y el nivel general del trabajo aplicado en Economía sigue siendo bajo, como se describió líneas atrás.

Page 5: sistemas2015umss.files.wordpress.com · Web viewEste fue el problema computacional que llevo a la comisión Cowles a desarrollar la alternativa más fácilmente computable del Modelo

La escasez de datos fue menos un problema en un número de países con cuentas del ingreso nacional elaboradas para producir series de tiempo con información quincenal para muchas de las variables macroeconómicas fundamentales, las que incrementaron el potencial de los grados de libertad disponible para los constructores de modelos, pero también ocasionaron nuevos problemas de especificación dinámica que no fueron reconocidos generalmente a tiempo.

Las restricciones en computación fueron también más reducidas, tanto que llego a ser más fácil para los economistas tener acceso a las computadoras de sistema principal, las que fueron incrementando su poder y capacidad. Muchos de los grandes paquetes econométricos (tales como el TSP) aparecieron durante este periodo, de modo que las ideas de "hágalo usted mismo" fueron largamente superados.

La etapa de la incertidumbre (desde mediados de 1970 hasta mediados de 1980).

Tabla 3. La etapa de la incertidumbre.

La década desde mediados de 1970 no fue época para las aplicaciones econométricas, tanto que fueron sometidas a dos crisis. Primero, el inicio de la recesión seguida por la primera crisis petrolera de la OPEP que llevo a la mayoría de modelos econométricos establecidos a predecir en muy mala forma, tanto así que muchas de las relaciones básicas de la economía usadas por los constructores de modelos (tales como la curva de Phillips, funciones de demanda de dinero, etc.) resultaron insuficientes de mantenerse vigentes.

Segundo, la teoría macroeconómica derivada de Keynes que proporciono la bese para la construcción de modelos econométricos estuvo bajo el ataque de una NUEVA ESCUELA de

Page 6: sistemas2015umss.files.wordpress.com · Web viewEste fue el problema computacional que llevo a la comisión Cowles a desarrollar la alternativa más fácilmente computable del Modelo

macroeconomistas neoclásicos - ¡ las expectativas racionales habían llegado!. Este ataque combinado de fracasos de predicción de los modelos macroeconómicos existentes llevó a la pérdida de confianza(de ambos lados)por parte de los constructores de modelos como de los usuarios de los modelos.

Mientras algunos de los constructores de modelos trataron de abordar los problemas empíricos realizando ajustes ad hoc"(específicamente para eso) a sus modelos, otros econometristas respondieron de diversas formas.

Primero, hubieron intentos de entender las críticas de la escuela neoclásica de las expectativas racionales y el problema de cómo incorporar las expectativas racionales dentro de los modelos macroeconómicos. Mientras esto tendía a producir modelos macroeconómicos más complicados y ocasionaba algunas dificultades de estimación, ello tuvo el efecto positivo de improvisar la especificación dinámica de muchos modelos.

Segundo, los problemas metodológicos fueron requeridos sobre el proceso de construcción y selección de modelos y un número de diferentes escuelas surgieron, lo que ha tenido alguna influencia en años recientes. Los orígenes de las ideas concernientes han sido vistas antes, pero no han penetrado tanto hacia los pequeños grupos de seguidores hasta que la crisis los obligo a prestar atención a una amplia audiencia.

Mientras el período no fue un buen momento para los constructores de modelos, ello marco una nueva era en la computación, ya que a inicios de 1980 se vio la aparición de la computadora personal IBM. En un momento relativamente corto los econometristas estuvieron trabajando en estas PC’S que eran más rápidas y poderosas que las computadoras de sistema principal de las primera épocas. Como consecuencia, los modelos teóricos que habían sido desarrollados por la Comisión Cowles en los años cincuenta fueron finalmente capaces de implementarse en las máquinas que fueron apareciendo sobre los escritorios de un gran número de economistas.

Etapa de la Reconstrucción (desde mediados de 1980 hasta el presente).

Tabla 4. La etapa de la reconstrucción.

Page 7: sistemas2015umss.files.wordpress.com · Web viewEste fue el problema computacional que llevo a la comisión Cowles a desarrollar la alternativa más fácilmente computable del Modelo

Yendo a tiempos más recientes, dos avances han sido particularmente importantes. Primero ha sido un periodo en que la metodología llego a preocupar más a los profesionales de Econometría. Los fracasos de los constructores de modelos y la imposibilidad de muchos de los primeros procedimientos para discriminar entre modelos competentes debido al menor poder (eso es, el gran error tipo II de aceptar una hipótesis falsa) hizo necesario cuestionar los fundamentos. Uno de estos fue la validez de traspasar los supuestos clásicos del análisis de regresión sin que se cuestionen y pongan a prueba su validez. Esto ha llevado a un grandioso interés en las propiedades estadísticas de las ecuaciones y el desarrollo de una amplia variedad de pruebas. Estos avances están discutidos en la próxima sección.

Seguido el progreso en el desarrollo de programas de computación especializados para la Econometría ha incrementado enormemente el conocimiento general de los profesionales de Econometría hacia los recientes avances de la Econometría teórica, ahora la situación ha sido revertida. Muchos de los actuales paquetes diseñados para el análisis econométrico son frecuentemente actualizados para incorporar nuevos avances teóricos en forma de pruebas adicionales o procedimientos analíticos.

El efecto de estos paquetes que son instalados en las PC’S sobre los escritorios de aplicados economistas quienes no son necesariamente econometristas ha tendido a ser provechoso, tanto así que mientras algunos de ellos han aplicado las pruebas y obtenido los resultados mecánicamente sin comprenderlos, otros han sido suficientemente motivados para investigar la teoría que subyace a estas nuevas pruebas y procedimientos de estimación.

3. Recientes avances teóricos y metodológicos.

Page 8: sistemas2015umss.files.wordpress.com · Web viewEste fue el problema computacional que llevo a la comisión Cowles a desarrollar la alternativa más fácilmente computable del Modelo

El resultado del inmenso interés en la metodología no ha sido la aparición de un nuevo paradigma que ha sido aceptado por la mayoría, o al menos la mayoría de los profesionales de Econometría. Más aún han habido diferentes respuestas de parte de los econometristas a los diferentes aspectos de la Econometría teórica o Econometría aplicada.

Fuera de este cuestionamiento sobre el problema del método, tres escuelas metodológicas identificadas han surgido:

1. La metodología de los Mínimos Cuadrados.- Empezó a inicios de los 60’s, Denis Sargan desarrollo una metodología para modelos en los que el constructor de tales cambiaba de una especificación dinámica general de un modelo, en el cual una serie de pruebas de diagnóstico fueron empleadas para garantizar que las propiedades estadísticas sean satisfactorias, a una especificación simple que producía variables redundantes, pero aún permanecía cumpliendo los supuestos de Gauss-Markov del modelo de regresión (es decir, no autocorrelación, no heterocedsaticidad, errores normalmente distribuidos, estabilidad de parámetros, forma funcional satisfactoria, etc.).

Tabla 5. Escuelas metodológicas actuales en Econometría.

Ninguna de estas escuelas ha conseguido una posición dominante, pero en términos generales, la metodología Bayesiana ha tenido relativamente un menor impacto en términos empíricos, la aproximación VAR encuentra aceptación principalmente en los EE.UU., mientras la aproximación MCO ha tenido considerable influencia sobre los trabajos realizados en el Reino Unido y a captado seguidores en los EE.UU. y en algunos otros puestos de avanzada de los MCO.

Lo que actualiza a la actual discusión metodológica es una creciente flexibilidad en la construcción de modelos y un interés en las cuestiones estadísticas relativas a la modelística. Esto será ilustrado considerando algunas de las características de la llamada metodología MCO, dentro de cuyos aspectos de particular importancia están:

(I) Modelística de lo general a lo simple.

(II) Interés en las propiedades dinámicas y de largo plazo de los modelos económicos; y

Page 9: sistemas2015umss.files.wordpress.com · Web viewEste fue el problema computacional que llevo a la comisión Cowles a desarrollar la alternativa más fácilmente computable del Modelo

(III) La investigación de la Cointegración.

Modelística de lo general a lo simple. Miembros de la escuela de los MCO han sido muy criticados por sus primeros trabajos de Econometría aplicada debido a su naturaleza simple a general. Los primeros modelos tendían a comenzar con una muy simple especificación del modelo a ser investigado. Muchas regresiones fueron corridas y los investigadores insistieron excesivamente sobre el criterio de la bondad de ajuste para elegir entre las ecuaciones alternativas y determinar si un modelo era satisfactorio. Los supuestos del teorema de Gauss-Markov, los que no son necesarios para justificar el uso de los MCO en el análisis de regresión, fueron tomados como válidos sin ser puestos a prueba. Esto esta ilustrado en la figura 2.

Figura 2.

Simple a general (1).

MO

1. R2 alto Þ OK.

2. Signos de los estimadores correctos Þ OK.

3. Tamaño de los estimadores correctoÞ OK.

4. Pruebas t, (F) significativas Þ OK.

Si estas pruebas son incorrectas o poco significativas:

¿ Qué hacer ahora?: ¿ Cambiar la forma de la función?, ¿ Agregar variables?; ¿ Eliminar observaciones?.

Una vez que la prueba Durbin-Watson para errores autoregresivos de primer orden y la transformación de Cochrane-Orcutt fueron incorporadas en los paquetes de regresión, ellas fueron usadas, pero en una forma mecánica. Sólo si la transformación Cochrane-Orcutt fallaba para eliminar la autocorrelación el investigador debería cambiar hacia una especificación más general del modelo, por ejemplo incluyendo variables adicionales, deshacerse de observaciones extremas, etc. Esto esta ilustrado en la figura 3.

Figura 3.

Simple a general (2)

M1

1. R2

2. Signos de los estimadores.

3. Tamaño de los estimadores.

Page 10: sistemas2015umss.files.wordpress.com · Web viewEste fue el problema computacional que llevo a la comisión Cowles a desarrollar la alternativa más fácilmente computable del Modelo

4. Pruebas t (F).

5. Prueba de Durbin-Watson para AR(1):

Significativo: M1 = MO + AR(1)

No significativo Þ OK.

Metodología del Vector Autorregresivo (VAR).- Esta aproximación esta asociada con el trabajo de Christopher Sims, hace menor uso de la teoría económica que los constructores de modelos macroeconómicos y se ha concentrado en investigar la relación entre los fundamentos económicos de las series de tiempo usando modelos autorregresivos y muchas de las técnicas desarrolladas por el trabajo de Box y Jenkins. Por ejemplo, un modelo simple VAR de la relación entre el ingreso (Y) y el dinero (M) sería:

Yt = b 11 + b 12Mt-1 + b 13Yt-1 + m 1t

Mt = b 21 + b 22Mt-1 + b 23Yt-1 + m 2t

La metodología Bayesiana.- Esta metodología ha sido particularmente asociada con el trabajo de Edward Learner, cuyo artículo "Saquemos el CON de la Econometría" tuvo un considerable impacto. La aproximación utiliza los modelos económicos como su punto de partida, pero Lerner argumenta contra el uso de las clásicas pruebas de hipótesis estadísticas de Fischer sobre los campos en los que los economistas son generalmente ignorantes de la correcta especificación, en la cual la sensibilidad de los resultados para el convencimiento del jefe de los investigadores es analizada a través del estudio del Límite extremo, de este modo toma en cuenta lo subjetivo y los elementos de juicio que entran en la construcción del modelo. Las mayores características de estas metodologías alternativas son resumidas en la tabla 5.

Aplicar la transformación de Cochrane-Orcutt (C-O).

Prueba de D-W para AR(1):

No significativo Þ OK.

Significativo Þ ¿ Qué hacer ahora?: ¿ Cambiar la forma de la función?, ¿ Agregar variables?; ¿ Eliminar observaciones?.

Ambos, los Bayesianos y la escuela de los MCO son críticos de este proceso de exploración de datos, pero las soluciones propuestas son diferentes. Los que la aproximación por MCO propone es un método de lo general a lo simple, lo que se ilustra en la figura 4.

La aproximación por MCO empieza por especificar un Modelo General Dinámico que incorpora la teoría económica en la elección de las variables del modelo, pero al principio el objetivo es asegurar que el modelo tenga propiedades estadísticas satisfactorias. Un

Page 11: sistemas2015umss.files.wordpress.com · Web viewEste fue el problema computacional que llevo a la comisión Cowles a desarrollar la alternativa más fácilmente computable del Modelo

número grande de pruebas de diagnóstico son utilizadas para garantizar que los supuestos básicos, necesarios para justificar el empleo de los MCO, son válidos cuando el modelo es usado para los datos a ser analizados.

Si las propiedades estadísticas del modelo son revisadas y resueltas satisfactorias, el siguiente paso es examinar los parámetros estimados para ver si es posible simplificarlos, por ejemplo, suprimiendo variables que no son estadísticamente significativas, imponiendo restricciones que parezcan consistentes con los datos, o que están implícitas en la teoría económica, etc. Sin embargo, después que estas restricciones han sido impuestas, el modelo es probado otra vez para asegurar que las propiedades estadísticas siguen siendo satisfactorias.

Este proceso de imponer restricciones sobre el modelo general debe continuar a través de varios pasos más hasta alcanzar un punto en el cual la última restricción impuesta lo lleve a una violación de las propiedades estadísticas del modelo.

Cuando este punto es alcanzado los investigadores vuelven a la versión previa del modelo, ya que además la simplificación hacia esta etapa no es consistente con los datos. Esto esta ilustrado en la figura 4.

Figura 4.

Modelística de lo General a lo Simple.

M1 Modelo general (dinámico) SPGM ¿ OK? Þ OK.

M2 Restricciones impuestas sobre M1 SPGM ¿ OK? Þ OK

M3 Restricciones sobre M2 SPGM ¿ OK? Þ OK

M4 Restricciones sobre M3 SPGM ¿ OK? Þ NO!!!

SPGM = Supuestos sobre la prueba de Gauss-Markov.

Propiedades dinámicas y de largo plazo de los modelos económicos.- La aproximación por MCO esta muy interesada en que los modelos económicos no deberían ignorar las propiedades de largo plazo de sus relaciones. Cuando al analizar los datos quincenal o mensualmente, los modelos estadísticos que son formulados en términos de valores corrientes de las variables, tal como:

Yt = b 0 + b 1Xt + m t (1)

Bien deben estar mal especificados, ya que suponen ajuste casi instantáneo. Inclusive más dudosas son las ecuaciones que están expresadas en términos de primeras diferencias de las variables, tales como:

D Yt = b 0 + b 1D Xt + m t (2)

Page 12: sistemas2015umss.files.wordpress.com · Web viewEste fue el problema computacional que llevo a la comisión Cowles a desarrollar la alternativa más fácilmente computable del Modelo

Ya que es difícil interpretar la ecuación (2) en el largo plazo. Considerando un equilibrio estático de largo plazo en el cual Yt y Xt tienden a los valores de equilibrio Y* y X*, con m t tomando su valor esperado E(m t)=0 y no habiendo más cambios, se tiene que D Yt = D Xt =0. En este caso la solución de largo plazo para (2) es:

0 = b 0 + 0 + 0 (2’)

Ello implica que b 0 =0. Alternativamente si suponemos que sólo Xt tiende a X* y que Yt sigue creciendo, la solución de largo plazo para la ecuación (2) es:

D Yt = b 0 +0 + 0 , (2")

es decir, en el equilibrio Xt = X* e Yt por ello crece a una cantidad constante (b 0) por período. Lo extraño de la ecuación (2) es alguna indicación de los niveles de equilibrio de las variables.

La aproximación por MCO para modelar las propiedades de largo plazo de una relación debería estar especificada en una ecuación dinámica, por ejemplo:

Yt = b 0 + b 1Xt + b 2Xt-1 +b 3Yt-1 + m t (3)

Donde 0£ b 3<1. Los términos rezagados en (3) nos permiten trazar ambos ajustes económicos de corto plazo y de largo plazo. De esta manera, si partimos de una situación de equilibrio y X cambia por un incremento D X en el período t y luego permanece constante, el efecto del impacto por un cambio en el primer período esta dado por b 0. En el segundo período hay dos efectos, primero el efecto de cambio en X en el período previo, dado por b 2,y segundo, el efecto producido por el cambio en Y en el período anterior, dado por b 3. En los períodos que siguen, continua siendo afectada por los cambios en Y de cada período, pero ya que 0£ b 3<1, este proceso multiplicador convergerá a una suma infinita y la ecuación (3) será resuelta para darle una solución de largo plazo. Si Y y X toman valores de equilibrio de Y* y X*, tenemos que Xt = Xt-1 = X* e Yt = Yt-1 = Y*, la solución de equilibrio de la ecuación (3) será:

Y* = b 0 + b 1X* + b 2X* + b 3Y* ó

Y* = b 0* + b *X , donde

b 0* = b 0/(1 - b 3) y b * = (b 1 - b 2)/(1-b 3). (4)

Corrección de errores en los modelos.- Otra característica del trabajo siguiendo la aproximación por MCO ha sido la reparametrización de las ecuaciones dinámicas de modo que se ponga de manifiesto la importancia de las diferentes clases de ajustes realizados. Los modelos reescritos en esta forma han llegado a ser conocidos como Modelos de Corrección de errores , o MCE. La versión del MCE de la ecuación (3) se escribe como:

Page 13: sistemas2015umss.files.wordpress.com · Web viewEste fue el problema computacional que llevo a la comisión Cowles a desarrollar la alternativa más fácilmente computable del Modelo

D Yt = a +b 0D Xt +(g -1)(Yt-1 - Xt-1)+(b 0 +b 1+ g -1)Xt-1 +m t (5)

Escrita en esta forma la ecuación muestra que el cambio en Y de cada período (D Yt) esta relacionada con el cambio en X (D Xt), pero también para cambios en los niveles rezagados de las variables. en particular el término (Yt-1 - Xt-1) recoge el efecto del desequilibrio en los niveles de las variables en el período anterior. La importancia de éstos términos rezagados en los niveles de las variables mostradas es porque los modelos formulados en términos de primeras diferencias sólo no pueden ofrecer la información sobre las relaciones de largo plazo entre las variables.

Cointegración.- El concepto de Cointegración fue propuesto por Clive Granger y aún más desarrollado por Granger y Robert Engle.El interés en el concepto ha aumentado entre los economistas, pues ha habido más preocupación en las propiedades de largo plazo de los modelos económicos. Muchas variables macroeconómicas, tales como el consumo agregado y el ingreso agregado, contienen una tendencia muy marcada y la pregunta que surge es: dado que la brecha entre el consumo agregado y el ingreso agregado esta creciendo fuera de tiempo, ¿ cómo prevenirlos de la derivación casi siempre más alejada en el largo plazo?¿ en qué sentido podemos hablar de un equilibrio en el largo plazo entre estas dos variables?.

Para explicar el concepto de Cointegración, se debe definir primero la Integración. Considerando una variable de series de tiempo, Xt. Si Xt tiene que ser diferenciada d periodos para provocar su estacionariedad ,Xt se dice que es una integral de orden d. La notación que ha llegado hacer común es para denotar una serie estabilizada que sea integral de orden 0 , ó I(0).Entonces, si Xt~ I(d), D dXt~ I(0).Un resultado útil adicional es que I(d)± I(0)=I(d).

Cointegración.- Deje que Xt sea un vector de variables, todas las cuales son I(d). En general, combinaciones lineales de las variables que son I(d), tales como b ‘Xt, también son I(d). Sin embargo, ello será posible para hallar un vector a que la combinación lineal a ‘Xt es una integral de menor orden que d. Formalmente, las variables en el vector Xt se dicen que son cointegrales de orden d,b denotadas como Xt~ CI(d,b) si:

(i) Todas las variables de Xt son I(d).

(ii) Existe un vector a ¹ 0, tal que Zt = a ‘Xt~ I(d-b), b>0.

El vector a es llamado el vector de Cointegración.

La significancia económica de la Cointegración.- La razón por la que la Cointegración es importante puede ser ilustrada por la siguiente cita de Granger (1986). Suponga que Yt y Xt son ambas Y(1) pero están cointegradas, así que:

Zt= Yt - a Xt ~ I(0). (6)

Page 14: sistemas2015umss.files.wordpress.com · Web viewEste fue el problema computacional que llevo a la comisión Cowles a desarrollar la alternativa más fácilmente computable del Modelo

entonces la relación Yt = a Xt (7)

Debe ser considerada como una relación de largo plazo o de equilibrio, tal vez propuesta por alguna teoría económica, y Zt por ello mide el punto en el cual el sistema esta fuera de equilibrio, puede por tal motivo ser llamado el "error del equilibrio". El término ‘equilibrio’ es usado de varias maneras por los economistas. Aquí el término no es utilizado para significar algo sobre el comportamiento de los agentes económicos pero además describe la tendencia de un sistema económico al moverse con dirección a una región en particular del campo de resultados. Si Xt y Yt son I(1) pero cambias juntas en el largo plazo es necesario que Zt sea I(0), ya que de otra forma las dos series se alejarían sin límites.(Granger 1986 pp. 215-216).

La Cointegración y el equilibrio de largo plazo tienen importantes implicaciones para el análisis de regresión. Supongan que la ecuación

Yt = a +b Xt +m t (8)

Representan una regresión de largo plazo y Yt y Xt son ambas I(1). Claramente, para que existan una relación de largo plazo entre estas variables estas deben estar Cointegradas y dado (8),m t será el vector de Cointegración. Para que Xt y Yt estén Cointegradas,

m t = Yt - a - b Xt ~ I(0) (9)

En otras palabras el proceso de error de m t debe ser fijo.

Dada la importancia de la estimación, ha habido un gran número de trabajos teóricos en el desarrollo de pruebas para la estimación o también llamadas de Raíz unitaria. El caso más simple sería si el proceso de error fuera un paseo aleatorio,

m t =r m t-1 + n t (10)

y r =1. Una prueba para la estimación podría, entonces, estar basada sobre la hipótesis nula H0:r =1, con la hipótesis alternativa H1:r <1 .

Encontrar una base teórica para tal prueba ha ofrecido dificultades, ya que bajo la hipótesis nula m t no es fija y es posible que las pruebas estadísticas no sigan las usuales distribuciones de t, F o c 2.

Prueba de Dickey - Fuller (DF).- Dickey y Fuller encontraron que el problema podría ser simplificado sacando a m t de ambos lados de (10) para obtener: D m t = (r -1)m t-1 + n t

D m t = l m t-1 +n t (11)

cuando la hipótesis nula es ahora H0: l =0 y la hipótesis alternativa es H1: l <0. Mientras esta transformación ayudo con los problemas de la distribución, la prueba estadística no sigue con la distribución tradicional y los valores críticos para la evaluación de la prueba

Page 15: sistemas2015umss.files.wordpress.com · Web viewEste fue el problema computacional que llevo a la comisión Cowles a desarrollar la alternativa más fácilmente computable del Modelo

estadística han tenido que ser determinados a través de los extensos experimentos de Monte Carlo.

Prueba ampliada de Dickey-Fuller (ADF).- El proceso autorregresivo de (10) es muy simple y para tener en cuenta dinámicas más complejas, Dickey y Fuller propusieron pruebas para la estacionariedad basadas en la ecuación ampliada:

D m t = a 0 + a 1t + l m t-1 + S b jD m t-j + n t (12)

donde j=1,...m, a 0 toma en cuenta la dirección y t es la tendencia lineal en el tiempo.

La mayoría de la literatura teórica y estudios empíricos han estado interesados en el caso en el cual las variables a investigarse son I(1) y sólo dos variables son consideradas en un período, pero han habido algunos interesantes desarrollos recientes en la Cointegración Multivariable y en las pruebas desarrolladas para las Raíces Unitarias y para la Cointegración (ver Engle y Granger 1991).

Prueba de Raíz Unitaria de Phillips-Perron (PP).- Una prueba alternativa de raíz unitaria fue desarrollada por Phillips y Perron . Al igual que la prueba ADF, la prueba PP es una prueba de hipótesis sobre p=1 en la ecuación: D Yt = m + pYt-1 + e t ; pero a diferencia de la prueba ADF, no existen términos de diferencias retardados. Más bien, la ecuación es estimada por MCO y luego el estadístico "t" del coeficiente p es corregido. La hipótesis nula H0 del test de Phillips-Perron es la trayectoria de raíz unitaria con tendencia y la alternativa la estacionariedad con tendencia, si el valor t-Student asociado al coeficiente de Yt-1 es mayor en valor absoluto al valor crítico de MacKinnon, se rechaza la hipótesis de existencia de raíz unitaria.

Test de Zivot y Andrews.- Zivot y Andrews (1992) elaboraron un test en el que se diferencia una trayectoria de raíz unitaria de una estacionaria cuando había cambio estructural, debido a que los tradicionales test ADF y PP estaban sesgados hacia el no rechazo de la hipótesis nula de raíz unitaria, puesto que a menudo se rechazaba incorrectamente la hipótesis alternativa de estacionariedad. La hipótesis nula es la presencia de raíz unitaria con tendencia y la alternativa, la de estacionariedad con tendencia y cambio estructural (en el nivel y/o pendiente). Zivot y Andrews presentan unos gráficos en la que se plotean por un lado, la trayecoria de la distribución t o t’s de Zivot, y por el otro los valores de la distribución t crítico. Si el valor t-Zivot es menor que los valores críticos (VCRIT), existe suficiente evidencia estadística para rechazar la hipótesis nula de raíz unitaria, por lo que la(s) serie(s) evaluadas muestra una trayectoria de raíz unitaria. Contrariamente, si la distribución de valores t Zivot son mayores que el t crítico, no existe evidencia para rechazar la hipótesis nula de raíz unitaria (no estacionariedad).

Page 16: sistemas2015umss.files.wordpress.com · Web viewEste fue el problema computacional que llevo a la comisión Cowles a desarrollar la alternativa más fácilmente computable del Modelo

4. Algunos ejemplos empíricos.

Los desarrollos metodológicos descritos antes serán ilustrados por medio de un ejemplo práctico. Un aplicado economista llamado GUS 1 quien aprendió Econometría en los años 40 esta evaluando datos desde 1941 hasta 1992 (datos anuales) sobre dos variables y y X, y pidió investigar la relación entre ellas. El corrió la regresión:

Yt= a + b Xt +m t (13)

con la esperanza de que 0<b , pero sin suponer cual era su magnitud. sus resultados (con los errores estándar entre paréntesis) son:

(MCO) Yt = 174.8 + 5.180Xt, R2=0.857 (14)

(9.406) (0.299)

Debido a que el valor R2 es bastante alto, el signo del coeficiente de Xt es positivo, como se esperaba, y la razón t de 17.32 es altamente significativo, él estuvo muy contento con los resultados de su estimación.

El mostró los resultados a su hermano menor, GUS 2, quien estudio Econometría a inicios del año 60, y quien le dijo que se había contentado muy fácilmente con los resultados, ya que el valor del estadístico Durbin-Watson para su ecuación es 0.190, lo que implica un severo problema de autocorrelación positiva de primer orden.

El señor GUS 2 propuso para abordar este problema la aplicación de una transformación Cochrane-Orcutt (C-O) para la ecuación y corrió una nueva regresión:

(AR1) Yt = 194.2 + 1.841Xt R2 = 0.986 (15)

(132.9) (0.505) D-W=0.718

El explico que mientras la transformación C-O ha mejorado la situación, ya que el valor del estadístico D-W ha mejorado (0.718), éste aún no es significativo estadísticamente y el modelo debería ser cambiado.

Page 17: sistemas2015umss.files.wordpress.com · Web viewEste fue el problema computacional que llevo a la comisión Cowles a desarrollar la alternativa más fácilmente computable del Modelo

El hizo el diagrama de puntos de los datos Y y X (SCAT) contra el tiempo(ver figura 1) y decide que la forma funcional del modelo necesita ser cambiada.

El decidió primero probar el efecto de tomar el logaritmo natural de Y y correr la regresión:

(MCO) Ln Yt = 4.905 + 0.009Xt R2=0.936 (16)

(0.725) (0.005) D-W=1.125

Esta regresión muestra alguna mejora, particularmente en la bondad de ajuste y en la siguiente transformación el estadístico D-W es considerablemente alto, pero aún indica autocorrelación positiva significativa.

Decide intentar una forma funcional no lineal adicional y estima:

(MCO) Yt = 112.0 + 11.70Xt +0.117Xt2 (17)

(9.799) (0.798) (0.014) R2 = 0.940

D-W=0.661

Esta ecuación se ajusta bien y todos los coeficientes estimados son significativos, pero aún hay problema de autocorrelación positiva. Una vez más intenta la transformación C-O y obtiene:

(AR1) Yt = 196.0 + 2.942Xt -0.021Xt2 (18)

(138.6) (1.090) (0.192) R2 = 0.986

D-W=0.858

Lo cual no parece muy satisfactorio, ya que a pesar de que el ajuste es muy bueno, dos de los parámetros estimados son escasamente significativos estadísticamente y no ha sido capaz de eliminar la autocorrelación positiva.

Page 18: sistemas2015umss.files.wordpress.com · Web viewEste fue el problema computacional que llevo a la comisión Cowles a desarrollar la alternativa más fácilmente computable del Modelo

Dadas estas dificultades, los hermanos GUS deciden pedir la ayuda a su joven sobrino GUSI, quien acaba de retornar de estudiar Econometría en Estados Unidos. El les dice que no esta de acuerdo con sus aproximaciones y su fracaso al hacer mayor uso de las pruebas de diagnóstico. El comienza con un modelo general dinámico y lo estima para el período 1943-1982, eliminando las dos primeras observaciones para permitir la creación de rezagos y reteniendo las diez últimas observaciones para las pruebas de consistencia. Los resultados para esta regresión son:

(MCO)

Yt = 34.208 + 1.314Xt. -1.002Xt-1 + 0.112Xt-2 + 1.101Yt-1 -0.232Yt-2 (19)

(8.675) (0.173) (0.267) (0.188) (0.170) (0.139)

R2=0.999 D-W=2.100

Diagnósticos:

AR 1: F(1,33) = 2.438 FF: F(1,33) = 0.0001

JB: CHI2(1) = 0.348 HET: F(1,38) = 0.532

PF: F(10,34) = 0.829 CHOW: F(6,38) = 0.361

El señor GUSI explica que su elección de un modelo general parece satisfactoria, ya que ninguna de las pruebas de diagnóstico son significativas. Se da cuenta que dos de los coeficientes estimados no son significativos y decide ver si deben ser eliminados sin causar problemas estadísticos, elimina Yt-2 y estima:

(MCO)

Yt = 48.071 + 1.237Xt.- 0.630Xt-1 - 0.019Xt-2 + 0.815Yt-1 (20)

(2.677) (0.171) (0.152) (0.175) (0.015)

R2=0.999 D-W=2.100

Diagnósticos:

AR 1: F(1,34) = 2.145 FF: F(1,34) = 1.331

JB: CHI2(1) = 0.769 HET: F(1,38) = 0.048

PF: F(10,35) = 0.752 CHOW: F(6,40) = 0.354

Page 19: sistemas2015umss.files.wordpress.com · Web viewEste fue el problema computacional que llevo a la comisión Cowles a desarrollar la alternativa más fácilmente computable del Modelo

Dado el diagnóstico de pruebas, se muestra que la eliminación de esta variable no ha afectado las propiedades estadísticas de la ecuación, a la inversa, él examina el efecto de eliminar la variable insignificante, Xt-2. Los resultados son:

(MCO)

Yt = 48.161 + 1.225Xt.- 0.635Xt-1 + 0.816Yt-1 (21)

(2.515) (0.132) (0.143) (0.014)

R2=0.999 D-W=2.100

Diagnósticos:

AR 1: F(1,35) = 2.151 FF: F(1,34) = 1.056

JB: CHI2(1) = 0.755 HET: F(1,38) = 0.045

PF: F(10,35) = 0.774 CHOW: F(6,40) = 0.465

Dado que las propiedades estadísticas de esta ecuación son satisfactorias y todas las variables restantes son significativas, el Sr. GUSI decide que esta es la especificación que él escogería. Sin embargo, antes de estimar esta ecuación utilizando toda la data, decide mostrarle a sus tíos lo que les paso a las pruebas de diagnóstico cuando estima la ecuación original elegida por GUS 1. Sus resultados son:

(MCO)

Yt = 184.9 + 5.244Xt. (22)

(8.519) (0.324)

R2=0.874 D-W=0.352

Diagnósticos:

AR 1: F(1,37) = 30.407 FF: F(1,37) = 60.807

JB: CHI2(1) = 17.145 HET: F(1,38) = 4.268

PF: F(10,38) = 0.806 CHOW: F(2,46) = 4.781

El efecto ha sido dramático, ya que con excepción de la prueba de error de predicción, todas las otras pruebas de hipótesis son significativas e indican que la especificación de la ecuación debe ser rechazada. La mala especificación de la dinámica no sólo causa la

Page 20: sistemas2015umss.files.wordpress.com · Web viewEste fue el problema computacional que llevo a la comisión Cowles a desarrollar la alternativa más fácilmente computable del Modelo

autocorrelación que preocupo a GUS 2, también ocasiona problemas en la forma funcional, la distribución normal, la heterocedasticidad y en la consistencia de los parámetros.

Finalmente, utilizando los datos desde 1942 hasta 1992, el Sr. GUSI volvió a estimar su especificación elegida y obtuvo:

Yt = 49.590 + 1.245Xt.- 0.582Xt-1 + 0.806Yt-1 (23)

(1.818) (0.119) (0.124) (0.010)

R2=0.999 D-W=1.536

Diagnósticos:

AR 1: F(1,46) = 2.622 FF: F(1,46) = 1.318

JB: CHI2(1) = 0.475 HET: F(1,49) = 0.061

Obviamente los resultados no serán siempre tan decisivos como éstos, pero este ejemplo ilustra los peligros de modelar de lo específico a lo general y las ventajas de la aproximación inversa.

5. Conclusiones.

Uno debe resumir la actual situación de la Econometría la que va siendo más pragmática de lo que fue en la etapa del descubrimiento. En ese período los pioneros creyeron que sería posible construir una imagen econométrica de una economía para buscar el bienestar y siempre mejorando la teoría económica, la que produciría estimaciones estables y consistentes de los verdaderos parámetros que permitirían que la política económica este basada sobre el análisis cuantitativo.

Los años desde aquellos primeros días, han mostrado que este optimismo inicial estuvo fuera de lugar y que modelizar los eventos económicos es más difícil de lo que ellos creyeron que sería. La concentración inicial en la parte económica de un modelo y en el tratamiento de los errores como un fenómeno estadístico han dado paso a los métodos que consideran a los errores como el objeto central para la comprensión del ajuste económico y la exploración de la especificación del modelo.

Comparando la calidad del trabajo empírico durante los primeros años del período en discusión en este artículo, considerables progresos se han dado en años recientes. Hay pocos, aunque algunos serios problemas que hasta las cuestiones computacionales están ahora comprometidas, aun cuando uno espere que la ingenuidad de los econometristas para generar nuevos problemas extienda la capacidad y el poder de las computadoras en el futuro. En comparación con las etapas iniciales, éste no es un mal momento para ser un econometrista.

Page 21: sistemas2015umss.files.wordpress.com · Web viewEste fue el problema computacional que llevo a la comisión Cowles a desarrollar la alternativa más fácilmente computable del Modelo

Libros de Consulta

"Los límites de la Econometría"- Darnell,A.C y Evans,J.L.(Londres: Edward Elgar,1990).

"La exploración de los datos como una industria"- Revista de Economía y Estadística, 65 (Marzo 1985),124-127.-Denton,F.T.

"Relaciones económicas de largo plazo: estudios de Cointegración"- Engle,R.F y Granger,C.W.J.(Oxford: Imprenta de la Universidad de Oxford).

"Una historia de la Econometría"- Epstein,R.(Amstendarm: Norte de Holanda, 1987).

"Desarrollo en el estudio de variables económicas Cointegradas"- Granger,C.W.(Boletín de economía y estadística de Oxford, 48-Agosto 1986).(Reimpreso en Engle-Granger ediciones 1991).

"Series de modelística económica"-Granger,C.W.J (edición).(Oxford: Imprenta de la Universidad de Oxford 1990).

"Exploración de datos"- Lovell,M.C.(Revista de economía y estadística, 65 Marzo 1985 pp.124-127).

"Valores críticos de las pruebas de Cointegración"-Engle y Granger Ediciones 1991./Mackinnon,J.

"La historia de las nociones de econometría"-Morgan,M.S.(Cambridge:Prensa de la Universidad de Cambridge,1990).

"Tres métodos de Econometría: una apreciación crítica"(Revista de estudios económicos # 1/1987 pp.3-24).

"Manual del usuario del MICROFIT 3.0"-Pesaran,M.H y Pesaran,B.(Oxford: Imprenta de la Universidad de Oxford,1991).

"Manual del usuario del EVIEWS 3.0"-R.Hall , David.L.Lilien, et al.(Quantitative Micro Software, California 1997).

Reconocimientos.

Este artículo fue escrito mientras estuve visitando la Universidad Nacional Mayor de San Marcos entre julio y setiembre del 2000 y estoy muy agradecido al Departamento de Economía de la UNMSM por su apoyo acedémico para mi visita, a la Universidad por su generosa hospitalidad y a los miembros de la Facultad de Economía, especialmente a Mg. Víctor Pérez Súarez por las estimulantes discusiones. Los puntos de vista expresados en este artículo son los del autor y no necesariamente reflejan los de la Facultad de Economía.

Page 22: sistemas2015umss.files.wordpress.com · Web viewEste fue el problema computacional que llevo a la comisión Cowles a desarrollar la alternativa más fácilmente computable del Modelo

Autor:

Gustavo Herminio Trujillo Calagua