Mco Para Cortes Transversales y Series de Tiempo

26
Notas de Econometría I MCO para Cortes Transversales y Series de Tiempo MCO PARA CORTES TRANSVERSALES Y SERIES DE TIEMPO 5. MCO ASINTOTICOS En el análisis clásico de Regresión Lineal Múltiple se asumieron unos supuestos que permitían obtener los mejores estimadores lineales insesgados. Estos supuestos (SRLM1 a SRLM5) que se resumen en el Teorema de Gauss – Harkov, son supocisiones para muestras finitas. Es decir, son válidos para cualquier tamaño de n. Sin embargo, además de las propiedades de muestras finitas, es importante conocer las propiedades asintóticas o de muestra grande de los estimadores y de los estadísticos de prueba. Las propiedades asintóticas no están definidas para un tamaño de muestra dado, sino para cuando el tamaño de la muestra crece indefinidamente. En las próximas secciones se hace un análisis intuitivo de estas propiedades. 5.1 CONSISTENCIA Una de las propiedades más importantes de los estimadores, es la de insesgamiento; sin embargo a veces no es posible conseguirla. Por esto, en algunas ocasiones se pueden obtener regresiones lineales cuyos parámetros estimados no cumplen con esta propiedad. En otras palabras, no todos los estimadores útiles son insesgados; pero los expertos si coinciden en los parámetros deben satisfacer como mínimo la consistencia. Jhon Alexis Díaz Contreras 39

description

mco

Transcript of Mco Para Cortes Transversales y Series de Tiempo

MCO PARA CORTES TRANSVERSALES Y SERIES DE TIEMPO

Notas de Econometra I MCO para Cortes Transversales y Series de Tiempo

MCO PARA CORTES TRANSVERSALES Y SERIES DE TIEMPO 5. MCO ASINTOTICOS En el anlisis clsico de Regresin Lineal Mltiple se asumieron unos supuestos que permitan obtener los mejores estimadores lineales insesgados. Estos supuestos (SRLM1 a SRLM5) que se resumen en el Teorema de Gauss Harkov, son supocisiones para muestras finitas. Es decir, son vlidos para cualquier tamao de n. Sin embargo, adems de las propiedades de muestras finitas, es importante conocer las propiedades asintticas o de muestra grande de los estimadores y de los estadsticos de prueba. Las propiedades asintticas no estn definidas para un tamao de muestra dado, sino para cuando el tamao de la muestra crece indefinidamente. En las prximas secciones se hace un anlisis intuitivo de estas propiedades.

5.1 CONSISTENCIA

Una de las propiedades ms importantes de los estimadores, es la de insesgamiento; sin embargo a veces no es posible conseguirla. Por esto, en algunas ocasiones se pueden obtener regresiones lineales cuyos parmetros estimados no cumplen con esta propiedad. En otras palabras, no todos los estimadores tiles son insesgados; pero los expertos si coinciden en los parmetros deben satisfacer como mnimo la consistencia.

Supongamos que es el estimador MCO de para alguna i. Para cada n, tiene una distribucin de probabilidad; como es insesgado bajo las supocisiones SRLM1 a SRLM4, esta distribucin tiene un valor promedios de . Si este estimador es consistente, entonces la distribucin de se concentra cada vez ms alrededor de a medida que el tamao de la muestra aumenta. Como n tiende a infinito, la distribucin de cae en el punto . Teorema

De acuerdo con las supocisiones SRLM1 a SRLM4, el estimador de MCO es consistente de para i = 1, 2, , k si cuando , para cada

Cuando es consistente, tambin se dice que es el lmite de la probabilidad de . Lo anterior se escribe como:

Porque la Cov(x1,u) = 0.

Inconsistencia

Si no se satisface que Cov(x1,u) = 0; es decir que el , entonces se tienen estimadores inconsistentes. En otras palabras, si el error se correlaciona con cualquiera de las variables independientes, los MCO son sesgados e inconsistentes. La inconsistencia puede expresarse como:

Como la Var(x1) > 0, la inconsistencia es positiva si x1 y u se correlacionan positivamente y es negativa en caso contrario. 5.2 NORMALIDAD ASINTTICA

Para poder realizar inferencia estadstica se requiere del supuesto de normalidad. Hay que recordar que si los errores son elecciones aleatorias de alguna distribucin que no es la normal; los no estarn distribuidos en forma normal, lo que quiere decir que los estadsticos t y F no se distribuyen como una t y F respectivamente. Generalmente es posible derivar el supuesto de normalidad del comportamiento de la variable y ya que est es observable y u no. Por lo tanto, aunque las yi no tengan una distribucin normal, llegamos a la conclusin de que los estimadores de MCO estn distribuidos aproximadamente en forma normal, gracias al teorema del lmite central. Teorema

Sea una sucesin de variables aleatorias, tal que para toda z, se tenga que cuando . Esto significa que la funcin de distribucin acumulada Wn se acerca cada vez ms a la fda de la distribucin normal estndar, conforme se hace ms grande n, el tamao de la muestra.Para nuestros intereses se puede expresar que, de acuerdo con las suposiciones de Gauss Markov SRLM1 a SRLM5 Con este teorema se puede seguir confiando en la inferencia estadstica usual.

5.3 EL ESTADSTICO DEL MULTIPLICADOR DE LAGRANGEEl estadstico del Multiplicador de Lagrange es til para realizar pruebas de exclusin mltiple. Por ejemplo supongamos que se parte del modelo usual y se quiere probar que las ltimas q de estas variables tienen parmetros poblacionales iguales a cero. De esta forma la hiptesis nula es:

El estadstico de ML solo requiere estimar el modelo restringido. As, supongamos que se hace la regresin . Si las variables omitidas tienen coeficientes iguales a cero, al menos en forma aproximada, no debera correlacionarse con ninguna de esas variables excluidas. Si esto es cierto, el de esta regresin auxiliar debera estar cercano a cero. Para esto, se puede construir un estadstico de la forma el cual se distribuye como una con q grados de libertad. En resumen el Estadstico de Lagrange para q Restricciones de Exclusin sigue los siguientes pasos:

Se estima la regresin de y sobre el conjunto de variables independientes y se conservan los . Se estima la regresin de sobre todas las variables independientes y se obtiene el de esta regresin auxiliar.

Se calcula el ML =

Se compara el ML con un valor crtico apropiado, c, de una distribucin ; si ML > c se rechaza la hiptesis nula.6. ANLISIS DE CORTE TRANSVERSAL E INFORMACIN CUALITATIVA

6.1 COMBINACIN DE CORTES TRANSVERSALES EN EL TIEMPOEn esta seccin se analizarn los cortes transversales independientes. Este tipo de datos tiene la caracterstica de que se obtienen a partir de una muestra aleatoria de una gran poblacin en distintos puntos del tiempo. Por ejemplo, se puede obtener cada ao una muestra aleatoria de variables como salarios por hora, educacin, experiencia, etc. de la poblacin de trabajadores de Colombia.

Estadsticamente estos datos presentan la caracterstica de que cuentan con observaciones mustrales independientes. Este ser un punto importante porque se elimina la correlacin en los trminos de error para distintas observaciones. Una razn importante para utilizar la combinacin de cortes transversales es incrementar el tamao de muestra. Al combinar muestras aleatorias extradas de la misma poblacin, pero en distintos puntos del tiempo, obtenemos estimadores ms precisos y estadsticos de prueba con ms potencia. Ejemplo

Para el perodo 1972 a 1984 se pretende explicar el nmero de hijos a partir de variables educacin, edad, raza, zona geogrfica en la que vivi a los 16 aos y el entorno a esa edad; adems de unas variables ficticias anuales. Variable Dependiente: hijosVariables Independientes

Coeficientes

Errores

Educ

-0.128

0.18A74

0.268

0.173

A76

-0.097

0.179

A78

-0.069

0.182

A80

-0.071

0.183

A82

-0.522

0.172

A84

-0.545

0.175

Para el ao base de 1972, se puede ver que a principios de los aos ochentas muestran una disminucin en la fertilidad. Por ejemplo, el coeficiente de A82 si se controla por educacin, edad y otros factores una mujer tiene en promedio .52 menos hijos en 1982 comparado con 1972. Es decir, si se mantienen fijos educacin, edad, y otros factores, la prediccin es que 100 mujeres en 1982 tiene cerca 52 hijos menos que 100 mujeres en 1972.

De estos resultados tambin se puede concluir que una mujer con educacin universitaria tiene menos hijos que una mujer con educacin secundaria. Si se controla por las dems variables, 100 mujeres con educacin universitaria tendrn cerca de 64 hijos menos que 100 mujeres con slo secundaria.6.2 ANLISIS DE POLITICAS CON COMBINACION DE CORTES TRANSVERSALESLas combinaciones de cortes transversales resultan muy tiles a la hora de evaluar el impacto de sucesos econmicos, programas o polticas sobre un grupo. Para esto, se requiere que la muestra este compuesta por dos conjuntos de datos: antes del evento y despus del evento, para poder determinar el efecto. Generalmente, las aplicaciones de esta metodologa tienen que ver con datos que surgen de experimentos naturales. Es decir, cuando algn suceso exgeno cambia el ambiente en ele que desenvuelven los individuos, las familias, las empresas o las ciudades. El conjunto de datos para una aplicacin de este tipo esta conformado por un grupo control, que no se afecta por el cambio de poltica, y uno de tratamiento, que si ve afectado.

Para controlar las diferencias sistemticas entre estos dos grupos, necesitamos datos de dos aos, un ao antes y u aos despus de la aplicacin de la poltica. De esta forma, generalmente la muestra se divide en cuatro grupos: el grupo de control antes y despus del cambio, y el grupo de tratamiento antes y despus del cambio.Supongamos que A es el grupo de control y B es el grupo de tratamiento, y construyamos una variable ficticia dB igual a uno para los de B. As mismo, d2 es una variable ficticia para el segundo perodo. Por lo tanto, un modelo general para estimar el efecto de una poltica puede ser el siguiente:

El coeficiente ser el estimador de la diferencia de las diferencias:

7. HETEROSCEDASTICIDAD

7.1 QU ES LA HETEROSCEDASTICIDAD?: CAUSAS Y CONSECUENCIASEl supuesto de homoscedasticidad, plantea que la varianza del error inobservable u, condicionada a las variables explicativas, es constante; es decir, La violacin de este supuesto, la heteroscedasticidad, cuando la varianza de los errores cambia para los diferentes segmentos de la poblacin determinados por los distintos valores de las variables explicativas. Por ejemplo, en un modelo sobre ahorro, la heteroscedasticidad esta presente si a medida que aumenta el ingreso tambin aumenta la varianza de los factores inobservables que influyen en los ahorros.

Hay que recordar que la heteroscedasticidad no causa ni sesgo ni inconsistencia; sin embargo hay que tener en cuenta que las varianzas de los estimadores se calculan sin el supuesto de homoscedasticidad, y en presencia de heteroscedasticidad los errores estndares ya no son validos para hacer pruebas de hiptesis e intervalos de confianza. En otras palabras, los estadsticos t, F y ML ya no son validos en presencia de heteroscedasticidad. Adems se sabe que el supuesto de que los estimadores de MCO son MELI, se basa en asumir homoscedasticidad. Por lo tanto, si la no es constante, los MCO ya no son MELI. Es ms ni siquiera podrn satisfacer la condicin de eficiencia asinttica.7.2 ESTIMACIONES ROBUSTAS A LA HETEROSCEDASTICIDAD

A pesar de todos los problemas de inferencia que se podran presentar si se siguen utilizando los MCO bajo heteroscedasticidad, estos an son de gran utilidad si se ajustan los estadsticos t, F y ML a fin de que sean validos en presencia de la heteroscedasticidad de forma desconocida. Este tipo de ajustes o mtodos, se conocen como procedimientos robustos a la heteroscedasticidad ya que son vlidos tengan o no lo errores varianza constante. Dado que el error estndar de se basa en el estimador de , se necesita una buena estimacin de en presencia de heteroscedasticidad. White en 1980 mostr la forma en que se construye este estimador. Supongamos que denota los residuos de los MCO de la regresin inicial de y sobre x. Luego un estimador de robusto a la heteroscedasticidad es

Una formula similar a la anterior basada en SRLM1 a SRLM4 es , en donde denota el i simo residuo de la regresin de xj sobre todas las dems variables independientes. La raz cuadrada de la expresin anterior se denomina error estndar robusto a la heteroscedasticidad. En ocasiones, como una correccin con los grados de libertad los errores estndares robustos con la heteroscedasticidad se multiplican por antes de extraer la raz cuadrada.Una vez se calculan los errores estndares robustos a la heteroscedasticidad es posible calcular un estadsticos robustos a la heteroscedasticidad. Por ejemplo es estadstico t robusto a la heteroscedasticidad es:

La nica diferencia entre un estadstico usual de MCO y un estadstico robusto a la heteroscedasticidad, es la forma en que se calcula el error estndar. Una buena pregunta sera: si los errores estndares robustos a la heteroscedasticidad son vlidos ms a menudo que los errores estndares usuales de MCO, por qu ocuparse de estos ltimos? La respuesta es: si el supuesto de homoscedasticidad se cumple satisfactoriamente y los errores se distribuyen normalmente, entonces los estadsticos t tienen distribuciones t exactas, sin importar el tamao de la muestra. Los estadsticos robustos a la heteroscedasticidad solo se justifican cuando el tamao de la muestra es grande.

Tambin es posible obtener estadsticos F y ML robustos a la heteroscedasticidad. Por ejemplo, el estadstico F robusto a la heteroscedasticidad se denomina estadstico de Wald robusto a la heteroscedasticidad. En cuanto al estadstico ML, supongamos que se considera el modelo

y se quiere probar la hiptesis de . Para calcular el estadstico ML robusto a la heteroscedasticidad se procede de la siguiente forma:

Se obtienen los residuos del modelo restringido.

Haga una regresin de cada una de las variables independientes excluidas bajo la hiptesis nula, sobre todas las variables independientes incluidas: si hay q variables excluidas, esto lleva a q conjuntos de residuos

Calcule los productos entre cada (para todas las observaciones) Realice la regresin de 1 sobre sin intercepto. El estadstico ML robusto a la heteroscedasticidad es n SRC1, en donde SRC1 es slo la suma de los cuadrados de los residuos usual de esta regresin final. Bajo H0, ML se distribuye aproximadamente como y se concluye como se hace usualmente. 7.3 DETECCION DE LA HETEROSCEDASTICIDAD

A pesar de que es posible trabajar con estimaciones robustas, en muchas ocasiones se prefiere trabajar con las estimaciones de MCO usuales. Para esto, es necesario conocer si existe o no la heteroscedasticidad. Si el supuesto de homoscedasticidad se cumple, es posible realizar las interpretaciones comunes y la inferencia usual. Sin embargo, si existe heteroscedasticidad los coeficientes de MCO dejan de ser MELI y es necesario estimar mejores coeficientes que los de MCO.

Para detectar heteroscedasticidad se comienza con el modelo lineal usual, en el que se mantienen los SRLM1 a SRLM4. Especficamente suponemos que de modo que los estimadores de MCO son insesgados y consistentes. Formulemos el SRLM5 como una hiptesis nula y considermosla verdadera:

Es decir, se esta suponiendo que hay homoscedasticidad pero necesitamos saber si es cierto o no. Si no se rechaza H0 se puede concluir que la heteroscedasticidad no es un problema del modelo. Sin embargo, cabe recordar que nunca se acepta H0 sencillamente no existe evidencia para rechazarla.Ahora, dado que estamos suponiendo que u tiene varianza condicional cero, la hiptesis nula puede escribirse como:

Esta hiptesis lo que muestra es que para probar el supuesto de homoscedasticidad es necesario establecer si u2 se relaciona con una o ms de las variables explicativas. Si H0 es falsa, el valor esperado de u2, dadas las variables independientes, es cualquier funcin de xj. Para esto una aproximacin sencilla es:

Bajo esta regresin la hiptesis nula de heteroscedasticidad es . Si v no se relaciona o es independiente de las variables explicativas entonces es posible usar los estadsticos F ML. Estos estadsticos dependen de , entonces el estadstico F se calcula como:

donde k es el nmero de regresores del modelo. El estadstico anterior se distribuye aproximadamente como .El estadstico ML para la prueba de heteroscedasticidad es simplemente el multiplicado por el tamao de la muestra:

Bajo la hiptesis nula de homoscedasticidad ML se distribuye como una . La versin ML de la prueba se denomina Prueba de Breusch Pagan para heteroscedasticidad (Prueba BP)Prueba de White para Heteroscedasticidad

White estableci un supuesto menos fuerte para probar heteroscedasticidad. El supuso que los errores al cuadrado no se correlacionan con las variables independientes , con los cuadrados de las variables independientes y con todos los productos cruzados . Si asumimos un modelo con dos regresores, este supuesto plantea una forma funcional para la prueba de la siguiente forma:

La prueba de White tambin utiliza los estadsticos F y ML bajo la hiptesis nula de homoscedasticidad y se concluye de la forma usual. Sin embargo, esta prueba tiene una debilidad y es la cantidad de grados de libertad que utiliza. No obstante, es posible utilizar la prueba de White replanteando su forma funcional. En este caso especial, se utilizan los valores ajustados de la variable independiente. Es decir, se estima el modelo y para la prueba de heteroscedasticidad se corre el modelo correspondiente a:

Y nuevamente es posible utilizar los estadsticos F ML para la hiptesis nula y concluir de la forma convencional. 7.4 CORRECCIN DE LA HETEROSCEDASTICIDAD

Cuando se detecta heteroscedasticidad es necesario corregirla. Para esto se utilizan dos procedimientos. El primero, asume que se conoce la forma funcional en que estn relacionadas las variables explicativas con la varianza. En el segundo, la forma funcional debe ser estimada. Mnimos Cuadrados Ponderados

Sea que x denote a las variables explicativas y asumamos que: en donde es alguna funcin de las variables explicativas que determina la heteroscedasticidad.

Supongamos que la varianza es proporcional a . Es decir que . Ahora, conociendo la relacin entre la varianza y las variables explicativas el modelo estimado debe transformarse o ponderarse por un factor de tal forma que . Entonces, asumamos por simplicidad un modelo de la forma ; si este modelo es ponderado por el factor se tiene que

Donde, es igual a . Desarrollando se tiene que

Supongamos que la varianza es proporcional a . Es decir que . Ahora, conociendo la relacin entre la varianza y las variables explicativas el modelo estimado debe transformarse o ponderarse por un factor de tal forma que . Si el modelo es ponderado por el factor se tiene que

Donde, es igual a . Desarrollando se tiene que

Supongamos que la varianza es proporcional a . Es decir que . SE DEJA AL ESTUDIANTE REALIZAR LA TRANSFORMACIN NECESARIA PARA TENER UNA VARIANZA HOMOSCEDASTICA. Mnimos Cuadrados Generalizados

En MCP se tiene algn supuesto sobre el comportamiento de la heteroscedasticidad. Sin embargo, no siempre es posible conocer , pero puede ser estimada a partir de los datos y encontrar . Cuando se tiene es posible utilizarla para realizar la transformacin de Mnimos Cuadrados Generalizados y obtener los estimadores factibles de MCG. El procedimiento para obtener los MCG es: Realice la regresin de y sobre todas las variables explicativas y obtenga los residuos

Calcule , primero elevando al cuadrado los residuos de MCO y luego sacando el logaritmo natural.

Lleve a cabo la regresin de sobre todas las variables explicativas y obtenga los valores estimados y llmelos . Exponencie los valores ajustados :

Estime por MCP el modelo original ponderando por

8. MODELOS DE REGRESIN CON SERIES DE TIEMPO Y CORRELACIN SERIAL 8.1 PROPIEDADES DE MUESTRA FINITA DE LOS MCO PARA SERIES DE TIEMPOA continuacin se muestran los supuestos para Modelos de Series de Tiempo MST que permiten obtener estimadores MCO con las propiedades usuales.

Supuestos que permiten Insesgamiento

SMST1. Lineal en los Parmetros

El proceso estocstico sigue un modelo lineal. En donde es una sucesin de errores o perturbaciones.

SMST2. Media Condicional igual a cero

Para cada t, el valor esperado del error ut, dadas las explicativas en todos los perodos es cero. . No solo se debe tener exogeneidad contempornea sino que los errores y las variables explicativas deben ser estrictamente exgenas.

SMST3. Colinealidad Imperfecta

En la muestra, ninguna variable independiente es constante o es una combinacin lineal perfecta de las otras.Teorema: Insesgamiento de los Estimadores de MCO en MST

Bajo las supocisiones SMST1 a SMST3, los estimadores de MCO son insesgados condicionados a X y, por tanto, tambin incondicionales: Supuestos que permiten eficiencia

SMST4. Homoscedasticidad

La varianza de condicionada a X es la misma para toda t:

SMST5. No Correlacin Serial

Condicionados a X los errores en dos periodos distintos no se correlacionan:

Teorema: Varianza Muestrales de los Estimadores de MCO para MST

De acuerdo con las suposiciones SMST1 a SMST5 la varianza de , condicionada a X, e:

En donde STCi es la suma total de cuadrados de las xti y es la R cuadrada de la regresin de xi sobre las otras variables independientes.Teorema: Estimacin Insesgada de la Varianza

Bajo las suposiciones SMST1 a SMST5, el estimador es un estimador insesgado de Teorema de Gauss Markov para MSTDe acuerdo con las suposiciones SMST1 a SMST5, los estimadores de MCO son los mejores estimadores insesgados condicionados a X. Supuestos para la Inferencia en MST

SMST6. Normalidad

Los errores son independientes de X y se distribuyen independiente e idnticamente como Normal (0, 2). Teorema: Distribuciones Normales

Bajo las suposiciones SMST1 a SMST6, los estimadores de MCO se distribuyen en forma normal, condicionada a X. Adems, bajo la hiptesis nula, cada estadstico t tiene una distribucin t, y cada estadstico F tiene una distribucin F. Tambin es valida la construccin usual de los intervalos de confianza. 8.2 PROPIEDADES ASINTOTICAS DE MCO

Al igual que en el caso de los cortes transversales, las muestras pequeas pueden no satisfacer algunos supuestos del modelo, y por lo tanto, provocar conclusiones y anlisis errados. Una manera de remediar este problema es considerando propiedades asintticas en los modelos de series de tiempo.

La suposicin de linealidad es igual en muestras pequeas y en muestras grandes; sin embrago, para estimar bajo comportamientos asintticos es necesario recurrir a los resultados del Teorema del Lmite Central y de la Ley de los Grandes Nmeros. Los SMST2 y SMST3 son iguales en muestras pequeas y en muestras grandes. Hasta aqu, en muestras grandes, si se satisfacen estos tres supuestos se satisface la consistencia. Nuevamente, tanto para muestras finitas como para muestras grandes, los SMST4 y SMST5 son iguales. Adems, de acuerdo a los supuestos bajo comportamientos asintticos los estimadores de MCO tienen una distribucin normal asinttica y los errores estndares y los estadsticos F y ML son vlidos asintticamente.

8.3 MODELOS DE REGRESION CON SERIES DE TIEMPOModelos EstticosSupongamos dos variables y y z, las cuales tienen fecha reciente. Un modelo esttico se puede escribir de la forma:

El modelo es estocstico porque modela una relacin contempornea entre y y z,. Este modelo ayuda a explicar en el momento t el efecto de z en y; es decir, cuando . Por ejemplo, un modelo esttico es la Curva de Phillips:

inflt = 1 + 2desemt + ut Es claro, que se pueden tener diversas variables explicativas en el modelo de regresin. Modelos de Rezagos Distribuidos Finitos

En un modelo de RDF una o ms variables influyen en y con un rezago. Un modelo de RDF se expresa como:

Los coeficientes son coeficientes de impacto. Por ejemplo, se denomina propensin de impacto o multiplicador de impacto. Despus de un periodo y aumenta en y despus de dos periodos aumenta en . Adems, si se suman los todos los coeficientes se obtiene el multiplicador de largo plazo que mide el cambio a largo plazo en y dado por un incremento permanente en z. 8.4 CAUSAS Y CONSECUENCIAS DE LA CORRELACION SERIALCorrelacin Serial Autocorrelacin

La autocorrelacin es la correlacin entre los miembros de series de observaciones ordenadas en el tiempo o en el espacio. En otras palabras, el trmino de error asociado a una observacin cualquiera est influenciado por el trmino de perturbacin relacionado con cualquier otra observacin. La correlacin serial se nota como . Causas de la Correlacin Serial

Cuando se trabaja con series de tiempo econmicas, estas presentan generalmente un comportamiento tendencial persistente. Es decir, generalmente, por ejemplo, el PIB nominal esta en aumento. Este componente de tendencia causa que una serie presente cierta inercia; y es precisamente este comportamiento inercial una de las causas de la autocorrelacin.

Otra de las causas de la autocorrelacin es el sesgo de especificacin, especficamente la omisin de variables. Supongamos que se deba estimar el modelo , pero se estima un modelo como . De esto se puede decir que y esta relacin entre vt y x4t crea una falsa autocorrelacin. Otras causas de la autocorrelacin son una forma funcional incorrecta, el llamado fenmeno de la telaraa e incluir variables rezagadas en el modelo. Consecuencias de la Correlacin Serial

Supongamos que y que los errores se generan de la siguiente manera:

es el coeficiente de autocorrelacin de primer orden y cumple con los supuestos clsicos de un error de perturbacin; . Este esquema se conoce como un proceso autorregresivo de primer orden AR (1). Si se estima un modelo en presencia de autocorrelacin y los errores se forman por un proceso AR (1) y se aplica MCO las consecuencias son:

La varianza estimada subestima la verdadera varianza.

Igualmente se subestima la R2.

Las pruebas de significancia dejan de ser vlidas.

En otras palabras, los coeficientes dejan de ser MELI, pero conservan las propiedades de Insesgamiento y Consistencia.

8.5 DETECCIN DE LA CORRELACIN SERIAL

Prueba t para correlacin serial AR (1) con regresores estrictamente exgenosSupongamos que se tiene un modelo de regresin en su forma usual. Cmo sabemos si sus errores estn autocorrelacionados? La respuesta se hace sencilla si se tienen regresores estrictamente exgenos y se asume que los errores se forman por un proceso AR (1).

La hiptesis nula es que la suposicin de Gauss Markov es verdadera. En el modelo AR (1), la hiptesis de que los errores no se correlacionan en forma serial es . Para probar esta hiptesis se estima un modelo de la forma y se realiza una prueba de hiptesis para el coeficiente . Sin embargo, como no se conocen los valores de , estos pueden ser estimados por a partir de los residuos de MCO; es decir por . En resumen, para realizar una prueba de correlacin para regresores estrictamente exgenos, se siguen los siguientes pasos: Haga la regresin de sobre y estime los residuos de MCO, .

Realice la regresin de

Obtenga el estadstico y realice una prueba de hiptesis usual para la . Se concluye como siempre.

Prueba de Durbin Watson:

Esta prueba es un clsico en las pruebas de correlacin serial. Sus supuestos ms importantes son: El modelo debe incluir un trmino de intercepto.

Los regresores deben ser estrictamente exgenos. Los errores siguen un proceso AR (1).

El estadstico d es igual a:

Asumiendo que

Definiendo a ; entonces y dado que por lo tanto

Bajo la hiptesis nula de No Autocorrelacin (No Correlacin Serial). Se tienen las siguientes conclusiones. Si d se encuentra entre:

0