Cap3. Violacion-Modelo-Regresión Multiple-2011

download Cap3. Violacion-Modelo-Regresión Multiple-2011

of 39

Transcript of Cap3. Violacion-Modelo-Regresión Multiple-2011

CAPITULO 3: Violacin de los supuestos del Modelo Clsico Prof.: Juan Carlos Miranda C. Instituto de Estadstico Facultad de Ciencias Econmicas y Administrativas Diciembre 2011 CURSO:ESTADSTICA EMPRESARIAL II(ESTD-241) CONTENIDO DEL CAPITULO 1. Multicolinealidad (o colinealidad) Efectos de la multicolinealidad: Casos en que suele presentarse un problema de multicolinealidad. Criterios para decidir cundo la colinealidad de grado constituye un problema. Soluciones al problema a travs de un ejemplo 2. Error de especificacin 3. Heteroscedasticidad 4. Autocorrelacin Algunos problemas de laRegresin Mltiples Hiptesis del modelo Problema 1- Las variables X, toman valoresdistintosenla muestra 2-E(Y)=`XLa distribucinnormalpara los residuales e. 3- V(e) = 2 (ctes) 4-Loserroreseson independientes entre s. Multicolinealidad:lasvariablesX,tomanvalores muysemejanteenla muestra Erroresdeespecificacin. Esdecir,E(Y)`X,falta denormalidadenlos residuales. Heterocedasticidad V(e) 2 (distintas) Autocorrelacin:Loserrores e son dependientes entre s. I. Qu es la Multicolinealidad?: Las variables explicativas son linealmente independientes (no existe multicolinealidad) ExisteMulticolinealidadcuandoenun modeloderegresinmltiplelasvariables explicativas estn correlacionadas entre s. Estacorrelacinsedebeaquelasvariables econmicasrealesraramenteson independientes. El caso extremo, la Multicolinealidad perfecta ocurrecuandounregresoresuna combinacin lineal exacta de otro u otros Multicolinealidad (0 colinealidad) El trmino multicolinealidad (o colinealidad) en Econometra se refiere a una situacinenlaquedosomsvariablesexplicativasestnfuertemente interrelacionadasy,portanto,resultadifcilmedirsusefectosindividuales sobre la variable endgena. Cabe distinguir dos casos: .Multicolinealidadexacta,cuando.Enestecasoexisteninfinitas soluciones para el sistema Multicolinealidaddegrado(aproximada),enestecasoy,por tanto,existeunasolucinformalmenteptimaalproblemademnimasuma decuadrados.Sinembargo,estasolucinestmalcondicionada,yaquela funcinobjetivoesmuyplanaenelentornodelptimoy,portanto,existen infinitas soluciones casi tan buenas como la ptima. 0 = X XTY X X XT TMCOT= |0 ~ X XTPara presentar este tema, seguiremos el siguiente esquema: Efectos de la multicolinealidad. Casos en que suele presentarse un problema de multicolinealidad. Criterios para decidir cundo la colinealidad de grado constituye un problema. Soluciones al problema. Efectos de la Colinealidad: consecuencias Lasvarianzasdelasestimaciones aumentan de forma drstica con el grado de correlacin. Esto har que los estadsticos t sean muy bajos cuando hay multicolinealidad. Lascovarianzasdelasestimaciones aumentan de manera drstica tambin Efectos de la Colinealidad: consecuencias H0 : |k =0anivelindividualse aceptarcon frecuencia. Peroserechazalahiptesisdeno significatividad conjunta. Hayunaprdidadeprecisinenla estimacin. Loscoeficientesestimadossernmuy sensibles a pequeos cambios en los datos. Efectos de la colinealidad Elefectofundamentaldelacolinealidadexactaesquenoexisteuna solucin nica del sistema de ecuaciones normales. Cuando la colinealidad es de grado: Las estimaciones individuales de los parmetros estn mal identificadas Se produce una inflacin de la varianza de las estimaciones. Las estimaciones resultan muy sensibles a la muestra. Mala identificacin de las estimaciones. Por ejemplo, sea el modelo: ) 1 ..( ..........2 2 1 1 0 t t t te x x y + + + = | | |en donde: 2 .. ..........1 1 2 t t tu x x + =oSustituyendo (2) en (1) se obtiene: t t t t t t t tu x u x x y c | o | | | c o | | | + + + + = + + + + =2 1 1 2 1 0 1 1 2 1 1 0) ( ) (y,silavarianzadeutespequea,elparmetrodext2estarmalidentificado,ya queestavariableaportapocainformacinquenoestyacontenidaenxt1.Enel lmite,silavarianzadeutfueranula,tendramosunproblemadecolinealidad exacta. Efectos de la colinealidad Inflacin de la varianza de las estimaciones. Como: T TTeTe MCOX X adjX XX X COV ) (1) ( )(2 1 2o o | = =sientonces las varianzas de los parmetros tendern a ser mayores queenunasituacinbiencondicionada.Portanto,loscontrastesde hiptesissernmenosprecisosy,concretamente,puedeocurrirquese consideren no significativos parmetros que lo seran si la colinealidad fuera menor. 0 ~ X XTEstimacionessensiblesalamuestra.Puestoquelafuncinobjetivo (sumadecuadradosderesiduos)esmuyplanaenelentornodelptimo, pequeoscambiosenlosvaloresdeyodeXpuedendarlugaracambios importantes en las estimaciones. Casos en que suele haber problemas de colinealidad Resulta frecuente que surja un problema de colinealidad en los siguientes casos: En modelos de series temporales, cuando se emplean variables explicativas con tendencia. Enmodelosdeseriestemporales,cuandoseincluyencomovariables explicativasretardossucesivosdelavariableendgenaodealgunadelas variablesexplicativas.Estoprovocacolinealidadporquelosvaloresdeuna variableeconmicaendistintosinstantesdetiemposuelenestarcorrelados entre s. Cuandoseconsideranmuchasvariablesexplicativas.Lgicamente,a medidaqueaumentaelnmerodevariablesexplicativas,esmsfcilque aparezca una relacin entre ellas, que de lugar a un problema de colinealidad. Enmodelosconvariablescualitativas.surgeunproblemade colinealidad exacta. Por ejemplo, en el modelo: t t t te x x y + + + =2 2 1 1 0| | | ===1 2111 ;, 0,..., 2 , 1 , 1t t tx xtoln txCriterio de diagnsticoParadecidirsilacolinealidaddegradoconstituyeunproblemadebemos tenerencuentalosobjetivosdenuestroanlisisconcreto.Porejemplo,la colinealidad no nos preocupa demasiado si nuestro objetivo es predecir, pero esunproblemamuygravesielanlisissecentraeninterpretarlas estimaciones de los parmetros. Paradiagnosticaresteproblemaestudiaremosdosmtodos:a)losbasados enlacorrelacinentrevariablesexplicativas,yb)losbasadoseneltamao deX XTMtodosbasadosenlacorrelacinentrevariablesexplicativas.Si calculamosloscoeficientesdecorrelacinmuestralentrecadaparde variables,podemosdecidirqueexisteunproblemadecolinealidadsialgn coeficientedecorrelacinesmayor(envalorabsoluto)queunatolerancia. Los problemas de este mtodo son: a) slo puede detectar correlacin entre pares de variables explicativas y b) la tolerancia es arbitraria. Criterio de diagnsticoMtodos basados en el tamao de X XTComo sabemos: [==kiiTX X1Siendo el i-simo autovalor de la matriz. Por tanto, podemos reducir el diagnstico a comprobar si la matriz tiene algn autovalor prximo a cero. Paraevitarelproblemadeunidadesdemedida,esteanlisissuele hacerse utilizando el nmero de condicin de XTX que se puede definirse de varias maneras: imax 34minmax3maxmin12minmax11; ;1;mimcc ccc c = = = = = =Soluciones Elproblemadecolinealidadconsiste,esencialmente,enquelamuestrano contienesuficienteinformacinparaestimartodoslosparmetrosquese desean.Porello,resolverelproblemarequiereaadirnuevainformacin (muestraloextramuestral)ocambiarlaespecificacin.Algunasposibles soluciones en esta lnea son: Aadir nuevas observaciones. Aumentar el tamao muestral puede reducir un problema de colinealidad de grado. Restringirparmetros.Evidentemente,silaTeoraEconmicaola experienciaempricasugierenalgunasrestriccionessobrelosparmetrosdel modelomsafectadosporlacolinealidad,imponerlaspermitirreducirel problema. El riesgo que se corre es, obviamente, imponer restricciones que no son ciertas. Suprimirvariables. Si se suprimen variables que estn correladas con otras, la prdidadecapacidadexplicativaserpequeaylacolinealidadsereducir. Existe, sin embargo, el riesgo de eliminar variables que debieran mantenerse en elmodeloyaque,comohemosvisto,cuandohaycolinealidadlasvarianzasde losparmetrosestninfladasylosparmetrospuedenserformalmenteno significativos. Soluciones: en resumen Transformar las variables del modelo. Si la colinealidad se debe a que se estn relacionando series temporales con tendencia, puede ser conveniente transformar las variables para eliminar esta tendencia. Utilizar informacin extra-muestral Sustituirunvalordeuncoeficientedeunadelasvariables colineales por una estimacin proveniente de otro estudio. Imponer restricciones sobre los coeficientes. Riesgos Silaestimacinextramuestralessesgada,elsesgose transmite al resto de estimaciones. Obtenerresultadosquesimplementereflejenlas restricciones. Ejemplo de Multicolinealidad perfecta En el fichero ci4p1.wf1 hay datos sobre Y:produccinagrcolade50municipios catalanes en el ao 1990 (corte transversal). X:litrosdelluviaporm2cadaencada municipio. Z:Aguadisponiblepararegadosenelao 90enCatalua(Nohayvariacin,vermatriz de datos). Ejemplo de Multicolinealidad perfecta No podemos estimar el modelo yi=|1+|2 x i +|3 zi+ ui contiene dos trminos constantes Hemos de utilizar yi=(|1 +|3 zi)+|2 x i + ui Slo identificamos |1 =( |1 +|3 zi) |2 Ejemplo de Multicolinealidad fuerte En el fichero ci4p2.wf1hay datos sobre Y:produccinagrcolatotaldeCatalunyaenel periodo 1974:1-1995:3 (serie temporal) X: litros de lluvia por m2 cada en Catalua en el periodo 1974:1-1995:3 Z:AguadisponiblepararegadosenCatalua cada trimestre durante el periodo 1974:1-1995:3 yt=|1+|2 x t +|3 zt+ ut Resultados de la estimacin MCO (ci4p2) Coeficientes no significativamente distintos de cero a nivel individual. Peroserechazalahiptesisnuladeno significacin conjunta. Lascovarianzasdelasestimacionesson grandes. Indicios de Multicolinealidad. Confirmamos la existencia de Multicolinealidad Grficos de x, z Matriz de correlacin de los regresores Remedios Ya tenemos informacin acerca del efecto de las lluvias sobre la produccin agrcola a partir de la estimacin del modelo con datos transversales Podramos utilizar esa estimacin en el modelo t t t tt t tu z y xu z x+ + = = + + + =3 1 2 t3 2 1 t'yy| | || | |II. Errores de Especificacin: Especificacin correcta (ni falta ni sobran variables) Tipos de Error de Especificacin: - Omitir variables relevantes (OVR) -Incluir variables irrelevantes (IVI) -Errores de medidas en la variable endgena -Errores de medidas en las variables explicativas -Especificar una relacin esttica cuando esdinmica -Especificar una relacin lineal cuando la relacin no eslineal Errores de Especificacin La mayora de ellos se pueden entender OVRErrores de Especificacin Omisin de variables relevantes - supongamos que el modelo correctamente especificado (MC), es el siguiente: t t t tu x x y MC + + + =3 3 2 2 1......... | | |- Especificamos incorrectamente el siguiente (MI), en el que no incorporamos a xt3 t t tv x y MI + + =2 2 1......... | |t t tu x v + 3 3|MIeselmodelorestringidodeMCimponiendolahiptesis nulaque es falsa. Esto implica: - El estimador de MCO del MI es insesgado. - El estimador de MCO del MI tiene una varianza inferior al estimador MCO del MC (este estimador es insesgado y eficiente). 03 = |Contrastes de Especificacin 1) Contraste RESET de Ramsey (1969) - Permita comprobar si existen errores en la especificacin del modelo debido a que: - se han omitido variables relevantes - La verdadera relacin entre las variables es no lineal - La hiptesis a contrastar es: ||10) ( ) / ( ...) / ( ...t t t tt t tx x f x y E Hx x y E H= ==- Dondef(.)esunaformafuncionaldistintadeque puede ser desconocida. |txPasos para detectar el Error deEspecificacin - Para llevarlo a cabo se dan los siguientes pasos: - Especificacin de la relacin lineal entre las variables del modelo: - Estimacin por MCO del modelo restringido bajo H0 de linealidad-Nos quedamos con la variable explicaday la suma residual SRR t t tu x y + = |t t tu x y + = |- Estimacin por MCO de la regresin auxiliar (modelo sin restringir): - - Nos quedamos con la suma residual SR tqt q t t t tu y y y x y + + + + + = ...... 3221o o o |- Construimos un estadstico F de sumas residuales ) ; ; (0o k T qBajoHFqk TSRSR SRRF~ =2) Contraste de Normalidad - Es un supuestos fundamental en la inferencia - Se debe contrastar siempre. Para ello: - Histograma de los residuos - Test de Jarque-Bera (J_B) y la asimetra (s). - Tiene en cuenta la curtosis (K) y la asimetra (s). Otros: No Normalidad N u Ht ~ :0222 20) ) 3 (41(6_ ~ += bajoHk Sk TB JOtros: No Normalidad Otros: Seleccin de Modelos 2) Criterios de seleccin de modelos - R2 - R2 restringido - Medidas del error de previsin - Akaike info criterio (AIC) - Schwarz criterio (SC) Donde es el valor de la funcin de verosimilitud evaluada en el estimador MCO TkTAIC 2 2 + =TTkTSC) log(2 + =