Departamento de InformáticaUniversidad Técnica Federico Santa María
Departamento de InformáticaUniversidad Técnica Federico Santa María
EconometríaEconometríaEconometríaEconometría
Capitulo II
Héctor Allende O.
Estructura del Estructura del CursoCursoEstructura del Estructura del CursoCurso
1.- Introducción.2.- Modelos de Asociación (Regresión) 2.1 Construcción de Modelos de Regresión 2.2 Verificación de Supuestos: Linealidad, Normalidad, Homocedasticidad, Independencia, etc 2.3 Contraste de Hipótesis y Estimación, en modelos de regresión.3.- Modelos de clasificación 3.1 Árboles de Clasificación 3.2 Clasificación Bayesiana 3.3 Clasificación no parámetrica4.- Modelos Estadísticos de Series de Tiempo 4.1 Suavizamiento Exponencial, Modelos Adaptivos 4.2 Modelos ARIMA, GARCH, ARMAX, ARFIMA, etc5.- Modelos de Regresión libre ( Redes Neuronales, Series de Tiempo6.-Aplicaciones y uso de software
Héctor Allende O. 3
Modelo de Regresión
Modelo de Regresión Modelo Explicativo Estático
Supuestos básicos
yij, uij : variables aleatorias dependiente ; 0, 1: Parámetros y
xi : variable explicativa determinística.
Supuestos distribucionales.
1. E[uij]=0.
2. Var[uij]=2, cte independiente de x. Perturbación es homocedástica.
3. uijN(0,2).
4. E[uij ukh]=0, (i,j)(k,h)
) lEstructura (Hipótesis 10 ijiij uxy
Héctor Allende O. 4
1. 1- E[yij / xi]= 2- Var[yij]= 2.
2. 3 - f (yij / xi) es normal 4- Las observaciones son independientes entre
si
1.2 Estimación de parámetros.
1.2.1 Método de Máxima Verosimilitud. Función de Verosimilitud.
iiiiijiij xxyExyuxy 101010ˆˆˆˆˆ
.ˆ previstoValor observadoValor Residuo iijij yye
n
iij
iijij
yL
xyExpy
1
210
210
2102
210
,,,log,,
21
2
1,,,
ix10
Héctor Allende O. 5
Derivando L( ) con respecto a los parámetros :
y
1.2.2 Método de Mínimos Cuadrados.
21
10
,ˆ
ˆˆ
xS
yxCov
xy
2ˆ
,,
22
2210
210
,
210
10
n
eS
exyM
xyMinLMaximizar
ijR
ijiij
iij
n
eij2
2̂
Héctor Allende O.
))(,(0 00
^
VN
Distribución de los Parámetros
))(,(1 11
^
VN
Héctor Allende O. 7
1.3.1 Propiedades de
1̂
2
2
1
11
ˆ
ˆ
xnSVar
E
2
2
11 ,RnS
N
x
R
Sn
StIC
ˆˆ
confianza de Intervalos
2111
1.3 Propiedades de los estimadores.
Héctor Allende O. 888
1.3.2 Propiedades de
0̂
2
2
20
00
1ˆ
ˆ
xnS
x
nVar
E
2
2
200
1,
RnS
x
nN
2
2
2101 1ˆ
ˆ
confianza de Intervalos
x
R
Sx
n
StIC
Héctor Allende O. 999
1.3.3 Propiedades de
2ˆRS
22ˆ
ˆ4
2
22
nSVar
SE
R
R
2
22
2
n
ije
2
2
2
221
2
1
ˆ2;
ˆ
confianza de Intervalos
RR SnSIC
Héctor Allende O. 10
Prueba de hipótesis.
Estadístico
Para la región crítica P(F(1,n-2) C )=1-, se rechaza H0 para F0>C.
0: v/s0: 1110 HH
2
2
2
ˆExplicadaVariación
ˆExplicada noVariación
TotalVariación Sea
yynVE
yyVNE
yyVT
ii
iij
i jij
22
221
0 ˆˆ
ˆ
RR
x
S
VE
S
nSF
..2,1 lgnF
1.4 Contraste de regresión.
Héctor Allende O. 11
Prueba de hipótesis.
Estadístico de Prueba:
Para la región crítica P(F(d-2,n-d) C )=1-, se rechaza H0 para F0>C.
i101i100 x: v/sx: iijiij xyEHxyEHSean
22
212
0 ˆ
ˆ
S
SF ..,2 lgdndF
ˆ :linealidad de hipótesis lasin ón perturbaci la de Varianza
2
ˆˆ :rectas lasy medias las entre Varianza
2
22
2
212
dn
yyS
d-
yynS
iij
iii
1.5 Contraste de linealidad.
Héctor Allende O.
Transformaciones
TransformacionesSea yi = h ( xi ) con i = 1,...,n
1. Lineales yi = axi + b
y = ax + bSy = a Sx
2. No lineales yi = ln xi = h( xi )
y = h(x) + h”(x) SX2
Sy2 Sx
2 h’ (x)2
i.e. y = ln x - ( Sx2 / x2 )
Sy2 ( Sx
2 / x2 ) = CV 2
2
1
2
1
Héctor Allende O.
Relaciones LinealizablesRelaciones Linealizables
1. y = K x ln y = a0 + a1 ln x2. y = K ( / x ) y = a0 a1 x-1
3. y = K ex ln y = a0 + a1 x
4. y = K e-/x ln y = a0 + a1 x-1
5. yt = K + cos t y = a0 + a1 xt
siendo xt = cos t
6. y() = y - 1 = a0 + a1 x
y-1 dy = a1 w = dy dx dx
ln w = ln a1 + ( 1 - ) ln y
Héctor Allende O.
Ejemplo de Regresión SimpleEjemplo de Regresión Simple
t 0 1 2 3 4 5 6
V(t) 30 60 46 32 10 4 1720 40 26 14 8
20 12
V(t) 25 40 46 29 12 6 17
Sea xt = sen t yt = V(t)
Luego y(t) = a + b xt + ut
t
ttbaba
bxayminbaQmin 2
,,)(),(
Héctor Allende O.
3,25ˆˆ xbya 202 xS
yxb
),cov(ˆ
12762 yS 45222 ,)ˆ( tt yy
% de Ajuste del Modelo =
%%,ˆ
981009801 2
2
y
t
S
e
Héctor Allende O. 16
Tiene por objeto contrastar a posteriori las hipótesis de linealidad del modelo. Es especialmente importante cuando se tiene un solo valor de la variable y para cada valor de la variable de control x.
El analisis de los residuos se utiliza para verificar:
•Si su distribución es aproximadamente normal.•Si su variabilidad es constante y no depende de x.•Si presentan evidencia de una relación no lineal.•Si existen observaciones atípicas o hetereogéneas.
1.6 Análisis de residuos.
Héctor Allende O. 17
Si el diagrama de dispersión de las dos variables a investigar presenta claro indicios de no linealidad, se tiene que acudir a transformar las variables
Transformaciones Box-Cox (1964).Esta familia es útil para conseguir linealidad cuando la relación es monótona.
Estimación de máxima verosimilitud para ( ).Suponga m=0 y un tal que transforme la variable en normal.
1.7 Transformaciones en regresión simple.
0 ln
0 ,0 1
λmx
-m, xmλmx
x
2
222
1
1
2
1
1
2
1ln1ln
22ln
2,,
2
12
2
ii
x
xx
nnL
xexf
Héctor Allende O.
Para obtener el máximo en L(,2 ,) se fija :
Sea la media geométrica de las observaciones:
Definiendo
Se obtiene
Donde VNE() es la variabilidad no explicada en una regresión de Z() sobre x.
11ˆ
1ˆ
22
ixn
x
xn
x
ixn
x ln1
ln
xxz
x
xz ln0 ;
11
VNEn
L
zzn
L i
ln2
ln2
2
Héctor Allende O.
1.7.2 Transformaciones para conseguir homocedasticidad.
Luego si deseamos que Sz= k constante. Entonces debe verificarse:
Suponga que la relación observada es . Entonces:
1.7.3 Consecuencia de las transformaciones.
Sea la transformación El estimador E[y/x], será sesgado con sesgo proporcional a
lavarianza de la perturbación.
yhSSyhz yz ' ,
yS
kyh '
yS y
1' ykydykyh
uaxy
Héctor Allende O. 20
1.8.1 Estimaciones de las medias condicionales.
Intervalo de confianza para las medias.
Estimaciones de las medias condicionales.
Se desea prever el valor de y para x=xh. Intuitivamente
Criterio de predicción. Error cuadrático medio mínimo
1.8 Predicción.
222
2
10
1
1ˆ
ˆ ˆˆ
ˆˆ
hh
ii
hh
hhhh
hh
xxn
xxn
yVar
xyEmxyE
xxyy
hhRhh StymIC ˆˆ)( 2
hh xy 10ˆˆˆ
22 ~~ yxyExyVarxyyE
Héctor Allende O.
Intervalo de Confianza
Intervalo de Confianza
para las observaciones
Coeficiente de Correlación.
Coeficiente de determinación:
Coeficiente de correlación:
Relación entre y r :
]1ˆˆ[)( 2 hhRhh StyyI
2
2
2 ˆ
yy
yy
VTVE
Ri
i
yxSSyxCov
rR,2 r
2ˆRS
21
2
2ˆ21
y
R
nSSn
r
Héctor Allende O.
1.11 Inferencia sobre el coeficiente de correlación.
Utilizando la transformación de Fisher:
Si (x,y) es una normal bivariada, entonces Z es
Donde es el verdadero coeficiente de correlación de la población.
1. La prueba =0 1 =0. 2.
r
rZ
1
1ln
2
1
221
2
r
nrtn
3
1);
121
1ln
2
1)
n
ZVariin
ZEi
),( ZVZEN
Top Related