Tesis Version 1
-
Upload
juannepomuseno -
Category
Documents
-
view
65 -
download
9
description
Transcript of Tesis Version 1
-
Centro de Investigacinen Matemticas, A.C.
ESTIMACIN DE PARMETROS
Y PRONSTICOS EN MODELOS
TAR CON ERRORES t-STUDENT
TesisPara obtener el ttulo de:
Maestra en Ciencias con Especialidad
Probabilidad y Estadstica
Presenta:Miguel ngel Snchez Ovando
Director de tesis:Dra. Graciela Gonzlez Faras
Guanajuato, Gto , Noviembre 2014.
-
ndice general
1. Introduccin 3
2. Modelo TAR 62.1. Estimacin modelo TAR(2; 1, 1). . . . . . . . . . . . . . . . . . . 7
2.1.1. Mnimos Cuadrados . . . . . . . . . . . . . . . . . . . . 72.1.2. Mxima Verosimilitud . . . . . . . . . . . . . . . . . . . 9
3. Distribuciones Elpticas 123.1. Definicin de distribuciones esfricas y elpticas . . . . . . . . . . 123.2. Algunas propiedades . . . . . . . . . . . . . . . . . . . . . . . . 143.3. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
3.3.1. Distribucin Normal . . . . . . . . . . . . . . . . . . . . 153.3.2. Distribucin tstudent . . . . . . . . . . . . . . . . . . . 15
3.4. Estimacin de los parmetros de la distibucin t-student por me-dio de mxima verosimilitud. . . . . . . . . . . . . . . . . . . . . 16
3.5. Regresin con distribuciones simtricas . . . . . . . . . . . . . . 20
4. Estimacin de parmetros en modelosTAR(r; p1, ; p2, . . . , pr) 254.1. Estimacin mxima verosimilitud . . . . . . . . . . . . . . . . . 274.2. Simulaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
5. Identificacin del modelo 465.1. Seleccin del nmero mximo de regmenes . . . . . . . . . . . . 475.2. Seleccin de los rdenes de los autorregresivos y umbrales . . . . 495.3. Simulaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
6. Pronsticos mediante verosimilitud predictiva 576.1. Verosimilitud predictiva perfil. . . . . . . . . . . . . . . . . . . . 576.2. Verosimilitud predictiva perfil en un modelo TAR(2;1,1) . . . . . 58
1
-
26.3. Verosimilitud predictiva perfil TAR(r; p1, p2, . . . , pr) . . . . . . . 616.4. Simulacin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
7. Conclusiones 77
8. Apndice 78
-
Captulo 1
Introduccin
Hasta antes de finales de la decada de los 70s el estudio de las series de tiem-po se haba basado asumiendo linealidad, usando esta suposicin se propusierondiversos modelos, como por ejemplo, los autorregresivos (AR) o promedios m-viles (MA), adems, ya se contaba con una teora desarrollada para estimacin delos parmetros, intervalos de confianza para los parmetros, pronsticos, etc. Sinembargo, muchos datos pueden presentar comportamientos tales como no norma-lidad, ciclos asimtricos, relaciones no lineales con los retrasos, irreversibilidad enel tiempo, etc., los cuales son difciles de describir usando modelos lineales. Al-gunas de las caractersticas anteriores fueron detectadas en los datos de linces deCanad o en el de manchas solares, datos que abrieron el camino hacia el estudiode series de tiempo no lineales.
De acuerdo con Tsay(2002) un modelo puramente estocstico para una serie detiempo yt es una sucesin iid que consiste de los shocks presentes y pasados,
yt = f (t , t1, . . .).
Donde cualquier funcin no lineal f () representa un modelo no lineal para yt .A lo largo de las ltimas cuatro dcadas este tipo de modelos han sido extensamen-te estudiado debido a su gran aplicabilidad en reas como ecologa, econometra,hidrologa, finanzas, sociologa, etc. y muchos modelos han sido propuestos entre
3
-
4los cuales se encuentran los modelos bilineales de Granger y Anderson, los mo-delos de Markov cambiantes de Hamilton, los modelos umbrales propuestos Tongy Lim, los modelos ARCH de Engle, entre otros.En economa, uno de los modelos no lineales ms utilizados son los modelosumbrales y la razn se debe principalmente a las caractersticas que presentan losdatos econmicos. Prueba de la popularidad y aceptacin de los modelos umbraleses la gran cantidad de artculos sobre teora y aplicaciones que se han escrito. Unbreve resumen de las publicaciones actuales se encuentra en Hansen(2011).La idea detrs de los modelos autorregresivos umbrales propuestos por Tong(1978)y Tom y Lim (1980) es la linealizacin por partes de la serie, lo cual se hace in-troduciendo una variable llamada umbral y que tiene como propsito hacer que laserie se comporte como un modelo autorregresivo dentro de cada regimen.La mayora de las veces cuando se hacen supuestos distribucionales en los mode-los autorregresivos umbrales, se asume que los errores tienen distribucin normalcon cierta media y varianza 2. Como bien sabemos, el uso de la distribucinnormal en los errores suele ser muy restrictivo y presenta problemas con datos quetienen colas pesadas, como por ejemplo, datos financieros.
Una idea para solucionar este tipo de problemas podra ser emular lo hechoen anlisis de regresin, que para atacar los problemas de no normalidad una al-ternativa es cambiar la distribucin asociada al proceso de errores a una clase dedistribuciones ms amplia como pueden ser las distribuciones elpticas.
Para resolver la problemtica con datos que presentan colas pesadas, Zhang(2011)propone que los errores tengan una distribucin t-student y adopta un enfoque ba-yesiano para la estimacin de los parmetros suponiendo que se conocen los pa-rmetros de la variable umbral y el valor umbral. Como resultado de su estudio desimulacin obtiene buenos resultados en la estimacin de los parametros del mo-delo bajo el supuesto que los errores del modelo siguen una distribucin t-studentde 5 grados de libertad, sin embargo no realizan comparaciones suponiendo erro-res normales ni pronsticos.
En el presente trabajo vamos a suponer que los errores del modelo TAR tienen unadistribucin que pertenece a la famlia elptica y como caso especial nos enfocare-
-
5mos a la t-student. Haremos la estimacin de los parmetros mediante el mtodode mxima verosimilitud, suponiendo adicionalmente que la variable umbral si-gue un modelo autorregresivo de orden 1.El modificar la distribucin de lo errores de una distribucin normal a una distribu-cin t nos ayuda para poder describir mejor datos que presentan colas pesadas. Sinembargo, la verosimilitud se vuelve intratable analticamente por lo que se tendrque recurrir a mtodos de optimizacin para encontrar los estimadores mximosverosmiles. (Resumen de los capitulos y lo que se pretende ver)
El trabajo de tesis tiene la siguiente estructura: En el Captulo 2 daremos la de-finicin del modelo TAR y nos centraremos en la estimacin de parmetros parael caso TAR(2;1,1) por medio de mnimos cuadrados y mxima verosimilitud. Enel captulo 3 se presentar la definicin, propiedades y ejemplos de las distribu-ciones elpticas. Asimismo mostraremos la tcnicas usadas para la estimacin deparmetros de la distribucin t-student multivariada y el modelo de regresin conerrores con distribuciones esfricas. Posteriormente, en el captulo 4 calcularemosla funcinde verosimilitud para el caso del modelo TAR con r regmenes y erro-res t y se estimarn los parmetros mediante el mtodo de mxima verosimilitud,se harn algunas simulaciones y se presentar una comparacin con el caso deTAR con errores normales. En el captulo 5 abordaremos el problema de la iden-tificacin del modelo y haremos uso de los criterios de Akaike y Bayesiano pararesolverlo. Se darn algunos ejemplos simulados para su ajuste. Por ltimo, en elcaptulo 6 haremos los pronsticos mediante verosimilitud predictiva perfil y sehar un estudio de simulacin comparandolo con los TAR con errores normales.
-
Captulo 2
Modelo TAR
Los modelos autorregresivos umbrales (o simplemente TAR por sus siglas en in-gls) fueron publicados por primera vez en el artculo de Tong y Lim(1980), "Th-reshold Autoregression, Limit Cycles and Cyclical data" y surgen de la idea de quesi una serie no es lineal en el tiempo, entonces podemos hacer que tenga compor-tamiento lineal por pedazos donde la dinmica de la serie estar dada por algunaotra variable llamada umbral y esta puede estar dada por retrasos de la mismaserie o alguna otra serie exgena. El comportamiento anterior se puede ver, porejemplo, en las poblaciones de animales donde hay ciertas fases de contraccin yexpansin o en economa cuando la inflacin supera cierto valor crtico, lo cualafecta al comportamiento de las tasas de inters.Estos modelos han tenido gran aceptacin debido a su fcil interpretacin y ade-ms de que son capaces de considerar diferentes comportamiento de la serie encada rgimen como funcin de una variable umbral, donde cada comportamientose activa cuando la variable umbral cruza un valor crtico llamado valor umbral.Formalmente, un modelo TAR se define como sigue
Definicin 1. Sea Y = (Y1, Y2, . . . , YT )el vector de datos observados con condi-ciones iniciales (Y0, Y1, . . . , Yp+1). Decimos que la serie de tiempo Yt sigue unmodelo TAR(r; p1, . . . , pr) con variable umbral Ztd y r regmenes si Yt puedeexpresarse de la siguiente manera
6
-
7Yt = 0,k+pk
i=1
i,kYti+ k,t si k1 Ztd < k, (2.0.1)
donde k= 1, 2, . . . , r. Los nmeros reales k satisfacen= 0 < 1 . . . < r = y forman una particin del espacio de estado de Ztd , y el intervalo (k1, k] serefieren al k-simo rgimen del modelo . Los errores
{k,t}
forman una sucesinde variables aleatorias independientes con cierta distribucin D, con media cero yvarianza 2. Adems, {i,t} es independiente de
{ j,t}
para i 6= j. El nmero d esun entero positivo y se conoce como retardo de la variable umbral Zt .
A lo largo de este trabajo vamos a suponer que el nmero de retardos d es cono-cido.
2.1. Estimacin modelo TAR(2; 1, 1).
La estimacin de los parmetros en los modelos TAR es uno de los problemasque ha sido estudiado en diversos artculos como en Hansen(1997). A continua-cin presentaremos las tcnicas utilizadas en la estimacin de los parmetros delmodelo dado en la ecuacin (2.0.1) suponiendo que r = 2, d = 1, es decir, unmodelo TAR(2; 1, 1) el cual se puede escribir como
Yt =
1Yt1+ t si Zt1 2Yt1+ t si Zt1 > , t iidN(0,2). (2.1.1)Para la estimacin usaremos dos mtodos diferentes: el mtodo de mnimos cua-drados y mxima verosimilitud.
2.1.1. Mnimos Cuadrados
Para la estimacin de los parmetros del modelo TAR(2; 1,1) vamos a suponerque el proceso estacionario y ergdico, adems, asumiremos que los errores {t}
-
8y la variable umbral Ztd son independientes. Sea = (1, 2, 2) el vectorde parmetros a estimar y consideremos fijo el parmetro umbral dado en 2.2.Entonces, el estimador de mnimos cuadrados condicional para est dado poraquellos valores que minimizan lo siguiente
S=T
t=1
(YtE(Yt |Ft1,))2
DondeFt1 = (Ys|s t1), que se interpreta como toda la informacin pasadadel proceso. Notemos que
E(Yt |Ft1,) = E ([1I(Zt1 )+2I(Zt1 > )]Yt1+ t ]|Ft1,) ,= [1I(Zt1 )+2I(Zt1 > )]Yt1.
El estimador para 1 est dado por
S1
=Tt=1 (YtE(Yt |Ft1,))2
1,
=Tt=1
(Y 2t 2YtE(Yt |Ft1,)+E(Yt |Ft1,)2
)1
,
=T
t=1
(2YtI(Zt1 )Yt1+21I(Zt1 )Y 2t1) ,De donde obtenemos
1() =Tt=1YtI(Zt1 )Yt1
I(Zt1 )Y 2t1.
Anlogamente, se llega a que el estimador para 2 es
-
92() =Tt=1YtI(Zt1 )Yt1
I(Zt1 )Y 2t1.
Y el estimador para 2 tiene la siguiente expresin
2() =1T
T
i=1
e2.
Donde e= YtE(Yt |Ft1; 1(), 2()).Petruccelli y Woolford (1984) demuestran que los estimadores obtenidos para1, 2, 2 mediante mnimos cuadrados, suponiendo fijo y Zt1 = Yt1, sonconsistentes.
2.1.2. Mxima Verosimilitud
Notemos que el modelo TAR(2; 1, 1) dado en 2.2 se puede reescribir como
Yt = [1I(Zt1 )+2I(Zt1 > )]Yt1+ t (2.1.2)= h(Yt1, Zt1; 1, 2, 2, , , 2u )+ t , (2.1.3)
donde h() = [1I(Zt1 )+2I(Zt1 > )]Yt1. Supongamos que el procesoZt1 es un AR(1) estacionario, es decir,
Zt1 = Zt2+ut , ut iidN(0,2u ). (2.1.4)
Y asumimos que t es independiente de Zt1.
Dadas las observaciones Y1, Y2, ..., YT y Z0, Z1, ..., ZT1 de los procesos (2.1.2) y(2.1.4), se tiene que la verosimilitud esta dada de la siguiente manera
-
10
L(1, 2, 2, , , 2u ; Yt , Zt1
)=
T
i=2
f(Yt |Yt1, Zt1;1, 2, , 2
)g(Zt1|Zt2;, 2u ) ,
=1
T1exp
{ 1
22T
t=2
(YttYt1)2}
1T1u
exp
{ 1
22u
T
t=2
(Zt1Zt2)2}.
Con t = [1I(Zt1 )+2I(Zt1 > )]Y la log versomilitud como
`(1, 2, 2, , , 2u ; Yt , Zt1
)= (T 1)log() 1
22T
t=2
(YttYt1)2
+(T 1)log(u) 122uT
t=2
(Zt1Zt2)2 .
Derivando ` con respecto a 2 e igualando a cero se obtiene que
2(1, 2, ) =1
T 1T
t=2
(Yt [1I(Zt1 )+2I(Zt1 > )]Yt1) .2 (2.1.5)
Luego, derivando ` con respecto a 1, 2 e igualando a cero encontramos que susestimadores maximos verosmiles son
1() =Tt=1YtI(Zt1 )Yt1
I(Zt1 )Y 2t1. (2.1.6)
-
11
2() =Tt=1YtI(Zt1 )Yt1
I(Zt1 )Y 2t1. (2.1.7)
De la misma manera, los estimadores mximos verosmiles para 2u y son
= Tt=2Zt1Zt1Tt=2Z2t2
y
2u () =1
T 1T
t=2
(Zt1 Zt2)2
Sustituyendo 2.7 y 2.8 en 2.6 se llega a que el estimador mximo verosimil para2 como funcin del parmetro umbral , es
2() =1
T 1T
t=2
(Yt
[1I(Zt1 )+ 2I(Zt1 > )
]Yt1
)2.
Notemos que no podemos derivar la verosimilitud con respecto a debido a queno es continua en los puntos Z0, ..., ZT . Una solucin al problema anterior estdada en Qian(1998) donde propone utilizar como el valor que cumpla
inf arg min
T 12
log
[1
T 1T
t=2
(Yt
[1I(Zt1 )+ 2I(Zt1 > )
]Yt1
)2].
Otra solucin se presenta en NietoEn Russel(2006) puede verse que los estimadores obtenidos para 1, 2, , , , uusando mxima verosimilitud son consistentes.
-
Captulo 3
Distribuciones Elpticas
En este captulo daremos una breve revisin a las distribuciones elpticas, sudefinicin, algunas propiedades y ejemplos. Adems, presentaremos las metodo-logas utilizadas en la estimacin de parmetros para la distribucin t-student mul-tivariada y para modelos de regresin con distribuciones esfricas. Lo anterior nosdar ideas de posibles soluciones utilizadas ante la no normalidad y colas pesadasde datos, as como tambin un panorama sobre las tcnicas y problemticas quese ocasionan al cambiar de una distribucin normal a otra, como por ejemplo unadistribucin tstudent.
3.1. Definicin de distribuciones esfricas y elpticas
Las distribuciones elpticas se presentan como una extensin a la clase de dis-tribuciones normales multivariadas y las cuales nos permiten atacar problemascomo la no normalidad o colas pesadas en los datos, pero sin embargo mantenin-donos dentro de una familia de distribuciones simtricas.
Fang(1990) define a las distribuciones elpticas usando la relacin que existe conlas distribuciones esfricas. Por lo tanto, comenzaremos dando la definicin de lasdistribuciones esfricas.
12
-
13
Definicin 2. Un vector aleatorio x de dimensin n1 se dice que tiene distribu-cin esfrica simtrica o simplemente distribucin esfrica si para todo O(n),
x d= x,
donde O(n) denota el conjunto de matrices ortogonales nn.Geomtricamente la definicin anterior nos dice que una distribuciones esfricaes invariante bajo rotaciones.El siguiente teorema dado en Fang(1990) nos ayuda a saber que distribucionespertenecen a esta familia fijndonos en su funcin caracterstica, (t).
Teorema 3. Un vector n dimensional tiene distribucin esfrica si y slo si sufuncin caracterstica (t) satisface una de las siguientes condiciones equivalen-tes
(i) (t) = (t) para cualquier O(n).(ii) Existe una funcin () de una variable escalar tal que (t) = (tt).
Escribiremos t Sn() que siginifica que t tiene distribucin esfrica con fun-cin caracterstica de la forma (tTt) donde () es una funcin de variable escalarllamada el generador caracterstico de la distribucin. Con base a la definicin an-terior se caracteriza a las distribuciones elpticas de la siguiente manera,
Definicin 4. Se dice que un vector aleatorio x de dimensin n1 tiene distribu-cin elptica con parmetros n1 y nn si
x = +Ay, y Sk().
Donde Akn, AA = con rang() = k. Escribiremos x ECn(, ;).
-
14
3.2. Algunas propiedades
Dos propiedades que poseen las distribuciones elpticas semejantes a las dis-tribuciones normales se enuncian en los teoremas (5) y (6).
Teorema 5. Si x ECn(, ; ) con rango() = k, B es una matriz de dimensinnm, y v es un vector n1 entonces
v+Bx EC(v+B, BB, ;).
Otra propiedad importante es que todas las distribuciones marginales de las distri-buciones elpticas tambin pertenecen a esta familia. Ms formalmente tenemosel siguiente teorema.
Teorema. Si x ECn(, ;) y particionado como
x =
[x1x2
], =
[12
],
[k1
(n k)1
]
=
[11 1221 22
],
[k k k (n k)
(n k) k (n k) (n k)
].
Entonces x1 EC(1, 12;) y x2 EC(2, 22;).
3.3. Ejemplos
En lo siguiente presentaremos dos ejemplos de distribuciones conocidas quepertenecen a la familia de distribuciones elpticas.
-
15
3.3.1. Distribucin Normal
La distribucin normal multivariada es una de las distribuciones que pertene-cen a las distribuciones elpticas, para comprobarlo primero demostraremos quela distribucin normal estndar multivariada es parte de la familia de distribucio-nes esfricas y posteriormente utilizando resultados de combinaciones lineales seobtiene lo deseado.Consideremos x = (x1, x2, ..., xn) N(0, In), como la funcin caracterstica dex1 es exp( t22 ), entonces la funcin caracterstica de x es
exp(12(t21+ t
22+ ...+ t
2n)) = exp(
12
tt),
de 3 se llega a que x tiene distribucin esfrica, Sn(), con generador caracterstico(u) = exp(u/2).Recordemos que si x tiene distribucin nomal multivariada Nn(, ) entonces sepuede descomponer de la siguiente manera:
x d= +Ay
donde Rn, y Nm(0, In) y Amn con = AA. Como se tiene que y Sn()con (u) = exp(u2) entonces x ECn(, , ).3.3.2. Distribucin tstudent
Sea z Nn(0, In) y s m independientes y sea
y= m12
zs
Entonces decimos que y tiene distribucin t-multivariada con m grados de libertady escribimos Mtn(m,0, I :n).Ahora sea
x = +Ay
Donde Rn y A es de dimensin nn. Entonces decimos que x tiene distribu-cin t-multivariada con parmetros , =AA, m grados de libertad y escribimos
-
16
xMtn(m, , ,).Para darnos una idea de los problemas que se podrian presentar en la estimacinde los parmetros del modelo TAR suponiendo errores t , se revisaron las tcnicasusadas en la estimacin de los parmetros va mxima verosimilitud de los pa-rmetros de la distribucin t multivariada dadas en Liu(1995) y en la estimacinde los parmetros de un modelo regresin lineal con errores t dadas en Cysnei-ros(2005). Liu propone utilizar un algoritmo EM mientras que Cysneiros sugiereemplear el mtodo Scoring de Fisher.
3.4. Estimacin de los parmetros de la distibucint-student por medio de mxima verosimilitud.
Est seccin presentaremos la estimacin de los parmetros de una distribu-cin t-student por medio del mtodo mxima verosimilitud.
Recordemos que la funcin de densidad de la distirbucin t-student con parmetrode localizacin , parmetro de escala , y grados de libertad est dada por
f (x|, , ) = (+1
2 )
(2 )
(pi
) 12(
1+ (x)2
)( +12 ). (3.4.1)
Denotemos por=(, ,) al vector de parmetros. La funcin de verosimilituddadas T observaciones iid de una distribucin t es
L(; X = (x1, x2, xT )) = p(|X) =T
i=1
f (xi|). (3.4.2)
Encontrar el estimador mximo verosmil para suele resultar muy complicadopor la forma que presenta la verosimilitud. Debido a lo anterior se han a escri-to algunos artculos, como por ejemplo Aeschliman(2000) o Liu(1995), donde sepresentan diferentes mtodos para la estimacin de los parmetros para . A con-tinuacin presentamos la idea dada en Scheffer(2000) donde propone utilizar el
-
17
hecho de que la distribucin t se puede ver como una mezcla de distribucionespara posteriormente aplicar el algoritmo EM.Notemos que 3.4.1 se puede escribir como:
f (x|, , ) =
0g(x|, ()1
)h( |
2,2
)d ,
donde
g(x|, ()1
)=
12pi ()1
exp( 1
2()1(x)2
),
h( |
2,2
)=
1(
2
) (2
) 2
21e
2 .
Es decir, la distribucin t se puede ver como mezcla infinita de distribucionesNormal
(, ()1
)con distribucin mezclante o latente Gamma
(2 ,
2
). De lo
anterior, tenemos que la verosimilitud de los datos completos est dada por lasiguiente expresin
L(; X , Z) = p(X , Z|) =T
i=1
g(xi|, ()1
)h(i|2 ,
2
). (3.4.3)
Donde Z = (1, . . . , T ) y las i son variables latente y p(|X) =Z p(X , Z|) .
Recordemos que el algoritmo EM busca encontrar el EMV para aplicando ite-rativamente los siguientes dos pasos pasos hasta que se cumpla un criterio deconvergencia:
Paso E. Calcular el valor esperado de la funcin de log verosimilitud conrespecto a la distribucin condicional de Z dado X bajo el actual estimadorde parmetros (t)
Q(|(t)
)= EZ|X ,(t) (logL(; X , Z)) .
-
18
Paso M. Encontrar los parmetros que maximizan Q(|(t)
), estos es
(t+1) = argmax
Q(|(t)
).
Paso E.
Recordemos que la verosimilitud de los datos completos est dada por
L(; X , Z) = p(X , Z|) =T
i=1
g(xi|, ()1
)h(i|2 ,
2
).
Y la log verosimilitud queda de la siguiente manera
logp(X , Z|) =T
i=1
[log(g(xi|, ()1
))+ log
(h( |
2,2
))], (3.4.4)
=T
i=1
[1
2log(2pi)+
12log( )+
12log(i) i2 (xi)
2]+
T
i=1
[+2log(
2
)+(
21)log(i) i2 log
((
2
))].
Luego
p(Z|X ,) p(Z, X |)
=T
i=1
g(xi|, ()1
)h(i|2 ,
2
).
Como la distribucin Gamma es la distribucin apriori de una Normal entonces
p(Z|X ,) Gamma(i|+12 ,
[2+2(xi)2
]).
Ahora calcularemos EZ|X ,(t) (logL(; X , Z)) . De 3.4.4 tenemos que solo es ne-
-
19
cesario calcular EZ|X , (i) y EZ|X , (log(i)).Para simplificar la notacin usaremos
EZ (ni) := EZ|X , (i) , EZ (log(ni)) := EZ|X , (log(i)) .
Como i|[+1
2 ,[2 +
2 (xi)2
]] Gamma
(+1
2 ,[2 +
2 (xi)2
])entonces
EZ (i) =+1
2[2 +
2 (xi)2
] , (3.4.5)y
EZ (log(i)) = (+1
2
) log
(2+2(xi)2
), (3.4.6)
donde
(+1
2
)=
d ln(x)dx
=(x)(x)
.
As
EZ (logp(X , Z|)) =T
i=1
[1
2log(2pi)+
12log( )+
12EZ (log(i) EZ(i)2 (xi)
2]+
T
i=1
[+2log(
2
)+(
21)EZ(log(i)) EZ(i)2 log
((
2
))].
Donde las expresiones para EZ(log(i)) y EZ(i) estan dadas por 3.4.5 y 3.4.6respectivamente.
-
20
Paso M.
Caculando Q ,Q ,
Q .
Q
= EZ(i)T
i=1
(xi) = 0,
= Ti=1 xiEZ(i)Ti=1EZ(i)
.
Q
=N2
T
i=1
EZ(i)2
(xi)2 = 0,
= NTi=1
EZ(i)2 (xi )2
.
Y
Q
=12
T
i=1
(EZ(log(i))EZ(i)) N2 ((2))+N2+N2log(
2
),
Igualando a cero obtenemos
N2((2)) N
2 N
2log(
2
)=
12
T
i=1
(EZ(log(i))EZ(i)) ,
((2)) log
(2
)1 = 1
N
T
i=1
(EZ(log(i))EZ(i)) .(3.4.7)
Debido a la forma que presenta 3.4.7 es necesario encontrar el estimador de numricamente.
3.5. Regresin con distribuciones simtricas
Es comn que en los modelos de regresin lineal se asuma que la distribu-
-
21
cin de los errores, i, siga una distribucin normal. Sin embargo, puede ocurrirque el supuesto de normalidad, que nos da propiedades deseables y clculos unpoco sencillos al estimar los parmetros, no se cumpla. Por lo cual, cambiar ladistribucin de los errores puede ser una solucin al problema.
En est seccin abordaremos el problema en el cual la distribucin asociadaa los errores en un modelo de regresin pertenece a la familia de distribucionessimtricas. Como bien podemos sospechar, cambiar de distribucin a una que per-tenezca a la familia de distribuciones simtricas puede provocar que la funcinde verosimilitud cambie y en consecuencia los clculos de estimacin de los pa-rmetros se compliquen y esto hace necesario explorar diferentes mtodos parasu estimacin. Las ideas presentadas en la seccin son de inters puesto que algoanlogo podra suceder en los modelos TAR al suponer errores normales. Por locual se considera el estudio de este tipo de regresin.
Consideremos el siguiente modelo de regresin
yi = xi + i, i= 1, , . . . , n
y=
y1y2...yn
=
12...n
+
12...n
Donde y es el vector de variables de inters o respuesta, i = xi , x es el vec-
tor de datos observados de la variable explicativa y el vector de parmetros .Adems, suponemos que i tiene distribucin que pertenece a la familia de dis-tribuciones elpticas simtricas i S (0; g, ), por lo que su funcin de densidadtiene la siguiente forma
-
22
fi (x) =g(x2
) .
Denotemos por =( ,
) al vector de parmetros. La funcin de verosimi-litud se escribe como sigue
L() =n
i=1
fi((yii)2
)=
n
i=1
1g
((yii)2
)
= n2
n
i=1
g
((yii)2
)
Y la log-verosimilitud
`() =(n
2
)log()+
n
i=1
log(g(ui)) , ui =(yi xi )2
Luego, las primeras derivadas parciales respecto a y a denotadas porU (), U () son
U () =1X V (y)
U () = (2)1 {(Qv ( , )/)n}
V = diag{1, 2, . . . , n} , i =2Wg (ui) ,Wg (u) =dg(u)dug(u)
-
23
Qv ( , ) = (yX )V (yX )
La matriz que contiene las segundas derivadas de `(), que denotaremos porI, tiene la siguiente expresin
I =
(`
`
`
`
)
es
`
= 1X D1X
`
= 21X b
`
= 2(n
2+uD2u1Qv ( )
)Paula y Cysneiros(2005) desarrollan los clculos para calcular la matriz de
informacin de Fisher,
I () = E (I|)
=
(K 0
0 K
)
y obtienen la siguiente expresin
-
24
K =4dg
X X
K =n
42(4 fg1)
Donde dg = E(W 2g(Z2)Z2), fg = E
(W 2g(Z2)Z4)
con Z S (0,1). Asimismocalculan los valores dg y fgcuando tiene una distribucin t,
dg =+1
4(+3)
fg =3(+1)4(+3)
Una vez obtenida la matriz de informacin esperada de Fisher se procede a ha-cer la estimacin de los parmetros mediante un mtodo iterativo como Newton-Rapshon o Scoring de Fisher. El proceso iterativo para obtener se detalla acontinuacin en ... y se propone que
(m+1) =[X D
(v(m)
)X]1
X D(v(m)
)y
(m+1) =1nQv( (m+1), (m)
)
-
Captulo 4
Estimacin de parmetros enmodelosTAR(r; p1, ; p2, . . . , pr)
Una de las partes esenciales al hacer un modelo estadstico es la estimacin deparmetros, en el caso de los modelos SETAR con errores normales Petrucceli yWoolford(1984) hacen el clculo va mnimos cuadrados y adems demuestran suspropiedades asintticas. En modelos TAR especialmente en el caso en que se asu-men errores con distribucin t hay poco material desarrollado, uno de los artculospublicados fue elaborado por Zhang( 2011) y aborda el problema de estimacinde los parmetros del modelo TAR con r regmenes, TAR(r;p1, p2, . . . , pr), des-de el punto de vista Bayesiano y considerando que los valores de los umbrales1, 2, . . . , r1 son conocidos( basndose en el conocimiento previo que se tienedel fenmeno) y proponiendo distrbuciones a priori para los parmetros de los or-denes autorregresivos y los grados de libertad de la distribucin t. Como resultadode su estudio de simulacin para un caso particular de un TAR(2;1,1), se obtieneque la metodologa desarrollada da buenos resultados al estimar los parmetros,sin embargo el tiempo computacional es demasiado.
Recordemos que el modelo TAR(r; p1, p2, . . . pr) con variable umbral Zt1 seexpresa de la siguiente manera
25
-
26
Yt =
11Yt1+12Yt2+ . . .+1p1Ytp1 + t Zt1 1...
...
r1Yt1+r2Yt2+ . . .+rprYtpr + t r1 < Zt1 r(4.0.1)
Donde asumimos que {t} iid t . Notemos que (4.0.1) se puede reescribircomo sigue
Yt = I(Zt1 1)(
p1
i=1
1iYti
)+ . . .+ I (r1 < Zt1 r)
(pr
i=1
riYti
)+ t .
(4.0.2)Como vimos en la seccin 2, hay dos mtodos muy utilizados para la estima-
cin de parmetros en los modelos TAR: mnimos cuadrados y mxima verosimi-litud.
En este captulo nos enfocaremos en la estimacin de los parametros del mo-delo (4.0.1) va mxima verosimilitud. Posteriormente, se presentarn algunosejemplos con datos simulados donde se estimarn los parmetros suponiendo lossiguientes casos:
t , con distribucin tstudent con grados de libertad .
t con distribucin normal con media cero y varianza 2.
Lo anterior se har con la finalidad de saber si dado una serie de datos que pre-sente colas pesadas existe diferencia entre los valores estimados de los parmetrosde (4.0.2) si suponemos errores con distribucin tstudent o normal. Por ltimo,abordaremos el caso en el cual existen datos atpicos y que puede emular los com-portamientos bruscos que presentan algunas series econnimicas y se realizar elmismo procedimiento.
-
27
4.1. Estimacin mxima verosimilitud
A continuacin calcularemos la expresin de la funcin de verosimilitud de(4.0.1), que nos ser de gran utilidad para la estimacin de los parmetros delmodelo, as como tambin nos ayudar para la seleccin del modelo adecuado deuna muestra de datos observados basndonos en los criterios de informacin deAkaike y Bayesiano.
Empezaremos por plantear las ideas en un modelo TAR(2; 1,1) para luego, en elsiguiente seccin extenderlo al caso de un modelo TAR en general con r regme-nes. Consideremos que Zt1 sigue un proceso AR(1) , es decir,
Zt1 = Zt2+t , t iidN(0,2).
Sea Y = (Y1, . . . , YT ) una muestra proveniente de un TAR(2;1,1), y que usando
la representacin de (4.0.2) tiene la siguiente expresin
Yt = I (Zt1 )11Yt1+ I (Zt1 > )21Yt1+ t ,
donde la distribucin para t es tstudent con grados de libertad cuya funcinde distrbucin es:
f (x) =(+12 )(2 )
(pi
) 12(
1+ (x)2
)( +12 ).
Vamos a suponer que la distribucin de Y1 es conocida y, adems, que el procesoYt es estable. Ahora, la distribucin de Y2 condicionando a que Y1 = y1 usando elteorema de cambio de variables es
fY2|Y1 (y2|y1) =(+1
2
)(
2
)pi
(1+
(y2 (Z1 )y1+ I (Z1 > )y1) 2
) +12 1
2piexp( 1
22(Z1Z0)2
).
Notemos que la distribucin condicional de Y2 dado Y1 es el producto de una
-
28
funcin de distribucin tstudent con grado de libertad y media (Z1 )y1 +I (Z1 > )y1con una distrbucin normal con varianza 2 y media Z0.Luego, la distribucin de Y3 condicionada a Y1, Y2 empleando de nuevo el teoremade cambio de variable es
fY3|Y1,Y2 (y2|y1,,y2) =( +1
2
)(
2
)pi
(1+
(y3 (Z1 )y2+ I (Z1 > )y2)2
) +12 1
2piexp( 1
22(Z2Z1)2
).
Continuado de la manera anterior llegamos a que la distribucin de Yi condiciona-da a Yj, j = 1, 2, ..., i1. es
fYi|Y j (yi|y j) =( +1
2
)(
2
)pi
(1+
(yi (Zi1 )yi1+ I (Zi1 > )yi1)2
) +12 1
2piexp( 1
22(ZiZi1)2
).
La funcin de verosimilitud condicionada a Y1 est dada por
f (Y |Z, 11, 21, , , , ) = f (Y2|Y1) . . . f (YT |YT1,YT2...)
As, la verosimilitud condicionada a Y1 es
L(11, 21, ,, ,) = fY1T
t=2
fYt (yt |yt1, . . . , y1)
Como suponemos que el proceso es estable entonces para valores grandes de T setiene que la verosimilitud se reduce a
-
29
L(11, 21, ,, ,) =T
t=2
fYt (yt |yt1, . . . , y1)
=T
t=2
(+1
2
)(
2
)pi
(1+
(yt (Zt1 )yt1+ I (Zi1 > )yi1)2
) +12 1
2piexp( 1
22(ZiZi1)2
).
Usando el procedimiento anterior se puede extender el clculo de la verosimilitudal caso general TAR(r; p1, p2, . . . pr) . Primero, denotemos por Y al conjunto deparmetros de Yt ,
Y =(11, . . . , 1p1, . . .r1, . . .rpr ,
),
por z al conjunto de parmetros de Zt1,
Z = (, ) ,
y = (1, . . . , r1). Realizando los mismos pasos que para el caso TAR(2; 1,1) lafuncin de verosimilitud condicionada aY1, Y2, . . . , Yt.mx,t.max=maximo(p1, p2, . . . , pr)+1. queda como sigue
L(Y ,Z ;Yt , Zt1) =T
t=t.max
f (Yt |Yt1, Zt1,Z)g(Zt1|Zt2,Z) (4.1.1)
=T
t=t.max
( +1
2
)(
2
)pi
(1+
X2t
) +12(4.1.2)
1T1
exp
( 12
T
(Zt1Zt2)2). (4.1.3)
Donde
Xt =Yt[I(Ztd 1)
(p1
i=1
1iYti
)+ . . .+ I (r1 Zt1 r)
(pr
i=1
riYti
)],
El mtodo de mxima verosimilitud establece que los estimadores para Y ,Z ,
-
30
condicionando a que est fijo, son aquellos que maximizan la funcin de verosi-militud dada en (4.1.2). Regularmente es mucho ms fcil maximizar el logaritmode la verosimilitud dada en (4.1.4):
`(Y ,Z;Yt , Zt1) =T
t=t.max
log( f1 (Xt)) (4.1.4)
+T
t=t.max
log( f2 (Zt1Zt2)) (4.1.5)
Donde f1 es la funcin de densidad de una distribucin t-student con grados delibertad y f2 es la funcin de densidad de una distribucin normal con media ceroy varianza 2.Para el clculo de los parametros de Z no se presenta ninguna complicacin yaque se puede derivar la log verosimilitud respecto de cada parmetro deZ y, pos-teriormente encontrarse los estimadores mximos verosmiles de forma analticaal igual a cero dichas derivadas. De hecho, los estimadores de Z son mismos quese calcularon en el captulo 2,
= Tt=2Zt1Zt1Tt=2Z2t2
,
y
2() =1
T 1T
t=2
(Zt1 Zt2)2 .
Sin embargo, la expresin dada en (4.1.2) resulta ser intratable y difcil de derivarcon respecto a cada elemento de Y por lo que se recurrir a mtodos iterativoscomo Newton-Raphson o recocido simulado para encontrar estimadores para losparmetros Y del modelo. Como la verosimilitud no es derivable en los puntos entonces estimar el valor del o los umbrales es una tarea complicada. Una alter-nativa para la estimacin de se encuentra en Qian(1998), donde se propone que
-
31
un estimador para esinfargmin
`(Y , Z
),
como ya mencionamos en la seccin 2.
4.2. Simulaciones
En esta seccin presentaremos dos ejemplos, uno donde simularemos datos de unproceso TAR(2;1,1) y en el otro se simularan datos de un proceso TAR(2;2,2),en ambos casos se considerar que la distribucin de los errores ser tstudentcon 4 y 5 grados de libertad. Se estimarn los parmetros del proceso, mediantebootstrap se calcular la varianza de los parmetros y adems se calcularn loscuantiles q0.025 y q0.975. Primero se har la estimacin de los parmetros supo-niendo que los errores, t , tienen distribucin t-student y despus considerandoque t tiene distribucin normal.
TAR(2; 1,1) con = 5
Consideremos el siguiente proceso TAR(2; 1,1)
Yt =
0.5Yt1+ t Zt1 20.7Yt1+ t Zt1 > 2 t t5. (4.2.1)Con variable umbral
Zt1 = 0.5Zt2+t , t iidN(0,1). (4.2.2)
En los ejemplos posteriores de este captulo asumiremos que la variable umbralZt1 es un proceso autorregresivo dado por (4.2.2).Se simularon 300 datos del proceso y las grficas de Zt y de Yt se encuentran en lafigura (4.2.1) y (4.2.2) respectivamente.
-
32
0 50 100 150 200 250 300
3
1
13
Serie Zt
ZtUmbral
Figura 4.2.1: Zt1 = 0.5Zt2+t
0 50 100 150 200 250 300
6
2
26
Serie Yt
yt
ar(0.5)ar(0.7)
Figura 4.2.2: En azul el proceso Yt = 0.5Yt1+ t y en rojo Yt =0.7Yt1+ t .
Luego, la funcin de verosimilitud del proceso dado en (4.2.1) con 300 datos y
Y = (1, 2, ) , Z = (, ) ,
-
33
es
L(Y ,Z; YT , ZT1, ) =300
t=2
(+1
2
)(
2
)pi
(1+
X2t
) +12 1
299exp
( 12
299
t=2
(Zt1Zt2)2).
El calculo de los parmetros Y ,Z y se realiz de la siguiente manera:
1. Se encontr un intervalo en el cual se buscar el estimador de , dicho in-tervalo est dado por los valores mnimos y mximos de Zt que en este casofueron [2.868, 3.517].
2. Luego, se realiz una particin del 1000 puntos del intervalo anterior en loscuales iremos variando los valores de .
3. Para cada valor de la particin se calcularon los estimadores para z y Y ,as como la evaluacin de la logverosimilitud en los estimadores encontra-dos.
4. Por ltimo, se selecciona como estimador de al valor de la particin queminimiza la logverosimilitud. Y los estimadores de z y Y son aquellosque se estiman suponiendo ese valor de .
Utilizando la funcin optim de R encontramos que el valor de que minimiza lalogverosimilitud es 2.131 y en la figura 4.2.3 se encuentra los diferentes valoresdel negativo de la logverosimilitud evaluada en diferentes valores de .
-
34
3 2 1 0 1 2 3
465
475
logv
ero
sim
ilitud
Figura 4.2.3: Valor de `(Y , Z
)variando .
Y los parmetros estimados para 11, 21, suponiendo que el valor verdaderodel umbral es 2.131 fueron
1 = 0.507, 2 =0.808, = 6.97898
El resultado anterior resulta ser un estimador puntual para los parmetros del mo-delo, con el fin de dar intervalos para cada uno de los parmetros se realiza 1000simulaciones del proceso y se toman los cuantiles q0.5 y q0.95 . Mediante bootstrapse encuentra la varianza para cada uno de los parmetros. Los resultados obtenidosfueron los siguientes:
Valor real Promedio q.025 q.975 Varianza
1 0.5 0.397 0.58182 -0.7 -1.319 -0.099 5 3.659 8.982
Cuadro 4.1: Resultados obtenidos
-
35
Para hacer una comparativa se calcularon los estimadores suponiendo que en(4.2.1) los errores t siguen una distribucin normal con media 0 y varianza 2.Para lo anterior se realiz el mismo procedimiento hecho con el caso t-student ylos resultados se presentan en la siguiente tabla.
Valor real q.025 q.975 Varianza
1 0.5 0.389 0.5852 -0.7 -1.361 -0.06 5 1.127 1.480
Cuadro 4.2: Resultados obtenidos
Podemos observar de los cuadros 4.1 y 4.2 que existe ligera diferencia entrelos estimadores obtenidos.
TAR(2; 2, 2) con = 5
Ahora estudiaremos el proceso TAR(2;2,2) dado por
Yt =
1.2Yt10.4Yt2+ t Zt1 1.51.5Yt10.7Yt2+ t Zt1 1.5 t t5. (4.2.3)Su funcin de verosimilitud considerando
Y = (11, 12, 21, 22, ) , , z = (, ) ,
es
-
36
L(Y ,Z; YT , ZT1, ) =300
t=3
(+1
2
)(
2
)pi
(1+
X2t
) +12 1
299exp
( 12
299
t=2
(Zt1Zt2)2),
donde
Xt = Yt [I(Zt1 )(11Yt1+12Yt2)+ I (Zt1 > )(21Yt1+22Yt2)] .
Se simularon 300 datos de proceso 4.2.3. Las grficas de una realizacin de Yt yZt se presentan en las figuras 4.2.4 y 4.2.5 respectivamente.
0 50 100 150 200 250 300
3
1
13
Serie Zt
Zt
Umbral
Figura 4.2.4: Zt1 = 0.5Zt2+t
-
37
0 50 100 150 200 250 300
10
05
Serie Yt
yt
ar(0.5)ar(0.7)
Figura 4.2.5: En azul 1.2Yt10.4Yt2+ t y en rojo 1.5Yt10.7+ t .
Los estimadores obtenidos fueron
Valor real q.025 q.925 Varianza
11 1.2 1.072 1.31712 -0.4 -0.518 -0.26021 1.5 0.936 1.90622 -0.7 -1.055 -0.220 5 3.222 10.573
Cuadro 4.3: m
Y bajo el supuesto de normalidad en los errores se obtuvo lo siguiente
-
38
Valor real q.05 q.95 Varianza
11 1.2 1.059 1.32412 -0.4 -0.528 -0.24921 1.5 0.882 1.94322 -0.7 -1.115 -0.182 1.090 1.534
Cuadro 4.4: m
TAR(2; 1,1) con = 4
En las simulaciones anteriores se encuentran diferencias mnimas al estimar losparmetros suponiendo errores normales o t- student, razn por la cual en el si-guiente ejemplo cosideraremos el caso extremo en donde la distribucin t solocuenta con un momento, es decir cuando sus grados de libertad son 4. Tenemos elsiguiente proceso TAR(2; 1,1)
Yt =
0.7Yt1+ t Zt1 00.2Yt1+ t Zt1 0 t t4. (4.2.4)Se simularon 300 datos del proceso y las grficas de Zt y de Yt se encuentran en lafigura (4.2.1) y (4.2.7)respectivamente.
-
39
0 50 100 150 200 250 300
3
1
13
Serie Zt
Zt
Umbral
Figura 4.2.6: Zt1 = 0.5Zt2+t
0 50 100 150 200 250 300
5
05
Serie Yt
yt
ar(0.5)ar(0.7)
Figura 4.2.7: En azul el proceso Yt = 0.7Yt1+ t y en rojo Yt =0.2Yt1+ t
Se realiz el mismo procedimiento para el clculo de los parmettros hecho en elproceso TAR(2;1,1) con = 5. Los resultados se presentan en la siguiente tabla
-
40
Valor real q.025 q.975 Varianza1 0.7 0.407 0.5812 -0.2 -1.274 0.119 5 2.997 6.374
Cuadro 4.5:
Y suponiendo errores normales los resultados fueron
Valor real q.025 q.975 Varianza
1 0.7 0.400 0.5872 -0.2 -1.291 -0.034 1.204 1.727
Cuadro 4.6:
TAR(2; 2,2) con = 4
Ahora consideremos el mismo proceso TAR(2;2,2) dado en (4.2.3)
Yt =
1.2Yt10.4Yt2+ t Zt1 01.5Yt10.7Yt2+ t Zt1 0 t t4. (4.2.5)En las grficas (4.2.8)y (4.2.9) se encuentra una realizacin del proceso TAR an-terior.
-
41
0 50 100 150 200 250 300
4
2
02
4
Serie Zt
Zt
Umbral
Figura 4.2.8: Zt1 = 0.5Zt2+t
0 50 100 150 200 250 300
5
515
Serie Yt
yt
ar(1.2,0.4)ar(1.5,0.7)
Figura 4.2.9: En rojo 1.2Yt10.4Yt2+ t y en azul 1.5Yt10.7+ t
-
42
Valor real q.025 q.975 Varianza
12 1.2 1.102 1.2812 -0.4 -0.495 -0.30921 1.5 1.129 1.83222 -0.7 -1.021 -0.346 4 2.966 6.340
Cuadro 4.7: mm
Y suponiendo errores normales
q.05 q.95 Varianza
12 1.2 1.083 1.29812 -0.4 -0.505 -0.28721 1.5 1.049 1.86822 -0.7 -1.057 -0.236 1.184 1.744
Cuadro 4.8: rr
TAR(2;1,1) con datos atpicos
Como se vi en los casos de simulacin anteriores, el suponer que los errores delproceso TAR(2; p1, p2) tengan distribucin normal o tstudent no influye en losvalores obtenidos para los estimadores de los parametros del proceso. Por lo cualse consider simular casos en el que los datos presenten puntos atpicos y, de la
-
43
misma manera que en los casos anteriores se estimaron los parmetros suponiendodistribucin t y normal en los errores.Se simularon 300 datos del siguiente proceso
Yt =
0.7Yt1+ t Zt1 1.50.3Yt1+ t Zt1 1.5 t t5. (4.2.6)Una realizacin de (4.2.6 )se encuentra en la siguiente figura 4.2.10 y 4.2.11.
Figura 4.2.10: Zt1 = 0.5Zt2+t
-
44
Figura 4.2.11: En azul 0.7Yt1+ t y en rojo 0.1Yt1+ t
Posteriormente, se seleccionaron 10 datos de manera aleatoria y se les agreg unvalor aleatorio con distirbucin 4t4. En la figura 4.2.12 se muestra en color negrolos datos alterados.
Figura 4.2.12: Los puntos en negro representan los datos contnanimados.
Primero se calcularon los estimadores para ,1, 2 y suponiendo que provie-
-
45
nen de un modelo TAR(2; 1,1) con errores tstudent y luego los estimadorespara ,1, 2, suponiendo que los errores siguen una distribucin N(0,1). Losresultados obtenidos en una realizacin de (4.2.6) fueron
(, 1, 2,
)= (1.638, 3.267, 0.692,0.116)
(, 1, 2,
)= (1.393, 1.493, 1.0616, 0.489)
Como podemos observar, en el caso normal la estimacin del parmetro umbrales mala y como consecuencia tambin los estimadores para 1, 2. Se realiza-ron 1000 simulaciones y mediante bootstrap se estimaron la media y varianza delos parmetros. Los resultados para el caso tstudent se encuentran en la tablasiguiente
tstudent 1 1 Varianza
Media
Y para el caso normal
N(0,) 1 2
Varianza
Media
-
Captulo 5
Identificacin del modelo
Una parte importante cuando hacemos uso de los modelos TAR es la identi-ficacin del modelo adecuado para un conjunto de datos, del cual de antemanosabemos que el fenmeno que los genera es apropiado para este tipo de modelos.Dicha especificacin se puede hacer, a grandes rasgos, de la siguiente manera:
1. Identificar un nmero mximo de regmenes, que denotaremos por rmax.Para cada i fijo, i= 2, 3, . . . , rmax hacer los pasos 2, 3 ,4, 5.
2. Buscar posibles intervalos para los valores de cada uno de los i1 umbrales.As como tambin establecer los rdenes mximos probables, p1,max, p2,max, . . . , pi,max,de los i procesos autorregresivos.
3. Luego, para cada i-tupla, = (1, . . . , i1), fija con valores i Ii y cum-pliendo la condicin 1 < 2
-
47
6. De todos los posibles modelos
TAR(i; p1, p2, . . . , pi) , i= 1, 2, . . . , rmax
seleccionamos aquel que haga mnimo el criterio de informacin Bayesiano,Akaike o el normlizado propuesto por Tong(1990).
En las siguientes secciones desarrollaremos las ideas para identificacin del mo-delo, as como tambin presentaremos ejemplos con datos simulados en los queajustaremos un modelo TAR de acuerdo a los pasos descritos anteriormente.
5.1. Seleccin del nmero mximo de regmenesPara la seleccin del nmero mximo de regmenes, una solucin se propone
en Nieto(2005) y la cual consiste en ajustar una regresin no parmetrica tenien-do como variable de respuesta la serie Yt y como variable regresora a Zt . Despus,se grafica la funcin de regresin y en base a los diferentes comportamientos(oquiebres) que se observen entonces se proceder a proponer un nmero mximode regmenes, digamos rmax. Asimismo, usando la grfica de la regresin, tambinse puede dar una aproximacin para posibles valores de los umbrales y los cualesconsistirn en intervalos cercanos a los valores de Zt donde se observan compor-tamientos diferentes en Yt . Para ejemplificar lo anterior, consideremos el siguientemodelo TAR(3;1,1,1)
Yt =
0.1+ t Zt1
-
48
Figura 5.1.1: Proceso Zt
Figura 5.1.2: Realizacin del proceso Yt .
Al hacer la regreson no paramtrica de Yt teniendo como covariable Zt obte-nemos la siguiente grfica de la funcin de regresin
-
49
Figura 5.1.3: Regreson no paramtrica entre Yt y Zt
de donde observamos que un nmero de mximo de regmenes seran rmax =4... y los posibles intervalos para los valores de los intervalos para el isimoumbral, denotado por Ii son
I1 = [1.5, 1]I2 = [0.7,0.3]I3 = [0.3, 0.7]I4 = [1.5, 1.9]
5.2. Seleccin de los rdenes de los autorregresivosy umbrales
Asumiendo que el modelo posee i regmenes, i= 1, ,2 . . . , rmax .Como mencionamos en la seccin anterior, la grfica de la regresin no para-
mtrica nos ayuda para dar intervalos de valores en los cuales podriamos buscarlos estimadores de 1, . . . , i1 . Otra posible solucin, aunque computacional-mente menos eficiente, es homologar lo propuesto por Qian(1998) y que consisteen hacer una bsqueda ordena de los umbrales en el intervalo
[Zt , Zt
].
Ahora, fijamos = (1, . . . , i1) con valores en los intervalos correspondien-tes y considerando que 1 < 2
-
50
rosimilitud, que de acuerdo con lo hecho en el captulo anterior tiene la siguienteexpresin,
L(Y ,Z ;Yt , Zt1) =T
t=t.max
f (Yt |Yt1, Zt1,Z)g(Zt1|Zt2,Z) (5.2.1)
=T
t=t.max
( +1
2
)(
2
)pi
(1+
X2t
) +12(5.2.2)
1T1
exp
( 12
T
(Zt1Zt2)2). (5.2.3)
Donde
Xt =Yt[I(Zt1 1)
(p1
j=1
1 jYt j
)+ . . .+ I (i1 Zt1 r)
(pr
k=1
rkYtk
)],
y
t.max= maximo(p1, p2, . . . , pr)+1.
Una vez obtenida la funcin de verosimilitud, estimamos los parmetros delmodelo usando las ideas presentadas en el captulo anterior y calculamos el valordel negativo de la funcin de verosimilitud.
Luego, usando las ideas de Qian(1998) seleccionamos como estimadores de a aquel que minimice -`().
La estimacin de los ordenes, p1, , . . . , pr, de los procesos autorregresivos sepuede hacer mediante la minimizacin de los criterios AIC o BIC, cuya expresinmatemtica estn dadas por:
AIC = 2k2log(L) (5.2.4)
BIC =2log(L)+ klog(n) (5.2.5)de donde k es el nmero de parmetros, L representa la verosimilitud del mo-
delo evaluada en los parmetros estimados, y n representa el nmero de datos.Recordemos que para el TAR(2;p1 ,p2) la logverosimilitud es
`(Y ,Z;Yt , Zt1,) =T
t=max(p1, p2)
log( f1 (Xt)) (5.2.6)
+T
t=max(p1, p2)
log( f2 (Zt1Zt2)) . (5.2.7)
-
51
con
Xt = Yt[I(Zt1 )
(p1
i=1
1iYti
)+ I (Zt1 > )
(p2
i=1
2iYti
)]
y f1, f2 representando las funciones de distribucin t-student y normal estn-dar respectivamente.
As, dado un conjunto de datosY =(Y1, . . . , YT ), el mejor modelo TAR(2;p1 ,p2)que se ajusta a Y segun el criterio de Akaike o bayesiano ser aquel que minimice(5.2.4), (5.2.5) respectivamente.
En la seccin anterior calculamos los parmetros del modelo asumiento que .Para el caso en que k = 2 usaremos la funcin programada en R, estima.tar, parair probando los diferentes modelos TAR y en base a ella se program la funcinajuste.tar la cual nos calcula el AIC y BIC del modelo asumiento errores normalesy tambin si el proceso tiene errores t.
5.3. SimulacionesEn esta seccin presentaremos algunos ejemplos en donde ajustaremos mode-
los TAR(2; p1, p2) para un conjunto de datos simulados. Los modelos reales delcual provienen los datos se detallan en el cuadro 5.1 y en todos ellos considerare-mos que la variable Zt es un proceso AR(1) dado por
Zt = 0.5Zt1+t , N (0, 1)
Etiqueta 1 2 tar11_1 1 0.8 -0.1 5tar11_2 2 0.5 -0.7 5
Cuadro 5.1: Modelos para el ajuste TAR(2;1,1).
Etiqueta 11 12 21 22 tar22_1 1 1.2 -0.2 -0.3 1.4 5tar22_2 1 1.2 -0.4 0.1 -0.7 5
Cuadro 5.2: Modelos para el ajuste TAR(2;2,2)
-
52
Etiqueta 11 12 13 21 22 tar32_1 1.5 1.2 -0.4 0.1 -0.7 0.5 5tar32_2 2 5
Cuadro 5.3: Modelos para el ajusteTAR(2; 3,2)
Para el caso tar11_1 haremos el procedimiento descrito en la seccin 5.1, 5.2,mientras que para los dems casos supondremos que el nmero de regmenes estfijo con l = 2 y nos enfocaremos en la estimacin de los rdenes del modelo, enlos parmetros de los modelos autorregresivos, y los valores umbrales.
tar11_1
Modelo BIC TAR(2;1,1) 1050.994 0.9759TAR(2;2,1) 1053.284 0.9759TAR(2;1,5) 1053.627 0.9943
Cuadro 5.4: Resultados para el caso tar11_1 usando el BIC
Y los parmetros del modelo son
12 21 Real 0.8 -0.1 1 5
Estimado 0.7418 -0.1316 0.9759 3.5193
Modelo AIC TAR(2;1,5) 1027.701 0.9943TAR(2;2,5) 1028.291 0.9943TAR(2;5,1) 1028.49 0.9759
Cuadro 5.5: Resultados para el caso tar11_1 usando el BIC
Y el modelo ajustado es un TAR(2;1,5)
-
53
11 21 22 23 24 25 Real 0.8 -0.1 1 5
Estimado 0.742 -0.243 0.195 -0.15 0.105 -0.085 0.9943 3.626
Cuadro 5.6:
Para cada uno de los modelos que se presentan a continuacin se simul una seriecon 300 observaciones, y se realiz lo siguiente:
Encontramos el intervalo en el cual buscaremos los valores de los umbrales , es decir
[Zt , Zt
].
Hicimos una particin de 500 puntos de[Zt , Zt
]. Para cada punto de la
particin se alternaron los rdenes de los procesos autorregresivos, p1 =1, 2, . . . , 5, p2 = 1, 2, . . . , 5, y se calcularon los parmetros del modelo ascomo el valor del negativo de la log verosimilitud.
Se eligi como valor umbral a aquel valor de la particin que minimiz elnegativo de la log verosimilitud.
Y se eligieron p1 y p2 como aquellos valores que minimizaban el criteriode informacin de Akaike o Bayesiano.
tar11_2En la tabla 5.3 se presentan los 3 modelos con menor valor en el criterio BIC
y su respectivo umbral estimado para los datos simulados del modelo tar11_2.
Modelo BIC TAR(2;1,1) 972.964 1.9808TAR(2;1,4) 974.248 1.9684TAR(2;1,2) 974.33 1.9684
Cuadro 5.7: Resultados para el caso tar11_1 usando el BIC
De acuerdo con lo anterior, el modelo ajustado por el BIC es un TAR(2;1,1)conlos siguientes parmetros
11 21 Valor real 0.5 -0.7 2 5Estimado 0.5093 -1.033 1.9808 5.004
-
54
Mientras que en la tabla 5.3 se presenta la informacin solo que utilizando elcriterio de Akaike.
Modelo AIC TAR(2;1,5) 951.725 1.9684TAR(2;1,4) 952.026 1.9684TAR(2;2,5) 953.603 1.9684
Cuadro 5.8: Resultados para el caso tar11_1 usando el AIC
Y el modelo ajustado por el AIC es un TAR(2;1,5) con los siguientes parmetros
11 21 22 23 24 25 Valor real 0.5 -0.7 2 5Estimado 0.5035 0.7586 -1.0607 -1.7093 0.8318 0.3997 1.9684 4.9941
tar22_1
Modelo BIC TAR(2;2,2) 1006.67 0.995TAR(2;2,4) 1007.549 0.995TAR(2;3,2) 1009.419 0.995
Cuadro 5.9: Resultados BIC
11 12 21 22 Real 1.2 -0.8 -0.3 1.4 5 1
Estimado 1.205 -0.774 -0.262 1.340 4.248 0.995
Modelo AIC TAR(2;2,5) 981.365 0.995TAR(2;2,4) 981.623 0.995TAR(2;3,4) 983.228 0.995
Cuadro 5.10: Resultados AIC
11 12 21 22 23 24 25 Real 1.2 -0.8 -0.3 1.4 5
Estimado 1.206 -0.774 -0.243 1.345 0.0557 -0.101 -0.006
-
55
tar22_2
Modelo BIC TAR(2;2,2) 1012.058 0.9958TAR(2;3,2) 1015.23 0.9958TAR(2;2,4) 1015.317 0.9958
Cuadro 5.11: BIC
El modelo estimado segn el criterio Bayesiano fue TAR(2;2,2)
11 12 21 22 Real 1.2 -0.4 -0.7 0.5 5 1
Estimado 1.187 -0.375 -0.653 0.492 3.890 0.9958
Cuadro 5.12: Modelo
Modelo AIC TAR(2;2,4) 989.390 0.9958TAR(2;2,5) 989.670 0.9958TAR(2;3,5) 990.3281 0.9958
Cuadro 5.13: AIC
El modelo estimado segn el criterio Bayesiano es TAR(2;2,4) con los siguientesparmetros
11 12 21 22 23 24 Real 1.2 -0.4 -0.7 0.5 5 1
Estimado 1.186 -0.374 -0.686 0.527 0.0406 -0.090 3.998 0.995
Cuadro 5.14: Modelo
-
56
tar22_3
Modelo BIC TAR(2;3,2) 1018.926 1.448TAR(2;4,2) 1022.454 1.448TAR(2;5,2) 1023.075 1.448
Cuadro 5.15: BIC
11 12 21 22 23 Real 1.2 -0.4 0.1 -0.7 0.5 5 1.5
Estimado 1.231 -0.491 0.178 -0.643 0.460 4.483 1.448
Cuadro 5.16:
Modelo AIC TAR(2;5,2) 993.444 1.448TAR(2;3,5) 993.750 1.448TAR(2;4,5) 995.21 1.448
Cuadro 5.17: mr
11 12 13 14 15 21 22 Real 1.2 -0.4 0.1 -0.7 0.5 5 1.5
Estimado 1.232 -0.489 0.187 -0.008 -0.0087 -0.645 0.465 4.534 1.448
Cuadro 5.18: aic
-
Captulo 6
Pronsticos mediante verosimilitudpredictiva
En este captulo se realizarn los pronsticos para dos conjunto de datos( unosinttico y otro real) mediante la tcnica de verosimilitud predictiva perfil desarro-llada para modelos TAR en Russel(2005), y la cual nos permite estimar de maneraconjunta valores futuros de la serie Yt y de la variable umbral Zt . Como se ha he-cho a los largo de este trabajo, primero se realizarn los pronsticos asumiendo unmodelo TAR con errores normales y luego suponiendo que tienen errores con dis-tribucin t-student. Despus, se calcularn los errores asociados a los pronsticoy analizar si hay diferencias o no.
6.1. Verosimilitud predictiva perfil.
Comenzaremos dando las ideas de verosimilitud predictiva perfil que presenta-das en Bjrnstad(1990) para despus aplicarla a los modelos TAR bajo el supuestode errores normales y t. Supongamos que contamos con una muestra de tamao T, X = (Y1, Y2, . . . ,Yn) , y nuestro problema se centra en querer pronosticar valoresh pasos adelante, es decir X = (YT+1, YT+2, . . . , YT+h). Asumamos tambin queW = (X , X) pose una densidad de probabilidad con respecto a la medida deLesbesgue la cual denotaremos por f (w; ) con el vector de parmetros desco-nocidos, y f (X|X ; ) representa la funcin de densidad condicional a los datos
57
-
58
observados x. Sea el estimador de mxima verosimilitud para considerandolos datos conocidos x, y w el estimador considerando en conjunto los datos cono-cidos y los h datos a pronosticar, w= (x, x) . Berger y Wolpert(1984) formularonel principio de verosimilitud para prediccin asumiendo que toda evidencia acercade w= (x, x) est contenida en la funcin de verosimilitud conjunta
L(x,; x) = f (x, x) (6.1.1)
El objetivo es desarrollar una verosimilitud para x, L(x|x)eliminanando de(6.1.1). A L(x|x) se le conoce como verosimilitud predictiva. Hay muchas mane-ras de resolver el problema anterior, un ejemplo es el desarrollado por Mathiasen(1979) conocido como verosimilitud predictiva perfil y el cual consiste en eliminar mediante la maximizacin de la sigiente funcin de verosimilitud.
Lp (x|x) = Sup
f (x, x; ) = L(x,w; x
)(6.1.2)
Russel(2005) utiliza (6.1.2) para desarrollar los pronstico en el modelo TAR(2;1,1)con errores normales que detallaremos a continuacin.
6.2. Verosimilitud predictiva perfil en un modelo TAR(2;1,1)
Supongamos que se tienen T observaciones del proceso dado por
Yt = 1Yt1I(Zt1 )+2Yt1I(Zt1 > )+ t , t N(0,)
Definamos
t =
1, Zt1 2, Zt1 > As
-
59
Yt = tYt1+ t
Y queremos estimar las obervaciones T +1, T +2, . . . , T +h . Primero, denotare-mos por y=(y1, y2, . . . , yT ) a la muestra observada, por y=
(yT+1, y
T+2, . . . , y
T+h
), por Y a los parmetros de Yt , por z los parmetros de Zt y por a la variableumbral. Sea w= (y, y) y v= (z, z).Usando la notacin anterior podemos escribir la verosimilitud como
L(Y ,Z, ; w, v) =1
T+h1exp
( 1
22T+h
t=2
(wttwt1)2)
1T+h1u
exp
( 1
22u
T+h
t=2
(vtvt1)2)
Luego, la logverosimilitud es
`(Y ,Z, ; y, y, z, z) = (T +h1) log() 122T+h
t=2
(wttwt1)2
(T +h1) log(u) 122uT+h
t=2
(vtvt1)2
Derivando de ` con respecto de obtenemos que
2(y;1, 2, ) =1
T +h1T+h
t=2
(wt [1I(vt1 )+2I(vt1 > )]wt1) .2
(6.2.1)
Luego, derivando ` con respecto a 1, 2 e igualando a cero encontramos que susestimadores maximos verosmiles son
-
60
1(y;) =T+ht=2 wtI(vt1 )wt1t=2 I(Zt1 )Y 2t1
. (6.2.2)
2(y;) =T+ht=2 wtI(vt1 > )wt1T+ht=2 I(vt1 > )w
2t1
. (6.2.3)
De la misma manera obtenemos que
(z) = T+ht=2 vt1vt1T+ht=2 v
2t2
y
2(z; ) =1
T +h1T+h
t=2
(vt1 vt2)2
Sustituyendo 6.2 y 6.3 en 6.1 se llega a lo siguiente
2(y;) =1
T +h1T+h
t=2
(wt
[1I(vt1 )+ 2I(vt1 > )
]wt1
)2.
Luego la logverosimilitud perfil para (y, z) sustituyendo los estimadores ante-riores es
`p (y, z, ;y, z) = (T +h1) log(
1T +h1
T+h
t=2
(wttwt1)2)
(T +h1) log(
1T +h1
T+h
t=2
(vtvt1)2)
(T +h1) .
Y maximizar `p es equivalente a minimizar la siguiente expresin
-
61
(T +h1) log(
1T +h1
T+h
t=2
(wttwt1)2)
+(T +h1) log(
1T +h1
T+h
t=2
(vtvt1)2).
Ahora para el caso t- student se tiene la siguiente verosimilitud
L(Y ,Z , ; y, y, z, z) =T+h
t=2
f (Yt |Yt1, Zt1,Z)g(Zt1|Zt2,Z) (6.2.4)
=T+h
t=2
( +1
2
)(
2
)pi
(1+
(wt twt1)2
) +12 1
T1exp
( 12
T+h
(vt1vt2)2)
(6.2.5)
Y la funcin de log-verosimilitud es
`(Y ,Z, ; y, y, z, z) = ++
En este caso no podemos realizar el mismo procedimiento que se hace cuandosuponemos errores normales por lo que se maximizar la verosimilitud 6.2.4 demanera numrica, para as encontrar los valores de los parmetros del modelo ylos pronsticos a h pasos.
6.3. Verosimilitud predictiva perfil TAR(r; p1, p2, . . . , pr)Ahora calcularemos la verosimilitud predictiva perfil para el caso en el cual
tenemos un modelo TAR con r regmenes.
-
62
L(Y ,Z , ; y, y, z, z) =T+h
t=2
f (Yt |Yt1, Zt1,Z)g(Zt1|Zt2,Z) (6.3.1)
=T+h
t=2
( +1
2
)(
2
)pi
(1+
(wt twt1)2
) +12 1
T1exp
( 12
T+h
(vt1vt2)2)
(6.3.2)
En el caso TAR(2; p1, p2) la estimacin de los pronsticos de la serie Yt serealizar en conjunto con la estimcin de los pronsticos a h pasos de Zt y dela misma manera que lo hecho anteriormente, se minimizar numricamente lafuncin de - log verosimilitud.
6.4. Simulacin
En esta seccin presentaremos 5 ejemplos en los cuales..... En cada uno deellos vamos a suponer que el valor umbral es conocido, por lo cual no ser nece-sario estimarlo.Ejemplo 1
Se simularon 500 series de 255 datos de un proceso TAR(2;1,1) dado por
Yt = 0.5Yt1I(Zt1 1)0.7Yt1I(Zt1 > 1)+ t , t t5 (6.4.1)
Zt = 0.5Zt1+ vt , vt N(0,1)
Y donde vamos a suponer que el valor umbral es conocido. De cada simulacinse utilizaron las primeras 250 observaciones para estimar los parmetros del mo-delo y hacer los pronsticos mediante versimilitud preditiva. Las ltimas 5 parael clculo del error cuadrtico medio de pronstico (ECMP). este mismo procedi-miento haremos con los ejemplos posteriores.Una realizacin de (6.4.1) se encuentra en la figura
-
63
0 50 100 150 200 250
3
1
13
Serie Zt
ZtUmbral
Figura 6.4.1: Procesos Zt y Yt
0 50 100 150 200 250
5
05
10
Serie Yt
yt
AR(0.5)AR(0.7)
Figura 6.4.2: Proceso Yt
Y los histogramas para cada uno de los parmetros se muestran a continuacin
-
64
Errores t
b1
0.35 0.50 0.65
050
150
Errores normal
b10.35 0.50 0.65
050
150
Errores t
b2
2 0 1
050
100
150
Errores normal
b2
2 0 1
010
020
030
0
Figura 6.4.3: Histogramas de 1
Un resumen de los paretro estimados se encuentra en la siguiente tabla
Valor real Promedio 1 q0.5 q0.95 Varianzat-student 0.5 0.4989 0.4209 0.5749Normal 0.5 0.4982 0.4112 0.5826
Cuadro 6.1: Tabla de estimaciones para 1
Valor real Promedio 2 q0.5 q0.95 Varianzatstudent 0.7 0.6647 1.1351 -0.1516Normal 0.7 0.6635 1.1441 0.1565
Cuadro 6.2: Tabla de estimaciones para 2
Una grfica de los pronsticos se puede ver en la figura
h Yt yt t-student yt Normal1 -0.1482 -0.0026 2.15202 0.6670 0.7482 2.82253 -0.1022 1.2213 3.60134 -3.9480 1.7885 2.65905 -1.5140 1.4167 1.4501
Cuadro 6.3: pronsticos
-
65
230 235 240 245 250 255
4
02
t
Yt
Normalt
Figura 6.4.4: Pronsticos
Ejemplo 2
Ahora vamos a simular 500 series de 255 datos de un proceso TAR(2;1,1)dado por
Yt = 0.8Yt1I(Zt1 0)0.6Yt1I(Zt1 > 0)+ t , t t5 (6.4.2)
Ejemplo 3Simulamos 500 series de 255 datos de un proceso TAR(2;2,1)
Yt =
0.5Yt10.3Yt2+ t , Zt1 00.7Yt1+ t , Zt1 > 0 t t5 (6.4.3)Zt = 0.5Zt1+ vt , vt N(0,1)
Una simulacin del proceso es
-
66
0 50 100 150 200 250
2
02
4Serie Zt
Zt
Umbral
0 50 100 150 200 250
5
05
10
Serie Yt
yt
AR(0.5,0.3)AR(0.7)
Figura 6.4.5: Proceso
Errores t
b11
0.3 0.5 0.7
050
150
Errores normal
b11
0.3 0.5 0.7
050
150
Errores tb1
2
0.5 0.2 0.0
040
8014
0Errores normal
b12
0.5 0.2 0.0
040
8012
0
Figura 6.4.6: Histogramas para
Errores t
b21
0.9 0.6
050
150
Errores normal
b21
0.9 0.6
050
150
Figura 6.4.7:
-
67
h Yt Yt t-student Yt normal1 0.4754 0.1365 0.06612 -0.1832 0.1871 0.24073 -0.1356 -0.0836 0.14144 -0.0239 -0.1786 -0.04185 2.1236 0.0175 -0.0635
Cuadro 6.4: Pronsticos
Y una grficas de los pronsticos es
230 235 240 245 250 255
3
1
1
t
Yt
Normalt
Figura 6.4.8: Pronsticos
Ejemplo 4
Yt =
1.2Yt10.4Yt2+ t , Zt1 11.5Yt10.7Yt2+ t , Zt1 > 1 t t5 (6.4.4)Zt = 0.5Zt1+ vt , vt N(0,1)
Una realizacin del proceso se encuentra en
-
68
0 50 100 150 200 250
3
1
13
Serie Zt
ZtUmbral
Figura 6.4.9: Realizacin de Zt
0 50 100 150 200 250
5
05
10
Serie Yt
yt
ar(1.2,0.4)ar(1.50.7)
Figura 6.4.10: Realizacin de Yt
-
69
Errores t
b11
1.0 1.2 1.4
050
150
Errores normal
b11
1.0 1.2 1.40
5015
0
Errores t
b12
0.6 0.4 0.2
050
100
Errores normal
b12
0.6 0.4 0.2
050
100
150
Figura 6.4.11: Histograma de 11 y 12
Errores t
b21
1.2 1.6 2.0
050
150
Errores normal
b12
1.2 1.6 2.0
050
150
Errores tb2
2
1.2 0.6
050
150Errores normal
b22
1.2 0.6
050
150
Figura 6.4.12: Histograma de 21 y 22
Distribucin Valor real Promedio 11 q0.05 q0.95 Varianzat-student 1.2 1.199 1.1051 1.2870Normal 1.2 1.198 1.0946 1.2910
Cuadro 6.5: Tabla ejemplo 4
Distribucin Valor real promedio 12 q0.05 q0.95 Varianzat-student -0.4 -0.4001 -0.4882 -0.3013Normal -0.4 -0.4006 -0.4945 -0.2929
Cuadro 6.6: Table
-
70
Distribucin Valor real Promedio 21 q0.05 q0.95 Varianzat-student 1.5 1.4918 1.2916 1.6903Normal 1.5 1.4892 1.2754 1.7001
Cuadro 6.7: Tabla ejemplo 4
Distribucin Valor real promedio 22 q0.05 q0.95 Varianzat-student -0.7 -0.6922 -0.8823 -0.5059Normal -0.7 -0.6913 -0.8869 -0.4790
Cuadro 6.8: Table
h Yt Yt t-student Yt normal1 0.0779 0.1347 0.13842 0.2016 0.2359 0.35553 0.5183 0.3414 0.57884 -1.4225 0.4756 0.62555 -1.1939 0.4484 0.5882
Cuadro 6.9: Pronsticos
230 235 240 245 250 255
3
1
13
t
Yt
Normalt
Figura 6.4.13: Pronsticos
-
71
Ejemplo 5
Yt =
1.2Yt10.4Yt2+ t , Zt1 0.8971.5Yt10.7Yt2+ t , Zt1 > 0.897 t t5 (6.4.5)
0 50 100 150 200 250
3
1
13
Serie Zt
Zt
Umbral
Figura 6.4.14: Zt
0 50 100 150 200 250
15
5
5
Serie Yt
yt
ar(1.2,0.4)ar(1.5,0.7)
Figura 6.4.15: Yt
-
72
Errores t
b11
1.00 1.15 1.30
050
150
Errores normal
b11
1.00 1.15 1.300
5015
0
Errores t
b12
0.6 0.4 0.2
050
100
Errores normal
b12
0.6 0.4 0.2
040
8012
0
Figura 6.4.16: Histogramas de 11 y 12
Errores t
b21
1.0 1.4 1.8
050
150
Errores normal
b12
1.0 1.4 1.8
050
150
Errores tb2
2
1.0 0.6 0.2
050
150Errores normal
b22
1.0 0.6 0.2
050
150
Figura 6.4.17: Histogramas de 21 y 22
Valor real Promedio 11 q0.5 q0.95 Varianzatstudent 1.2 1.1952 1.1092 1.2886Normal 1.2 1.1940 1.0974 1.3017
Cuadro 6.10: Resultados 11
Valor real Promedio 12 q0.5 q0.95 Varianzatstudent -0.4 -0.3959 -0.4894 -0.3069Normal -0.4 -0.3969 -0.5008 -0.3005
Cuadro 6.11: 12
-
73
Valor real Promedio 21 q0.5 q0.95 Varianzatstudent 1.5 1.4945 1.3112 1.6776Normal 1.5 1.4950 1.2725 1.6978
Cuadro 6.12: 21
Valor real Promedio 22 q0.5 q0.95 Varianzatstudent -0.7 -0.6960 -0.8614 -0.5111Normal -0.7 -0.6962 -0.8805 -0.4946
Cuadro 6.13: 22
h Yt Yt t-student Yt Normal1 -7.3797 -7.489 -8.1022 -5.9328 -5.9900 -6.7123 -4.0212 -5.2162 -5.5024 -2.0436 -4.0870 -4.46185 -1.9254 -3.1965 -3.1047
Cuadro 6.14: Pronsticos
230 235 240 245 250 255
10
5
0
t
Yt
Normalt
Figura 6.4.18: Pronsticos
-
74
Ejemplo 6
Yt =
0.8Yt10.6Yt2+ t , Zt1 00.7Yt1+0.2Yt2+ t , Zt1 > 0 t t5 (6.4.6)
0 50 100 150 200 250
3
1
13
Serie Zt
Zt
Umbral
Figura 6.4.19: Grfica de una realizacin de Zt
0 50 100 150 200 250
15
5
515
Serie Yt
yt
ar(0.8,0.6)ar(0.7,0.2)
Figura 6.4.20: Grfica de una realizacin de Yt
-
75
Valor real Promedio 11 q0.5 q0.95 Varianzatstudent 0.8 0.8019 0.7402 0.869Normal 0.8 0.8037 0.7193 0.8828
Cuadro 6.15: Resultados 11
Valor real Promedio 12 q0.5 q0.95 Varianzatstudent -0.6 -0.5969 -0.6529 -0.5285Normal -0.6 -0.5911 -0.6638 -0.5102
Cuadro 6.16: 12
Valor real Promedio 11 q0.5 q0.95 Varianzatstudent -0.7 -0.6945 -0.7487 -0.6340Normal -0.7 -0.6930 -0.7552 -0.625
Cuadro 6.17: 21
Valor real Promedio 22 q0.5 q0.95 Varianzatstudent 0.2 0.1976 0.1237 0.2706Normal 0.2 0.1977 0.1183 0.2722
Cuadro 6.18: 22
Errores t
b11
0.7 0.9 1.1
050
150
Errores normal
b11
0.7 0.9 1.1
050
150
Errores t
b21
0.80 0.65
050
150
Errores normal
b12
0.80 0.65
050
150
Figura 6.4.21: Hitogramas 11 y 12
-
76
Errores t
b21
0.80 0.65
050
150
Errores normal
b12
0.80 0.650
5015
0
Errores t
b22
1.0 0.6 0.2
050
150
Errores normal
b22
1.0 0.6 0.2
050
150
Figura 6.4.22: Histogramas 21 y 22
h Yt Yt t-student Yt normal1 -0.01236 -0.0307 -0.01542 0.2265 0.1923 -0.18893 0.4903 0.1234 0.12304 -0.3908 0.0379 0.25015 -0.3069 0.0237 0.0907
Cuadro 6.19: Pronsticos
230 235 240 245 250 255
1.
00.
01.
0
t
Yt
Normalt
Figura 6.4.23: Pronsticos
-
Captulo 7
Conclusiones
Se recomendara hacer un estudio de simulacin exhaustivo como el realizadopor Russel(2005) para el caso TAR(2; 1,1)
77
-
Captulo 8
Apndice
En este apartado se presentar una descripcin de las funciones programadasen R y que fueron empleadas para la simulacin de datos, estimacin de parme-tros,clculo de los criterios de infrmacin AIC, BIC y clculo de los pronsticos.
Funcin tar2.sim
La funcin tar2.sim simula datos de un proceso TAR(2;p1, p2) donde los erro-res asociados a Yt tienen distribucin tstudent y la variable umbral, Zt , es unproceso autorregresivo de orden 1 con errores normales. Recibe los siguientes ar-gumentos (num, p1, p2, gamma, par.inf, par.sup, nu, rho, sigma), los cuales se detallan acontinuacin:
num Nmero de datos a simular.
p1 Orden del proceso autorregresivo inferior.
p2 Orden del proceso autorregresivo superior.
gamma Valor del umbral .
par.inf Parmetros del proceso autorregresivo inferior.
78
-
79
par.sup Parmetros del proceso autorregresivo superior.
nu Grados de libertad asociados a la distribucin tstudent de los erro-res.
rho Parmetro del proceso Zt .
sigma Desviacin estndar de la distirbucin de los errores de Zt .
La funcin nos devuelve una matriz X de dimensin (num3) que contiene en laprimera columna los datos simulados de Yt , en la segunda columna estn los datosdel proceso Zt y en la tercera columna se encuentra una etiqueta que nos indica siel dato Yt proviene del proceso autorregresivo inferior o superior.
Funcin estima.tar
estima.tar es una funcin que, dado un conjunto de datos (Yt , Zt) y un va-lor fijo de , estima los parmetros suponiendo que provienen de un procesoTAR(2; p1, p2). Recibe los siguientes argumentos (yt, zt, p1, p2, gamma),
yt Datos que provienen de un modelo TAR(2;p1, p2).
zt Datos de la variable umbral Zt .
p1 Orden del proceso autorregresivo inferior.
p2 Orden del proceso autorregresivo superior.
gamma Valor del umbral .
Como resultado, la funcin nos devuelve una matriz X de dimensin 2 (p1 +p2 + 2) que contiene en la primera fila el valor de la logverosimilitud evaluadaen los parmetros estimados, los valores estimados para los parmetros de los
-
80
procesos autorregresivos y el estimador de los grados de libertad, . En la segundafila contiene los mismos valores anteriores, excepto que se calculan suponiendoque los errores del proceso TAR(2; p1, p2) son normales y por lo tanto, en vez deestimar se estima la desviacin estndar de los errores, .
Funcin pronosticos.tar
La funcin pronosticos.tar estima los parmetros y los pronsticos a h pa-sos de un proceso TAR(2; p1, p2) mediante la tcnica de verosimilitud predictivaperfil. La funcin recibe los siguientes argumentos (yt, zt, gamma, p1, p2, h),
yt Conjunto de datos que provienen de un proceso TAR(2; p1, p2) .
zt Conjunto de datos de la variable umbral Zt .
gamma Valor del umbral .
p1 Orden del proceso autorregresivo inferior.
p2 Orden del proceso autorregresivo superior.
h Nmero de pronsticos a estimar.
Y nos devuelve una matriz X de dimensin 2 (p1+ p2+2h+3). En la primerafila se encuentran los estimadores de los parmetros del proceso autorregresivoinferior y superior, los grados de libertad, , el parmetro del proceso Zt , ladesviacin estndar de los errores de Zt y los h estimadores de los pronsti-cos YT+1, . . . , YT+h y ZT , ZT+1, . . . , ZT+h1. La segunda fila contiene los valoresanteriores, a excepcin que se calculan suponiendo que los errores del procesoTAR(2; p1, p2) tienen distribucin normal con media cero y varianza 2.
-
81
Funcin ajuste.tar
ajuste.tar es una funcin que, dado un conjunto de datos (Yt , Zt) y un valorfijo de , nos calcula el valor del criterio de Akaike y el criterio bayesiano supo-niendo que los datos provienen de un modelo TAR(2; p1, p2). La funcin recibelos siguientes argumentos (yt, zt, p1, p2,gamma)
yt Conjuntos de datos que provienen de un proceso TAR(2; p1, p2) .
zt Conjunto de datos de la variable umbral Zt .
p1 Orden del proceso autorregresivo inferior.
p2 Orden del proceso autorregresivo superior.
gamma Valor del umbral .
Como resultado, ajuste.tar nos devuelve una matriz X de dimensin 22 dondeen la primera fila contiene los valores del criterio de Akaike y el creterio bayesianosuponiendo que la distribucin de los errores del proceso es tstudent mientrasque la segunda fila contiene los valores del criterio de Akaike y bayesiano supo-niendo que los errores del proceso TAR(2; p1, p2). tienen distribucin normal.
-
Bibliografa
[1] Chan, K. S. (2009). Exploration of a nonlinear world. World Scientific Pu-blishing.
[2] Chan, K. S. (1993). Consistency and limiting distribution of the least squareestimation of a threshold autoregressive model. The Annals of Statistics.
[3] Cysneiros, F.(2005). Regression Models with Symmetrical Errors. Interna-tional Encyclopedia of Statistical Science .
[4] Fang, K. T., Kotz, S., and Ng, K.W. (1990). Symmetric Multivariate andRelated Distributions. Chapman & Hall.
[5] Gonzalo, J. and Pitarakis, J. (2012) Estimation and Infrence in ThresholdType Regime Switching Models.
[6] Granger, C. W. J. and Tersvirta, T. (1993). Modelling Nonlinear EconomicRelationships. Advanced Texts in Econometrics.
[7] Hansen, B. E. (1997). Inference in TAR models. Studies in Nonlinear Dyna-mics and Econometrics, Vol. 2, Num. 1.
[8] Moreno, E. C. (2010). Una aplicacin del modelo TAR en series de tiempofinancieras, Tesis de maestra.UNAL.
[9] Nieto, F. (2005), Modeling bivariate threshold autoregressive processes inthe presence of missing data, Comunications in Statistics: Theory and Met-hods 34, 905930.
[10] Cysneiros, F. and Paula, G. (2005) Restricted methods in symmetrical linearregression models. Computational Statistics & Data Analysis. 49, 689-708.
[11] Qian L. (1998). On maximum likelihood estimators for a threshold autore-gression. Journal of Statistical Planning and Inference.
82
-
83
[12] Russell, M. G. (2006) Pronsticos en modelos autorregresivos con Umbral,Tesis de Doctorado. CIMAT.
[13] Tong, H. (1983). Threshold Models in Non-linear Time Series Analysis.Springer Verlag.
[14] Tong, H. (1990). Non-linear Time Series: A Dynamical System Approach.Oxford University Press.
[15] Tsay, R. (2002). Analysis of financial time series. Wiley.
[16] Zhang, H.(2012) Estimacin de los modelos TAR cuando el proceso de rui-dos sigue una distribucin t. Comunicaciones en estadstica.