Tesis Version 1

84
Centro de Investigación en Matemáticas, A.C. ESTIMACIÓN DE PARÁMETROS Y PRONÓSTICOS EN MODELOS TAR CON ERRORES t-STUDENT Tesis Para obtener el título de: Maestría en Ciencias con Especialidad Probabilidad y Estadística Presenta: Miguel Ángel Sánchez Ovando Director de tesis: Dra. Graciela González Farías Guanajuato, Gto , Noviembre 2014.

description

Tesis ver 1

Transcript of Tesis Version 1

  • Centro de Investigacinen Matemticas, A.C.

    ESTIMACIN DE PARMETROS

    Y PRONSTICOS EN MODELOS

    TAR CON ERRORES t-STUDENT

    TesisPara obtener el ttulo de:

    Maestra en Ciencias con Especialidad

    Probabilidad y Estadstica

    Presenta:Miguel ngel Snchez Ovando

    Director de tesis:Dra. Graciela Gonzlez Faras

    Guanajuato, Gto , Noviembre 2014.

  • ndice general

    1. Introduccin 3

    2. Modelo TAR 62.1. Estimacin modelo TAR(2; 1, 1). . . . . . . . . . . . . . . . . . . 7

    2.1.1. Mnimos Cuadrados . . . . . . . . . . . . . . . . . . . . 72.1.2. Mxima Verosimilitud . . . . . . . . . . . . . . . . . . . 9

    3. Distribuciones Elpticas 123.1. Definicin de distribuciones esfricas y elpticas . . . . . . . . . . 123.2. Algunas propiedades . . . . . . . . . . . . . . . . . . . . . . . . 143.3. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14

    3.3.1. Distribucin Normal . . . . . . . . . . . . . . . . . . . . 153.3.2. Distribucin tstudent . . . . . . . . . . . . . . . . . . . 15

    3.4. Estimacin de los parmetros de la distibucin t-student por me-dio de mxima verosimilitud. . . . . . . . . . . . . . . . . . . . . 16

    3.5. Regresin con distribuciones simtricas . . . . . . . . . . . . . . 20

    4. Estimacin de parmetros en modelosTAR(r; p1, ; p2, . . . , pr) 254.1. Estimacin mxima verosimilitud . . . . . . . . . . . . . . . . . 274.2. Simulaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31

    5. Identificacin del modelo 465.1. Seleccin del nmero mximo de regmenes . . . . . . . . . . . . 475.2. Seleccin de los rdenes de los autorregresivos y umbrales . . . . 495.3. Simulaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51

    6. Pronsticos mediante verosimilitud predictiva 576.1. Verosimilitud predictiva perfil. . . . . . . . . . . . . . . . . . . . 576.2. Verosimilitud predictiva perfil en un modelo TAR(2;1,1) . . . . . 58

    1

  • 26.3. Verosimilitud predictiva perfil TAR(r; p1, p2, . . . , pr) . . . . . . . 616.4. Simulacin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62

    7. Conclusiones 77

    8. Apndice 78

  • Captulo 1

    Introduccin

    Hasta antes de finales de la decada de los 70s el estudio de las series de tiem-po se haba basado asumiendo linealidad, usando esta suposicin se propusierondiversos modelos, como por ejemplo, los autorregresivos (AR) o promedios m-viles (MA), adems, ya se contaba con una teora desarrollada para estimacin delos parmetros, intervalos de confianza para los parmetros, pronsticos, etc. Sinembargo, muchos datos pueden presentar comportamientos tales como no norma-lidad, ciclos asimtricos, relaciones no lineales con los retrasos, irreversibilidad enel tiempo, etc., los cuales son difciles de describir usando modelos lineales. Al-gunas de las caractersticas anteriores fueron detectadas en los datos de linces deCanad o en el de manchas solares, datos que abrieron el camino hacia el estudiode series de tiempo no lineales.

    De acuerdo con Tsay(2002) un modelo puramente estocstico para una serie detiempo yt es una sucesin iid que consiste de los shocks presentes y pasados,

    yt = f (t , t1, . . .).

    Donde cualquier funcin no lineal f () representa un modelo no lineal para yt .A lo largo de las ltimas cuatro dcadas este tipo de modelos han sido extensamen-te estudiado debido a su gran aplicabilidad en reas como ecologa, econometra,hidrologa, finanzas, sociologa, etc. y muchos modelos han sido propuestos entre

    3

  • 4los cuales se encuentran los modelos bilineales de Granger y Anderson, los mo-delos de Markov cambiantes de Hamilton, los modelos umbrales propuestos Tongy Lim, los modelos ARCH de Engle, entre otros.En economa, uno de los modelos no lineales ms utilizados son los modelosumbrales y la razn se debe principalmente a las caractersticas que presentan losdatos econmicos. Prueba de la popularidad y aceptacin de los modelos umbraleses la gran cantidad de artculos sobre teora y aplicaciones que se han escrito. Unbreve resumen de las publicaciones actuales se encuentra en Hansen(2011).La idea detrs de los modelos autorregresivos umbrales propuestos por Tong(1978)y Tom y Lim (1980) es la linealizacin por partes de la serie, lo cual se hace in-troduciendo una variable llamada umbral y que tiene como propsito hacer que laserie se comporte como un modelo autorregresivo dentro de cada regimen.La mayora de las veces cuando se hacen supuestos distribucionales en los mode-los autorregresivos umbrales, se asume que los errores tienen distribucin normalcon cierta media y varianza 2. Como bien sabemos, el uso de la distribucinnormal en los errores suele ser muy restrictivo y presenta problemas con datos quetienen colas pesadas, como por ejemplo, datos financieros.

    Una idea para solucionar este tipo de problemas podra ser emular lo hechoen anlisis de regresin, que para atacar los problemas de no normalidad una al-ternativa es cambiar la distribucin asociada al proceso de errores a una clase dedistribuciones ms amplia como pueden ser las distribuciones elpticas.

    Para resolver la problemtica con datos que presentan colas pesadas, Zhang(2011)propone que los errores tengan una distribucin t-student y adopta un enfoque ba-yesiano para la estimacin de los parmetros suponiendo que se conocen los pa-rmetros de la variable umbral y el valor umbral. Como resultado de su estudio desimulacin obtiene buenos resultados en la estimacin de los parametros del mo-delo bajo el supuesto que los errores del modelo siguen una distribucin t-studentde 5 grados de libertad, sin embargo no realizan comparaciones suponiendo erro-res normales ni pronsticos.

    En el presente trabajo vamos a suponer que los errores del modelo TAR tienen unadistribucin que pertenece a la famlia elptica y como caso especial nos enfocare-

  • 5mos a la t-student. Haremos la estimacin de los parmetros mediante el mtodode mxima verosimilitud, suponiendo adicionalmente que la variable umbral si-gue un modelo autorregresivo de orden 1.El modificar la distribucin de lo errores de una distribucin normal a una distribu-cin t nos ayuda para poder describir mejor datos que presentan colas pesadas. Sinembargo, la verosimilitud se vuelve intratable analticamente por lo que se tendrque recurrir a mtodos de optimizacin para encontrar los estimadores mximosverosmiles. (Resumen de los capitulos y lo que se pretende ver)

    El trabajo de tesis tiene la siguiente estructura: En el Captulo 2 daremos la de-finicin del modelo TAR y nos centraremos en la estimacin de parmetros parael caso TAR(2;1,1) por medio de mnimos cuadrados y mxima verosimilitud. Enel captulo 3 se presentar la definicin, propiedades y ejemplos de las distribu-ciones elpticas. Asimismo mostraremos la tcnicas usadas para la estimacin deparmetros de la distribucin t-student multivariada y el modelo de regresin conerrores con distribuciones esfricas. Posteriormente, en el captulo 4 calcularemosla funcinde verosimilitud para el caso del modelo TAR con r regmenes y erro-res t y se estimarn los parmetros mediante el mtodo de mxima verosimilitud,se harn algunas simulaciones y se presentar una comparacin con el caso deTAR con errores normales. En el captulo 5 abordaremos el problema de la iden-tificacin del modelo y haremos uso de los criterios de Akaike y Bayesiano pararesolverlo. Se darn algunos ejemplos simulados para su ajuste. Por ltimo, en elcaptulo 6 haremos los pronsticos mediante verosimilitud predictiva perfil y sehar un estudio de simulacin comparandolo con los TAR con errores normales.

  • Captulo 2

    Modelo TAR

    Los modelos autorregresivos umbrales (o simplemente TAR por sus siglas en in-gls) fueron publicados por primera vez en el artculo de Tong y Lim(1980), "Th-reshold Autoregression, Limit Cycles and Cyclical data" y surgen de la idea de quesi una serie no es lineal en el tiempo, entonces podemos hacer que tenga compor-tamiento lineal por pedazos donde la dinmica de la serie estar dada por algunaotra variable llamada umbral y esta puede estar dada por retrasos de la mismaserie o alguna otra serie exgena. El comportamiento anterior se puede ver, porejemplo, en las poblaciones de animales donde hay ciertas fases de contraccin yexpansin o en economa cuando la inflacin supera cierto valor crtico, lo cualafecta al comportamiento de las tasas de inters.Estos modelos han tenido gran aceptacin debido a su fcil interpretacin y ade-ms de que son capaces de considerar diferentes comportamiento de la serie encada rgimen como funcin de una variable umbral, donde cada comportamientose activa cuando la variable umbral cruza un valor crtico llamado valor umbral.Formalmente, un modelo TAR se define como sigue

    Definicin 1. Sea Y = (Y1, Y2, . . . , YT )el vector de datos observados con condi-ciones iniciales (Y0, Y1, . . . , Yp+1). Decimos que la serie de tiempo Yt sigue unmodelo TAR(r; p1, . . . , pr) con variable umbral Ztd y r regmenes si Yt puedeexpresarse de la siguiente manera

    6

  • 7Yt = 0,k+pk

    i=1

    i,kYti+ k,t si k1 Ztd < k, (2.0.1)

    donde k= 1, 2, . . . , r. Los nmeros reales k satisfacen= 0 < 1 . . . < r = y forman una particin del espacio de estado de Ztd , y el intervalo (k1, k] serefieren al k-simo rgimen del modelo . Los errores

    {k,t}

    forman una sucesinde variables aleatorias independientes con cierta distribucin D, con media cero yvarianza 2. Adems, {i,t} es independiente de

    { j,t}

    para i 6= j. El nmero d esun entero positivo y se conoce como retardo de la variable umbral Zt .

    A lo largo de este trabajo vamos a suponer que el nmero de retardos d es cono-cido.

    2.1. Estimacin modelo TAR(2; 1, 1).

    La estimacin de los parmetros en los modelos TAR es uno de los problemasque ha sido estudiado en diversos artculos como en Hansen(1997). A continua-cin presentaremos las tcnicas utilizadas en la estimacin de los parmetros delmodelo dado en la ecuacin (2.0.1) suponiendo que r = 2, d = 1, es decir, unmodelo TAR(2; 1, 1) el cual se puede escribir como

    Yt =

    1Yt1+ t si Zt1 2Yt1+ t si Zt1 > , t iidN(0,2). (2.1.1)Para la estimacin usaremos dos mtodos diferentes: el mtodo de mnimos cua-drados y mxima verosimilitud.

    2.1.1. Mnimos Cuadrados

    Para la estimacin de los parmetros del modelo TAR(2; 1,1) vamos a suponerque el proceso estacionario y ergdico, adems, asumiremos que los errores {t}

  • 8y la variable umbral Ztd son independientes. Sea = (1, 2, 2) el vectorde parmetros a estimar y consideremos fijo el parmetro umbral dado en 2.2.Entonces, el estimador de mnimos cuadrados condicional para est dado poraquellos valores que minimizan lo siguiente

    S=T

    t=1

    (YtE(Yt |Ft1,))2

    DondeFt1 = (Ys|s t1), que se interpreta como toda la informacin pasadadel proceso. Notemos que

    E(Yt |Ft1,) = E ([1I(Zt1 )+2I(Zt1 > )]Yt1+ t ]|Ft1,) ,= [1I(Zt1 )+2I(Zt1 > )]Yt1.

    El estimador para 1 est dado por

    S1

    =Tt=1 (YtE(Yt |Ft1,))2

    1,

    =Tt=1

    (Y 2t 2YtE(Yt |Ft1,)+E(Yt |Ft1,)2

    )1

    ,

    =T

    t=1

    (2YtI(Zt1 )Yt1+21I(Zt1 )Y 2t1) ,De donde obtenemos

    1() =Tt=1YtI(Zt1 )Yt1

    I(Zt1 )Y 2t1.

    Anlogamente, se llega a que el estimador para 2 es

  • 92() =Tt=1YtI(Zt1 )Yt1

    I(Zt1 )Y 2t1.

    Y el estimador para 2 tiene la siguiente expresin

    2() =1T

    T

    i=1

    e2.

    Donde e= YtE(Yt |Ft1; 1(), 2()).Petruccelli y Woolford (1984) demuestran que los estimadores obtenidos para1, 2, 2 mediante mnimos cuadrados, suponiendo fijo y Zt1 = Yt1, sonconsistentes.

    2.1.2. Mxima Verosimilitud

    Notemos que el modelo TAR(2; 1, 1) dado en 2.2 se puede reescribir como

    Yt = [1I(Zt1 )+2I(Zt1 > )]Yt1+ t (2.1.2)= h(Yt1, Zt1; 1, 2, 2, , , 2u )+ t , (2.1.3)

    donde h() = [1I(Zt1 )+2I(Zt1 > )]Yt1. Supongamos que el procesoZt1 es un AR(1) estacionario, es decir,

    Zt1 = Zt2+ut , ut iidN(0,2u ). (2.1.4)

    Y asumimos que t es independiente de Zt1.

    Dadas las observaciones Y1, Y2, ..., YT y Z0, Z1, ..., ZT1 de los procesos (2.1.2) y(2.1.4), se tiene que la verosimilitud esta dada de la siguiente manera

  • 10

    L(1, 2, 2, , , 2u ; Yt , Zt1

    )=

    T

    i=2

    f(Yt |Yt1, Zt1;1, 2, , 2

    )g(Zt1|Zt2;, 2u ) ,

    =1

    T1exp

    { 1

    22T

    t=2

    (YttYt1)2}

    1T1u

    exp

    { 1

    22u

    T

    t=2

    (Zt1Zt2)2}.

    Con t = [1I(Zt1 )+2I(Zt1 > )]Y la log versomilitud como

    `(1, 2, 2, , , 2u ; Yt , Zt1

    )= (T 1)log() 1

    22T

    t=2

    (YttYt1)2

    +(T 1)log(u) 122uT

    t=2

    (Zt1Zt2)2 .

    Derivando ` con respecto a 2 e igualando a cero se obtiene que

    2(1, 2, ) =1

    T 1T

    t=2

    (Yt [1I(Zt1 )+2I(Zt1 > )]Yt1) .2 (2.1.5)

    Luego, derivando ` con respecto a 1, 2 e igualando a cero encontramos que susestimadores maximos verosmiles son

    1() =Tt=1YtI(Zt1 )Yt1

    I(Zt1 )Y 2t1. (2.1.6)

  • 11

    2() =Tt=1YtI(Zt1 )Yt1

    I(Zt1 )Y 2t1. (2.1.7)

    De la misma manera, los estimadores mximos verosmiles para 2u y son

    = Tt=2Zt1Zt1Tt=2Z2t2

    y

    2u () =1

    T 1T

    t=2

    (Zt1 Zt2)2

    Sustituyendo 2.7 y 2.8 en 2.6 se llega a que el estimador mximo verosimil para2 como funcin del parmetro umbral , es

    2() =1

    T 1T

    t=2

    (Yt

    [1I(Zt1 )+ 2I(Zt1 > )

    ]Yt1

    )2.

    Notemos que no podemos derivar la verosimilitud con respecto a debido a queno es continua en los puntos Z0, ..., ZT . Una solucin al problema anterior estdada en Qian(1998) donde propone utilizar como el valor que cumpla

    inf arg min

    T 12

    log

    [1

    T 1T

    t=2

    (Yt

    [1I(Zt1 )+ 2I(Zt1 > )

    ]Yt1

    )2].

    Otra solucin se presenta en NietoEn Russel(2006) puede verse que los estimadores obtenidos para 1, 2, , , , uusando mxima verosimilitud son consistentes.

  • Captulo 3

    Distribuciones Elpticas

    En este captulo daremos una breve revisin a las distribuciones elpticas, sudefinicin, algunas propiedades y ejemplos. Adems, presentaremos las metodo-logas utilizadas en la estimacin de parmetros para la distribucin t-student mul-tivariada y para modelos de regresin con distribuciones esfricas. Lo anterior nosdar ideas de posibles soluciones utilizadas ante la no normalidad y colas pesadasde datos, as como tambin un panorama sobre las tcnicas y problemticas quese ocasionan al cambiar de una distribucin normal a otra, como por ejemplo unadistribucin tstudent.

    3.1. Definicin de distribuciones esfricas y elpticas

    Las distribuciones elpticas se presentan como una extensin a la clase de dis-tribuciones normales multivariadas y las cuales nos permiten atacar problemascomo la no normalidad o colas pesadas en los datos, pero sin embargo mantenin-donos dentro de una familia de distribuciones simtricas.

    Fang(1990) define a las distribuciones elpticas usando la relacin que existe conlas distribuciones esfricas. Por lo tanto, comenzaremos dando la definicin de lasdistribuciones esfricas.

    12

  • 13

    Definicin 2. Un vector aleatorio x de dimensin n1 se dice que tiene distribu-cin esfrica simtrica o simplemente distribucin esfrica si para todo O(n),

    x d= x,

    donde O(n) denota el conjunto de matrices ortogonales nn.Geomtricamente la definicin anterior nos dice que una distribuciones esfricaes invariante bajo rotaciones.El siguiente teorema dado en Fang(1990) nos ayuda a saber que distribucionespertenecen a esta familia fijndonos en su funcin caracterstica, (t).

    Teorema 3. Un vector n dimensional tiene distribucin esfrica si y slo si sufuncin caracterstica (t) satisface una de las siguientes condiciones equivalen-tes

    (i) (t) = (t) para cualquier O(n).(ii) Existe una funcin () de una variable escalar tal que (t) = (tt).

    Escribiremos t Sn() que siginifica que t tiene distribucin esfrica con fun-cin caracterstica de la forma (tTt) donde () es una funcin de variable escalarllamada el generador caracterstico de la distribucin. Con base a la definicin an-terior se caracteriza a las distribuciones elpticas de la siguiente manera,

    Definicin 4. Se dice que un vector aleatorio x de dimensin n1 tiene distribu-cin elptica con parmetros n1 y nn si

    x = +Ay, y Sk().

    Donde Akn, AA = con rang() = k. Escribiremos x ECn(, ;).

  • 14

    3.2. Algunas propiedades

    Dos propiedades que poseen las distribuciones elpticas semejantes a las dis-tribuciones normales se enuncian en los teoremas (5) y (6).

    Teorema 5. Si x ECn(, ; ) con rango() = k, B es una matriz de dimensinnm, y v es un vector n1 entonces

    v+Bx EC(v+B, BB, ;).

    Otra propiedad importante es que todas las distribuciones marginales de las distri-buciones elpticas tambin pertenecen a esta familia. Ms formalmente tenemosel siguiente teorema.

    Teorema. Si x ECn(, ;) y particionado como

    x =

    [x1x2

    ], =

    [12

    ],

    [k1

    (n k)1

    ]

    =

    [11 1221 22

    ],

    [k k k (n k)

    (n k) k (n k) (n k)

    ].

    Entonces x1 EC(1, 12;) y x2 EC(2, 22;).

    3.3. Ejemplos

    En lo siguiente presentaremos dos ejemplos de distribuciones conocidas quepertenecen a la familia de distribuciones elpticas.

  • 15

    3.3.1. Distribucin Normal

    La distribucin normal multivariada es una de las distribuciones que pertene-cen a las distribuciones elpticas, para comprobarlo primero demostraremos quela distribucin normal estndar multivariada es parte de la familia de distribucio-nes esfricas y posteriormente utilizando resultados de combinaciones lineales seobtiene lo deseado.Consideremos x = (x1, x2, ..., xn) N(0, In), como la funcin caracterstica dex1 es exp( t22 ), entonces la funcin caracterstica de x es

    exp(12(t21+ t

    22+ ...+ t

    2n)) = exp(

    12

    tt),

    de 3 se llega a que x tiene distribucin esfrica, Sn(), con generador caracterstico(u) = exp(u/2).Recordemos que si x tiene distribucin nomal multivariada Nn(, ) entonces sepuede descomponer de la siguiente manera:

    x d= +Ay

    donde Rn, y Nm(0, In) y Amn con = AA. Como se tiene que y Sn()con (u) = exp(u2) entonces x ECn(, , ).3.3.2. Distribucin tstudent

    Sea z Nn(0, In) y s m independientes y sea

    y= m12

    zs

    Entonces decimos que y tiene distribucin t-multivariada con m grados de libertady escribimos Mtn(m,0, I :n).Ahora sea

    x = +Ay

    Donde Rn y A es de dimensin nn. Entonces decimos que x tiene distribu-cin t-multivariada con parmetros , =AA, m grados de libertad y escribimos

  • 16

    xMtn(m, , ,).Para darnos una idea de los problemas que se podrian presentar en la estimacinde los parmetros del modelo TAR suponiendo errores t , se revisaron las tcnicasusadas en la estimacin de los parmetros va mxima verosimilitud de los pa-rmetros de la distribucin t multivariada dadas en Liu(1995) y en la estimacinde los parmetros de un modelo regresin lineal con errores t dadas en Cysnei-ros(2005). Liu propone utilizar un algoritmo EM mientras que Cysneiros sugiereemplear el mtodo Scoring de Fisher.

    3.4. Estimacin de los parmetros de la distibucint-student por medio de mxima verosimilitud.

    Est seccin presentaremos la estimacin de los parmetros de una distribu-cin t-student por medio del mtodo mxima verosimilitud.

    Recordemos que la funcin de densidad de la distirbucin t-student con parmetrode localizacin , parmetro de escala , y grados de libertad est dada por

    f (x|, , ) = (+1

    2 )

    (2 )

    (pi

    ) 12(

    1+ (x)2

    )( +12 ). (3.4.1)

    Denotemos por=(, ,) al vector de parmetros. La funcin de verosimilituddadas T observaciones iid de una distribucin t es

    L(; X = (x1, x2, xT )) = p(|X) =T

    i=1

    f (xi|). (3.4.2)

    Encontrar el estimador mximo verosmil para suele resultar muy complicadopor la forma que presenta la verosimilitud. Debido a lo anterior se han a escri-to algunos artculos, como por ejemplo Aeschliman(2000) o Liu(1995), donde sepresentan diferentes mtodos para la estimacin de los parmetros para . A con-tinuacin presentamos la idea dada en Scheffer(2000) donde propone utilizar el

  • 17

    hecho de que la distribucin t se puede ver como una mezcla de distribucionespara posteriormente aplicar el algoritmo EM.Notemos que 3.4.1 se puede escribir como:

    f (x|, , ) =

    0g(x|, ()1

    )h( |

    2,2

    )d ,

    donde

    g(x|, ()1

    )=

    12pi ()1

    exp( 1

    2()1(x)2

    ),

    h( |

    2,2

    )=

    1(

    2

    ) (2

    ) 2

    21e

    2 .

    Es decir, la distribucin t se puede ver como mezcla infinita de distribucionesNormal

    (, ()1

    )con distribucin mezclante o latente Gamma

    (2 ,

    2

    ). De lo

    anterior, tenemos que la verosimilitud de los datos completos est dada por lasiguiente expresin

    L(; X , Z) = p(X , Z|) =T

    i=1

    g(xi|, ()1

    )h(i|2 ,

    2

    ). (3.4.3)

    Donde Z = (1, . . . , T ) y las i son variables latente y p(|X) =Z p(X , Z|) .

    Recordemos que el algoritmo EM busca encontrar el EMV para aplicando ite-rativamente los siguientes dos pasos pasos hasta que se cumpla un criterio deconvergencia:

    Paso E. Calcular el valor esperado de la funcin de log verosimilitud conrespecto a la distribucin condicional de Z dado X bajo el actual estimadorde parmetros (t)

    Q(|(t)

    )= EZ|X ,(t) (logL(; X , Z)) .

  • 18

    Paso M. Encontrar los parmetros que maximizan Q(|(t)

    ), estos es

    (t+1) = argmax

    Q(|(t)

    ).

    Paso E.

    Recordemos que la verosimilitud de los datos completos est dada por

    L(; X , Z) = p(X , Z|) =T

    i=1

    g(xi|, ()1

    )h(i|2 ,

    2

    ).

    Y la log verosimilitud queda de la siguiente manera

    logp(X , Z|) =T

    i=1

    [log(g(xi|, ()1

    ))+ log

    (h( |

    2,2

    ))], (3.4.4)

    =T

    i=1

    [1

    2log(2pi)+

    12log( )+

    12log(i) i2 (xi)

    2]+

    T

    i=1

    [+2log(

    2

    )+(

    21)log(i) i2 log

    ((

    2

    ))].

    Luego

    p(Z|X ,) p(Z, X |)

    =T

    i=1

    g(xi|, ()1

    )h(i|2 ,

    2

    ).

    Como la distribucin Gamma es la distribucin apriori de una Normal entonces

    p(Z|X ,) Gamma(i|+12 ,

    [2+2(xi)2

    ]).

    Ahora calcularemos EZ|X ,(t) (logL(; X , Z)) . De 3.4.4 tenemos que solo es ne-

  • 19

    cesario calcular EZ|X , (i) y EZ|X , (log(i)).Para simplificar la notacin usaremos

    EZ (ni) := EZ|X , (i) , EZ (log(ni)) := EZ|X , (log(i)) .

    Como i|[+1

    2 ,[2 +

    2 (xi)2

    ]] Gamma

    (+1

    2 ,[2 +

    2 (xi)2

    ])entonces

    EZ (i) =+1

    2[2 +

    2 (xi)2

    ] , (3.4.5)y

    EZ (log(i)) = (+1

    2

    ) log

    (2+2(xi)2

    ), (3.4.6)

    donde

    (+1

    2

    )=

    d ln(x)dx

    =(x)(x)

    .

    As

    EZ (logp(X , Z|)) =T

    i=1

    [1

    2log(2pi)+

    12log( )+

    12EZ (log(i) EZ(i)2 (xi)

    2]+

    T

    i=1

    [+2log(

    2

    )+(

    21)EZ(log(i)) EZ(i)2 log

    ((

    2

    ))].

    Donde las expresiones para EZ(log(i)) y EZ(i) estan dadas por 3.4.5 y 3.4.6respectivamente.

  • 20

    Paso M.

    Caculando Q ,Q ,

    Q .

    Q

    = EZ(i)T

    i=1

    (xi) = 0,

    = Ti=1 xiEZ(i)Ti=1EZ(i)

    .

    Q

    =N2

    T

    i=1

    EZ(i)2

    (xi)2 = 0,

    = NTi=1

    EZ(i)2 (xi )2

    .

    Y

    Q

    =12

    T

    i=1

    (EZ(log(i))EZ(i)) N2 ((2))+N2+N2log(

    2

    ),

    Igualando a cero obtenemos

    N2((2)) N

    2 N

    2log(

    2

    )=

    12

    T

    i=1

    (EZ(log(i))EZ(i)) ,

    ((2)) log

    (2

    )1 = 1

    N

    T

    i=1

    (EZ(log(i))EZ(i)) .(3.4.7)

    Debido a la forma que presenta 3.4.7 es necesario encontrar el estimador de numricamente.

    3.5. Regresin con distribuciones simtricas

    Es comn que en los modelos de regresin lineal se asuma que la distribu-

  • 21

    cin de los errores, i, siga una distribucin normal. Sin embargo, puede ocurrirque el supuesto de normalidad, que nos da propiedades deseables y clculos unpoco sencillos al estimar los parmetros, no se cumpla. Por lo cual, cambiar ladistribucin de los errores puede ser una solucin al problema.

    En est seccin abordaremos el problema en el cual la distribucin asociadaa los errores en un modelo de regresin pertenece a la familia de distribucionessimtricas. Como bien podemos sospechar, cambiar de distribucin a una que per-tenezca a la familia de distribuciones simtricas puede provocar que la funcinde verosimilitud cambie y en consecuencia los clculos de estimacin de los pa-rmetros se compliquen y esto hace necesario explorar diferentes mtodos parasu estimacin. Las ideas presentadas en la seccin son de inters puesto que algoanlogo podra suceder en los modelos TAR al suponer errores normales. Por locual se considera el estudio de este tipo de regresin.

    Consideremos el siguiente modelo de regresin

    yi = xi + i, i= 1, , . . . , n

    y=

    y1y2...yn

    =

    12...n

    +

    12...n

    Donde y es el vector de variables de inters o respuesta, i = xi , x es el vec-

    tor de datos observados de la variable explicativa y el vector de parmetros .Adems, suponemos que i tiene distribucin que pertenece a la familia de dis-tribuciones elpticas simtricas i S (0; g, ), por lo que su funcin de densidadtiene la siguiente forma

  • 22

    fi (x) =g(x2

    ) .

    Denotemos por =( ,

    ) al vector de parmetros. La funcin de verosimi-litud se escribe como sigue

    L() =n

    i=1

    fi((yii)2

    )=

    n

    i=1

    1g

    ((yii)2

    )

    = n2

    n

    i=1

    g

    ((yii)2

    )

    Y la log-verosimilitud

    `() =(n

    2

    )log()+

    n

    i=1

    log(g(ui)) , ui =(yi xi )2

    Luego, las primeras derivadas parciales respecto a y a denotadas porU (), U () son

    U () =1X V (y)

    U () = (2)1 {(Qv ( , )/)n}

    V = diag{1, 2, . . . , n} , i =2Wg (ui) ,Wg (u) =dg(u)dug(u)

  • 23

    Qv ( , ) = (yX )V (yX )

    La matriz que contiene las segundas derivadas de `(), que denotaremos porI, tiene la siguiente expresin

    I =

    (`

    `

    `

    `

    )

    es

    `

    = 1X D1X

    `

    = 21X b

    `

    = 2(n

    2+uD2u1Qv ( )

    )Paula y Cysneiros(2005) desarrollan los clculos para calcular la matriz de

    informacin de Fisher,

    I () = E (I|)

    =

    (K 0

    0 K

    )

    y obtienen la siguiente expresin

  • 24

    K =4dg

    X X

    K =n

    42(4 fg1)

    Donde dg = E(W 2g(Z2)Z2), fg = E

    (W 2g(Z2)Z4)

    con Z S (0,1). Asimismocalculan los valores dg y fgcuando tiene una distribucin t,

    dg =+1

    4(+3)

    fg =3(+1)4(+3)

    Una vez obtenida la matriz de informacin esperada de Fisher se procede a ha-cer la estimacin de los parmetros mediante un mtodo iterativo como Newton-Rapshon o Scoring de Fisher. El proceso iterativo para obtener se detalla acontinuacin en ... y se propone que

    (m+1) =[X D

    (v(m)

    )X]1

    X D(v(m)

    )y

    (m+1) =1nQv( (m+1), (m)

    )

  • Captulo 4

    Estimacin de parmetros enmodelosTAR(r; p1, ; p2, . . . , pr)

    Una de las partes esenciales al hacer un modelo estadstico es la estimacin deparmetros, en el caso de los modelos SETAR con errores normales Petrucceli yWoolford(1984) hacen el clculo va mnimos cuadrados y adems demuestran suspropiedades asintticas. En modelos TAR especialmente en el caso en que se asu-men errores con distribucin t hay poco material desarrollado, uno de los artculospublicados fue elaborado por Zhang( 2011) y aborda el problema de estimacinde los parmetros del modelo TAR con r regmenes, TAR(r;p1, p2, . . . , pr), des-de el punto de vista Bayesiano y considerando que los valores de los umbrales1, 2, . . . , r1 son conocidos( basndose en el conocimiento previo que se tienedel fenmeno) y proponiendo distrbuciones a priori para los parmetros de los or-denes autorregresivos y los grados de libertad de la distribucin t. Como resultadode su estudio de simulacin para un caso particular de un TAR(2;1,1), se obtieneque la metodologa desarrollada da buenos resultados al estimar los parmetros,sin embargo el tiempo computacional es demasiado.

    Recordemos que el modelo TAR(r; p1, p2, . . . pr) con variable umbral Zt1 seexpresa de la siguiente manera

    25

  • 26

    Yt =

    11Yt1+12Yt2+ . . .+1p1Ytp1 + t Zt1 1...

    ...

    r1Yt1+r2Yt2+ . . .+rprYtpr + t r1 < Zt1 r(4.0.1)

    Donde asumimos que {t} iid t . Notemos que (4.0.1) se puede reescribircomo sigue

    Yt = I(Zt1 1)(

    p1

    i=1

    1iYti

    )+ . . .+ I (r1 < Zt1 r)

    (pr

    i=1

    riYti

    )+ t .

    (4.0.2)Como vimos en la seccin 2, hay dos mtodos muy utilizados para la estima-

    cin de parmetros en los modelos TAR: mnimos cuadrados y mxima verosimi-litud.

    En este captulo nos enfocaremos en la estimacin de los parametros del mo-delo (4.0.1) va mxima verosimilitud. Posteriormente, se presentarn algunosejemplos con datos simulados donde se estimarn los parmetros suponiendo lossiguientes casos:

    t , con distribucin tstudent con grados de libertad .

    t con distribucin normal con media cero y varianza 2.

    Lo anterior se har con la finalidad de saber si dado una serie de datos que pre-sente colas pesadas existe diferencia entre los valores estimados de los parmetrosde (4.0.2) si suponemos errores con distribucin tstudent o normal. Por ltimo,abordaremos el caso en el cual existen datos atpicos y que puede emular los com-portamientos bruscos que presentan algunas series econnimicas y se realizar elmismo procedimiento.

  • 27

    4.1. Estimacin mxima verosimilitud

    A continuacin calcularemos la expresin de la funcin de verosimilitud de(4.0.1), que nos ser de gran utilidad para la estimacin de los parmetros delmodelo, as como tambin nos ayudar para la seleccin del modelo adecuado deuna muestra de datos observados basndonos en los criterios de informacin deAkaike y Bayesiano.

    Empezaremos por plantear las ideas en un modelo TAR(2; 1,1) para luego, en elsiguiente seccin extenderlo al caso de un modelo TAR en general con r regme-nes. Consideremos que Zt1 sigue un proceso AR(1) , es decir,

    Zt1 = Zt2+t , t iidN(0,2).

    Sea Y = (Y1, . . . , YT ) una muestra proveniente de un TAR(2;1,1), y que usando

    la representacin de (4.0.2) tiene la siguiente expresin

    Yt = I (Zt1 )11Yt1+ I (Zt1 > )21Yt1+ t ,

    donde la distribucin para t es tstudent con grados de libertad cuya funcinde distrbucin es:

    f (x) =(+12 )(2 )

    (pi

    ) 12(

    1+ (x)2

    )( +12 ).

    Vamos a suponer que la distribucin de Y1 es conocida y, adems, que el procesoYt es estable. Ahora, la distribucin de Y2 condicionando a que Y1 = y1 usando elteorema de cambio de variables es

    fY2|Y1 (y2|y1) =(+1

    2

    )(

    2

    )pi

    (1+

    (y2 (Z1 )y1+ I (Z1 > )y1) 2

    ) +12 1

    2piexp( 1

    22(Z1Z0)2

    ).

    Notemos que la distribucin condicional de Y2 dado Y1 es el producto de una

  • 28

    funcin de distribucin tstudent con grado de libertad y media (Z1 )y1 +I (Z1 > )y1con una distrbucin normal con varianza 2 y media Z0.Luego, la distribucin de Y3 condicionada a Y1, Y2 empleando de nuevo el teoremade cambio de variable es

    fY3|Y1,Y2 (y2|y1,,y2) =( +1

    2

    )(

    2

    )pi

    (1+

    (y3 (Z1 )y2+ I (Z1 > )y2)2

    ) +12 1

    2piexp( 1

    22(Z2Z1)2

    ).

    Continuado de la manera anterior llegamos a que la distribucin de Yi condiciona-da a Yj, j = 1, 2, ..., i1. es

    fYi|Y j (yi|y j) =( +1

    2

    )(

    2

    )pi

    (1+

    (yi (Zi1 )yi1+ I (Zi1 > )yi1)2

    ) +12 1

    2piexp( 1

    22(ZiZi1)2

    ).

    La funcin de verosimilitud condicionada a Y1 est dada por

    f (Y |Z, 11, 21, , , , ) = f (Y2|Y1) . . . f (YT |YT1,YT2...)

    As, la verosimilitud condicionada a Y1 es

    L(11, 21, ,, ,) = fY1T

    t=2

    fYt (yt |yt1, . . . , y1)

    Como suponemos que el proceso es estable entonces para valores grandes de T setiene que la verosimilitud se reduce a

  • 29

    L(11, 21, ,, ,) =T

    t=2

    fYt (yt |yt1, . . . , y1)

    =T

    t=2

    (+1

    2

    )(

    2

    )pi

    (1+

    (yt (Zt1 )yt1+ I (Zi1 > )yi1)2

    ) +12 1

    2piexp( 1

    22(ZiZi1)2

    ).

    Usando el procedimiento anterior se puede extender el clculo de la verosimilitudal caso general TAR(r; p1, p2, . . . pr) . Primero, denotemos por Y al conjunto deparmetros de Yt ,

    Y =(11, . . . , 1p1, . . .r1, . . .rpr ,

    ),

    por z al conjunto de parmetros de Zt1,

    Z = (, ) ,

    y = (1, . . . , r1). Realizando los mismos pasos que para el caso TAR(2; 1,1) lafuncin de verosimilitud condicionada aY1, Y2, . . . , Yt.mx,t.max=maximo(p1, p2, . . . , pr)+1. queda como sigue

    L(Y ,Z ;Yt , Zt1) =T

    t=t.max

    f (Yt |Yt1, Zt1,Z)g(Zt1|Zt2,Z) (4.1.1)

    =T

    t=t.max

    ( +1

    2

    )(

    2

    )pi

    (1+

    X2t

    ) +12(4.1.2)

    1T1

    exp

    ( 12

    T

    (Zt1Zt2)2). (4.1.3)

    Donde

    Xt =Yt[I(Ztd 1)

    (p1

    i=1

    1iYti

    )+ . . .+ I (r1 Zt1 r)

    (pr

    i=1

    riYti

    )],

    El mtodo de mxima verosimilitud establece que los estimadores para Y ,Z ,

  • 30

    condicionando a que est fijo, son aquellos que maximizan la funcin de verosi-militud dada en (4.1.2). Regularmente es mucho ms fcil maximizar el logaritmode la verosimilitud dada en (4.1.4):

    `(Y ,Z;Yt , Zt1) =T

    t=t.max

    log( f1 (Xt)) (4.1.4)

    +T

    t=t.max

    log( f2 (Zt1Zt2)) (4.1.5)

    Donde f1 es la funcin de densidad de una distribucin t-student con grados delibertad y f2 es la funcin de densidad de una distribucin normal con media ceroy varianza 2.Para el clculo de los parametros de Z no se presenta ninguna complicacin yaque se puede derivar la log verosimilitud respecto de cada parmetro deZ y, pos-teriormente encontrarse los estimadores mximos verosmiles de forma analticaal igual a cero dichas derivadas. De hecho, los estimadores de Z son mismos quese calcularon en el captulo 2,

    = Tt=2Zt1Zt1Tt=2Z2t2

    ,

    y

    2() =1

    T 1T

    t=2

    (Zt1 Zt2)2 .

    Sin embargo, la expresin dada en (4.1.2) resulta ser intratable y difcil de derivarcon respecto a cada elemento de Y por lo que se recurrir a mtodos iterativoscomo Newton-Raphson o recocido simulado para encontrar estimadores para losparmetros Y del modelo. Como la verosimilitud no es derivable en los puntos entonces estimar el valor del o los umbrales es una tarea complicada. Una alter-nativa para la estimacin de se encuentra en Qian(1998), donde se propone que

  • 31

    un estimador para esinfargmin

    `(Y , Z

    ),

    como ya mencionamos en la seccin 2.

    4.2. Simulaciones

    En esta seccin presentaremos dos ejemplos, uno donde simularemos datos de unproceso TAR(2;1,1) y en el otro se simularan datos de un proceso TAR(2;2,2),en ambos casos se considerar que la distribucin de los errores ser tstudentcon 4 y 5 grados de libertad. Se estimarn los parmetros del proceso, mediantebootstrap se calcular la varianza de los parmetros y adems se calcularn loscuantiles q0.025 y q0.975. Primero se har la estimacin de los parmetros supo-niendo que los errores, t , tienen distribucin t-student y despus considerandoque t tiene distribucin normal.

    TAR(2; 1,1) con = 5

    Consideremos el siguiente proceso TAR(2; 1,1)

    Yt =

    0.5Yt1+ t Zt1 20.7Yt1+ t Zt1 > 2 t t5. (4.2.1)Con variable umbral

    Zt1 = 0.5Zt2+t , t iidN(0,1). (4.2.2)

    En los ejemplos posteriores de este captulo asumiremos que la variable umbralZt1 es un proceso autorregresivo dado por (4.2.2).Se simularon 300 datos del proceso y las grficas de Zt y de Yt se encuentran en lafigura (4.2.1) y (4.2.2) respectivamente.

  • 32

    0 50 100 150 200 250 300

    3

    1

    13

    Serie Zt

    ZtUmbral

    Figura 4.2.1: Zt1 = 0.5Zt2+t

    0 50 100 150 200 250 300

    6

    2

    26

    Serie Yt

    yt

    ar(0.5)ar(0.7)

    Figura 4.2.2: En azul el proceso Yt = 0.5Yt1+ t y en rojo Yt =0.7Yt1+ t .

    Luego, la funcin de verosimilitud del proceso dado en (4.2.1) con 300 datos y

    Y = (1, 2, ) , Z = (, ) ,

  • 33

    es

    L(Y ,Z; YT , ZT1, ) =300

    t=2

    (+1

    2

    )(

    2

    )pi

    (1+

    X2t

    ) +12 1

    299exp

    ( 12

    299

    t=2

    (Zt1Zt2)2).

    El calculo de los parmetros Y ,Z y se realiz de la siguiente manera:

    1. Se encontr un intervalo en el cual se buscar el estimador de , dicho in-tervalo est dado por los valores mnimos y mximos de Zt que en este casofueron [2.868, 3.517].

    2. Luego, se realiz una particin del 1000 puntos del intervalo anterior en loscuales iremos variando los valores de .

    3. Para cada valor de la particin se calcularon los estimadores para z y Y ,as como la evaluacin de la logverosimilitud en los estimadores encontra-dos.

    4. Por ltimo, se selecciona como estimador de al valor de la particin queminimiza la logverosimilitud. Y los estimadores de z y Y son aquellosque se estiman suponiendo ese valor de .

    Utilizando la funcin optim de R encontramos que el valor de que minimiza lalogverosimilitud es 2.131 y en la figura 4.2.3 se encuentra los diferentes valoresdel negativo de la logverosimilitud evaluada en diferentes valores de .

  • 34

    3 2 1 0 1 2 3

    465

    475

    logv

    ero

    sim

    ilitud

    Figura 4.2.3: Valor de `(Y , Z

    )variando .

    Y los parmetros estimados para 11, 21, suponiendo que el valor verdaderodel umbral es 2.131 fueron

    1 = 0.507, 2 =0.808, = 6.97898

    El resultado anterior resulta ser un estimador puntual para los parmetros del mo-delo, con el fin de dar intervalos para cada uno de los parmetros se realiza 1000simulaciones del proceso y se toman los cuantiles q0.5 y q0.95 . Mediante bootstrapse encuentra la varianza para cada uno de los parmetros. Los resultados obtenidosfueron los siguientes:

    Valor real Promedio q.025 q.975 Varianza

    1 0.5 0.397 0.58182 -0.7 -1.319 -0.099 5 3.659 8.982

    Cuadro 4.1: Resultados obtenidos

  • 35

    Para hacer una comparativa se calcularon los estimadores suponiendo que en(4.2.1) los errores t siguen una distribucin normal con media 0 y varianza 2.Para lo anterior se realiz el mismo procedimiento hecho con el caso t-student ylos resultados se presentan en la siguiente tabla.

    Valor real q.025 q.975 Varianza

    1 0.5 0.389 0.5852 -0.7 -1.361 -0.06 5 1.127 1.480

    Cuadro 4.2: Resultados obtenidos

    Podemos observar de los cuadros 4.1 y 4.2 que existe ligera diferencia entrelos estimadores obtenidos.

    TAR(2; 2, 2) con = 5

    Ahora estudiaremos el proceso TAR(2;2,2) dado por

    Yt =

    1.2Yt10.4Yt2+ t Zt1 1.51.5Yt10.7Yt2+ t Zt1 1.5 t t5. (4.2.3)Su funcin de verosimilitud considerando

    Y = (11, 12, 21, 22, ) , , z = (, ) ,

    es

  • 36

    L(Y ,Z; YT , ZT1, ) =300

    t=3

    (+1

    2

    )(

    2

    )pi

    (1+

    X2t

    ) +12 1

    299exp

    ( 12

    299

    t=2

    (Zt1Zt2)2),

    donde

    Xt = Yt [I(Zt1 )(11Yt1+12Yt2)+ I (Zt1 > )(21Yt1+22Yt2)] .

    Se simularon 300 datos de proceso 4.2.3. Las grficas de una realizacin de Yt yZt se presentan en las figuras 4.2.4 y 4.2.5 respectivamente.

    0 50 100 150 200 250 300

    3

    1

    13

    Serie Zt

    Zt

    Umbral

    Figura 4.2.4: Zt1 = 0.5Zt2+t

  • 37

    0 50 100 150 200 250 300

    10

    05

    Serie Yt

    yt

    ar(0.5)ar(0.7)

    Figura 4.2.5: En azul 1.2Yt10.4Yt2+ t y en rojo 1.5Yt10.7+ t .

    Los estimadores obtenidos fueron

    Valor real q.025 q.925 Varianza

    11 1.2 1.072 1.31712 -0.4 -0.518 -0.26021 1.5 0.936 1.90622 -0.7 -1.055 -0.220 5 3.222 10.573

    Cuadro 4.3: m

    Y bajo el supuesto de normalidad en los errores se obtuvo lo siguiente

  • 38

    Valor real q.05 q.95 Varianza

    11 1.2 1.059 1.32412 -0.4 -0.528 -0.24921 1.5 0.882 1.94322 -0.7 -1.115 -0.182 1.090 1.534

    Cuadro 4.4: m

    TAR(2; 1,1) con = 4

    En las simulaciones anteriores se encuentran diferencias mnimas al estimar losparmetros suponiendo errores normales o t- student, razn por la cual en el si-guiente ejemplo cosideraremos el caso extremo en donde la distribucin t solocuenta con un momento, es decir cuando sus grados de libertad son 4. Tenemos elsiguiente proceso TAR(2; 1,1)

    Yt =

    0.7Yt1+ t Zt1 00.2Yt1+ t Zt1 0 t t4. (4.2.4)Se simularon 300 datos del proceso y las grficas de Zt y de Yt se encuentran en lafigura (4.2.1) y (4.2.7)respectivamente.

  • 39

    0 50 100 150 200 250 300

    3

    1

    13

    Serie Zt

    Zt

    Umbral

    Figura 4.2.6: Zt1 = 0.5Zt2+t

    0 50 100 150 200 250 300

    5

    05

    Serie Yt

    yt

    ar(0.5)ar(0.7)

    Figura 4.2.7: En azul el proceso Yt = 0.7Yt1+ t y en rojo Yt =0.2Yt1+ t

    Se realiz el mismo procedimiento para el clculo de los parmettros hecho en elproceso TAR(2;1,1) con = 5. Los resultados se presentan en la siguiente tabla

  • 40

    Valor real q.025 q.975 Varianza1 0.7 0.407 0.5812 -0.2 -1.274 0.119 5 2.997 6.374

    Cuadro 4.5:

    Y suponiendo errores normales los resultados fueron

    Valor real q.025 q.975 Varianza

    1 0.7 0.400 0.5872 -0.2 -1.291 -0.034 1.204 1.727

    Cuadro 4.6:

    TAR(2; 2,2) con = 4

    Ahora consideremos el mismo proceso TAR(2;2,2) dado en (4.2.3)

    Yt =

    1.2Yt10.4Yt2+ t Zt1 01.5Yt10.7Yt2+ t Zt1 0 t t4. (4.2.5)En las grficas (4.2.8)y (4.2.9) se encuentra una realizacin del proceso TAR an-terior.

  • 41

    0 50 100 150 200 250 300

    4

    2

    02

    4

    Serie Zt

    Zt

    Umbral

    Figura 4.2.8: Zt1 = 0.5Zt2+t

    0 50 100 150 200 250 300

    5

    515

    Serie Yt

    yt

    ar(1.2,0.4)ar(1.5,0.7)

    Figura 4.2.9: En rojo 1.2Yt10.4Yt2+ t y en azul 1.5Yt10.7+ t

  • 42

    Valor real q.025 q.975 Varianza

    12 1.2 1.102 1.2812 -0.4 -0.495 -0.30921 1.5 1.129 1.83222 -0.7 -1.021 -0.346 4 2.966 6.340

    Cuadro 4.7: mm

    Y suponiendo errores normales

    q.05 q.95 Varianza

    12 1.2 1.083 1.29812 -0.4 -0.505 -0.28721 1.5 1.049 1.86822 -0.7 -1.057 -0.236 1.184 1.744

    Cuadro 4.8: rr

    TAR(2;1,1) con datos atpicos

    Como se vi en los casos de simulacin anteriores, el suponer que los errores delproceso TAR(2; p1, p2) tengan distribucin normal o tstudent no influye en losvalores obtenidos para los estimadores de los parametros del proceso. Por lo cualse consider simular casos en el que los datos presenten puntos atpicos y, de la

  • 43

    misma manera que en los casos anteriores se estimaron los parmetros suponiendodistribucin t y normal en los errores.Se simularon 300 datos del siguiente proceso

    Yt =

    0.7Yt1+ t Zt1 1.50.3Yt1+ t Zt1 1.5 t t5. (4.2.6)Una realizacin de (4.2.6 )se encuentra en la siguiente figura 4.2.10 y 4.2.11.

    Figura 4.2.10: Zt1 = 0.5Zt2+t

  • 44

    Figura 4.2.11: En azul 0.7Yt1+ t y en rojo 0.1Yt1+ t

    Posteriormente, se seleccionaron 10 datos de manera aleatoria y se les agreg unvalor aleatorio con distirbucin 4t4. En la figura 4.2.12 se muestra en color negrolos datos alterados.

    Figura 4.2.12: Los puntos en negro representan los datos contnanimados.

    Primero se calcularon los estimadores para ,1, 2 y suponiendo que provie-

  • 45

    nen de un modelo TAR(2; 1,1) con errores tstudent y luego los estimadorespara ,1, 2, suponiendo que los errores siguen una distribucin N(0,1). Losresultados obtenidos en una realizacin de (4.2.6) fueron

    (, 1, 2,

    )= (1.638, 3.267, 0.692,0.116)

    (, 1, 2,

    )= (1.393, 1.493, 1.0616, 0.489)

    Como podemos observar, en el caso normal la estimacin del parmetro umbrales mala y como consecuencia tambin los estimadores para 1, 2. Se realiza-ron 1000 simulaciones y mediante bootstrap se estimaron la media y varianza delos parmetros. Los resultados para el caso tstudent se encuentran en la tablasiguiente

    tstudent 1 1 Varianza

    Media

    Y para el caso normal

    N(0,) 1 2

    Varianza

    Media

  • Captulo 5

    Identificacin del modelo

    Una parte importante cuando hacemos uso de los modelos TAR es la identi-ficacin del modelo adecuado para un conjunto de datos, del cual de antemanosabemos que el fenmeno que los genera es apropiado para este tipo de modelos.Dicha especificacin se puede hacer, a grandes rasgos, de la siguiente manera:

    1. Identificar un nmero mximo de regmenes, que denotaremos por rmax.Para cada i fijo, i= 2, 3, . . . , rmax hacer los pasos 2, 3 ,4, 5.

    2. Buscar posibles intervalos para los valores de cada uno de los i1 umbrales.As como tambin establecer los rdenes mximos probables, p1,max, p2,max, . . . , pi,max,de los i procesos autorregresivos.

    3. Luego, para cada i-tupla, = (1, . . . , i1), fija con valores i Ii y cum-pliendo la condicin 1 < 2

  • 47

    6. De todos los posibles modelos

    TAR(i; p1, p2, . . . , pi) , i= 1, 2, . . . , rmax

    seleccionamos aquel que haga mnimo el criterio de informacin Bayesiano,Akaike o el normlizado propuesto por Tong(1990).

    En las siguientes secciones desarrollaremos las ideas para identificacin del mo-delo, as como tambin presentaremos ejemplos con datos simulados en los queajustaremos un modelo TAR de acuerdo a los pasos descritos anteriormente.

    5.1. Seleccin del nmero mximo de regmenesPara la seleccin del nmero mximo de regmenes, una solucin se propone

    en Nieto(2005) y la cual consiste en ajustar una regresin no parmetrica tenien-do como variable de respuesta la serie Yt y como variable regresora a Zt . Despus,se grafica la funcin de regresin y en base a los diferentes comportamientos(oquiebres) que se observen entonces se proceder a proponer un nmero mximode regmenes, digamos rmax. Asimismo, usando la grfica de la regresin, tambinse puede dar una aproximacin para posibles valores de los umbrales y los cualesconsistirn en intervalos cercanos a los valores de Zt donde se observan compor-tamientos diferentes en Yt . Para ejemplificar lo anterior, consideremos el siguientemodelo TAR(3;1,1,1)

    Yt =

    0.1+ t Zt1

  • 48

    Figura 5.1.1: Proceso Zt

    Figura 5.1.2: Realizacin del proceso Yt .

    Al hacer la regreson no paramtrica de Yt teniendo como covariable Zt obte-nemos la siguiente grfica de la funcin de regresin

  • 49

    Figura 5.1.3: Regreson no paramtrica entre Yt y Zt

    de donde observamos que un nmero de mximo de regmenes seran rmax =4... y los posibles intervalos para los valores de los intervalos para el isimoumbral, denotado por Ii son

    I1 = [1.5, 1]I2 = [0.7,0.3]I3 = [0.3, 0.7]I4 = [1.5, 1.9]

    5.2. Seleccin de los rdenes de los autorregresivosy umbrales

    Asumiendo que el modelo posee i regmenes, i= 1, ,2 . . . , rmax .Como mencionamos en la seccin anterior, la grfica de la regresin no para-

    mtrica nos ayuda para dar intervalos de valores en los cuales podriamos buscarlos estimadores de 1, . . . , i1 . Otra posible solucin, aunque computacional-mente menos eficiente, es homologar lo propuesto por Qian(1998) y que consisteen hacer una bsqueda ordena de los umbrales en el intervalo

    [Zt , Zt

    ].

    Ahora, fijamos = (1, . . . , i1) con valores en los intervalos correspondien-tes y considerando que 1 < 2

  • 50

    rosimilitud, que de acuerdo con lo hecho en el captulo anterior tiene la siguienteexpresin,

    L(Y ,Z ;Yt , Zt1) =T

    t=t.max

    f (Yt |Yt1, Zt1,Z)g(Zt1|Zt2,Z) (5.2.1)

    =T

    t=t.max

    ( +1

    2

    )(

    2

    )pi

    (1+

    X2t

    ) +12(5.2.2)

    1T1

    exp

    ( 12

    T

    (Zt1Zt2)2). (5.2.3)

    Donde

    Xt =Yt[I(Zt1 1)

    (p1

    j=1

    1 jYt j

    )+ . . .+ I (i1 Zt1 r)

    (pr

    k=1

    rkYtk

    )],

    y

    t.max= maximo(p1, p2, . . . , pr)+1.

    Una vez obtenida la funcin de verosimilitud, estimamos los parmetros delmodelo usando las ideas presentadas en el captulo anterior y calculamos el valordel negativo de la funcin de verosimilitud.

    Luego, usando las ideas de Qian(1998) seleccionamos como estimadores de a aquel que minimice -`().

    La estimacin de los ordenes, p1, , . . . , pr, de los procesos autorregresivos sepuede hacer mediante la minimizacin de los criterios AIC o BIC, cuya expresinmatemtica estn dadas por:

    AIC = 2k2log(L) (5.2.4)

    BIC =2log(L)+ klog(n) (5.2.5)de donde k es el nmero de parmetros, L representa la verosimilitud del mo-

    delo evaluada en los parmetros estimados, y n representa el nmero de datos.Recordemos que para el TAR(2;p1 ,p2) la logverosimilitud es

    `(Y ,Z;Yt , Zt1,) =T

    t=max(p1, p2)

    log( f1 (Xt)) (5.2.6)

    +T

    t=max(p1, p2)

    log( f2 (Zt1Zt2)) . (5.2.7)

  • 51

    con

    Xt = Yt[I(Zt1 )

    (p1

    i=1

    1iYti

    )+ I (Zt1 > )

    (p2

    i=1

    2iYti

    )]

    y f1, f2 representando las funciones de distribucin t-student y normal estn-dar respectivamente.

    As, dado un conjunto de datosY =(Y1, . . . , YT ), el mejor modelo TAR(2;p1 ,p2)que se ajusta a Y segun el criterio de Akaike o bayesiano ser aquel que minimice(5.2.4), (5.2.5) respectivamente.

    En la seccin anterior calculamos los parmetros del modelo asumiento que .Para el caso en que k = 2 usaremos la funcin programada en R, estima.tar, parair probando los diferentes modelos TAR y en base a ella se program la funcinajuste.tar la cual nos calcula el AIC y BIC del modelo asumiento errores normalesy tambin si el proceso tiene errores t.

    5.3. SimulacionesEn esta seccin presentaremos algunos ejemplos en donde ajustaremos mode-

    los TAR(2; p1, p2) para un conjunto de datos simulados. Los modelos reales delcual provienen los datos se detallan en el cuadro 5.1 y en todos ellos considerare-mos que la variable Zt es un proceso AR(1) dado por

    Zt = 0.5Zt1+t , N (0, 1)

    Etiqueta 1 2 tar11_1 1 0.8 -0.1 5tar11_2 2 0.5 -0.7 5

    Cuadro 5.1: Modelos para el ajuste TAR(2;1,1).

    Etiqueta 11 12 21 22 tar22_1 1 1.2 -0.2 -0.3 1.4 5tar22_2 1 1.2 -0.4 0.1 -0.7 5

    Cuadro 5.2: Modelos para el ajuste TAR(2;2,2)

  • 52

    Etiqueta 11 12 13 21 22 tar32_1 1.5 1.2 -0.4 0.1 -0.7 0.5 5tar32_2 2 5

    Cuadro 5.3: Modelos para el ajusteTAR(2; 3,2)

    Para el caso tar11_1 haremos el procedimiento descrito en la seccin 5.1, 5.2,mientras que para los dems casos supondremos que el nmero de regmenes estfijo con l = 2 y nos enfocaremos en la estimacin de los rdenes del modelo, enlos parmetros de los modelos autorregresivos, y los valores umbrales.

    tar11_1

    Modelo BIC TAR(2;1,1) 1050.994 0.9759TAR(2;2,1) 1053.284 0.9759TAR(2;1,5) 1053.627 0.9943

    Cuadro 5.4: Resultados para el caso tar11_1 usando el BIC

    Y los parmetros del modelo son

    12 21 Real 0.8 -0.1 1 5

    Estimado 0.7418 -0.1316 0.9759 3.5193

    Modelo AIC TAR(2;1,5) 1027.701 0.9943TAR(2;2,5) 1028.291 0.9943TAR(2;5,1) 1028.49 0.9759

    Cuadro 5.5: Resultados para el caso tar11_1 usando el BIC

    Y el modelo ajustado es un TAR(2;1,5)

  • 53

    11 21 22 23 24 25 Real 0.8 -0.1 1 5

    Estimado 0.742 -0.243 0.195 -0.15 0.105 -0.085 0.9943 3.626

    Cuadro 5.6:

    Para cada uno de los modelos que se presentan a continuacin se simul una seriecon 300 observaciones, y se realiz lo siguiente:

    Encontramos el intervalo en el cual buscaremos los valores de los umbrales , es decir

    [Zt , Zt

    ].

    Hicimos una particin de 500 puntos de[Zt , Zt

    ]. Para cada punto de la

    particin se alternaron los rdenes de los procesos autorregresivos, p1 =1, 2, . . . , 5, p2 = 1, 2, . . . , 5, y se calcularon los parmetros del modelo ascomo el valor del negativo de la log verosimilitud.

    Se eligi como valor umbral a aquel valor de la particin que minimiz elnegativo de la log verosimilitud.

    Y se eligieron p1 y p2 como aquellos valores que minimizaban el criteriode informacin de Akaike o Bayesiano.

    tar11_2En la tabla 5.3 se presentan los 3 modelos con menor valor en el criterio BIC

    y su respectivo umbral estimado para los datos simulados del modelo tar11_2.

    Modelo BIC TAR(2;1,1) 972.964 1.9808TAR(2;1,4) 974.248 1.9684TAR(2;1,2) 974.33 1.9684

    Cuadro 5.7: Resultados para el caso tar11_1 usando el BIC

    De acuerdo con lo anterior, el modelo ajustado por el BIC es un TAR(2;1,1)conlos siguientes parmetros

    11 21 Valor real 0.5 -0.7 2 5Estimado 0.5093 -1.033 1.9808 5.004

  • 54

    Mientras que en la tabla 5.3 se presenta la informacin solo que utilizando elcriterio de Akaike.

    Modelo AIC TAR(2;1,5) 951.725 1.9684TAR(2;1,4) 952.026 1.9684TAR(2;2,5) 953.603 1.9684

    Cuadro 5.8: Resultados para el caso tar11_1 usando el AIC

    Y el modelo ajustado por el AIC es un TAR(2;1,5) con los siguientes parmetros

    11 21 22 23 24 25 Valor real 0.5 -0.7 2 5Estimado 0.5035 0.7586 -1.0607 -1.7093 0.8318 0.3997 1.9684 4.9941

    tar22_1

    Modelo BIC TAR(2;2,2) 1006.67 0.995TAR(2;2,4) 1007.549 0.995TAR(2;3,2) 1009.419 0.995

    Cuadro 5.9: Resultados BIC

    11 12 21 22 Real 1.2 -0.8 -0.3 1.4 5 1

    Estimado 1.205 -0.774 -0.262 1.340 4.248 0.995

    Modelo AIC TAR(2;2,5) 981.365 0.995TAR(2;2,4) 981.623 0.995TAR(2;3,4) 983.228 0.995

    Cuadro 5.10: Resultados AIC

    11 12 21 22 23 24 25 Real 1.2 -0.8 -0.3 1.4 5

    Estimado 1.206 -0.774 -0.243 1.345 0.0557 -0.101 -0.006

  • 55

    tar22_2

    Modelo BIC TAR(2;2,2) 1012.058 0.9958TAR(2;3,2) 1015.23 0.9958TAR(2;2,4) 1015.317 0.9958

    Cuadro 5.11: BIC

    El modelo estimado segn el criterio Bayesiano fue TAR(2;2,2)

    11 12 21 22 Real 1.2 -0.4 -0.7 0.5 5 1

    Estimado 1.187 -0.375 -0.653 0.492 3.890 0.9958

    Cuadro 5.12: Modelo

    Modelo AIC TAR(2;2,4) 989.390 0.9958TAR(2;2,5) 989.670 0.9958TAR(2;3,5) 990.3281 0.9958

    Cuadro 5.13: AIC

    El modelo estimado segn el criterio Bayesiano es TAR(2;2,4) con los siguientesparmetros

    11 12 21 22 23 24 Real 1.2 -0.4 -0.7 0.5 5 1

    Estimado 1.186 -0.374 -0.686 0.527 0.0406 -0.090 3.998 0.995

    Cuadro 5.14: Modelo

  • 56

    tar22_3

    Modelo BIC TAR(2;3,2) 1018.926 1.448TAR(2;4,2) 1022.454 1.448TAR(2;5,2) 1023.075 1.448

    Cuadro 5.15: BIC

    11 12 21 22 23 Real 1.2 -0.4 0.1 -0.7 0.5 5 1.5

    Estimado 1.231 -0.491 0.178 -0.643 0.460 4.483 1.448

    Cuadro 5.16:

    Modelo AIC TAR(2;5,2) 993.444 1.448TAR(2;3,5) 993.750 1.448TAR(2;4,5) 995.21 1.448

    Cuadro 5.17: mr

    11 12 13 14 15 21 22 Real 1.2 -0.4 0.1 -0.7 0.5 5 1.5

    Estimado 1.232 -0.489 0.187 -0.008 -0.0087 -0.645 0.465 4.534 1.448

    Cuadro 5.18: aic

  • Captulo 6

    Pronsticos mediante verosimilitudpredictiva

    En este captulo se realizarn los pronsticos para dos conjunto de datos( unosinttico y otro real) mediante la tcnica de verosimilitud predictiva perfil desarro-llada para modelos TAR en Russel(2005), y la cual nos permite estimar de maneraconjunta valores futuros de la serie Yt y de la variable umbral Zt . Como se ha he-cho a los largo de este trabajo, primero se realizarn los pronsticos asumiendo unmodelo TAR con errores normales y luego suponiendo que tienen errores con dis-tribucin t-student. Despus, se calcularn los errores asociados a los pronsticoy analizar si hay diferencias o no.

    6.1. Verosimilitud predictiva perfil.

    Comenzaremos dando las ideas de verosimilitud predictiva perfil que presenta-das en Bjrnstad(1990) para despus aplicarla a los modelos TAR bajo el supuestode errores normales y t. Supongamos que contamos con una muestra de tamao T, X = (Y1, Y2, . . . ,Yn) , y nuestro problema se centra en querer pronosticar valoresh pasos adelante, es decir X = (YT+1, YT+2, . . . , YT+h). Asumamos tambin queW = (X , X) pose una densidad de probabilidad con respecto a la medida deLesbesgue la cual denotaremos por f (w; ) con el vector de parmetros desco-nocidos, y f (X|X ; ) representa la funcin de densidad condicional a los datos

    57

  • 58

    observados x. Sea el estimador de mxima verosimilitud para considerandolos datos conocidos x, y w el estimador considerando en conjunto los datos cono-cidos y los h datos a pronosticar, w= (x, x) . Berger y Wolpert(1984) formularonel principio de verosimilitud para prediccin asumiendo que toda evidencia acercade w= (x, x) est contenida en la funcin de verosimilitud conjunta

    L(x,; x) = f (x, x) (6.1.1)

    El objetivo es desarrollar una verosimilitud para x, L(x|x)eliminanando de(6.1.1). A L(x|x) se le conoce como verosimilitud predictiva. Hay muchas mane-ras de resolver el problema anterior, un ejemplo es el desarrollado por Mathiasen(1979) conocido como verosimilitud predictiva perfil y el cual consiste en eliminar mediante la maximizacin de la sigiente funcin de verosimilitud.

    Lp (x|x) = Sup

    f (x, x; ) = L(x,w; x

    )(6.1.2)

    Russel(2005) utiliza (6.1.2) para desarrollar los pronstico en el modelo TAR(2;1,1)con errores normales que detallaremos a continuacin.

    6.2. Verosimilitud predictiva perfil en un modelo TAR(2;1,1)

    Supongamos que se tienen T observaciones del proceso dado por

    Yt = 1Yt1I(Zt1 )+2Yt1I(Zt1 > )+ t , t N(0,)

    Definamos

    t =

    1, Zt1 2, Zt1 > As

  • 59

    Yt = tYt1+ t

    Y queremos estimar las obervaciones T +1, T +2, . . . , T +h . Primero, denotare-mos por y=(y1, y2, . . . , yT ) a la muestra observada, por y=

    (yT+1, y

    T+2, . . . , y

    T+h

    ), por Y a los parmetros de Yt , por z los parmetros de Zt y por a la variableumbral. Sea w= (y, y) y v= (z, z).Usando la notacin anterior podemos escribir la verosimilitud como

    L(Y ,Z, ; w, v) =1

    T+h1exp

    ( 1

    22T+h

    t=2

    (wttwt1)2)

    1T+h1u

    exp

    ( 1

    22u

    T+h

    t=2

    (vtvt1)2)

    Luego, la logverosimilitud es

    `(Y ,Z, ; y, y, z, z) = (T +h1) log() 122T+h

    t=2

    (wttwt1)2

    (T +h1) log(u) 122uT+h

    t=2

    (vtvt1)2

    Derivando de ` con respecto de obtenemos que

    2(y;1, 2, ) =1

    T +h1T+h

    t=2

    (wt [1I(vt1 )+2I(vt1 > )]wt1) .2

    (6.2.1)

    Luego, derivando ` con respecto a 1, 2 e igualando a cero encontramos que susestimadores maximos verosmiles son

  • 60

    1(y;) =T+ht=2 wtI(vt1 )wt1t=2 I(Zt1 )Y 2t1

    . (6.2.2)

    2(y;) =T+ht=2 wtI(vt1 > )wt1T+ht=2 I(vt1 > )w

    2t1

    . (6.2.3)

    De la misma manera obtenemos que

    (z) = T+ht=2 vt1vt1T+ht=2 v

    2t2

    y

    2(z; ) =1

    T +h1T+h

    t=2

    (vt1 vt2)2

    Sustituyendo 6.2 y 6.3 en 6.1 se llega a lo siguiente

    2(y;) =1

    T +h1T+h

    t=2

    (wt

    [1I(vt1 )+ 2I(vt1 > )

    ]wt1

    )2.

    Luego la logverosimilitud perfil para (y, z) sustituyendo los estimadores ante-riores es

    `p (y, z, ;y, z) = (T +h1) log(

    1T +h1

    T+h

    t=2

    (wttwt1)2)

    (T +h1) log(

    1T +h1

    T+h

    t=2

    (vtvt1)2)

    (T +h1) .

    Y maximizar `p es equivalente a minimizar la siguiente expresin

  • 61

    (T +h1) log(

    1T +h1

    T+h

    t=2

    (wttwt1)2)

    +(T +h1) log(

    1T +h1

    T+h

    t=2

    (vtvt1)2).

    Ahora para el caso t- student se tiene la siguiente verosimilitud

    L(Y ,Z , ; y, y, z, z) =T+h

    t=2

    f (Yt |Yt1, Zt1,Z)g(Zt1|Zt2,Z) (6.2.4)

    =T+h

    t=2

    ( +1

    2

    )(

    2

    )pi

    (1+

    (wt twt1)2

    ) +12 1

    T1exp

    ( 12

    T+h

    (vt1vt2)2)

    (6.2.5)

    Y la funcin de log-verosimilitud es

    `(Y ,Z, ; y, y, z, z) = ++

    En este caso no podemos realizar el mismo procedimiento que se hace cuandosuponemos errores normales por lo que se maximizar la verosimilitud 6.2.4 demanera numrica, para as encontrar los valores de los parmetros del modelo ylos pronsticos a h pasos.

    6.3. Verosimilitud predictiva perfil TAR(r; p1, p2, . . . , pr)Ahora calcularemos la verosimilitud predictiva perfil para el caso en el cual

    tenemos un modelo TAR con r regmenes.

  • 62

    L(Y ,Z , ; y, y, z, z) =T+h

    t=2

    f (Yt |Yt1, Zt1,Z)g(Zt1|Zt2,Z) (6.3.1)

    =T+h

    t=2

    ( +1

    2

    )(

    2

    )pi

    (1+

    (wt twt1)2

    ) +12 1

    T1exp

    ( 12

    T+h

    (vt1vt2)2)

    (6.3.2)

    En el caso TAR(2; p1, p2) la estimacin de los pronsticos de la serie Yt serealizar en conjunto con la estimcin de los pronsticos a h pasos de Zt y dela misma manera que lo hecho anteriormente, se minimizar numricamente lafuncin de - log verosimilitud.

    6.4. Simulacin

    En esta seccin presentaremos 5 ejemplos en los cuales..... En cada uno deellos vamos a suponer que el valor umbral es conocido, por lo cual no ser nece-sario estimarlo.Ejemplo 1

    Se simularon 500 series de 255 datos de un proceso TAR(2;1,1) dado por

    Yt = 0.5Yt1I(Zt1 1)0.7Yt1I(Zt1 > 1)+ t , t t5 (6.4.1)

    Zt = 0.5Zt1+ vt , vt N(0,1)

    Y donde vamos a suponer que el valor umbral es conocido. De cada simulacinse utilizaron las primeras 250 observaciones para estimar los parmetros del mo-delo y hacer los pronsticos mediante versimilitud preditiva. Las ltimas 5 parael clculo del error cuadrtico medio de pronstico (ECMP). este mismo procedi-miento haremos con los ejemplos posteriores.Una realizacin de (6.4.1) se encuentra en la figura

  • 63

    0 50 100 150 200 250

    3

    1

    13

    Serie Zt

    ZtUmbral

    Figura 6.4.1: Procesos Zt y Yt

    0 50 100 150 200 250

    5

    05

    10

    Serie Yt

    yt

    AR(0.5)AR(0.7)

    Figura 6.4.2: Proceso Yt

    Y los histogramas para cada uno de los parmetros se muestran a continuacin

  • 64

    Errores t

    b1

    0.35 0.50 0.65

    050

    150

    Errores normal

    b10.35 0.50 0.65

    050

    150

    Errores t

    b2

    2 0 1

    050

    100

    150

    Errores normal

    b2

    2 0 1

    010

    020

    030

    0

    Figura 6.4.3: Histogramas de 1

    Un resumen de los paretro estimados se encuentra en la siguiente tabla

    Valor real Promedio 1 q0.5 q0.95 Varianzat-student 0.5 0.4989 0.4209 0.5749Normal 0.5 0.4982 0.4112 0.5826

    Cuadro 6.1: Tabla de estimaciones para 1

    Valor real Promedio 2 q0.5 q0.95 Varianzatstudent 0.7 0.6647 1.1351 -0.1516Normal 0.7 0.6635 1.1441 0.1565

    Cuadro 6.2: Tabla de estimaciones para 2

    Una grfica de los pronsticos se puede ver en la figura

    h Yt yt t-student yt Normal1 -0.1482 -0.0026 2.15202 0.6670 0.7482 2.82253 -0.1022 1.2213 3.60134 -3.9480 1.7885 2.65905 -1.5140 1.4167 1.4501

    Cuadro 6.3: pronsticos

  • 65

    230 235 240 245 250 255

    4

    02

    t

    Yt

    Normalt

    Figura 6.4.4: Pronsticos

    Ejemplo 2

    Ahora vamos a simular 500 series de 255 datos de un proceso TAR(2;1,1)dado por

    Yt = 0.8Yt1I(Zt1 0)0.6Yt1I(Zt1 > 0)+ t , t t5 (6.4.2)

    Ejemplo 3Simulamos 500 series de 255 datos de un proceso TAR(2;2,1)

    Yt =

    0.5Yt10.3Yt2+ t , Zt1 00.7Yt1+ t , Zt1 > 0 t t5 (6.4.3)Zt = 0.5Zt1+ vt , vt N(0,1)

    Una simulacin del proceso es

  • 66

    0 50 100 150 200 250

    2

    02

    4Serie Zt

    Zt

    Umbral

    0 50 100 150 200 250

    5

    05

    10

    Serie Yt

    yt

    AR(0.5,0.3)AR(0.7)

    Figura 6.4.5: Proceso

    Errores t

    b11

    0.3 0.5 0.7

    050

    150

    Errores normal

    b11

    0.3 0.5 0.7

    050

    150

    Errores tb1

    2

    0.5 0.2 0.0

    040

    8014

    0Errores normal

    b12

    0.5 0.2 0.0

    040

    8012

    0

    Figura 6.4.6: Histogramas para

    Errores t

    b21

    0.9 0.6

    050

    150

    Errores normal

    b21

    0.9 0.6

    050

    150

    Figura 6.4.7:

  • 67

    h Yt Yt t-student Yt normal1 0.4754 0.1365 0.06612 -0.1832 0.1871 0.24073 -0.1356 -0.0836 0.14144 -0.0239 -0.1786 -0.04185 2.1236 0.0175 -0.0635

    Cuadro 6.4: Pronsticos

    Y una grficas de los pronsticos es

    230 235 240 245 250 255

    3

    1

    1

    t

    Yt

    Normalt

    Figura 6.4.8: Pronsticos

    Ejemplo 4

    Yt =

    1.2Yt10.4Yt2+ t , Zt1 11.5Yt10.7Yt2+ t , Zt1 > 1 t t5 (6.4.4)Zt = 0.5Zt1+ vt , vt N(0,1)

    Una realizacin del proceso se encuentra en

  • 68

    0 50 100 150 200 250

    3

    1

    13

    Serie Zt

    ZtUmbral

    Figura 6.4.9: Realizacin de Zt

    0 50 100 150 200 250

    5

    05

    10

    Serie Yt

    yt

    ar(1.2,0.4)ar(1.50.7)

    Figura 6.4.10: Realizacin de Yt

  • 69

    Errores t

    b11

    1.0 1.2 1.4

    050

    150

    Errores normal

    b11

    1.0 1.2 1.40

    5015

    0

    Errores t

    b12

    0.6 0.4 0.2

    050

    100

    Errores normal

    b12

    0.6 0.4 0.2

    050

    100

    150

    Figura 6.4.11: Histograma de 11 y 12

    Errores t

    b21

    1.2 1.6 2.0

    050

    150

    Errores normal

    b12

    1.2 1.6 2.0

    050

    150

    Errores tb2

    2

    1.2 0.6

    050

    150Errores normal

    b22

    1.2 0.6

    050

    150

    Figura 6.4.12: Histograma de 21 y 22

    Distribucin Valor real Promedio 11 q0.05 q0.95 Varianzat-student 1.2 1.199 1.1051 1.2870Normal 1.2 1.198 1.0946 1.2910

    Cuadro 6.5: Tabla ejemplo 4

    Distribucin Valor real promedio 12 q0.05 q0.95 Varianzat-student -0.4 -0.4001 -0.4882 -0.3013Normal -0.4 -0.4006 -0.4945 -0.2929

    Cuadro 6.6: Table

  • 70

    Distribucin Valor real Promedio 21 q0.05 q0.95 Varianzat-student 1.5 1.4918 1.2916 1.6903Normal 1.5 1.4892 1.2754 1.7001

    Cuadro 6.7: Tabla ejemplo 4

    Distribucin Valor real promedio 22 q0.05 q0.95 Varianzat-student -0.7 -0.6922 -0.8823 -0.5059Normal -0.7 -0.6913 -0.8869 -0.4790

    Cuadro 6.8: Table

    h Yt Yt t-student Yt normal1 0.0779 0.1347 0.13842 0.2016 0.2359 0.35553 0.5183 0.3414 0.57884 -1.4225 0.4756 0.62555 -1.1939 0.4484 0.5882

    Cuadro 6.9: Pronsticos

    230 235 240 245 250 255

    3

    1

    13

    t

    Yt

    Normalt

    Figura 6.4.13: Pronsticos

  • 71

    Ejemplo 5

    Yt =

    1.2Yt10.4Yt2+ t , Zt1 0.8971.5Yt10.7Yt2+ t , Zt1 > 0.897 t t5 (6.4.5)

    0 50 100 150 200 250

    3

    1

    13

    Serie Zt

    Zt

    Umbral

    Figura 6.4.14: Zt

    0 50 100 150 200 250

    15

    5

    5

    Serie Yt

    yt

    ar(1.2,0.4)ar(1.5,0.7)

    Figura 6.4.15: Yt

  • 72

    Errores t

    b11

    1.00 1.15 1.30

    050

    150

    Errores normal

    b11

    1.00 1.15 1.300

    5015

    0

    Errores t

    b12

    0.6 0.4 0.2

    050

    100

    Errores normal

    b12

    0.6 0.4 0.2

    040

    8012

    0

    Figura 6.4.16: Histogramas de 11 y 12

    Errores t

    b21

    1.0 1.4 1.8

    050

    150

    Errores normal

    b12

    1.0 1.4 1.8

    050

    150

    Errores tb2

    2

    1.0 0.6 0.2

    050

    150Errores normal

    b22

    1.0 0.6 0.2

    050

    150

    Figura 6.4.17: Histogramas de 21 y 22

    Valor real Promedio 11 q0.5 q0.95 Varianzatstudent 1.2 1.1952 1.1092 1.2886Normal 1.2 1.1940 1.0974 1.3017

    Cuadro 6.10: Resultados 11

    Valor real Promedio 12 q0.5 q0.95 Varianzatstudent -0.4 -0.3959 -0.4894 -0.3069Normal -0.4 -0.3969 -0.5008 -0.3005

    Cuadro 6.11: 12

  • 73

    Valor real Promedio 21 q0.5 q0.95 Varianzatstudent 1.5 1.4945 1.3112 1.6776Normal 1.5 1.4950 1.2725 1.6978

    Cuadro 6.12: 21

    Valor real Promedio 22 q0.5 q0.95 Varianzatstudent -0.7 -0.6960 -0.8614 -0.5111Normal -0.7 -0.6962 -0.8805 -0.4946

    Cuadro 6.13: 22

    h Yt Yt t-student Yt Normal1 -7.3797 -7.489 -8.1022 -5.9328 -5.9900 -6.7123 -4.0212 -5.2162 -5.5024 -2.0436 -4.0870 -4.46185 -1.9254 -3.1965 -3.1047

    Cuadro 6.14: Pronsticos

    230 235 240 245 250 255

    10

    5

    0

    t

    Yt

    Normalt

    Figura 6.4.18: Pronsticos

  • 74

    Ejemplo 6

    Yt =

    0.8Yt10.6Yt2+ t , Zt1 00.7Yt1+0.2Yt2+ t , Zt1 > 0 t t5 (6.4.6)

    0 50 100 150 200 250

    3

    1

    13

    Serie Zt

    Zt

    Umbral

    Figura 6.4.19: Grfica de una realizacin de Zt

    0 50 100 150 200 250

    15

    5

    515

    Serie Yt

    yt

    ar(0.8,0.6)ar(0.7,0.2)

    Figura 6.4.20: Grfica de una realizacin de Yt

  • 75

    Valor real Promedio 11 q0.5 q0.95 Varianzatstudent 0.8 0.8019 0.7402 0.869Normal 0.8 0.8037 0.7193 0.8828

    Cuadro 6.15: Resultados 11

    Valor real Promedio 12 q0.5 q0.95 Varianzatstudent -0.6 -0.5969 -0.6529 -0.5285Normal -0.6 -0.5911 -0.6638 -0.5102

    Cuadro 6.16: 12

    Valor real Promedio 11 q0.5 q0.95 Varianzatstudent -0.7 -0.6945 -0.7487 -0.6340Normal -0.7 -0.6930 -0.7552 -0.625

    Cuadro 6.17: 21

    Valor real Promedio 22 q0.5 q0.95 Varianzatstudent 0.2 0.1976 0.1237 0.2706Normal 0.2 0.1977 0.1183 0.2722

    Cuadro 6.18: 22

    Errores t

    b11

    0.7 0.9 1.1

    050

    150

    Errores normal

    b11

    0.7 0.9 1.1

    050

    150

    Errores t

    b21

    0.80 0.65

    050

    150

    Errores normal

    b12

    0.80 0.65

    050

    150

    Figura 6.4.21: Hitogramas 11 y 12

  • 76

    Errores t

    b21

    0.80 0.65

    050

    150

    Errores normal

    b12

    0.80 0.650

    5015

    0

    Errores t

    b22

    1.0 0.6 0.2

    050

    150

    Errores normal

    b22

    1.0 0.6 0.2

    050

    150

    Figura 6.4.22: Histogramas 21 y 22

    h Yt Yt t-student Yt normal1 -0.01236 -0.0307 -0.01542 0.2265 0.1923 -0.18893 0.4903 0.1234 0.12304 -0.3908 0.0379 0.25015 -0.3069 0.0237 0.0907

    Cuadro 6.19: Pronsticos

    230 235 240 245 250 255

    1.

    00.

    01.

    0

    t

    Yt

    Normalt

    Figura 6.4.23: Pronsticos

  • Captulo 7

    Conclusiones

    Se recomendara hacer un estudio de simulacin exhaustivo como el realizadopor Russel(2005) para el caso TAR(2; 1,1)

    77

  • Captulo 8

    Apndice

    En este apartado se presentar una descripcin de las funciones programadasen R y que fueron empleadas para la simulacin de datos, estimacin de parme-tros,clculo de los criterios de infrmacin AIC, BIC y clculo de los pronsticos.

    Funcin tar2.sim

    La funcin tar2.sim simula datos de un proceso TAR(2;p1, p2) donde los erro-res asociados a Yt tienen distribucin tstudent y la variable umbral, Zt , es unproceso autorregresivo de orden 1 con errores normales. Recibe los siguientes ar-gumentos (num, p1, p2, gamma, par.inf, par.sup, nu, rho, sigma), los cuales se detallan acontinuacin:

    num Nmero de datos a simular.

    p1 Orden del proceso autorregresivo inferior.

    p2 Orden del proceso autorregresivo superior.

    gamma Valor del umbral .

    par.inf Parmetros del proceso autorregresivo inferior.

    78

  • 79

    par.sup Parmetros del proceso autorregresivo superior.

    nu Grados de libertad asociados a la distribucin tstudent de los erro-res.

    rho Parmetro del proceso Zt .

    sigma Desviacin estndar de la distirbucin de los errores de Zt .

    La funcin nos devuelve una matriz X de dimensin (num3) que contiene en laprimera columna los datos simulados de Yt , en la segunda columna estn los datosdel proceso Zt y en la tercera columna se encuentra una etiqueta que nos indica siel dato Yt proviene del proceso autorregresivo inferior o superior.

    Funcin estima.tar

    estima.tar es una funcin que, dado un conjunto de datos (Yt , Zt) y un va-lor fijo de , estima los parmetros suponiendo que provienen de un procesoTAR(2; p1, p2). Recibe los siguientes argumentos (yt, zt, p1, p2, gamma),

    yt Datos que provienen de un modelo TAR(2;p1, p2).

    zt Datos de la variable umbral Zt .

    p1 Orden del proceso autorregresivo inferior.

    p2 Orden del proceso autorregresivo superior.

    gamma Valor del umbral .

    Como resultado, la funcin nos devuelve una matriz X de dimensin 2 (p1 +p2 + 2) que contiene en la primera fila el valor de la logverosimilitud evaluadaen los parmetros estimados, los valores estimados para los parmetros de los

  • 80

    procesos autorregresivos y el estimador de los grados de libertad, . En la segundafila contiene los mismos valores anteriores, excepto que se calculan suponiendoque los errores del proceso TAR(2; p1, p2) son normales y por lo tanto, en vez deestimar se estima la desviacin estndar de los errores, .

    Funcin pronosticos.tar

    La funcin pronosticos.tar estima los parmetros y los pronsticos a h pa-sos de un proceso TAR(2; p1, p2) mediante la tcnica de verosimilitud predictivaperfil. La funcin recibe los siguientes argumentos (yt, zt, gamma, p1, p2, h),

    yt Conjunto de datos que provienen de un proceso TAR(2; p1, p2) .

    zt Conjunto de datos de la variable umbral Zt .

    gamma Valor del umbral .

    p1 Orden del proceso autorregresivo inferior.

    p2 Orden del proceso autorregresivo superior.

    h Nmero de pronsticos a estimar.

    Y nos devuelve una matriz X de dimensin 2 (p1+ p2+2h+3). En la primerafila se encuentran los estimadores de los parmetros del proceso autorregresivoinferior y superior, los grados de libertad, , el parmetro del proceso Zt , ladesviacin estndar de los errores de Zt y los h estimadores de los pronsti-cos YT+1, . . . , YT+h y ZT , ZT+1, . . . , ZT+h1. La segunda fila contiene los valoresanteriores, a excepcin que se calculan suponiendo que los errores del procesoTAR(2; p1, p2) tienen distribucin normal con media cero y varianza 2.

  • 81

    Funcin ajuste.tar

    ajuste.tar es una funcin que, dado un conjunto de datos (Yt , Zt) y un valorfijo de , nos calcula el valor del criterio de Akaike y el criterio bayesiano supo-niendo que los datos provienen de un modelo TAR(2; p1, p2). La funcin recibelos siguientes argumentos (yt, zt, p1, p2,gamma)

    yt Conjuntos de datos que provienen de un proceso TAR(2; p1, p2) .

    zt Conjunto de datos de la variable umbral Zt .

    p1 Orden del proceso autorregresivo inferior.

    p2 Orden del proceso autorregresivo superior.

    gamma Valor del umbral .

    Como resultado, ajuste.tar nos devuelve una matriz X de dimensin 22 dondeen la primera fila contiene los valores del criterio de Akaike y el creterio bayesianosuponiendo que la distribucin de los errores del proceso es tstudent mientrasque la segunda fila contiene los valores del criterio de Akaike y bayesiano supo-niendo que los errores del proceso TAR(2; p1, p2). tienen distribucin normal.

  • Bibliografa

    [1] Chan, K. S. (2009). Exploration of a nonlinear world. World Scientific Pu-blishing.

    [2] Chan, K. S. (1993). Consistency and limiting distribution of the least squareestimation of a threshold autoregressive model. The Annals of Statistics.

    [3] Cysneiros, F.(2005). Regression Models with Symmetrical Errors. Interna-tional Encyclopedia of Statistical Science .

    [4] Fang, K. T., Kotz, S., and Ng, K.W. (1990). Symmetric Multivariate andRelated Distributions. Chapman & Hall.

    [5] Gonzalo, J. and Pitarakis, J. (2012) Estimation and Infrence in ThresholdType Regime Switching Models.

    [6] Granger, C. W. J. and Tersvirta, T. (1993). Modelling Nonlinear EconomicRelationships. Advanced Texts in Econometrics.

    [7] Hansen, B. E. (1997). Inference in TAR models. Studies in Nonlinear Dyna-mics and Econometrics, Vol. 2, Num. 1.

    [8] Moreno, E. C. (2010). Una aplicacin del modelo TAR en series de tiempofinancieras, Tesis de maestra.UNAL.

    [9] Nieto, F. (2005), Modeling bivariate threshold autoregressive processes inthe presence of missing data, Comunications in Statistics: Theory and Met-hods 34, 905930.

    [10] Cysneiros, F. and Paula, G. (2005) Restricted methods in symmetrical linearregression models. Computational Statistics & Data Analysis. 49, 689-708.

    [11] Qian L. (1998). On maximum likelihood estimators for a threshold autore-gression. Journal of Statistical Planning and Inference.

    82

  • 83

    [12] Russell, M. G. (2006) Pronsticos en modelos autorregresivos con Umbral,Tesis de Doctorado. CIMAT.

    [13] Tong, H. (1983). Threshold Models in Non-linear Time Series Analysis.Springer Verlag.

    [14] Tong, H. (1990). Non-linear Time Series: A Dynamical System Approach.Oxford University Press.

    [15] Tsay, R. (2002). Analysis of financial time series. Wiley.

    [16] Zhang, H.(2012) Estimacin de los modelos TAR cuando el proceso de rui-dos sigue una distribucin t. Comunicaciones en estadstica.