TEMA 4_modelos Autorregresivos
-
Upload
juan-carlos-condori-mamani -
Category
Documents
-
view
246 -
download
1
description
Transcript of TEMA 4_modelos Autorregresivos
-
Profesora: Dolores Garca Martos
E-mail:[email protected]
Procesos autorregresivos
Este documento es un resumen/modificacin de la
documentacin elaborada por D. Antoni Espasa
Econometra II
Grado en finanzas y contabilidad
-
Descomposicin de Wald
Todo proceso estocstico estacionario se puede descomponer como la
suma de dos procesos no correlacionados, donde:
Un proceso estacionario singular lineal (una constante, una funcin lineal del tiempo, etc.)
Un proceso estacionario regular. En concreto una funcin lineal de variables aleatorias
{X}= {Y}+ {W}
Ej: X(t) = + 1 a(t) + 2 a (t-1) + 3 a (t-2) +..
-
Descomposicin de Wald
Esta condicin significa que los shocks pasados afectan cada vez menos sobre
el presente de la serie temporal. Es la condicin de estacionariedad
Esta condicin implica que el
proceso tiene varianza finita
-
El modelo autorregresivo de primer orden AR(1)
X (t)= funcin del pasado de la serie + a (t)
El proceso autorregresivo es un modelo de regresin en el que las variables explicativas son la misma variable
dependiente retardada
Un modelo autorregresivo no siempre es estacionario.
Un paseo aleatorio es un proceso autorregresivo con una raz unitaria (coeficiente que acompaa a X (t-1)) y no es
estacionario
Xt = X t-1+ a t
El proceso ms simple es el autorregresivo de orden 1 AR(1)
Xt = X t-1 +a t
Donde X t-1 es conocido en t y a t no. atconstituye un shock o innovacin
-
El modelo autorregresivo de primer orden AR(1)
La condicin para que el proceso sea estacionario es que
| | < 1
Supongamos que = 0.5
Wt = 0.5 W t-1 + at
Wt-1 = 0.5 W t-2 + a t-1
Wt = 0.52 Wt-2 + 0.5 a t-1 +at
Wt-2 = 0.5 W t-3 + a t-2
Wt = 0.53 W t-3 + 0.5
2 a t-2 +0.5 a t -1 + a t.En general:
Como el parmetro es menor que la unidad la suma anterior es finita
La expresin en trminos de a t se denomina Proceso de
Medias Mviles, MA
-
El modelo autorregresivo de primer orden AR(1)
Caso 1: -1>>1
El efecto sobre W t de una innovacin distante no es exactamente cero, pero es despreciable.
Menor a medida que nos alejamos en el
tiempo.
Un AR(1) se puede aproximar por un modelo de medias mviles de orden q, MA(q)
q es el nmero de at que permiten aproximar el AR(1)
En un AR(1), la innovacin a t-j tiene un efecto restringido a j
-
El modelo autorregresivo de primer orden AR(1)
Caso 1: >1
A partir de un valor inicial w el proceso es explosivo.
Las innovaciones pasadas son ms importantes que las recientes
De manera similar ocurre con 1
-
El modelo autorregresivo de primer orden AR(1)
Caso 1: =1
Esta situacin no es explosiva
Es la situacin que se ha considerado para tendencias que presentan oscilaciones locales
de nivel.
Pero ahora no estamos hablando de la tendencia. Ahora se est trabajando con series
estacionarias, Wt (desviaciones con respecto a
la tendencia). Por ello, trabajamos con
procesos en los que ||
-
El modelo autorregresivo de primer orden AR(1)
||
-
El modelo autorregresivo de primer orden AR(1)
-
El modelo autorregresivo de primer orden AR(1)
En definitiva, podemos expresar el modelo de la siguiente manera
Propiedades1:
E (Wt ) = 0 es, por tanto, constante
Var (W t ) = 0 = 2 /(1-2), donde 2 es la varianza de at
Cov (W t , W t-k )= k=k 0 = k-1
Corr (W t , Wt-k )= k = k/ 0= k
La funcin de autocorrelacin no se anula, pero decrece, se dice que
tiene memoria infinita.
El correlograma tendr estructura. Depender del valor del parmetro .
Cuanto mayor sea, mayor ser la relacin entre el presente y el
pasado y viceversa.
A partir de un determinado retardo los rk sern prcticamente cero1. Demostracin en anexo
-
El modelo autorregresivo de primer orden AR(1)
-
El modelo autorregresivo de primer orden AR(1)
-
Si en la ltima expresin hacemos s=12, tendremos que una diferencia estacional es
equivalente a tomar una diferencia regular por un polinomio suma
Es por ello que al tomar una diferencia estacional sobre la serie original, se corrige parte de la tendencia.
-
Procesos ARI (1,1)
Sea X t una serie no estacionaria y al aplicar una primera diferencia regular se consigue que la serie si sea estacionaria en la parte regular (no se han
puesto logaritmos por simplificar). Entonces:
X t = X t-1 +Wt
Wt = Xt - Xt-1
Y Wt sigue un proceso AR(1)
(1-L) Wt = Wt Wt-1 = at
En definitiva tendremos
(1-L) (Xt - X t-1 )= (1-L) X t = at
Es decir
Xt = Xt-1 + (Xt-1 -Xt-2 )+ at
Este proceso de llama integrado de orden 1 y autorregresivo de orden 1 ARI(1,1)
Xt es un proceso no estacionario
-
Procesos ARI (1,1)
Recurdese que en general se aplican logaritmos para
conseguir estacionariedad en varianza.
Adems, el trabajar con la transformacin logartmica nos
permite relacionar las tasas de crecimiento con las
transformaciones de estacionariedad en media.
(1-L) log Xt =(log X t -log X t-1) se aproxima a una tasa de crecimiento.
Es decir, tenemos
(1-L) log Xt =Wt , y Wt es un proceso AR(1)
La serie original sigue un modelo ARI(1,1)
La serie de tasas sigue un proceso AR(1)
El modelo de la serie de tasas de crecimiento se deriva del de la serie original,
ya que las tasas son iguales a la primera diferencia de la serie expresada en
logaritmos
-
Procesos AR (p)
-
El modelo autorregresivo de segundo orden AR(2)
-
El modelo autorregresivo de segundo orden AR(2)
Z2 1 Z-2 =0
1
1. Ver ms detalles en anexo
(1-G1 L) (1-G2 L) Wt = a t
-
El modelo autorregresivo de segundo orden AR(2)
1
(1-G1 L) (1-G2 L) Wt = a t
Estacionariedad en funcin de los parmetros:
|1 +2 |
-
El modelo autorregresivo de segundo orden AR(2)
-
El modelo autorregresivo de segundo orden AR(2)
-
p
El modelo autorregresivo de orden p, AR(p)
Otra forma de verlo escrito es:
Wt -1 W t-1 -2 Wt-2 -.-p Wt-p = at
(1-1 L- 2 L2 -.-p L
p) W t = p (L) Wt =at
Las races son funcin de los parmetros
-
El modelo autorregresivo de orden p, AR(p)
-
El modelo autorregresivo de orden p, AR(p)
-
El modelo autorregresivo de orden p AR(p)
cero
-
El modelo autorregresivo de orden p AR(p)
La forma de la funcin de autocorrelacin depender del valor de las races ms elevadas o dominantes.
Si hubiera races complejas, tendramos que la serie presenta un ciclo y la forma del correlograma sera sinusoidal.
Para la determinacin del orden del autorregresivo, es decir, p, se utiliza
el criterio de informacin de Akaike (no es el nico criterio).
Se estiman los correspondientes modelos
Se escoge el modelo (retardo) con menor valor del criterio de Akaike.
Donde N es el nmero de observaciones, 2a es la varianza residual y k el nmero de parmetros
-
Procesos ARI (2,1)
Significa que incluir una constante en el modelo, por tanto, el
proceso estacionario tendr una media distinta de cero
(1-1 L-2 L2 ) (1-L) X t = c+ a t
-
ANEXO
-
Caractersticas del proceso AR(1)
Esperanza
W = W t-1 + at
E (W t )= E (Wt-1 )+ E (a t ) at es un proceso ruido blanco con esperanza nula
= + 0 , E(Wt )= E (Wt-1 ) por estacionariedad
(1- ) = 0
=E (W t )= 0
Varianza
Var (W t )= 2 var (Wt-1 )+ var (a t ) at es un proceso ruido blanco
con con varianza 2
0 = 2 0 +
2 , Var(Wt )= Var (Wt-1 ) por estacionariedad
(1- 2) 0 = 2
0 =var (W t )= 2/ (1- 2)
-
Caractersticas del proceso AR(1)
Covarianza
Correlacin
k = k/ 0= k
Lo que ocurre en t-1
es independiente del
shock que habr en t
-
Ecuaciones de segundo grado
La ecuacin de segundo grado tiene la siguiente expresin:
aX2 +b X +c =0
Esta ecuacin tiene dos soluciones, no necesariamente iguales, o
races, que pueden ser reales o complejas:
X=-b (b2 -4ac)- / 2a
Donde el valor de b2 -4ac determinar si las races son reales o
imaginarias
Si tiene valor negativo, se obtendrn un par de races complejas conjugadas.
En nuestro caso a=0, b=-1 y c=-2
http://es.wikipedia.org/wiki/Ecuaci%C3%B3n_de_segundo_grado