8/10/2019 Tesis de Economa Con Anlisis Paramtrico
1/103
INSTITUTO POLITCNICONACIONAL
ESCUELA SUPERIOR DE ECONOMASECCIN DE ESTUDIOS DE POSGRADO E INVESTIGACIN
LLAAEEFFIICCIIEENNCCIIAADDEELL PPRROONNSSTTIICCOODDEELLNNDDIICCEEDDEEPPRREECCIIOOSSYYCCOOTTIIZZAACCIIOONNEESSDDEELLAABBOOLLSSAA
MMEEXXIICCAANNAADDEEVVAALLOORREESS,,AAPPLLIICCAANNDDOORREEDDEESSNNEEUURROONNAALLEESSAARRTTIIFFIICCIIAALLEESSEENNCCOOMMPPAARRAACCIINN
CCOONNUUNNMMOODDEELLOOPPAARRAAMMTTRRIICCOO..
T E S I SPARA OBTENER EL GRADO DE:
MAESTRO EN CIENCIAS ECONOMICAS
(ECONOMA FINANCIERA)
P R E S E N T A :ELSY LIZBETH GMEZ RAMOS
8/10/2019 Tesis de Economa Con Anlisis Paramtrico
2/103
8/10/2019 Tesis de Economa Con Anlisis Paramtrico
3/103
8/10/2019 Tesis de Economa Con Anlisis Paramtrico
4/103
AGRADECIMIENTOS
Por todo el amor que has creado en m.Te dedico la perseverancia y esfuerzo
plasmados en estas hojas.
Ami pequea hija XchitlPor estar siempre a mi lado, por tu ayuda para
conseguir cualquier informacin que requera ypor tus consejos.
Ami esposoPor esperarme cuando me he ido, porbuscarme cuando no me encuentran
y por seguir al tanto de mis proyectos.
Amis padres
Por pulir mis ideas en lugar de desecharlas,por ser ms que una gua, por el tiempootorgado, y por sus reflexiones y consejos que
hicieron de esta investigacin un trabajosobresaliente.
Ami director de tesis,Dr. FranciscoVenegas Martnez.
Por la dedicacin en la revisin deesta investigacin y por creer en m.
Ami codirector y consejero de estudios,M. en C. HctorAllier Campuzano
Por ser m casa a lo largo de todos estos aos.
Ala ESEQue me apoyo con la beca para realizarmi maestra.
A CONACyT
8/10/2019 Tesis de Economa Con Anlisis Paramtrico
5/103
n d i c e Pgina
ndice de figuras, grficos y tablas
Lista de abreviaturasGlosario de trminosTrminos y expresiones equivalentes entre el campo estadstico y las RNAResumen
vii
ixxxixii
Abstract xiiiIntroduccin xiv
Captulo 1.El principal indicador de la BMV : IPCy la importancia de los pronsticos
1.1. Generalidades 11.2 Metodologa para el clculo del IPC 2
1.2.1 Frmula 3
1.2.2 Criterios de seleccin 31.3 El ciclo burstil 71.4 Tendencias en la literatura terica sobre el mercado burstil 81.5 Elementos de los pronsticos
1.5.1 El proceso del pronostico1112
1.6 Revisin de investigaciones sobre predictibilidad 13
Captulo 2.Modelo no paramtrico: Redesneuronales artificiales.
2.1 Generalidades 172.2 Redes neuronales biolgicas 18
2.2.1 La neurona biolgica 192.3 Componentes de una red neuronal Artificial 21
2.3.1 Unidades de procesamiento 222.3.2 Funcin de activacin 24
2.4 Estructur a de una red neuronal artificial 262.4.1 Niveles o capas de neuronas 262 4 2 Conexiones entre neuronas 27
8/10/2019 Tesis de Economa Con Anlisis Paramtrico
6/103
2.7.2 Estructura y aprendizaje de la red2.7.2.1 Algoritmo de aprendizaje
3637
Captulo 3.Modelo paramtrico3.1 Generalidades 473.2 Caracterstic as de las series de tiempo 48
3.2.1 Descomposicin de una serie temporal 483.2.2 Estacionariedad 503.2.3 Races unitarias 51
3.3 Descripcin de los modelos ARIMA 523.3.1 Clasificacin de los modelos B-J 523.3.1.1 Proceso autorregresivo 533.3.1.2 Proceso media mvil 54
3.3.2 Proceso autorregresivo de media mvil 553.4 Metodologa B-J 563.5 Modelos heteroscedst icos 58
3.6 Limitaciones del modelo GARH 61
Captulo 4. Aplicacin de los modelos depronstico a la serie de tiempo IPC.
4.1 Seleccin de la muestra 62
Parte 1. Modelos de pronstico.4.2 Modelo basado en RNA: Backpropagation 64
4.2.1 Metodologa 644.2.2 Elaboracin de la red
4.2.2.1 Etapa de entrenamiento4.2.2.2 Etapa de prueba
4.3Modelo ARIMA: Tipo GARCH4.3.1 Metodologa4.3.2 Estimacin del modelo
Parte 2. Comparativo de los pronsticos
676771737374
4.5 Dentro de la muestra 77
8/10/2019 Tesis de Economa Con Anlisis Paramtrico
7/103
ndice de figuras, grficos y tablas pgina
Figura 2.1 Partes de una neurona bilgica 19Figura 2.2 Sinapsis 20Figura 2.3 El elemento de proceso i con n entradas y una salida 22Figura 2.4 Esquema con varias neuronas conectadas 23Figura 2.5 Modelo de neurona con umbral 24Figura 2.6 Funciones de activacin tpicas 25Figura 2.7 Red neuronal con una capa oculta 26Figura 2.8 Modelo de arquitectura de una red backpropagat ion 37Figura 2.9 Secuencia para obtener el error 43Figura 4.1 Red backpropagation 9-9-1 60
Grfico 1.1 El ciclo burstil 7
Grfico 1.2 Elementos de los pronsticos en negocios yeconoma 11
Grfico 3.1 Tendencias de las series de tiempo 49Grfico 3.2 Proceso de construccin de un modelo ARIMA (BJ) 57Grfico 4.1 Datos al cierre del IPC 62Grfico 4.2 Correlograma de la serie IPC 63Grfico 4.3 Errores de la etapa de entrenamiento con 10
iteraciones
69
Grfico 4.4 Errores de la etapa de entrenamiento con 50iteraciones
69
Grfico 4.5 Errores de la etapa de entrenamiento con 100iteraciones
70
Grfico 4.6 Comparacin entre el pronstico con red neuronal yel IPC
72
Grfico 4.7 Contraste Jarque Bera 73Grfico 4.8 Correlograma de los residuales al cuadrado 75Grfico 4.9 Pronstico de la varianza 75Grfico 4.10 Comparacin entre el pronstico del modelo GARCH
y el IPC76
8/10/2019 Tesis de Economa Con Anlisis Paramtrico
8/103
Tabla 3.2 Grado de integracin para distintas tendencia 50Tabla 3.3 Algunos modelos ARCH 59Tabla 4.1 Prueba de contraste de races unitarias para el IPC 63
Tabla 4.2 Resultado de arquitecturas propuestas 65Tabla 4.3 Programacin bsica de la primera iteracin en
Mathematica67
Tabla 4.4 Programacin de la etapa de prueba en Mathematica 71Tabla 4.5 Prueba ARCH 74Tabla 4.6 Modelo GARCH 74
8/10/2019 Tesis de Economa Con Anlisis Paramtrico
9/103
Lista de abreviaturas
ARCH: Heteroscedsticid ad condicional autorregresiva
ARIMA: Autorregresivos integrados de media mvil
BMV: Bolsa mexica de valores
CNBV: Comisin nacional bancaria y de valores
CNSF: Comisin nacional de seguros y fianzas
FAC: Funcin de autocorrelacin
FACP: Funcin de autocorrelacin parcial
GARCH: Heteroscedsticidad condicional autorregresivageneralizada
IA: Inteligencia artificial
IPC: ndice de precios y cotizaciones
MCO: Mnimos cuadrados ordinarios
MLP: Perceptron multicapa
MSE: Error cuadrtico medio
RNA: Redes neuronales artificiales
8/10/2019 Tesis de Economa Con Anlisis Paramtrico
10/103
Glosario de trminos
Campo de las RNA
Elemento deproceso, neurona,unidad, nodo:
Un elemento simple del clculo, lineal o no lineal, que aceptauna o ms entradas, calcula una funcin de estas y puedemandar el resultado a otra u otras neuronas.
Entrenamiento offline:
Actualizacin interactiva de las estimaciones al concluir cadapaso completo sobre los datos, como en la mayor parte delalgoritmos de regresin no lineal
Entrenamiento online:
Actualizacin interactiva de las estimaciones medianteecuaciones de diferencias, tomando las observaciones de unaen una, como en la aproximacin estocstica.
Regla deltageneralizada:
Algoritmo interactivo para entrenar un perceptron no linealmediante mnimos cuadrados, similar a la aproximacinestocstica.
Retropropagacin:(Backpropagation)
Clculo de derivadas para un MLP y diversos algoritmos (talcomo la regla delta generalizada).
Campo estadstico
Residuo: Trmino que se incluye en el anlisis de regresin con
propiedades probabilsticas, para efectos de posibles erroresde medicin de las variables, generalizar y simplificar lasrelaciones econmicas, y calcular la aleatoriedad inherentedel comportamiento humano.
arianza: Medida de dispersin que hace referencia a la variabilidad o
8/10/2019 Tesis de Economa Con Anlisis Paramtrico
11/103
Trminos y expresiones equivalentes o parecidosentre elcampo estadstico y las RNA
ESTAD STICA RNA
Estimacin, ajuste del modelo,optimizacin.
Entrenamiento, aprendizaje, adaptacin o auto-organizacin.
Estimacin de parmetros Pesos sinpticos
Modelo Arquitectura
Muestra Conjunto de entrenamiento
Muestra de validacin Conjunto de prueba
Observacin Patrn, par de entrenamiento, vector
Proyeccin - regresin Redes feedforward con una capa oculta
Regresin Mapeado, aproximacin de funcin
Residuos Errores
Variables independientes Entradas
Variable dependiente Salidas
8/10/2019 Tesis de Economa Con Anlisis Paramtrico
12/103
Resumen
En la literatura burstil se encuentran dos corrientes que aceptan lapredictibilidad de los rendimientos esperados de un activo. Laeficientista que sostiene que cualquier variacin en los rendimientosesperados es producto del carcter racional de los agentes econmicosy la ineficientista que asocia los cambios de los rendimientos esperadosa la psicologa de masas. Dentro de la primera corriente se hanutilizado modelos paramtricos aceptados ampliamente en la literatura
financiera como el modelo tipo GARCH, sin embargo en aos recientesse han aplicado tcnicas de prediccin inspirados en lascaractersticas del cerebro. En este trabajo se compara la eficiencia enel pronstico del IPC de la BMV a travs de dos modelos. Unoparamtrico: GARCH, y otro no paramtrico: Red Neuronal Artificial.Para ello se tom una muestra de 102 observaciones en forma semanaly se pronosticaron 6 periodos, con lo cual se logra demostrar la
superioridad de una RNA sobre el modelo paramtrico.
8/10/2019 Tesis de Economa Con Anlisis Paramtrico
13/103
Abstract
In the literature of financial markets there are two mainstreams whichaccept the predictability of the expected asset returns. The efficientmarket hypothesis establishes that any variation in expected returns isthe product of the agents economic rationality and the inefficientmarket hypothesis is associated with changes in expected returns dueto the masses psychology. Within the first hypothesis we can findparametric models like GARCH but in recent years new forecastingtechniques has been applied which are inspired by braincharacteristics. This paper compares the forecasting efficiency of theMexicos stock market index (IPC) through two models. The first one isa parametric model: GARCH and the second a non parametric model:Artificial Neural Network. It was taken into account a sample of 102observations on a weekly basis and it was predicted 6 periods. It could
be demonstrated the superiority of an ANN over the parametric model.
8/10/2019 Tesis de Economa Con Anlisis Paramtrico
14/103
Introduccin
Los modelos de series de tiempo han sido tradicionalmente aplicados amercados burstiles, ya que estos han probado en diversos estudios serefectivos en la prediccin. Por lo que, el modelo ARIMA(Autorregresivos Integrado de Media Mvil) es ampliamente reconocidoen estudios financieros, ya que han permitido modelar con algunas
tcnicas adicionales (modelos heteroscedsticos) la complejidad de lasseries burstiles (Guzmn et al., 2006).
El modelo arriba mencionado pertenecen a la clasificacin de modelosparamtricos, ya que parten de una funcin de distribucin, y reducenel problema a estimar los parmetros que mejor se ajustan a las
observaciones de la muestra (Bonilla et al, 2003). Dichos modelosresultan ser muy potentes cuando el proceso generador de datos sigueuna distribucin propuesta, en la teora financiera los resultados msconocidos se han obtenido a travs de la distribucin normal ogaussiana (Venegas, 2008).
Sin embargo, la aplicacin de modelos no paramtricos 1, en especial lasRNA (Redes Neuronales Artificiales), han permitido en aos recientesdar soluciones ms precisas a problemas complejos, por lo que se haexpandido su aplicacin debido a las limitaciones que presentan losmodelos paramtricos (como la violacin de supuestos, por ejemplo quelas observaciones no estn normalmente distribuidas) al ser aplicados afenmenos financieros, ya que estas en si son complejas para su estudio
en parte porque presentan volatilidad y por lo tanto son sensibles aexpectativas y a las condiciones del mercado.
Los modelos no paramtricos tambin son conocidos como mtodos de
8/10/2019 Tesis de Economa Con Anlisis Paramtrico
15/103
funcionales flexibles que se aproximen a la funcin objetivo, por lo queel problema consiste en calcular los parmetros de una funcin.
Adems, la literatura sugiere que las redes neuronales poseen variasventajas potenciales por ejemplo, que son aproximadoras de funcionesuniversales an para funciones no lineales 2, y debido a que se tieneantecedente de que el ndice de precios y cotizaciones (IPC) sigue unadinmica de comportamiento no lineal (Valdes,2002 ) lo que favorecela aplicacin de este tipo de modelos.
Finalmente, diversas investigaciones han comprobado la superioridadde las RNA sobre el modelo ARIMA (Parisi y Guerrero, 2003). Por loque este trabajo pretende la aplicacin de ambos modelosespecficamente para el IPC. El objetivo de esta investigacin , serdemostrar que un modelo no paramtrico basado en RNA predice
adecuadamente la tendencia de la serie de tiempo del IPC de la BMVesto comparativamente con un modelo paramtrico tradicional(GARCH 3). En consecuencia la hiptesis a probar a lo largo del estudioes que si un modelo basado en RNA predice adecuadamente latendencia de la serie de tiempo del IPC, implica que se requiere de unmodelo no paramtrico para obtener resultados ms precisos, noobstante el modelo paramtrico es menos demandante para suelaboracin.
Las justificaciones que implica la realizacin de la investigacin secentran en 2 direcciones: (1) Contribuir a una mayor difusin de lasredes para aspectos de pronstico, ya que la literatura es limitada parael sector financiero en Mxico, no as para sectores como la ingenieraen donde se abarcan casi todas las modalidades de las redes, y (2)Contrastar un enfoque tradicional de prediccin (GARCH) con lastcnicas de modelos no paramtricos como las RNA y comprobar sueficiencia para el IPC.
8/10/2019 Tesis de Economa Con Anlisis Paramtrico
16/103
La investigacin consta de una introduccin, cuatro captulos y unaconclusin. En la introduccin se da una visin amplia de la
investigacin, en el captulo 1 se describe la metodologa para elclculo del IPC y se hace la revisin de la literatura; en el captulo 2 serealiza la investigacin metodolgica sobre el funcionamiento de lasRNA, as como los componentes principales del modelo seleccionadopara efectos de pronstico ; en el captulo 3 se abarcan el modeloparamtrico (ARIMA) dando una descripcin detallada sobre lametodologa de este modelo, as como la tcnicas adicionales utilizadas
en el uso de series financieras(GARCH); en el captulo 4 se realiza laaplicacin de los modelos a la serie de tiempo del IPC, adems delcomparativo del pronstico dentro y fuera de la muestra; y en laconclusin se detallan los hallazgos ms sobresalientes del trabajo.
8/10/2019 Tesis de Economa Con Anlisis Paramtrico
17/103
Captulo 1. El principal indicador de la BMV:IPC y la importancia de los pronsticos .
1.1
Generalidades
El funcionamiento del sistema financiero de una economa de mercadocapta, equilibra, canaliza, usa y multiplica el dinero. Para el caso de
Mxico, la organizacin de este sistema financiero est compuestoprincipalmente por 2 organismos reguladores que son la ComisinNacional Bancaria y de Valores (CNBV) y la Comisin Nacional deSeguros y Fianzas (CNSF); ambas supervisadas por la Secretaria deHacienda y Crdito Pblico y el Banco de Mxico.
Parte del sector burstil lo constituye la bolsa mexicana de valores
(BMV), a travs de la cual se negocian ttulos de deuda y acciones deempresas, y su principal indicador es el IPC (ndice de precios ycotizaciones). El mercado de capitales es el segmento del mercado devalores donde se cotizan instrumentos que involucran recursos decapital, es decir con madurez de largo plazo o plazo indefinido (Rueda,2002).
Los instrumentos tpicos del mercado de capitales son las acciones4
,ttulos que representan una parte alcuota del capital social de unaempresa, acredita y transmite al tenedor la calidad y derechos del socioy constituye el lmite de responsabilidad que contrae el accionista anteterceros y la propia empresa. El IPC, es un indicador de la evolucindel mercado accionario en su conjunto y se calcula en funcin de lasvariaciones de los precios de una seleccin de acciones, llamadamuestra, balanceada, ponderada 5 y representativa de todas las acciones
cotizadas en la BMV6.
4 Las 2 clases bsicas de acciones son: las comunes (representan la inmensa mayora del capital y susposeedores solo obtienen beneficios cuando la empresa reporta utilidades) y las preferentes (garantizan un
di i t l t d ti d l l l i f d d it i )
8/10/2019 Tesis de Economa Con Anlisis Paramtrico
18/103
La ponderacin se basa (Las 5 series accionarias ms importantes de lamuestra, no podrn tener una ponderacin conjunta de ms del 60%)por el valor de capitalizacin, por lo tanto, el cambio en el precio deuna emisora integrante de la muestra influye en el comportamiento delndice en forma relativa al peso que dicha emisora tiene en la muestra.Este peso se determina por el valor de capitalizacin, es decir, el precioy el nmero de acciones inscritas. La muestra7 se selecciona bajo 2criterios: la bursatilidad y el valor de capitalizacin (Venegas, 2008).
Sin embargo, hay que considerar que no es el nico ndice que calculala BMV, la clasificacin que sigue es a travs de cuatro grandes grupos(principales, de rendimiento total, sectoriales y otros) los cuales sebasan de acuerdo al enfoque y especialidad de un grupo de empresas.
El fin de los indicadores burstiles es permitir a los inversionistas,intermediarios, empresas e incluso al sector pblico, esbozar una idea
precisa y vigente de la situacin del mercado de valores8
, de tal formaque adems de sustentar sus decisiones de financiamiento y/oinversin, puedan tambin disear anticipada y acertadamente susexpectativas econmicas (Centro Educativo del Mercado de Valores,1997).
1.2 Metodologa para el clculo el IPC
El nmero de series accionaras que conforman la muestra 9es de 35, lascuales pueden variar durante el periodo de vigencia por movimientoscorporativos. La periodicidad de la revisin de la muestra es anual(febrero).
La mecnica de clculo es:
=VMAF Valor de mercado ajustado por acciones flotantes del total de series accionarias de la muestra delndice.6 Con base en :www bmv com mx
8/10/2019 Tesis de Economa Con Anlisis Paramtrico
19/103
Base: 30 de octubre de 1978Clase: ndice ponderado por valor de capitalizacin
1.2.1 Frmula
Esta frmula mide el cambio diario del valor de capitalizacin de unamuestra de valores (Centro Educativo del Mercado de Valores, 1997).
=
it1it1t,i
itit
1tt
F*Q*P
Q*PII (1.1)
Donde:=it ndice en tiempo t=itP Precio de la emisora i el da t
=itQ Acciones de la emisora i el da t
=iF Factor de ajuste por ex derechos
La sumatoria del valor de capitalizacin de todas las emisoras de lamuestra, dividida entre la sumatoria del valor de capitalizacin de lamisma muestra del da hbil anterior, ajustada en su caso, determina elfactor de variacin del IPC respecto a dicho da anterior. El factor deajuste es siempre=1, excepto cuando la emisora i se aplica un derecho ouna restructuracin de capital 10, por lo que se requiere ajustar el valorde las series accionaras.
1.2.2 Criterios de seleccin
E i d l l d ibi f l
8/10/2019 Tesis de Economa Con Anlisis Paramtrico
20/103
Con este indicador se asegura que las empresas sean las de mayornegociacin en la BMV. Como primera seleccin se considera a las 35series11 accionaras de mayor bursatilidad, para lo cual se utiliza elndice de bursatilidad que genera y publica en forma mensual la BMV.Las series seleccionadas, se debern haberse mantenido dentro de estegrupo los ltimos 6 meses.
Si existieran 2 o ms series accionarias que presenten el mismo nivelde bursatilidad en el ltimo lugar disponible de la muestra, laseleccin se har, tomando en cuenta la frecuencia en que incurran en
este nivel las series y se considerar su valor de capitalizacin.
En caso de no contar con las 35 series accionaras en la primeraseleccin, se lleva a cabo una segunda seleccin considerando lafrecuencia en que las series incurren en los mejores lugares del nivelde bursatilidad y su valor de capitalizacin. En caso de que 2 o msseries accionaras cumplan con las mismas caractersticas y los lugares
no sea suficientes, se considerara la evolucin burstil de las series yla opinin del comit de metodologas de la BMV12(bmv.com.mx).
A continuacin se presenta como es calculado este ndice y lainterpretacin de sus resultados. Las variables que se utilizan paradescribir los niveles de negociacin son: el importe, el nmero deoperaciones y la media del importe (Venegas, 2008).
11Las series accionarias pueden indicar diversas situaciones o un rasgo particular. Por ejemplo, la serie A: sonacciones comunes que pueden ser suscritas exclusivamente por mexicanos; La serie B: son acciones ordinariasde libre suscripcin (pueden ser adquiridas por mexicanos o extranjeros, por personas fsicas o personasmorales) ; La serie L:son acciones de libre suscripcin con restriccin de derechos corporativos; entre otras. Enmuchos casos las empresas deciden hacer combinaciones de series que lgicamente mezclan condiciones oprerrogativas. Por ejemplo, La serie A1: acciones ordinarias que representan la parte fija del capital social y queson suscritas nada mas por mexicanos; La serie:A2: son acciones ordinarias suscritas solo por mexicanos querepresentan la parte variable del capital social; entre otras. Por lo general, las series se estipulan por decisin o
l d d l i di i i fi i l
8/10/2019 Tesis de Economa Con Anlisis Paramtrico
21/103
==jO
1iijijjt QPI (1.2)
Donde13:
jtO = Nmero de transacciones realizadas en la serie j durante elsemestre anterior a t.
=jtI Importe operado acumulado, para cada serie, al tiempo t.
=ijQ Respecto a la serie j se realizaron i= 1,2,, jtO operaciones de
volumen.
=ijP Precio
El importe total acumulado 14, tI del mercado, se define como la suma delos importes de las series, es decir:
==N
1jjtt II (1.3)
Para el clculo:
A partir de las variables operativas de cada una de las seriesaccionaras (importe total acumulado ( jtI ), nmero de operaciones
acumuladas ( ijQ ) y la media del importe ( jtI ), se evalan los valoresmximos y mnimos de cada una de las variables y se definen losporcentajes de participacin para cada variable.
8/10/2019 Tesis de Economa Con Anlisis Paramtrico
22/103
El ndice de bursatilidad, al tiempo t, se define:
(1.4)
( )
++= 3
minmax
minmaxmaxjt2
minmax
minmaxmaxjt1
minmax
minmaxmaxjtt
)I/Iln(
))I/I)(I/Iln((
)O/Oln(
))O/O)(O/Oln((
I/Iln
))I/I)(I/Iln((10
Por lo que 10I0 t , que deber interpretarse de acuerdo a lasiguiente tabla:
Tabla 1 .1 : Niveles de bursati l idadBursatilidad mnima 0.00 4.58Bursatilidad baja 4.59 6.33Bursatilidad media 6.34 7.99
Bursatilidad alta 8.00 10.00Fuente:Centro Educativo del Mercado de Valores (1997).
El ndice de bursatilidad, validado por la CNBV, permite seleccionar lamuestra dentro de un listado de emisiones jerarquizadas segn dichondice. En realidad el tamao de la muestra no tiene mucha relevancia
sino que la seleccin de las emisoras sea la adecuada.
2.- Valor de Capitalizacin: el cual otorga a cada una de las seriesaccionaras el valor de contribucin que tendrn dentro de la muestrade acuerdo al tamao de estas. Este criterio busca que las empresasconsideradas, sean significativas en su ponderacin y distribucin de la
muestra.
El ndice de capitalizacin se calcula con el nmero de acciones encirculacin que se multiplican por el ltimo precio. Se suman todos losvalores de mercado de las empresas muestra y esa sumatoria ser igual
8/10/2019 Tesis de Economa Con Anlisis Paramtrico
23/103
1.3 El ciclo burstil
En general, el ciclo econmico y el ciclo burstil se relacionandirectamente y suelen tener una duracin temporal similar. De hecho,parece que la bolsa se anticipa a la economa. Es decir, la bolsa bajacuando la economa aun crece y empieza a subir cuando la economatodava est en declive. Esto tiene sentido, ya que cuando compramosacciones, compramos los beneficios futuros (Martnez y Snchez,2002).En el mercado burstil, podemos diferenciar dos tipos de fases:La alcista y bajista.
Por lo tanto, podemos decir que se identifica un mercado bajista con unperiodo en que el retorno acumulado es menor que -20% y un mercadoalcista con aquel en que el retorno acumulado es mayor que un 20%,(grfico 1).En general la duracin de las fases del ciclo burstil vara enforma significativa de un pas a otro, sin embargo para todos esaplicable la regla de mayor duracin en la fase alcista (Gmez y Prez,
2002).
Grf ico 1 .1 : El c ic lo bursti l
Las institucionesfinancieras comienzana com rar acciones.
Alza en las cotizaciones.El inversor comn no seatreve a entrar en la bolsa
Se provoca una alza sostenida ygeneralizada de las cotizaciones.
Incrementan las ofertaspblicas de adquisicinde acciones.
La poblacin en general compraacciones que es satisfecha por elinversor entendido (anticipando eldeclive econmico).
Los grandes bancos vendernun porcentaje de sus acciones.
Mientras que el pblico engeneral solo lo toma como unaba a transitoria.
Los pequeos inversores vendena la cotizacin ms baja delciclo, sin darse cuenta de que
d l iLos inversores mse pertos empie an a
8/10/2019 Tesis de Economa Con Anlisis Paramtrico
24/103
1.4 Tendencias en la literatura terica sobre elmercado burstil
Existen bsicamente dos corrientes que aceptan la predictibilidad delos rendimientos esperados de un activo (Guzmn et al., 2007). Una deellas es la llamada eficientista, que pone nfasis en los elementos delclculo racional de los agentes econmicos en el comportamiento delprecio de las acciones con base en el valor presente de los dividendosfuturos; sus supuestos son el libre acceso al mercado de capitales, pocainfluencia de los agentes econmicos para determinar el precio de las
acciones, libre negociacin de ttulos dentro del mercado e informacinamplia y libremente disponible. Sus mximos exponentes son Schwert(1977), French et al. (1987), Fama (1991) y Chen (1991).
La otra corriente es la llamada ineficientista, que asocia los cambios delos rendimientos esperados a la psicologa de masas. Esta corriente se
sustenta principalmente en la teora de Keynes y es reforzada por losplanteamientos de Shiller (1984), Summers (1986), Poterba (1988) yWest (1988). Segn esta corriente, el comportamiento del mercadoaccionario se debe a factores estacionarios, existencia de modas,burbujas especulativas o errores sistemticos en el tratamiento de lainformacin (Nuez, 1988). La psicologa de masas tiene un papelfundamental para determinar el comportamiento del mercado burstil,la conducta del mercado accionario es de corto plazo y la bolsa de
valores es un mercado que prev los cambios con mayor anticipacin.
Los eficientistas calculan el precio de las acciones con base en lafrmula de valor presente o actual neto, donde los dividendosesperados y la tasa de rentabilidad esperada estn presentes. Lafrmula ms sencilla para calcular el precio de una accin es:
(1.5)
8/10/2019 Tesis de Economa Con Anlisis Paramtrico
25/103
Esta ecuacin expresa que el precio actual de las acciones es igual a lacorriente descontada de todos los dividendos futuros que se pagarnpor ella 15.
Los ineficientistas por otra parte proponen un modelo alternativo de laformacin del precio de los activos. En l, se incorporan a losinversionistas ordinarios y profesionales; los primeros son guiados porla psicologa de masas, la cual influye en los mercados financieroshaciendo que los precios de los activos sobrerreaccionen ante cambiosen la moda, el acontecer poltico, el ciclo econmico y los movimientossociales; mientras que los profesionales reaccionan en forma racional alos mercados en una forma rpida y apropiadamente a la informacinpblica disponible. El modelo de la formacin de precios que Shiller(1984) propone es:
(1.6)
Donde:
Pt= Precio real de los activos
= Dividendos esperados de los activos, segn los inversionistasprofesionales.
= Dividendos esperados de los activos segn los inversionistasordinarios.
= Tasa de descuento de los dividendos esperados por losinversionistas profesionales.
= Tasa de descuento de los dividendos esperados por losinversionistas ordinarios.
8/10/2019 Tesis de Economa Con Anlisis Paramtrico
26/103
8/10/2019 Tesis de Economa Con Anlisis Paramtrico
27/103
8/10/2019 Tesis de Economa Con Anlisis Paramtrico
28/103
Un pronstico puntual proporciona una gua sencilla y fcil decomprender el futuro de una serie temporal. Sin embargo los choquesaleatorios e impredecibles afectan toda la serie que se estpronosticando. Como resultado de esos choques se espera que los
errores de pronstico sean distintos a cero, an para pronsticos muybuenos. En consecuencia, se desea conocer el grado de confianza quese tiene con determinado pronstico puntual. En otras palabras, sedesea conocer cuanta incertidumbre est asociada con determinadopronstico (Diebold, 1998).
1.5.1 El proceso del pronstico
Para Bails and Peppers (1993) un pronstico no debe considerarsecomo algo permanente o esttico. Por lo que se debe visualizar como unproceso:
1. Determinar el propsito y objetivo del pronstico
2. Encontrar relaciones tericas
3. Recolectar la base de datos
4. Analizar la base de datos
5. Estimar un modelo inicial
6. Evaluar el modelo y hacer revisiones
7. Presentar un pronstico inicial
8.Entrega del pronstico
9. Establecer procedimientos de monitoreo
8/10/2019 Tesis de Economa Con Anlisis Paramtrico
29/103
1.6 Revisin de investigaciones sobre predictibilidad.
Aunque la literatura sobre la predictibilidad de los mercadosfinancieros es vasta, en este apartado se revisan las investigacionesms relevantes de los estudiosos sobre el tema y sus resultados.
El tema de la predictibilidad en el mercado burstil es reciente,prcticamente se ha desarrollado en las dos ltimas dcadas. Lostericos de la predictibilidad del rendimiento de un activo a travs del
valor presente neto y de variables macroeconmicas se dividen, al igualque en los determinantes del mercado burstil, en las corrienteseficientista e ineficientista. La pregunta que intentan resolver ambascorrientes es cul es el origen de las variaciones de los dividendosesperados y de la tasa de descuento o bien de los rendimientosesperados de un activo.
Los eficientistas sostienen que cualquier variacin en los rendimientosesperados es producto del carcter racional de los agentes econmicos,y adems estos rendimientos revierten a la media en el largo plazo. Losineficientistas asocian los cambios de los rendimientos esperados a lapsicologa de masas, argumento que los lleva a concluir que el mercadono se comporta en forma racional (Guzmn et al, 2007).
Dada la aceptacin de la predictibilidad de los rendimientos esperadosde un activo en esas dos escuelas, independientemente del carcterracional o irracional de los mercados, un recuento de los trabajosempricos sobre el pronstico del mercado burstil muestra que lasprincipales variables que determinan los cambios en los rendimientosde las acciones son las razones financieras, la tasa de inters y lasvariables macroeconmicas. En la tabla 1.2 se intenta resumir aquellasinvestigaciones ms sobresalientes sobre el tema.
Tabla 1 .2: Pr incipales invest igaciones sobre predict ibi l idadAo Autores Investigacin
1981 G Shill Ob l 16 l j di t d l i i d l
8/10/2019 Tesis de Economa Con Anlisis Paramtrico
30/103
descuento).1990 Balvers, Cosimano
y McDonaldEl rendimiento de los activos puede ser predectible porque el productoagregado es predectible. Por lo que domina la relacin entre producto yrendimiento. Utilizan un modelo intertemporal de equilibrio general17.
1991 Fama Muestra que un elemento adicional que explica la variacin en el precio de losactivos es su volatilidad.
1992 Bekaert y Hodgrik Prueban la capacidad predictiva de los dividendos, el rendimiento futuro en elmercado de cambios extranjero y los rendimientos en exceso rezagados sobrelos rendimientos en exceso corrientes y concluyen que tienen alto poderpredictivo sobre el rendimiento en exceso de los activos. Utilizan un modelode vectores autorregresivos.
1993 Nelson y Kim Prueban que la actividad econmica, medida por el ndice de la produccinindustrial no es un buen predictor de la variacin de los precios de los activos.
1997 Kothari y Shanken Evalan la capacidad predictiva de la razn financiera: Valor en libros/Valorde mercado (L/M) y las comparan con las de dividendos, como resultado esque ambas tienen poder predictivo.
1998 Rantiff y Scholl Muestran la capacidad predictiva de L/M y la variable diferencial sobre losrendimientos de los activos.
2001 Tono y Veronesi Muestran que la variable de ingreso que explicara la variacin en elrendimiento de los activos es la razn ingreso laboral a consumo la cual,subrayan los autores, es una variable macroeconmica pura a diferencia de lasvariables financieras. Utilizan un modelo de equilibrio general.
2002 Valds* Concluye que no se puede rechazar la hiptesis nula de que el ndiceaccionario sigue una caminata aleatoria, ni la linealidad de la media de losrendimientos del IPC de1985 a 2000.
2003 Parisi y Guerrero Analizan la capacidad predictiva de los modelos de RNA para pronosticar elsigno de las variaciones semanales de 10 ndices burstiles de 1993 a 2002. Yconcluyen que los modelos basados en RNA, superan a los modelos ARIMA.
2003 Salas* Analiza si la funcin de la esperanza condicional de los indicadores burstilesde 15 pases, incluyendo a Mxico, se puede modelar de manera lineal. Elresultado al que llega es que los ndices burstiles de la mayora de los pasesanalizados se pueden modelar en forma lineal. Utilizan los estadsticos deCramer Von Mises y el de Kolmogrov-Simirnov19.
2004 Johnston ySoriano*
Estudian la volatilidad de los rendimientos accionarios para 39 pases,incluyendo a Mxico, con datos diarios para el periodo 1990-2002. Los
8/10/2019 Tesis de Economa Con Anlisis Paramtrico
31/103
8/10/2019 Tesis de Economa Con Anlisis Paramtrico
32/103
volatilidad y en la construccin de modelos matemticos que prediganun cambio de signo de estos.
Finalmente, se presenta una sntesis del captulo para mostrar loselementos ms sobresalientes. Parte del sector burstil lo constituye labolsa mexicana de valores (BMV) y su principal indicador es el ndicede precios y cotizaciones (IPC), el cual representa la evolucin delmercado accionario en su conjunto a travs de una muestra balanceada,ponderada y representativa de todas las acciones cotizadas.
En cuanto a las tendencias en la literatura que actan en el mercadoburstil tenemos, a los eficientistas que sostienen que cualquiervariacin en los rendimientos esperados es producto del carcterracional de los agentes econmicos, mientras que los ineficientistasasocian los cambios de los rendimientos esperados a la psicologa demasas por lo que concluyen que el mercado no se comporta de formaracional, sin embargo, ambas corrientes aceptan la predictibilidad delos rendimientos esperados de un activo .Por consiguiente, lospronsticos que se realizan en este trabajo son a partir de una serietemporal IPC, puntuales y de corto plazo.
8/10/2019 Tesis de Economa Con Anlisis Paramtrico
33/103
Captulo 2. Modelo no paramtrico:Redes neuronales artificiales.
2.1 Generalidades
El cerebro humano se caracteriza por su gran capacidad de procesarinformacin y su rapidez de respuesta han hecho que se intentendesarrollar sistemas que imiten, al menos en parte sus caractersticas.
Su capacidad para realizar tareas como el reconocimiento, el recuerdo ola clasificacin se han intentado plasmar en diferentes tipos desistemas.
Las redes neuronales artificiales (RNA) constituye una de las tcnicasque intentan reproducir las caractersticas del cerebro, a partir de suestructura fisiolgica bsica: la neurona, as como la agrupacin de
neuronas en sistemas que pueden mostrar un comportamiento dealguna forma inteligente.
Las RNA son arquitecturas de procesamiento paralelo 23 que ofrecennuevos mecanismos aplicables a una amplia gama de problemas,permitiendo tratar problemas difciles o imposibles de resolvermediante mtodos tradicionales, su aplicacin se ha extendido a
problemas de prediccin, clasificacin, reconocimiento y, en general, aproblemas que no pueden ser descritos de forma exacta y para lo que laprogramacin convencional ofrece soluciones limitadas o inadecuadas(Prez y Martn, 2003).
Una definicin que enfatiza el aspecto tecnolgico, nos dice que lasRNA (ANNs24) son distribuidas25, adaptativas26 y generalmente con
mecanismos de aprendizaje no lineal, construida por diversosprocesadores elementales (Principe et al, 2000)
Dentro de lo que se entiende por inteligencia artificial (I.A) una de las d l d l d i d
8/10/2019 Tesis de Economa Con Anlisis Paramtrico
34/103
nodos en los que hay elementos procesadores de informacin de cuyasinteracciones locales depende el comportamiento del conjunto delsistema.
Estas redes a su vez pueden ser de procesamiento numrico, la cualrecibe directamente la seal de entrada desde el exterior y opera sobreella. Si la conexin entre los nodos se realiza en forma global bajo unasreglas de composicin, estamos ante los llamados sistemasdistribuidos, mientras que si la conexin se realiza agrupando ensubredes, se denomina sistema asociativo. Por lo que si se realiza unadistribucin en la que cada nodo 27 funciona corporativamente, se
denomina red neuronal (Hilera y Martnez, 2000) .
En trminos estadsticos, las RNA son estimadores no paramtricos querealizan estimaciones denominadas de modelo libre 28.Estas redes sesuelen definir en trminos de sus algoritmos o implementaciones(Prez y Martn, 2003).
Para fines de este trabajo nos centraremos en la red backpropagation, 29la cual se considera una red feedforward multicapa que utilizafunciones no lineales y el algoritmo pretende minimizar el error.Considerando lo anterior este tipo de redes superan las limitacionesde las redes con una sola capa (Perceptrn y Adeline) por lo que suaplicacin ha sido extensa en diversas disciplinas, por ejemplo aproblemas de clasificacin, aproximacin de funciones y pronsticos(Mehrotra et al., 2000).
2.2 Redes neuronales biolgicas
La descripcin de la estructura y el funcionamiento de los sistemasbiolgicos nos servirn para comprobar el paralelismo que se intentaestablecer en los sistemas artificiales. El sistema nervioso es unsistema complejo, formado por unidades individuales denominadasneuronas, unidas entre s por una malla de fibras nerviosas.
8/10/2019 Tesis de Economa Con Anlisis Paramtrico
35/103
Las neuronas estn separadas estructural, metablica y funcionalmentey pueden tener tamaos y formas muy variados. Las neuronas formanredes entretejidas muy elaboradas, cuyas funciones varan endiferentes regiones del sistema. Estas diferencias de formas y tamaos
reflejan el modo en que las neuronas procesan la informacin.
2.2.1 La neurona biolgica
Aunque las neuronas pueden presentar mltiples formas, muchastienen un aspecto similar. En todas las neuronas se identifican 3 partesprincipales (Prez y Martn, 2003).
F igura 2 .1 : Partes de una neurona bio lgica
Fuente: www.google.com.mx
1.- El cuerpo celular o soma: Centro de sntesis de la clula, queprocesa las seales que le llegan de otras clulas, en forma deimpulsos, generando un nuevo impulso si se cumplen ciertascondiciones.
2.- Las dentritas: Ramas fibrosas que emanan del cuerpo celular.
3.- El axn: Fibra principal que emana el cuerpo celular. Es elcanal transmisor de los impulsos generados por la clula. Seramifica en su extremo final para conectar con otras neuronas, a
8/10/2019 Tesis de Economa Con Anlisis Paramtrico
36/103
La conexin entre neuronas se realiza por medio de uniones especialesdenominadas sinapsis30(figura 2.2). La transmisin de un lado a otro deestas uniones es de naturaleza qumica. La cantidad de sealtransferida depende de la cantidad de qumica aportada por el axn y
recibida por las dentritas. La intensidad sinptica es modificadacuando decimos que el cerebro aprende. La sinapsis combinada con elproceso de informacin de la neurona, forman el mecanismo bsico dela memoria.
Figura 2 .2: Sinapsis
Fuente: www.google.com.mx
Las neuronas en estado de inactividad presentan en su interior unpotencial de reposo de aproximadamente -70 mv. Si se aplica unestmulo despolarizado (reduccin del potencial de reposo) la respuestade la neurona consiste en pequeos cambios despolarizados con algunadistorsin. Cuando dicho estmulo alcanza el nivel de 10-15 mv,denominado umbral de impulso nervioso, se provoca una respuestabreve y rpida conocida como potencial de accin o impulso nervioso.Este se propaga a travs del axn en forma de reaccin en cadena,mantenindose una magnitud uniforme a medida que avanza. Sullegada a la unin sinptica provoca fenmenos elctricos al otro ladode la sinapsis, denominados potenciales postsinpticos.
Aunque las neuronas propagan un solo tipo de seal, los potenciales
8/10/2019 Tesis de Economa Con Anlisis Paramtrico
37/103
que una neurona recibe potenciales excitatorios 31 e inhibitorios 32procedentes de diversas sinapsis En general, la neurona combina elefecto de estos potenciales en forma de sumas y restas,desencadenando un impulso nervioso solo si la combinacin supera el
umbral.
Existen grupos de neuronas pertenecientes a una determinada regindel cerebro que forman unidades funcionales especializadas en tareasconcretas, como puede ser la visin. La unin de todos los subgruposforma el encfalo. Se sabe que el procesamiento en el sistema nerviosoinvolucra la actuacin de muchos de estos subgrupos, que intercambian
continuamente informacin.
La intensidad de una sinapsis no est representada por una cantidadfija, sino que se puede modificar en una escala temporal mucho msamplia que la del disparo de las neuronas .Se supone que estacaracterstica constituye al menos en buena medida el aprendizaje.
El cerebro de un ser vivo se modela durante su desarrollo, adquiriendouna serie de cualidades por la influencia de la informacin que recibede su entorno. Existen diversas formas de modelar el sistema nervioso:establecer nuevas conexiones, eliminar alguna ya existente, modificarlas intensidades sinpticas o eliminar neuronas. La modificacin de lasintensidades sinpticas es la caracterstica principal que utilizarn lasRNA para aprender.
2.3 Componentes de una red neuronal artificial
Una RNA se puede definir como un dispositivo diseado para laimitacin de los sistemas nerviosos de los animales, consiste en unainterconexin de unidades, denominadas neuronas artificiales oelementos de proceso, cuyo funcionamiento se inspira en las neuronas
8/10/2019 Tesis de Economa Con Anlisis Paramtrico
38/103
8/10/2019 Tesis de Economa Con Anlisis Paramtrico
39/103
Las entradas a un elemento de proceso pueden ser las salidas de loselementos de proceso conectados a l, o entradas procedentes delexterior. As mismo, su salida puede ser una entrada a otros elementosde proceso, o ser una salida de la propia RNA. Cada conexin de
entrada tiene asociado un nmero, denominado peso o fuerza de laconexin, que determina el efecto cuantitativo de unas unidades sobreotras y corresponde a la sinapsis biolgicas (figura 2.4).Los pesos sesuelen representar con una w (weights) y 2 subndices que indican laneurona y la entrada a dicha neurona a la que estn asociadosrespectivamente. Por tanto cada neurona tendr tantos pesos comoentradas.
Figura2.4: Esquema con varias neuronas conectadas .
Fuente: Prez y Martn (2003)
La entrada total a un elemento de proceso, o entrada neta, ie , sedetermina aplicando una regla de propagacin, , a las entradas y suscorrespondientes pesos. Se pueden utilizar diferentes funciones,aunque la ms habitual es de tipo lineal y se basa en la suma ponderada
de las entradas por los pesos:
)t(w)t(x)t(e ijn
1jiji
=
= (2.1)
EPb
)t(x
)t(x
)t(x
3a
2a
1a
)(tSi
EPa
EPi
)t(x
)t(x
)t(x
3b
2b
1b
3b
2b
1b
3a
2a
1a
w
w
w
w
w
w
1iw
2iw
l ili l di i lid l
8/10/2019 Tesis de Economa Con Anlisis Paramtrico
40/103
entre vectores, se suele utilizar la distancia euclidea , que representa ladistancia entre el vector de entrada y el de pesos. Si ambos vectoresson muy similares, la distancia es muy pequea, aumentado con susdiferencias:
=
=n
1j
2ijiji )]t(w)t(x[)t(e (2.2)
En algunos modelos la neurona se aade al conjunto de pesos unparmetro adicional, i , denominado umbral o tendencia, con lo que seaade un grado de libertad mas a la neurona (figura2.5).Dichoparmetro se asocia a una entrada con valor fijo igual a -1. La entradaneta calculada en (2.2) ser en este caso:
i
n
1j
ijiji )]t(w)t(x[)t(e = =
(2.3)
Figura 2 .5: Modelo de neurona con umbral
Fuente: Prez y Martn (2003)
2.3.2 Funcin de activacin
EPi
)(
)(
)(
2
1
tx
tx
tx
in
i
i
)(tSi
inw
2iw
- 1 i
8/10/2019 Tesis de Economa Con Anlisis Paramtrico
41/103
Al conjunto de valores de activacin de los elementos de proceso de unared indica lo que esta representa en un momento dado. Dichos valorespueden ser continuos o discretos. La funcin de activacin se suele
considerar determinista y, en la mayor parte de los modelos, montonacreciente y continua, como se observa habitualmente en las neuronasbiolgicas. Cuando los algoritmos de aprendizaje requieren de unafuncin de activacin sea derivable, las mas empleadas son lasfunciones de tipo sigmoideo33.
Figura 2 .6: Funciones de act ivacin t picas .
Identidad Escaln Lineal a tramosU s o: Cua ndo la
s a l ida de la ne uronae s igua l a s u e s ta dode a c t iva c in
U s o: Cua ndo la
ne urona no s edis p a ra mie ntra sla a c t iva c in nos up e re un c ie r toumbra l .
U s o: L a a c t iva c in
de la unida d e s tobl iga da ap e rma ne ce r de ntrode un inte rva lo .
Gaussiana Sigmoidea S inusoidalU s o: imp l ica e lc lcu lo decua dra dos dedis ta nc ia s e ntre losve c to re s de ent ra day los de pe s os .
U s o: cua ndo s ere quie ra unafunc in de r iva ble ,con unincre me ntomonotnico
U s o: Cua ndo s ere quie re e xp re s a re xp l c i ta me nte unap e r iodic ida dte mp ora l .
Fuente: Elaboracin propia con base en Prez y Martn (2003) e Hilera y Martnez(2000).
Tanto la funcin de salida como la de activacin pueden tomar distintasf l f i d i b l d d
Cuando una neurona recibe una seal de entrada formada por n
8/10/2019 Tesis de Economa Con Anlisis Paramtrico
42/103
Cuando una neurona recibe una seal de entrada, formada por nvalores, determina su entrada neta como la suma ponderada de talesvalores por los pesos asociados a cada valor de entrada. Aplicando a laentrada neta la funcin de activacin prefijada, se obtiene el nuevo
valor de activacin de la neurona.
2.4 Estructura de una red neuronal artificial
2.4.1 Niveles o capas de neuronas
Una RNA consta de varios elementos de proceso conectados de algunaforma, generalmente organizados en grupos denominados capas.Existen 2 capas tpicas en toda red, que contienen conexiones con elexterior (Prez y Martn, 2003):
1.- Capa de entrada: a travs de la cual se presentan los datos de lared, y 2.- Capa de salida: muestra la respuesta de la red a unaentrada. La capa de entrada generalmente sirve para distribuir lasentradas de la red, por lo que no se tiene en cuenta a la hora decontabilizar el nmero de capas de esta. El resto de capas existentesentre ambas se denominan capas ocultas. Estas capas no tienenconexin directa con el entorno pero proporcionan a la red gradosde libertad adicionales, que permiten encontrar representac ionesinternas correspondientes a determinados rasgos del entorno(figura2.7).
Figura 2 .7 : Red neuronal con una capa oculta .La primera t iene 3 neuronas , la segunda 2 y la tercera 1 .
2 4 2 Conexiones entre las neuronas
8/10/2019 Tesis de Economa Con Anlisis Paramtrico
43/103
2.4.2 Conexiones entre las neuronas
La conectividad entre los nodos de una red neuronal est relacionadacon la forma en que la salida de las neuronas est canalizada paraconvertirse en entradas de otras neuronas. La seal de salida de unnodo puede ser una entrada de otro elemento de proceso, o incluso serla entrada de s mismo (conexin autorrecurrente).
Cuando ninguna salida de las neuronas es entrada de neuronas del
mismo nivel o de niveles precedentes, la red se describe como depropagacin hacia delante (Feedforward). Cuando las salidas puedenser conectadas como entradas de neuronas de niveles previos o delmismo nivel, incluyndose ellas mismas, la red es de propagacinhacia atrs (feedback) (Mehrotra et al. , 2000).
2.5 Operacin de la red
En una RNA se distinguen 2 fases de operacin (Prez y Martn, 2003):
1.- Fase de aprendizaje o entrenamiento: Una de lascaractersticas fundamentales en la RNA es que son sistemas
entrenables, capaces de realizar un determinado tipo de procesamientoaprendiendo a partir de un conjunto de ejemplos, denominadospatrones de entrenamiento. La memoria de estas redes es distribuida.Los pesos de las conexiones son las unidades de memoria de la red. Losvalores de dichos pesos representan su estado actual de conocimiento.
En la fase de entrenamiento, se representa a la red un conjunto de
patrones de entrenamiento de forma interactiva. La red adaptar lospesos de las conexiones de forma que la respuesta a cada uno de lospatrones tenga un error cada vez menor. En general, el entrenamientoconcluye cuando se alcanza un error predeterminado.
8/10/2019 Tesis de Economa Con Anlisis Paramtrico
44/103
valores deseados y los obtenidos de la salida, es decir, en funcin del
8/10/2019 Tesis de Economa Con Anlisis Paramtrico
45/103
valores deseados y los obtenidos de la sal ida, es decir, en funcin delerror cometido en la salida.
(b)Aprendizaje por refuerzo: Se basa en la idea de no disponerde un ejemplo completo de comportamiento deseado; es decir, indicardurante el entrenamiento exactamente la salida que se desea queproporcione la red ante una determinada entrada.
(c)Aprendizaje estocstico: Consiste en realizar cambiosaleatorios en los valores de los pesos de las conexiones de la red y
evaluar su efecto a partir del objetivo deseado y de distribuciones deprobabilidad.
2.-Aprendizaje no supervisado: No requieren influencia externa paraajustar los pesos de las conexiones entre sus neuronas. La red norecibe ninguna informacin por parte del entorno que le indique si lasalida generada en respuesta a una determinada entrada es o no
correcta (Hilera y Martnez, 2000).
(d)Aprendizaje hebbiano: Consiste bsicamente en el ajuste delos pesos de las conexiones de acuerdo con la correlacin de los valoresde activacin (salidas) de dos neuronas conectadas.
(e)Aprendizaje competitivo y cooperativo: Suele decirse que lasneuronas compiten (y cooperan) unas con otras con el fin de llevar cabouna tarea dada. Con este tipo de aprendizaje, se pretende que cuandose presente cierta informacin de entrada, solo una de las neuronas desalida de la red, o un cierto grupo de neuronas, se activen. Por tanto lasneuronas compiten por activarse quedando finalmente solo lasvencedoras.
3.-Aprendizaje hbrido: En una misma red se utiliza aprendizajesupervisado y el no supervisado, normalmente en distintas capas de lamisma (Prez y Martn, 2003).
8/10/2019 Tesis de Economa Con Anlisis Paramtrico
46/103
30
Tabla 2.1 Caractersticas de las redes neuronales artificiales ms conocidas.Aprendizaje Modelo de Red Topologa Algunas
Aplicacione sAut or(es)
Tipo Regla On Off
Supervisado
Correccinde error
Perceptron 2 capasFeedforward 35
Reconocimientode caracteresimpresos.
Rosenblat1958
Adaline/Madeline 2 capasFeedforward
Filtrado deseales.EcualizadorAdaptativo.Modems.
WidrowHoff1960
Backpropagation N capasFeedforward
Sntesis de vozdesde texto.Prediccin.Reconocimientode patrones.
Werbos,Paker yRumelhart
1986
Brain-State-in-a-Bo x 1 capaConex.lat. 36
y Auto-Recu.
Extraccin deconocimiento debases de datos.
Anderson1977
Counterpropagation 3 capasFeedforwardConex.lat.
y Auto-Recu
Comprensin deimgenes. Hecht-Niel-Sen1987
Refuerzo Linear Reward Penalty 2 capas
FeedforwardReconocimientoo clasificacin depatrones.
Barto1985
Associative Rew.Penalty
2 capasFeedforward
Reconocimientoo clasificacin depatrones.
Barto1985
Adaptive HeuristicCritic
3 capasFeedforward
Barto1983
35Las redes multicapas, normalmente todas las neuronas de una capa reciben seales de entrada de otra capa anterior ms cercana a la entrada de la red y enva las seales de
salida a una capa posterior, mas cercana a la salida de la red. A estas conexiones se les denomina conexiones hacia delante (feedforward).36
En las redes monocapa, se establecen conexione laterales entre las neuronas que pertenecen a la nica capa que constituye la red. Tambin pueden existir conexiones auto
recurrentes (salida de una neurona conectada a su propia entrada).Estas redes s utiliza tpicamente en tareas relacionadas con autoasociacin.
Estocstico Boltzmann Machine 1 capa Reconocimiento Hinton
8/10/2019 Tesis de Economa Con Anlisis Paramtrico
47/103
31
stocst co o t a ac e capaConex.lat3 capasFeedforward
eco oc e tode patrones(imgenes, sonary radar).
Optimizacin.
toAckleySejnowski1984
Cauchy Machine 1 capaConex.lat3 capasFeedforward
Reconocimientode patrones(imgenes, sonary radar).
Szu1986
Nosupervisado
AprendizajeHebbiano
Hopfield 1 capaConex.lat
Reconstruccinde patrones yoptimizacin.
Hopfield1984
Learning Matrix 1 capaCrossbar
Reconocimientode imgenes.
Steinbuch1961
TemporalAssoc.Memory
2 capasFeedback37
Desarrollo desoftware.Reconocimientode patrones (voz,texto). Anlisis deMercados.
Amari1972
Linear Associative
Memory
2 capas
Feedforward
Reconocimiento
de cdigos.
Anderson
1968Kohonen1977
Optimal Lam 2 capas/FF1 capaConex.lat.
y Auto-Recu
Reconocimientode imgenes.
Wee1968Kohonen1973
Drive-Reinforcement 2 capasFeedforward
Klopf1986
Fuzzy AssociateMemory
2 capasFeedforward
Desarrollo desoftware.Reconocimientode patrones (voz,texto). Anlisis deMercados.
Kosko1987
37Cuando existe a posibilidad de conectar las salidas de las neuronas de capas posteriores a as entradas de capas anteriores se les denomina conexiones hacia atrs (feedback)
Additive Grossberg 1 capa Modelo mas Grossberg
8/10/2019 Tesis de Economa Con Anlisis Paramtrico
48/103
32
g pConex.lat.
y Auto-Recuampliamenteaplicado.
g1968
Shunting Grossberg 1 capa
Conex.lat.y Auto-Recu
Grossberg
1973
BidirectionalAssociative Memory
2 capasFeedforward/Feedback
Desarrollo desoftware.Reconocimientode patrones (voz,texto). Anlisis deMercados.
Kosko1988
Adaptive Bam 2 capas
Feedforward/Feedback
Kosko
1987
AprendizajeCompetitivo/Cooperativo
Learning VectorQuantizer
2 capasConex.lat.Implic.
Autorrec.
Problemas declasificacin ysegmentacin deimgenes.
Kohonen1981
Cognitron/Neocognitron
Jerarqua deNiveles con
capasbidimens. FF/F.Back
Reconocimientode caracteres
manuscritos.
Fukushima1975/1980
Topology PreservingMap
2 capasFFConex.latImplic.
Autorrec.
Reconocimientode patrones,codificacin dedatos.Optimizacin.
Kohonen1982
Adaptive Resonance
Theory
2 capas
Feedforward/Feedback/conex.lat.
Auto-Recu.
Reconocimiento
de patrones(radar, sonar,etc.)
Carpenter
Grossberg1987
Fuente: Hilera y Martnez (2000) y Mehrotra (2000).
2.7 La red Backpropagation
8/10/2019 Tesis de Economa Con Anlisis Paramtrico
49/103
7 p p g
En 1986, Rumelhart, Hinton y Williams, basndose en los trabajos deotros investigadores (Werbos, 74)(Parker, 82) formalizaron un mtodopara que una red neuronal aprendiera la asociacin que existe entrepatrones de entrada y las clases correspondientes, utilizando masniveles de neuronas que los que utiliz Rosenblatt para el Perceptrn 38.Este mtodo, conocido en general como backpropagation39(propagacion del error hacia atrs) est basado en la generalizacin dela regla delta y, a pesar de sus propias limitacione s40, ha ampliado de
forma considerable el rango de aplicaciones de las redes neuronales(Hilera y Martnez, 2000).
Esta red generalmente incluye una capa de entrada (que no realizaprocesamiento), otra de salida y al menos una capa oculta. Aunque noexisten lmites tericos en el nmero de capas ocultas, normalmentehay una o dos, habindose comprobado experimentalmente que se
pueden resolver problemas de cualquier complejidad utilizando unmximo de 3 capas ocultas (Prez y Martn, 2003).
Por lo que se puede decir, que las capacidades de las redes estnlimitadas por su tamao. Aunque el uso de redes grandes incrementa eltiempo de entrenamiento y reduce la generalizacin (memoriza la reden lugar de aprender) (Mehrotra et al, 2000).
De forma simplificada, el funcionamiento de una red backpropagationconsiste en un aprendizaje de un conjunto predefinido de pares deentradas-salidas dados como ejemplo, empleando un ciclopropagacin-adaptacin de dos fases: primero se aplica un patrn deentrada como estmulo para la primera capa de las neuronas de la red,se va propagando a travs de todas las capas superiores hasta generaruna salida, se compara el resultado obtenido en las neuronas de salidacon la salida que se desea obtener y se calcula un valor de error paracada neurona de salida. A continuacin, estos errores se transmitenhacia atrs, partiendo de la capa de salida, hacia todas las neuronas dela capa intermedia que contribuyan directamente a la salida, recibiendo
el porcentaje de error aproximado a la participacin de la neuronai t di d l lid i i l E t it
8/10/2019 Tesis de Economa Con Anlisis Paramtrico
50/103
intermedia de la salida original. Este proceso se repite, capa por capa,hasta que todas las neuronas de la red hayan recibido un error quedescriba su aportacin relativa al error total. Basndose en el valor del
error recibido, se ajustan los pesos de conexin de cada neurona, demanera que en la siguiente vez que se presente el mismo patrn, lasalida est ms cercana a la deseada; es decir, el error disminuya.
2.7.1 Regla delta generalizada
La regla propuesta por Widrow en 1960 (regla delta) ha sido extendidaa redes con capas intermedias (regla delta generalizada 41) conconexiones hacia delante (feedforward) y cuyas clulas tienenfunciones de activacin continuas (lineales o sigmoidales), dando lugaralgoritmo de retropropagacin (backpropagation).Estas funcionescontinuas son no crecientes y derivables. La funcin sigmoidalpertenece a este tipo de funciones (Hilera y Martnez, 2000).
Este algoritmo utiliza tambin una funcin o superficie de errorasociada a la red, buscando el estado estable de mnima energa o demnimo error a travs del camino descendente de la superficie de error.Por ello realimenta el error del sistema para realizar la modificacin delos pesos en un valor proporcional al gradiente decreciente de dichafuncin de error.
Los pesos se actualizan de forma proporcional a delta, o diferenciaentre la salida deseada y la obtenida ( = salida deseada-salidaobtenida).Dada una neurona (unidad iU ) y la salida que
produce, iy (ecuacin 2.4), el cambio que se produce en el peso de la
conexin que une a la salida de dicha neurona con la unidad jU ( jiW )para un patrn de aprendizaje p determinado es:
8/10/2019 Tesis de Economa Con Anlisis Paramtrico
51/103
El punto en el que difiere la regla delta generalizada de la regla delta es elvalor co ncr et o de pj .Por otro lado, en las redes multinivel, a diferencia
de las redes sin neuronas ocultas, en principio no se puede conocer lasalida deseada de las neuronas de las capas ocultas para poderdetermina los pesos en funcin del error cometido. Sin embargo,inicialmente si podemos conocer la salida deseada de las neuronas desalida. Segn esto, si consideramos la unidad jU de salida, entoncesdefinimos:
jpjpjpj netfyd = (2.5)
Donde pjd es la salida deseada de la neurona j para el patrn py jnet es laentrada neta que recibe la neurona j.
Esta frmula es como la de la regla delta excepto en lo que se refiere ala derivada de la funcin de transferencia. Este trmino representa lamodificacin que hay que realizar en la entrada que recibe la neurona j.En el caso de que dicha neurona no sea de salida, el error que seproduce estar en funcin del error que se cometa en las neuronas quereciban como entrada la salida de dicha neurona. Esto es lo que se
denomina procedimiento de propagacin del error hacia atrs.
Segn esto, en el caso de que jU no sea una neurona de salida el errorque se produce esta en funcin del error que se comete en lasneuronas que reciben como entrada la salida de jU :
( )jk
kjpkpj netfw
= (2.6)
El d d i d l bi id l
8/10/2019 Tesis de Economa Con Anlisis Paramtrico
52/103
El mtodo de retropropagacin del error , tambin conocido como elgradiente descendente, que requiere de un importante nmero declculos para lograr el ajuste de los pesos de la red. En la
implementacin del algoritmo, toma una amplitud de paso que vienedada por a tasa de aprendizaje . A mayor tasa de aprendizaje, mayores la modificacin de los pesos en cada interaccin, con l que elaprendizaje ser ms rpido, pero por otro lado, puede dar lugar aoscilaciones. Para filtrar estas oscilaciones se aaden en la expresindel incremento de los pesos un trmino (momento) , de manera quedicha expresin quede:
)t(Wy)1t(W
)1t(W)t(Wy)t(WW
jipipjji
jijipipjjiji
+=+
=++= (2.7)
Donde es una constante (momento) que determina el efecto en t+1 del cambio de los pesos en el instante t. Con este momento se consiguela convergencia de la red en menor nmero de interacciones, ya que sien tel incremento de un peso era positivo y en t+1 tambin, entonces eldescenso por la superficie del error en t+1 es mayor. Sin embargo, sien t el incremento era positivo y en t+1 es negativo, el paso que se daen t+1 es ms pequeo, lo cual es adecuado, ya que eso significa que seha pasado por un mnimo y que los pasos deben ser menores para poderalcanzarlo.
2.7.2 Estructura y aprendizaje de la red.
En una red backpropagation existe una capa de entrada con n neuronasy una capa de salida con m neuronas y al menos una capa oculta 42 deneuronas internas. Cada neurona de una capa (excepto las de entrada)reciben entradas de todas las neuronas de la capa anterior y envan susalida a todas las neuronas de la capa posterior (excepto las salidas).Nohay conexiones hacia atrs ni laterales entre neuronas de la mismacapa (figura 2.8).
Figura 2 .8: Arquitectura de una red backpropagation. Pueden exis t ir neuronas
f ict ic ias43 con sal ida 1 y pesos umbral de entrada al resto de las neuronas de
8/10/2019 Tesis de Economa Con Anlisis Paramtrico
53/103
f ict ic ias43 con sal ida 1 y pesos umbral de entrada a l resto de las neuronas decada capa.
Fuente: Hilera y Martnez (2000)
2.7.2.1 Algoritmo de aprendizaje
A continuacin se presenta, a modo de sntesis, los pasos y frmulas autilizar para aplicar el algoritmo de aprendizaje (Hilera y Martnez,2000):
1.-Iniciar los pesos de la red con valores pequeos yaleatorios 44.
2.-Presentar un patrn de entrada, pN2p1pp x,...,x,x:X , especificar la
salida deseada que debe generar la red: M21 d,...,d,d .
3.-Calcular la salida actual de la red para ello presentamos lasentradas a la red y vamos calculando la salida que presenta cada capahasta llegar a la capa de salida de la red yyy Los pasos son los
1
1
1
i N
L
M
Ca a oculta
Ca a de salida
Ca a de entrada
Se calculan las entradas netas para las neuronas ocultas45 procedentesde las neuronas de entrada.
8/10/2019 Tesis de Economa Con Anlisis Paramtrico
54/103
de las neuronas de entrada.
Para una neurona j oculta
hjpi
N
1i
hji
hpj xwnet +=
(2.8)
En donde el ndice h se refiere a magnitudes de la capa oculta; elsubndice p, al p-esimo vector de entrenamiento, y j a la j-esim neurona
oculta. El trmino puede ser opcional, los pesos actan como unaentrada ms.
Se calculan las salidas de las neuronas ocultas:
)net(fy hpjh
jpj = (2.9)
Se realizan los mismos clculos para obtener las salidas de las
neuronas de salida (capa o).
)net(fy
ywnet
opk
okpk
L
1J
okpj
okj
opk
=
+== (2.10)
4.-Calcular los trminos de error para todas las neuronas: si laneurona k es una neurona de la cap a de salida, el valor delta es:
( ) )net(fyd opkokpkpk
opk = (2.11)
La funcin f, debe ser derivable. La funcin sigmoidal46est definida
por la expresin:
jknetjkk e1
1)net(f
+
= (2.12)
Y su derivada es
)y1(y)f1(ff pkpkok
ok
ok ==
(2.13)
8/10/2019 Tesis de Economa Con Anlisis Paramtrico
55/103
Por lo que los trminos de error para las neuronas de salida quedan:
)yd( pkpkopk = (2.14)
Para la salida sigmoidal 47
=k
okj
opk
hpj
hj
hpj w)net(f (2.15)
Donde observamos que el error en las capas ocultas depende de todoslos trminos de error de la capa de salida. De aqu surge el trmino defeedforward (propagacin hacia atrs). En particular, para la funcinsigmoidal:
okj
k
opkpipi
hpj w)x1(x
= (2.16)
Donde k se refiere a todas las neuronas de la capa superior a la de laneurona j. As, el error que se produce en una neurona oculta esproporcional a la suma de los errores conocidos que se producen en lasneuronas a las que est conectada la salida de esta, multiplicando cadauno de ellos por el peso de la conexin. Los umbrales internos de lasneuronas se adaptan de forma similar, considerando que estnconectados con pesos desde entradas auxiliares de valor constante.
5.-Actualizacin de los pesos: Para ello utilizamos el algoritmorecursivo, comenzando por las neuronas de salida y trabajando haciaatrs hasta llegar a la capa de entrada, ajustando los pesos de la formasiguiente:
Para lo pesos de las neuronas d e la capa de salida:
okj
okj
okj );1t(w)t(w)1t(w ++=+
(2 17)
hh
hji
hji
hji
)1(
);1t(w)t(w)1t(w
++=+ (2.18)
8/10/2019 Tesis de Economa Con Anlisis Paramtrico
56/103
pihpj
hji x)1t(w =+
En ambos casos, para acelerar el proceso de aprendizaje, se puedeaadir el trmino momento48 de valor: ))1t(w)t(w( okj
okj en el caso de la
neurona de salida, y ))1t(w)t(w( hjihji cuando se trata de una neurona
oculta.
6.-El proceso se repite hasta que el trmino de error 49, resulta
aceptablemente pequeo para cada uno de los patrones aprendidos.
=
=M
1k
2pkp 2
1e (2.19)
Siendo k el ndice de las clulas de la ltima capa. Y donde2pkpk
2pk )yd( = es decir, se compara la salida obtenida con la salida
deseada.
El algoritmo de backpropagation encuentra un valor mnimo de error(local o global) mediante la aplicacin del gradiente descendente50.Cada punto de la superficie de la funcin de error corresponde a un
conjunto valores de los pesos de la red. Con el gradiente descendente,siempre que se realiza un cambio en todos los pesos de la red, seasegura el descenso por la superficie del error hasta encontrar el vallems cercano, lo que puede hacer que el proceso de aprendizaje sedetenga en un mnimo local de error.
El error total vendr dado por:
48Para acelerar la convergencia del modelo, sus propios diseadores propusieron introducir un trmino a laexpresin que determina la variacin de los pesos, denominado termino momento, que ser proporcional a ladiferencia entre los pesos actuales y previos de la neurona correspondiente (determina el efecto en cadainteraccin del cambio de los pesos en la interaccin previa). Con ello, si el incremento de un peso es alto, la
8/10/2019 Tesis de Economa Con Anlisis Paramtrico
57/103
8/10/2019 Tesis de Economa Con Anlisis Paramtrico
58/103
pjj
p
Net
e=
(2.24)
La ecuacin (2.22) resultante es:
pipjji
p yw
e=
(2.25)
Y por lo tanto la ecuacin (2.21) queda:
pipjji yw = (2.26)
Donde es la constante de proporcionalidad.
Para calcular el valor de delta, se vuelve a aplicar la regla de la cadena.
=
=
j
pj
pj
p
j
ppj Net
y
y
e
Net
e (2.27)
El segundo trmino de la ecuacin (2.27) se obtiene a partir de quecada clula de la red cambia su salida.
)Net(fNet
))Net(f(
Net
yj
j
j
j
pj =
=
(2.28)
Para calcular el primer trmino, se deben distinguir 2 casos:
(i) Si j es una clula de la capa de salida.En este caso, podemos aplicardirectamente la ecuacin (2.19) pues j seria igual a k. Por lo tanto
pijpjpjji y)Net(f)yd(w = (2.30)
8/10/2019 Tesis de Economa Con Anlisis Paramtrico
59/103
(ii) Si la neurona jno pertenece a la capa externa:En este caso, hay que aplicar de nuevo la regla de la cadena:
=
pj
k
k
p
kpj
p
y
Net
Net
e
p
e (2.31)
Donde k denota las neuronas de la capa siguiente a que pertenece laneurona j (Figura 2.9). El desarrollo de la ecuacin (2.31) es:
Figura 2 .9: Secuencia para obtener el error .
jNet jy
ji
p
w
e
j
p
y
e
ji
j
w
Net
Nivelesdeneuronas
Nivel desalida
pe
3j
2j
1j
w
w
w
Error que seproduce a la
Salida de la red
j
j
Net
y
j
p
Net
e
Net kn
Net 1k
kNet pe
( )
=
=
kj
pjpjkj
pp wN
eyw
N
ee (2.32)
8/10/2019 Tesis de Economa Con Anlisis Paramtrico
60/103
kj
kk pjkpj NetyNety
( ) ( ) ==
k kkjpkkjpk
pj
p wwY
e (2.33)
De esta manera, la variacin del peso de una conexin que va de una
capa de la red a otra que no sea la extern a, se calcula como:
( ) ( ) =k
pijkjpkji yNetfww (2.34)
nicamente queda por definir la funcin fy su derivada.
Por lo general, en las redes tipo multicapa generalizando la funcin deactivacin suele ser sigmoidal:
( )xe11)x(f
+= (2.35)
Donde x= jNet ; es decir
( )
+
=+
= ijij ywNet
je1
1
e1
1y (2.36)
Este tipo de funcin se caracteriza porque su derivada se puede
( ) ( ) ( )e1e
e1
1
e1
e)x(f
x
x
x2x
x
=++
=+
=
( )
8/10/2019 Tesis de Economa Con Anlisis Paramtrico
61/103
( )
( ) ( ) ( ))x(f1)x(f
e1
1
1e
1e)x(f
e1
11e)x(f
xx
x
x
x
=
+
+
+=
+
+
(2.37)
Y por lo tanto:
jjjjj
y1yNetf1NetfNetf == (2.38)
En definitiva, para calcular el incremento a realizar en los pesosexistentes entre una capa y la siguiente que no sea la capa externa,usamos:
( ) ( ) =k
pipjpjkjpkji yy1yww (2.39)
Donde ( ) k
kjpk w representa a retropropagacin del error. Para calcular
el incremento a realizar a los pesos existentes entre una capa y la capasiguiente (capa externa), usamos:
pipjpjpjpjji yy1yydw = (2.4o)
Donde pjpj yd es el error que se produce en las neuronas de la capa
externa, siendo pjd el valor deseado para el patrn p, e pjy el valorrealmente obtenido al procesar el patrn p.
RNA son estimadores no paramtricos que realizan estimacionesdenominadas de modelo libre. Para efectos de pronstico utilizaremosla red backpropagation (propagacin del error hacia atrs) la cual se
8/10/2019 Tesis de Economa Con Anlisis Paramtrico
62/103
la red backpropagation (propagacin del error hacia atrs) la cual sebasa en la regla delta generalizada y con conexin hacia delante
(feedforward) y cuyas clulas tienen funciones de activacin continuas(lineales o sigmoidales).
Captulo 3.Modelo paramtrico
8/10/2019 Tesis de Economa Con Anlisis Paramtrico
63/103
3.1 Generalidades.
En general, podemos decir que hay 4 enfoques de prediccin en lasseries de tiempo; por un lado tenemos modelos de regresinuniecuacionales y los modelos de regresin de ecuaciones simultaneas,ambos utilizan una prediccin condicional (se realizan a travs de
modelos causales los cuales predicen los valores futuros de la variabledependiente de un modelo segn los valores que tomen las variablesindependientes del modelo ajustado) y por otro lado, tenemos losmodelos ARIMA52 (autorregresivos integrados de media mvil) y VAR(vectores autorregresivos) basados en predicciones incondicionales (sepredicen valores futuros de una variable en funcin de valores pasadosy actuales) que se realizan mediante mtodos autoprotectivos53(tabla3.1)(Gujarati, 1997).
Los modelos ARIMA estn basados directamente sobre la metodologade Box54-Jenkins 55 (B-J), aunque los modelos tipo VAR no pertenecenexactamente a la familia de modelos estocsticos de series temporalesporB-J no obstante, los modelos VAR, pueden considerarse como una
generalizacin del campo multivariante de los modelos autorregresivos
univariantes AR de B-J (Prez, 2006).
Para efectos de este trabajo, en lo que respeta a los modelos de seriesde tiempo nos centraremos en el modelo con tcnica incondicional, yaque la evidencia emprica de la literatura financiera ha comprobado laeficiencia de este tipo de modelos para fines de pronstico (Guzmn etal. , 2007).
52Por su siglas en ingles: Autorregressive Moving Average
Tabla 3.1 : Clas if icacin de los modelos paramtricosClasificacin Tcnicas de
prediccinTipos Caractersti cas Representaci n
8/10/2019 Tesis de Economa Con Anlisis Paramtrico
64/103
Modelos
Paramtricos
Condicionales
Modelos de
regresinuniecuacionales
Parte de unafuncin dedistribucin yestablece a
priori una formafuncional
ii22i110i uXXY +++=
Modelos deregresin deecuacionessimultaneas 56
tt10t uYC ++=
ttt ICY +=
Incondicionales
Modelosautorregresivosintegrados demedia mvil(ARIMA) 57
1t1t01t1t uuYY +++=
Modelos devectoresautorregresivos(VAR)
t2t21t1t vYYY +++=
Elaboracin propia con base en: Prez (2006) y Gujarat i (1997) .
3.2. Caractersticas de las series de tiempo
3.2.1. Descomposicin de una serie temporal
Una serie temporal es una sucesin de valores en el tiempo. La teoraclsica considera una serie de tiempo formada por 4 componentes(Prez, 2006):
1.-La tendencia: Viene dada por el movimiento general a largol d l i l ( ) li l (b) d ti ( )
8/10/2019 Tesis de Economa Con Anlisis Paramtrico
65/103
8/10/2019 Tesis de Economa Con Anlisis Paramtrico
66/103
3.2.3 Races unitarias
8/10/2019 Tesis de Economa Con Anlisis Paramtrico
67/103
El primer paso que tenemos que llevar a cabo en cualquier modelo que
involucra series temporales es verificar el orden de integracin de lasvariables implicadas. Para verificar si una serie temporal es I(0), esdecir, estacionaria se pueden utilizar alternativamente diversaspruebas que, en la literatura especializada se conocen como test deraces unitarias. Entre los ms usados destacan los test de Dickey-Fuller (DF), Dickey-Fuller ampliado (DFA) y de Phillips-Perron (PP)(Prez, 2006).
1.-Dickey-Fuller (DF): Se trata de verificar la hiptesis nula queel proceso es no estacionario 58 (p=1) o ( 0= ), frente a la hiptesisalternativa (p1) Consideremos el siguiente modelo 59 ttt uYY += 1 y
tambin se puede escribir t1tt uYY = .Ahora utilizando el operador de
rezagos L de tal manera que 22
1 == tttt YYL,YLY y as sucesivamente.
Parattt
uYY += 1
tenemostt
uY)L( =1 . El trmino de raz unitaria 60 serefiere a la raz del polinomio del operador de rezagos.
2.-Dickey-Fuller Ampliado (DFA) 61:Si el trmino de error tu estautocorrelacionado tendremos por
ejemplo, = ++++=
m
1ititi1t21t YYtY , donde t es la variable de
tiempo o tendencia. En caso de hiptesis nula es que 0= , ya que( 1p = ) es decir que hay una raz unitaria. Adems se considera que
( )2t1t1t YYY = ,etc; es decir se utilizan trminos en diferenciasrezagados que se determina con frecuencia empricamente, siendo laidea incluir suficientes trminos de tal manera que termino de errorsea serialmente independiente.
3.-Phillips-Perron (PP): Los contrastes de Phillips-Perronextienden los contrastes de Dickey-Fuller para permitir autocorrelacin
l b i l l l S
3.3 Descripcin de los modelos ARIMA
3 3 1 Clasificacin de los modelos Box-Jenkins
8/10/2019 Tesis de Economa Con Anlisis Paramtrico
68/103
3.3.1 Clasificacin de los modelos Box-Jenkins .
Suponga en primer lugar que consideraremos como medicin deltiempo o de una serie temporal de observaciones de una variable, y,toman intervalos de tiempo regulares, t, en, n, periodos (Bails yPeppers, 1993).
{ }nt y,...,y,y,yy 321= (3.1)
El objetivo es establecer cul es el patrn de estas observaciones y sitiene una relacin sistemtica en el tiempo y si lo hay, determinar elproceso que genera ese patrn. En un modelo en general, cada
observacin en y, est compuesta por dos partes: la explicable o elcomponente predecible ( )tp y el componente de error aleatorio ( )t :
ttt py += (3.2)
El historial de los valores de la serie ( )tp representan un componenteexplicable para la prediccin de ty .La diferencia entre el valor actual y
los valores estimados de ty , se le denomina ( )t y es referenciado comoel residuo. En el caso de un anlisis de regresin se espera que el valorde los residuales sea cero y que se asuma que no estn correlacionadosentre s.
( ) ( ) 00 1 == ttt E,E (3.3)
Con el marco de referencia anterior podremos enfocarnos bsicamenteen 3 modelos62:
Proceso autorregresivo (AR)
8/10/2019 Tesis de Economa Con Anlisis Paramtrico
69/103
Proceso autorregresivo (AR)
Proceso de media mvil (MA)
Proceso autorregresivo de media mvil (ARMA) 63
3.3.1.1 Proceso autorregresivo
Cuando un modelo es autorregresivos (AR), el valor actual de lavariable est en funcin de los valores previos ms el trmino deerror64.En este caso sera un proceso autorregresivo de orden p, oAR(p) (Bails y Peppers, 1993).
tptpttt y...yyy +++++= 2211 (3.4)
Donde ( ) son los parmetros a estimar y ( ) es el trmino constanteque est relacionado con la tendencia de la serie. El modelo se llamaautorregresivo porque, ty es regresivo en ella misma. El orden de este
modelo , p, se refiere al nmero de trminos de rezagos.
Para entender mejor cmo funcionan los parmetros autorregresivos ycomo debe de interpretar se, supondremos un modelo de primer ordenAR (1), el cual se modela de la siguiente forma:
ttt yy += 11 (3.5)
En la ecuacin (3.5) tenemos un modelo autorregresivo de primer
orden donde, 11 ty representa el valor estimado y, t el trmino de
error medido en el periodo de tiempo t.
8/10/2019 Tesis de Economa Con Anlisis Paramtrico
70/103
La ecuacin (3.4) sugiere que el valor estimado (pronstico) ty , est
relacionado con ms de un valor previo. Por ejemplo, un procesoautorregresivo de segundo orden AR (2), tendra 2 parmetrosautorregresivos, por lo tanto:
tttt yyy ++= 2211 (3.6)
Por lo que se tiene que el valor actual de ty est en funcin ( 21 , ) que
preceden a los 2 valores de y ( 21 tt y,y ) ms el trmino de error. En laterminologa Box-Jenkins el orden de p ms alta se refiere al orden delmodelo. Adicionalmente, no se siguiere nada al respecto de que no se
puedan excluir los trminos de un orden menor para obtener el modelofinal. Por ejemplo, supongamos que el modelo que se estimar sea alsiguiente:
ttttyyy ++=
5533 (3.7)
3.3.1.2 Proceso de media mvil
El segundo modelo general dentro del marco de B-J es el proceso de
media mvil (MA). Un modelo de media mvil une los valores actualesdel error aleatorio de una serie de tiempo con los periodos anteriores.El cual se puede expresar de la siguiente forma (Bails y Peppers, 1993):
funcin del valor de la media , y de algunas combinaciones deltrmino de error de periodos anteriores. El orden ms alto del modelose denotar con q y se refiere al nmero de periodos de rezago en elmodelo
8/10/2019 Tesis de Economa Con Anlisis Paramtrico
71/103
modelo.
En la ecuacin (3.9) consideramos un modelo de media mvil de primerorden MA (1)
ttty += 11 (3.9)
La ecuacin anterior implica que el valor observado de la serie , ty , es
directamente proporcional (medida por 1 ) al periodo anterior del error.Como en los modelos AR, los modelos MA pueden extenderseincluyendo los trminos de error que necesiten excluyendo losintermedios.
3.3.2 Proceso autorregresivo de media mvil
El modelo final es un proceso autorregresivo de media mvil ARMA , el
cual contiene parmetros tanto de AR como de MA. El orden delmodelo se expresa en trminos tanto de p y q, usualmente se denominade la forma ARMA (p , q)en el caso de que aade la diferenciacin lanotacin tomara la forma ARIMA(p , d, q) donde p es el orden deltrmino autorregresivo, d es el nivel de diferenciacin y qes el orden dela media mvil (Bails y Peppers,1993).
ptpttt y...yyy ++++= 2211
tqtqtt ... + 2211 (3.10)
3.4 Metodologa Box-Jenkins (B-J)
La metodologa Box Jenkins es tcnicamente conocida como
8/10/2019 Tesis de Economa Con Anlisis Paramtrico
72/103
La metodologa Box-Jenkins, es tcnicamente conocida como
metodologa ARIMA, el nfasis de este mtodo de prediccin es elanlisis de las propiedades probabilsticas, o estocsticas de las seriesde tiempo econmicas por s mismas bajo la filosofa .En este tipo de modelos , tY puedeser explicada por valores pasados o rezagados de s misma y por lostrminos estocsticos de error 65.Por esta razn, los modelos ARIMAreciben algunas veces el nombre de modelos a-tericos porque nopueden ser derivados de la teora econmica.
Para la aplicacin bsica de la metodologa Box- Jenkins, primerodebemos asumir que la serie de datos es estacionaria. Intuitivamente sedice que una serie es estacionaria cuando esta flucta aleatoriamentealrededor de algn valor fijo, generalmente el valor de la media de laserie (Perez, 2006).
La metodologa Box- Jenkins considera 4 pasos:
1.-Identificacin: Se encontraran los valores apropiados de p, dy q .
2.-Estimacin: Al encontrar los valores apropiados de p y q , seestimarn los parmetros de los trminos autorregresivos y de mediamvil incluidos en el modelo.
3.-Validacin: Posteriormente se ver si el modelo seleccionado ajustalos datos en forma razonablemente buena.
4.-Prediccin: Al final se pronosticar la serie de tiempo y obtendremoslos intervalos de confianza que medirn la incertidumbre asociada conel pronstico.
Grf ico 3.2 . Proceso de construccin de un modelo ARIMA (B-J)
Datos de la serie
8/10/2019 Tesis de Economa Con Anlisis Paramtrico
73/103
F ue nt e : Pe re z .
Clculo estadstico de laserie
Selecci n de p,q y decisi n sobre lainclusin de .
Transformacin de la serie
Selecci n de
d y
Clculo de estimadores yClculo de estadsticos delos estimadores y de los
residuos.
Si
NoEs la serie
estacionaria?
IDENTIFICACION
ESTI
MACION
Es el modelo
adecuado?
VALIDA
CION
No
Selecci n de los periodos deprediccin
Clculo de predicciones yClculo de estadsticos paraevaluacin de a capacidad
predictiva
Si
PR
EDICCION
3.5 Modelos heteroscedsticos
8/10/2019 Tesis de Economa Con Anlisis Paramtrico
74/103
Uno de los supuestos importantes del modelo clsico es que la varianzaes constante para cada trmino de perturbacin t , es decirhomoscedstico 66.La importancia del incumplimiento de la hiptesis dehomoscedasticidad condicional radica, entre otras cosas, en que losestimadores obtenidos por MCO no son de varianza mnima aunquesigan siendo insesgados67.
Por lo que, los modelos ARIMA (homocedsticos) son lineales en losparmetros, pero este tipo de estructura no puede explicar ciertascaractersticas importantes que tienen en comn las series financierascomo son (Brooks, 2006):
(1) Leptocrtosis: La tendencia de los rendimientos de los activosfinancieros tiene una distribucin con colas gordas y exceso de
apuntamiento en la media;(2) Volatilidad clustering: La tendencia de lavolatilidad en los mercados financieros aparecen en grupos y (3)Efectos de apalancamiento: La tendencia de la volatilidad seincrementa ms seguida de una cada prolongada de precios que en unaalza de precios.
Cuando existen problemas de heteroscedsticidad en la serie, adems
de haber sido tratadas con modelos ARIMA debern someterse atcnicas economtricas con la finalidad de poder explicar y modelar lavarianza del trmino de pert
Top Related