Economía del Caribe

ISSN electronico 2145—9363
ISSN impreso 2011—2106
N°.19, enero — junio de 2017
Fecha de recepción: febrero 2016
Fecha de aceptación: diciembre 2016
DOI: http://dx.doi.org/10.14482/ecoca.19.8343


Ajuste de modelos garch clásico y bayesiano con innovaciones t—student para el índice COLCAP

Fitting the classical and bayesian garch models with student—t innovations to the COLCAP index

Oscar Andrés Espinosa Acuña*
Paola Andrea Vaca González**

* Director del Grupo de Investigación en Modelos Económicos y Métodos Cuantitativos (IMEMC), adscrito al Centro de Investigaciones para el Desarrollo (CID) de la Facultad de Ciencias Económicas de la Universidad Nacional de Colombia. oaespinosaa@unal.edu.co

** Co—Directora del Grupo de Investigación en Modelos Económicos y Métodos Cuantitativos (IMEMC), adscrito al Centro de Investigaciones para el Desarrollo (CID) de la Facultad de Ciencias Económicas de la Universidad Nacional de Colombia. pavacag@unal.edu.co

Agradecimientos: Los autores agradecen la iniciativa de Sergio Calderón, Ph.D., para adentrarse en estos temas de interés, así como las sugerencias de Jairo Fuquene, Ph.D.(c), Leonardo Sánchez, M.Sc., Norberto Rodríguez, M.Sc., y al asistente de investigación Diego Ávila por su colaboración. Los resultados y opiniones que se presentan en este artículo son responsabilidad exclusiva de los autores y su contenido no compromete a las personas referidas anteriormente.

Correspondencia: Carrera 30 n° 45—03, Edificio 311, Decanatura.


Resumen

En este artículo se ajustan dos modelos de Heterocedasticidad Condicional Generalizados (GARCH) para el índice financiero COLCAP. El primero, desde una perspectiva clásica (o frecuentista) estimando los parámetros mediante Máxima Verosimilitud y el segundo, a partir de un enfoque bayesiano haciendo uso del algoritmo de Metropolis—Hastings. Para ambos casos se asumen las innovaciones con distribución t—Student. Mediante distintos criterios de información se evalúa el ajuste del modelo bajo las aproximaciones bayesiana y clásica.

Palabras clave: Modelos de Heterocedasticidad Condicional, Algoritmo de Metropolis—Hastings, Índice COLCAP.

Clasificación JEL: K49.


Abstract

In this article, it is fitted two Generalized Autoregressive Conditional Heteroskedasticity (GARCH) models to the Colcap financial index. One of them is analyzed using a Classical (or Frecuentist) procedure, whose parameters were estimated by maximum likelihood, and the other one is estimated via a Bayesian approach using the Metropolis—Hastings algorithm. Both models were estimated with Student—t innovation. By means of different information criteria, the estimated models by the bayesian and classic approaches are evaluated.

Keyword: Conditional Heteroskedasticity Models, Metropolis—Hastings Algorithm, COLCAP Index.

JEL Codes: K49.


1. INTRODUCCIÓN

A diferencia de algunas series de tiempo económicas, las de tipo financiero expresan características intrínsecas que obligan a tener modelos específicos que permitan captar especialmente sus particularidades. Estas series se destacan porque la distribución de los retornos es leptocúrtica (colas pesadas), las relaciones entre ganancia y riesgo son no lineales, la volatilidad (no constante e inobservable directamente) aparece en conglomerados, entre otras características (Tsay, 2005).

Por tal motivo se generó la necesidad de construir otros modelos diferentes de los de series de tiempo tradicionales que asumen varianza homocedástica. (Hamilton, 1994). Al respecto Engle (1982) propuso una nueva clase de procesos estocásticos denominados modelos ARCH (AutoRegressive Conditional Heteroskedasticity), en los cuales se asume que la varianza condicional a la información pasada no es uniforme a través del tiempo y solo depende de las noticias pasadas. Años más tarde, Bollerslev (1986) generalizó estos modelos proponiendo un sistema en el que la varianza condicional dependiera tanto de las noticias pasadas como de las varianzas condicionales rezagadas, extendiéndose así, a partir de estos dos autores y desde inicios de la década de los 90, los llamados modelos de volatilidad. Estos modelos han tenido una fructífera literatura, entre la cual destacan los avances de Nelson (1991), Glosten, Jaganna tan y Runkle (1993) y Taylor (1994), entre otros.

Es de resaltar que la especificación de este tipo de procesos genera principalmente dos implicaciones. La primera, que la varianza, al tener que ser positiva y finita, genera fuertes restricciones en el proceso de estimación, y la segunda, que el método de estimación por lo general debe tener en cuenta que la media y la varianza de la serie deben ser estimadas de manera simultánea. Así, aunque el enfoque por máxima verosimilitud ha sido uno de los métodos de mayor acogida, la aproximación bayesiana también ha incursionado en la investigación de aquellas series de tiempo financieras, respecto a lo cual se han realizado trabajos en la literatura internacional desde finales de la década de 1980.

Uno de los escritos pioneros en estimación de modelos de volatilidad con enfoque bayesiano es el de Geweke (1989), quien formuló una estrategia de Monte Carlo para derivar las distribuciones a posteriori deseadas en este tipo de sistemas; objetivo también alcanzado por Jacquier, Poison y Rossi (1994) mediante la aplicación del algoritmo Metrolopis—Hastings. Por su parte, Bauwens y Lubrano (1998) realizaron inferencia bayesiana de un GARCH usando el muestreador de Gibbs. En el mismo año, Nakatsuma (1998) propone un algoritmo de muestreo basado en Cadenas de Markov, procedimiento similar al planteado por Vrontos, Dellaportas y Politis (2000). Más adelante, Ardia (2006), a través de esta misma metodología, estima un modelo GARCH con innovaciones normales, mientras que Takaishi (2007) asume un algoritmo Monte—Carlo híbrido. Entre los más recientes avances se destaca el documento de Ardia y Hoogerheide (2010), en el que se estima, a través de Metropolis—Hastings (M—H), un modelo GARCH con innovaciones t—Student, siendo particularmente útil para especificar el exceso de curtosis en la distribución condicional de los retornos, hecho estilizado que se encuentra en la mayoría de series de tiempo financieras.

Dicho esto, la motivación de este escrito radica en la comparación de las formas de estimación clásica (o frecuentista) y bayesiana de un GARCH, teniendo como propósito modelar el COLCAP, principal índice bursátil del mercado accionario colombiano.

Este artículo está dividido en siete secciones. La segunda sección habla sobre conceptos financieros, para luego seguir a la tercera, la cual presenta una revisión de literatura sobre modelos GARCH aplicados a Colombia. La cuarta sección explica formalmente la definición de un modelo GARCH y su método de estimación por máxima verosimilitud, asumiendo las innovaciones con distribución t—Student, así como su estimación desde un enfoque bayesiano a través del algoritmo M—H con innovaciones t—Student. La quinta sección describe el índice COLCAP, serie de tiempo sujeta a la modelación, seguida de la sexta sección en la que se presentan los resultados de las estimaciones obtenidas para, finalmente, en la séptima sección exponer las conclusiones finales del estudio efectuado.

2. ALGUNOS CONCEPTOS TÉCNICOS DE INTERÉS PARA LAS SERIES FINANCIERAS

En las series de tiempo financieras, los datos típicamente tienen los coeficientes de autocorrelación cercanos a 1 en el retardo 1, por lo que es más práctico trabajar con los retornos de la serie financiera. (Fan y Yao, 2003). Así, al detonar Pt como la serie de precios de un activo financiero, con t=1,2,..., y siguiendo a Fan y Yao (2003), los retornos Rt son generalmente definidos como

los cuales miden el cambio relativo del precio. Sobre aquel instante de tiempo se define el log—retorno rtmediante (Casas y Cepeda, 2008):

expresando así qué tan diferente es el precio de una acción de un instante de tiempo a otro en escala logarítmica. Esta serie de log—retornos, nombrada de ahora en adelante serie de retornos, no contempla unidades y según Tsay (2005) facilita el cálculo del retorno compuesto k periodos entre el tiempo t — k y t y , expuesto en (3):

donde el retorno bruto del periodo k se define por el producto de cada uno de los retornos brutos de los k periodos implicados.

Una vez se construye la serie de los retornos basada en estos conceptos, y se procede a modelarla, se identifican algunos hechos estilizados de esta y otras series de tiempo financieras con información diaria (e.g. precios de acciones, tasa de interés, entre otros), de los cuales se destacan (Fan y Yao, 2003):

  • Colas pesadas. La distribución de los retornos tiene colas más pesadas que las de una distribución normal.
  • Conglomerado de la volatilidad. Grandes cambios en precios ocurren en clusters (conglomerados). Asimismo, grandes cambios en la volatilidad tienden a ser seguidos por grandes cambios en la volatilidad, mientras que periodos de tranquilidad alternan con periodos de alta volatilidad.
  • Asimetría. Se ha encontrado que los precios de las acciones poseen, ligeramente, un sesgo negativo que puede obedecer a que los agentes del mercado de valores reaccionan más fuerte a la información negativa que a la positiva.
  • Gaussaneidad agregada. Cuando la frecuencia de muestreo disminuye, la ley del límite central establece que la distribución de los rendimientos, durante un horizonte temporal largo, tiende a una distribución normal.
  • Dependencia de largo plazo. Tanto los retornos al cuadrado como los retornos absolutos presentan usualmente autocorrelaciones persistentes, lo que indica una posible dependencia de memoria larga en la serie de retornos transformada.

Al modelar estas series mediante modelos ARCH y GARCH se capturan las características de colas pesadas, agrupamiento de la volatilidad y Gaussaneidad agregada. (Fan y Yao, 2003).

3. REVISIÓN DE LITERATURA

Para identificar investigaciones aplicadas a Colombia en las que utilizan modelos GARCH de enfoque clásico y bayesiano, se efectuó una amplia revisión bibliográfica. Se encontró, para el caso de interés, que se han realizado varios estudios en distintas disciplinas, pero primordialmente desde un enfoque clásico. Dentro de estos se encuentra el trabajo de Haque, Hassan y Varela (2001), quienes indagan sobre la estabilidad, variabilidad y persistencia de la volatilidad de los retornos de las acciones de Colombia y otros países suramericanos entre 1988 y 1998. Ortiz y Arjona (2001) analizan la volatilidad entre 1989 y 1994 de los mercados de valores de seis países emergentes, entre ellos Colombia, a través de varios modelos GARCH.

Más adelante, Palacio (2009) estudia el comportamiento de los retornos de los índices bursátiles IBB de la Bolsa de Bogotá, el IBOMED de la Bolsa de Medellín y el Índice General de la Bolsa de Valores de Colombia (IGBC) a través de un STAR—GARCH durante el periodo 1992 y 2006. Por su parte, De Mello y Moccero (2009) utilizan un GARCH Multivariado para evaluar la existencia de transmisión de la volatilidad entre la política monetaria y las expectativas de inflación en este país y en otros de América Latina durante 1999 y 2008.

Alonso y García (2009) ajustaron 18 diferentes especificaciones del modelo GARCH en Media (GARCH—M) para datos de alta frecuencia intradía del IGBC entre 2006 y 2007. Fernández (2010) le ajusta a la misma variable financiera un modelo asimétrico GARCH—M Exponencial entre 2003 y 2008, mientras Moreno (2011) estudia su dinámica a través de un GARCH para el periodo 2001—2010.

Entre los estudios más recientes se encuentra el trabajo de Concha, Galindo y Vásquez (2011), en el que se estiman modelos GARCH para determinar si los controles de capital han incidido en la volatilidad de la tasa de cambio nominal durante 1988 y 2008, y el documento de Kandilov y Leblebicioğlu (2011), en el que se estudia la incidencia de la volatilidad de la tasa de cambio en las decisiones de inversión de las firmas en Colombia entre 1981 y 1987.

Aunque para Colombia se presentan varios trabajos de aplicaciones de modelos de la familia ARCH con enfoque clásico, la revisión de literatura no arrojó estudios que se basaran en un modelo GARCH bayesiano, a excepción de Rodríguez (2001), quien se fundamenta en este modelo para estudiar el comportamiento de la tasa de cambio en Colombia durante el periodo 1991—1999, realizando una comparación de este modelo con un modelo clásico de Heterocedasticidad Condicional, un Autorregresivo de Media Móvil y uno de Volatilidad Estocástica.

4. MODELO DE HETEROCEDASTICIDAD CONDICIONAL GENERALIZADO (GARCH)

Al modelar la serie de retornos rt, se asume una representación ARMA (p, q) estacionaria para modelar la correlación de los datos y su media, como se muestra en (4):

con (p, q), enteros no negativos y {xt}~RB (0,σ2). Así, un proceso {xt, t ϵ ℤ} es un GARCH (m,s) si es la solución de las ecuaciones recurrentes definidas en (5):

donde {εt, t ϵ ℤ} es una sucesión independiente e idénticamente distribuida (iid) de variables aleatorias con media 0 y, por lo general, varianza 1. Los coeficientes satisfacen α0 > 0 y αi, βj ≥ 0, para i =1,2,..., m; j= 1,2,..., s.

4.1. Estimación por máxima verosimilitud

Se asume que {xt} es una solución estacionaria en forma estrict 1 del modelo GARCH (m,s) descrito en (5), donde m=≥1, s≥1, son conocidos, .

Luego, tomando a Θ=(α0, α1 ,..., αm, β1,..., βs) como el vector de parámetros, se define el logaritmo de la función de verosimilitud condicional para una muestra de {x1,..., xT} como:

Si se define la función ĥt (Θ) como:

con {εt}~iid gaussiano (0,1). Entonces, para t=1,...,T se tiene que

es decir,

Por lo tanto,

Al saber que x0 ,..., x— m + 1 no están disponibles y que las volatilidades σ02,..., σs2 no son observables, se procede entonces a definir los valores cuando t ≤ 0, y para cuando t > 0, ĥt (Θ), se obtiene de forma recurrente. Por consiguiente,

sin las constantes que no dependen de Θ.

4.2. Estimación Bayesiana del modelo GARCH con innovaciones t—Student

Basándose en Ardia y Hoogerheide (2010) se tiene que un modelo GARCH (1,1) con innovaciones t—Student para la serie de retornos {xT} se denota como

donde α0 > 0, α1, β ≥ 0 y υ >2; N (0.1)expresa la distribución normal estándar, IG la distribución gamma invertida y υ el parámetro de grados de libertad que, al restringirse, asegura que la varianza condicional sea finita. Las restricciones de los parámetros α0, α1, y β garantizan que la varianza condicional sea positiva.

Luego, para deducir la función de verosimilitud se definen los vectores que permiten obtener la matriz diagonal T×T

donde . Entonces, la verosimilitud de (ψ, ω) se expresa como:

Al considerarse (ψ, ω) como variables aleatorias en el enfoque bayesiano, se caracterizan por una densidad a priori, denotada por p(ψ, ω) que se calcula mediante hiperparámetros asumidos conocidos y constantes inicialmente. Luego, al acoplar la función de verosimilitud con la densidad a priori, se puede modificar la densidad de probabilidad utilizando la regla de Bayes para obtener la densidad a posteriori p(ψ, ω|x), la cual permite la descripción probabilística y cuantitativa del conocimiento acerca de los parámetros del modelo después de observar los datos, y se define como (Ardia y Hoogerheide, 2010)

Por otra parte, se utilizan a priori normales truncadas para los parámetros α y β del modelo GARCH, tal que

Donde μ. y ∑. son los hiperparámetros, 1{∙}es la función indicadora y ϕNd es la densidad normal d—dimensional.

La distribución a priori del vector ω condicional a υ es

La distribución a priori del parámetro de grados de libertad se define mediante una exponencial desplazada con parámetros λ > 0 y δ ≥ 2, tal que

Se asume normalidad en los errores cuando δ es grande. Ardia y Hoogerheide (2010) indican que esta densidad a priori es importante, ya que permite i) acotar el parámetro para evitar la explosión de la varianza condicional, y ii) poder aproximar la normalidad de los errores mientras se mantiene una a priori razonablemente ajustada, lo que puede mejorar la convergencia del muestreador.

Por lo tanto, la distribución a priori conjunta se define asumiendo independencia a priori entre los parámetros, es decir:

Sin embargo, la naturaleza recursiva de la ecuación de la varianza del GARCH (1,1) implica que la densidad a posteriori conjunta y la densidad condicional completa no puedan expresarse en forma cerrada, por lo que en la práctica es conveniente utilizar la Cadena de Markov Monte Carlo (MCMC) para calcular de forma aproximada la densidad a posteriori expresada en (ver Anexo 1).

5. ÍNDICE COLCAP

El COLCAP es un índice de la Bolsa de Valores de Colombia (BVC) que refleja las variaciones de los precios de las 20 acciones más líquidas de esta Bolsa, donde la participación de cada acción en el índice se establece por el valor de la capitalización bursátil ajustada de cada compañía. Formalmente, el COLCAP se define como la sumatoria del precio de cada acción que conforma la canasta del índice multiplicada por el peso que posee dentro de la misma, y ajustado por un factor de enlace (BVC, 2013):

donde I(t) es el valor del índice en el momento t, E , es el factor de enlace a través del cual se da continuidad al índice cuando se presenta un rebalanceo2 o una recomposición de la balanza3 de la canasta, n es

Wel número de acciones que componen el índice, iP, i y son el ponderador y el precio de la acción i en el momento t respectivamente.

El COLCAP se calculó por primera vez el martes 15 de enero 2008, siendo su valor inicial el equivalente a 1000 puntos, y desde el viernes 1° de noviembre de 2013 reemplazó al IGBC como el principal indicador del mercado accionario colombiano. En el gráfico 1 se muestra el comportamiento histórico del índice, entre su fecha de creación y el 20 de febrero de 2015 (para un total 1736 datos), donde se observa un periodo inicial sin tendencia alguna, pero que a partir de inicios de 2009 presenta un crecimiento positivo hasta noviembre de 2010, para después estabilizarse sobre un nivel cercano a los 1700 puntos hasta inicios de septiembre de 2014, y posteriormente tomar una tendencia negativa hasta el fin del periodo de estudio.

En el gráfico 2 se muestra la serie de retornos y en el cuadro 1 algunos estadísticos descriptivos de la serie de retornos del índice COLCAP4. La media de los retornos exhibe signo positivo, aunque cercano a cero, mientras que el coeficiente de asimetría es negativo (sesgo a la izquierda) y la curtosis es muy alta con relación a la de una distribución normal (cuyo valor es igual a 3).

En el gráfico 3 se procede a mostrar un contraste entre la distribución de la serie de retornos y una distribución normal (con igual desviación estándar), donde se pueden ver claramente las características mencionadas en el cuadro anterior y se confirma la presencia de colas largas y pesadas (mayor probabilidad de eventos extremos). Por lo tanto, se procederá a modelar los residuales de la serie de retornos ARMA—GARCHmediante la construcción de un modelo con distribución t—Student (que permite colas más pesadas), el cual estima de manera conjunta la media y la volatilidad de esta serie5.

6. RESULTADOS EMPÍRICOS

6.1. Modelo estimado por máxima verosimilitud

Se ajustó un modelo ARMA (4,4) para modelar la media de la serie de retornos, pero al no cumplir con los supuestos de homocedasticidad y normalidad en los residuales, se propuso estimar un modelo de Heterocedasticidad Condicional. Para determinar si se requiere el uso de este modelo, se prueba la existencia de efectos ARCH, mediante LMel test de multiplicadores de Lagrange (), en la serie de estudio (cuadro 2), y se encontró para los primeros 4 rezagos, que a un nivel de significancia del 1 % se rechaza contundentemente la hipótesis ARCHnula de ausencia de efectos , por lo que se procedió a modelar ARCHla varianza condicional mediante un modelo Generalizado.

Se propone y estima un modelo ARMA (4,4) — ARMA (1,1)6. Los cuadros 3 y 4 muestran, respectivamente, los valores estimados de los parámetros para la media y varianza de este modelo, así como sus desviaciones estándar y el p—valor referente a la hipótesis nula H0: Parámetro igual a 0 (no significativo) y alternativa H1: Parámetro diferente de 0 (significativo). La hipótesis nula se rechaza a un nivel de significancia del 5 % para la media, a excepción de ϕ2 y ϕ2, parámetros que aunque no son estadísticamente diferentes de cero, son necesarios para permitir modelar adecuadamente la correlación y la media. Respecto a la ecuación de la varianza, para todos los coeficientes se rechaza H0 a un nivel de significancia del 1%. El parámetro de forma generado por utilizar la distribución t, es estadísticamente distinto de cero a un 1 % de significancia, confirmando el uso de esta distribución para modelar la serie.

La verificación de los supuestos del modelo ARMA—GARCH se realiza por medio de la prueba de Ljung—Box para los residuales estandarizados y los residuos estandarizados al cuadrado. Tal test tiene como hipótesis nula H0: No correlación serial hasta el orden k contra la hipótesis alternativa H1: Evidencia de correlación serial hasta el orden k (cuadro 5).

Para el modelo ARMA (4,4) – GARCH (1,1), el estadístico Q no rechaza a un nivel de significancia del 5 % la hipótesis nula de no correlación hasta el rezago 24, tanto para los residuales como para el cuadrado de los residuales7.

Las gráficas CUSUM (a) y CUSUMSQ (b) de los residuales estandarizados (gráfico 4) indican la no evidencia estadística de una especificación incorrecta del modelo y de heterocedasticidad marginal8, demostrando así que el sistema propuesto tiene un ajuste adecuado.

6.2. Modelo bayesiano9

La esencia recursiva de la ecuación de volatilidad del modelo GARCH (1,1), expresada en (5), concibe que la densidad a posteriori conjunta y las densidades condicionales completas tengan una expresión bastante compleja. Debido a ello, no existe una a priori conjugada10 que pueda MCMCfacilitar el cálculo, siendo necesario recurrir a la teoría de las para calcular de forma aproximada la densidad a posteriori. (Ardia y Hoogerheide, 2010).

Para el ajuste del modelo bayesiano al índice COLCAP se establece una función que incluye 2 cadenas, cada una con longitud de 13000 realizaciones, y estimación de los parámetros del modelo GARCH (1,1) se lleva a cabo a partir del vector de valores iniciales (α0 = 0.001 α1 = 0.02 β1 = 0.02 υ = 0.5) 11. Los principales resultados se muestran en el gráfico 5 y en los cuadros 6 y 7.

El análisis de convergencia, siguiendo la metodología de Gelman y Rubin (1992)12, no encuentra evidencia estadística en contra de la convergencia, ya que el factor de reducción potencial de escala (1.04) resulta ser menor que 1.2. Por otra parte, el algoritmo de muestreo MCMC alcanza altas tasas de aceptación, todas ellas por encima del 91 %, lo cual sugiere que las distribuciones propuestas son adecuadas y cercanas a las condicionales (cuadro 6).

Los parámetros considerados en la modelación logran cierta convergencia después de 4500 realizaciones, de manera que se eliminan las primeras 4500, con el fin de disminuir la autocorrelación. Por otra parte, se fusionan las dos cadenas para obtener una muestra final de 8500 realizaciones. En el gráfico 6 se presentan las respectivas densidades y trazas de cada variable.

Los resultados consignados en el cuadro 7 muestran la media, la desviación estándar empírica, medidas de error estándar de la media y los cuantiles de cada una de las cuatro variables, a partir de la muestra final efectiva de 8500 iteraciones, es decir, descartando las 4500 realizaciones de calentamiento13.

En el gráfico 7 se muestran las distribuciones marginales a posteriori, donde es posible observar cierta característica asimétrica en los histogramas, y se resalta lo dicho por Ardia y Hoogerheide (2010) respecto a la advertencia sobre un uso no prudente de las justificaciones asintóticas. Para este estudio, las 1736 observaciones no son suficientes para justificar la aproximación asintótica de una normal simétrica para la distribución de los estimadores de los parámetros.

Finalmente, para probar la estacionariedad en un modelo GARCH (1,1) se tiene que cumplir la condición de α1 + β1 < 1(Bollerslev, 1986), entendiendo tal suma como el grado de persistencia en la varianza condicional; y conociendo que entre el valor sea más cercano a uno, las últimas innovaciones y varianzas pasadas afectarán en mayor medida el futuro de la desviación estándar condicional del retorno.

En el gráfico 8 se presenta la densidad a posteriori de la persistencia que indica un leve sesgo a la izquierda (con coeficiente de asimetría de —0.3131) y que toma valores entre un mínimo de 0.8095 y un máximo de 1.0471. La media de esta distribución es 0.9379 y la mediana es 0.9396. Adicionalmente, se tiene que de las 8500 realizaciones, el 98.85 % de estas presentan una persistencia menor a 1, lo cual demuestra que para este estudio, los datos sustentan la estacionariedad de covarianza del proceso.

6.3. Comparación de modelos

La selección del mejor modelo, sustentándose en el trabajo de Kadane y Lazar (2004)14, se realiza a través de la comparación de los criterios de información de Akaike (AIC), bayesiano de Schwarz (SBC), de Hannan—Quinn (HQ)y del logaritmo del Error Final de Predicción (lFPE) (cuadro 8).

Del cuadro 8 se puede observar que todos los criterios de información dan por mejor modelo al GARCH estimado desde la aproximación bayesiana, al tener un valor inferior que el mostrado por la estimación frecuentista. No obstante, sus diferencias resultan ser de centésimas.

Además de los criterios de información, se compara en el cuadro 9 la capacidad de pronóstico medida mediante la diferencia del valor estimado por ambos enfoques estadísticos y el valor real del índice COLCAP, para 5 pasos adelante (23, 24, 25, 26 y 27 de febrero de 2015), dado que estos sistemas son fundamentalmente de ‘corto plazo’. Se encuentra que el GARCH bayesiano es el mejor un paso adelante, mientras que en los cuatro siguientes horizontes temporales lo es el modelo clásico.

7. CONCLUSIÓN

Los modelos GARCH, desde los enfoques de estimación clásica y bayesiana, resultan adecuados para ajustar las características implícitas de la serie financiera COLCAP. En la aplicación a tal serie de retornos, aunque los dos modelos propuestos se comportan de manera apropiada, el sistema estimado mediante aproximación bayesiana utilizando el algoritmo de Metropolis—Hastings presenta mejores resultados si se toman como referencia los valores arrojados por los criterios de información calculados.

Se considera relevante que en futuras investigaciones se aborde teóricamente la construcción de diferentes metodologías bayesianas para modelos de heterocedasticidad condicional, en los que se asuman distribuciones diferentes de la normal, t—student o generalizada de errores, y se realicen sus respectivos análisis comparativos a través de los posterior odds ratio (razón entre las distribuciones a posteriori), para de esta manera hacer más robusto el uso de estos modelos en el estudio de las series financieras.


Notas

1 Para detalles de la demostración ver Fan y Yao (2003).

2 Entendido como la determinación de la participación de cada acción en la canasta que conforma el índice. Esta acción se realiza el último día hábil de enero, abril y julio de cada año.

3 Es decir, una selección de las acciones que conformarán la canasta de acciones del índice COLCAP durante el próximo año.

4 Esta serie de retornos es estacionaria a un nivel de significancia del 5 % bajo las pruebas de raíz unitaria Dickey—Fuller Aumenta (ADF) y Phillip—Perron (PP) (en los dos casos se rechazó la hipótesis nula).

5 Para modelar la media y la correlación entre los datos se evaluaron los modelos ARMA (4,4), ARMA (4,1), ARMA (||1,4||, ||1,4||) (solo se analizan los rezagos 1 y 4), ARMA (||1,3,4||, ||1,3,4||) y ARMA (1,1), propuestos al evaluar el comportamiento de la función de autocorrelación simple y parcial de los residuales y los Criterios de Información AIC y BIC. El modelo ARMA (4,4) fue el que mejor ajustó la serie al cumplir con la validación del supuesto de no autocorrelación serial.

6 Para la identificación del modelo ARMA (4,4) – GARCH (m, s)se comenzó por estimar un ARMA (4,4) – GARCH (5,5), y de allí se empezó a disminuir los órdenes ‘s’ y ‘m’ hasta que todos los coeficientes del modelo fueran significativos a un 5 % y la serie fuera convergente. El modelo ARMA (4,4) – GARCH (||1,2,4||, ||1,2,4||) cumplió estos criterios, pero sus residuos estandarizados no cumplieron el supuesto de no autocorrelación, por lo que se propuso un ARMA (4,4) – GARCH (1,1), que cumple con el supuesto de incorrelación de los residuales.

7 Asimismo, al calcular los correlogramas de las funciones de autocorrelación y autocorrelación parcial se da por hecho la no correlación en ambos tipos de residuales.

8 La CUSUMSQ se sale levemente de las bandas en periodos cortos, pero en general presenta un buen comportamiento.

9 Para obtener los resultados de la estimación bayesiana se hace uso del paquete estadístico R—Project. El algoritmo que permite obtener esos resultados fue construido en el paquete bayesGARCH, propuesto y desarrollado por Ardia (2007).

10 Para hablar de conjugamiento se necesita que tanto la a priori como la a posteriori pertenezcan a la misma familia de distribuciones. (Koop, 2003).

11 Se realiza un análisis de sensibilidad, tomando diferentes valores iniciales para el vector de parámetros, y se observa que para todos los casos, las cuatro variables siempre convergen sin problema alguno y sus valores de convergencia son, en general, bastante similares.

12 La convergencia es diagnosticada cuando las cadenas han olvidado por completo sus valores iniciales y, por ende, las salidas de las diferentes cadenas no se pueden diferenciar. El diagnóstico es aplicado a cada una de las variables de la cadena (α0, α1, β y υ) y se basa en la comparación de varianzas intra—cadena y entre cadenas (Gelman y Rubin, 1992).

13 Además de las razones dadas en párrafos anteriores, la llamada fase de calentamiento se ejecuta con el objetivo de evitar la baja probabilidad posterior que tienen los árboles en las cadenas, dado que las iteraciones iniciales surgen a partir de combinaciones aleatorias de topología y valores de parámetros obtenidos en el paso n—1.

14 Aclarando que la estimación Frecuentista podría ser un caso particular de estimación Bayesiana con prior no informativa.

15 Para mayores detalles sobre MCMC ver Carlin y Louis (2009).


REFERENCIAS

Alonso, J. y García, J. (2009). ¿Qué tan buenos son los patrones del IGBC para predecir su comportamiento? Una aplicación con datos de alta frecuencia. Estudios Gerenciales, 25(112), 13—36.

Ardia, D. (2006). Bayesian estimation of the GARCH(1,1) model with normal innovations. Student, 5(3—4), 283—298.

Ardia, D. (2007). bayesGARCH: Bayesian Estimation of the GARCH(1,1) Model with Student—t Innovations in R. URL: http://CRAN.R—project.org/package=bayesGARCH. R package version 1.00—05.

Ardia, D. y Hoogerheide, L. (2010). Bayesian estimation of the GARCH(1,1) model with Student—t innovations. The R Journal, 2(2), 41—47.

Bauwens, L. y Lubrano, M. (1998). Bayesian inference on GARCH models using the Gibbs sampler. Econometrics Journal, 1, C23—C46.

Bollerslev, T. (1986). Generalized autoregressive conditional heteroscedasticity. Journal of Econometrics, 31(3), 307—327.

Bolsa de Valores de Colombia [BVC] (2013). Metodología para el cálculo del índice COLCAP. Bogotá: BVC.

Carlin, B. y Louis, T. (2009). Bayesian methods for data analysis (3a ed.). Florida: Chapman and Hall/CRC.

Casas, M. y Cepeda, E. (2008). Modelos ARCH, GARCH y EGARCH: Aplicaciones a series financieras. Cuadernos de Economía, 27(48), 287—319.

Concha, A., Galindo, A. y Vásquez, D. (2011). An assessment of another decade of capital controls in Colombia: 1998–2008. The Quarterly Review of Economics and Finance, 51(4), 319—338.

De Mello, L. y Moccero, D. (2009). Monetary policy and inflation expectations in Latin America: Long—run effects and volatility spillovers. Journal of Money, Credit & Banking, 41(8), 1671—1690.

Engle, R. (1982), Autoregressive conditional heteroscedasticity with estimates of the variance of the United Kingdom inflation. Econometrica, 50(4), 987—1006.

Fan, J. y Yao, Q. (2003). Nonlinear time series: Nonparametric and parametric methods. Nueva York: Springer Verlag.

Fernández, H. (2010). EGARCH: Un modelo asimétrico para estimar la volatilidad de series financieras. Revista Ingenierías Universidad de Medellín, 9(16), 49—60.

Gelman, A. y Rubin, D. (1992). Inference from iterative simulation using multiple sequences. Statistical Science, 7(4), 457—472.

Geweke, J. (1989). Exact predictive densities for linear models with arch disturbances. Journal of Econometrics, 40(1), 63—86.

Glosten, L., Jagannathan, R. y Runkle D. (1993). On the relation between the expected value and the volatility of the nominal excess returns of stocks. Journal of Finance, 48, 1779—1801.

Hamilton, J. (1994). Time series analysis. New Jersey: Princenton University Press.

Haque, M., Hassan, M. y Varela, O. (2001). Stability, volatility, risk premiums, and predictability in Latin American emerging stock markets. Quarterly Journal of Business and Economics, 40(3/4), 23—44.

Hastings, Q. (1970). Monte Carlo sampling methods using Markov chains and their applications. Biometrika, 57(1), 97—109.

Jacquier, E., Poison, N. y Rossi, P. (1994). Bayesian analysis of stochastic volatility models. Journal of Business & Economic Statistics, 12(4), 371—417.

Kadane, J. y Lazar, N. (2004). Methods and criteria for model selection. Journal of the American Statistical Association, 99(465), 279—290.

Kandilov, I. y Leblebicioğlu, A. (2011). The impact of exchange rate volatility on plant—level investment: Evidence from Colombia. Journal of Development Economics, 94(2), 220—230.

Koop, G. (2003). Bayesian econometrics. Londres: Wiley—Interscience.

Metropolis, N., Rosenbluth, A., Rosenbluth, M., Teller, A. y Teller, E. (1953). Equations of state calculations by fast computing machines. Journal of Chemical Physics, 21(6), 1087—1092.

Moreno, E. (2011). Una aplicación del modelo TAR en series de tiempo financieras. (Tesis de maestría). Universidad Nacional de Colombia, Bogotá, D.C., Colombia.

Nakatsuma, T. (1998). A Markov—chain sampling algorithm for GARCH models. Studies in Nonlinear Dynamics and Econometrics, 3(2), 107—117.

Nelson, D. (1991). Conditional heteroskedasticity in asset returns: A new approach. Econometrica, 59(2), 347—370.

Ortiz, E. y Arjona, E. (2001). Heterokedastic behavior of the Latin American emerging stock markets. International Review of Financial Analysis, 10(3), 287—305.

Palacio, D. (2009). Modelación del efecto del día de la semana para los índices accionarios de Colombia mediante un modelo STAR—GARCH. Revista de Economía del Rosario, 12(1), 1—24.

Rodríguez, N. (2001). Bayesian estimation and model selection for the weekly Colombia exchange rate. Revista de Economía del Rosario, 4, 143—172.

Takaishi, T. (2007). Bayesian estimation of GARCH model by hybrid Monte Carlo. Quantitative Finance Papers 01/2007.

Taylor, S. (1994). Modeling stochastic volatility: A review and comparative study. Mathematical Finance, 4(2), 183—204.

Tsay, R. (2005). Analysis of financial time series (2a ed.). New Jersey: John Wiley & Sons.

Vrontos, I., Dellaportas, P. y Politis, D. (2000). Full Bayesian Inference for GARCH and EGARCH Models. Journal of Business & Economic Statistics, 18(2), 187—198.

ANEXO

1. Algoritmo de Metropolis—Hastings (M—H)

Esta metodología, ideada por Metropolis et al. (1953) y generalizada por Hastings (1970), tiene por objetivo construir una cadena de Markov apropiada.

Bajo un contexto bayesiano, se define a z el vector de datos, θ el vector de parámetros, f (z|θ) la función de verosimilitud de z dado θ, π (θ) la distribución a priori de θ y Θ el espacio de parámetros del vector θ. Con estos conceptos y siguiendo el teorema de Bayes se tiene que la función de distribución a posteriori de θ dado z es

Así, el algoritmo M—H simula muestras de la densidad a posteriori (z|θ). Para ello se busca una densidad condicional w (.|θ) o, en su defecto, una distribución que se pueda muestrear fácilmente (e.g. Uniforme), y a continuación se generan realizaciones de esta distribución para decidir si pertenecen a la distribución θ|z. El algoritmo M—H se puede sintetizar en cuatro pasos, dado un valor inicial θ(0):

1) Generar , para t>0.

2) Establecer un τ = mín .

3) Tomar .

4) t = t+1. Retomar 2),siendo más rápida la convergencia del algoritmo si wf.

Dicho esto, otra cuestión importante que se debe tener en cuenta es la comprobación de la convergencia, que puede realizarse mediante los gráficos de los valores de θ (t), gráficos de la media estimada θ y comparación de los resultados con valores iniciales diferentes, entre otros.

En general, los primeros datos generados por la cadena de Markov no se tienen en cuenta, a razón de que la cadena olvide su estado inicial, por lo que para la inferencia del modelo solo se utilizan los datos generados por las iteraciones restantes15.


Economía del Caribe
Revista de economía de la Universidad del Norte
http://rcientificas.uninorte.edu.co/index.php/economia
ecocaribe@uninorte.edu.co

Universidad del Norte
Barranquilla (Colombia)
2015
©