Artículo de investigación

http://dx.doi.org/10.14482/ecoca.24.336.861

Análisis comparativo de las metodologías de estimación del valor en riesgo del mercado de deuda pública colombiano

comparatíve analysís of the estímatíon of (value at rísk) var ín publíc market debt

Miguel Antonio Alba Suárez1

1 Docente y doctorando en Administración de Empresas, Universidad Santo Tomás. Bogotá. miguelalba@usantotomas.edu.co

Fecha de recepción: junio de 2018
Fecha de aceptación: octubre de 2019


Resumen

El comportamiento del mercado exige hoy más que nunca abordar el estudio del valor en riesgo como instrumento que pueda ayudar a mitigar las pérdidas que se puedan presentar ante cambios generados por fundamentales internos y externos. Este trabajo está enfocado en hacer una ilustración de las metodologías pa-ramétricas y no paramétricas más frecuentemente utilizadas por los agentes del mercado para encontrar el valor en riesgo aplicado al mercado de deuda pública.

Palabras claves: Arima, Garch, parámetrico, retroceso, valor en riesgo.


Abstract

Markets behavior requires today more than previously the study of Value at Risk as a tool that can help to mitigate the presented looses generated whether by intern or extern subjets. This work is focused on making an illustration of para-metric and non-parametric methodologies frequently used by market agents to estimate the Value at Risk on the public debt market.

Keywords: Arima, Backtesting, Garch, parametric, Value at Risk.


La actividad de compra y venta de deuda pública es una de las más dinámicas del mercado de capitales en Colombia, país que desde hace muchos años ha venido financiando sus gastos a través de este mecanismo, que ha sido muy atractivo tanto para los inversionistas locales como internacionales.

El estudio del valor en riesgo es uno de los temas más abordados en la literatura nacional e internacional, en donde se han identificado por el mercado diferentes metodologías, las cuales miden cuál sería el monto máximo que estaría dispuesto a perder un inversionista si mantiene en su portafolio un papel de renta fija o variable.

El trabajo que se presenta se compone de cinco partes: en primer lugar, antecedentes del mercado de deuda pública; segundo, conceptualización del valor en riesgo; tercero, aplicación de las metodologías del valor en riesgo en el mercado de deuda pública; cuarto lugar, análisis descriptivo estadístico del mercado de deuda pública y estimación del valor en riesgo VaR en el mercado de deuda pública, para terminar con las conclusiones y recomendaciones a trabajos futuros.

2. Antecedentes del mercado de deuda pública

A principios de la década de los noventa, la colocación de títulos de deuda pública en América Latina se caracterizó por un crecimiento débil concentrado en la búsqueda de recursos en los mercados internacionales frente a un limitado desarrollo de sus mercados de deuda.

En Colombia, el mercado de deuda pública se encuentra conformado por papeles colocados tanto en el mercado local como en los mercados internacionales. A nivel del mercado local, el saldo en el periodo 2011-2014 ascendió en TES2 tasa fija clase B a 129.272 millones de COP, en tanto que en TES UVR ascendió en el periodo señalado en 42.642 millones de UVR.

A continuación, se muestra el saldo de TES en el periodo 2011-2015

Como se puede visualizar en la figura 1, el saldo la tasa de crecimiento en los saldos de TES de clase B mostró un crecimiento del 6,4 % en tasa fija y de un 15,3 % en UVR, como consecuencia de la entrada de nuevas emisiones al mercado como los TES de fecha de vencimiento mayo/17, agosto/26 y septiembre/30 entre otros.

En el mercado de valores de Colombia, los papeles de renta fija presentan mayor volumen de negociación que los otros papeles del mercado con una participación del 82,9 % entre los que sobresalen los TES con un nivel del 80,6 %, como se puede visualizar en la siguiente figura:

En lo que atañe a los indicadores de deuda interna y externa, tanto en duración3 como en cupón promedio presentaron un comportamiento en promedio de 3,88 y 9,25 %, respectivamente a nivel local, mientras que a nivel externo muestra 5,08 y 5,87 % cada uno, como se muestra en la siguiente figura 2:

Como se puede visualizar en la figura 3, la duración de los papeles de renta fija a nivel local TES ha ido aumentando, en tanto que el cupón promedio ha oscilado entre un 7,50 % a un 9 % (MinHacienda, 2016).

3. valor en riesgo

Matemáticamente, el valor en riesgo corresponde al cuantil de la distribución conformada por las pérdidas y ganancias P/G, donde esta es continua y de manera monótona.

Este estimador denota el cambio en el valor de la cartera como q(p), así la probabilidad expresada como se maneja estrictamente al nivel de confianza a previamente establecido.

El VaR está definido por los siguientes conceptos: 1. Dada una distribución de pérdidas y ganancias

donde XT es definido en un tiempo futuro y a un nivel de confianza a previamente establecido. ( Embrechts, 2016).

2. Se escribe el VaR en forma de cuantil de la distribución P/G como

3. Con lo anterior se escribe a un nivel de confianza a e (0,1), el valor correspondiente al nivel de confianza previamente establecido por la distribución.

Debido a esta previa introducción es que se puede nombrar al valor en riesgo como un cuantil de la distribución P/G asociado a este. El nivel de confianza ronda típicamente entre 0.95 y 0.99 para el caso del riesgo de créditos y de mercado, y 0.999 para el riesgo operacional (P. E. y Hóing, 2006).

Uno de los aspectos más importantes del VaR es tener en cuenta la parte cuantitativa del manejo de riesgo sin descuidar aspectos cualitativos, esto genera la posibilidad de ser una gran fuente de comunicación entendible y cultamente aplicada.

El valor en riesgo aun cuando sea una de las medidas más usadas por sus buenas estimaciones y ser entendible, requiere de ciertos aspectos que se deben observar al hacer su cálculo. Según Embrechts (2016), el VaR se caracteriza por ser una medida de frecuencia, lo que no la hace muy robusta; aparte de esto sufre problemas a cuantiles, que dificultan los resultados; por otro lado, arroja intervalos de confianza muy abiertos lo cual causa un problema de confiabilidad a la hora de hacer las estimaciones. En consecuencia, se hace necesario entrar en detalle y mirar con bastante sutileza los cálculos proporcionados, además de dar detalle al comportamiento del mercado.

3.1 Teoremas matemáticos sobre el VaR

Algunas características importantes sobre el valor en riesgo se han mencionado anteriormente; sin embargo, es necesario hacer hincapié en sus propiedades que han definido a este método como lo conocemos hoy en día.

■ Subaditividad

La paradoja de Banach-Tarski dice que dados unos subconjuntos acotados a, por lo tanto, existen subparticiones en estos subconjuntos , tales que . sean congruentes.

En otras, la subaditividad provoca efectos de diversificación.

Es común ver esta propiedad en entidades bancarias con obligaciones de deuda cola-teralizada4 y MBS (valores respaldados por hipotecas).

Por otro lado, es bastante factible para portafolios con comportamiento normal multivariado y portafolios con características elípticas. Sin embargo, es una medida insuficiente cuando se poseen colas pesadas en la distribución de los datos, sesgo en la información y distribuciones marginales con dependencias específicas.

■ Súperaditividad

Tomando en cuenta lo anterior, el VaR cuanta con otra propiedad: la súper-aditividad, esto tomando en cuenta la tenencia de colas pesadas en la distribución de los datos, que provocan problemas de modelos con media infinita, lo cual indica que para X1 y X2 la probabilidad

(modelos de media infinita), el VaR se convierte en sú-peraditivo para niveles de confianza altos:

Así, va generando un índice de concentración,

Por último, el VaR cuenta con un buen uso en el riesgo del mercado financiero, aunque posee algunas restricciones en el riesgo de crédito, así como un comportamiento no normal en algunas plataformas del mercado y es bastante bueno y dinámico en el manejo de modelos cuantitativos para la administración del riesgo.

Para hacer uso del valor en riesgo hay que partir desde varios métodos, que así van generando distintos puntos de vista frente a las observaciones y resultados estimados; los métodos más usados para el cálculo del VaR son la simulación histórica, método de Montecarlo, EWMA y la obtención de la distribución de P/G a través de modelos Egarch, Arma-Garch, GJR-Garch, entre otros.

4. MODELOS DE ESTIMACIóN DEL VALOR EN RIESGO APLICABLES AL MERCADO DE DEUDA PÚBLICA

A continuación, se describen a nivel teórico los modelos de estimación del valor en riesgo aplicables al mercado de deuda pública:

4.1 Simulación histórica

Actualmente se puede encontrar una gran cantidad de métodos para estimar el valor en riesgo (VaR) de un portafolio, de acuerdo con lo citado en Li, Fan, Li, Zhou y Liu (2014), en la encuesta hecha por Pernigón y Smith en 2009 se encontró que el 73 % de los bancos de Estados Unidos y Canadá desde 1996 hasta 2005 han usado metodología para la estimación del VaR basadas en la simulación histórica y acercamientos por el método de Montecarlo.

Según Finger (2006), las entidades bancarias optan por el uso de la simulación histórica ya que responde bastante bien a las siguientes observaciones:

■ Es fácil de explicar.

■ Es un método conservador.

■ Es libre de supuestos.

■ Logra capturar colas pesadas en la distribución.

■ Expone de manera precisa donde puede haber errores.

■ Logra obtener buenos pronósticos.

Debido a todos estos aspectos, es lógico que se haya usado bastante este método por los bancos; sin embargo, es necesario ver más allá históricamente para encontrar porque continuan haciéndolo.

Según Holton (2015), durante la década de los noventa se generó una migración de intelectuales en el área de las matemáticas y de la física de la industria militar hacia Wall-Street, quienes con sus habilidades desarrollaron productos financieros mientras creaban estrategias de precios y cobertura; sin embargo, como en su implemen-tación no se consideró el impacto que tendría en el manejo de riesgo financiero, se delegaba la ejecución de las operaciones financieras a personas menos capacitadas en el manejo de este tipo de mediciones.

Ante la situación presentada, anteriormente se optó por el uso de la simulación histórica al ser poco sofisticada a nivel matemático y así cada persona podría entender esta metodología de manera sencilla. Ante esta preferencia los reguladores bancarios aceptaron dicha propuesta de cálculo contratando los servicios de consulta en riesgo a entidades como J.P Morgan con RiskMetrics, y Cs First Boston con PrimeRisk entre otros (Holton, 2015).

En lo que concierne a la simulación histórica, consiste en un método de incorporación predictiva del riesgo que incluye una distribución de probabilidad acumulada de los retornos y su volatilidad. Una manera de clasificar este método está en sus supuestos no paramétricos, es decir, por el uso asintótico de la distribución empírica, teniendo pérdida en asumir una distribución ligada a los retornos.

El método de simulación histórica presenta una valoración total en donde su uso se realiza mediante la aplicación de los pesos actuales de las series temporales en los rendimientos históricos .

Para el cálculo del VaR mediante esta metodología, es necesario tanto el conocimiento de los precios de las variables de mercado, que son los factores de riesgo de un periodo anterior, como el cálculo de las variaciones porcentuales diarias de cada uno estos.

A continuación se hace necesario aplicar los retornos diarios al valor corriente de cada activo y realizar su suma. Con este número se identifica la variación del valor de la cartera en el día d y a través suyo es posible realizar k cantidad de simulaciones o escenarios para identificar de alguna forma el comportamiento diario del portafolio de inversión.

Después de realizar el planteamiento procede dar orden a los cambios diarios del valor del portafolio ordenados ascendentemente, con lo que se encuentra una función asociada a las variaciones diarias del valor del portafolio.

Al final, se debe utilizar un nivel de confianza deseado calculando el cuantil de la distribución conformada por las pérdidas y ganancias P/G (Menichini, 2006).

Matemáticamente, el VaR a través del método de crecimientos absolutos se obtiene de la siguiente manera:

Se deben aplican los pesos actuales de la serie presente a la serie de rendimientos de los activos históricos:

donde los pesos actuales . dependen del tiempo t y R. de k; a través de esto construimos un escenario pertinente para la construcción histórica.

■ Se requiere una valoración construida generalmente por la totalidad de los precios completos incluyendo rendimientos exactos y todas las cuervas de crecimiento. Luego de esto es preciso obtener los precios futuros mediante la simulación de n cantidad de escenarios utilizando los cambios históricos de cada uno de los precios para aplicarlos en los actuales:

donde el corresponde a la diferencia de precios entre el día i y el día i-1 P/G diaria.

■ Se hace necesaria la creación de una variable hecha como el conjunto de precios correspondiente a los escenarios , y que comporta un nuevo valor de la cartera. Luego calculamos un riesgo con volatilidades cambiantes de forma implícita creando un rendimiento conforme a un escenario específico k simulado:

donde es el rendimiento simulado en el día corresponde a los escenarios en el día t.

A través de todo esto encontramos la distribución correspondiente a los rendimientos en el k escenario y calculamos el cuantil correspondiente al VaR.

Según li et al. (2004) se puede ver la implementación de este método mediante otra perspectiva, en donde se escribe la serie de los retornos como calculando la siguiente estimación para el VaR así:

donde Per denota el percentil de la distribución de los retornos calculada mediante la simulación y rt los retornos del portafolio en el día t.

4.2 Simulación histórica con crecimientos logarítmicos

Esta metodología es igual a la anterior, pero teniendo en cuenta los rendimientos de forma logarítmica para así calcular el rendimiento de los precios como:

donde P .(t) corresponde al precio en el día t y P .(t - 1) el precio en el día t - 1.

Posteriormente a este cálculo es necesario la creación de una serie de tiempo con los escenarios simulados multiplicando los escenarios recientes o actuales con el rendimiento logarítmico de los precios más una unidad:

Luego se realiza la serie, a apartir de los rendimientos simulados con los rendimientos de los precios, y tomando en cuenta las observaciones recientes:

Una vez obtenidos los rendimientos simulados se calcula el VaR tomando el cuantil ( con el nivel de confianza seleccionado.

4.3 Simulación histórica con crecimientos relativos

Este método de simulación se basa en calcular los rendimientos históricos como el cociente de los precios recientes para un día t

Después de obtener los rendimientos de los precios, es necesario calcular los precios simulados, para así realizar el cálculo de rendimientos aritméticos conforme a los escenarios simulados, utilizando los precios recientes o finales para realizar su cociente:

Al obtener los rendimientos aritméticos simulados se tiene la distribución correspondiente para el cálculo del valor en riesgo de la misma forma: utilizando el cuantil ( al nivel de confianza seleccionado.

Teniendo en cuenta los objetivos de este trabajo, es necesario hablar de los aspectos paramétricos para la estimación del VaR, pues se requiere precisar el uso de supuestos en cuanto a la distribución de probabilidad que caracteriza los valores posibles de los factores de riesgo asociados al respectivo portafolio de activos financieros. Según Powell (2014), al implementar el teorema del límite central en 1900 Bachellier logró estandarizar los precios de las acciones de la bolsa de París descubriendo que ante los cambios excesivos de los montos de los portafolios se lograba obtener una distribución normal. Desde este momento se hizo ese supuesto de distribución a muchos de los comportamientos accionarios.

Los aspectos cruciales en los métodos paramétricos se encuentran en calcular la media y desviación estándar de la distribución normal que se asume con las series propuestas por los datos históricos; al tener estos supuestos de normalidad en los datos solo se procede a calcular el cuantil de la normal correspondiente al nivel de confianza deseado encontrando el valor en riesgo (Join, 2001; Moscote, 2013).

■ Simulación Montecarlo

La simulación de Montecarlo es el método más usado después de la simulación histórica para la estimación del valor en riesgo; su uso se enfoca en ver las probabilidades de pérdidas al exceder un valor especifico en la distribución supuesta. Así, este método propone que los factores de riesgo del respectivo portafolio de activos financieros son dados a través de una distribución cualquiera (Li et al., 2014):

Con referencia a los supuestos teóricos, estos recaen en la teoría de la probabilidad en la simulación, pues se realizan k-escenarios en donde se asume una distribución de probabilidad conocida para los precios, mientras que al darse algunos procesos se obtiene una distribución de probabilidad con la que se estimará el VaR a cierto cuantil, tomando en cuenta que los precios y su parámetro son variables aleatorias con alguna distribución de probabilidad a encontrar.

Por otro lado, esta metodología parte de supuestos sobre los procesos estocásticos inherentes con el movimiento geométrico browniano, a fin de encontrar el método que caracteriza la aleación de la distribución de probabilidad de los precios con la distribución final para la estimación del VaR ( Powell, 2014).

Con la estimación del VaR utilizando el método de Montercarlo, se pueden caracterizar varias distribuciones para las variables de interés y modificarlas en el caso requerido. Una vez hechos los supuestos de distribución es necesario implementar los escenarios donde las variables de riesgo del mercado toman diferentes consecuencias de acuerdo con el valor de cartera que estas reflejan.

Con posterioridad al resultado de las realizaciones hechas por los k-escenarios, se obtiene la distribución de los retornos dados por el portafolio utilizando un proceso estocástico en donde se procede a calcular el cuantil correspondiente al VaR a un nivel deseado.

El contraste de la simulación histórica demanda el uso de datos históricos mientras se realiza la distribución de probabilidad de los retornos; sin embargo, con el método de Montecarlo se pueden hacer varios juicios sobre la distribución de las variables y traer información adicional para mejorar tal aspecto (Powell, 2014).

Así mismo, la estimación del VaR para un solo activo financiero obliga a identificar de primera mano el proceso estocástico de movimiento geométrico browniano, que sigue la siguiente terminología:

donde corresponde a los precios en el tiempo es el retorno esperado (u la media de los retornos esperados y su varianza ), es el incremento diario, y es la aleatoriedad dada en el tiempo t y que permite el cambio continuo en los precios.

Reordenando el proceso estocástico de movimiento geométrico browniano, se puede obtener el siguiente término correspondiente a los retornos:

A partir de la ecuación anterior, es necesaria la implementación de un conjunto de números seudoaleatorios provenientes de una distribución normal con media estándar, para modelar el proceso estocástico utilizando el método congruencial lineal:

Donde debe ser mayor a 0 y M es el módulo tal que estos números representan las probabilidades de los posibles eventos que pueden ocurrir a cierta cantidad de cambios en los retornos. Al obtener estos números se hace necesaria su transformación en y se procede a la implementación del proceso estocástico generándolos un número k de veces, donde el número mínimo de realizaciones depende

de cuán precisa quieren ser las estimaciones arrojadas por la simulación corresponde a los valores simulados y la media de la distribución del factor de riesgo (Powell, 2014).

Finalmente se calcula con el movimiento geométrico browniano los valores correspondientes a los retornos para luego sí calcular el VaR al nivel de confianza seleccionado donde a usualmente se utiliza al 5 %.

El anterior caso solo tuvo un activo de un portafolio de inversión; sin embargo, para el cálculo del VaR, utilizando un portafolio de inversión conformado por varios activos financieros, es necesario el uso de las matrices de varianzas y correlaciones conformada por los distintos activos.

Al tener las respectivas matrices de varianza y correlación se multiplican de tal forma que quede una matriz varianza-correlación única; después está se multiplica por la matriz de varianza a efectos de construir la matriz de varianzas y covarianzas, para luego realizar la ponderación respectiva con los precios establecidos.

Una vez construidas las matrices anteriores se suma la diagonal de la matriz de vari-anzas y covarianzas ponderada, para encontrar la desviación estándar del portafolio, y así finalmente calcular el VaR a un nivel de confianza seleccionado utilizando la media de los retornos y su desviación.

Modelos EWMA y EQWT

Los modelos EWMA y EQWT utilizan acercamientos por el método de varianzas-co-varianzas, en donde se asume que los factores de riego que determinan el valor de un portafolio de inversión son distribuidos de manera normal multivariada, lo que implica que el VaR del portafolio es un múltiplo de la desviación estándar:

Donde es el vector con los pesos del portafolio, la matriz de varianzas-covarianzas y un factor de expansión, el método de varianzas y covarianzas supone los retornos de un portafolio hecho con m precios, tales que:

donde se le conoce como pesos de la serie y a como una variable aleatoria con la matriz de varianzas y covarianzas Con lo anterior se puede aproximar el VaR de la siguiente manera:

donde corresponden a la media y varianza de los retornos, y se estiman bajo máxima verosimilitud. Por medio de las varianzas y covarianzas de la matriz se estiman las series históricas de los retornos del portafolio usando unidades de media movible iguales (EQWT) (Raaj y Rauning, 2005):

donde denota los elementos de la matriz de varianzas-covarianzas en un tiempo especifico, y los retornos.

Esta aproximación histórica EQWT presenta dos pasos:

■ el cálculo de la serie de los retornos;

■ la aplicación de los pesos en las series.

A partir de lo anterior, se calculan los retornos ponderados para el periodo de tiempo de la serie y se toma la ratio logarítmica de los precios del portafolio de inversión:

donde los retornos se calculan en el periodo T. al número de factores de riesgo m. Posteriormente a estos pasos se calcula la varianza de los retornos al cuadrado:

Al ser esto una media de los retornos , bajo un peso igual se puede escribir el factor de expansión

Como el método EQWT posee siempre el mismo factor de expansión (pesos), la metodología EWMA toma en cuenta un mayor peso en esta varianza ocasionando mayor influencia en los retornos. Esta diferencia se da específicamente en que en la metodología EWMA (exponentially weighted moving averages) los pesos de las observaciones están dadas bajo un tipo de suavizamiento exponencial. Una forma abreviada de ver esta metodología se puede escribir de la siguiente manera:

donde A es conocido como un parámetro de suavizamiento y es menor que uno; usual-mente este factor de decaimiento toma valores entre 0.95 y 0.99 lo que implica que a factores de decaimiento bajos estos tiendan a datos ponderados por los pesos de mayor manera. A diferencia de los pesos de la metodología EQWT, los pesos en la varianza son diferentes como se expresa a continuación:

Una diferencia particular metodologíca entre los dos métodos de estimación es que EQWT no toma en cuenta la dependencia de las variables en el tiempo, mientras que los modelos EWMA sí tienen en cuenta este tipo de comportamiento.

■ VaR paramétrico

El cálculo del VaR a través de metodologías paramétricas sigue un acercamiento tradicional en cuanto a los supuestos de normalidad que siguen los portafolios. Esta metodología utiliza los factores de la matriz de varianzas y covarianzas junto con el modelo proporcionado por los retornos a manera de variables aleatorias, con distribución normal.

Las únicas variables necesarias para el cálculo del VaR paramétrico son la media y desviación estándar del portafolio y así mismo el cálculo del valor de la normal estándar a un nivel de confianza seleccionado; el cálculo del VaR se puede ver de la siguiente

manera:

donde es la media y la desviación de los retornos.

En la práctica, este método es bastante riesgoso debido a los supuestos de normalidad ya que usualmente no se tiene una evidencia observacional para determinar si este hecho es factible. En otro aspecto el VaR paramétrico también impone la restricción de precios lineales, lo que no es adecuado para los valores altamente no lineales (Bloomberg, 2016). Otro problema que posee este método está en la estabilidad de la desviación estándar a lo largo del tiempo, por lo que estos valores extremos tienden a subestimar el VaR y pueden generar una exposición a riesgo mayor a la de otras metodologías.

■ VaR histórico

Esta metodología modela las colas pesadas de los retornos usando la distribución histórica de estos en vez de asumir que se distribuyen normalmente. En este método, la distribución conjunta de los retornos es representada por un panel de retornos diarios históricos a lo largo de varios años, para así simular los respectivos rendimientos mediante las colas de la distribución t-student, cuyas desviaciones estándar son estimaciones de las volatilidades del portafolio. Para calcular el VaR es necesario organizar descendentemente los retornos históricos y computarlo con un nivel de confianza al retorno menor.

En contraste con el VaR paramétrico, el Var histórico captura las colas pesadas de la distribución de los retornos del portafolio y ofrece flexibilidad para las múltiples técnicas de evaluación de las metodologías; en contraste con el método de Montecar-lo, el VaR histórico tiene la ventaja de no asumir una distribución para los retornos utilizando la distribución histórica de estos por lo que lo convierte en un método fácil de calcular e interpretar. Por otro lado, se puede cuestionar la fidelidad de utilizar la distribución histórica de la distribución de rendimientos futuros debido a las condiciones del mercado ya que actualmente no son como han sido en el pasado. Otro problema de esta metodología está en la limitación en la longitud de los datos proporcionados ya que un pequeño número de escenarios históricos tiende a tener una confianza menor en la estimación del VaR.

En la siguiente tabla se puede encontrar una clasificación para las metodologías paramétricas:

■ Modelos de volatilidad

La estimación del VaR con supuestos normales evidencia en la aplicación una presencia amplia de sesgo y curtosis lo que resulta en poca o mucha cobertura de las estimaciones calculadas. Por lo tanto, asumir otro tipo de distribuciones y realizar modelos para el manejo de riesgo resulta en muchas ocasiones un factor óptimo en la estimación oportuna del VaR.

En la práctica, es bastante común utilizar modelos autorregresivos de heterocedasticidad condicional (ARCH) y generalizados (Garch), ya que estos capturan los movimientos no constantes de la varianza a través del tiempo luchando contra los constantes cambios en la volatilidad. En la práctica, los modelos más utilizados de esta clase son los ARCH (1), Garch (1,1) y Egarch (1,1); en el caso de este documento, se estimará el VaR por medio del modelo Garch (1,1).

Sea los continuos cambios en los retornos desde el periodo empezado en t-1 hasta t, y Pt como el precio de los activos financieros al tiempo t; la desagregación de se puede escribir de la siguiente manera:

donde corresponde a la información en el tiempo propuesto menos una unidad y los errores de dicha desagregación considerados como valores no predictivos; el valor esperado para el i-ésimo proceso de autorregresión se escribe como:

Los valores no predictivos se pueden escribir como procesos de tipo ARCH donde corresponde a un vector de medias de 0, varianza 1 y la varianza condicional de es (Timotheos, Alexandros y Starvos, 2003).

Con lo anterior, la varianza condicional del modelo ARCH(q) se escribe como:

donde ) y corresponde a la reacción a los nuevos comportamientos en el mercado; a través de la anterior definición se logra generalizar el modelo ARCH convirtiéndolo en un Garch(p,q) con la siguiente varianza condicional:

donde si el proceso se considerara estacionario. Y, a su vez, sostiene la persistencia de la heterocedasticidad en el tiempo. Para el caso del modelo Garch (1,1), la varianza condicional se escribe de la siguiente manera:

El modelo GARCH(p,q) propone una solución bastante buena frente a problemas con la volatilidad y las colas pesadas de la distribución de los retornos, por lo que genera estimaciones confiables al influir este factor difícil de modelar y pronosticar.

Por otro lado, este modelo carece de eficiencia, por las limitaciones que posee en cuanto a la varianza dependiente de la magnitud y no de los lo que no es evidente en el comportamiento de los precios donde se encuentra un factor de apalancamiento, pues los activos presentan correlaciones negativas entre ellos y en repercusión logran cambios en la volatilidad (Angelidis et al., 2003).

En respuesta a estas limitaciones impuestas por el modelo de tipo Garch, surge el uso de este mismo a manera exponencial EGARCH(p,q), el cual cuenta con la siguiente forma:

donde corresponde a un factor asimétrico.

En la estimación de los parámetros de los modelos ARCH se usa comúnmente máxima verosimilitud asumiendo que la porción estocástica mt de los errores son independientes e idénticamente distribuidos y el seguimiento del supuesto de densidad para estos d(mt; v); con lo anterior, la función de log-verosimilitud para el parámetro en una muestra de n observaciones se escribe de la siguiente manera:

Donde cambia dependiendo de la función de densidad asumida sobre la porción estocástica mt.

Siguiendo desarrollo del trabajo, se calcula la varianza condicional para el modelo Garch(p,q) en el tiempo t + 1 como:

Una vez obtenida la anterior varianza condicional, existe entonces una distribución a seguir de manera que se procede a retroceder y calcular el VaR en el periodo t+1 a un cuantil específico multiplicándolo por la varianza condicional así:

donde varía dependiendo de la distribución supuesta para los errores.

Cabe resaltar que el modelo EWMA es un caso especial del modelo Garch (1,1) donde reemplazando en la fórmula original p=1, q=1, a=0 y resulta en la ecuación planteada anteriormente (27).

5. BACKTESTING

La gran cantidad de métodos para estimar el VaR es una razón significativa de por qué se debe verificar su desempeño y cuál es la metodología que realmente está reflejando el comportamiento del mercado. El backtesting es un procedimiento estadístico donde las pérdidas y ganancias son comparadas correspondientemente al valor en riesgo estimado.

La investigación hecha por los bancos para medir la fiabilidad de los métodos de estimación del VaR utilizando pruebas retrospectivas se divide en las siguientes tres categorías:

■ Test de cobertura: Estos evalúan si la frecuencia con la que se dan excepciones donde el modelo propuesto por el VaR no captura con precisión los cambios en la volatilidad y correlación del mercado, son consistentes con el cuantil de pérdida que la medida de riesgo trató de reflejar.

■ Test de distribución: Estos proponen pruebas de bondad y ajuste para las distribuciones de pérdida pronosticadas por la medida de riesgo.

■ Test de independencia: Estos buscan determinar si hay independencia entre periodos elegidos.

■ Test de cobertura: Este test se basa en ver el número de excepciones diarias en el que las pérdidas generadas por el portafolio superan los valores estimados por cada VaR, por lo que si el número de excepciones es menor a un nivel de confianza seleccionado, el modelo sobreestima el riesgo; por otro lado, si el número de excepciones es mayor, hay un factor de subestimación en el riesgo.

Sea Q el cuantil de pérdidas asociadas al portafolio; el proceso que implica el exceso de las pérdidas se escribe de la siguiente manera:

donde It es idénticamente distribuida e independiente. Se define la cobertura z como la frecuencia de veces que se excede el VaR como:

Sea Y el número de excedentes como donde d corresponde a los datos históricos siendo estos realizaciones de It.Y Y una variable aleatoria con distribución binomial con parámetros (q + 1, 1 - z).

Al aumentar el número de excedentes se puede aproximar esta distribución binomial a una normal estándar:

donde pt es el número esperado de excedentes y p (1- p)t su varianza.

Para el criterio de rechazo si se toma la hipótesis nula como cierta a un nivel de significancia dado, se deben encontrar los valores y y y2 de tal forma que Siguiendo a esto, se establece un criterio para varios intervalos de [yx,y2] de tal manera que al observar el VaR en el periodo t + 1 y a un número de excedentes si [ y1, y2], se rechaza la estimación del VaR.

Test de cobertura de Kupiec

Este es uno de los test más conocidos con respecto a las tasas de fracaso, pues este intenta describir si el número de excepciones o excedentes es consistente con el nivel de confianza especificado; el test indica que, bajo la siguiente hipótesis nula, el número de excepciones o excedentes sigue una distribución binomial igual a la del test de cobertura.

donde x son las excepciones y n corresponde al número de observaciones; por medio de lo anterior se determinan las diferencias significativas de la tasa de fracaso con respecto a Bajo el test de máxima verosimilitud, el estadístico de prueba presenta la siguiente forma:

donde bajo la hipótesis nula , se tiene que si este estadístico excede , la hipótesis nula se rechaza y el modelo de estimación para el VaR es ineficiente.

Test TUFF de Kupiec

Este test parte de supuestos iguales a los del test anterior; la diferencia se evidencia en la probabilidad de cada excepción, siendo cada una de estas la inversa del nivel de confianza del VaR. Para este test, bajo máxima verosimilitud el estadístico de prueba es el siguiente:

donde v representa el tiempo que se toma hasta que ocurre la primera excepción en la muestra y el estadístico , por lo que si el estadístico es menor al valor crítico, el modelo de estimación es aceptado.

6. ANáLISIS DESCRIPTIVO A NIVEL ESTADíSTICO DEL MERCADO DE DEUDA PúBLICA

6.1 Introducción a los modelos Arima

Se entiende por modelos Arima, aquellos que se caracterizan por ser autorregresivos integrados de media móvil; de igual manera según Castaño, la propiedad de memoria larga en una serie de tiempo suele entenderse como la persistencia que muestran las autocorrelaciones muestrales de ciertas series de tiempo estacionarias, las cuales decrecen a un ritmo muy lento, pero finalmente convergen hacia cero (Castaño, Gómez y Gallón, 2008; Lemus y Castaño, 2013).

El comportamiento citado, según Beran (1994), no es compatible con la función de auto-correlación (acf) de los procesos estacionarios autorregresivos y de medias móviles ARMA (p, q), que imponen un decrecimiento exponencial en las autocorrelaciones, ni con el decrecimiento casi nulo de los modelos integrados no estacionarios ARIMA (p, d, q).

Modelos Arima (p, q, d).

Según Brockwell (2006), un proceso estocástico sigue un proceso autorre-gresivo integrado de media móvil Arima (p, d, q) si es una solución a la ecuación:

donde es el polinomio autorregresivo estacionario de orden p y es el polinomio de media móvil invertible de orden q, ambos en términos del operador de rezagos B y, además, no tienen raíces comunes entre sí. Si d = 0, el proceso en la ecuación (46) corresponde a un proceso ARMA (p, q) estacionario e invertible; en este caso, está relacionado con la medida del proceso. Si , el proceso en la ecuación (46) corresponde a un proceso no estacionario homogéneo de raíces unitarias; en este caso, es llamado el término de tendencia determinística del proceso. El proceso (at) es una sucesión de variables aleatorias no observables, con media cero y varianza finita .

6.2 Pruebas de raíz unitaria

■ Prueba de Dickey-Füller aumentada

En la práctica, no siempre es posible representar una serie de tiempo empleando alguno de los modelos donde no hay correlación serial en el término de error. En este caso, Dickey y Füller proponen extender la prueba considerando los siguientes modelos:

donde at es un ruido blanco gaussiano de media cero y varianza constante. Con la finalidad de probar la existencia de una raíz unitaria, se deben contrastar las siguientes hipótesis según el modelo considerado en el estudio:

. Bajo esta hipótesis, la serie tiene raíz unitaria, lo que implica que el proceso no es estacionario.

. Bajo esta hipótesis, la serie no tiene raíz unitaria y, por lo tanto, la serie es estacionaria.

El estadístico de prueba para cada una de las pruebas es

donde es el estimador por mínimos cuadrados de y es el error estándar en el modelo bajo estudio. La distribución de bajo la hipótesis nula no es la t- student tradicional, sino que pertenece a una clase de distribuciones no estándar y se encuentra tabulada para diferentes valores de n y niveles de significancia (Dickey y Füller, 1979). Si t es el percentil que acumula una probabilidad inferior de a de dicha distribución, se rechaza la hipótesis nula si el valor observado t es menor que .

■ Prueba de Phillips-Perron

donde ut es un proceso sin raíz unitaria 7(0) y puede ser heterocedástico. La prueba de Phillips-Perron (P-P) realiza una corrección no paramétrica de la correlación y la heterocedasticidad presentes en el término de error ut de los modelos enunciados. Los estadísticos de prueba son:

Bajo la hipótesis nula, (equivalente a ), los estadísticos de prueba de Phillips-Perron, tienen la misma distribución asintótica que el estadístico de prueba de la prueba de Dickey-Fuller aumentada y sesgo estadístico normalizado.

■ Introducción a los modelos Garch

Los modelos autorregresivos condicionalmente heterocedásticos (ARCH) fueron introducidos por Bollerslev (1986), y su generalización (Garch) se introdujo por primera vez en Engle (1982). En estos modelos, el concepto clave es la varianza condicional, esto es, la varianza condicional en el pasado. En los modelos Garch clásicos, la varian-za condicional se puede expresar como una función lineal de los valores pasados al cuadrado de la serie. Esta especificación particular es capaz de capturar los principales hechos estilizados que caracterizan las series financieras. La estructura "lineal" de estos modelos se puede visualizar a través de varias representaciones que serán revisadas a continuación

La definición de un modelo Garch vendría dada por:

Un proceso es llamado un proceso Garch (p, q) si sus primeros dos momentos condicionales existen y satisfacen lo siguiente:

donde . Esta ecuación tiene la estructura lineal de un modelo Arima, lo que permite un cálculo sencillo en las predicciones lineales. Hay una prueba que detecta la presencia de heterocedasticidad condicional que fue introducida por Mcleod que no es más que el estadístico de Ljung-Box para la serie al cuadrado o los residuales al cuadrado de un modelo Arima (Mc Leod, 1983).

Los modelos Garch (p, q) capturan de forma adecuada varias características de las series de tiempo financieras, como el agrupamiento de la volatilidad.

Por otro lado, la estructura Garch presenta algunos inconvenientes de aplicación ya que la variación depende solo de la magnitud y no del signo de £t, que es algo que no es adecuado en el comportamiento empírico del mercado de valores, donde un efecto de apalancamiento puede estar presente.

Los estimadores de máxima verosimilitud de los parámetros se obtienen mediante el algoritmo de maximización numérico propuesto por Marquardt (1963), aunque Bo-llerslev (1986) y Wooldridge proponen un estimador usando la función de quasive-rosimilitud que resulta tener una distribución asintóticamente normal y proporciona errores estándar asintóticos que son válidos cuando no hay presencia de normalidad.

En resumen, la predicción de la varianza co ndicio nal un paso adelante para el modelo Garch (p, q) es

Por lo tanto, es sencillo calcular la predicción un paso adelante del VaR bajo todos los supuestos distribucionales y para observaciones con media cero como:

donde corresponde al cuantil (95 % o 99 %) de la distribución asumida y corresponde a la predicción de la desviación estándar condicional en el tiempo t + 1 dada la información hasta el tiempo t.

■ Estimación del valor en riesgo en tes tasa fija

Para efectos de determinar el valor en riesgo del mercado de deuda pública, se tomaron los títulos más negociado en el mercado de renta fija: los TES tasa fija de fecha de vencimiento 24 de julio de 2020 y los TES de fecha de vencimiento 24 de julio de 2024. En el proceso de estimación del valor en riesgo se homologaron las series cuyo periodo inició desde el 9 de enero de 2014 al 23 de junio de 20165.

TES tasa fija de fecha de vencimiento 24 de julio de 2020

A continuación, se presenta un pantallazo de la plataforma Bloomberg, en donde se describe las características faciales de la referencia TES tasa fija de fecha de vencimiento 24 de julio de 2020.

Como se puede apreciar en el pantallazo de la plataforma Bloomberg, la referencia del TES tasa fija de fecha de vencimiento 24 de julio de 2020 cuenta con una tasa cupón del 11 %, y fue considerado por los inversionistas como el activo refugio en el mercado local; cuenta adicionalmente con una calificación en su emisión por parte de las agencias calificadoras de riesgo S&P y Fitch de BBB.

A continuación, se muestra el comportamiento de la referencia diariamente durante el periodo 2014 a 2016:

En el proceso bajo estudio, no se observa ninguna tendencia determinística evidente en la serie. Por otra parte, la varianza incondicional del TES de fecha de vencimiento 24 de julio de 2020 parece cambiar según el nivel del proceso, lo que posiblemente indica que se deba realizar una transformación de potencia que permita estabilizar la varianza mencionada. Se identificó la transformación de Box-Cox más adecuada para estabilizar la varianza incondicional del proceso, pero al obtener valores A demasiado grandes o pequeños durante la optimización, esto puede indicar que la transformación es de poca utilidad para el tipo de serie usada; por lo tanto, se toma la decision de no transformarla.

En el análisis de la serie del TES de la referencia de fecha de vencimiento 24 de julio de 2020, se determinará si el grado de interdependencia muestral del proceso corresponde al de un proceso estacionario o al de un proceso no estacionario homogéneo empleando diferentes pruebas de raíz unitaria siguiendo la metodología de Box-Jenkins (2008), para la construcción de modelos en series de tiempo univariadas.

De acuerdo con la figura 8, se presenta la función de autocorrelación, la cual muestra un decaimiento lento, comportamiento característico de los modelos Arima (p, d, q).

En la figura 9, se evidencian 4 instancias o puntos los cuales hicieron que el TES tuviese un comportamiento bajista como consecuencia del apetito de los inversionistas hacia la parte media de la curva, producto del desestímulo en el mercado financiero local hacia la renta variable causado u originado principalmente por la caída de los precios del petróleo, que fijaron por debajo de los USD 45 el valor del barril de crudo.

■ Resultados de las pruebas de raíz unitaria en el TES de la referencia de fecha de vencimiento 24 de julio de 2020

Al implementar la prueba ADF se consideró inicialmente la existencia de tendencia deter-minística y deriva. En la tabla 2 se presentan los resultados obtenidos para esta prueba, incluyendo un número máximo de retardos igual a la raíz cubica de la longitud de la serie.

En la tabla 3, se presentan los resultados de regresión ajustada en este caso:

Se puede observar que el rezago de la prueba ADF no resulta estadísticamente significativo, y lo mismo se puede concluir con respecto a la tendencia determinística. Dado que la prueba anterior puede estar sobreparametrizada al incluir la tendencia deter-minística, se específica nuevamente la prueba ADF empleando el modelo 2, así como la inclusión de un número de retardos igual a la raíz cúbica de la longitud de la serie.

De las tablas 3 y 4 se concluye que hay evidencia suficiente para no rechazar la hipótesis nula de raíz unitaria, ya que en ambas pruebas el estadístico es menor que el percentil a (nivel de significancia), por lo que se concluye que hay raíz unitaria en la serie de la referencia del TES tasa fija de fecha de vencimiento 24 de julio de 2020.

■ Procedimiento de identificación y estimación del valor en riesgo VaR en el TES tasa fija de fecha de vencimiento 24 de julio de 2020

A continuación, se ilustra la implementación del procedimiento propuesto por Box Box, Jenkins y Reinsel (2008) para la identificación y estimación de un modelo adecuado para la referencia del TES de fecha de vencimiento 24 de julio de 2020. Primero se evalúa la fluctuación empírica de la serie original; en la figura 10 se puede observar que a un nivel de significancia del 5 % se rechaza la hipótesis nula en la que se supone que no hay cambios estructurales en el proceso.

Después de esta medición se ajusta el modelo usando el criterio AIC, donde se obtiene un modelo Arima (0,1,1), cuya ecuación estimada viene dada por:

Considerando un nivel de significancia del 5 %, se puede concluir que la estimación del coeficiente del modelo de corto plazo del proceso en el modelo completo es significativa. A continuación, se presenta el resultado de la prueba de Ljung-Box para los residuales del modelo identificado.

Los resultados obtenidos en la tabla 5 permiten concluir que no hay correlación serial en los residuales del modelo identificado. Lo anterior indica que el modelo es adecuado para capturar la correlación serial a corto plazo presente en la serie diferenciada. Después se evalúa la posibilidad de un efecto autorregresivo condicionalmente het-erocedástico, por medio de la prueba ARCH-LM a la serie original. En la tabla No 6 se muestra que sí hay un efecto significativo de la heterocedasticidad condicional.

En la figura 11, se muestra el autocorrelograma (simple y parcial) de las series de los residuales al cuadrado.

En la figura 12 se muestra la fluctuación empírica para los residuos del modelo, donde se puede observar que no se rechaza la hipótesis de estabilidad estructural de la serie

Usando los rezagos que salen de la banda azul del correlograma, se procede a evaluar por medio del AIC el mejor modelo Garch, donde se obtiene un Garch (0,7), se crean las bandas de confianza y se obtiene la figura 13.

A continuación, se muestra la comparación de las metodologías del VaR para la referencia del TES de tasa fija de fecha de vencimiento 24 de julio de 2020:

De la anterior tabla podemos afirmar que con un nivel de significancia del 5 %, ninguna metodología logra estimar de forma adecuada el valor en riesgo, pero definitivamente la aproximación dada por el modelo GARCH resulta ser el mejor modelo.

■ TES tasa fija de fecha de vencimiento 24 de julio de 2024

A continuación, se muestra un pantallazo de la plataforma Bloomberg en donde se describe las características faciales de la referencia fecha de vencimiento 24 de julio de 2024:

Como se puede apreciar en el pantallazo de la plataforma Bloomberg, la referencia del TES tasa fija de fecha de vencimiento 24 de julio de 2024 cuenta con una tasa cupón del 10 %, y que fue considerado por los inversionistas como el activo refugio en el mercado local; cuenta adicionalmente con una calificación en su emisión por parte de las agencias calificadoras de riesgo S&P y Fitch de BBB.

A continuación, se muestra el comportamiento de la referencia diariamente durante

el periodo 2014 a 2016:

Como se puede visualizar, el comportamiento descrito en el periodo 2014-2016 obedeció principalmente a la demanda por parte de los inversionistas de la parte corta de la curva, dada la incertidumbre generada en el mercado ante la caída de los precios del barril de petróleo, que puso en duda la capacidad del gobierno de disminuir sus acreencias en el largo plazo y la posibilidad de un mayor nivel de endeudamiento ante la caída de la renta petrolera.

En el proceso bajo estudio no se observa ninguna tendencia determinística evidente en la serie del TES tasa fija de fecha de vencimiento 24 de julio de 2024. Por otra parte, la varianza incondicional de la serie parece cambiar según el nivel del proceso, lo que posiblemente indica que se deba realizar una transformación de potencia que permita estabilizar la varianza mencionada. Se identificó la transformación de Box-Cox más adecuada para estabilizar la varianza incondicional del proceso, pero al obtener valores A demasiado grandes o pequeños durante la optimización, esto puede indicar que la transformación es de poca utilidad para el tipo de serie usada. Así que se decide no transformar la serie.

En la figura 16 se presenta la función de autocorrelación de la serie; aquí se observa un decaimiento lento, comportamiento característico de los modelos ARIMA (p, d, q). A continuación, se determinará si el grado de interdependencia muestra del proceso corresponde al de un proceso estacionario o al de un proceso no estacionario homogéneo, según se emplean diferentes pruebas de raíz unitaria que siguen la metodología de Box-Jenkins para la construcción de modelos en series de tiempo univariadas.

A continuación, se muestra en la figura 17 la referencia del TES tasa fija de fecha de vencimiento 24 de julio de 2024 con puntos de quiebre:

Los puntos de quiebre han estado relacionados con la publicación de fundamentales de la economía nacional en donde la caída de los precios del petróleo ha disminuido la capacidad del Gobierno nacional para afrontrar sus gastos, lo que provocó un desgano en el mercado de renta fija ante la amenaza de menores ingresos fiscales durante el periodo 2014-2016, con la consiguiente depreciación del peso colombiano frente a la divisa.

■ Resultados de las pruebas de raíz unitaria en el TES de la referencia de fecha de vencimiento 24 de julio de 2024:

Al implementar la prueba ADF se consideró inicialmente la existencia de tendencia determinística y deriva. En la tabla 8 se presentan los resultados obtenidos para esta prueba incluyendo un número máximo de retardos igual a la raíz cúbica de la longitud de la serie.

En la tabla 9, se presentan los resultados de la regresión ajustada en este caso:

Se puede observar que el primer rezago de la prueba ADF no resulta estadísticamente significativo, e igual cconclusión se puede dar sobre la tendencia determinística. Considerando que la prueba anterior puede estar sobreparametrizada al incluir la tendencia determinística, se especifica nuevamente la prueba ADF empleando el modelo 2, y se incluye un número de retardos igual a la raíz cúbica de la longitud de la serie. En la tabla 10 se presentan los resultados obtenidos:

De las tablas 7 y 9 se concluye que hay evidencia suficiente para no rechazar la hipótesis nula de raíz unitaria, ya que en ambas pruebas el estadístico es menor que el percentil a (nivel de significancia), por lo que se concluye que hay raíz unitaria en la serie de la referencia del TES tasa fija de fecha de vencimiento 24 de julio de 2024.

■ Procedimiento de identificación y estimación del valor en riesgo VaR en el TES tasa fija de fecha de vencimiento 24 de julio de 2024

A continuación, se ilustra la implementación del procedimiento para la identificación y estimación de un modelo adecuado para la referencia del TES tasa fija de fecha de vencimiento 24 de julio de 2024. Primero se evalúa la fluctuación empírica de la serie original; en la figura 18 se puede observar que ante un nivel de significancia del 5 %, se rechaza la hipótesis nula en la que se supone que no hay cambios estructurales en el proceso:

Usando el criterio AIC, seguidamente se ajusta el mejor model; así se obtiene el siguiente modelo Arima (1, 1, 2), cuya ecuación estimada viene dada por:

Considerando un nivel de significancia del 5 %, se puede concluir que la estimación del coeficiente del modelo de corto plazo del proceso en el modelo completo es significativa. A continuación, se presenta el resultado de la prueba de Ljung-Box para los residuos del modelo identificado.

Los resultados obtenidos en la tabla 11, permiten concluir que no hay correlación serial en los residuales del modelo identificado.

Lo anterior indica que el modelo es adecuado para capturar la correlación serial a corto plazo presente en la serie diferenciada.

Después se evalúa la posibilidad de un efecto autorregresivo condicionalmente hete-rocedástico por medio de la prueba ARCH-LM a la serie original.

A continuación, se muestra la comparación de las metodologías del VaR para la referencia de fecha del TES tasa fija de fecha de vencimiento 24 de julio de 2024

De la anterior tabla se puede afirmar que dado un nivel de significancia del 5 % ninguna metodología logra estimar de forma adecuada el valor en riesgo VaR; sin embargo, los modelos GARCH resultan ser los que mejor explican la variabilidad de las series analizadas, y por esta razón se les considera como la mejor alternativa.

A continuación, se muestra el correlograma de la serie de los residuales para la referencia del TES tasa fija de fecha de vencimiento 24 de julio de 2024:

Por otro lado, a continuación, se muestran las bandas de confianza del efecto Garch para la referencia del TES tasa fija de fecha de vencimiento 24 de julio de 2024:

Según se puede ver en la figura 20, el modelo Garch es el que mejor explicita el comportamiento del TES tasa fija de la referencia de fecha de vencimiento 24 de julio de 2024.

A continuación se muestra en la figura 21 la fluctuación empírica para los residuales del modelo, donde se puede ver que no se rechaza la hipótesis de estabilidad estructural de la serie.

7. conclusiones

Los métodos para el cálculo del VaR son usualmente divididos en métodos paramé-tricos, no paramétricos e incluso semiparamétricos. Los modelos paramétricos están basados en los parámetros de la distribución de los factores de riesgo, mientras que los no paramétricos son modelos de simulación o históricos. Hay varios métodos para el cálculo de este indicador, donde el supuesto de normalidad en la mayoría de los casos es el más importante y el más ideal para las carteras simples.

Cuando se implementa la metodología de VaR histórico, el primer paso es el de identificar los instrumentos en el portafolio para obtener las series de tiempo durante un periodo de tiempo definido; luego se utilizan las ponderaciones del portafolio para simular retornos hipotéticos que se habrían realizado, suponiendo que la cartera actual se ha mantenido durante el periodo de observación. Esto es una desventaja, ya que el mercado es bastante volátil, por lo que resulta con desventajas a la hora de implementar esta metodología.

Con la metodología EQWT, el cálculo del VaR resulta ser bastante sencillo, siempre que se mantenga el supuesto de normalidad, ya que las propiedades matemáticas de la distribución normal estándar permiten una trazabilidad fácil entre diferentes niveles de confianza y periodos de espera.

En general, el supuesto de normalidad es bastante fuerte y hay que validarlo para aplicar de forma adecuada esta metodología, pero, en general, en las series financieras este supuesto es bastante escaso sin el ajuste de la serie de tiempo.

En este trabajo se ha mostrado que los retornos no tienen distribución normal, dadas las pruebas de bondad de ajuste implementadas. Además, la presencia de correlación de estos determina la presencia de un fenómeno de "ruido negro" en la función de autocorrelación.

Adicionalmente, el supuesto de varianza constante tampoco se puede validar. Con base en todo lo anterior, es muy difícil crear un intervalo de confianza que tenga la menor pérdida posible o, de otra forma, estimar el máximo del x % de los retornos mínimos. Por consiguiente, para la estimación del VaR es más adecuado hacer una predicción de la volatilidad, lo cual es posible mediante los modelos Garch, ya que esta es la aproximación más adecuada para la estimación.

Finalmente, se hace necesario implementar en futuras investigaciones metodologías no paramétricas dado que las paramétricas no permitieron escoger cuál es la metodología que mejor explica el comportamiento del valor en riesgo en el mercado de deuda pública. Sin embargo, al realizar el backtesting se encontró que los modelos Garch son los que presentan una mejor predicción de la volatilidad

Otra alternativa que puede presentarse en nuevas investigaciones es el cálculo del VaR si se usan distintas distribuciones en vez del supuesto de normalidad. Una de las maneras más eficientes puede ser también el uso de metodologías que incluyan no solamente componentes heterocedásticos, como los son Garch, sino modelos de dependencia continua como cópulas o vinecópulas, debido a que estos logran capturar la dependencia no lineal sobre los distintos activos en un portafolio.


2 Los TES son títulos emitidos por la Tesorería General de la Nación creados por la Ley 51/ 1990. Inicialmente se crearon dos tipos de TES: clase A y clase B. Actualmente operan los TES clase B, los cuales MinHacienda acude para corregir desequilibrios a nivel presupuestal y de caja. (BanRepública, 2016)

3 La duración se entiende como la variación en el precio de un título de interés. Matemáticamente, la duración se puede expresar de la siguiente manera:

(1) D: duración Macaulay; cupón de periodo t; i= tasa de rentabilidad o tasa yield; T: número de periodos. La ecuación definida fue expresada por Frederic Macaulay, en 1938, quien explica, la sensibilidad de un bono ante cambio en los precios; sin embargo, la medición de la duración expresa la dimensión en el tiempo de una inversión en una referencia o título; es decir, que este concepto tiene en cuenta el vencimiento de las referencias o títulos definidos en el prospecto de emisión por parte del emisor. (Rodriguez Taborda, 2002).

4Las CDO son herramientas financieras usadas por entidades bancarias, que vuelven a utilizar prestamos individuales para la venta a inversores en el mercado secundario; estos cuentan con paquetes de bienes en los que se encuentran deudas por tarjetas de crédito, auto préstamos, hipotecas y deuda corporativa. Las entidades con CDO venden los derechos (tramos) a los flujos de efectivo del inventario con un riesgo asociado.

5 Para la realización de la estimación se tomaron los precios diarios de cierre del mercado de renta fija negociado en la Bolsa de Valores de Colombia.


REFERENCIAS

Banco de la Repúbica. (2016). Boletín Mercado de Deuda Pública. Bogotá,

Beran, J. (1994). Statistics for long-memory processes. Chapman & Hall . New York

Bloomberg. (2016). Portfolio: Value-at-Risk Portfolio & risk analytics research

Bollerslev, T. (1986). Generalized autoregressive conditional heteroskedasticity". Journal of Econometrics, 31, 307-327.

Bolsa de Valores de Colombia. (2015). Guía del Mercado de Valores. Bogotá.

Box, Jenkins, Reinsel & Ljung (2015). Time Series Analysis: Fore-casting and control. John Wiley and Sons. ISBN: 978-1-118-67502-1, 5th edición.

Brockwell, P.J. & Davis, R.A. (2006). Time Series: Theory and Methods Springer Science + Business Media.

Castaño, E. & Gómez, K. & Gallón. (2008). Una nueva prueba para el parámetro de diferenciación fraccional. Revista Colombiana de Estadística, Volumen 31, junio 2008. pp 67-84.

De Raaji, & Burkhard (2005). "A Comparison of Value at Risk Approaches and Their Impli-cations for Regulators1" Financial Market Analysis Division of the Oesterreichische Nationalbank, p. 1-15. Edic. Focus on Austria 4/1998 .

Dickckey, D.A. & Füller, W.A. (1979). Distribution of the estimators for autoregressive time series with a unit root, Journal of the American Statistical Association, Vol 74 No 366. Edic. Taylor & Francis Ltd. Disponible en : https://www.jstor.org/stable/2286348. pp 427-431.

Embrechts & Hoing, (2006). Extreme VaR scenarios in higher dimensions. Disponible en: https://people.math.ethz.ch/~embrecht/ftp/hex.pdf

Embrechts, P. (2016). VaR-based Risk Management: Sense and Non-Sensibility. Zurich: RiskLab Department of Mathematics ETH.

Engle, R.F. (1987). Autoregresive conditional heteroskedasticity with estimates of the vari-ance of the U.K. inflation". Econométrica, 50. pp 987-1008.

Finger, C. (2006). How historical simulaion made me lazy RiskMetricks Group. New York

Holton, G. (2015). Value-at-risk.Theory andpractice. Disponible en: https://www.value-at-risknet/.Segunda edición

Joion, P. (2001). Value at Risk (3rd Ed). In The New Benchmark for Managing Financial Risk. Tercera edición. 2007

Lemus, D.F. & Castaño. (2013). E, Prueba de hipótesis sobre la existencia de una raíz fricional en una serie de tiempo no estacionaria. Lecturas de Economía , No 78. Medellín .enero-

junio 2013. pp 1-34.

Li, Fan, Li, Zhou, Jin & Liu. Aproaches to VaR. Stanford University. Disponible en: https://web.stanford.edu/class/msande444/2012/MS&E444_2012_Group2a.pdf

Marquardt, D. (1963). An algotitm for least squares estimation of non-linear parameters. Journal of the Society for industrial and applied mathematics Vol 11, No 2. pp 431-441.

McLeod, A.I. & LI, W.K. (1983). Diagnostic checking ARIMA time series models using squared-residual autocorrelations. Journal of Time Seies Analysis. Vol 4, No 4. pp 269-273,

Menichini, A. (2006). Value at risk: metodologia de administración del riesgo financiero. Rosario: Bolsa de Comercio de Rosario ARG.

Minhacienda. (2016). Perfil deuda GNC. Bogotá.

Moscote, O. (2013). Elementos de Estadística en riesgo financiero.

Phillips, P.C.B. & Perron, P. (1998). Testing for a unit root in time series regression. Biometri-ka, Vol 75, No 2. Disponible en: http://www.jstor.org/stable/2336182. pp 335-346.

Powell, C. (2014). Value-at-Risk (VaR) in Excel, Australasian Accounting. Business and Finance Journal.

Rodriguez Taborda, E. (2002). Administración del Riesgo, Alfa Omega.

Timotheos, A., Alexandros, B., & Stavros, D. (2003). The Use of Garch Models in VaR Estimation, disponible en: https://mpra.ub.uni-muenchen.de/96332/. pp. 1-36.