Estimación estadística de la precipitación máxima probable ...
INNOVACIÓN FINANCIERA, CRISIS Y LA GESTIÓN ... - pe.uma.es · lo que es probable, ... variable...
-
Upload
nguyenliem -
Category
Documents
-
view
215 -
download
0
Transcript of INNOVACIÓN FINANCIERA, CRISIS Y LA GESTIÓN ... - pe.uma.es · lo que es probable, ... variable...
INNOVACIÓN FINANCIERA, CRISIS Y LA GESTIÓN ESTRATÉGICA DEL RIESGO
GUMERSINDO RUIZ, Catedrático de Política Económica Universidad de Málaga MARTA RUIZ CASTAÑER, Master Accounting&Finance, London School of Economics Comentarios y discusión: [email protected]
2
“La idea revolucionaria que define las fronteras entre los tiempos
modernos y el pasado es el control del riesgo: la noción de que el futuro
es más que un capricho de los dioses y que hombres y mujeres no
permanecen pasivos ante la naturaleza. Hasta que los seres humanos
descubrieron un camino a través de esa frontera, el futuro era un espejo
del pasado, el dominio oscuro de los oráculos y los adivinos que tenían el
monopolio sobre cómo anticipar los acontecimientos” P.L. Bernstein (1996), pág,1
3
INDICE 1.- Una introducción al riesgo y la incertidumbre
1.1. Un historia reciente
1.2. Los mercados eficientes
1.3. El control del riesgo
2.- Del “Valor en riesgo” (VaR) al método “Dinámica de Riesgo en el Futuro” (RDF)
2.1. Riskmetrics, VaR, y “stress testing”
2.2. Características de la metodología RDF
2.3. Utilidades de la metodología y funcionamiento del modelo
Anexo: El “test de stress” de la Reserva Federal
3.- Gestión integral del riesgo
3.1. La gestión integral del riesgo
3.2. ¿Qué ha fallado?
Bibliografía
4
1. Una introducción al riesgo y la incertidumbre
1.1.
Una historia reciente
• En su libro ”Against The Gods: The remarkable story of risk” (1996), Peter L.
Bernstein, recientemente fallecido, realiza un recorrido histórico, mostrando la
evolución del concepto de riesgo, desde el desarrollo de las leyes de
probabilidad y la pretensión de disponer de reglas estadísticas que permitieran
tomar decisiones, hasta la distinción, ya en el siglo XX, entre riesgo e
incertidumbre, siendo el primer concepto medible y valorable, y el segundo no.
• En Economía, el concepto de gestión del riesgo como una técnica de alcance
práctico, además de la utilización de métodos estadísticos bajo supuestos
teóricos, es de Kenneth Arrow, quién fue consciente de la imposibilidad de
prever el futuro y las contingencias que depara, y desarrolló por ello una
completa teoría de la diversificación y el seguro que, junto con otras
aportaciones, le valieron el Premio Nobel. La importancia del pensamiento de
Kenneth Arrow está en que es amplio y considera la diferencia entre lo que es
cuantificable y lo que no, por eso lo ponemos como referencia de la gestión
global del riesgo, como teoría y como aplicación práctica para asegurar,
diversificar y controlar.
• La elección bajo condiciones de incertidumbre no consiste en aceptar una
hipótesis o rechazarla después de haberla sometido a contrastación empírica,
pues la decisión no se basa en la certeza que supondría la prueba positiva de
la contrastación. En el caso de las pruebas de estrés veremos cómo el
condicionamiento de los escenarios propuestos, junto con las proyecciones de
las variables económicas según comportamientos pasados, y los de la propia
entidad financiera o carteras analizadas, van a proporcionar una información
valiosa para tomar decisiones. Descartaremos determinados resultados,
actuaciones, y decidiremos a favor de otras, pero de ninguna manera se
realizarán afirmaciones, ni siquiera probabilísticas, basadas únicamente en
datos históricos, sobre cuál será la situación en el futuro.
5
• Una forma de trabajar con el riesgo es suponer que hay un equilibrio intrínseco
en el sistema económico, de forma que el tiempo es la variable fundamental a
considerar, para que los riesgos medidos por probabilidades, se compensen.
Pero si la incertidumbre implica que los datos pasados no nos proporcionan
información suficiente para predecir, hay que pensar en otros enfoques. Por
ello, en su análisis de la incertidumbre John Maynard Keynes introduce
variables de control, políticas para modelar el futuro, evitar riesgos, y conseguir
objetivos.
• La actividad económica y las decisiones empresariales y financieras se dirigen,
por definición, al futuro, y como el entorno económico cambia continuamente,
todos los datos de partida son específicos para el periodo de tiempo en que se
obtienen, y ofrecen una base frágil para generalizaciones. El tiempo real es
más importante que el concepto de tiempo en abstracto (el tiempo en que las
probabilidades revierten a la media). Así pues, la incertidumbre no se refiere a
lo que es probable, sino a lo no conocido, no es el juego de azar, al fin y al
cabo previsible, cuyos resultados están sujetos a probabilidades, sino lo que,
simple y llanamente, no es calculable y no conocemos. Una predicción
meteorológica para una época y una zona de clima inestable no es válida más
que para el primero o segundo día de nuestro viaje; para el resto del mismo no
nos valen las medias ni las probabilidades, y hay que ir provisto de la ropa
adecuada para cualquier eventualidad. Esto nos mueve a plantearnos cómo
actuar ante un escenario posible y, lo que es aún más importante, dar forma al
futuro mediante nuestras actuaciones.
• El paso siguiente en esta historia es entender que el futuro (incierto) depende
de nuestro comportamiento y el de los demás. Surge así la teoría de los
juegos, que plantea que la fuente de incertidumbre está en las intenciones de
los otros. Aquí aparecen las estrategias, los contratos, los compromisos y
negociaciones, y comportamientos en direcciones que individualmente son
correctas, pero colectivamente pueden llevar a la catástrofe. La diversificación
es una estrategia propia de la teoría de juegos, para maximizar las
probabilidades de sobrevivir ante fallos en los cálculos del riesgo.
• La fe en la medición crece con el desarrollo de técnicas cuantitativas: la teoría
de la probabilidad, técnicas de muestreo, la curva en forma de campana y la
dispersión en torno a la media, la regresión con observaciones hasta sacar una
6
media, y la teoría de la utilidad sobre la que se basan las decisiones y la
elección entre rentabilidad y riesgo. La consideración del riesgo como una
variable medible y gestionable no tiene más de cincuenta años; lo más
significativo es que el concepto de volatilidad o variación respecto a una media
se considera una aproximación al riesgo, y en torno a él se construyen los
modelos para evaluar y gestionar el riesgo.
1.2.
Los mercados eficientes
• En nuestro libro, G. Ruiz, J.L. Jiménez, J.J. Torres (2000): “ La gestión del
riesgo financiero”, al definir el riesgo se contemplan los riesgos del mercado, de
crédito, operacional y tecnológico, de liquidez y legal. Esta clasificación ha sido
habitual, y supuestamente deberían comprobarse estos factores ante cualquier
decisión de inversión; sin embargo, o bien no se consideran riesgos probables
como ha ocurrido con la liquidez, o se descansa en una calificación crediticia
para descartar el riesgo de crédito y contraparte, o se recurre a métodos
probabilísticos para medir el riesgo de mercado. De esta forma se crea una
falsa certeza sobre la que se toman decisiones.
• Desde el punto de vista del inversor individual, nos atenemos principalmente a
la utilidad esperada y a propiciar una elección adecuada entre riesgo aceptable
y rentabilidad esperada. Este mismo principio nos sirve de guía para identificar
factores de riesgo en el mercado de renta fija, buscando una relación adecuada
entre precio, interés, flujos y vencimiento; en el de renta variable, enfocado
hacia la volatilidad; y en productos derivados, sobre volatilidad del subyacente,
arbitraje, y adecuación del producto y su valoración al del subyacente a lo largo
de su vida.
• Después de identificar factores de riesgo se intenta medirlos: el riesgo general
del mercado gira en torno al concepto de volatilidad y la distribución de la
misma en el tiempo, así como la capacidad para disponer de la información
más cercana al mercado mediante métodos que incorporan la última
información disponible.
• Un paso más allá de la medición es la gestión del riesgo mediante la selección
de carteras que recojan de la mejor manera posible combinaciones óptimas
entre riesgo (volatilidad) y rendimiento. Un repaso a los epígrafes nos recuerda
7
que tanto la liquidez como el endeudamiento son dos factores clave en la
construcción de carteras óptimas.
• Por último, valoramos a los gestores midiendo su gestión del riesgo, y si han
conseguido sus resultados con mayor o menor riesgo o volatilidad en sus
carteras, de manera estable o con apuestas arriesgadas.
• Tratándose de un libro elemental, que recoge el estado de la cuestión y
proporciona algunos ejercicios y ejemplos cercanos, refleja lo que es la visión
convencional sobre el riesgo financiero, aunque enfocado desde la perspectiva
del inversor más que de una entidad que tiene en cuenta otras consideraciones
como los requisitos de capital o ganar cuota de mercado. Esta visión o enfoque
es útil para ordenar ideas y organizar la toma de decisiones, pero nunca se ha
debido tomar como única referencia para identificar, medir y gestionar el riesgo.
Desde un punto de vista práctico, Mohamed A. El-Erian (2008), utiliza el
término “colisión entre mercados” como título de su libro, para referirse a la
confusión que resulta de seguir los principios de los mercados eficientes para
la gestión del riesgo en la práctica. Como uno de los más reconocidos gestores
privados del mundo, con experiencia en organismos internacionales y
formación académica, es capaz de valorar y ponderar el papel y utilidad de la
teoría, con elementos de gestión del riesgo estratégico aplicados a la gestión
de carteras.
1.3.
El control del riesgo
• El siguiente paso es ver cómo, en la práctica, los agentes económicos
gestionan efectivamente el riesgo en condiciones de incertidumbre, pues las
emociones frecuentemente destruyen el autocontrol y la disciplina esencial
para una toma de decisiones racional, con los conocimientos y herramientas de
que se dispone. Además, los agentes no tienen una información completa ni
comprenden plenamente aquello sobre lo que toma decisiones; simplifican en
exceso mediante modelos que son sólo representaciones de la realidad y que
pueden dar respuestas inadecuadas cuando las relaciones sobre las que han
sido construidos, no se mantienen. Por ejemplo, las correlaciones entre
variables cuidadosamente estudiadas y analizadas a lo largo del tiempo,
pueden cambiar completamente de signo en momentos de estrés, y el efecto
de variables que antes no tenían correlación y ahora sí puede ser devastador
8
para una cartera que trata de evitar el riesgo mediante la diversificación. La
misma interpretación de muestras pequeñas y el carácter de representatividad
que se les da, lleva a trabajar bajo premisas falsas. Se trata, pues, de ver cómo
funcionan los mercados más allá de hipótesis de eficiencia, y qué implicación
tiene esto para el riesgo. George A. Akerlof y Robert J. Shiller (2009),
recuperan la tradición de analizar factores de riesgo derivados del
comportamiento humano en un libro reciente lleno de sugerencias, aunque algo
irregular en cuanto a la solidez de las argumentaciones.
• Banker Trust llevó a cabo un análisis del riesgo, aplicado al negocio, entre
mediados de 1980 y 1995. En los primeros años de los 90 desarrolló una
intensa publicidad sobre los factores de riesgo que permanecían ocultos, que
reflejaba la filosofía de su presidente Charles Sanford, sobre cómo una
situación de éxito aparente, o de inercia en el negocio, podía esconder riesgos
a futuro. Pese a esta cultura de riesgo, el banco tuvo problemas relacionados
con demandas legales y fue absorbido por Deutsche Bank. Formas de riesgo
más inconcretas como engaño, fraude, manipulación de los mercados y, en
general, comportamientos deshonestos, no figuraban en los sistemas que
protegían a las entidades financieras, enfocados hacia los aspectos más
técnicos de funcionamiento de las mismas.
• De hecho, Sanford intentó cuantificar el riesgo en relación a los beneficios
sobre el capital que resultaban de tomar ese riesgo. Esto se llamó Raroc (“risk-
adjusted return on capital”). Por ejemplo, la venta de opciones sobre acciones
podría dar elevados beneficios por primas, pero el riesgo de pérdidas fuertes
repentinas es alto; por tanto, el capital necesario para cubrirse de este tipo de
pérdida debería ser mayor en esta actividad que en otra como la simple
intermediación en que la entidad no mantenía riesgo; ambas son actividades
bancarias, pero habría que valorarlas en función del capital teórico que cada
una requiere y ponderar así la rentabilidad. Este criterio se quiso extender a
todas las actividades del banco, así como a las remuneraciones de los
empleados (teniendo en cuenta “el capital que usaban”). Esto ha llegado a ser
con el tiempo una práctica común, un criterio para disponer de un elemento
integrador del riesgo en la organización.
Al hacerse más compleja la actividad bancaria, en Banker Trust empezaron a
crear una base de datos operacionales que incluía: errores burocráticos, fallos
9
informáticos, pérdidas de documentos, etc... Pero los riesgos más fáciles de
cuantificar y seguir son los que ocurren con más frecuencia, y es difícil
extender el ámbito de riesgos para una gestión global, pensando en eventos
que rara vez suceden.
• Otra entidad que fue pionera en la gestión global del riesgo fue J.P. Morgan.
Dennis Weatherstone, su presidente hasta diciembre de 1994, hizo famoso el
informe que recibía diariamente sobre la exposición global al riesgo del banco.
La base de datos Riskmetrics, respondía al concepto de valor en riesgo (VaR),
una matriz de correlaciones de volatilidades que mostraban la máxima pérdida
que se podía esperar (dadas las correlaciones y los históricos de volatilidad)
para un periodo dado dentro de un intervalo de confianza.
• A estos intentos de gestión global del riesgo se añade en 1997 el “Manual de
Principios de Riesgo Generalmente Aceptados” (GARP), de Coopers &
Lybrand, (que luego se unieron a Pricewaterhouse), tratando de cubrir
cualquier eventualidad posible, definiendo responsabilidades y estableciendo
un departamento independiente para la gestión y el control del riesgo, que no
era sólo un departamento de revisión de procedimientos sino también
encargado de establecer límites para cada línea de negocio de la empresa.
• En 1998 Goldman Sachs y Swis Bank Corporation colaboran en el libro: “La
práctica de la gestión del riesgo”, donde aparece el “stress-testing” para
calcular el efecto de casos extremos. La capacidad de los ordenadores y el
“software” facilitaron las simulaciones de escenarios con combinaciones de
variables. Todo esto no impide la crisis de agosto de 1998 del fondo “Long
Term Capital Management”, y que se produjeran fenómenos relacionados con
cambios en las correlaciones, que podían ser previsibles a partir de las
reflexiones y métodos de que se disponía.
10
2. Del “ Valor en riesgo” (VaR) al método “Dinámica de Riesgo en el futuro” (RDF)
2.1.
Riskmetrics, VaR y “stress testing”
Riskmetrics y el concepto de VaR se explican en G. Ruiz et. alia (2000), págs.
112/119. En el capítulo 4.2 se recoge la metodología de la distribución normal; la
agregación de activos de cupón cero de renta fija; la variación del precio de una acción
ante variaciones de un índice de mercado como forma de aproximarnos al riesgo; los
futuros, operaciones y divisas en Rismetrics y VaR; y el método de Montecarlo como
Pese a las críticas sobre la utilización de cálculos de probabilidades, proponemos este ejemplo de utilización de las probabilidades, para seguir una política prudente de gestión del riesgo, que puede llamarse: “riesgo en la hoja de balance”. A Entidad Financiera P
Desviación estándar Desviación estándar de futuros de futuros a corto plazo, a corto plazo, que son pasivos que están en el activo
“Equity” Si la desviación estándar de los activos que se recoge en A es mucho mayor que el valor esperado de los pasivos en P, hay un riesgo de potencial “mismatch” entre activos y pasivos, que puede ser un problema si los mercados de crédito no funcionan adecuadamente. De la misma manera que la suma de activos debe ser igual a los pasivos más el “equity”, la desviación estándar de los activos debe igualar a la desviación estándar de los pasivos más el capital. Los valores contables se consideran como variables aleatorias, y este criterio puede utilizarse para cuantificar el impacto de restricciones de crédito, huida hacía títulos de calidad e iliquidez de otros, y en general aumentos en la volatilidad. En cualquier caso, esto no deja de ser una visión limitada de la gestión del riesgo.
11
una forma de efectuar simulaciones de escenarios, en base a la información pasada,
existente.
Cuando la empresa AIS (Aplicaciones de Inteligencia Artificial) plantea la metodología
RDF (“Risk Dynamics into the Future”), quiere profundizar en los “test de stress”,
creando situaciones de entorno, posibles, y viendo cómo pueden afectar a variables
concretas de nuestras entidades.
El VaR es un método válido dentro del ámbito para el que se creó; pero falla en cuanto
a cálculo, pues funciona para mercados amplios y líquidos, y no en escenarios donde
se alteran sustancialmente los históricos y cambian el sentido de las correlaciones. Es
una buena indicación del alcance máximo probable de una pérdida que podamos
sufrir, y nos sirve preventivamente para diversificar e intentar reducir la volatilidad de
una cartera o una posición; pero no es una herramienta para tomar decisiones cuando
el evento se produce y, por ejemplo, las condiciones para liquidar activos de la cartera
no se dan. Tampoco sabemos qué ocurre cuando el escenario que resulta de un VaR
se repite, esto es, se dan pérdidas sucesivas (ajustadas al VaR).
2.2.
Características de la metodología RDF
La metodología RDF es compleja, pero en síntesis consiste en unir la intuición que
podemos tener sobre un escenario determinado, y sus interrelaciones con variables
que afectan directamente a nuestra entidad. También sirve para simular el impacto de
decisiones que podamos adoptar, suponiendo y definiendo un entorno determinado.
Asimismo, nos enfrenta a la posible incoherencia de nuestros supuestos.
Otras características son: tiene en cuenta los efectos indirectos de las variables en
juego, por lo que no opera con hipótesis “ceteris paribus”. Es una herramienta para
seguir el riesgo de crédito, pero también para marketing, incentivos al personal, cierre
o apertura de oficinas, y negocio. A partir del impacto del escenario sobre nuestras
variables se determinan requisitos de capital, y de liquidez, por ejemplo.
Concretamente, podemos calcular las necesidades de capital calculando la
distribución de pérdidas de la cartera en situaciones determinadas. Por otro lado, se
trabaja con funciones de demanda y de coste, introduciendo el riesgo de impago. Así,
en la situación actual deberíamos poder valorar, ante un determinado escenario
económico, cómo van afectar a la cuenta de resultados y a la capitalización, una
12
atención preferente y asignación de recursos a reducir el impacto de la morosidad, o al
mantenimiento del negocio; y qué combinación es óptima.
Tiene una función de cumplimiento regulatorio con respecto a Basilea, cumplimiento
de las exigencias de España, y para el control global del riesgo de la entidad.
En resumen, el método ha sido diseñado:
• Para identificar escenarios de las peores situaciones, pero razonables o
posibles, utilizando lenguaje económico: tipos de interés, desempleo, etc.
• Para analizar el impacto en una cartera de crédito específica, una entidad
financiera, o un agregado en el sector financiero.
• Para cuantificar el impacto utilizando medidas de riesgo: pérdidas esperadas,
inesperadas, VaR, ShortFall.
• Para integrar conjuntos de “unidades de riesgo” teniendo en cuenta
correlaciones realistas entre las mismas.
• Para acelerar en lo posible respuestas a las simulaciones.
• Para aprovechar procedimientos sofisticados, pero permitiendo que el usuario
lo utilice fácilmente.
El RDF (“stress testing”) es un método para la evaluación de las consecuencias que puede sufrir una entidad financiera en caso de que se produzcan ciertas escenas económicas adversas. Actualmente desarrollado para riesgo de crédito, puede extenderse a la totalidad del negocio, calcularse sobre un agregado (grupo, sector o subsector financiero, banca de desarrollo) o integrarse con otros riesgos, incluso en entidades no financieras. En esencia, el método utiliza un modelo económico multiecuacional y modelos microeconómicos con covariantes macroeconómicas de los componentes del riesgo (probabilidad de incumplimiento, pérdidas en caso de incumplimiento...) que se proyectan condicionados a escenarios macroeconómicos para integrarse en una función de probabilidad de pérdidas totales de la entidad; sobre esta distribución se calcula el valor en riesgo, el capital económico necesario y otras medidas de riesgo. Principales innovaciones del método: Los factores de riesgo son las variables macro y sectoriales. La conversión del modelo macroeconómico en una función de distribución de probabilidades multivariante (FDP-M). La definición de escena económica como generadora de otra FDP-M marginal, de menor dimensión. La utilización de covariantes macroeconómicas en los modelos micro. La integración numérica (no Montecarlo) entre los modelos de carteras y el modelo macroeconómico.
13
2.3.
Utilidades de la metodología y funcionamiento del modelo
Un ejemplo de utilización
Información
Resultado
Panel de predicciones
sobre una variable
macro: variación de la
formación de capital fijo.
Diferentes predicciones por
Servicios de Estudios que
van de 0,3 a –2,0 en 2008;
y de –1,2 a –6,6 en 2009.
Distribución del tipo de morosidad del sistema
financiero español vinculado a esa variable,
distribuido así, en un cuadro:
Percentil 1% Valor esperado Percentil 99% Para el percentil del 99% los valores extremos
de las predicciones darían una morosidad del
6,47 y 11,61, respectivamente.
14
RDF. Componentes y funciones (resumido)
1. Definición del escenario
2. Modelo macroeconómico VARMA
4. Modelos de carteras hipotecarias y otros tipos de riesgo de liquidez, mercado, negocio, según variables macroeconómicas.
3.Transformación en una predicción
5. Nueva predicción condicionada al escenario
6. Integración de medidas de riesgo
Pasa los parámetros y errores de las partes lineales
Funciones no lineales
15
1. Se dan valores a un conjunto de variables sectoriales macro o micro, en una
fecha específica. RDF reproduce valores para otros periodos y variables
establecidas. Ejemplo: el incremento del PIB en el primer cuatrimestre de 2009
caerá 2 puntos y el tipo de interés en el cuarto cuatrimestre de 2009 estará en
el 1,2%.
2. Relaciona valores pasados y presentes de un vector de variables
macroeconómicas, así como el vector de errores (el componente no explicado
de la variación). VARMA es el modelo “Vector Autoregresive Moving Average”
y sus variables suponen la principal fuente de variabilidad estructural, que
incide en el riesgo. La autoregresión, como sabemos, hace depender el valor
de, p.ej., el PIB o el tipo de interés de comportamientos pasados más el error.
El VARMA es un modelo multiecuación y multivariable, y puede rescribirse
como una función de medias móviles.
3. Se genera una predicción de todas las variables y periodos que se consideran,
a partir de los modelos VARMA.
4. La segmentación de carteras se hace utilizando criterios estadísticos y del
propio negocio, por ejemplo sensibilidad de carteras propias al desempleo. Se
estiman para cada cartera. Los errores residuales, que introducen aleatoriedad,
son las variables de riesgo que se incorporan a la predicción 3.
5. Esta distribución condicionada conjunta contiene la probabilidad de todos los
posibles sucesos dado un escenario. Observar que no hay un supuesto de
“ceteris paribus”. Las funciones condicionadas de pérdidas relacionan las
macrovariables con las pérdidas en cada cartera (p.ej. de hipotecas, tarjetas de
crédito).
6. Aquí se dan probabilidades de pérdidas asociadas a todos los casos y para
niveles de pérdidas. La simulación se hace por una solución analítica de RDF
utilizando técnicas Montecarlo, ya que cuanto más rápida sea la respuesta,
más útil es el sistema. Se generaliza hacia el riesgo de negocio: estimación de
demanda de crédito, oferta de depósitos, función de costes, modelo contable, y
proporciona información y contrasta el escenario definido.
16
Anexo:
El “test de stress” de la Reserva Federal
La Reserva Federal norteamericana publicó en mayo de este año los resultados del
llamado: “Supervisory Capital Assessment Program” (SCAP) que es un “test de estrés”
en el que se estiman los requisitos de capital que deben tener las 19 entidades
financieras mayores del país en un escenario que se intuye especialmente difícil, para
poder continuar con su actividad crediticia, protegiendo a los ahorradores que
mantienen depósitos en ellas, pese a las dotaciones por morosidad, depreciación de
activos y disminución de la actividad económica general.
Para interpretar el SCAP hay que tener en cuenta:
• Las estimaciones pueden no ser un consenso, pues se basan en supuestos de
las propias entidades y supuestos externos, que no son homogéneos, así como
juicios de valor de difícil coincidencia.
• Las estimaciones no son predicciones o resultados esperados, pues dependen
de escenarios que pueden darse o no, así como del tiempo y la forma en que
se produzcan.
• La misma incertidumbre a que están sujetas las entidades financieras, opera
en su contra. Estas pruebas de resistencia pueden trabajar a favor de las
entidades facilitándoles la captación de capital.
• Es importante considerar no sólo la cantidad sino la composición del capital.
Las acciones representan el primer elemento de capital que sirve para
absorber pérdidas y ofrecen protección a otras partes de riesgo en la estructura
del balance. Por eso el “test” se apoya en el mantenimiento de un 4% de
capital en forma de acciones y de un 6%, para el resto, para finales de 2010.
• Esto no es una nueva definición de capital ni algo a mantener indefinidamente,
sino un capital que debe estar disponible para absorber las pérdidas del
escenario muy adverso que se plantea.
17
Para los 19 bancos se estiman en el escenario más adverso unas dotaciones totales
entre finales de 2008 y de 2010 de 952 mil millones de dólares. A finales de 2008
tenían un capital de 835 mil millones, a los que habría que añadir los ingresos
recurrentes de esos dos años, y restar de las dotaciones las captaciones de capital y
ventas de activos realizadas en los primeros meses de 2009, lo que sitúa la cifra total
de capital necesario en 75 mil millones. La hipótesis es que los bancos continúan
realizando beneficios en su actividad ordinaria y que las dotaciones cesan a finales de
2010.
Los grupos de pérdidas son: préstamos, títulos, y posiciones de negociación. Los
ingresos de actividad están condicionados por la evolución de los escenarios
macroeconómicos de actividad económica. Las dotaciones son sobre pérdidas de
“cash flow” o flujos de pagos en la amortización de los préstamos, pero no se plantea
efectuar valoraciones de las carteras respecto a mercado.
En general, los supuestos se establecen por históricos y experiencia de las entidades
en cuanto a morosidad, combinadas con modelos cuantitativos que recogen el
escenario macroeconómico. Las características de las carteras concretas son
importantes para hacer un diseño a medida para cada entidad financiera; de esta
forma, se tienen en cuenta comportamientos pasados, año de originación,
características de los prestatarios, y distribución geográfica.
Las hipotecas y los préstamos al consumo (todos), son el 70% de las pérdidas
proyectadas, lo que indica hasta qué punto la situación depende de cómo evolucione
la economía real, más que de operaciones propias de la actividad de los bancos de
inversión que no se relacionan tan directamente con la evolución de la economía. De
hecho, una gran parte (más del 50%) de los títulos en poder de las entidades son
títulos de deuda soberana, del Tesoro, o deuda municipal de alta calificación.
Como ejemplos, American Express, tiene en el escenario más adverso pérdidas
asignadas de 11,2 miles de millones de dólares, de los cuales 8,5 en tarjetas de
crédito; y no necesita capitalización adicional a la actual para hacerles frente. Bank of
America, tiene unas pérdidas asignadas de 136,6 mil millones, que se reparten entre
tarjetas de crédito, hipotecas de mayor y menor riesgo, préstamos para locales
comerciales, préstamos al comercio y a la industria, títulos, “trading” y contraparte, y
préstamos al consumo. Esto es, tiene una exposición al riesgo diversificada, pero en
18
general muy dependiente de la actividad económica real. Igual le ocurre al Citigroup.
Bank of America necesitaba 46,5 mil millones de dólares de capital adicional para
hacer frente a esas pérdidas, que tras las últimas captaciones de capital, se quedan en
33,9 mil millones. Sin embargo, Goldman Sach tiene unas pérdidas asignadas de 17,8
mil millones de dólares, que corresponden sólo a “trading” y contraparte. Esta entidad
sería muy sensible a la evolución del mercado de banca de inversión, que parecía iba
a reducirse sustancialmente; sin embargo, las operaciones de renta fija han vuelto a
poner en beneficios a estos bancos.
3. Gestión integral del riesgo
3.1.
La gestión integral del riesgo
En el capítulo 5 del libro de G. Ruiz (2009) se recoge el Informe Corrigan-Flint, que en
su sección IV trata la gestión y el seguimiento del riesgo. Y el Informe del Instituto
Internacional de Finanzas, cuyo primer grupo de recomendaciones se dedica a la
gestión del riesgo. Prácticamente todos los organismos e instituciones han opinado
sobre la gestión del riesgo. Entre las manifestaciones más recientes está la del Comité
de Basilea 82009), que sigue las iniciativas del Financial Stability Forum y las del
Grupo de los 20. La estructura que diseña el Comité tiene cuatro componentes: capital
regulatorio más fuerte; estándares de liquidez más robustos; más transparencia; y
mejoras en la gestión del riesgo y en el buen gobierno de las entidades (junto con
mejoras en la supervisión). Las mejoras en la gestión y el buen gobierno surgen de los
fallos en las prácticas de gestión del riesgo que se han puesto de manifiesto en la
crisis, que en muchos casos son el resultado de fallos en cómo se estructuran y
componen los órganos de gobierno de las propias entidades. Se recomienda una
gestión del riesgo considerándolo de forma más amplía; incluyendo cualquier
operación fuera de balance y gestionando más efectivamente las concentraciones de
riesgo; proporcionando incentivos para una mejor gestión en relación con la obtención
de beneficios a largo plazo; y considerando que las prácticas de compensación de la
gestión exigen una reflexión profunda en relación al riesgo.
19
Nos detendremos en el Informe Turner, por ser el documento más reciente y más
elaborado sobre la crisis y donde se encuentran referencias detalladas sobre la
gestión del riesgo.
En marzo de este año, la Financial Services Authority (FSA) inglesa publicó el Informe:
“The Turner Review. A regulatory response to the global banking crisis”, trabajo
realizado bajo la dirección de Lord Turner por encargo del Ministro de Hacienda, para
revisar las causas de la crisis actual y proponer recomendaciones sobre los cambios
en la regulación y supervisión necesarios para crear un sistema bancario más fuerte,
así como en otros servicios financieros. En las págs. 92/93 del Informe se presentan
criterios para la gestión del riesgo global dentro de una entidad financiera; sin
embargo, conviene revisar las principales recomendaciones, pues sitúan el marco en
el que se va a situar dicho riesgo global.
Las recomendaciones del Informe son:
- Aumentar la cantidad y calidad del capital, particularmente en relación a
operaciones de negociación.
- Un régimen contracíclico de adecuación de capital. No se trata sólo de
acumular reservas en épocas de bonanza teniendo en cuenta situaciones
pasadas de morosidad, sino de un sistema que aumente las exigencias de
capital cuando se revalorizan los activos y las disminuya cuando se
deprecien, evitando así los efectos procíclicos de las valoraciones de
activos en el balance (esto se explica en el Cap. 3 de nuestro libro: “Un
mundo en crisis”, donde hay una referencia a este sistema del que ya se
venía hablando hace tiempo).
- Un “ratio” máximo de apalancamiento, cualquiera que sea la situación
económica, para evitar un crecimiento excesivo del crédito.
- Dedicar especial atención a la regulación y supervisión de la liquidez. El
dilema de la creación de liquidez es que cuanto mayor sea el grado de
transformación de posiciones líquidas a corto en inversiones que maduran a
largo (lo que sin duda es beneficioso para el sector no financiero), mayor es
el riesgo sistémico del sector financiero.
20
- Aumentar la supervisión de las agencias de “rating” y trabajar sobre sus
criterios de valoración.
- Códigos que regulen las remuneraciones en entidades que sean
significativas. Se trata de ver cómo los sistemas de incentivos pueden
producir resultados no deseables, a largo plazo.
- Centralizar la negociación de la mayor parte de las transacciones de “credit
defaults swaps”.
- Realizar análisis macroeconómicos con posibles escenarios negativos,
integrados con sus efectos sobre las entidades financieras.
- Un cambio en la regulación y supervisión para considerar también aspectos
del enfoque de negocio, estrategias, y riesgos que se toman. Los modelos
del punto anterior permiten plantear escenarios para valorar los efectos de
una estrategia de negocio.
- Por último, considera la necesidad de una mayor coordinación internacional
en la supervisión y un regulador europeo independiente.
Es interesante valorar que el Informe no se opone a la complejidad financiera, pues
entiende que son necesarias grandes y complejas instituciones financieras que
proporcionen productos para la gestión del riesgo financiero. De hecho, para
proporcionar liquidez y solucionar algunos de los problemas actuales, se recurre a los
mismos instrumentos que, por una mala utilización, estuvieron en el origen de la crisis.
En esta línea, el reciente libro de Robert J. Shiller: “The subprime solution” (2008),
propone para evitar situaciones como la actual, formas de aseguramiento, ajustes en
el pago de hipotecas, y otros mecanismos de indiciación, que eviten tendencias que
den lugar a burbujas. Sugiere también que un buen sistema de derivados podría
compensar variaciones no deseables al alza y a la baja en el precio de las viviendas.
Aunque algunas de estas propuestas carecen de un mercado real, y los
aseguramientos, al igual que ocurre con algunas variables económicas como el
empleo, son siempre parciales y temporales, hay una tendencia a buscar la estabilidad
21
futura en la complejidad. Otra alternativa sería la regulación de los productos, por
ejemplo la regulación de las condiciones de concesión de hipotecas.
En suma, estamos ante un Informe que por la imparcialidad que muestra en el análisis
de los problemas, se considera una referencia para la organización del sistema
financiero. Aunque algunas de las recomendaciones son de alcance regulador más
que de estrategia para una entidad, delimita el marco en el que se va a gestionar el
riesgo estratégico, por eso lo consideramos tan significativo para una gestión integral
del riesgo.
3.2.
¿Qué ha fallado?
Una de las cuestiones más debatidas es cómo se pudo llegar a la situación actual,
cuando había una tradición de identificación de factores de riesgos, medición y gestión
del mismo. En G. Ruiz: “Un mundo en crisis” (2008), págs. 236/265, se recoge la
explicación de un gestor de riesgos de una entidad financiera, que cumplía con los
requisitos que se exigían a una unidad de estas características dentro de un banco; y,
a pesar de todo, el sistema falló.
En síntesis, todos los aspectos del riesgo y, por supuesto, la posible iliquidez de los
mercados, se consideraban. También se veía que la situación tenía las características
de una burbuja por los reducidos “spreads” de la deuda con riesgo, así como en el
mercado inmobiliario; sin embargo, no se sabía cuando podían presentarse tensiones
de liquidez ni con qué alcance. (Ver G.Ruiz, M.Ruiz:”La metamorfosis actual del
sistema financiero”,2007).
Otra fuente de confusión fue el comportamiento de los distintos tramos de riesgo, ya
que los de peor riesgo ganaban en valor y los de mejor calidad perdían. La lógica
aconsejaba vender los de peor calidad y conservar los otros; sin embargo, en el
verano de 2007 la carrera hacia la liquidez precipitó las ventas de papel de máxima
calidad, caídas en sus precios, y fuertes pérdidas. El riesgo de una crisis de confianza
y de iliquidez nunca había estado incorporado al precio y a la calificación crediticia de
sus bonos.
Además, de la misma forma que había un seguimiento razonable de los préstamos y
de los activos de riesgo, acciones, tipos de cambio, y otros derivados, que se valoran
diariamente, se había perdido el seguimiento de las estructuras de difícil valoración.
22
En este caso se descansaba en las valoraciones que las agencias de calificación
daban a los subyacentes o a los tramos del pasivo de las estructuras.
Pero lo más interesante es el comentario sobre el papel que desempeñaba el área de
negocio y el del control del riesgo. Había un sesgo claro hacia el negocio, en un
ambiente de euforia en el que los incentivos no se quedaban solo en el área de
negocio, sino que casi todo el banco acababa participando de los mismos.
Finalmente, el departamento de control del riesgo cumplía con los requisitos
establecidos; pero en la práctica, se consideraba como una inconveniencia necesaria
para cumplir la regulación interna y externa. Cuando se presentaba una operación
desde el negocio, estudiada y preparada con tiempo, el departamento de control del
riesgo tenía poco tiempo para analizarla, y aunque en ocasiones se oponían a
operaciones, tenía más fuerza el trabajo que previamente había realizado el negocio.
Este caso es generalizable y todos tenemos experiencias que lo corroboran.
En la situación actual, en que el riesgo estratégico tiende a considerarse desde una
perspectiva negativa, esto es, tratando de evitar todo lo que puede ser causa o fuente
de riesgo, hay que considerar que del deterioro de la economía real surge el riesgo de
que no seamos capaces de generar valor para las entidades. Es verdad que la
principal fuente de rentabilidad la encontramos en la gestión de la morosidad, por su
incidencia inmediata en la cuenta de resultados, pero la gestión del riesgo estratégico
exige crear conexiones entre las líneas estratégicas que a menudo aparecen de forma
independiente en las entidades. Por eso hay que volver a considerar, una vez más, el
conjunto de los riesgos, y en este caso no sólo el de la morosidad.
También hemos aprendido a no poner tanto énfasis en la probabilidad y en los análisis
históricos, y sí en todo aquello que puede hacernos vulnerables. La dimensión y el
volumen cuentan de forma negativa en relación al riesgo; la concentración en
determinadas actividades, la dependencia de determinadas líneas de negocio y
operaciones, han mostrado cual es el peligro de estas estrategias que son muy
rentables a corto plazo, pero con riesgo a futuro.
Los escenarios de riesgo deben ser considerados, evitando hacer supuestos sobre la
continuidad de la situación actual, basados en un histórico relativamente corto. No
todo puede ser cubierto del riesgo, pues como hemos visto desde el colapso del fondo
“Long Term Capital Management”, cuando todo el mercado se mueve en una misma
23
dirección de manera repentina, podemos encontrarnos con un problema de liquidez
respecto a activos y posiciones que sí eran líquidas, y no encontrar cobertura a precios
razonables para determinadas posiciones. En los escenarios complejos los riesgos
pueden ser confluyentes, en vez de presentarse como hechos aislados.
El riesgo necesita ser analizado y valorado con medios propios y por su incidencia
concreta en nuestra entidad, y no descansar sólo en valoraciones externas como las
agencias de calificación, que pueden no estar considerando aspectos que sí son
relevantes para nosotros.
La actuación sistemática, valorando estrictamente a la baja con el valor de mercado,
puede reflejar pérdidas que luego no lo son, pero evita la concentración. Si las
posiciones se van a deshacer rigurosamente cuando los “stop loss” predeterminados
funcionen, se estarán penalizando los posicionamientos agresivos de los gestores. En
suma, se trata de reducir riesgo en momentos relativamente tempranos, cuando los
instrumentos y posiciones se deterioran., y de penalizar la concentración de riesgos.
La orientación actual de la gestión del riesgo estratégico ha pasado de considerar
eventos de riesgo aislados que puedan producirse, a escenarios que interaccionan con
la evolución tendencial de la economía y las peculiaridades de nuestros propios
negocios.
Es una cuestión recurrente poner énfasis en una cultura compartida del riesgo. Pero
más que una declaración, es importante que esto se cumpla siguiendo procedimientos
y situando a los responsables de la fijación de estándares de riesgos en lugares no
sólo independientes sino preeminentes de la organización. Desde una perspectiva
estratégica, lo más difícil y complejo es equilibrar este planteamiento con la
consideración del riesgo como creación de valor, en vez de considerarlo sólo como
algo a evitar.
24
Bibliografía AIS, Aplicaciones de Inteligencia Artificial, ha desarrollado la metodología RDF: “Risk
into the Future”, de “stress testing”, disponible gratuitamente en internet.
Akerlof, G., y Shiller, R. J.: “Animal Spirits”, Princenton U.P., 2009.
Basel Committe. Intervención de Nout Wellink, Presidente: “Basel Committe initiatives
in response to the financial crisis “, Bruselas, 30 marzo 2009, disponible en internet.
Bernstein, P.L.: “Against the Gods. The Remarkable Story of Risk”, Wiley, 1996.
Board of Governors FRS: “ The Supervisory Capital Assessment Program: Overview of
Results”, mayo 2009, disponible en internet.
El-Erian, M.A.: “When Markets Collide. Investment Strategies for the Age of Global
Economic Change”, McGraw Hill, 2008.
FSA: “The Turner Review. A regulatory response to the global banking crisis”, marzo
2009, disponible en internet.
Ruiz, G.: “Un mundo en crisis. Auge y caída de la liquidez y el crédito”, Cámara de
Comercio de Málaga, 2009.
Ruiz, G. : “El impacto de lo improbable”, Cuadernos de Información Económica, 201,
nov-dic2007.
Ruiz, G. , Ruiz, M.: “La metamorfosis actual del sistema financiero”, Cámara de
Comercio de Málaga, 2007.
Ruiz, G., Jiménez, J. I, Torres J. J: “La gestión del riesgo financiero”, Pirámide, 2000.
Shiller, R.J.: “The Subprime Solution”, Princenton U.P., 2008.
Shirreff, D.:”Dealing with Financial Risk”, The Economist Books, 2004.