..
Suche
Hinweise zum Einsatz der Google Suche
Personensuchezur unisono Personensuche
Veranstaltungssuchezur unisono Veranstaltungssuche
Katalog plus

Von faulen Krediten, Wahrscheinlichkeiten und dem Risiko

 

Banken rund um die Welt sind durch Fehlspekulationen in Bedrängnis geraten. Lassen sich Katastrophen dieser Art in Zukunft verhindern? Mathematische Modelle sollen helfen das Risiko kalkulierbar zu machen. Sie sind so etwas wie die Sicherungsseile der Banken im Klettersteig der Konjunkturzyklen. Wie aber funktionieren diese Modelle? Was ändert sich gegenüber der Vergangenheit?


Investiert ein Anleger in Aktien, Anleihen, Optionen oder sonstige Finanzinstrumente, sind damit unweigerlich Risiken verbunden: Eine Wahrheit die Anlegern – insbesondere US-Amerikanischen – selten so bewusst sein dürfte wie in diesen Tagen. Neben der erhofften kann sich ein Wertpapier auch in die gegensätzliche Richtung bewegen. So kann der Aktienkurs oder der Barwert einer Anleihe sinken, eine Option unausgeübt verfallen.

Banken: Geschäfte mit kalkulierten Risiken

Diesen Risiken sind nicht nur Privatanleger, sondern – wie zu sehen ist – auch Banken und Finanzinstitute ausgesetzt, die ebenfalls in derartige Produkte investieren. Während ein Privatanleger jedoch sein Geld nach eigenem Gutdünken einsetzen darf, unterliegen Banken diversen gesetzlichen Vorgaben. Sie sind verpflichtet, Steuerungssysteme zu entwickeln und einzusetzen, mittels derer sie das Risiko messen und beschränken können. Nun investieren Banken aber nicht nur in Aktien und Anleihen. Vielmehr nutzen sie äußerst komplexe Anlageformen. Entsprechend hoch sind die Anforderungen, die an die Zuverlässigkeit dieser Steuerungssysteme zu stellen sind. Bei ihrer Entwicklung ist die Bank an bestimmte Vorgaben gebunden, die durch Institutionen wie die Bankenaufsicht, Zentralbanken oder dem Baseler Komitee für Bankenaufsicht verabschiedet werden. Die Finanzhäuser müssen die Risiken, die ihren Portfolios anhaften, einschätzen und zu einem bestimmten Prozentsatz mit Eigenkapital unterlegen. Fallen beispielsweise in einem kurzen Zeitintervall mehrere Kredite aus, wie es zu Beginn der Subprime-Krise der Fall war, hat das für eine Bank weitreichende Folgen, sofern die Ausfälle nicht abgesichert sind. Ziel ist die Sicherstellung von Liquidität und die Gewährleistung der Geschäftsfähigkeit der Banken. Wie vor dem Hintergrund der aktuellen Geschehnisse deutlich wird, sind eingegangene Risiken in der Vergangenheit jedoch falsch beurteilt, oder schlimmstenfalls gar nicht erst erkannt worden. Damit das Prinzip des Risikocontrollings greift, ist es unerlässlich, dass die Modelle möglichst gut an die Realität angepasst und permanent weiterentwickelt werden. An Risikomodelle sind demnach zwei zentrale Forderungen zu richten: Einerseits müssen sie die Möglichkeit geben Risiken zu erkennen und die Wahrscheinlichkeit des Eintretens eines negativen Ereignisses zu ermessen, anderseits müssen Risikomodelle Szenarien wie eine Finanzmarktkrise abbilden können.

Verschärfte Auflagen: Die Krise als ‚Eventrisiko‘

Aus diesem Grund sind derzeitig nicht nur neue Regulierungsmaßnahmen der Bundesregierung in der Diskussion, sondern auch die Bankenaufsicht hat jüngst die Auflagen an das Risikomanagement der Banken weiter verschärft: Die Steuerungsinstrumente der Banken sind um das sogenannte ‚Eventrisiko‘ zu erweitern. Es handelt sich um das Risiko, dass sich der Kurs eines Wertpapiers sprunghaft, also plötzlich und in sehr großem Ausmaß verändert, ohne dass der gesamte Markt oder Index, dem dieses Wertpapier angehört, ein ähnliches Verhalten aufweist. Durch das bisher übliche Modell, bei dem der Kurs eines Risikofaktors mittels der sogenannten Brownsche Bewegung simuliert wird, sind diese Anforderungen nicht abgedeckt. Daher werden Banken nun aufgefordert, ein neues Risikomodell aufzusetzen oder ihr altes entsprechend zu erweitern. Besondere Schwierigkeiten bestehen nicht in der Aufstellung des Modells selbst, sondern bei dessen Parametrisierung, also der Kalibrierung des Modells anhand realer Daten. Die Frankfurter DekaBank hat sich mit diesen Fragestellungen an den Fachbereich Mathematik der Uni Siegen gewendet, die diese im darauf spezialisierten Lehrstuhl für Finanz- und Versicherungsmathematik bearbeitet hat. Ein Werkstattbericht:

Das Unwahrscheinliche als Bestandteil der Normalität erfassen

In einem ersten Schritt ging es für die Arbeitsgruppe darum ein geeignetes Modell zu entwickeln. Charakteristisch für die Brownsche Bewegung ist die Tatsache, dass Kursveränderungen ‚normalverteilt‘ sind (siehe hierzu auch die Erläuterungen in der Rubrik). Das heißt kleine Kursschwankungen treten mit der größten Wahrscheinlichkeit auf, sehr große Veränderungen mit sehr geringer Wahrscheinlichkeit. Weiterhin sind die Kurse, die hierdurch modelliert werden, ‚stetig‘. Das bedeutet, dass sehr große Kursänderungen, die innerhalb einer kurzen Zeitspanne auftreten, nicht abbildbar sind. Diese und weitere Implikationen des Normalverteilungsmodells sind mit Blick auf die Realität kritisch zu hinterfragen. In den Kursverläufen der meisten Aktien können Eigenschaften beobachtet werden, die im bisherigen Modell nicht wiedergegeben werden. Sie werden als ‚Stylized Facts‘ bezeichnet. Durch Ergänzung eines ‚Poisson-Prozesses‘ werden einige dieser Stylized Facts in das Modell integriert. Der Poisson-Prozess ist ein Prozess, bei dem der Kurs zu zufälligen Zeitpunkten um einen beliebigen Wert nach oben oder unten springt. Nachdem das Modell steht, kommt nun die eigentliche Schwierigkeit: Die Parameter – Hilfsgrößen deren Werte konstant gehalten werden und die im Modell quasi als Stellschrauben dienen – müssen geschätzt werden. Die Schätzung erfolgt für jede einzelne Aktie auf Basis ihres historischen Kursverlaufes. Diese Schätzung soll automatisch ablaufen; gesucht wird also eine Methodik, die nach Eingabe der Zeitreihen beliebig vieler Aktien Zahlen für deren Modellparameter ausspuckt. Konkret sind das die Parameter des stetigen Teils, der durch die Brownsche Bewegung modelliert wird, sowie die durchschnittliche Anzahl der Sprünge und die Verteilung der Sprunghöhen. Für die Anwendung statistischer Schätzverfahren ist es notwendig, jede einzelne Zeitreihe auf Sprünge in der Vergangenheit zu überprüfen, und Kenntnis über die Zeitpunkte ihres Auftretens zu erlangen. Daraufhin kann man die Zeitreihe in Sprünge und Nicht-Sprünge unterteilen und die Parameterschätzung beider Teile getrennt vornehmen. Mathematisch gesehen ist ein Sprung eine Unstetigkeitsstelle und kann durch einfaches Hinsehen sofort erkannt werden. Eine historische Zeitreihe dagegen ist eine Menge diskreter Daten, da nur endlich viele Punkte gespeichert werden können Dieser Tatbestand birgt die Gefahr von Fehldeutungen in zweierlei Hinsicht: Erstens muss nicht jeder tatsächlich aufgetretene Sprung erkannt werden, weil die diskreten Daten in zu großen Abständen vorliegen. Zweitens kann der Abstand zwischen zwei Punkten wie ein Sprung erscheinen, der aber eigentlich gar keiner ist. Für vorliegende diskrete Daten eignet sich also die visuelle Sprungerkennung nicht (vgl. Abb 1) Die Identifizierung von Sprüngen muss demnach anders funktionieren. Hierzu gibt es etliche mathematische Verfahren unterschiedlicher Komplexität, die programmiert und auf Daten angewendet wurden. Das Verfahren, welches für die gegebene Datengrundlage am besten funktionierte, wurde schließlich zur Sprungerkennung eingesetzt.

Vorbild Sturmfluten: Welche Extreme sind erwartbar?

Anhand der erkannten Sprünge lassen sich direkt Aussagen über die durchschnittliche Sprunghäufigkeit machen. Die Verteilung der Sprunghöhen zu bestimmen gestaltet sich hingegen schwieriger. Hier wurden spezielle Schätzverfahren aus dem Bereich der Extremwerttheorie weiterentwickelt, die seltene und extreme Ereignissen wie zum Beispiel Sturmfluten und Börsencrashs abbilden. Die Methoden zur Erkennung von Sprüngen sowie die Schätzverfahren konnten dann in einem Prototypen umgesetzt werden. Dieser wird gefüttert mit den Zeitreihen beliebig vieler Aktien oder anderer Finanzprodukte. Als Output erhält man dann die erkannten Sprünge und die Parameterwerte jeder einzelnen Aktie. Darüber hinaus wird für ein gesamtes Portfolio der Value at Risk (VaR) bestimmt. Diese Kennzahl beschreibt den Verlust, der mit einer Wahrscheinlichkeit von 99% innerhalb eines Tages nicht überschritten wird; sie ist zur Bestimmung der Eigenkapitalquote relevant. Somit ist die Anforderung der Bankenaufsicht, das Eventrisiko in den VaR einfließen zu lassen, berücksichtigt. In diesen Tagen sind am Markt fast täglich Sprünge zu beobachten, sowohl nach oben als auch nach unten. Aber nicht das Auftreten einzelner Ausschläge stellt das eigentliche Problem dar, sondern die hohe Korrelation: Der Kurseinbruch eines Finanzinstituts zieht weitere mit sich, was wiederum weitere Sprünge in Aktienkursen zur Folge hat. Durch die Verwendung eines Modells, wie es oben beschrieben wurde, sind solche Szenarien, wie sie aktuell auftreten, in der Risikorechnung enthalten. Einerseits lässt das Modell Unstetigkeiten zu, was beeinhaltet, dass die dadurch entstehenden Risiken auch im regulatorischen Eigenkapital enthalten sind. Andererseits ist durch die konkrete mathematische Modellgestaltung die hohe Abhängigkeit zwischen den Sprüngen innerhalb einer Branche, wie beispielsweise der Finanzbranche, darstellbar. Ob Dank neuer Modelle Bankenkrisen zukünftig vermieden werden können, muss die Praxis zeigen. Zwar eröffnen die neuen Modelle neue Möglichkeiten für eine angemessene(re) Beurteilung des unternehmerischen Risikos. Zu bedenken ist allerdings, dass jedes Modell nur so gut ist, wie die Daten, die zu dessen Berechnung verwendet werden.

 

Stochastische Modellbildung

Möchte man wissen, wie sich Aktienkurse, Optionspreise oder etwa Barwerte von Anleihen in der Zukunft verhalten, wird die Mathematik zu Rate gezogen. Genauer gesagt die Teildisziplin, die sich mit Wahrscheinlichkeitstheorie beschäftigt: Die Stochastik.

Man betrachte etwa ein einfaches Würfelexperiment. Mögliche Ergebnisse sind die Zahlen eins bis sechs, die alle mit gleicher Wahrscheinlichkeit auftreten. Man spricht daher von einer Gleichverteilung. In der Realität tritt eine Gleichverteilung jedoch nur selten auf. Untersucht man beispielsweise die Körpergröße männlicher Bundesbürger, so ist eine Körpergröße zwischen 1,75 m und 1,79 m am häufigsten vertreten. 1,80m bis 1,84m ist ebenfalls recht häufig, während eine Körpergröße von über 1,90m oder unter 1,60 m sehr selten der Fall ist. Hier liegt also eine höhere Wahrscheinlichkeit in mittleren Werten, sehr große und sehr kleine Werte sind unwahrscheinlich. Eine solche Verteilung hat die Form einer Glocke und wird als Normalverteilung bezeichnet. Der Mathematiker und Astronom Karl Friedrich Gauß stieß bei der Berechnung von Flächeninhalten auf die Normalverteilung, die deswegen auch als ‚Gaußsche Glockenkurve‘ bekannt ist. Neben Gleich- und Normalverteilung gibt es noch eine Vielzahl anderer Verteilungen, die die unterschiedlichsten Sachverhalte abbilden. In der Stochastik geht es zunächst einmal darum, das geeignete Wahrscheinlichkeitsmodell zu einem gegebenen Sachverhalt zu finden. Beim Würfelexperiment ist offensichtlich, dass es sich um die Gleichverteilung handelt. In anderen Fällen werden historische Daten betrachtet. Man zählt wie häufig die interessierenden Ereignisse eingetreten sind, um ähnlich wie beim Würfelexperiment, ein bestimmtes Verteilungsmuster zu entdecken.

Zurück zum Beispiel der Körpergröße: Bei Männern kommt eine Körpergröße von etwa 1,77 m am häufigsten vor. Bei Frauen hingegen dürfte die durchschnittliche Körpergröße deutlich niedriger sein (vgl. Abb 2) Dennoch handelt es sich in beiden Fällen um die Normalverteilung, jedoch mit unterschiedlicher Gestalt. Sowohl Durchschnittsgröße als auch die Abweichung nach links und rechts sind Parameter der Normalverteilung, die in jedem individuellen Fall angepasst werden. Auch im Falle von Aktienkursen existieren solche Parameter, die angepasst werden müssen. Wie bei der Körpergröße auch geschieht dies anhand schon beobachteter Daten. Darüber hinaus spielen beispielsweise makroökonomische Einflussfaktoren oder Saisonalitäten eine Rolle. Mit zunehmender Anzahl der Parameter und der abgebildeten Abhängigkeiten steigt auch die Komplexität des Modells. Solche Modelle enthalten im Allgemeinen eine Vielzahl von Parametern, sodass sie nicht nur für eine einzelne Aktie Gültigkeit haben, sondern für alle Aktien eines bestimmten Marktes. Um das allgemeine Modell für eine bestimmte Aktie anzupassen, werden die Parameter für jede einzelne Aktie geschätzt und kalibriert. Je komplexer das Modell, desto schwieriger sind im Allgemeinen auch die Schätzverfahren, die verwendet werden können. Hierzu bedarf es in aller Regel eines Mathematikers, zu dessen Tätigkeitsfeldern unter anderem das Risikomanagement oder die Portfoliosteuerung in Banken gehört.

Verfasser: Annabelle Kehl

Ansprechpartner

M.Sc. Annabelle Kehl
Universität Siegen
Forschungsgruppe Statistik, Risikoanalyse und Computing
Walter-Flex-Str. 3
57068 Siegen
Telefon: +49 271 740 3575
Telefax: +49 271 740 3627
kehl@mathematik.uni-siegen.de