,

Risikomanagement in Echtzeit

Warum eine normale Geschäftsbank heute Risikomanagement in Echtzeit braucht. Vielerbanks glaubt man noch an eine nachsichtige und rücksichtsvolle Geduld der Märkte:  Es reiche derzeit meistens aus, wenn Risiko­analysen nicht sofort, sondern erst nach ein oder zwei Tagen vorlägen, so eine gän­­gige Sichtweise. Aber wäre Stillstand ein Erfolgsfaktor, müsste Nokia nach wie vor an der Spitze…


Warum eine normale Geschäftsbank heute Risikomanagement in Echtzeit braucht.

Vielerbanks glaubt man noch an eine nachsichtige und rücksichtsvolle Geduld der Märkte:  Es reiche derzeit meistens aus, wenn Risiko­analysen nicht sofort, sondern erst nach ein oder zwei Tagen vorlägen, so eine gän­­gige Sichtweise. Aber wäre Stillstand ein Erfolgsfaktor, müsste Nokia nach wie vor an der Spitze der Mobiltelefonhersteller stehen. Im Risiko­controlling gilt nach wie vor die 80/20-Regel. Bei den fünf bis zehn Stresstests könne man damit leben, wenn sie über Nacht durchgerechnet würden. Außerdem habe man gar nicht so viele Daten wie Investment-Häuser oder international tätige Großbanken und brauche deshalb keine High-Performance-Lös­ungen. Operativ sind diese Ansichten nachvollziehbar – strategisch nicht.

In der heutigen Batch-Prozess-orientierten Banken-IT werden die Daten einmal täglich von den  operativen Systemen über das Data Warehouse in die Risiko­­manage­ment-Welt zur Verarbeitung ge­sendet. In manchen Bereichen, wie etwa bei der Limitüberwachung, ergeben sich auch (Near) Realtime-Verarbeitungen. In anderen Be­reichen übernehmen die operativen Frontoffice-Systeme die Berechnung bestimmter Informationen. Die Realität zeigt aber, dass dies in vielen Banken sehr ungenau erfolgt und entscheidende Risikokosten nur näherungsweise oder sogar gar nicht berücksichtigt werden (etwa Liquiditätskosten). Um möglichst schnell neue Geschäfte beur­teilen zu können, muss der Gesamtprozess beschleunigt werden. Das geht nur, wenn der Schritt von einer Batch-­ori­­entierten Verarbeitung zu einer transaktionsorientierten konti­nuierlichen Verarbeitung konsequent erfolgt. Dies bedeutet, dass geplante Geschäfte direkt in die Risikobewertung geschickt und ganzheitlich unter den Portfolio­bedingungen bewertet werden müssen. Die Sicherstellung der Datenqualität muss direkt an der Datenerfassungsquelle erfolgen. Um Daten­qualität durchgängig auch als lohnendes Ziel zu etablieren, haben sich Daten­qualitäts-Dashboards und Datenqualitäts-Gütesiegel bewährt. Dazu sind Datenqualitäts-Kenn­zahlen zu erheben, die die Korrektheit, Voll­ständigkeit und Konsistenz an­zeigen, die auch von Basel III gefordert werden. Daten­qualität kann nur im Mit­einander von IT und Fachabteilung entstehen. Die Vergangenheit zeigt aber, dass die traditionelle Vorgehensweise der Erstellung von Fachkonzepten durch die Fach­abteilung, die dann in technische Spezifika­tionen für die IT übersetzt werden, unübersehbare Schwächen aufweist. Abhilfe können hier klare Verantwortlichkeiten schaffen. Der entscheidende Schritt kommt aber durch die technischen Möglich­keiten, mit denen sich die Fachabteilung eigenständig, schnell und einfach mittels Profiling einen Überblick über die möglichen Feldausprägungen verschaffen und so falsche Werte identifizieren kann und Fehlermuster erkennt.

Ein Mehrwert besteht darin, Entscheidungen im Vorfeld schon durch Simulation zu validieren, um die Aus­wirkungen einer Entscheidung wie etwa den Abschluss eines Sicherungsgeschäftes ex ante auf das Risiko eines Gesamtportfolios darzustellen. Hier spielen schnelle Datenintegrationsprozesse genauso eine Rolle wie schnelle Bewert­ungen und schnelle Visualisier­ungen. Lassen sich Ergebnisse schneller in Entscheidungen einbeziehen, als es die anderen Marktteilnehmer können, so entsteht neben mehr Entscheidungssicherheit ein klarer Wettbewerbsvorteil. Auch über das Trading hinaus liegen Anwendungsszenarien auf der Hand. So kann im normalen Kredit­vergabeprozess direkt das Kreditrisiko an den Berater weitergegeben werden, um die Kreditentscheidung zu opti­mieren. Selbstverständlich kann auch ein Realtime-System den Verantwortlichen keine Entscheidung abnehmen. Der Unterschied besteht darin, die  Ent­scheidungen zu objektivieren und abzusichern. Einige Beispiele dafür finden Sie hier: http://www.sas.de/risk-finance.

Foto von Nebojsa Bobic – www.istockphoto.de