Risiko im Management

Risiko im Management

Über die Notwendigkeit eines funktionierenden Risikomanagementsystems gibt es heutzutage – auch weitgehend unabhängig von den regulatorischen Vorgaben – bei den meisten Leasing-Gesellschaften keine Diskussion mehr. Gleichwohl zeigt sich, dass immer wieder die gleichen Fehler in der Umsetzung und Interpretation der Ergebnisse gemacht werden. Auch muss festgestellt werden, dass weder das menschliche Verhalten noch Verhaltensungewissheit adäquat berücksichtigt werden. Gerade die Tatsache, dass es den Homo oeconomicus eben nur in der Theorie gibt, erschwert die Konstruktion belastbarer Risikomodelle.

Risiken sind etwas völlig Normales und so ist es auch mit deren Management. Nicht umsonst setzt sich das chinesische Wort für Krise, nämlich „weiji 危机“ aus „wei 危“, was Gefahr, und aus „ji 机“, was Gelegenheit bedeutet, zusammen. Auch im Griechischen beschreibt das Wort „krisis“ keinesfalls nur eine hoffnungslose Situation, sondern vielmehr den Höhe- oder Wendepunkt einer gefährlichen Lage. Der 1998 verstorbene Bielefelder Soziologe Niklas Luhmann hat dies so ausgedrückt: „Die Tür zum Paradies bleibt versiegelt – durch das Wort Risiko.“ Um im Diesseits die Chancen zu wahren, musste man schon immer Risiken eingehen. Letzten Endes unterscheidet es den Guten vom sehr Guten und den Schlechten vom sehr Schlechten, wie gut oder wie schlecht er oder sie mit Risiken umgeht. Im folgenden Beitrag werden einige gängige Fehler, Verzerrungen und Irrtümer des Risikomanagements dargestellt. Diese sind dem Buch „Risiko im Management“ (Springer 2019, ISBN 978-3-658-25834-4) entnommen, das insgesamt 100 verschiedene Ausprägungsformen darstellt!

1. Die Welt als „Random Walk“?

In Anlehnung an eine Parabel von Michael Murray gleicht der Random Walk dem Weg einer Betrunkenen und ihrem Hund. Auf ihrem Heimweg ist es ungewiss, welche Richtung sie als nächstes einschlägt und welche Entfernung sie für den Heimweg genau zurücklegt. Die Gesamtstrecke setzt sich aus mehreren Teilschritten zusammen, die allesamt hinsichtlich Richtung und Länge zufällig und vom vorherigen Schritt unabhängig und damit ungewiss sind.

Sicherlich gibt es berechtigte Einsatzgebiete des Random Walks und auch der Monte- Carlo-Simulation. Gleichzeitig sollten diese Tools aber kritisch geprüft und ausgewählt werden. Denn in der Vergangenheit hat sich immer wieder gezeigt, dass sie fast schon inflationär verwendet werden. Auch in Fällen, in denen man mit etwas Mühe sehr wohl analytische Lösungen gefunden hätte. Denn die Kausalität sollte im Mittelpunkt stehen anstatt einer halbgaren Mathematisierung der Zukunft.

Wenn nicht alle analytischen Mittel und Möglichkeiten der Kausalität ausgeschöpft werden, sind schlechte Ergebnisse vorprogrammiert. Außerdem – und dies wird häufig unterschätzt – erfordert die zielgerichtete Verwendung von Random Walk und Monte- Carlo-Simulation ja bereits vorab eine sehr umfangreiche Bewertung und ein gutes Verständnis der Situation. Nur in Situationen, die sich nicht analytisch lösen lassen – also in absoluten Ausnahmesituationen – macht deren Einsatz Sinn. Und nicht, wenn es lediglich weniger aufwendig erscheint.

Wenn die Kausalität außer Acht gelassen wird, werden typischerweise lediglich Normalverteilungsannahmen und Durchschnittswerte in besonderem Maße berücksichtigt. Speziell für die Bewertung von Krisensituationen ist dies aber höchst problematisch.

2. Blinde Modellgläubigkeit

Wissenschaftliche Prognostiker werden häufig zu Propheten unserer Zeit hochstilisiert. Dies ist auch wenig verwunderlich, denn sie liefern ja auch sehr präzise, mathematisch ermittelte, Werte und Bandbreiten zur zukünftigen Entwicklung. Bei mathematischen Modellen oder Simulationen zeigt sich aber immer wieder das Problem der Scheingenauigkeit. Obwohl die Modelle regelmäßig konkret greifbare Ergebnisse wiedergeben, können sie nur einen Teilbereich der Realität und der Wechselwirkungseffekte für die betrachteten Unternehmen berücksichtigen. Die Modelle abstrahieren nur einen Teilausschnitt der Realität. Der britische Statistiker und Professor an der Universität von Wisconsin-Madison, George Box, stellte deshalb fest:

„Im Grunde genommen sind alle Modelle falsch, aber manche sind nützlich.“

Vor diesem Hintergrund wird deutlich, dass eine blinde Modellgläubigkeit der Entscheidungsträger schnell eine zentrale Gefahrenquelle werden kann. Insbesondere dann, wenn die realen Risiken aufgrund einer falschen oder nicht hinreichend genauen Beschreibung unter- oder überschätzt werden.

Insbesondere Krisensituationen von beispielsweise Banken machen immer wieder deutlich, dass Parameter- und Modellrisiken in Risikoquantifizierungsmodellen nicht selten systematisch unterschätzt werden. Speziell in Krisensituationen ist öfters zu beobachten, dass diese häufig erst dadurch entstehen, dass bekannte Risiken ignoriert oder systematisch unterschätzt wurden. Eine bewusste Überzeichnung beziehungsweise ein bewusstes Simulieren von Extremereignissen, etwa in Form von Stresstests, kann die Entscheider aufrütteln und deren Handeln beeinflussen.

3. Einrahmungs-Effekt

Der Einrahmungs-Effekt („Framing“) beschreibt die Situation, in der unterschiedliche Formulierungen derselben Botschaft – trotz gleichem Inhalt – das Verhalten des Adressaten unterschiedlich beeinflussen. Ist das Glas nun halb voll (eher positiv konnotiert) oder halb leer (eher negativ konnotiert)? Oder schlichtweg zu 50% ausgefüllt (Versuch einer objektiven Umschreibung)?

Auch Entscheidungsträger lassen sich von positiv und negativ konnotierten Begriffen beeinflussen. Um trotzdem eine möglichst rationale Entscheidung zu ermöglichen, sollten deshalb besonders positiv beziehungsweise besonders negativ besetzte Begriffe vermieden und speziell im Risikoreporting auf eine möglichst objektive und neutrale Wortwahl geachtet werden. Es kann sehr erhellend sein, wenn man den Risikobericht einmal ganz gezielt nach positiv und negativ „belasteten“ Worten untersucht und sich kritisch fragt, ob eine solch wertende Aussage beabsichtigt war oder nicht. Denn der Blick auf die objektiven Zahlen sollte nicht unterbewusst durch wertende Signalwörter getrübt werden. Ansonsten können keine rationalen Entscheidungen (sofern dies überhaupt möglich ist) getroffen werden.

Neben Worten trifft dies insbesondere auch auf Symbole und Farben zu. Häufig werden positive Entwicklungen grün oder mit einem nach oben gerichteten Pfeil angezeigt, während negative Entwicklungen rot oder orange dargestellt werden. – Was passiert allerdings beispielsweise, wenn die Entwicklung des Wertberichtigungsvolumens dargestellt werden soll? Werden hier ein Anstieg ebenfalls grün und ein Rückgang rot dargestellt? Oder umgekehrt? Oder ganz anders, zum Beispiel neutral in grau? Machen Sie sich diese und ähnliche Fragen bewusst und finden Sie zwischen der jeweiligen Fachabteilung und dem Management eine praktikable Lösung!

4. Nullrisiko-Verzerrung

Die Nullrisiko-Verzerrung (Zero Risk Bias) ist der Grund, warum viele Menschen ihr Geld auf Sparbücher und Tagesgeldkonten packen, trotz minimalem Zinssatz, und gleichzeitig Aktien scheuen, wie der Teufel das Weihwasser. Denn auf dem Sparbuch ist unser Geld „sicher“. So wurde es uns zumindest beigebracht und hiervon sind wir überzeugt – koste es, was es wolle.

Auf der anderen Seite zeigt sich, dass sich das Eingehen von überschaubaren Risiken häufig lohnt. Wer zum Beispiel einen Teil seines Geldes in eine Unternehmensanleihe oder einen Fonds investiert, kann seine Gesamtrendite im Vergleich zu den „sicheren Häfen“ oft klar verbessern.

In der Praxis lohnt es sich im Normalfall nicht, um ein Nullrisiko zu kämpfen, denn das erreicht am Ende sowieso keiner. Und jegliche Eventualität kann man auch nicht versichern. Viel wichtiger ist es, sich gegen mögliche existenzbedrohende Schäden abzusichern, ansonsten aber im Kerngeschäft auch einmal Risiken einzugehen, wenn man meint, diese „handlen“ zu können und wenn diese mit positiven Renditen verbunden sind. Also beispielsweise Investitionen in die Automatisierung oder Digitalisierung von Kundenanforderungen.

Um sich dauerhaft ein Bild davon zu machen, wie belastbar und stressfähig das eigene Unternehmen ist, ist es deshalb sehr wichtig, dass in regelmäßigen Abständen eine Risikotragfähigkeitsanalyse sowie Stresstests durchgeführt werden. Hierbei wird untersucht, ob die zur Verfügung stehende Substanz in Form von Vermögenswerten ausreicht, um die wesentlichen, schlagend werdenden, Risiken auszugleichen. Sowohl unter Normal- als auch unter Stressbedingungen. Hierbei zeigt sich schnell, inwiefern kleinere Risiken problemlos selbst getragen werden können beziehungsweise auch, wie wichtig (oder unwichtig) ein Nullrisiko-Ansatz ist.

5. Alpha- und Beta-Fehler

Wann ist das Risikomanagement besonders erfolgreich? Jetzt werden die meisten wahrscheinlich intuitiv antworten: „Na dann, wenn es möglichst wenige Ausfälle von Kunden und deren Engagements gibt“. Das heißt, die Hauptaufgabe des Risikomanagements ist es, die Risiken möglichst gering zu halten. Der Alpha-Fehler setzt im Risikomanagement genau an dieser Sichtweise an, indem er den Anteil der Engagements ermittelt, die im Betrachtungszeitraum ausgefallen sind und diesen ins Verhältnis zur Gesamtanzahl der Engagements setzt. Man könnte also sagen, er ermittelt den Anteil an „schlechten Geschäften“, die trotzdem genehmigt beziehungsweise eingegangen wurden und anschließend zu Ausfällen geführt haben.

Wenn Sie sich im Bankenumfeld umhören, kann Ihnen fast jeder Risikomanager die entsprechenden Alpha-Fehler, häufig auch noch unterteilt nach Ratingklassen et cetera, nennen. Auf einen Einjahreszeitraum bezogen, entspricht der Alpha-Fehler typischerweise der Probability of Default (PD), also der Ausfallwahrscheinlichkeit.

Der Alpha-Fehler (oder Fehler ersten Grades) wird immer rückblickend ermittelt, indem ein getätigtes Engagement dahingehend geprüft wird, ob es die Erwartungen erfüllt hat.

Natürlich mag man kritisch anmerken, dass es hierüber im Nachhinein niemals Zweifel gibt, denn hinterher ist bekanntlich jeder ein Prophet gewesen.

Bei der Ermittlung des Beta-Fehlers wird geprüft, wie hoch die Ablehnung von „guten Geschäften“ war, das heißt, wie viele Kunden sind auch heute noch nicht insolvent und hätten zu positiven Renditen beigetragen, wenn man das ursprünglich angefragte Geschäft genehmigt hätte? Sein Ziel ist es, eine Opportunitätskostensicht einzunehmen. Das heißt, dass der Erfolg des Risikomanagements eben nicht nur anhand der genehmigten Engagements, sondern auch anhand der abgelehnten Engagements bewertet wird.

Nur wenn Sie beide Größen, sowohl den Alpha- als auch den Beta-Fehler angemessen berücksichtigen, können Sie nachhaltig erfolgreich sein! Denn nicht umsonst heißt es rückblickend häufig: „die größten Fehler werden im Erfolg gemacht“. Häufig werden gerade in wirtschaftlich guten Zeiten die Risiken ausgeblendet und zu viele Risiken ins Buch genommen. In wirtschaftlich schlechten Zeiten hingegen sind die Unternehmen häufig übervorsichtig und verlieren dadurch schnell jahrelange Kunden oder verpassen es zumindest, die Kundenbeziehung weiter zu festigen, indem auch in schlechten Zeiten zum Kunden gestanden wird, auch wenn sich der Wettbewerb schon längst zurückgezogen hat.

6. Anekdotischer Fehlschluss

Der anekdotische Fehlschluss zeichnet sich dadurch aus, dass einzelne Erfahrungsberichte und Geschichten vom Hörensagen höher gewichtet werden als statistisch fundierte Berichte und Argumente. Er wird häufig als Gegensatz zur empirischen Evidenz (zum Beispiel empirische Feldstudien, (Labor-)Experimente et cetera) und zum Analogieschluss verwendet. Anekdotische Evidenz hat folglich eine nur sehr schwache, argumentative Aussagekraft.

Dieses auch als „Volvo-Irrtum“ in der Verhaltensökonomie bekannte Beispiel erlangte größere Bekanntheit durch ein Gedankenexperiment von Kahneman, Slovic und Tversky (1982, S.112-113), die den Entscheidungsprozess eines Autokäufers darstellten. Aufgrund der Kriterien Langlebigkeit, Wirtschaftlichkeit und Sicherheit entscheidet er sich nun zwischen einem Saab und einem Volvo. Die gängigen Autozeitschriften sehen dabei in ihren Berichten und Studien die Volvo-Fahrzeuge als technisch zuverlässiger und wirtschaftlicher an.

Auf einer Cocktailparty wird der Autokäufer allerdings durch die Geschichte eines Bekannten umgestimmt, der ihm darlegt, wie enttäuscht sein Schwager von eben diesen Volvo-Fahrzeugen wäre. Und so wird die Wahrscheinlichkeit lediglich anhand einer Anekdote plötzlich höher gewichtet als durch die Lektüre der Autozeitschriften (deren Richtigkeit vorausgesetzt) die Erfahrungswerte einer Vielzahl von Nutzern und Experten.

Anekdoten sollten deshalb niemals ungefiltert übernommen werden, sondern vielmehr als Startschuss für nachfolgende, kritische Prüfungen oder auch für Szenarioanalysen und Stresstests dienen, bei denen plausibel mögliche, eher seltene, unternehmensgefährdende Situationen simuliert werden. Ziel ist es, einerseits die Eintrittswahrscheinlichkeit hierfür abzuschätzen und andererseits insbesondere Gegenmaßnahmen zu erarbeiten, damit ein solcher Extremfall gar nicht erst eintreten kann.

7. Autoritätsargument

Ein Autoritätsargument oder Argumentum ad verecundiam (Lateinisch für „Argument aus Ehrfurcht“) zeichnet sich dadurch aus, dass es seine These hauptsächlich auf eine Autorität, also beispielsweise einen Experten oder Vorgesetzten, stützt. Zu einer Autorität kann eine Person unter anderem durch ihre fachliche Expertise und soziale Anerkennung oder Stellung avancieren. Ausschlaggebend ist am Ende nicht, wie sie tatsächlich ist, sondern wie sie erscheint – als Autorität eben. Das folgende Beispiel verdeutlicht ein typisches Autoritätsargument:

„Eine hohe Dosis von Vitamin C schützt wirksam vor Erkältungen. Das sagt Linus Pauling, und der ist schließlich zweifacher Nobel-preisträger.“

Da eine Autorität natürlich nicht zwingend eine Garantie für Wahrheit ist, ergibt sich hieraus häufig ein Fehlschluss, wenn Fakten ignoriert werden. Im obigen Beispiel wurde zwar eine Autorität angegeben, allerdings aus einem anderen Fachgebiet. Denn Pauling erhielt seinen Chemie-Nobelpreis nicht für die Erforschung des Vitamin C und sein zweiter war außerdem der Friedens-Nobelpreis!

Achten Sie in der Zusammenstellung Ihrer Teams darauf, dass genügend Querdenker bei kritischen Entscheidungen dabei sind. Stellen Sie sicher, dass jemand als Devil’s Advocat fungiert und die Positionen und Argumente kritisch auf den Faktengehalt prüft. Rein ehrfürchtige Verweise auf Autoritäten können nicht als Beweis verwendet werden.

8. Mangelhafte Risikokommunikation

Eine klare, systematische und adressatenorientierte Kommunikation über die vorhandenen und potenziellen Risiken im Unternehmen sowie deren Steuerung ist elementarer Bestandteil eines funktionierenden Risikomanagements. Da das Risikomanagement eine Schnittstellenfunktion ist, finden auch unterschiedlichste Kommunikationswege statt, zum Beispiel zwischen Fachspezialisten und Risikomanagern, innerhalb des Risikomanagements, zwischen Risikomanagern und der Unternehmensleitung, innerhalb der Unternehmensleitung, aber auch mit externen Geschäftspartnern und Experten.

Die große Kunst in der Risikokommunikation ist es, die richtigen Informationen zum richtigen Zeitpunkt an den richtigen Empfänger zu liefern. Auf Basis dieser Informationen soll der Empfänger in seiner Entscheidung im Rahmen der Risikosteuerung unterstützt werden und es soll erreicht werden, dass die Vorgaben aus der Risikostrategie stets eingehalten werden können.

Neben den zahlreichen, formalen Vorgaben ist es deshalb aber auch sehr wichtig, dass Sie als Entscheidungsträger nahe an den Mitarbeitern und damit nahe am Puls des Geschehens sind. Betreiben Sie „Management by Walking Around“ und Sie werden sehen, wie schnell und proaktiv Sie einige Dinge erfahren und beeinflussen können. Und im Idealfall können mögliche Probleme und Risiken, noch weit bevor sie schlagend werden, antizipiert und „repariert“ werden.

9. Verwechseln von Ursache und Wirkung

Das Verwechseln von Ursache und Wirkung ist ein bekannter induktiver Fehlschluss, der leider viel zu häufig zu beobachten ist. Das folgende Beispiel aus dem 19. Jahrhundert zeigt sehr anschaulich, wie lange dieser Fehlschluss schon existiert (vgl. Salmon 1986, S.212):

„Ein englischer Reformer des 19. Jahrhunderts bemerkte, dass die Landwirte, die in allem maßvoll und fleißig waren, mindestens ein oder zwei Kühe besaßen. Die, die keine besaßen, waren für gewöhnlich faul und trunksüchtig.

Er machte deshalb den Vorschlag, all denjenigen Landwirten, die noch keine Kuh besaßen, eine zu geben, um sie in alledem maßvoll und fleißig zu machen.“

Im obigen Beispiel ist der Fehlschluss sehr offensichtlich. Denn die Landwirte sind nicht fleißig, nur weil sie die Kühe haben, sondern haben umgekehrt die Kühe, weil sie fleißig sind.

Die Auswirkungen können unterschiedlich sein. Im harmlosesten Fall arbeiten Sie „nur“ fortwährend an den Ursachen und betreiben ein ressourcenintensives Troubleshooting. Im schlimmsten Fall befinden Sie sich in einer trügerischen Sicherheit und denken, Sie hätten alles im Griff, bis dann urplötzlich der Krisenfall auftritt. Sie befinden sich dann quasi einige Zeit im Auge des Tornados, ohne es zu bemerken!

Achten Sie deshalb genau darauf, ein enges „Backtesting“ Ihrer Modelle und Methoden durchzuführen. Je mehr Messwerte, Beobachtungen und Erfahrungswerte einfließen, desto belastbarer sind auch die Erkenntnisse.

10. Vergleich von Äpfeln und Birnen

Denken in Analogien ist eine der häufigsten Methoden, mit denen Menschen versuchen, die Welt zu verstehen und Entscheidungen zu treffen. Der Vergleich von Äpfeln mit Birnen beschreibt allerdings sehr anschaulich den Fehlschluss dabei, nämlich die falsche Analogie. Das heißt, es werden zwei Dinge oder Konstellationen miteinander verglichen, die zwar in einer Hinsicht ähnlich sind, es aber nicht zwingend auch in anderen Hinsichten sein müssen. Die falsche Analogie nimmt fälschlicherweise an, dass auch die unbekannten Dinge ähnlich sein müssen. Das Grundprinzip wird in der folgenden Aussage veranschaulicht:

„Wenn wir es schaffen, Menschen auf den Mond zu schießen, warum schaffen wir es dann nicht auch, ein Heilmittel gegen Schnupfen zu erschaffen, sodass wir gar nicht erst krank werden?“

Obwohl sich beide Themenbereiche auf die Wissenschaft beziehen, gibt es erhebliche Unterschiede und Fortschritte bei der Weltraumforschung und der biologisch- medizinischen Forschung.

Analogien sind sehr hilfreich, wenn es darum geht, komplexe Prozesse oder Ideen zu veranschaulichen und damit verständlich zu machen. Sie müssen aber sehr sorgsam ausgewählt und geprüft werden, um nicht überstrapaziert zu werden oder eben falsch zu sein. Der Wirkungsbereich der Analogien sollte sehr genau umrissen sein und auch die Grenzen müssen transparent gemacht werden.

Achten Sie besonders darauf, dass Sie sich nicht von oberflächlichen Ähnlichkeiten blenden lassen und dabei fundamentale Unterschiede ignorieren. Speziell in ungewohnten Situationen und bei neuen Ideen sollten Sie in Vergleichen harte Fakten den vermeintlich noch so exakten Analogien vorziehen. Lassen Sie sich nicht von ihrem ersten, intuitiven Eindruck oder von sehr anschaulichen Metaphern blenden. Speziell in letztgenannten Situationen unterstützt ein Devil’s Advocat, der dabei hilft, die Analogien und Metaphern genauer zu hinterfragen und auf ihre Belastbarkeit hin zu prüfen.

Fazit

Sie haben sicherlich bemerkt, dass ein Großteil der dargestellten Risiken und Beispiele eine große Verknüpfung mit dem Themengebiet der Psychologie aufweist. Dies ist auch wenig verwunderlich. Schließlich lässt sich „Risiko“ nicht greifen, nicht sehen, nicht berühren und auch nicht wiegen. Es ist vielmehr eine subjektive Empfindung, bei der unsere geistigen beziehungsweise kognitiven Fähigkeiten eine zentrale Rolle einnehmen.

Unser Gehirn hat über die Jahrhunderte und Jahrtausende hinweg gewisse Strategien entwickelt, um mit Risiken und Ungewissheit schnell und unkompliziert umzugehen. Viele dieser Techniken und Strategien sind hocherfolgreich, gleichzeitig gibt es aber auch Unschärfen oder Anfälligkeiten für Verzerrungen und Fehlschlüsse.

Denkfehler führen speziell im Umgang mit Statistiken zu Verzerrungen und Irrwegen. Es gibt allerdings auch Auswege, wie die zahlreichen Tipps und praktischen Tricks zu den einzelnen Fehlern des Risikomanagements gezeigt haben. Dies ist auch sehr wichtig, wenn man bedenkt, dass die Bedeutung der Interpretation und Wahrnehmung der Daten und Informationen durch Big Data noch deutlich zunehmen wird. Und eine betriebswirtschaftliche Auslegung von Risikomanagement geht vielfach eben auch (deutlich) über die reine regulatorische Compliance hinsichtlich der Mindestanforderungen an das Risikomanagement (MaRisk) und weitere Vorgaben hinaus!

Autor:
Dr. Christian Glaser, Generalbevollmächtigter der Würth Leasing GmbH & Co. KG