Persönlichkeit, Entscheidung und Verhalten
Lohhausen schnell herunterwirtschafteten, obwohl sie doch das Beste wollten! Dabei wurden im Prinzip dieselben Fehler gemacht wie im Tanaland: (1) Man fing mit einzelnen Maßnahmen an, die einem gerade ins Auge stachen, z. B. dem Freizeitverhalten der Leute, und analysierte nicht sorgfältig vorher, wo die strukturellen Probleme des Ortes lagen; (2) man bedachte nicht die mittel- und langfristigen Folgen der einzelnen Maßnahmen und die Auswirkungen auf andere Bereiche (das Anheben der Steuerbelastungen einer bestimmten Bevölkerungsgruppe führt z. B. zu deren Wegzug und damit zu mehr Steuerausfällen als Einnahmen); (3) mangelnde Überprüfung der Arbeitshypothesen an der Realität; (4) sprunghaftes Starten neuer Projekte bei ersten Misserfolgen statt kontinuierlichen und realitätsüberwachten Verfolgens einer Strategie auch gegen Widerstände; (5) Sich-Drücken vor der Eigenverantwortung und Suche nach Sündenböcken.
Dörner belegt in seinem Buch anhand vieler Beispiele wie dem Schicksal realer afrikanischer Entwicklungsländer, Tschernobyl und der Ausbreitung von Aids, dass seine Befunde zu »Tanaland« und »Lohhausen« durchaus sehr real sind und die geringe Fähigkeit des Menschen widerspiegeln, komplexe Systemzusammenhänge zu verstehen und zu steuern. Dabei bildet die Missachtung der Vernetzung der Systemkomponenten und des Vorliegens positiver Rückkopplungen die größte Gefahr. Dies führt zum Beispiel dazu, dass Dinge sich in dramatischer Weise aufschaukeln, und zwar meist mit einer tückischen Zeitverzögerung – man spricht hier von »Tot- oder Verzögerungszeiten«, in denen das System auf einen Eingriff scheinbar nicht reagiert und man den Eingriff deshalb verstärkt (in einer Dusche älterer Bauart, bei der das Wasser erst mit einer gewissen Verzögerung heißer oder kälter wird, haben sich viele schon gehörig verbrüht!), um ihn dann abrupt zurückzufahren. Das System wird dann extrem instabil und kann kollabieren (genau das war in Tschernobyl der Fall). Ebenso führt es dazu, dass beim Ansteigen einer einzelnen Systemkomponente eine andere, die man gar nicht verändern wollte bzw. gar nicht beachtet hatte, ebenfalls mit ansteigt oder steil abfällt.
Was braucht man, um mit solchen komplexen Systemen fertig zu werden? Das Wichtigste ist wohl, sich einen Eindruck von den Hauptfaktoren (oder -komponenten) des Systems und ihrer positiven oder negativen Kopplung zu machen und sich klare langfristige Ziele zu setzen, statt in einen blinden Aktionismus zu verfallen (so populär er sein mag). Ein komplexes System ist nie vollkommen durchschaubar und beherrschbar, und so wird man bei begrenztem Wissen Maßnahmen zuerst immer wohldosiert und mit Geduld treffen, um die gefährlichen positiven und negativen Kopplungen und die ebenso gefährlichen Verzögerungszeiten erkennen zu können. Das Schwierigste ist wohl der Kompromiss zwischen dem Warten auf den Erfolg und dem Treffen neuer Maßnahmen; panische (oder durch die öffentliche Meinung erzwungene) Ad-hoc-Maßnahmen führen in jedem Fall in die Katastrophe. Dörners Untersuchungen zeigen nachdrücklich die starken Beschränkungen unseres Verstandes, wenn es um komplexe Entscheidungen geht.
Bauchentscheidungen, Kopfentscheidungen – oder etwas Drittes?
Sollen wir uns also gleich auf »Bauchentscheidungen« zurückziehen, wenn doch der Verstand oft überfordert ist? Neueste Untersuchungen zeigen, dass dies ein Fehlschluss ist. Rationale Entscheidungen sind in der Regel besser als »Bauchentscheidungen«, d. h. Entscheidungen unter hoch affektiven bzw. hoch emotionalen Bedingungen (»Dem wird ich’s zeigen! Jetzt haue ich auf den Tisch! Jetzt sag’ ich endlich dem Chef die Meinung!«). Es empfiehlt sich immer zu fragen: Hast du dir die Konsequenzen deines Verhaltens gut überlegt? Machst du dir den Kollegen nicht zum Todfeind? Hast du bereits eine neue Stellung sicher, wenn du dem Chef jetzt die Meinung sagst?
Das rationale Vorgehen stößt jedoch (siehe oben) an seine Grenzen, wenn die Situation sehr komplex ist und damit die Anfangs- und Randbedingungen unklar, die Zahl relevanter Faktoren unbekannt, die Risiken nicht abschätzbar sind usw. Hier gibt es eine Strategie, die von vielen erfahrenen Entscheidern seit langem intuitiv angewandt wird, aber wissenschaftlich nicht in Ehren stand, insbesondere weil man sie nicht gut erklären konnte. Es ist die Strategie des »unbewussten Entscheidens«. Eine holländische Arbeitsgruppe hat
Weitere Kostenlose Bücher