Antifragilität: Anleitung für eine Welt, die wir nicht verstehen (German Edition)
Tötung der Schwachen mit dem Ziel, die Fitness zu steigern. Man muss die biologische Theorie (von alternden Proteinen und Autophagie) gar nicht übernehmen, um die generelle Vorstellung zu akzeptieren, dass der Überlebensdruck innerhalb eines Organismus eine Rolle spielt für die Gesamtverbesserung seines Zustands, wenn er von außen unter Druck gerät.
Wie gut, dass es Irrtümer gibt
Wir kommen jetzt zum Thema Irrtümer und zu der Frage, wie die Irrtümer der einen zum Vorteil der anderen gereichen können.
Die Beziehungen zwischen Fragilität, Irrtümern und Antifragilität lassen sich folgendermaßen zusammenfassen: Wenn jemand fragil ist, ist er davon abhängig, dass die Dinge genau so laufen wie geplant, mit so wenig Abweichungen wie möglich – denn Abweichungen sind eher schädlich für ihn als hilfreich. Daher muss der Fragile vorausschauend handeln, und umgekehrt verursachen vorausschauende Systeme Fragilität. Wer dagegen keine Umwege scheut und nichts gegen eine gewisse Streuung der Ergebnisse hat, die die Zukunft mit sich bringt, da man davon ausgehen kann, dass die meisten zu etwas dienen, der ist antifragil.
Außerdem ist das Zufallselement beim Versuch-und-Irrtum-Verfahren nicht blind zufällig, wenn man rational vorgeht und der Irrtum als Informationsquelle genutzt wird. Jeder Versuch enthält eine Information bezüglich dessen, was nicht funktioniert, weshalb man der Lösung immer näher kommt – jeder einzelne Vorstoß wird also zunehmend wertvoller und ist weniger ein Irrtum als vielmehr eine gewisse Aufwendung. Und natürlich sind auf dem Weg zum Ziel weitere unerwartete Entdeckungen zu machen.
Von den Fehlern der anderen lernen
Aber es soll in diesem Kapitel ja um Schichten, Einheiten, Hierarchien, fraktale Strukturen und den Unterschied zwischen dem Interesse einer Einheit und den Interessen ihrer Untereinheiten gehen. Häufig nützen uns die Fehler, die andere machen, während diese anderen selbst betrüblicherweise nicht davon profitieren. Stressoren sind, wie ich gezeigt habe, im richtigen Kontext Information. Für den Antifragilen wird der Schaden aus Irrtümern geringer sein als der Nutzen. Natürlich geht es dabei um bestimmte Irrtümer, nicht prinzipiell um alle; Irrtümer, die ein System nicht zerstören, können helfen, größeres Unglück zu verhindern. Der Ingenieur und Technikhistoriker Henry Petroski hat eine sehr elegante These formuliert. Der Untergang der Titanicwar eine Katastrophe, doch wenn sie nicht so spektakulär untergegangen wäre, dann hätte man unverdrossen auch weiterhin immer größere und größere Ozeanriesen gebaut, und das Unglück, das dann passiert wäre, wäre noch schlimmer gewesen. Die Menschen, die bei der Katastrophe ums Leben kamen, wurden also für ein größeres Ganzes geopfert; zweifellos retteten sie mehr Menschenleben, als beim Untergang der Titanic verloren gingen. Die Geschichte illustriert den Unterschied zwischen dem Gewinn für das System und der Schädigung einiger seiner Teile.
Dasselbe gilt für die Katastrophe von Fukushima: Man kann mit Sicherheit sagen, dass sie uns die Problematik von Kernreaktoren (und geringen Wahrscheinlichkeiten) bewusst machte und damit größere Katastrophen verhinderte. (Die Irrtümer naiver Stresstests und des blinden Vertrauens auf Risikomodelle waren zu der Zeit, da sich die Katastrophe in Fukushima ereignete, bereits ziemlich gut zu erkennen; aber wie bei der Wirtschaftskrise wollte ja keiner hören.)
Jeder Flugzeugabsturz trägt zu mehr Sicherheit bei, verbessert das System und macht den nächsten Flug sicherer – diejenigen, die bei einem Flugzeugabsturz ums Leben kommen, leisten einen Beitrag zur Sicherheit der anderen. Der Swissair-Flug 111, der TWA -Flug 800 und der Flug 447 der Air France ermöglichten die Verbesserung des Systems. Diese Systeme lernen, weil sie antifragil und so angelegt sind, dass sie von kleinen Irrtümern profitieren, was von Zusammenbrüchen der Wirtschaft nicht behauptet werden kann – das Wirtschaftssystem ist in seiner heutigen Verfassung keineswegs antifragil. Warum? Es gibt Hunderttausende Flüge pro Jahr, und der Absturz eines Flugzeugs zieht keine anderen Maschinen mit hinein. Irrtümer bleiben also begrenzt und haben einen hohen Erkenntniswert – wohingegen die globalisierten Wirtschaftssysteme agieren, als wären sie ein einziges System: Irrtümer breiten sich global aus und verschlimmern die Gesamtsituation.
Auch hier geht es wieder um partielle und kleine
Weitere Kostenlose Bücher