Die Berechnung der Zukunft: Warum die meisten Prognosen falsch sind und manche trotzdem zutreffen - Der New York Times Bestseller (German Edition)
und einer der besseren Genetiker, aber er war auch schamlos elitär und beklagte den Umstand, dass die armen Leute mehr Kinder hätten als die Intellektuellen. 43 (Fisher hatte dann auch pflichtschuldig acht eigene Kinder.)
Fisher ist vermutlich mehr als jeder andere für die statistischen Methoden verantwortlich, die heute weitestgehend in Gebrauch sind. Er entwickelte die Terminologie des statistischen Signifikanztests und wesentliche Teile der grundlegenden Methodologie. Er war kein Fan von Bayes und Laplace. Er war der Erste, der in einem Essay den Ausdruck »Bayessch« benutzte, wobei er das abwertend meinte. 44 Ein anderes Mal behauptete er, dass man die Bayes’sche Theorie ganz und gar zurückweisen müsse. 45
Fisher und seine Zeitgenossen hatten kein Problem mit dem Bayes-Theorem an sich , bei dem es sich um eine einfache Identitätsgleichung handelt; vielmehr beunruhigte sie dessen Anwendung. Insbesondere machte ihnen die Idee der A-priori-Wahrscheinlichkeit zu schaffen. 46 All dies erschien ihnen zu subjektiv: Müssen wir wirklich im Voraus festlegen, für wie wahrscheinlich wir etwas halten, bevor wir mit einem Experiment darüber beginnen können? Widerspricht das nicht der Idee einer objektiven Wissenschaft?
Fisher und seine Zeitgenossen bemühten sich stattdessen, eine Reihe statistischer Methoden zu entwickeln, von denen sie hofften, dass sie uns von jeder möglichen Tangierung durch das Bias befreien würden. Diese Art der Statistik wird heute in der Regel »Frequentismus« genannt, obwohl gelegentlich auch von »Fisherisch« (im Unterschied zu Bayessch) die Rede ist. 47
Der Gedanke des Frequentismus ist, dass die Unsicherheit eines statistischen Problems ausschließlich dadurch hervorgerufen wird, dass die Daten nur von einem Ausschnitt, einer Stichprobe, der Bevölkerung statt von der gesamten Bevölkerung erhoben werden. In Zusammenhängen wie Meinungsumfragen vor einer Wahl wird deutlich, was damit gemeint ist. Bei einer Umfrage in Kalifornien werden 800 Leute (»sample«) befragt, statt der 8 Millionen, die vermutlich wählen werden, und das führt zu dem, was als »Stichprobenfehler« oder »Standardfehler« (sampling error) bekannt ist. Die Fehlermarginale, die bei Umfragewerten angegeben wird, misst diesen Fehlerbereich. Wie groß kann nun die Abweichung sein, wenn von 8 Millionen Menschen nur 800 befragt werden? Die Methoden der Frequentisten sollen das quantifizieren.
Aber in Bezug auf Umfragen sind die Fehlermarginalen nicht die ganze Wahrheit. In der kurzen Zeit zwischen dem Iowa-Caucus, der Kandidatenkür der Demokraten, und der Primärwahl der Demokraten in New Hampshire wurden 2008 etwa 15 000 Wähler in New Hampshire befragt, 48 was in diesem kleinen Bundesstaat eine große Anzahl und damit genug ist, um die Fehlermarginale auf plus/minus 0,8 Prozent zu senken. Die tatsächliche Abweichung betrug dann aber das Zehnfache. Hillary Clinton siegte in diesem Staat mit 3 Prozent, obwohl das Umfrageergebnis vorausgesagt hatte, dass sie mit 8 Prozent gegen Barack Obama verlieren würde. Die Fehlermarginale, die einzige Abweichung, die die Statistik der Frequentisten angibt, war im Fall der New Hampshire-Umfrage das kleinste Problem.
Einige Umfragefirmen lassen durchgängig einen Bias für die eine wie die andere Partei erkennen: 49 Vermutlich könnten sie 200 Millionen Amerikaner befragen, und die Zahlen würden immer noch nicht stimmen. Bayes hatte diese Probleme bereits vor 250 Jahren gelöst: Wenn ein Instrument mit einem Bias behaftet ist, dann kann man noch so viele Messungen durchführen – man wird das Ziel verfehlen.
Die Frequentisten ignorieren im Grunde genommen die Ursache der vielen Fehlprognosen, den menschlichen Irrtum. Sie betrachten die Unsicherheit als etwas dem Experiment Eigenes und nicht als etwas, das mit unserer Fähigkeit zu tun hat, die Wirklichkeit zu verstehen. Die Methode der Frequentisten impliziert auch, dass die Fehlerquote immer weiter gegen null geht, je größer die Datenmenge ist. Das ist sowohl notwendig als auch ausreichend, um jedes Problem zu lösen. Viele der problematischeren Bereiche der Prognose in diesem Buch stammen aus Gebieten, in denen die Datenmenge gering ist, und es hat in der Tat einen Wert, mehr Daten zu sammeln. Das ist jedoch nicht der einzige Weg zu statistischer Perfektion, wenn man damit nicht vernünftig umgeht. Wie Ioannidis feststellte, nimmt in der Big-Data-Ära das Problem der falsch positiven Befunde in der
Weitere Kostenlose Bücher