Bei Telepolis verreißt Matthias Winkelmann gerade die halbjährlichen Konjunkturprognosen der fünf führenden Wirtschaftsforschungsinstitute (WFI) (neu: vier Anbieter bzw. Bietergemeinschaften von Wirtschaftsforschungsinstituten). Er stellt die steile These auf, dass keine Konjunkturprognosen besser wären als die seiner Meinung nach grottenfalschen der WFI und man besser Octopus Paul befragen könnte.
Ich bin nun kein Empiriker, ich bin Theoretiker. Trotzdem muss ich einmal eine Lanze für die Empiriker brechen, soweit mir dies als Nicht-Empiriker möglich ist. Grundsätzlich habe ich auch ein Problem mit der (teilw.) Empiriegläubigkeit in der Volkswirtschaftslehre. An der Kritik sind die Empiriker z.T. aber nicht ganz unschuldig, denn schließlich suggerieren sie mit ihren genauen Zahlen eine Genauigkeit, die sie nie erfüllen können.
Man hat im Prinzip zwei Möglichkeiten eine Schätzung abzuliefern, entweder als Punkt- oder Intervallschätzung. Die WFI geben nun den Eindruck weiter, dass es sich um eine Punktschätzung handelt. Wahrscheinlicher ist hingegen, dass eine Intervallschätzung gemacht wurde. Dies liegt schon daran, dass an der Gemeinschaftsprognose mehrere WFI beteiligt sind, die erst mal getrennt voneinander wurschteln und lediglich zur Gemeinschaftsprognose ihre Ergebnisse zusammenwürfeln. Zum anderen beruhen natürlich die Prognosen auf bestimmten Annahmen über die künftige Entwicklungen, welche sich auch in bestimmten Bandbreiten bewegen. Und dann wird eben der Wert, den sie als am wahrscheinlichsten ausgehandelt haben, veröffentlicht. (Ich nehme das mal an, da ich die Methodik der Prognosen nicht studiert habe und auch nicht studieren werde - ich will ja kein Empiriker werden.)
Nun will aber niemand hören (weder Politiker, noch Presse als auch das gemeine Volk), dass das Wirtschaftswachstum im nächsten Jahr mit 90%-iger Wahrscheinlichkeit zwischen 0 und 2 % liegen wird, also eher schwach sein wird. Da hört sich ein 1,2%-Wachstum doch viel besser und handfester an. Leider haben sich die Anbieter der Prognosen, die WFI, in dieser Hinsicht der Nachfrage (Politik und Medien) angepasst. Und diese nachgefragte aber vorgegaukelte Genauigkeit wird ihnen dann natürlich immer vorgeworfen.
Denn natürlich hängen die Prognosen immer auch von vielen Annahmen über die zukünftige Entwicklung ab. Die stehen auch alle (i.d.R.) in den Prognosestudien drin. Z.B. müssen Annahmen gemacht werden über die Bevölkerungsentwicklung, die in den nächsten 24 Monaten noch relativ gut vorhersagbar sein wird. Anders sieht es bspw. beim Steuersystem aus. So konnte man etwa 2005 annehmen, dass die CDU die Bundestagswahl gewinnen würde und sich somit der Mehrwertsteuersatz um 1%-Punkt erhöhen könnte. Dass es dann aber zu einem großen Kartell mit 3%-Punkten Mwst.-Erhöhung kam, konnte wohl niemand voraussagen. Darauf komme ich später noch einmal zurück.
Vorerst wollen wir uns mit der Kritik und der Methodik von Matthias beschäftigen. Zunächst einmal ist es eine recht "kurze", d.h. kleine Stichprobe. Die Prognosen gibt es seit gut 40 Jahren. Aufgrund einer Stichprobe von neun Jahren die gesamten 40 Jahre zu disqualifizieren ist unseriös. Zumal mit der Finanzkrise und deren Auswirkungen auf 2009 ein eklatanter Ausreißer enthalten ist. Dabei muss man wissen, dass Ausreißer gerade bei kurzen Zeitreihen große Auswirkungen haben können. Ohne das Jahr 2009 reduziert sich der mittlere absolute Fehler von 2.02% auf 1,48%. Das ist eine Menge Holz. V.a. wo sich hier über jedes zehntel Prozentpunkt Abweichung aufgeregt wird.
Ein Maß für die Güte einer Schätzung sei nun die durchschnittliche Abweichung. Genauer müsste man jedoch sagen durchschnittliche absolute Abweichung. Diese zu verwenden ist sicherlich richtig, denn schließlich könnten sich sonst die negativen und positiven Abweichungen aufheben. Dies kann man sehr leicht nachvollziehen, wenn man als weiteres Gütemaß die Erwartungstreue heranzieht. Hier sieht die Sache jedoch schon anders aus, hier haben wir mit Ausreißer 1,36 und ohne 0,72 %-Punkte Abweichung (Berechnungen auf Basis der Daten von Matthias im Anhang oder bei Google Docs).
Dann geht er noch einen Schritt weiter und kostet den Ausreißer 2009 durch ein weiteres nicht näher bezeichnetes(!) Maß aus. Was er da berechnet, bleibt er dem Leser, wie schon angedeutet, schuldig. Am Ende seines Beitrags kündigt er dann zwar an, dass man die Berechnungen in seinem Original Blogbeitrag findet. Verlinkt hat er diesen aber nicht. Transparenz sieht anders aus. Wer den WFI Kaffeesatzleserei und "Angaben (...) ohne Sinn und Verstand" vorwirft, sollte dann aber wenigstens selber seine Berechnungen ohne Umwege offen legen.
Im besagten Blogpost findet man dann auch heraus, dass es sich um die Wurzel der mittleren quadratischen Abweichung (WMQA) handelt. Das Problem an der WMQA ist nun, dass er besonders anfällig für Ausreißer ist, da die Abweichungen quadriert werden. Die WMQA ist nun definitionsgemäß immer größer oder gleich der mittleren absoluten Abweichung. Wenn man dies weiß, dann relativiert sich seine Aussage, dass sich für die großen Abweichungen ein anderes Maß besser eignet. Man könnte auch unterstellen, dass er sich wegen der großen Abweichung ein schöneres Maß rausgesucht hat, welches seine Interpretation noch "besser" widerspiegelt. Ohne Ausreißer liegt die WMQA übrigens bei "nur" noch 1,6 (statt 2,61) und ist nun sogar besser als der von Krake Paul (1,64).
Aber wie tippt Krake Paul überhaupt? Er tippt gar nicht. Paul ist im Ruhestand und tippt immer Null Prozent Wachstum (beim WMQA von Paul verschwindet deswegen auch die Varianz und besteht nur noch aus dem Bias). Das wäre dann ungefähr so, als ob Paul bei der WM immer für Deutschland getippt hätte oder immer auf Sieg der "Heimmannschaft". Paul müsste man also mindestens zwei Behälter mit unterschiedlichen Wachstumsraten vorsetzen, damit Paul überhaupt tippen kann. Genausogut hätte man Paul aber auch nach adaptiven Erwartungen tippen lassen können, also einfach die Wachstumsraten des Vorjahres genommen. Das wäre dann in der Tat noch besser gewesen, da die Wirtschaftskraft des vorangegangenen Jahres natürlich eine gewisse Auswirkung auf die des Folgejahres hat. Allerdings nur ohne das Ausreißerjahr 2009. Mit 2009 hätte sich Paul sogar verschlechtert. Man sieht hieran schon wie fragil die "Gütemaße" auf Ausreißer reagieren.
Aber genauso sind die tatsächlichen Wachstumsraten problematisch. Ähnlich wie der adaptiv schätzende Paul greifen natürlich auch die WFI die Daten der vergangenen Quartale auf. Nur sind die meist noch vorläufig und werden im Nachhinein noch öfters korrigiert. Viel zwar nicht, aber 2 Zehntel können z.B. beim Wirtschaftswachstum durchaus häufig mal drin sein 2007 wurden bspw. für 2006 sogar nur 2,7 statt der später korrigierten 3,2% angegeben. Nun könnte man alles noch mal mit den unkorrigierten Werten nachrechnen...
Aus der WMQA dann aber einfach ein Konfidenzintervall (KI) zu konstruieren ist dann doch etwas an den Haaren herbeigezogen. Was für ein KI soll es denn bitteschön sein, 90, 95 oder 99%-ige Genauigkeit. Und schaut man sich die Berechnung des KI einmal an, so sieht man, dass da zwar die WMQA eingeht, aber eben nicht nur die sondern auch die Vertrauensgenauigkeitsquantile der Normal- oder t-Verteilung (das führt jetzt aber zu weit). Was Matthias da als KI angibt ist alles mögliche, aber kein KI! Aber sich über die Genauigkeit der Konjunkturprognosen aufregen...
Ist es nun aber besser die Prognosen komplett sein zu lassen? Wenn doch selbst Krake Paul, ob nun mit Null-Wachstumsprognosen oder adaptiven Erwartungen etwa genauso gut ist. Zum einen könnte man einmal schauen, wie die Prognosefehler anstatt mit absoluten mit relativen Gütemaßen aussehen (siehe Überblick über Gütemaße). Wenn wir das mal spaßeshalber mit Wachstumsfaktoren durchrechnen kommen wir auf 1-3% (nicht %-Punkte!) Abweichung. Also fast nichts. Hieran sieht man schon, wie schnell man solche Fehler auch klein rechnen kann.
Andererseits kann man auch einmal testen wie gut die Prognosen waren. Sind die Abweichungen von den tatsächlichen Wachtumsraten also rein zufällig oder signifikant unterschiedlich. Es könnte ja auch sein, dass man trotz der großen absoluten Abweichungen noch im Rahmen ist, dass man zumindest statistisch gesehen nicht von Fehlprognosen reden kann.
Aber auch wenn wir uns mal von den statistischen Maßen entfernen, sind solche Prognosen nicht unwichtig. Zumindest wenn man sie vielleicht nicht so Zehntelgenau nimmt. Die externen Schocks kann man den WFI nun einmal nicht vorhalten. Auch Vorhersagen für's idealisierte volkswirtschaftliche Reagenzglas sind brauchbar, weil sie wichtige Informationen liefern. Wenn z.B. die Finanzkrise nicht gekommen wäre, dann hätten wir 2009 wohl ein Wirtschaftswachstum zw. 1 und 2 % gehabt. Nicht dolle. Heißt als wirtschaftspolitische Empfehlung: nicht ausruhen. Diese Weichenstellungen können dann auch positiv auf die weitere wirtschaftliche Entwicklung trotz unvorhersehbaren Schock sein.
Und nur weil externe Schocks, d.h. unvorhersehbare Ereignisse nicht selten sind, heißt das nicht, dass man von Prognosen die Finger lassen sollte. Das sollte man dann tun, wenn die Prognosen systematische Fehler produzieren, die auch ohne externe Schocks eintreten. Diesen Nachweis muss man aber erst einmal zeigen.
Solche externen Schocks können - wie oben schon angedeutet - auf zweierlei Weise entstehen. Zum einen "selbstverschuldete" und zum anderen "höhere Gewalt". Ersteres sind z.B. Politikänderungen, die man nun den WFI bei den Prognosen kaum vorwerfen kann. Denn diese Maßnahmen wären vermeidbar gewesen, z.B. bei der oben angesprochenen Mehrwertsteuererhöhung. Dieser Schock wäre vermeidbar gewesen. Vorhersehbar war er allerdings nicht. Anders sieht es bei den Schocks aus, die nicht (unmittelbar) von der Politik verantwortet sind. Ich habe das mal "höhere Gewalt" getauft. Hierunter fällt z.B. der 11. September oder die Finanzkrise. Bei letzterem kann man zwar sagen, dass Politik und/oder Ökonomen einen Einfluss gehabt haben könnten, wann genau dieses Ereignis allerdings eintreten würde, war nicht vorhersehbar.
Die Regeln der Volkswirtschaft sind uns zwar nicht vollends bekannt, aber wir können sie zumindest deuten. Dies machen Theoretiker und Empiriker. Beide müssen sich vorhalten lassen, zu Mathegläubig zu sein bzw. zumindest zu wirken. Es kommt nicht darauf an etwas exakt vorherzusagen, es reicht die Richtung (und vielleicht die ungefähre Stärke) zu kennen. Dies muss mehr, gerade auch von den führenden und in den Medien häufig vertretenen Ökonomen propagiert werden. Auch wenn das niemand hören will.
Theoretische Modell können uns trotz der Abstraktion die Auswirkungen von "Geschehnissen" andeuten. Empirische Modelle können dies überprüfen und in die Zukunft explorieren. Das sollte man nicht unterschätzen.
Anhang | Größe |
---|---|
Sachverstand-erweitert.ods | 20.86 KB |