Neukeynesianismus

Der Neukeynesianismus oder New Keynesian economics ist eine makroökonomische Theorie, die sich zwischen den 1980er und frühen 2000er Jahren entwickelte.[1] Sie liefert mikroökonomische Grundlagen für makroökonomische Total-Modelle der Wirtschaft.[2] Zu den führenden Vertretern des Neukeynesianismus zählen George Akerlof, Olivier Blanchard, Stanley Fisher, Gregory Mankiw, James Mirrlees, David Romer, Michael Spence, Joseph Stiglitz, Lawrence Summers und Janet Yellen.[3]

Zwei Hauptannahmen charakterisieren neukeynesianische Modelle: Erstens haben Haushalte und Firmen rationale Erwartungen. Zweitens gibt es eine Vielzahl von Marktversagen, hauptsächlich unvollkommenen Wettbewerb, der Preis- und Lohnstarrheiten erzeugt. Das bedeutet, dass sich Löhne und Preise nicht flexibel an Veränderungen der ökonomischen Bedingungen anpassen können. Diese und andere Formen von Marktversagen können zur Folge haben, dass die Wirtschaft nicht automatisch Vollbeschäftigung erreicht. Daher argumentieren Neukeynesianer, dass die makroökonomische Stabilisierung mittels Fiskal- und Geldpolitik zu einem effizienteren makroökonomischen Ergebnis führen kann als Laissez-faire-Politik.[4]

Der Neukeynesianismus entwickelte sich teilweise als Reaktion auf die Lucas-Kritik an der Neoklassischen Synthese durch Vertreter der neuen klassischen Makroökonomik.[5] Er führt dabei die neoklassische Theorie mit Einsichten John Maynard Keynes’ hinsichtlich Marktversagen zusammen und wird deshalb auch als neue neoklassische Synthese bezeichnet.[6][7] Der Neukeynesianismus ist der aktuelle wissenschaftliche Konsens des internationalen makroökonomischen Mainstreams.[1][8][7][6]

Vorgeschichte

Mit der Allgemeinen Theorie der Beschäftigung, des Zinses und des Geldes von 1936 versuchte John Maynard Keynes die theoretischen und wirtschaftspolitischen Konsequenzen aus der Weltwirtschaftskrise zu ziehen. Das Werk gilt aber selbst unter Ökonomen als schwer verständlich. Mit dem IS-LM-Modell von 1937 lieferte John R. Hicks eine simplifizierende Interpretation der Allgemeinen Theorie. Das IS-LM-Modell wurde (später modifiziert und erweitert) Teil der Neoklassischen Synthese, die wiederum von der großen Mehrheit der Ökonomen dankbar aufgenommen wurde, weil damit einerseits das Versagen der 1930er Jahre abgestreift werden konnte und andererseits die neoklassische Denkwelt erhalten blieb. Der Kompromiss der Neoklassischen Synthese lief darauf hinaus, dass langfristig die Neoklassik gilt, auf kurze Frist aber keynesianische Störungen relevant werden können. Danach führen Märkte mit flexiblen Preisen und Löhnen zu Vollbeschäftigung und einem Pareto-optimalen Zustand. Preis- und Lohnrigiditäten können aber eine notwendige Anpassung be- oder verhindern und so den Abbau von Arbeitslosigkeit blockieren oder inakzeptabel lange hinauszögern. Die Neoklassische Synthese deckt sich nur zum Teil mit den Vorstellungen von Keynes. Sie war jahrzehntelang das absolut dominierende volkswirtschaftliche Gedankengebäude.[9]

In den 1970er Jahren kam das Phänomen der Stagflation auf. Die neoklassische Synthese scheiterte daran, das Phänomen der erhöhten Inflation zu erklären. Der Monetarismus stieg zur dominierenden volkswirtschaftlichen Theorie auf,[9] weil er erklären konnte, dass die Geldmenge Einfluss auf die Inflation hat. Der Monetarismus besagt, dass Wirtschaftswachstum und eine moderate Inflation auf stabilem Niveau gehalten werden können, wenn die Geldmenge im richtigen Verhältnis zum nominalen BIP bleibt (Geldmengensteuerung). Zur Geldmengensteuerung ist es aber erforderlich, die Geldumlaufgeschwindigkeit voraussagen zu können. Die Geldumlaufgeschwindigkeit war in der Vergangenheit einem ungefähr linearen Trend gefolgt. Aufgrund von Deregulierungen des Bankensystems, der Einführung von Tagesgeldkonten und Finanzinnovationen kommt es seit den 1980er Jahren jedoch zu unvorhersehbaren und zum Teil extremen Schwankungen der Geldumlaufgeschwindigkeit. Damit schwand ein klarer Zusammenhang zwischen Geldmenge und nominalem BIP. Dies stellte die Nützlichkeit der Geldmengensteuerung in Frage, viele Ökonomen wandten sich vom Monetarismus ab.[10] In den 1980er Jahren wurde die Neue Klassische Makroökonomik kurzfristig dominant. Mit der Theorie rationaler Erwartungen, die in mikroökonomischer Ausprägung auch effiziente Finanzmärkte postuliert, ist sie noch marktfundamentaler als der Monetarismus.[11] Ihr Begründer Robert E. Lucas erklärte den Keynesianismus 1980 für tot:

“[…] one cannot find good under-forty economists who identify themselves or their work as keynesian. Indeed, people even take offence of referred to as Keynesians. At research seminars, people don’t take Keynesian theorising seriously any more; the audiance starts to whisper and giggle at one another.”

„[…] man findet keinen guten Ökonom unter vierzig, der sich oder sein Werk als keynesianisch bezeichnet. In der Tat stören sich die Menschen sogar daran, wenn sie als Keynesianer bezeichnet werden. In Seminaren wird keynesianische Theorie nicht mehr ernst genommen; die Zuhörer fangen an, untereinander zu flüstern und zu kichern.“

Genau zu diesem Zeitpunkt begannen die Neukeynesianer ihre Forschungsarbeit. Die Phillips-Kurve wurde um Inflationserwartungen erweitert zur Neukeynesianischen Phillips-Kurve. Anstelle der Totalmodelle der Neoklassischen Synthese wurden mikrofundierte Totalmodelle entwickelt.[5] Dass der Neukeynesianismus heute die nordamerikanische Makroökonomie dominiert, liegt zum einen daran, dass sich gegen die Theorien der Neuen Klassischen Makroökonomik und des Monetarismus immer mehr konträre empirische Evidenz sammelte und andererseits die Neukeynesianischen Modelle besser als andere Modelle die stilisierten Fakten des Konjunkturverlaufs erklären.[12]

Modelle

Unvollkommener Wettbewerb

In den 1980er Jahren entwickelten neukeynesianische Ökonomen eine Erklärung für unvollkommenen Wettbewerb, bei dem Märkte nicht in ein Gleichgewicht kommen, über das Konzept der Preisstarrheit.[13] Das zugrundeliegende Konzept der Preisanpassungskosten für Preisänderungen wurde ursprünglich 1977 von Sheshinski und Weiss in ihrer Arbeit eingeführt, die sich mit den Auswirkungen der Inflation auf die Häufigkeit von Preisänderungen beschäftigte.[13] Die Idee, sie als allgemeine Theorie der Preisstarrheit anzuwenden, wurde 1985–1986 gleichzeitig von mehreren Ökonomen vorgebracht.

George Akerlof und Janet Yellen zeigten, dass Firmen aufgrund von begrenzter Rationalität ihre Preise nicht ändern werden, es sei denn, der Nutzen ist größer als ein kleiner Betrag.[14][15] Diese begrenzte Rationalität führt zu einer Starrheit der Preise und Löhne, was dazu führen kann, dass die Produktion bei konstanten Preisen und Löhnen schwankt. Gregory Mankiw nahm das Konzept der Preisanpassungskosten und untersuchte die Wohlfahrtseffekte von Veränderungen der Produktion, die aus Preisstarrheiten resultieren.[16] Auch Michael Parkin untersuchte Preisanpassungskosten.[17]

Obwohl sich das Konzept anfänglich auf die Starrheit von Preisen konzentrierte, wurde es von Olivier Blanchard und Nobuhiro Kiyotaki in einer einflussreichen Arbeit auch auf Löhne ausgeweitet.[18] Huw Dixon und Claus Hansen zeigten, dass wenn Preisanpassungskosten auf einen kleinen Sektor der Wirtschaft angewendet werden, dies den Rest der Wirtschaft beeinflussen kann und dazu führt, dass die Preise in der übrigen Ökonomie ebenfalls schwächer auf Nachfrageänderungen reagieren.[19]

1990 zeigten Laurence M. Ball und David Romer, dass reale Starrheiten mit nominalen Starrheiten interagieren können, um ein erhebliches ökonomisches Ungleichgewicht zu erzeugen.[20] Reale Starrheiten treten immer dann auf, wenn ein Unternehmen seine Preise nur langsam an ein sich änderndes wirtschaftliches Umfeld anpasst. Beispielsweise kann ein Unternehmen mit echten Starrheiten konfrontiert werden, wenn es über Marktmacht verfügt oder seine Kosten für Betriebsmittel und Löhne vertraglich festgeschrieben sind. Ball und Romer argumentierten, dass reale Starrheiten auf dem Arbeitsmarkt die Kosten eines Unternehmens hoch halten, was Unternehmen zögern lässt, Preise zu senken und Einnahmen zu verlieren. Der durch reale Starrheiten verursachte Aufwand in Verbindung mit den Preisanpassungskosten von Preisänderungen macht es weniger wahrscheinlich, dass eine Firma die Preise auf ein markträumendes Niveau senkt.

Auch wenn Preise völlig flexibel sind, kann ein unvollkommener Wettbewerb den Einfluss der Fiskalpolitik im Hinblick auf den Multiplikator beeinträchtigen. Huw Dixon und Gregory Mankiw entwickelten unabhängig voneinander einfache allgemeine Gleichgewichtsmodelle, die zeigen, dass der Fiskalmultiplikator mit dem Grad des unvollkommenen Wettbewerbs auf dem Produktionsmarkt steigen könnte.[21][22]

Koordinationsversagen

In diesem Modell des Koordinationsversagens trifft ein repräsentatives Unternehmen e*i seine Output-Entscheidungen auf der Grundlage des durchschnittlichen Outputs aller Unternehmen (ē). Wenn das repräsentative Unternehmen so viel produziert wie das durchschnittliche Unternehmen (e*i=ē), befindet sich die Wirtschaft in einem Gleichgewicht, welche durch die 45-Grad-Linie dargestellt wird. Die Entscheidungskurve schneidet die Gleichgewichtslinie an drei Gleichgewichtspunkten. Die Firmen könnten sich koordinieren und auf dem optimalen Niveau von Punkt B produzieren, aber ohne Koordination könnten Firmen in einem weniger effizienten Gleichgewicht A oder C produzieren.[23]

Koordinationsversagen ist ein weiteres wichtiges neukeynesianisches Modell, das als eine mögliche Erklärung für Rezessionen und Arbeitslosigkeit entwickelt wurde.[24] Koordinationsversagen bezeichnet einen Zustand in Wirtschaftssystemen mit mehreren Gleichgewichten, wenn eine Gruppe von Unternehmen ein besseres Gleichgewicht erreichen könnte, dies jedoch nicht gelingt, weil sie ihre Entscheidungsfindung nicht koordinieren.[25]

Russell Cooper und Andrew Johns lieferten 1988 ein allgemeines mathematisch-spieltheoretisches Modell der Koordination mit mehreren Gleichgewichten, bei denen sich Agenten koordinieren könnten, um jede ihrer jeweiligen Situationen zu optimieren.[26] Cooper und John stützten ihre Arbeit auf frühere Modelle, darunter das Kokosnussmodell von Peter Diamond von 1982, das einen Fall von Koordinationsversagen mit Such- und Matchingtheorie demonstrierte.[27]

In Diamonds Modell produzieren Produzenten eher, wenn sie sehen, dass auch andere Produzenten produzieren. Die Zunahme möglicher Handelspartner erhöht die Wahrscheinlichkeit, dass ein bestimmter Hersteller jemanden findet, mit dem er handeln kann. Wie in anderen Fällen von Koordinationsversagen hat Diamonds Modell mehrere Gleichgewichte; das Wohlergehen eines Agenten hängt von den Entscheidungen anderer ab.[28] Das Modell von Diamond ist ein Beispiel für eine „Thick-Market-Externalität“, die dazu führt, dass Märkte besser funktionieren, wenn mehr Menschen und Unternehmen daran teilnehmen.[28]

Andere potenzielle Ursachen für Koordinationsversagen sind selbsterfüllende Prophezeiungen.[29] Wenn ein Unternehmen mit einem Nachfragerückgang rechnet, kann es sein, dass es die Einstellung neuer Arbeitskräfte zurückfährt. Ein Mangel an freien Arbeitsplätzen könnte Arbeitnehmer beunruhigen, die dann ihren Konsum zurückfahren. Dieser Nachfragerückgang entspricht den Erwartungen des Unternehmens, ist jedoch ausschließlich auf dessen eigenes Handeln zurückzuführen.

Versagen von Arbeitsmärkten

Neukeynesianische Modelle liefern Erklärungen für das Versagen von Arbeitsmärkten. Auf einem völlig flexiblen Arbeitsmarkt werden infolge vermehrter Arbeitslosigkeit die Löhne so weit absinken, bis die Nachfrage nach Arbeitskräften dem Angebot entspricht.[30] Wenn der Arbeitsmarkt perfekt flexibel wäre, dann wäre die Zahl der Arbeitslosen auf Arbeitnehmer beschränkt, die zwischen Arbeitsplätzen wechseln, und Arbeitslose die sich entscheiden, nicht zu arbeiten, weil die Löhne zu niedrig sind.[30] Neukeynesianer entwickelten mehrere Theorien, die erklären, warum in der marktwirtschaftlichen Arbeitswelt willige Arbeitssuchende arbeitslos bleiben können. Dabei sind besonders die Effizienzlohntheorie und die Insider-Outsider-Theorie zu nennen.[31] Letztere erklärt, wie die langfristigen Effekte früherer Arbeitslosigkeit dazu führen, dass ein kurzfristiger Anstieg der Arbeitslosigkeit dauerhaft wird und so langfristig zu einer höheren Arbeitslosigkeit führt.[32]

Insider-Outsider

Neukeynesianische Ökonomen erklärten, wie kurzfristige Arbeitslosigkeit gravierende langfristige Effekte haben kann – besonders das Phänomen der Hysterese wurde dabei eingehend untersucht. Dieses trat auf, als die Arbeitslosenzahlen mit dem Ölpreisschock von 1979 und den Rezessionen Anfang der 1980er Jahre anstiegen, aber nicht wieder auf die niedrigeren Niveaus zurückkehrten, die als natürliche Arbeitslosenquote galten, sondern auf einem höheren Niveau blieben.[33]

Olivier Blanchard und Lawrence Summers erklärten 1986 die Hysterese der Arbeitslosigkeit mit Insider-Outsider-Modellen[34], die auch von Assar Lindbeck und Dennis Snower in einer Reihe von Artikeln und dann einem Buch entwickelt wurden.[35] Insider, Angestellte, die bereits bei einem Unternehmen arbeiten, sind nur um ihr eigenes ökonomische Wohl besorgt. Sie würden lieber ihre Löhne hoch halten als die Löhne zu kürzen und damit die allgemeine Beschäftigung zu erhöhen. Die Arbeitslosen, Außenseiter (Outsider), haben im Lohnverhandlungsprozess keine Stimme; ihre Interessen werden also nicht vertreten. Wenn die Arbeitslosigkeit steigt, steigt auch die Zahl der Außenseiter. Selbst nachdem sich die Wirtschaft wieder erholt hat, werden Außenseiter weiterhin vom Lohn- und Tarifverhandlungen ausgeschlossen.[36] Der größere Pool von Arbeitslosen, der durch Zeiten des wirtschaftlichen Abschwungs geschaffen wurde, kann so zu dauerhaft höheren Arbeitslosenquoten führen.[36]

Das Vorhandensein von Hysterese auf dem Arbeitsmarkt erhöht auch die Bedeutung der Geld- und Fiskalpolitik. Wenn vorübergehende Konjunkturabschwünge zu einem langfristigen Anstieg der Arbeitslosigkeit führen können, leisten staatliche Stabilisierungsmaßnahmen mehr als nur vorübergehende Erleichterung; sie verhindern, dass kurzfristige Schocks zu einem langfristigen Anstieg der Arbeitslosigkeit führen.[37]

Effizienzlohn

Die Effizienzlohntheorie ist ein weiteres Modell, mit dem Ungleichgewichte auf dem Arbeitsmark erklärt werden können. Mit Effizienzlöhnen werden Arbeitnehmer auf einem Niveau entlohnt, das die Produktivität maximiert, ohne den Arbeitsmarkt zu räumen.[38] In Entwicklungsländern könnten Firmen beispielsweise mehr als den Marktpreis zahlen, um sicherzustellen, dass sich ihre Arbeiter genügend Nahrung leisten können, um produktiv zu sein. Unternehmen könnten auch höhere Löhne zahlen, um Loyalität und Moral zu steigern, was möglicherweise zu einer besseren Produktivität führt.[39] Unternehmen können auch höhere Löhne zahlen, um Shirking zu verhindern.

Carl Shapiro und Joseph Stiglitz lieferten 1984 ein Modell, bei dem Mitarbeiter dazu neigen, Arbeit zu vermeiden, es sei denn, Unternehmen können die Bemühungen der Arbeiter überwachen und unproduktiven Mitarbeitern mit Arbeitslosigkeit drohen.[40] Bei Vollbeschäftigung wechselt ein gefeuerter Shirker einfach zu einem neuen Job. Einzelne Firmen zahlen ihren Arbeitnehmern eine Prämie über dem Marktpreis, um sicherzustellen, dass ihre Arbeitnehmer lieber arbeiten und ihren aktuellen Arbeitsplatz behalten, anstatt sich zu shirken und zu riskieren, zu einem neuen Arbeitsplatz wechseln zu müssen. Da jedes Unternehmen mehr zahlt als die Löhne für die Markträumung, kommt der aggregierte Arbeitsmarkt nicht ins Gleichgewicht. Dies schafft einen Pool von arbeitslosen Arbeitern und erhöht die Kosten für die Entlassung. Arbeitnehmer riskieren nicht nur einen niedrigeren Lohn, sie riskieren auch, im Pool der Arbeitslosen festzustecken. Wenn die Löhne über dem Markträumungsniveau gehalten werden, stellt dies einen großen Anreiz gegen Shirking dar, was die Effizienz der Arbeitnehmer erhöht, auch wenn einige arbeitswillige Arbeitssuchende arbeitslos bleiben.[40]

2000 lieferten Christopher Erceg, Dale Henderson und Andrew Levin ein makroökonomisches Modell für Arbeitsmärkte mit Gewerkschaften.[41]

DSGE

DSGE-Modelle stellen den aktuellen Stand makroökonomischer Modellbildung dar. Sie werden von verschiedenen Zentralbanken zur makroökonomischen Modellierung eingesetzt. Die europäische Zentralbank verwendet zum Beispiel das Smets–Wouters Modell, um die Auswirkungen ihrer Geldpolitik auf die Eurozone zu untersuchen.[42]

DGSE steht dabei für:[43]

  • Dynamisch: Der Einfluss aktueller Entscheidungen auf zukünftige Unsicherheiten macht die Modelle dynamisch und weist den Erwartungen der Akteure bei der Bildung makroökonomischer Ergebnisse eine gewisse Relevanz zu.
  • Stochastik: Die Modelle berücksichtigen die Übertragung zufälliger Schocks in die Wirtschaft und die darauffolgenden Konjunkturschwankungen.
  • Allgemein: Bezieht sich auf die gesamte Wirtschaft als Ganzes.
  • Gleichgewicht: Unter Berücksichtigung des allgemeinen Gleichgewichtsmodells erfasst das Modell die Interaktion zwischen politischen Maßnahmen und dem nachfolgenden Verhalten von Agenten.

Wichtige Arbeiten zu DSGE-Modellen wurden von Frank Smets und Rafael Wouters[44][45] sowie von Lawrence J. Christiano, Martin Eichenbaum und Charles Evans[46] veröffentlicht. Die gemeinsamen Merkmale dieser Modelle sind:[47]

  • Beharrlichkeit der Gewohnheiten. Der Grenznutzen des Konsums hängt vom vergangenen Konsum ab.
  • Calvo-Preise sowohl auf den Produktions- als auch auf den Produktmärkten, mit Indexierung, sodass Löhne und Preise, wenn sie nicht explizit zurückgesetzt werden, inflationsbereinigt aktualisiert werden.
  • Kapitalanpassungskosten und variabler Kapitaleinsatz.
  • Exogene Schocks
    • Nachfrageschocks, die den Grenznutzen des Konsums beeinflussen
    • Aufschlagsschocks (eng. mark up shocks), die den gewünschten Aufschlag des Preises gegenüber den Grenzkosten beeinflussen.
  • Die Geldpolitik wird durch eine Taylor-Regel modelliert.
  • Bayessche Schätzmethoden

Geldpolitik

Neukeynesianische Ökonomen stimmen mit Neuen Klassischen Makroökonomen darin überein, dass auf lange Sicht die klassische Dichotomie gilt: Veränderungen der Geldmenge sind neutral. Da die Preise in neukeynesianischen Modellen jedoch starr sind, erhöht eine Steigerung der Geldmenge, oder eine entsprechende Senkung des Zinssatzes, kurzfristig die Produktion und senkt die Arbeitslosigkeit.[48] Darüber hinaus bestätigen einige neukeynesianische Modelle die Nicht-Neutralität des Geldes unter definierten Bedingungen.[49][50]

Neukeynesianische Ökonomen sind dagegen, expansive Geldpolitik für kurzfristige Produktions- und Beschäftigungsgewinne einzusetzen.[51] Dies würde die Inflationserwartungen anheben und damit Probleme für die Zukunft erzeugen. Stattdessen plädieren sie dafür, die Geldpolitik nur zur makroökonomischen Stabilisierung einzusetzen.[52] Das heißt, es wird nicht empfohlen, die Geldmenge plötzlich zu erhöhen, nur um einen vorübergehenden Wirtschaftsboom zu erzeugen, da die Beseitigung der gestiegenen Inflationserwartungen ohne eine Rezession unmöglich sein wird. Wenn die Wirtschaft jedoch von einem unerwarteten externen Schock getroffen wird, sollten die makroökonomischen Auswirkungen des Schocks durch Geldpolitik ausgeglichen werden. Dies gilt insbesondere dann, wenn der unerwartete Schock zu einem Rückgang des Konsumentenvertrauens führt. Dies senkt nämlich tendenziell sowohl die Produktion als auch die Inflation. In diesem Fall bewirkt eine Ausweitung der Geldmenge bzw. Senkung der Zinssätze die Erhöhung der Produktion und stabilisiert gleichzeitig die Inflation und die Inflationserwartungen.[48]

Studien zur optimalen Geldpolitik in neukeynesianischen DSGE-Modellen haben sich auf Zinssatzregeln, z. B. die Taylor-Regel, konzentriert. Dabei wird spezifiziert, wie die Zentralbank den Nominalzinssatz als Reaktion auf Inflations- und Produktionsänderungen anpassen sollte. Neukeynesianische DSGE-Modelle zeigen, dass die Steuerung der Inflation ausreicht, um gleichzeitig auch Produktion und Arbeitslosigkeit zu optimieren.[53][54] Blanchard und Galí nennen diesen Fakt den „göttlichen Zufall“.[55]

Einzelnachweise

  1. Jordi Galí: The State of New Keynesian Economics: A Partial Assessment. In: Journal of Economic Perspectives. Band 32, Nr. 3, 1. August 2018, ISSN 0895-3309, S. 87–112, doi:10.1257/jep.32.3.87 (aeaweb.org [abgerufen am 16. Oktober 2021]).
  2. N. Gregory Mankiw: The Reincarnation of Keynesian Economics. w3885. National Bureau of Economic Research, Cambridge, MA Oktober 1991, S. w3885, doi:10.3386/w3885 (nber.org [PDF; abgerufen am 16. Oktober 2021]).
  3. N. Gregory Mankiw, David Romer: New Keynesian economics. MIT Press, Cambridge, Mass. 1991, ISBN 0-262-63133-4.
  4. Campbell Leith, Leopold von Thadden: Monetary and Fiscal Policy Interactions in a New Keynesian Model with Capital Accumulation and Non-Ricardian Consumers. ID 908620. Social Science Research Network, Rochester, NY 1. Juni 2006 (ssrn.com [abgerufen am 16. Oktober 2021]).
  5. Neuer Keynesianismus In: Gabler Wirtschaftslexikon.
  6. Michael Woodford: Convergence in Macroeconomics: Elements of the New Synthesis. In: American Economic Journal: Macroeconomics. Band 1, Nr. 1, 1. Januar 2009, ISSN 1945-7707, S. 267–279, doi:10.1257/mac.1.1.267 (aeaweb.org [abgerufen am 16. Oktober 2021]).
  7. N. Gregory Mankiw: The Macroeconomist as Scientist and Engineer. In: Journal of Economic Perspectives. Band 20, Nr. 4, 1. August 2006, ISSN 0895-3309, S. 29–46, doi:10.1257/jep.20.4.29 (aeaweb.org [abgerufen am 16. Oktober 2021]).
  8. Marvin Goodfriend, Robert G. King: The New Neoclassical Synthesis and the Role of Monetary Policy. In: NBER Macroeconomics Annual. Band 12, 1. Januar 1997, ISSN 0889-3365, S. 231–283, doi:10.1086/654336 (uchicago.edu [abgerufen am 16. Oktober 2021]).
  9. Michael Heine, Hansjörg Herr: Volkswirtschaftslehre: Paradigmenorientierte Einführung in die Mikro- und Makroökonomie. Oldenbourg Verlag, 2012, ISBN 978-3-486-71523-1, S. 507–508.
  10. Internationaler Währungsfonds, Sarwat Jahan and Chris Papageorgiou What Is Monetarism?, Finance & Development, Vol. 51, No. 1, März 2014.
  11. Michael Heine, Hansjörg Herr, Volkswirtschaftslehre: Paradigmenorientierte Einführung in die Mikro- und Makroökonomie. Oldenbourg Verlag, 2012, ISBN 978-3-486-71523-1, S. 508.
  12. Lothar Funk, Eckgard Knappe: Der Beitrag des Neukeynesianismus zur Erklärung der Arbeitslosigkeit in Europa. In: Hamburger Jahrbuch für Wirtschafts- und Gesellschaftspolitik. 41. Jahr, Mohr Siebeck, ISBN 978-3-16-146651-9, S. 45.
  13. Eytan Sheshinski, Yoram Weiss: Inflation and Costs of Price Adjustment. In: The Review of Economic Studies. Band 44, Nr. 2, Juni 1977, S. 287, doi:10.2307/2297067 (oup.com [abgerufen am 16. Oktober 2021]).
  14. George A. Akerlof, Janet L. Yellen: Can Small Deviations from Rationality Make Significant Differences to Economic Equilibria? In: The American Economic Review. Band 75, Nr. 4, 1985, ISSN 0002-8282, S. 708–720, JSTOR:1821349.
  15. G. A. Akerlof, J. L. Yellen: A Near-Rational Model of the Business Cycle, with Wage and Price Inertia. In: The Quarterly Journal of Economics. Band 100, Supplement, 1. Januar 1985, ISSN 0033-5533, S. 823–838, doi:10.1093/qje/100.supplement.823.
  16. N. Gregory Mankiw: Small Menu Costs and Large Business Cycles: A Macroeconomic Model of Monopoly. In: The Quarterly Journal of Economics. Band 100, Nr. 2, Mai 1985, S. 529, doi:10.2307/1885395 (oup.com [abgerufen am 16. Oktober 2021]).
  17. Michael Parkin: The Output-Inflation Trade-off When Prices Are Costly to Change. In: Journal of Political Economy. Band 94, Nr. 1, Februar 1986, ISSN 0022-3808, S. 200–224, doi:10.1086/261369 (uchicago.edu [abgerufen am 16. Oktober 2021]).
  18. Olivier Jean Blanchard, Nobuhiro Kiyotaki: Monopolistic Competition and the Effects of Aggregate Demand. In: The American Economic Review. Band 77, Nr. 4, 1987, ISSN 0002-8282, S. 647–666, JSTOR:1814537.
  19. Huw David Dixon, Claus Thustrup Hansen: A mixed industrial structure magnifies the importance of menu costs. In: European Economic Review. Band 43, Nr. 8, August 1999, S. 1475–1499, doi:10.1016/S0014-2921(98)00029-4 (elsevier.com [abgerufen am 16. Oktober 2021]).
  20. Laurence Ball, David Romer: Real Rigidities and the Non-Neutrality of Money. In: The Review of Economic Studies. Band 57, Nr. 2, April 1990, ISSN 0034-6527, S. 183, doi:10.2307/2297377.
  21. Huw Dixon: A Simple Model of Imperfect Competition with Walrasian Features. In: Oxford Economic Papers. Band 39, Nr. 1, 1987, ISSN 0030-7653, S. 134–160, JSTOR:2663133.
  22. N. Gregory Mankiw: Imperfect Competition and the Keynesian Cross. w2386. National Bureau of Economic Research, Cambridge, MA September 1987, S. w2386, doi:10.3386/w2386 (nber.org [PDF; abgerufen am 16. Oktober 2021]).
  23. Russell Cooper, Andrew John: Coordinating Coordination Failures in Keynesian Models. In: The Quarterly Journal of Economics. Band 103, Nr. 3, August 1988, S. 441, doi:10.2307/1885539 (oup.com [abgerufen am 14. August 2022]).
  24. David Colander: New Keynesian Economics in Perspective. In: Eastern Economic Journal. Band 18, Nr. 4, 1992, ISSN 0094-5056, S. 437–448, JSTOR:40325475.
  25. Jordi Brandts, David J. Cooper: Observability and overcoming coordination failure in organizations: An experimental study. In: Experimental Economics. Band 9, Nr. 4, 1. Dezember 2006, ISSN 1573-6938, S. 407–423, doi:10.1007/s10683-006-7056-5.
  26. Russell Cooper, Andrew John: Coordinating Coordination Failures in Keynesian Models. In: The Quarterly Journal of Economics. Band 103, Nr. 3, August 1988, S. 441, doi:10.2307/1885539 (oup.com [abgerufen am 16. Oktober 2021]).
  27. Peter A. Diamond: Aggregate Demand Management in Search Equilibrium. In: Journal of Political Economy. Band 90, Nr. 5, Oktober 1982, ISSN 0022-3808, S. 881–894, doi:10.1086/261099 (uchicago.edu [abgerufen am 16. Oktober 2021]).
  28. N. Gregory Mankiw, David Romer: New Keynesian economics. MIT Press, Cambridge, Mass. 1991, ISBN 0-262-63133-4, S. 8.
  29. Roger E. A. Farmer, Michael Woodford: SELF-FULFILLING PROPHECIES AND THE BUSINESS CYCLE. In: Macroeconomic Dynamics. Band 1, Nr. 4, Dezember 1997, ISSN 1469-8056, S. 740–769, doi:10.1017/S1365100597005051 (cambridge.org [abgerufen am 16. Oktober 2021]).
  30. David Romer: Advanced macroeconomics. 3rd ed Auflage. McGraw-Hill, Boston, Mass. 2006, ISBN 0-07-287730-8, S. 438.
  31. Andrew Weiss: Efficiency Wages. In: The New Palgrave Dictionary of Economics. Palgrave Macmillan UK, London 2016, ISBN 978-1-349-95121-5, S. 1–4, doi:10.1057/978-1-349-95121-5_2144-1.
  32. David Romer: Advanced macroeconomics. 3rd ed Auflage. McGraw-Hill, Boston, Mass. 2006, ISBN 0-07-287730-8, S. 471.
  33. Brian Snowdon: Modern macroeconomics : its origins, development and current state. E. Elgar, Cheltenham, UK 2005, ISBN 1-84376-394-X, S. 332.
  34. Olivier J. Blanchard, Lawrence H. Summers: Hysteresis and the European Unemployment Problem. In: NBER Macroeconomics Annual. Band 1, Januar 1986, ISSN 0889-3365, S. 15–78, doi:10.1086/654013 (uchicago.edu [abgerufen am 18. August 2022]).
  35. Assar Lindbeck: The insider-outsider theory of employment and unemployment. MIT Press, Cambridge, Mass. 1988, ISBN 0-262-12139-5.
  36. David Romer: Advanced macroeconomics. 3rd ed Auflage. McGraw-Hill, Boston, Mass. 2006, ISBN 0-07-287730-8, S. 468.
  37. Brian Snowdon: Modern macroeconomics : its origins, development and current state. E. Elgar, Cheltenham, UK 2005, ISBN 1-84376-394-X, S. 335.
  38. Richard T. Froyen: Macroeconomics, theories and policies. 3rd ed Auflage. Macmillan, New York 1990, ISBN 0-02-339482-X, S. 356.
  39. David Romer: Advanced macroeconomics. 3rd ed Auflage. McGraw-Hill, Boston, Mass. 2006, ISBN 0-07-287730-8, S. 448.
  40. Carl Shapiro, Joseph E. Stiglitz: Equilibrium Unemployment as a Worker Discipline Device. In: The American Economic Review. Band 74, Nr. 3, 1984, ISSN 0002-8282, S. 433–444, JSTOR:1804018.
  41. Christopher J. Erceg, Dale W. Henderson, Andrew T. Levin: Optimal monetary policy with staggered wage and price contracts. In: Journal of Monetary Economics. Band 46, Nr. 2, 1. Oktober 2000, ISSN 0304-3932, S. 281–313, doi:10.1016/S0304-3932(00)00028-3 (sciencedirect.com [abgerufen am 16. Oktober 2021]).
  42. Frank Smets, Rafael Wouters: An Estimated Stochastic Dynamic General Equilibrium Model of the Euro Area. ID 358102. Social Science Research Network, Rochester, NY 1. August 2002 (ssrn.com [abgerufen am 16. Oktober 2021]).
  43. Camilo E. Tovar: DSGE Models and Central Banks. In: Economics. Band 3, Nr. 1, 1. Dezember 2009, ISSN 1864-6042, S. 20090016, doi:10.5018/economics-ejournal.ja.2009-16 (degruyter.com [abgerufen am 16. Oktober 2021]).
  44. Frank Smets, Raf Wouters: An Estimated Dynamic Stochastic General Equilibrium Model of the Euro Area. In: Journal of the European Economic Association. Band 1, Nr. 5, 1. September 2003, ISSN 1542-4766, S. 1123–1175, doi:10.1162/154247603770383415.
  45. Frank Smets, Rafael Wouters: Shocks and Frictions in US Business Cycles: A Bayesian DSGE Approach. In: American Economic Review. Band 97, Nr. 3, 1. Mai 2007, ISSN 0002-8282, S. 586–606, doi:10.1257/aer.97.3.586 (aeaweb.org [abgerufen am 16. Oktober 2021]).
  46. Lawrence J. Christiano, Martin Eichenbaum, Charles L. Evans: Nominal Rigidities and the Dynamic Effects of a Shock to Monetary Policy. In: Journal of Political Economy. Band 113, Nr. 1, Februar 2005, ISSN 0022-3808, S. 1–45, doi:10.1086/426038 (uchicago.edu [abgerufen am 16. Oktober 2021]).
  47. Huw David Dixon: New Keynesian Macroeconomics. In: The New Palgrave Dictionary of Economics. Palgrave Macmillan UK, London 2016, ISBN 978-1-349-95121-5, S. 1–8, doi:10.1057/978-1-349-95121-5_2401-1 (springer.com [abgerufen am 16. Oktober 2021]).
  48. Olivier Blanchard, Jordi Galí: Labor Markets and Monetary Policy: A New Keynesian Model with Unemployment. In: American Economic Journal: Macroeconomics. Band 2, Nr. 2, 1. April 2010, ISSN 1945-7707, S. 1–30, doi:10.1257/mac.2.2.1 (aeaweb.org [abgerufen am 16. Oktober 2021]).
  49. Jonathan Benchimol, André Fourçans: Money and risk in a DSGE framework: A Bayesian application to the Eurozone. In: Journal of Macroeconomics (= Has macro progressed?). Band 34, Nr. 1, 1. März 2012, ISSN 0164-0704, S. 95–111, doi:10.1016/j.jmacro.2011.10.003 (sciencedirect.com [abgerufen am 16. Oktober 2021]).
  50. Jonathan Benchimol: Money in the Production Function: A New Keynesian DSGE Perspective. In: Southern Economic Journal. Band 82, Nr. 1, 2015, ISSN 0038-4038, S. 152–184, JSTOR:44114325.
  51. Richard Clarida, Jordi Gali, Mark Gertler: The Science of Monetary Policy: A New Keynesian Perspective. w7147. National Bureau of Economic Research, Cambridge, MA Mai 1999, S. w7147, doi:10.3386/w7147 (nber.org [PDF; abgerufen am 16. Oktober 2021]).
  52. Li-gang Liu, Wenlang Zhang: A New Keynesian model for analysing monetary policy in Mainland China. In: Journal of Asian Economics. Band 21, Nr. 6, 1. Dezember 2010, ISSN 1049-0078, S. 540–551, doi:10.1016/j.asieco.2010.07.004 (sciencedirect.com [abgerufen am 16. Oktober 2021]).
  53. Jordi Galí: The New-Keynesian Approach to Monetary Policy Analysis: Lessons and New Directions. In: The Science and Practice of Monetary Policy Today: The Deutsche Bank Prize in Financial Economics 2007. Springer, Berlin, Heidelberg 2010, ISBN 978-3-642-02953-0, S. 9–19, doi:10.1007/978-3-642-02953-0_2.
  54. Kai Leitemo, Ulf Söderström: ROBUST MONETARY POLICY IN THE NEW KEYNESIAN FRAMEWORK. In: Macroeconomic Dynamics. Band 12, S1, April 2008, ISSN 1469-8056, S. 126–135, doi:10.1017/S1365100507070058 (cambridge.org [abgerufen am 16. Oktober 2021]).
  55. Olivier Blanchard, Jordi Galí: Real Wage Rigidities and the New Keynesian Model. In: Journal of Money, Credit and Banking. Band 39, 18. Januar 2007, S. 35–65, doi:10.1111/j.1538-4616.2007.00015.x (wiley.com [abgerufen am 16. Oktober 2021]).
This article is issued from Wikipedia. The text is licensed under Creative Commons - Attribution - Sharealike. Additional terms may apply for the media files.