pobierz artykuł

Transkrypt

pobierz artykuł
Adam P. Balcerzak
Uniwersytet Mikołaja Kopernika w Toruniu
Współczesna polityka
stabilizacyjna wobec problemów
informacyjnej nieefektywności
decydentów gospodarczych:
przypadek Stanów Zjednoczonych
1. Wprowadzenie
Osiągniecie wysokiej efektywności w zakresie stabilizacji inflacji i produktu
krajowego stanowi jeden z najważniejszych celów polityki gospodarczej. Zdolność do realizacji tego celu w wyniku określonych aktywnych działań, bądź ich
zaniechania, jest obecnie uważana za główny wkład władz monetarnych oraz
fiskalnych w podniesienie dobrobytu społecznego obywateli. Powyższe stwierdzenia od lat nie budzą najmniejszych kontrowersji ani wśród teoretyków, ani
ekonomistów odpowiadających za prowadzoną politykę gospodarczą. Jednakże
w ciągu ostatnich dekad głównym przedmiotem kontrowersji teoretycznych
i praktycznych były mechanizmy osiągnięcia tego celu oraz kwestia podziału
odpowiedzialności w odniesieniu do działań stabilizacyjnych pomiędzy władze
monetarne i fiskalne. Już niemal od ponad trzech dekad kwestie te stanowią powody ważnych podziałów w środowisku makroekonomistów.
W niniejszej pracy zostały poruszone dwa problemy badawcze. Po pierwsze,
podjęto próbę odpowiedzi na pytanie o kształt współczesnej powszechnie akceptowanej „stosowanej” polityki stabilizacyjnej. Drugim celem opracowania jest
ukazanie czynników związanych z zagrożeniami wynikającymi z nieefektywno-
182
Adam P. Balcerzak
ści informacyjnej decydentów gospodarczych, które mogą utrudniać prowadzenie efektywnej polityki stabilizacyjnej, a które często wydają się bagatelizowane. Ma to podstawy w coraz powszechniejszym zaufaniu ekonomistów do ich
rosnących zdolności efektywnego przetwarzania informacji.
2. Istota współczesnej polityki stabilizacyjnej
Druga połowa XX w. stanowiła okres niemalże fundamentalnych przemian
w makroekonomii. Do połowy lat 70. można było mówić o bezwzględnej dominacji keynesowskiego konsensusu, opartego na pozbawionym oczekiwań hicksowskim modelu IS-LM uzupełnionym przez krótkookresową krzywą Phillipsa oraz
regułę Okuna. Na mocy tych modeli uznawano, że zarówno polityka monetarna
jak i fiskalna mogą stanowić efektywne narzędzie stabilizacji makroekonomicznej.
Jednakże w obliczu stagflacji lat 70. nastąpił upadek ortodoksji keynesowskiej1.
Rozpoczął się okres szybkiej ekspansji monetaryzmu. Kolejną fundamentalną
zmianą była rewolucja racjonalnych oczekiwań dająca podstawy do rozwoju nowej ekonomii klasycznej oraz jej modyfikacji utożsamianej ze szkołą realnego
cyklu koniunkturalnego. Poważnego znaczenia nabrały różnice w poglądach dotyczących efektywności stabilizacyjnej zarówno w odniesieniu do polityki fiskalnej
i monetarnej, jak i podstawowych fundamentów efektywnej polityki gospodarczej.
Z kolei już we wczesnych latach 80., w wyniku istotnych problemów z empiryczną weryfikacją wniosków płynących z teorii formowanej przez nowych klasyków,
nastąpił szybki rozwój i umacnianie się nowej ekonomii keynesistowskiej2. Mimo
1
Stagflacja przede wszystkim podważyła założenia krzywej Phillipsa, gdyż dostarczyła empirycznego potwierdzenia dla oczekiwanego przez Miltona Friedmana oraz Edmunda Phelpsa jej
załamania. Stanowiła ona także teoretyczne potwierdzenie dla pionowej lub nawet nachylonej
dodatnio długookresowej zależności między inflacją a bezrobociem, będącej skutkiem wykorzystania krótkookresowej krzywej Phillipsa w praktyce gospodarczej. Ta długookresowa zależność
jest obecnie określana jako krzywa Phillipsa wsparta oczekiwaniami (adaptacyjnymi według Miltona
Friedmana lub racjonalnymi według nowych klasyków, które determinują tempo reakcji mikropodmiotów oraz stopień podatności na iluzję pieniężną warunkującą wystąpienie krótkookresowej
krzywej Phillipsa), czy też długookresową krzywą Phillipsa. Zob. B. Snowdon, H. Vane, P. Wynarczyk, Współczesne nurty teorii makroekonomii, Wydawnictwo Naukowe PWN, Warszawa 1998,
s. 164–174. Według keynesistów efektywną odpowiedzią na ekspansję friedmanowskiego modelu
długookresowej krzywej Phillipsa, a wraz z nią koncepcji naturalnej stopy bezrobocia, była koncepcja NAIRU, która stanowiła połączenie krótkookresowej krzywej Phillipsa oraz prawa Okuna.
Federal Reserve Bank of Cleveland, Theory Ahead of Rhetoric: Economic Policy for a „New
Economy”, 1999 Annual Report, s. 10.
2
Kwestią dyskusyjną nadal pozostaje, na ile stanowi ona powrót do pierwotnej tradycji keynesowskiej. Zob. A. Wojtyna, Ewolucja keynesizmu a główny nurt ekonomii, Wydawnictwo Naukowe
PWN, Warszawa 2000.
Współczesna polityka stabilizacyjna…
183
że wielu ekonomistów zgadza się z podejściem eklektycznym, a także mimo rosnącej liczby modeli, w których to podejście jest wykorzystywane, podziały te są
cały czas silne w ramach ekonomii głównego nurtu3. W tym kontekście ekonomiści bardzo często zadają sobie pytanie: czy w konfrontacji z tym dynamicznym rozwojem, ewolucją oraz silnymi podziałami w ramach makroekonomii
można obecnie mówić o jakimkolwiek rdzeniu teoretycznym w sensie Lakatosa,
który powinien być uznawany za podstawę współczesnej polityki stabilizacyjnej,
czy też polityki gospodarczej stosowanej w praktyce?
Przed dziesięciu laty powyższy problem był przedmiotem rozważań panelu,
w skład którego wchodzili Oliver Blanchard, Alan Blinder, Marc Eichenbaum,
Robert Solow oraz John Taylor. Według tych ekonomistów istnieje wiele szczegółowych kwestii, które są przedmiotem poważnych sporów teoretycznych lub
nie są w ogóle rozwiązane. Jednakże wszyscy ci ekonomiści dali jednoznacznie
pozytywną odpowiedź na powyższe postawione im pytanie.
Paradoksalnie mimo bardzo burzliwych zmian w makroekonomii, które tylko zasygnalizowano powyżej4, według Oliviera Blancharda rdzeń praktycznie
stosowanej polityki gospodarczej jest cały czas bliski podejściu zaproponowanemu przed czterdziestu laty przez Paula Samuelsona w ramach tzw. neoklasycznej syntezy. Podejście to opierało się na dwóch propozycjach: a) w krótkim
horyzoncie czasowym zmiany aktywności gospodarczej są głównie efektem
zmian zagregowanego popytu5; b) w dłuższym horyzoncie czasowym gospodarka powraca do długookresowej stabilnej ścieżki wzrostu6. Razem te dwie propozycje umożliwiają kompleksową charakterystykę efektów szoków gospodarczych oraz makroekonomicznej polityki. W krótkim okresie większy deficyt
budżetowy może zwiększać produkt oraz inwestycje, lecz w długim okresie prowadzi on do ograniczenia kapitału i produktu. W krótkim okresie wzrost podaży
pieniądza może zwiększać produkt, ale w długim horyzoncie czasowym jest
znacznie bardziej prawdopodobne, że wpłynie na jego zmniejszenie7. Analogicznie według Roberta Solowa w większości wysoko rozwiniętych krajów kapitalistycznych realny produkt oscyluje wokół rosnącego trendu. Rdzeniem
3
Zob. B. Snowdon, H. Vane, P. Wynarczyk, op. cit.
Ich bardziej szczegółowe omówienie jest niemożliwe ze względu na ograniczenia edytorskie
niniejszej pracy.
5
Co może być cały czas analizowane z wykorzystaniem filozofii wspornego hickowskiego
modelu IS-LM.
6
Co mimo rozwoju teorii endogenicznego wzrostu gospodarczego jest cały czas głównie modelowane z wykorzystaniem podejścia zaproponowanego przez Roberta Solowa.
7
Według Oliviera Blancharda te międzyokresowe zmiany kierunków oddziaływania poszczególnych instrumentów polityki gospodarczej stanowią główny powód tego, że prowadzenie makroekonomicznej polityki gospodarczej jest tak trudne oraz często kontrowersyjne. O. Blanchard,
Is There a Core of Usable Macroeconomics?, „American Economic Review” 1997, vol. 87, nr 2,
s. 244.
4
184
Adam P. Balcerzak
„praktycznej” makroekonomii jest podejście, według którego przesunięcia trendu są zdeterminowane przez czynniki podażowe (dostępność czynników produkcji
oraz ogólna produktywność czynników produkcji). Tym samym właściwym narzędziem do analizy trendu są różnego rodzaju modele wzrostu gospodarczego.
Natomiast oscylacje wokół tego trendu są głównie efektem zagregowanych impulsów popytowych, które powinny być analizowane z wykorzystaniem modeli
uwzględniających różne źródła wydatków8. Także John Taylor akceptuje podejście zbliżone do modelu neoklasycznej syntezy, w którym według niego satysfakcjonującym narzędziem analizy długookresowych zmian potencjalnego PKB
może być np. model Solowa. Należy do tego dodać brak długookresowej wymienności między stopą inflacji oraz stopą bezrobocia, jednak z zachowaniem
krótkookresowej krzywej Phillipsa, założenia o reakcji oczekiwań ludzi na zmiany
w polityce monetarnej oraz fiskalnej. Ponadto według Johna Taylora ostateczną
zasadą, która stanowi rdzeń powszechnie akceptowanej makroekonomicznej polityki stabilizacyjnej, jest przyjęcie, że ocena polityki fiskalnej i monetarnej nie
może być dokonywana przez pryzmat pojedynczej, odizolowanej zmiany instrumentu, lecz powinna być dokonywana jako seria zmian połączonych w systematyczny proces lub połączonych określoną regułą prowadzonej polityki9.
Uzupełnieniem tych uwag jest także propozycja Alana Blindera, według którego podstawowy model współczesnej polityki stabilizacyjnej składa się z czterech komponentów: a) w krótkim okresie ceny i płace są w zasadzie dane z góry
oraz ewoluują zgodnie z równaniami krzywych Phillipsa; b) w krótkim okresie
produkt jest zdeterminowany przez stronę popytową; c) zagregowany popyt odpowiada bezpośrednio na impulsy fiskalne oraz reaguje na zmiany stóp procentowych, co czyni go wrażliwym na impulsy ze strony polityki monetarnej, która
odpowiada za poziom krótkookresowych stóp procentowych; d) prawo Okuna
łączy wzrost produktu ze zmianami w stopie bezrobocia10.
Na silne ugruntowanie w świadomości decydentów gospodarczych oraz aktualność scharakteryzowanych powyżej elementów modelu konwencjonalnej
polityki stabilizacyjnej wskazują także ekonomiści Federal Reserve Bank of
Cleveland oraz Marvin Goodfriend11. Na tej podstawie na rys. 1 został przed8
R.M. Solow, Is There a Core of Usable Macroeconomics We Should All Believe in?,
„American Economic Review” 1997, vol. 87, nr 2, s. 230.
9
J.B. Taylor, A Core of Practical Macroeconomics, „American Economic Review” 1997,
vol. 87, nr 2, s. 233–235.
10
A.S. Blinder, Is There a Core of Practical Macroeconomics That We Should All Believe?,
„American Economic Review” 1997, vol. 87, nr 2, s. 241.
11
Federal Reserve Bank of Cleveland, Theory Ahead of Rhetoric: Measurement and the „New
Economy”, 2000 Annual Report, s. 9; Federal Reserve Bank of Cleveland, Theory Ahead of Rhetoric: Economic…; M. Goodfriend, The Monetary Policy Debate Since October 1979: Lessons for
Theory and Practice, „Federal Reserve Bank of St. Louis Review” 2005, vol. 87, nr 2, cz. 2,
s. 243–262.
Współczesna polityka stabilizacyjna…
185
stawiony uproszony schemat współczesnej konwencjonalnej i niebudzącej większych kontrowersji polityki stabilizacyjnej będącej podstawą polityki gospodarczej.
Rys. 1. Konwencjonalna polityka stabilizacyjna w praktyce gospodarczej
Źródło: Federal Reserve Bank of Cleveland, Theory Ahead of Rhetoric: Measurement…
Z perspektywy polityki monetarnej powyższy schemat można interpretować
następująco. Średnio- lub długookresowe dopuszczanie do utrzymywania się
inflacyjnej luki PKB, a więc sytuacji, w której realny PKB przewyższa potencjalny PKB, jest początkowo źródłem presji inflacyjnej, która przy braku reakcji
władz monetarnych w postaci zacieśnienia polityki pieniężnej przerodzi się
w inflację. Z drugiej strony w sytuacji wystąpienia recesyjnej luki Okuna pojawiają się naciski na władze monetarne oraz oczekiwania12, aby te prowadziły
łagodniejszą politykę monetarną, która stymulowałaby aktywność gospodarczą
i pozwalała na zbliżenie się realnego PKB do jego poziomu potencjalnego13.
Jednakże w ramach powyższego uproszczonego schematu należy także pamiętać o podstawowych zasadach sprzyjających efektywności polityki pieniężnej, które zostały wypracowane w ciągu ostatnich pięćdziesięciu lat. Frederic
Mishkin przytacza dziewięć takich fundamentalnych zasad: 1) w średnim i dłuższym okresie inflacja jest zawsze zjawiskiem monetarnym; 2) stabilność cen jest
12
Oczywiście wspomniane naciski i oczekiwania pojawiają się w ramach systemu instytucjonalnego gwarantującego określony poziom niezależności władz monetarnych, która stanowi obecnie jeden z fundamentów bankowości centralnej w krajach wysoko rozwiniętych.
13
Federal Reserve Bank of Cleveland, Theory Ahead of Rhetoric: Measurement…, s. 9.
186
Adam P. Balcerzak
źródłem ważnych korzyści; 3) nie istnieje długookresowa wymienność między
bezrobociem a inflacją; 4) oczekiwania odgrywają główną rolę w kształtowaniu
procesów inflacyjnych oraz wpływają na mechanizm transmisji impulsów monetarnych; 5) akceptacja dla reguły Taylora, zgodnie z którą działania antyinflacyjne
wymagają podnoszenia realnych, a nie tylko nominalnych stóp procentowych;
6) polityka monetarna jest narażona na zjawisko dynamicznej niespójności
w czasie; 7) czynnikiem wpływającym na podniesienie efektywności polityki
monetarnej jest niezależność banku centralnego; 8) rośnie znaczenie polityki
bezpośredniego celu inflacyjnego; 9) kryzysy na rynkach finansowych odgrywają silną rolą w kształtowaniu cyklów koniunkturalnych14. Większość z tych zasad była już także explicite akcentowana lub implicite akceptowana przez Alana
Blindera15, Oliviera Blancharda16, Martina Eichenbauma17, Roberta Solowa18 oraz
Johna Taylora19.
Antycykliczny i stabilizacyjny charakter polityki fiskalnej sprowadza się do
postulatu prowadzenia restrykcyjnej polityki fiskalnej nakierowanej na gromadzenie nadwyżek budżetowych w okresie pojawiania się inflacyjnej luki PKB
oraz ekspansji fiskalnej w wypadku wystąpienia luki Okuna. W tym miejscu należy jednak podkreślić, że badania rozwijane w ramach współczesnej ekonomii
politycznej dowodzą, iż w praktyce polityki gospodarczej pojawia się najczęściej
co najwyżej ta druga prawidłowość20. Jak podkreśla Alberto Alesina, w demokratycznych gospodarkach wysoko rozwiniętych rzadko kiedy można mówić
o restrykcyjnych działaniach władz fiskalnych skutkujących pojawieniem się
14
Warto zauważyć, że niemal wszystkie te zasady zostały wypracowana na gruncie tradycyjnej argumentacji nurtów antyetatystycznych. Ponadto według Frederica Mishkina w pewnych warunkach można dopuszczać naruszenie tych „naukowych” zasad, co określa on jako element koniecznego „artyzmu” w prowadzeniu polityki monetarnej. Jako przykład podaje kryzys na rynku
komercyjnych nieruchomości, który miał miejsce pod koniec lat 80. XX w., i ewidentne złamanie
reguły Taylora w tym czasie, co służyło zwiększeniu płynności rynków finansowych w okresie
kryzysu. Warto także zauważyć, że Rezerwa Federalna zachowała się analogicznie w czasie kryzysu na rynku ryzykownych pożyczek hipotecznych (subprime) na początku 2008 r. Kolejnym takim
przykładem według Frederica Mishkina był brak reakcji władz monetarnych na oznaki przegrzania
się gospodarki w drugiej połowie lat 90. XX w. w czasie pierwszego bumu związanego z rozwojem nowej gospodarki. Wynikało to z gwałtownego przyspieszenia tempa wzrostu produktywności
pracy. Zostanie to szczegółowo przeanalizowane w następnym punkcie. Zob. F.S. Mishkin, Will
Monetary Policy Become More of a Science?, „NBER Working Paper Series” 2007, Working Paper
13566, October.
15
A.S. Blinder, op. cit., s. 240–243.
16
O. Blanchard, op. cit., s. 244–246.
17
M. Eichenbaum, Some Thoughts on Practical Stabilization Policy, „American Economic
Review” 1997, vol. 87, nr 2, s. 236–239.
18
R.M. Solow, op. cit., s. 230–232.
19
J.B. Taylor, A Core…, s. 233–235.
20
Co może być jednym ze źródeł często spotykanej asymetryczności polityki fiskalnej.
Współczesna polityka stabilizacyjna…
187
nadwyżek budżetowych lub znaczącą redukcją deficytu budżetowego, które byłyby związane z chęcią celowego ograniczenia zagregowanego popytu dla ustabilizowania przegrzanej gospodarki. Z reguły pojawiające się wysokie wpływy
budżetowe oraz ewentualne nadwyżki budżetowe mają charakter endogeniczny,
nie są natomiast efektem dyskrecjonalnego antycyklicznego i stabilizacyjnego
działania rządu21. Natomiast silne restrykcje fiskalne pojawiają się zazwyczaj ze
względu na konieczność naprawy, czy chociażby ustabilizowania finansów publicznych państwa, których zły stan stanowi zagrożenie dla długookresowego
wzrostu gospodarczego.
Innym ważnym dobrze rozpoznanym czynnikiem ograniczającym efektywność polityki fiskalnej w zakresie stabilizacji produktu są opóźnienia czasowe związane z długotrwałym procesem politycznym i legislacyjnym. Mimo
powszechnego występowania automatycznych stabilizatorów wysoka efektywność polityki fiskalnej w zakresie działań antycyklicznych wymagałaby ponadto
zdolności do generowania szybkich i odpowiednio adresowanych bodźców
popytowych. Tymczasem Stephen Cecchetti podkreśla, że nie zna żadnego
rządu dysponującego ex ante propopytowymi rozwiązaniami legislacyjnymi
będącymi przedmiotem powszechnego konsensusu, które można by szybko
wprowadzić w wypadku wystąpienia recesji. Ponadto ze względu na strukturalną transformację gospodarki oraz zmieniający się skład demokratycznie
wybieranych władz tego typu rozwiązanie byłoby ekonomicznie niepożądane
oraz niewykonalne politycznie 22. W tej sytuacji stworzenie rozwiązań prawnych skutkujących bodźcami popytowymi zajmuje w najbardziej sprzyjających
okolicznościach kilka miesięcy. Oznacza to, że są one zazwyczaj uruchamiane
oraz zaczynają działać, gdy gospodarka samoczynnie zdążyła dostosować się
już do ujemnego szoku. Rozwiązania te są również zazwyczaj adresowane do
szerszego grona osób, niż byłoby to ekonomicznie uzasadnione, co oczywiście
podnosi ich koszt. Ponadto w wyniku obecnie obserwowanej globalnej transformacji systemu gospodarczego można mówić o rosnącej elastyczności większości gospodarek średnio i wysoko rozwiniętych, co przekłada się na ich wyższe tempo dostosowań do szoków podażowych. Zjawisko to w sposób bardzo
istotny zwiększa negatywny wpływ powyższych tradycyjnych opóźnień polityki fiskalnej związanych z powolnym procesem politycznym i legislacyjnym
oraz mechanizmem transmisji fiskalnej. Z tych powodów obecnie przyjmuje
się, że polityka stabilizacyjna jest głównie prowadzona w wyniku stosowania
narzędzi polityki monetarnej, podczas gdy polityka fiskalna powinna być ra21
A. Alesina, The Political Economy of the Budget Surplus in the U.S., „Journal of Economic
Perspectives” 2000, vol. 14, nr 3, s. 3–19.
22
S.G. Cecchetti, The New Economy and the Challenges for Macroeconomic Policy, „NBER
Working Paper Series” 2002, Working Paper 8935, May.
188
Adam P. Balcerzak
czej wykorzystywana jako narzędzie służące tworzeniu podstaw dla długookresowego wzrostu gospodarczego23.
Zgodnie z powyższym Martin Eichenbaum, komentując fundamenty teoretyczne współczesnej polityki stabilizacyjnej, kategorycznie stwierdził, że: „W przeciwieństwie do poglądów dominujących we wczesnych latach sześćdziesiątych
XX w., obecnie został wypracowany powszechnie akceptowany konsensus, zgodnie z którym antycykliczna dyskrecjonalna polityka fiskalna nie jest ani pożądana, ani możliwa do realizacji ze względów politycznych. Praktyczna debata
wokół polityki stabilizacyjnej obraca się prawie wyłącznie wokół polityki monetarnej”24.
3. Reguły polityki monetarnej jako element efektywnej
polityki stabilizacyjnej
W tradycyjnej literaturze antyetatystycznej badano takie endogeniczne czynniki ograniczające efektowność scharakteryzowanej powyżej polityki stabilizacyjnej, jak opóźnienia czasowe w mechanizmach transmisji monetarnej, efekty
wypychania, wpływ oczekiwań racjonalnych bądź adaptacyjnych, konsekwencje
oczekiwań inflacyjnych oraz przyczyny nieefektywności dyskrecjonalnych działań władz gospodarczych w kontekście zjawiska niespójności w czasie25. Jak
wynika z przytaczanych powyżej uwag Frederica Mishkina, argumentacja ta została obecnie zaakceptowana przez polityków gospodarczych. Jest to szczególnie
widoczne w odniesieniu do władz monetarnych. W związku z tym w toku dalszego wywodu analiza będzie się koncentrować na innych elementach, które nabrały szczególnego znaczenia oraz były coraz częściej dyskutowane w ostatnich
latach w związku z rosnącym tempem zmian strukturalnych gospodarek wysoko
rozwiniętych, stanowiących konsekwencje rewolucji teleinformacyjnej oraz globalizacji.
23
Ibidem.
M. Eichenbaum, op. cit., s. 236. Warto jednak pamiętać, że nawet jeżeli władze fiskalne nie
prowadzą regularnej polityki stabilizacyjnej, w przypadku wystąpienia relatywnie dużej luki recesyjnej lub choćby w przypadku pojawienia się wysokiego prawdopodobieństwa wystąpienia silnej
recesji, uniwersalną prawidłowością są pojawiające się naciski polityczne i „społeczne” na wykorzystanie narzędzi fiskalnych dla celów stabilizacyjnych, którym decydenci kontrolujący politykę
fiskalną często ulegają. Dzieje się tak mimo powszechnej świadomości niskiej efektywności stabilizacyjnej narzędzi fiskalnych.
25
A. Lipowski, Ekonomiczna zawodność państwa – krytyczna analiza ujęcia antyetatystycznego, „Ekonomista” 2002, nr 2, s. 170; A. Wojtyna, Nowoczesne państwo kapitalistyczne a gospodarka. Teoria i praktyka, PWN, Warszawa 1990, s. 55–98.
24
Współczesna polityka stabilizacyjna…
189
Wracając do modelu konwencjonalnej makroekonomicznej polityki stabilizacyjnej przedstawionego na rys. 1 w odniesieniu do polityki pieniężnej, można
stwierdzić, że w ramach tego schematu analitycznego w ostatnich latach szczególnie dużego znaczenia nabrały reguły polityki monetarnej odpowiadające na
zmiany inflacji oraz poziomu aktywności gospodarczej, które opierają się na relacji bieżącej aktywności gospodarczej do potencjalnego poziomu produktu przy
pełnym wykorzystaniu czynników produkcji. Jest to jednoznaczne z koncentracją na analizie wielkości luki PKB z rys. 126. Według Johna Taylora, który zaproponował jedną z najpopularniejszych w ostatnich latach reguł tego typu 27,
jasne reguły stanowią fundament współczesnej bankowości centralnej zarówno
w przypadku krajów wyrażających explicite swój bezpośredni cel inflacyjny28,
jak i przyjmujących go implicite29. Reguły pozwalają na wystarczającą elastyczność prowadzącą do stabilizacji produktu bez groźby rozbudzenia inflacji. Jednocześnie gwarantują one zachowanie dyscypliny uniemożliwiającej dyskrecjonalne działania skutkujące niespójnością w czasie30. Zgadza się z tym poglądem
26
A. Orphanides, The Quest for Prosperity Without Inflation, „Journal of Monetary Economics”
2003, vol. 50, s. 635.
27
John Taylor zaproponował opis polityki monetarnej Rezerwy Federalnej z drugiej połowy
lat 80. i początku lat 90. XX w. w oparciu o regułę, gdzie w funkcji reakcji stopy procentowej zostały uwzględnione zarówno odchylenia realnego PKB od jego wartości nominalnej jak i poziom
cen według następującego równania: r  p  5 y  5 p  2  2, gdzie r to stopa rezerwy federalnej,
p – poziom inflacji z poprzednich czterech kwartałów, y – odchylenie realnego poziomu PKB od
jego wartości nominalnej, a więc y  100 (Y  Y * ) / Y * , gdzie Y to poziom realnego PKB, Y* –
trend GDP, co dla lat 1984–1992 wynosiło 2,2% rocznie. Tak sformułowana reguła polityki monetarnej oznacza, że Rezerwa Federalna podnosiła stopę procentową, jeżeli stopa inflacji przekroczyła cel równy 2% lub gdy realny PKB znalazł się powyżej potencjalnego PKB. Jeżeli zarówno inflacja jak i realny PKB były zgodne z celem, wówczas stopa rezerwy federalnej równa się 4% lub
2% według wartości realnej. Wykorzystanie stopy inflacji z czterech poprzednich kwartałów po
prawej stronie równania wskazywało, że reguła polityki monetarnej bazowała na wartościach realnych z opóźnioną stopą inflacji służącą jako przybliżenie dla inflacji oczekiwanej. 2-procentowa
wartość realnej stopy „równowagi” była zbliżona do zakładanego zrównoważonego wzrostu stopy
wynoszącego 2,2%. Powyższa reguła miała takie same zmienne dla odchyleń realnego PKB
zarówno od trendu, jak i stopy inflacji. J.B. Taylor, Discretion Versus Policy Rules in Practice,
Carnegie-Rochester Conference Series on Public Policy, 1993, vol. 39, s. 202.
28
Syntetyczną analizę najważniejszych elementów polityki bezpośredniego celu inflacyjnego
banku centralnego można znaleźć w pracy Krzysztofa Rybińskiego: Globalizacja w trzech odsłonach. Offshoring – globalne nierównowagi – polityka pieniężna, Diffin, Warszawa 2007, s. 256–
261. Bardzo bogate rozważania w tej materii zawarte są natomiast w książce Andrzeja Wojtyny:
Szkice o polityce pieniężnej, PWE, Warszawa 2004.
29
Podobna uwaga Frederica Mishkina została przytoczona w poprzednim punkcie.
30
Zob. J.B. Taylor, The Robustness and Efficiency of Monetary Policy Rules as Guidelines for
Interest Rate Setting by the European Central Bank, „Journal of Monetary Economics” 1999, vol. 43,
nr 3, s. 655–697. Zgodnie z koncepcją niespójności w czasie dyskrecjonalna polityka gospodarcza,
która nie jest związana z jasnymi i długookresowymi celami, prowadzi do kontrefektywnych rezultatów gospodarczych. W związku z istnieniem dynamicznych racjonalnych oczekiwań podmio-
190
Adam P. Balcerzak
Athanasios Orphanides, według którego współcześnie stosowane reguły polityki
pieniężnej, w szczególności te oparte na regule Taylora, pozwalają na uchwycenie trzech powszechnie uznawanych elementów dobrej polityki gospodarczej:
gwarantują silną systematyczną odpowiedź na pojawiające się zjawiska inflacyjne, zapewniają antycykliczny element polityki w kontekście cyklu koniunkturalnego, rozwiązują problem opóźnień czasowych związanych z mechanizmem
transmisji monetarnej dzięki wykorzystywaniu prognoz inflacji oraz poziomu
bezrobocia jako wskaźników stanu aktywności gospodarczej31. Poza tym według
Krzysztofa Rybińskiego jasne reguły przyczyniają się do wzrostu czytelności
i przewidywalności działań banku centralnego dla sektora prywatnego, co jest
obecnie traktowane jako ważny element stabilizacji oczekiwań inflacyjnych,
a tym samym stabilizacji samej inflacji32. W konsekwencji uznaje się, że polityka monetarna uwzględniająca regułę Taylora spełnia lub jest bliska spełnienia
kryteriów optymalnej polityki gospodarczej w przypadku zarówno relatywnie
skomplikowanych modeli polityki gospodarczej, jak i modeli względnie prostych. Spełnia warunki optymalnej polityki monetarnej dla poszczególnych krajów Europy, a także w znacznej mierze Europejskiego Banku Centralnego33, jak
również dla Stanów Zjednoczonych34.
Stosowanie reguł polityki monetarnej może rzeczywiście rozwiązywać powyższe tradycyjne, dobrze rozpoznane źródła nieefektywności polityki stabilizacyjnej. Jednakże efektywność takich działań stabilizacyjnych cały czas uzależniona jest od trzech elementów: a) względnie dobrej oceny aktualnego stanu
tów gospodarczych, krótkookresowa polityka gospodarcza, która indywidualnie w oderwaniu od
oczekiwań wydaje się optymalna w krótkim czasie, staje się nieoptymalna w długim horyzoncie
czasowym.
31
A. Orphanides, Monetary-Policy Rules and the Great Inflation, „American Economic
Review” 2002, vol. 92, nr 2, s. 116.
32
Pogląd o silnym wpływie efektywności komunikacyjnej między bankiem centralnym a rynkami finansowymi oraz przewidywalności działań tego pierwszego jest jednym z istotnych, relatywnie nowych elementów tzw. pryncypiów współczesnej polityki monetarnej. Jeszcze w okresie
szczytowego rozwoju nowej ekonomii klasycznej, przypadającego na przełom lat 70. i 80. XX w.,
przyjmowano, że warunkiem skuteczności polityki pieniężnej jest zdolność banku centralnego do
zaskakiwania rynków i zachowania nieprzewidywalności. Kwestie te są także syntetycznie omówione przez Krzysztofa Rybińskiego. Zob. K. Rybiński, op. cit., s. 247–254.
33
John Taylor przedstawił bardzo obszerną bibliografię badań nad efektywnością reguł polityki monetarnej obejmującą estymowane małe lub kalibrowane modele nieuwzględniające racjonalnych oczekiwań, estymowane lub kalibrowane modele z racjonalnymi oczekiwaniami, modele
optymalizacyjne z reprezentatywnym agentem, duże ekonometryczne modele z racjonalnymi oczekiwaniami oraz badania obejmujące historyczne oraz międzynarodowe porównania. Zob. J.B. Taylor,
The Robustness…, s. 659.
34
Według Gregory’ego Mankiwa polityka monetarna Stanów Zjednoczonych w latach 90. XX w.
może być satysfakcjonująco opisana za pomocą prostej funkcji reakcji uwzględniającej poziom
inflacji bazowej i poziom bezrobocia. Zob. N.G. Mankiw, U.S. Monetary Policy during the 1990s,
„NBER Working Paper Series” 2001, Working Paper 8471, September.
Współczesna polityka stabilizacyjna…
191
gospodarki, a więc oceny położenia gospodarki na krzywej przedstawiającej realny PKB na rys. 1; b) dobrej oceny normalnej trajektorii gospodarki stanowiącej punkt odniesienia dla monetarnych działań stabilizacyjnych, a więc oceny
wysokości potencjalnego PKB; c) efektywnych narzędzi, które pozwalają na
zmniejszenie luki inflacyjnej lub recesyjnej luki Okuna 35. Wynika z tego, że warunkiem brzegowym efektywności stabilizacji makroekonomicznej jest tutaj
bardzo wysoka efektywność informacyjna, konieczna dla spełnienia punktu a i b.
Oczywiste jest, że niespełnienie tych dwóch warunków będzie miało bardzo silne negatywne konsekwencje dla efektywności narzędzi wykorzystywanych
w polityce stabilizacyjnej. W związku z tym dalsza analiza będzie się koncentrować na tych dwóch punktach.
Obecnie warunek a wydaje się relatywnie łatwy do spełnienia ze względu na
możliwość wykorzystania porównań historycznych oraz ekonometrycznej ewaluacji stanu bieżącej aktywności gospodarczej. Jednak w praktyce gospodarczej
nawet w tej kwestii pojawiają się często poważne rozbieżności związane z tzw.
luką rozpoznania (recognition lag), w wyniku której zarówno władze monetarne
oraz fiskalne, jak i analitycy rynkowi często dostrzegają zmiany w poziomie aktywności gospodarczej z kilkumiesięcznym opóźnieniem36. Oprócz tego na tym
etapie kształtowania działań polityki stabilizacyjnej pojawia się jeszcze konieczność uwzględnienia prognoz inflacji i bezrobocia, co jest warunkiem ograniczenia wpływu opóźnień mechanizmów transmisji monetarnej i zachowania efektywności reguły Taylora. Już w tym momencie należy oczekiwać pewnego
wpływu na efektywność polityki gospodarczej błędów prognoz. Tym samym
uwzględniając prognozy zamiast realnych wyników gospodarki, które nie mogą
być znane w chwili podjęcia decyzji o kierunku działań gospodarczych, działania władz monetarnych nieumyślnie mogą odpowiadać na błędy oraz generować
dodatkowe elementy zakłócające w polityce monetarnej37.
Jeszcze większe problemy pojawiają się jednak w kontekście spełnienia warunku b. Ekonomiści są zgodni co do istnienia wartości określanej jako potencjalny PKB, który w praktyce często szacowany jest na podstawie popularnych
procedur ekonometrycznych, jak np. filtr Hodricka-Prescotta38. Jasne jest także,
35
Federal Reserve Bank of Cleveland, Theory Ahead of Rhetoric: Measurement…, s. 10.
Ibidem, s. 9–10. Efektywność banków centralnych w tym zakresie często nie jest znacząco
wyższa niż sektora prywatnego mimo dużo wyższych nakładów środków przeznaczanych przez
banki centralne na analizę stanu aktywności gospodarczej, czemu powszechnie przypisuje się
przewagę informacyjną władz monetarnych nad sektorem prywatnym. K. Rybiński, op. cit., s. 250.
37
A. Orphanides, Monetary-Policy…, s. 116.
38
Zob. J.B. Taylor, Globalization and Monetary Policy: Missions Impossible, NBER Conference
on the International Dimensions of Monetary Policy, Girona, Spain 2007, June 11–13; L. Ball,
R.R. Tchaidze, The Fed and the New Economy, „American Economic Review” 2002, vol. 92, nr 2,
s. 108; J. Gali, The Conduct of Monetary Policy in the Face of Technological Change: Theory and
Postwar U.S. Evidence [w:] Stabilization and Monetary Policy: The International Experience,
36
192
Adam P. Balcerzak
że możliwe są krótkookresowe odchylenia realnego PKB od jego wartości potencjalnej wynikające z zaburzeń w funkcjonowaniu mechanizmu rynkowego
oraz jego pewnych nieefektywności, które powinny być przedmiotem zainteresowania władz gospodarczych39. Jednakże doświadczenia niektórych krajów
wysoko rozwiniętych w ostatnich dekadach ponownie uzmysłowiły, że zmiany
potencjalnego PKB wcale nie mają charakteru relatywnie łatwo estymowalnego
trendu, a same cykliczne wahania mogą być efektem naturalnych zmian aktywności gospodarczej, które nie są konsekwencją nieefektywności mechanizmu
rynkowego40. Najbardziej spektakularnym przykładem tego typu były z jednej
strony nadzwyczajne makroekonomiczne osiągnięcia Stanów Zjednoczonych
w drugiej połowie lat 90. ubiegłego wieku związane z rozwojem nowej gospodarki, z drugiej strony niespodziewane, a zarazem bardzo negatywne wyniki
makroekonomiczne w zakresie stabilizacji produktu i inflacji w okresie stagflacji
lat 70. Oba te, wydawałoby się skrajnie odmienne, przypadki zostaną bardziej
szczegółowo omówione w następnym punkcie.
4. Reguła Taylora a problem obciążenia informacyjnego
decydentów gospodarczych: przypadek Stanów
Zjednoczonych w okresie nowej gospodarki lat 90. XX w.
oraz w czasie stagflacji lat 70. XX w.
Kwestia bieżącego efektywnego szacowania poziomu potencjalnego PKB
oraz problem precyzji dekompozycji PKB na wahania cykliczne aktywności gospodarczej oraz długookresowe przesunięcia trendu, które wynikają np. z wyższej zdolności gospodarki do absorbowania innowacyjnych rozwiązań technologicznych, nabrały wyjątkowego znaczenia w Stanach Zjednoczonych w latach
90. XX w., nazywanych często czasem nowej gospodarki. Okres ten stanowił
najdłuższą i najbardziej spektakularną prosperitę odnotowaną w powojennej historii Stanów Zjednoczonych, która przez niektórych ekonomistów była traktowana jako zjawisko cykliczne, w zasadzie utożsamiane z bąblami spekulacyjnymi na rynkach finansowych41. Z drugiej strony wielu ekonomistów znalazło
Banco de Mexico, Mexico City, Mexico 2000, November 14–15; R.J. Hodrick, E.C. Prescott, Post
War U.S. Business Cycles: An Empirical Investigation, „Journal of Money, Credit and Banking”
1997, vol. 29, nr 1, s. 1–16.
39
Federal Reserve Bank of Cleveland, Theory Ahead of Rhetoric: Measurement…, s. 9–10.
40
Taka możliwość została sformułowana przez twórców szkoły realnego cyklu koniunkturalnego.
41
Por. J.E. Stiglitz, The Roaring Nineties. A New History of the World’s Most Prosperous
Decade, W.W. Norton, New York–London 2003.
Współczesna polityka stabilizacyjna…
193
szereg dowodów potwierdzających tezę, że był to pierwszy etap fundamentalnej
transformacji struktury gospodarczej tego kraju, związany z powszechną proliferacją teleinformatyki jako technologii ogólnego zastosowania oraz zdolności
gospodarki do wykorzystania tego potencjału, co przyczyniło się do podniesienia amerykańskiego potencjalnego PKB42.
W tym czasie głównym przedmiotem debaty nad makroekonomicznymi
pryncypiami polityki stabilizacyjnej amerykańskiego banku centralnego był tzw.
dopuszczalny „limit prędkości” (speed limit), w jakim mogła się rozwijać gospodarka amerykańska43. Według konwencjonalnego modelu omówionego na
rys. 1, od płowy lat 90. XX w. realny PKB przekraczał jego wartość potencjalną,
w związku z czym zgodnie z przyjmowanymi regułami polityki monetarnej, np.
regułą Taylora, należało oczekiwać rozbudzonej presji inflacyjnej, czemu zawczasu powinny przeciwdziałać władze monetarne przez zacieśnienie polityki
monetarnej44.
W omawianym czasie powszechnie akceptowano szacunki NAIRU na poziomie 6–6,5%, podczas gdy w 1997 r. notowany poziom bezrobocia spadł poniżej
5%45. W rezultacie według prognoz Rezerwy Federalnej, jak również prognoz
przygotowywanych przez ekonomistów związanych z prywatnym sektorem finansowym należało oczekiwać przyspieszenia tempa wzrostu inflacji. Mimo to
w wyniku działań przewodniczącego Rezerwy Federalnej Alana Greenspana
władze monetarne nie zdecydowały się na zacieśnienie polityki monetarnej
zgodnej z konwencjonalną polityką stabilizacyjną i powszechnie akceptowanymi
42
Zob. D.W. Jorgenson, M.S. Ho, K.J. Stiroh, A Retrospective Look at the U.S. Productivity
Growth Resurgence, Federal Reserve Bank of New York Staff Report, Staff Report No. 277, 2007,
February; R.D. Atkinson, The Post and Future of America’s Economy. Long Waves of Innovation
That Power Cycles of Growth, Edward Elgar, Washington 2005; W.D. Nordhaus, Productivity
Growth and the New Economy, „Brookings Papers on Economic Activity” 2002, nr 2.
43
Co było jednoznaczne z problemem dotyczącym określenia wielkości potencjalnego PKB.
Zob. D.W. Jorgenson, K.J. Stiroh, Raising the Speed Limit: U.S. Economic Growth in the Information Age, „Brookings Papers on Economic Activity” 2000, nr 1, s. 125–211; L. D’A. Tyson, Old
Economic Logic in the New Economy, „California Management Review” 1999, vol. 41, nr 4,
s. 12–14.
44
Wśród bardziej znanych ekonomistów zwolennikiem tego poglądu był np. Paul Krugman
(zob. P.R. Krugman, America the Boastful, „Foreign Affairs” 1998, May–June; P.R. Krugman,
How Fast Can the U.S. Economy Grow?, „Harvard Business Review” 1997, July–August). Warto
także zwrócić uwagę na szacunki potencjalnego PKB z wykorzystaniem analizy spektralnej i filtra
Hodricka-Prescotta dla gospodarki USA autorstwa Margaret Burke i Michaela Koupartisasa, których analiza przeczyła możliwości zmian w wielkości potencjalnego PKB (zob. M.K. Burke,
M.A. Koupartisas, A New Paradigm for the U.S. Economy?, „The Federal Reserve Bank of Chicago FED Letter” 1998, nr 134).
45
Zob. M. Cox, R. Alm, The New Paradigm, Federal Reserve Bank of Dallas, 1999 Annual
Report, s. 3–5.
194
Adam P. Balcerzak
prognozami46. Powodem takiego działania było dostrzeżenie przez część ekonomistów, wśród których znalazł się Alan Greenspan, istotnego przyspieszenia
tempa wzrostu produktywności pracy związanego z rozwojem nowej gospodarki47. W owym czasie przyspieszenie tempa wzrostu produktywności pracy było
jednoznaczne z podniesieniem poziomu potencjalnego PKB. Wyeliminowało to
presję inflacyjną wynikającą z wysokiego tempa wzrostu gospodarczego i związanego z tym bardzo ciasnego rynku pracy. W tym przypadku stosowanie polityki zgodnej z regułą Taylora oraz akceptowanym modelem polityki stabilizacyjnej z rys. 1 byłoby jednoznaczne z nieuwzględnianiem naturalnych zmian
w systemie gospodarczym, które były związane z wykorzystaniem potencjału
teleinformatyki jako technologii ogólnego zastosowania, skutkującej zwiększeniem tempa wzrostu produktywności pracy. Jej realizacja mogłaby doprowadzić
do wysokich realnych kosztów w zakresie zatrudnienia i dochodu. W rezultacie
koncentracja władz monetarnych wyłącznie na poziomie inflacji i rezygnacja
z działań nastawionych na stabilizację produktu okazała się strategią efektywną48.
Obecnie ekonomiści są zgodni, że powyższy przypadek zmiany tempa wzrostu produktywności pracy w latach 90. ubiegłego wieku, związany z rozwojem,
proliferacją i wyjątkowym wykorzystaniem potencjału nowych rozwiązań teleinformatycznych, może być uznany za lustrzane odbicie strukturalnych zmian zachodzących w gospodarce Stanów Zjednoczonych w latach 70. ubiegłego stulecia49, których głównym elementem było spowolnienie produktywności pracy,
a najważniejszym objawem wielka fala inflacji wywołana błędami w polityce
monetarnej. W literaturze można znaleźć co najmniej kilka koherentnych i przekonujących modelowych analiz wskazujących na źródła tych proinflacyjnych
błędów50. Trudno jednoznacznie wskazać najważniejsze powody sprawcze tych
46
Zob. R.J. Tetlow, B. Ironside, Real-Time Model Uncertainty in the United States. The FED
from 1996–2003, European Central Bank Working Paper Series, 2006, No. 610, April; L.E.O.
Svensson, R.J. Tetlow, Optimal Policy Projections, „International Journal of Central Banking”
2005, December, s. 187–190; S.G. Cecchetti, op. cit.
47
Zob. K. Rybiński, op. cit., s. 303; L.E.O. Svensson, R.J. Tetlow, op. cit., s. 195–201;
J.B. Taylor, Commentary: Understanding the Greenspan Standard, Conference the Greenspan Era:
Lessons for the Future, A Symposium Sponsored by Federal Reserve Bank of Kansas City, Jackson
Hole, Wyoming 2005, August 25–27, s. 107–118; L. Ball, R.R. Tchaidze, op. cit., s. 108–144.
48
F. Mishkin, op. cit.
49
L. Summers, Cyclical Dynamics in the New Economy, „Journal of Policy Modeling” 2003,
vol. 25, s. 527, 246; J. Temple, The Assessment: The New Economy, „Oxford Review of Economic
Policy” 2002, vol. 18, nr 3; S.G. Cecchetti, op. cit.; Federal Reserve Bank of Cleveland, Theory
Ahead of Rhetoric: Measurement…, s. 11.
50
Obecnie dość powszechnie przyjmuje się, że inflacyjne obciążenie polityki monetarnej
w latach 70. XX w. wynikało z dyskrecjonalnych, krótkowzrocznych oraz niespójnych działań
władz monetarnych, które były sprzeczne ze współczesnymi pryncypiami dobrej polityki monetarnej. A. Orphanides, Monetary-Policy…, s. 115.
Współczesna polityka stabilizacyjna…
195
błędów51. Jednakże coraz więcej dowodów wskazuje na to, że szczególnie ważnym źródłem inflacyjnego obciążenia polityki monetarnej w tamtym okresie był
brak możliwości uwzględnienia w polityce monetarnej zmian strukturalnych zachodzących w gospodarce, które istotnie wpływały na ograniczenie wysokości
potencjalnego PKB. Wynikało to głównie z obciążeń bieżącej informacji dostępnej dla władz monetarnych52.
O ile w przypadku zmian strukturalnych związanych z nową gospodarką
amerykańskim władzom monetarnym udało się w porę zdiagnozować istotną
transformację struktury makroekonomicznej gospodarki, w rezultacie czego odstąpiono od konwencjonalnej polityki stabilizacyjnej z rys. 1, bazującej na regule Taylora, i dzięki temu uniknięto strat produktu związanych z polityką stabilizacyjną53, o tyle w latach 70. XX w. utrzymano politykę monetarną zgodną
z celami stabilizacyjnymi zarówno w zakresie produktu jak i inflacji, a mimo to
wiązało się to z gwałtownym przyspieszeniem inflacji54. W tej sytuacji zbyt eks51
Według Allana Meltzera można mówić o dwóch głównych grupach przyczyn inflacji lat 70.
XX w.: a) przyczyny związane z procesem politycznym prowadzenia polityki gospodarczej,
a więc zjawiskami opisywanymi na gruncie teorii politycznego cyklu koniunkturalnego i zjawiskiem braku spójności działań Rezerwy Federalnej związanej z ograniczoną jego niezależnością;
b) przyczyny związane z bazowaniem Rezerwy Federalnej na niewłaściwych teoriach i modelach.
W ramach pierwszej grupy przyczyn duże znaczenie miała zwyczajowa zasada dążenia do osiągnięcia konsensusu w ramach Komitetu Otwartego Rynku przed zmianami polityki gospodarczej,
co skutkowało opóźnieniami przy podejmowaniu działań antyinflacyjnych. W wypadku tej grupy
przyczyn szczególne znaczenie miały reguły instytucjonalne narzucające konieczność koordynacji
polityki fiskalnej oraz monetarnej, które jednocześnie ograniczały niezależność działań Rezerwy
Federalnej. Ograniczało to możliwość prowadzenia szybkiej i efektywnej antyinflacyjnej polityki
monetarnej. Według Allana Meltzera była to prawdopodobnie główna przyczyna „wielkiej inflacji” lat 70. ubiegłego wieku. W ramach drugiej grupy przyczyn odnoszących się do teorii niemal
w całym okresie powojennym pracownicy oraz decydenci Rezerwy Federalnej ignorowali fundamentalną długookresową zależność pomiędzy wzrostem ilości pieniądza a inflacją. W rezultacie
w latach 60. i 70. dominowały poglądy o niemonetarnych źródłach inflacji. W związku z tym według większości analiz z tego okresu inflacja stanowiła efekt przejściowych czynników, które nie
wymuszały silnej odpowiedzi polityki gospodarczej. A.H. Meltzer, Origins of the Great Inflation,
„Federal Reserve Bank of St. Louis Review” 2005, vol. 87, nr 2, cz. 2, s. 145–176. W kontekście
tej ostatniej uwagi trudno nie dostrzec pewnych analogii do komentarzy dotyczących narastającej
globalnej presji inflacyjnej w 2008 r., która według wielu ekonomistów stanowi przejściowy efekt
związany z ujemnymi szokami podażowymi na rynkach energii i rynkach rolnych.
52
A. Orphanides, The Quest for Prosperity without Inflation, European Central Bank Working
Paper Series 2000, No. 15, March; A. Orphanides, S. van Norden, The Unreliability of Output Gap
Estimates in Real Time, „Review of Economics and Statistics” 2002, vol. 84, nr 4, s. 569–583.
53
F. Mishkin, op. cit.
54
Analizy symulacyjne przeprowadzone przez Athanasiosa Orphanidesa, w których wykorzystuje się współczesną informację oraz informację bieżącą dostępną władzom monetarnym w momencie podejmowania decyzji o restrykcyjności polityki monetarnej, wskazują, że wbrew dominującym poglądom obciążenie inflacyjne w latach 70. XX w. nie wynikało z odstąpienia od zasad
polityki stabilizacyjnej zgodnej z regułą Taylora, na co wskazywałyby symulacje bazujące na
współczesnej nieobciążonej błędami informacji. Symulacje bazujące na informacji dostępnej de-
196
Adam P. Balcerzak
pansywna polityka monetarna wynikała z bieżącego przeszacowywania luki Okuna, co wiązało się z opóźnieniami w rozpoznaniu trwałego ograniczenia tempa
wzrostu produktywności pracy ograniczającego poziom potencjalnego PKB55.
Zarówno przykład nowej gospodarki oraz przykład stagflacji w Stanach
Zjednoczonych w latach 70. ubiegłego wieku dowodzą, że głównym czynnikiem
wpływającym na efektywność polityki stabilizacyjnej jest zdolność do bieżącego
oszacowania wielkości potencjalnego PKB, co jest tożsame z koniecznością
trafnego oszacowania w czasie bieżącym nieobserwowalnych wartości naturalnej czy też neutralnej stopy procentowej oraz naturalnego poziomu bezrobocia56.
Standardowo takie analizy wykonywane są z zachowaniem dwóch założeń:
a) założenia o znanej, stabilnej lub przewidywalnej stopie NAIRU; b) założenia
o znanym, stabilnym lub przewidywalnym tempie wzrostu produktywności
pracy57. W praktyce gospodarczej oba te założenia są dość trudne do spełnienia.
Zarówno prognozowanie NAIRU, jak i w szczególności trafne przewidzenie
zmiany trendu produktywności pracy stanowi jedno z największych wyzwań
ekonomii stosowanej58.
Zakres błędów, jakie mogą zostać popełnione w wypadku niespełnienia
wspomnianych założeń, przedstawia rys. 2 zaczerpnięty z pracy Athanasiosa
Orphanidesa. Rysunek ten ukazuje historyczne szacunki potencjalnego produktu
opartego na danych opublikowanych w Ekonomicznym Raporcie Prezydenta
w latach 1973, 1976 oraz 1979, na podstawie których trudno było rozpoznać
gwałtowne spowolnienie produktywności pracy. Wartości te zostały porównane
z szacunkami potencjalnego produktu opartego na danych dostępnych w 1994 r.,
które nie były już obciążone bieżącymi informacyjnymi zanieczyszczeniami.
Porównanie to pokazuje bardzo poważne błędy w zakresie mierzenia luki produktu w pierwszej połowie lat 70. ubiegłego wieku wiążące się z niespodziewanym spadkiem potencjalnego PKB, który ze swej natury może być rozpoznacydentom monetarnym, która była jednak obciążona bieżącymi błędami w zakresie szacunków
luki Okuna oraz inflacji dowiodły, że inflacja przybrała takie rozmiary mimo prowadzenia polityki
stabilizacyjnej zgodnej z rys. 1 i regułą Taylora. A. Orphanides, The Quest…, 2000, s. 648–649;
A. Orphanides, Monetary-Policy…, s. 115–120. Poniżej zostanie to szerzej omówione.
55
A. Orphanides, The Quest…, 2000, s. 633–663.
56
A. Orphanides, Monetary-Policy…, s. 116.
57
A. Orphanides, The Quest…, 2000, s. 653–654.
58
Szczególnie dużym wyzwaniem jest oszacowanie ex ante zmiany tempa wzrostu produktywności pracy oraz rozdzielenie elementu cyklicznego od długookresowej zmiany, co pozwoliłoby na określenie trwałości tego zjawiska. Świadczyła o tym dyskusja na temat wpływu nowej gospodarki na produktywność pracy tocząca się w Stanach Zjednoczonych w drugiej połowie lat 90.
ubiegłego wieku. Potwierdza to także cały czas nierozstrzygnięta dyskusja nad przyczynami spowolnienia tempa wzrostu produktywności w latach 70. Także bieżące analizy zmian NAIRU zazwyczaj charakteryzują się znaczącymi różnicami uwarunkowanymi podejściem metodologicznym, co zwiększa ryzyko popełnienia istotnego błędu. Kwestie te zostały syntetycznie omówione
przez Laurenca Balla i Roberta Tchaidze. L. Ball, R. Tchaidze, op. cit., s. 111–113.
Współczesna polityka stabilizacyjna…
197
walny stopniowo wraz z upływem czasu. Warto tu podkreślić, że już w połowie
lat 70. rosła świadomość błędów w odniesieniu do szacunków potencjalnego
PKB, w związku z czym rozpoczęto prace nad ich usunięciem. W 1977 r. dokonano znacznej korekty szacunków potencjalnego PKB. Po przeprowadzonej rewizji ocen stwierdzono, że realny PKB w 1976 r. był o cztery punkty procentowe
bliżej do potencjalnego PKB w porównaniu z wcześniejszym stanem wiedzy59.
Porównując jednak efekty tych prac z kolejnych lat z obecnie dostępnymi szacunkami pozbawionymi zanieczyszczeń informacyjnych (luka PKB szacowana
na podstawie danych z 1994 r.) można stwierdzić, że mimo kolejnych rewizji
szacunków (1977 oraz 1979 r.) do końca lat 70. polityka gospodarcza była silnie
obciążona błędami informacyjnymi.
Rys. 2. Błędy w mierzeniu luki produktu (inflacyjnej luki oraz recesyjnej luki Okuna)
w latach 70. XX w. w Stanach Zjednoczonych związane z zanieczyszczeniem
bieżącej informacji
Źródło: A. Orphanides, The Quest…, 2000, s. 665.
Do podobnych wniosków prowadzi analiza Jordi Galiego. Wykazał on, że
w odróżnieniu od lat 60. i 70. XX w., gdy negatywny szok związany ze zmianą
tempa wzrostu produktywności w konsekwencji błędów diagnostycznych przełożył się na wzrost inflacji, w latach 80. i 90. szok związany ze zmianą produk59
A. Orphanides, The Quest…, 2000, s. 654–655.
198
Adam P. Balcerzak
tywności nie wpłynął destabilizująco na poziom inflacji. Według Jordi Galiego,
podobnie jak w przypadku analizy Athanasiosa Orphanidesa, problemy lat 70.
wynikały z braku odróżnienia przejściowych zmian wiązanych ze zmianami produktywności od zmian o charakterze długookresowym60. W rezultacie obecnie
panuje zgodność poglądów, że najważniejszym źródłem tak dużych oraz długotrwałych błędów w zakresie szacunków potencjalnego PKB, a tym samym luki
produktu w latach 70. XX w. było szybkie podniesienie się NAIRU, a w szczególności spowolnienie produktywności pracy, które zaczęło się już w połowie lat
60. oraz gwałtownie przybrało na sile na przełomie 1973 i 1974 r.61
W przypadku inflacji lat 70. ubiegłego wieku oraz nowej gospodarki w drugiej połowie lat 90. błędy prognoz oraz szacunków potencjalnego PKB osiągnęły szczególnie duże rozmiary oraz mogły mieć bardzo istotny wpływ na efektywność polityki gospodarczej ze względu na przyspieszoną transformację
struktury gospodarczej. Jednakże Athanasios Orphanides dowodzi w innym badaniu, że równie negatywne rezultaty dla efektywności antycyklicznej polityki
stabilizacyjnej mogą być wywołane niewielkimi systematycznymi błędami
w szacowaniu NAIRU oraz naturalnej stopy procentowej. W rezultacie szacunki
neutralnej stopy procentowej oraz NAIRU, które są zbyt niskie, oraz zbyt optymistyczne prognozy inflacji lub zbyt pesymistyczne prognozy stopy bezrobocia
mogą skutkować wskazaniami dla polityki gospodarczej, która doprowadzi do
rozbudzenia presji inflacyjnej62.
W tym miejscu należałoby jeszcze rozważyć, w jaki sposób na powyższe
problemy efektywności informacyjnej decydentów gospodarczych wpływa oraz
może najprawdopodobniej wpływać w przyszłości proces strukturalnej transformacji gospodarki związany ze zjawiskiem tworzenia nowej globalnej gospodarki opartej na wiedzy63. Wracając do amerykańskich doświadczeń z polityką
monetarną drugiej połowy lat 90. ubiegłego wieku, wskazano, że w czasie tym
część ekonomistów zdołała w porę zdiagnozować gwałtowne przyspieszenie
tempa wzrostu produktywności pracy, dzięki czemu władze monetarne zrezygnowały z dysfunkcjonalnych działań nastawionych na stabilizację produktu
60
J. Gali, op. cit., s. 407–440.
A. Orphanides, The Quest…, 2000, s. 656.
62
W badaniu tym Athanasios Orphanides przyjął funkcję reakcji opartej na regule Taylora
i uwzględniającej oczekiwania w następującym kształcie: f = r* + Π* + (Π – Π*) + γ(u* – u), gdzie
u* stanowi NAIRU, Π* – docelową stopę inflacji, f – federalną stopę procentową, r* – neutralną
stopę procentową, u – prognozę stopy bezrobocia, a Π – prognozę dla stopy inflacji. Gdy przyjmie
się zgodnie z tradycyjną regułą Taylora oraz powszechnie akceptowalnymi szacunkami  = γ = 1,5
oraz Π* = r* = 2, prognozy inflacji oraz szacunki NAIRU, które są systematycznie zbyt niskie
o 1 punkt procentowy prowadzą do polityki monetarnej obarczonej zniekształconym celem inflacyjnym, który jest o 3 punkty procentowe zbyt wysoki. Błędy te są jeszcze wyższe w wypadku
wystąpienia wyższego γ lub niższego . A. Orphanides, Monetary-Policy…, s. 117.
63
Zob. K. Rybiński, op. cit.
61
Współczesna polityka stabilizacyjna…
199
i skoncentrowały się na zadaniu zapewnienia stabilnej inflacji 64. Przykład ten
może świadczyć, że obecnie problemy te są w znacznej mierze dobrze zdiagnozowane i efektywnie rozwiązywane. W związku z tym może się wydawać, że
decydenci opowiadający się za polityką monetarną nastawioną na antycykliczne
działania stabilizacyjne w zakresie zarówno poziomu cen, jak i produktu mają
istotne podstawy dla optymizmu. Niestety wiele wskazuje na to, że takie wnioski
mogą się okazać zbyt optymistyczne. W tym kontekście spora grupa ekonomistów
wskazuje, że trafne rozpoznanie przyspieszenia tempa wzrostu produktywności
w drugiej połowie lat 90. XX w. i uwzględnienie tego w prowadzonej polityce
monetarnej można uznać za jeden z najbardziej spektakularnych przykładów
„wielkiego szczęścia” decydentów monetarnych (good fortune in monetary decision making) w ostatnim trzydziestoleciu polityki monetarnej Stanów Zjednoczonych65.
Paradoksalnie, empirycznym potwierdzeniem ogromnej wagi problemów
efektywności informacyjnej władz monetarnych wobec wyzwań obecnej transformacji strukturalnej globalnej gospodarki jest polityka monetarna prowadzona
przez Alana Greenspana na początku XXI w. Jej celem było ograniczenie negatywnych konsekwencji bessy na rynkach finansowych z przełomu lat 2000
i 2001 oraz związanego z nią spowolnienia gospodarczego. W 2003 r. w rezultacie działań nastawionych na likwidację recesyjnej luki Okuna mimo rosnącej
aktywności gospodarczej oraz oczekiwań rynków wskazujących na konieczność
zacieśnienia polityki monetarnej, Rezerwa Federalna opierając się na prognozach wskazujących na trwały, przynajmniej w średnim horyzoncie czasowym,
charakter bieżącej presji antyinflacyjnej wynikającej z globalizacji (głównie
„eksportu deflacji” błyskawicznie integrujących się z gospodarką światową Chin
i Indii) oraz wysokiego tempa wzrostu produktywności pracy (wiązanych z proliferacją technologii teleinformatycznych, a także wzrostem globalnej presji
konkurencyjnej), zdecydowała się na odłożenie w czasie zacieśnienia monetarnego. Działania te były motywowane obawą przed możliwością ograniczenia
64
F. Mishkin, op. cit.
S.G. Cecchetti, op. cit. Pogląd ten jest na tyle szeroko akceptowany, że stało się to wręcz
podstawą do mitologizacji talentu oraz samej postaci ówczesnego prezesa Rezerwy Federalnej
Alana Greenspana. Zob. B. Woodward, Maestro: Greenspan’s Fed and the American Boom,
Touchstone-Rockefeller Center, New York 2000. Z drugiej strony w ostatnich latach wśród publicystów ekonomicznych pojawili się także zagorzali krytycy Alana Greenspana (zob. W.A. Fleckenstein, F. Sheehan, Greenspan’s Bubbles. The Age of Ignorance at the Federal Reserve, McGraw-Hill,
New York 2008). W tym miejscu należy jednak podkreślić, że wśród profesjonalnych ekonomistów polityka prezesa Greenspana sprzed 2000 r. jest w zasadzie oceniana jednoznacznie pozytywnie (zob. F. Mishkin, op. cit.). Natomiast polityka po 2000 r., w szczególności w kontekście
łagodzenia sutków pęknięcia bąbla internetowego na rynkach finansowych oraz narastania bąbla
spekulacyjnego na rynku nieruchomości, jest przedmiotem poważnych kontrowersji, a przez część
ekonomistów jest ocenia negatywnie (zob. K. Rybiński, op. cit., s. 253).
65
200
Adam P. Balcerzak
tempa redukcji luki Okuna oraz pojawienia się deflacji, a tym samym wpadnięcia w pułapkę płynności66. Mimo powszechnej wysokiej oceny takiej polityki
monetarnej ferowanej w czasie bieżącym, o czym świadczyła aprobata dla tych
działań Międzynarodowego Funduszu Walutowego, tak prowadzona polityka
stabilizacyjna znacząco przyczyniła się do pogłębienia zadłużenia amerykańskich gospodarstw domowych, powstania bąbla spekulacyjnego na rynku nieruchomości67, który na przełomie 2007 i 2008 r. stał się czynnikiem destabilizującym sytuację gospodarczą nie tylko w samych Stanach Zjednoczonych, ale
w całej gospodarce światowej. Według części ekonomistów polityka ta także
przyczyniła się do pogłębienia zewnętrznej nierównowagi gospodarczej Stanów
Zjednoczonych, stanowiącej obecnie prawdopodobnie największe wyzwanie
gospodarcze tego kraju. Bardzo dobitnie kwestię tę podsumował prezes Rezerwy
Federalnej w Dallas Richard Fischer: „W retrospekcji realna stopa procentowa
była zbyt niska, niż wydaje się właściwe, i była utrzymywana zbyt długo na niskim poziomie, co wynikało po części ze złej jakości danych ekonomicznych.
Złe dane prowadziły do decyzji, które zwiększały aktywność spekulacyjną na
rynku nieruchomości i na innych rynkach. Dzisiaj każdy, kto nie jest z byłej planety Pluton, wie, że na rynku nieruchomości ma miejsce silna korekta, która
wiąże się z realnymi kosztami dla milionów właścicieli domów. To komplikuje
zadanie banku centralnego, jakim jest osiągnięcie naszego celu monetarnego
i stworzenie warunków dla trwałego bezinflacyjnego wzrostu”68.
Athanasios Orphanides podkreśla, że w celu pełnego uniknięcia błędów
i problemów diagnostycznych w zakresie oceny bieżącego stanu gospodarki oraz
charakteru notowanych szoków podażowych, jak również zminimalizowania ich
ewentualnych negatywnych konsekwencji, nie wystarczy tylko poprawienie jakości statystyk, czy też metodologii mierzenia NAIRU, i zmian produktywności
pracy, ale wymagałoby to uzyskania pełnej wiedzy o czynnikach wpływających
na tzw. resztę Solowa z jego neoklasycznego modelu egzogenicznego wzrostu
gospodarczego, co jednak wydaje się trudne do spełnienia69. W świetle przeprowadzonej analizy sceptycyzm ten nie jest raczej przesadzony. Wobec obserwowanej obecnie powszechnej transformacji światowego sytemu gospodarczego,
szczególnie w kontekście rosnącego usieciowienia gospodarki o charakterze
66
D.L. Kohn, Central Bank Communication, At the Annual Meeting of the American Economic Association, Philadelphia, Pennsylvania, January 9, 2005, http://www.federalreserve.gov/
boarddocs/speeches/2005/20050109/default.htm, 26.04.2008; D.L. Kohn, Globalization, Inflation,
and Monetary Policy, At the James R. Wilson Lecture Series, The College of Wooster, Wooster, Ohio,
October 11, 2005, http://www.federalreserve.gov/boarddocs/speeches/2005/20051011/default.htm,
28.04.2008.
67
K. Rybiński, op. cit., s. 252.
68
Cyt za: K. Rybiński, op. cit., s. 253.
69
A. Orphanides, The Quest…, 2000, s. 656.
Współczesna polityka stabilizacyjna…
201
globalnym i wzrostu ekonomicznego znaczenia jakości nienamacalnych czynników organizacyjnych oraz instytucji70, można oczekiwać, że powyższe problemy
będą nabierały coraz większego znaczenia.
5. Podsumowanie
W pierwszej części artykułu zostały przeanalizowane fundamenty współczesnej polityki stabilizacyjnej, które mogą być uznane za podstawię konsensusu
współcześnie panującego wśród makroekonomistów. Z analizy tej wynika, że
obecnie główna odpowiedzialność za efektywność polityki stabilizacyjnej w normalnych czasach przypisywana jest władzom monetarnym. Przyczynami tego
stanu są dobrze znane tradycyjne ograniczenia polityki fiskalnej, na które ponadto nakładają się dodatkowe czynniki związane z transformacją strukturalną światowej gospodarki prowadzącą do wzrostu interakcji pomiędzy poszczególnymi
krajami oraz coraz wyższej elastyczności większości gospodarek. Zjawiska te
przyczyniają się do dalszego ograniczenia efektywności stabilizacyjnej polityki
fiskalnej, która w tych realiach staje się ważnym narzędziem budowania warunków dla średnio- i długookresowego wzrostu gospodarczego.
W ostatnich latach w literaturze tematu coraz częściej można spotkać się
z opiniami, według których nowocześnie prowadzona polityka monetarna daje
gwarancje nie tylko zapewnienia wysokiej stabilności pieniądza, co stanowi
explicite wyrażany cel każdego banku centralnego, ale jest także coraz bardziej
efektywnym narzędziem stabilizacji aktywności gospodarczej w sferze realnej.
Upraszając, gwarancją tego są wysoka niezależność banków centralnych oraz
stosowanie reguł polityki monetarnej, które z jednej strony zapewniają dyscyplinę eliminującą negatywne konsekwencje niespójności w czasie, z drugiej strony
dzięki wystarczającej elastyczności i uwzględnianiu prognoz i oczekiwań przyszłego stanu aktywności gospodarczej pozwalają rozwiązać problemy związane
z opóźnieniami mechanizmów transmisji monetarnej.
Przeprowadzona analiza oraz przytoczone przykłady sukcesów i porażek polityki monetarnej prowadzonej w Stanach Zjednoczonych dowodzą jednak, że
pomimo ogromnych postępów w zakresie teorii oraz błyskawicznego rozwoju
narzędzi statystycznych i ekonometrycznych podnoszących zdolności banków
70
Zob. A.P. Balcerzak, Państwo a wyzwania nowej globalnej gospodarki XXI wieku [w:] Europa wobec wyzwań gospodarki globalnej, pod red. A.P. Balcerzaka, E. Rogalskiej, Wydawnictwo
Adam Marszałek, Toruń 2008; A.P. Balcerzak, Sieciowa logika gospodarki globalnej jako wyzwanie dla współczesnego przedsiębiorstwa, I Ogólnopolska Konferencja nt. „Przedsiębiorstwo
w otoczeniu globalnym”, Wydział Ekonomiczny, Uniwersytet Gdański, Sopot 2008, 23–24 października.
202
Adam P. Balcerzak
centralnych do diagnozowania i prognozowania stanu aktywności gospodarczej,
ciągłym zagrożeniem dla efektywności monetarnej polityki stabilizacyjnej jest
problem nieefektywności informacyjnej decydenta gospodarczego. Podejmując
decyzję o kształcie polityki monetarnej generującej realne bodźce gospodarcze
z kilkumiesięcznym opóźnieniem, decydent gospodarczy musi posługiwać się
bieżącymi danymi o różnym stopniu zanieczyszczenia informacyjnego. Oznacza
to, że banki centralne decydując o działaniach, których celem jest nie tylko
ochrona siły nabywczej pieniądza, ale także działania o charakterze antycyklicznym, powinny cały czas zachowywać bardzo daleko posuniętą ostrożność.
Literatura
Alesina A., The Political Economy of the Budget Surplus in the U.S., „Journal of Economic Perspectives” 2000, vol. 14, nr 3.
Atkinson R.D., The Post and Future of America’s Economy. Long Waves of Innovation That
Power Cycles of Growth, Edward Elgar, Washington 2005.
Balcerzak A.P., Państwo a wyzwania nowej globalnej gospodarki XXI wieku [w:] Europa wobec
wyzwań gospodarki globalnej, pod red. A.P. Balcerzaka, E. Rogalskiej, Wydawnictwo Adam
Marszałek, Toruń 2008.
Balcerzak A.P., Sieciowa logika gospodarki globalnej jako wyzwanie dla współczesnego przedsiębiorstwa, I Ogólnopolska Konferencja nt. „Przedsiębiorstwo w otoczeniu globalnym”, Wydział Ekonomiczny, Uniwersytet Gdański, Sopot 2008, 23–24 października.
Ball L., Tchaidze R.R., The Fed and the New Economy, „American Economic Review” 2002,
vol. 92, nr 2.
Blanchard O., Is There a Core of Usable Macroeconomics?, „American Economic Review” 1997,
vol. 87, nr 2.
Blinder A.S., Is There a Core of Practical Macroeconomics That We Should All Believe?, „American Economic Review” 1997, vol. 87, nr 2.
Burke M.K., Koupartisas M.A., A New Paradigm for the U.S. Economy?, „The Federal Reserve
Bank of Chicago FED Letter” 1998, nr 134.
Cecchetti S.G., The New Economy and the Challenges for Macroeconomic Policy, „NBER Working
Paper Series” 2002, Working Paper 8935, May.
Cox M., Alm R., The New Paradigm, Federal Reserve Bank of Dallas, 1999 Annual Report.
Eichenbaum M., Some Thoughts on Practical Stabilization Policy, „American Economic Review”
1997, vol. 87, nr 2.
Federal Reserve Bank of Cleveland, Theory Ahead of Rhetoric: Economic Policy for a „New
Economy”, 1999 Annual Report.
Federal Reserve Bank of Cleveland, Theory Ahead of Rhetoric: Measurement and the „New
Economy”, 2000 Annual Report.
Fleckenstein W.A., Sheehan F., Greenspan’s Bubbles. The Age of Ignorance at the Federal
Reserve, McGraw-Hill, New York 2008.
Gali J., The Conduct of Monetary Policy in the Face of Technological Change: Theory and Postwar U.S. Evidence [w:] Stabilization and Monetary Policy: the International Experience,
Banco de Mexico, Mexico City, Mexico 2000, November 14–15.
Goodfriend M., The Monetary Policy Debate Since October 1979: Lessons for Theory and Practice, „Federal Reserve Bank of St. Louis Review” 2005, vol. 87, nr 2, cz. 2.
Współczesna polityka stabilizacyjna…
203
Hodrick R.J., Prescott E.C., Post War U.S. Business Cycles: An Empirical Investigation, „Journal
of Money, Credit and Banking” 1997, vol. 29, nr 1.
Jorgenson D.W., Ho M.S., Stiroh K.J., A Retrospective Look at the U.S. Productivity Growth
Resurgence, Federal Reserve Bank of New York Staff Report, Staff Report No. 277, 2007,
February.
Jorgenson D.W. Stiroh K.J., Raising the Speed Limit: U.S. Economic Growth in the Information
Age, „Brookings Papers on Economic Activity” 2000, nr 1.
Kohn D.L., Central Bank Communication, At the Annual Meeting of the American Economic
Association, Philadelphia, Pennsylvania, January 9, 2005, http://www.federalreserve.gov/
boarddocs/speeches/2005/20050109/default.htm, 26.04.2008.
Kohn D.L., Globalization, Inflation, and Monetary Policy, At the James R. Wilson Lecture Series,
The College of Wooster, Wooster, Ohio, October 11, 2005, http://www.federalreserve.gov/
boarddocs/speeches/2005/20051011/default.htm, 28.04.2008.
Krugman P.R., America the Boastful, „Foreign Affairs” 1998, May–June.
Krugman P.R., How Fast Can the U.S. Economy Grow?, „Harvard Business Review” 1997, July–
August.
Lipowski A., Ekonomiczna zawodność państwa – krytyczna analiza ujęcia antyetatystycznego,
„Ekonomista” 2002, nr 2.
Mankiw N.G., U.S. Monetary Policy during the 1990s, „NBER Working Paper Series” 2001,
Working Paper 8471, September.
Meltzer A.H., Origins of the Great Inflation, „Federal Reserve Bank of St. Louis Review” 2005,
vol. 87, nr 2, cz. 2.
Mishkin F.S., Will Monetary Policy Become More of a Science?, „NBER Working Paper Series”
2007, Working Paper 13566, October.
Nordhaus W.D., Productivity Growth and the New Economy, „Brookings Papers on Economic
Activity” 2002, nr 2.
Orphanides A., Monetary-Policy Rules and the Great Inflation, „American Economic Review”
2002, vol. 92, nr 2.
Orphanides A., The Quest for Prosperity without Inflation, European Central Bank Working Paper
Series 2000, No. 15, March.
Orphanides A., The Quest for Prosperity without Inflation, „Journal of Monetary Economics”
2003, vol. 50.
Orphanides A., Norden S. van, The Unreliability of Output Gap Estimates in Real Time, „Review
of Economics and Statistics” 2002, vol. 84, nr 4.
Rybiński K., Globalizacja w trzech odsłonach. Offshoring – globalne nierównowagi – polityka
pieniężna, Diffin, Warszawa 2007.
Snowdon B., Vane H., Wynarczyk P., Współczesne nurty teorii makroekonomii, Wydawnictwo
Naukowe PWN, Warszawa 1998.
Solow R.M., Is There a Core of Usable Macroeconomics We Should All Believe in?, „American
Economic Review” 1997, vol. 87, nr 2.
Stiglitz J.E., The Roaring Nineties. A New History of the World’s Most Prosperous Decade,
W.W. Norton, New York–London 2003.
Summers L., Cyclical Dynamics in the New Economy, „Journal of Policy Modeling” 2003, vol. 25.
Svensson L.E.O., Tetlow R.J., Optimal Policy Projections, „International Journal of Central Banking”
2005, December.
Taylor J.B., A Core of Practical Macroeconomics, „American Economic Review” 1997, vol. 87,
nr 2.
Taylor J.B., Commentary: Understanding the Greenspan Standard, Conference the Greenspan
Era: Lessons for the Future, A Symposium Sponsored by Federal Reserve Bank of Kansas
City, Jackson Hole, Wyoming 2005, August 25–27.
204
Adam P. Balcerzak
Taylor J.B., Discretion Versus Policy Rules in Practice, Carnegie-Rochester Conference Series on
Public Policy, 1993, vol. 39, s. 202.
Taylor J.B., Globalization and Monetary Policy: Missions Impossible, NBER Conference on the
International Dimensions of Monetary Policy, Girona, Spain 2007, June 11–13.
Taylor J.B., The Robustness and Efficiency of Monetary Policy Rules as Guidelines for Interest
Rate Setting by the European Central Bank, „Journal of Monetary Economics” 1999, vol. 43,
nr 3.
Temple J., The Assessment: The New Economy, „Oxford Review of Economic Policy” 2002,
vol. 18, nr 3.
Tetlow R.J., Ironside B., Real-Time Model Uncertainty in the United States. The FED from 1996–
2003, European Central Bank Working Paper Series, 2006, No. 610, April.
Tyson L.D’A., Old Economic Logic in the New Economy, „California Management Review” 1999,
vol. 41, nr 4.
Wojtyna A., Szkice o polityce pieniężnej, PWE, Warszawa 2004.
Wojtyna A., Ewolucja keynesizmu a główny nurt ekonomii, Wydawnictwo Naukowe PWN, Warszawa 2000.
Wojtyna A., Nowoczesne państwo kapitalistyczne a gospodarka. Teoria i praktyka, PWN, Warszawa 1990.
Woodward B., Maestro: Greenspan’s Fed and the American Boom, Touchstone-Rockefeller
Center, New York 2000.
The Contemporary Stabilisation Policies in the Context of the Ineffectiveness
of Information Demonstrated by Economic Decision-Makers: the Case
of the United States
In the last three decades the theory of macroeconomics has undergone fundamental changes
resulting from the fall of Keynes’s traditional theories, the expansion of monetarism followed by
the revolution of rational expectations giving rise to the development of new classical economics
and real business cycle theory, finally leading to new Keynesian economics. In the face of those
dynamic changes and divisions, an attempt has been made to specify the contemporary and commonly accepted “applied” stabilisation policy. The analysis of the achievements of the above
trends leads to the assumption that the current stabilisation policy is vested in the hands of monetary authorities. It is claimed that the ineffectiveness of information which contaminates current
data used by economic decision-makers poses a major threat to the successful stabilisation policy
apart from the economy’s growing analytical and forecasting potential. The analysis is based on
the case of the United States in the last decade and the period of stagflation in the 1970s.
Adam P. Balcerzak – magister, asystent w Katedrze Ekonomii na Wydziale Nauk Ekonomicznych
i Zarządzania Uniwersytetu Mikołaja Kopernika w Toruniu.
Zainteresowania naukowo-badawcze: rola państwa w gospodarce (efektywność polityki fiskalnej
i monetarnej, zdolność państwa do prowadzenia skutecznej polityki antycyklicznej), determinanty
wzrostu gospodarczego, innowacyjność gospodarki.
e-mail: [email protected]