pobierz artykuł
Transkrypt
pobierz artykuł
Adam P. Balcerzak Uniwersytet Mikołaja Kopernika w Toruniu Współczesna polityka stabilizacyjna wobec problemów informacyjnej nieefektywności decydentów gospodarczych: przypadek Stanów Zjednoczonych 1. Wprowadzenie Osiągniecie wysokiej efektywności w zakresie stabilizacji inflacji i produktu krajowego stanowi jeden z najważniejszych celów polityki gospodarczej. Zdolność do realizacji tego celu w wyniku określonych aktywnych działań, bądź ich zaniechania, jest obecnie uważana za główny wkład władz monetarnych oraz fiskalnych w podniesienie dobrobytu społecznego obywateli. Powyższe stwierdzenia od lat nie budzą najmniejszych kontrowersji ani wśród teoretyków, ani ekonomistów odpowiadających za prowadzoną politykę gospodarczą. Jednakże w ciągu ostatnich dekad głównym przedmiotem kontrowersji teoretycznych i praktycznych były mechanizmy osiągnięcia tego celu oraz kwestia podziału odpowiedzialności w odniesieniu do działań stabilizacyjnych pomiędzy władze monetarne i fiskalne. Już niemal od ponad trzech dekad kwestie te stanowią powody ważnych podziałów w środowisku makroekonomistów. W niniejszej pracy zostały poruszone dwa problemy badawcze. Po pierwsze, podjęto próbę odpowiedzi na pytanie o kształt współczesnej powszechnie akceptowanej „stosowanej” polityki stabilizacyjnej. Drugim celem opracowania jest ukazanie czynników związanych z zagrożeniami wynikającymi z nieefektywno- 182 Adam P. Balcerzak ści informacyjnej decydentów gospodarczych, które mogą utrudniać prowadzenie efektywnej polityki stabilizacyjnej, a które często wydają się bagatelizowane. Ma to podstawy w coraz powszechniejszym zaufaniu ekonomistów do ich rosnących zdolności efektywnego przetwarzania informacji. 2. Istota współczesnej polityki stabilizacyjnej Druga połowa XX w. stanowiła okres niemalże fundamentalnych przemian w makroekonomii. Do połowy lat 70. można było mówić o bezwzględnej dominacji keynesowskiego konsensusu, opartego na pozbawionym oczekiwań hicksowskim modelu IS-LM uzupełnionym przez krótkookresową krzywą Phillipsa oraz regułę Okuna. Na mocy tych modeli uznawano, że zarówno polityka monetarna jak i fiskalna mogą stanowić efektywne narzędzie stabilizacji makroekonomicznej. Jednakże w obliczu stagflacji lat 70. nastąpił upadek ortodoksji keynesowskiej1. Rozpoczął się okres szybkiej ekspansji monetaryzmu. Kolejną fundamentalną zmianą była rewolucja racjonalnych oczekiwań dająca podstawy do rozwoju nowej ekonomii klasycznej oraz jej modyfikacji utożsamianej ze szkołą realnego cyklu koniunkturalnego. Poważnego znaczenia nabrały różnice w poglądach dotyczących efektywności stabilizacyjnej zarówno w odniesieniu do polityki fiskalnej i monetarnej, jak i podstawowych fundamentów efektywnej polityki gospodarczej. Z kolei już we wczesnych latach 80., w wyniku istotnych problemów z empiryczną weryfikacją wniosków płynących z teorii formowanej przez nowych klasyków, nastąpił szybki rozwój i umacnianie się nowej ekonomii keynesistowskiej2. Mimo 1 Stagflacja przede wszystkim podważyła założenia krzywej Phillipsa, gdyż dostarczyła empirycznego potwierdzenia dla oczekiwanego przez Miltona Friedmana oraz Edmunda Phelpsa jej załamania. Stanowiła ona także teoretyczne potwierdzenie dla pionowej lub nawet nachylonej dodatnio długookresowej zależności między inflacją a bezrobociem, będącej skutkiem wykorzystania krótkookresowej krzywej Phillipsa w praktyce gospodarczej. Ta długookresowa zależność jest obecnie określana jako krzywa Phillipsa wsparta oczekiwaniami (adaptacyjnymi według Miltona Friedmana lub racjonalnymi według nowych klasyków, które determinują tempo reakcji mikropodmiotów oraz stopień podatności na iluzję pieniężną warunkującą wystąpienie krótkookresowej krzywej Phillipsa), czy też długookresową krzywą Phillipsa. Zob. B. Snowdon, H. Vane, P. Wynarczyk, Współczesne nurty teorii makroekonomii, Wydawnictwo Naukowe PWN, Warszawa 1998, s. 164–174. Według keynesistów efektywną odpowiedzią na ekspansję friedmanowskiego modelu długookresowej krzywej Phillipsa, a wraz z nią koncepcji naturalnej stopy bezrobocia, była koncepcja NAIRU, która stanowiła połączenie krótkookresowej krzywej Phillipsa oraz prawa Okuna. Federal Reserve Bank of Cleveland, Theory Ahead of Rhetoric: Economic Policy for a „New Economy”, 1999 Annual Report, s. 10. 2 Kwestią dyskusyjną nadal pozostaje, na ile stanowi ona powrót do pierwotnej tradycji keynesowskiej. Zob. A. Wojtyna, Ewolucja keynesizmu a główny nurt ekonomii, Wydawnictwo Naukowe PWN, Warszawa 2000. Współczesna polityka stabilizacyjna… 183 że wielu ekonomistów zgadza się z podejściem eklektycznym, a także mimo rosnącej liczby modeli, w których to podejście jest wykorzystywane, podziały te są cały czas silne w ramach ekonomii głównego nurtu3. W tym kontekście ekonomiści bardzo często zadają sobie pytanie: czy w konfrontacji z tym dynamicznym rozwojem, ewolucją oraz silnymi podziałami w ramach makroekonomii można obecnie mówić o jakimkolwiek rdzeniu teoretycznym w sensie Lakatosa, który powinien być uznawany za podstawę współczesnej polityki stabilizacyjnej, czy też polityki gospodarczej stosowanej w praktyce? Przed dziesięciu laty powyższy problem był przedmiotem rozważań panelu, w skład którego wchodzili Oliver Blanchard, Alan Blinder, Marc Eichenbaum, Robert Solow oraz John Taylor. Według tych ekonomistów istnieje wiele szczegółowych kwestii, które są przedmiotem poważnych sporów teoretycznych lub nie są w ogóle rozwiązane. Jednakże wszyscy ci ekonomiści dali jednoznacznie pozytywną odpowiedź na powyższe postawione im pytanie. Paradoksalnie mimo bardzo burzliwych zmian w makroekonomii, które tylko zasygnalizowano powyżej4, według Oliviera Blancharda rdzeń praktycznie stosowanej polityki gospodarczej jest cały czas bliski podejściu zaproponowanemu przed czterdziestu laty przez Paula Samuelsona w ramach tzw. neoklasycznej syntezy. Podejście to opierało się na dwóch propozycjach: a) w krótkim horyzoncie czasowym zmiany aktywności gospodarczej są głównie efektem zmian zagregowanego popytu5; b) w dłuższym horyzoncie czasowym gospodarka powraca do długookresowej stabilnej ścieżki wzrostu6. Razem te dwie propozycje umożliwiają kompleksową charakterystykę efektów szoków gospodarczych oraz makroekonomicznej polityki. W krótkim okresie większy deficyt budżetowy może zwiększać produkt oraz inwestycje, lecz w długim okresie prowadzi on do ograniczenia kapitału i produktu. W krótkim okresie wzrost podaży pieniądza może zwiększać produkt, ale w długim horyzoncie czasowym jest znacznie bardziej prawdopodobne, że wpłynie na jego zmniejszenie7. Analogicznie według Roberta Solowa w większości wysoko rozwiniętych krajów kapitalistycznych realny produkt oscyluje wokół rosnącego trendu. Rdzeniem 3 Zob. B. Snowdon, H. Vane, P. Wynarczyk, op. cit. Ich bardziej szczegółowe omówienie jest niemożliwe ze względu na ograniczenia edytorskie niniejszej pracy. 5 Co może być cały czas analizowane z wykorzystaniem filozofii wspornego hickowskiego modelu IS-LM. 6 Co mimo rozwoju teorii endogenicznego wzrostu gospodarczego jest cały czas głównie modelowane z wykorzystaniem podejścia zaproponowanego przez Roberta Solowa. 7 Według Oliviera Blancharda te międzyokresowe zmiany kierunków oddziaływania poszczególnych instrumentów polityki gospodarczej stanowią główny powód tego, że prowadzenie makroekonomicznej polityki gospodarczej jest tak trudne oraz często kontrowersyjne. O. Blanchard, Is There a Core of Usable Macroeconomics?, „American Economic Review” 1997, vol. 87, nr 2, s. 244. 4 184 Adam P. Balcerzak „praktycznej” makroekonomii jest podejście, według którego przesunięcia trendu są zdeterminowane przez czynniki podażowe (dostępność czynników produkcji oraz ogólna produktywność czynników produkcji). Tym samym właściwym narzędziem do analizy trendu są różnego rodzaju modele wzrostu gospodarczego. Natomiast oscylacje wokół tego trendu są głównie efektem zagregowanych impulsów popytowych, które powinny być analizowane z wykorzystaniem modeli uwzględniających różne źródła wydatków8. Także John Taylor akceptuje podejście zbliżone do modelu neoklasycznej syntezy, w którym według niego satysfakcjonującym narzędziem analizy długookresowych zmian potencjalnego PKB może być np. model Solowa. Należy do tego dodać brak długookresowej wymienności między stopą inflacji oraz stopą bezrobocia, jednak z zachowaniem krótkookresowej krzywej Phillipsa, założenia o reakcji oczekiwań ludzi na zmiany w polityce monetarnej oraz fiskalnej. Ponadto według Johna Taylora ostateczną zasadą, która stanowi rdzeń powszechnie akceptowanej makroekonomicznej polityki stabilizacyjnej, jest przyjęcie, że ocena polityki fiskalnej i monetarnej nie może być dokonywana przez pryzmat pojedynczej, odizolowanej zmiany instrumentu, lecz powinna być dokonywana jako seria zmian połączonych w systematyczny proces lub połączonych określoną regułą prowadzonej polityki9. Uzupełnieniem tych uwag jest także propozycja Alana Blindera, według którego podstawowy model współczesnej polityki stabilizacyjnej składa się z czterech komponentów: a) w krótkim okresie ceny i płace są w zasadzie dane z góry oraz ewoluują zgodnie z równaniami krzywych Phillipsa; b) w krótkim okresie produkt jest zdeterminowany przez stronę popytową; c) zagregowany popyt odpowiada bezpośrednio na impulsy fiskalne oraz reaguje na zmiany stóp procentowych, co czyni go wrażliwym na impulsy ze strony polityki monetarnej, która odpowiada za poziom krótkookresowych stóp procentowych; d) prawo Okuna łączy wzrost produktu ze zmianami w stopie bezrobocia10. Na silne ugruntowanie w świadomości decydentów gospodarczych oraz aktualność scharakteryzowanych powyżej elementów modelu konwencjonalnej polityki stabilizacyjnej wskazują także ekonomiści Federal Reserve Bank of Cleveland oraz Marvin Goodfriend11. Na tej podstawie na rys. 1 został przed8 R.M. Solow, Is There a Core of Usable Macroeconomics We Should All Believe in?, „American Economic Review” 1997, vol. 87, nr 2, s. 230. 9 J.B. Taylor, A Core of Practical Macroeconomics, „American Economic Review” 1997, vol. 87, nr 2, s. 233–235. 10 A.S. Blinder, Is There a Core of Practical Macroeconomics That We Should All Believe?, „American Economic Review” 1997, vol. 87, nr 2, s. 241. 11 Federal Reserve Bank of Cleveland, Theory Ahead of Rhetoric: Measurement and the „New Economy”, 2000 Annual Report, s. 9; Federal Reserve Bank of Cleveland, Theory Ahead of Rhetoric: Economic…; M. Goodfriend, The Monetary Policy Debate Since October 1979: Lessons for Theory and Practice, „Federal Reserve Bank of St. Louis Review” 2005, vol. 87, nr 2, cz. 2, s. 243–262. Współczesna polityka stabilizacyjna… 185 stawiony uproszony schemat współczesnej konwencjonalnej i niebudzącej większych kontrowersji polityki stabilizacyjnej będącej podstawą polityki gospodarczej. Rys. 1. Konwencjonalna polityka stabilizacyjna w praktyce gospodarczej Źródło: Federal Reserve Bank of Cleveland, Theory Ahead of Rhetoric: Measurement… Z perspektywy polityki monetarnej powyższy schemat można interpretować następująco. Średnio- lub długookresowe dopuszczanie do utrzymywania się inflacyjnej luki PKB, a więc sytuacji, w której realny PKB przewyższa potencjalny PKB, jest początkowo źródłem presji inflacyjnej, która przy braku reakcji władz monetarnych w postaci zacieśnienia polityki pieniężnej przerodzi się w inflację. Z drugiej strony w sytuacji wystąpienia recesyjnej luki Okuna pojawiają się naciski na władze monetarne oraz oczekiwania12, aby te prowadziły łagodniejszą politykę monetarną, która stymulowałaby aktywność gospodarczą i pozwalała na zbliżenie się realnego PKB do jego poziomu potencjalnego13. Jednakże w ramach powyższego uproszczonego schematu należy także pamiętać o podstawowych zasadach sprzyjających efektywności polityki pieniężnej, które zostały wypracowane w ciągu ostatnich pięćdziesięciu lat. Frederic Mishkin przytacza dziewięć takich fundamentalnych zasad: 1) w średnim i dłuższym okresie inflacja jest zawsze zjawiskiem monetarnym; 2) stabilność cen jest 12 Oczywiście wspomniane naciski i oczekiwania pojawiają się w ramach systemu instytucjonalnego gwarantującego określony poziom niezależności władz monetarnych, która stanowi obecnie jeden z fundamentów bankowości centralnej w krajach wysoko rozwiniętych. 13 Federal Reserve Bank of Cleveland, Theory Ahead of Rhetoric: Measurement…, s. 9. 186 Adam P. Balcerzak źródłem ważnych korzyści; 3) nie istnieje długookresowa wymienność między bezrobociem a inflacją; 4) oczekiwania odgrywają główną rolę w kształtowaniu procesów inflacyjnych oraz wpływają na mechanizm transmisji impulsów monetarnych; 5) akceptacja dla reguły Taylora, zgodnie z którą działania antyinflacyjne wymagają podnoszenia realnych, a nie tylko nominalnych stóp procentowych; 6) polityka monetarna jest narażona na zjawisko dynamicznej niespójności w czasie; 7) czynnikiem wpływającym na podniesienie efektywności polityki monetarnej jest niezależność banku centralnego; 8) rośnie znaczenie polityki bezpośredniego celu inflacyjnego; 9) kryzysy na rynkach finansowych odgrywają silną rolą w kształtowaniu cyklów koniunkturalnych14. Większość z tych zasad była już także explicite akcentowana lub implicite akceptowana przez Alana Blindera15, Oliviera Blancharda16, Martina Eichenbauma17, Roberta Solowa18 oraz Johna Taylora19. Antycykliczny i stabilizacyjny charakter polityki fiskalnej sprowadza się do postulatu prowadzenia restrykcyjnej polityki fiskalnej nakierowanej na gromadzenie nadwyżek budżetowych w okresie pojawiania się inflacyjnej luki PKB oraz ekspansji fiskalnej w wypadku wystąpienia luki Okuna. W tym miejscu należy jednak podkreślić, że badania rozwijane w ramach współczesnej ekonomii politycznej dowodzą, iż w praktyce polityki gospodarczej pojawia się najczęściej co najwyżej ta druga prawidłowość20. Jak podkreśla Alberto Alesina, w demokratycznych gospodarkach wysoko rozwiniętych rzadko kiedy można mówić o restrykcyjnych działaniach władz fiskalnych skutkujących pojawieniem się 14 Warto zauważyć, że niemal wszystkie te zasady zostały wypracowana na gruncie tradycyjnej argumentacji nurtów antyetatystycznych. Ponadto według Frederica Mishkina w pewnych warunkach można dopuszczać naruszenie tych „naukowych” zasad, co określa on jako element koniecznego „artyzmu” w prowadzeniu polityki monetarnej. Jako przykład podaje kryzys na rynku komercyjnych nieruchomości, który miał miejsce pod koniec lat 80. XX w., i ewidentne złamanie reguły Taylora w tym czasie, co służyło zwiększeniu płynności rynków finansowych w okresie kryzysu. Warto także zauważyć, że Rezerwa Federalna zachowała się analogicznie w czasie kryzysu na rynku ryzykownych pożyczek hipotecznych (subprime) na początku 2008 r. Kolejnym takim przykładem według Frederica Mishkina był brak reakcji władz monetarnych na oznaki przegrzania się gospodarki w drugiej połowie lat 90. XX w. w czasie pierwszego bumu związanego z rozwojem nowej gospodarki. Wynikało to z gwałtownego przyspieszenia tempa wzrostu produktywności pracy. Zostanie to szczegółowo przeanalizowane w następnym punkcie. Zob. F.S. Mishkin, Will Monetary Policy Become More of a Science?, „NBER Working Paper Series” 2007, Working Paper 13566, October. 15 A.S. Blinder, op. cit., s. 240–243. 16 O. Blanchard, op. cit., s. 244–246. 17 M. Eichenbaum, Some Thoughts on Practical Stabilization Policy, „American Economic Review” 1997, vol. 87, nr 2, s. 236–239. 18 R.M. Solow, op. cit., s. 230–232. 19 J.B. Taylor, A Core…, s. 233–235. 20 Co może być jednym ze źródeł często spotykanej asymetryczności polityki fiskalnej. Współczesna polityka stabilizacyjna… 187 nadwyżek budżetowych lub znaczącą redukcją deficytu budżetowego, które byłyby związane z chęcią celowego ograniczenia zagregowanego popytu dla ustabilizowania przegrzanej gospodarki. Z reguły pojawiające się wysokie wpływy budżetowe oraz ewentualne nadwyżki budżetowe mają charakter endogeniczny, nie są natomiast efektem dyskrecjonalnego antycyklicznego i stabilizacyjnego działania rządu21. Natomiast silne restrykcje fiskalne pojawiają się zazwyczaj ze względu na konieczność naprawy, czy chociażby ustabilizowania finansów publicznych państwa, których zły stan stanowi zagrożenie dla długookresowego wzrostu gospodarczego. Innym ważnym dobrze rozpoznanym czynnikiem ograniczającym efektywność polityki fiskalnej w zakresie stabilizacji produktu są opóźnienia czasowe związane z długotrwałym procesem politycznym i legislacyjnym. Mimo powszechnego występowania automatycznych stabilizatorów wysoka efektywność polityki fiskalnej w zakresie działań antycyklicznych wymagałaby ponadto zdolności do generowania szybkich i odpowiednio adresowanych bodźców popytowych. Tymczasem Stephen Cecchetti podkreśla, że nie zna żadnego rządu dysponującego ex ante propopytowymi rozwiązaniami legislacyjnymi będącymi przedmiotem powszechnego konsensusu, które można by szybko wprowadzić w wypadku wystąpienia recesji. Ponadto ze względu na strukturalną transformację gospodarki oraz zmieniający się skład demokratycznie wybieranych władz tego typu rozwiązanie byłoby ekonomicznie niepożądane oraz niewykonalne politycznie 22. W tej sytuacji stworzenie rozwiązań prawnych skutkujących bodźcami popytowymi zajmuje w najbardziej sprzyjających okolicznościach kilka miesięcy. Oznacza to, że są one zazwyczaj uruchamiane oraz zaczynają działać, gdy gospodarka samoczynnie zdążyła dostosować się już do ujemnego szoku. Rozwiązania te są również zazwyczaj adresowane do szerszego grona osób, niż byłoby to ekonomicznie uzasadnione, co oczywiście podnosi ich koszt. Ponadto w wyniku obecnie obserwowanej globalnej transformacji systemu gospodarczego można mówić o rosnącej elastyczności większości gospodarek średnio i wysoko rozwiniętych, co przekłada się na ich wyższe tempo dostosowań do szoków podażowych. Zjawisko to w sposób bardzo istotny zwiększa negatywny wpływ powyższych tradycyjnych opóźnień polityki fiskalnej związanych z powolnym procesem politycznym i legislacyjnym oraz mechanizmem transmisji fiskalnej. Z tych powodów obecnie przyjmuje się, że polityka stabilizacyjna jest głównie prowadzona w wyniku stosowania narzędzi polityki monetarnej, podczas gdy polityka fiskalna powinna być ra21 A. Alesina, The Political Economy of the Budget Surplus in the U.S., „Journal of Economic Perspectives” 2000, vol. 14, nr 3, s. 3–19. 22 S.G. Cecchetti, The New Economy and the Challenges for Macroeconomic Policy, „NBER Working Paper Series” 2002, Working Paper 8935, May. 188 Adam P. Balcerzak czej wykorzystywana jako narzędzie służące tworzeniu podstaw dla długookresowego wzrostu gospodarczego23. Zgodnie z powyższym Martin Eichenbaum, komentując fundamenty teoretyczne współczesnej polityki stabilizacyjnej, kategorycznie stwierdził, że: „W przeciwieństwie do poglądów dominujących we wczesnych latach sześćdziesiątych XX w., obecnie został wypracowany powszechnie akceptowany konsensus, zgodnie z którym antycykliczna dyskrecjonalna polityka fiskalna nie jest ani pożądana, ani możliwa do realizacji ze względów politycznych. Praktyczna debata wokół polityki stabilizacyjnej obraca się prawie wyłącznie wokół polityki monetarnej”24. 3. Reguły polityki monetarnej jako element efektywnej polityki stabilizacyjnej W tradycyjnej literaturze antyetatystycznej badano takie endogeniczne czynniki ograniczające efektowność scharakteryzowanej powyżej polityki stabilizacyjnej, jak opóźnienia czasowe w mechanizmach transmisji monetarnej, efekty wypychania, wpływ oczekiwań racjonalnych bądź adaptacyjnych, konsekwencje oczekiwań inflacyjnych oraz przyczyny nieefektywności dyskrecjonalnych działań władz gospodarczych w kontekście zjawiska niespójności w czasie25. Jak wynika z przytaczanych powyżej uwag Frederica Mishkina, argumentacja ta została obecnie zaakceptowana przez polityków gospodarczych. Jest to szczególnie widoczne w odniesieniu do władz monetarnych. W związku z tym w toku dalszego wywodu analiza będzie się koncentrować na innych elementach, które nabrały szczególnego znaczenia oraz były coraz częściej dyskutowane w ostatnich latach w związku z rosnącym tempem zmian strukturalnych gospodarek wysoko rozwiniętych, stanowiących konsekwencje rewolucji teleinformacyjnej oraz globalizacji. 23 Ibidem. M. Eichenbaum, op. cit., s. 236. Warto jednak pamiętać, że nawet jeżeli władze fiskalne nie prowadzą regularnej polityki stabilizacyjnej, w przypadku wystąpienia relatywnie dużej luki recesyjnej lub choćby w przypadku pojawienia się wysokiego prawdopodobieństwa wystąpienia silnej recesji, uniwersalną prawidłowością są pojawiające się naciski polityczne i „społeczne” na wykorzystanie narzędzi fiskalnych dla celów stabilizacyjnych, którym decydenci kontrolujący politykę fiskalną często ulegają. Dzieje się tak mimo powszechnej świadomości niskiej efektywności stabilizacyjnej narzędzi fiskalnych. 25 A. Lipowski, Ekonomiczna zawodność państwa – krytyczna analiza ujęcia antyetatystycznego, „Ekonomista” 2002, nr 2, s. 170; A. Wojtyna, Nowoczesne państwo kapitalistyczne a gospodarka. Teoria i praktyka, PWN, Warszawa 1990, s. 55–98. 24 Współczesna polityka stabilizacyjna… 189 Wracając do modelu konwencjonalnej makroekonomicznej polityki stabilizacyjnej przedstawionego na rys. 1 w odniesieniu do polityki pieniężnej, można stwierdzić, że w ramach tego schematu analitycznego w ostatnich latach szczególnie dużego znaczenia nabrały reguły polityki monetarnej odpowiadające na zmiany inflacji oraz poziomu aktywności gospodarczej, które opierają się na relacji bieżącej aktywności gospodarczej do potencjalnego poziomu produktu przy pełnym wykorzystaniu czynników produkcji. Jest to jednoznaczne z koncentracją na analizie wielkości luki PKB z rys. 126. Według Johna Taylora, który zaproponował jedną z najpopularniejszych w ostatnich latach reguł tego typu 27, jasne reguły stanowią fundament współczesnej bankowości centralnej zarówno w przypadku krajów wyrażających explicite swój bezpośredni cel inflacyjny28, jak i przyjmujących go implicite29. Reguły pozwalają na wystarczającą elastyczność prowadzącą do stabilizacji produktu bez groźby rozbudzenia inflacji. Jednocześnie gwarantują one zachowanie dyscypliny uniemożliwiającej dyskrecjonalne działania skutkujące niespójnością w czasie30. Zgadza się z tym poglądem 26 A. Orphanides, The Quest for Prosperity Without Inflation, „Journal of Monetary Economics” 2003, vol. 50, s. 635. 27 John Taylor zaproponował opis polityki monetarnej Rezerwy Federalnej z drugiej połowy lat 80. i początku lat 90. XX w. w oparciu o regułę, gdzie w funkcji reakcji stopy procentowej zostały uwzględnione zarówno odchylenia realnego PKB od jego wartości nominalnej jak i poziom cen według następującego równania: r p 5 y 5 p 2 2, gdzie r to stopa rezerwy federalnej, p – poziom inflacji z poprzednich czterech kwartałów, y – odchylenie realnego poziomu PKB od jego wartości nominalnej, a więc y 100 (Y Y * ) / Y * , gdzie Y to poziom realnego PKB, Y* – trend GDP, co dla lat 1984–1992 wynosiło 2,2% rocznie. Tak sformułowana reguła polityki monetarnej oznacza, że Rezerwa Federalna podnosiła stopę procentową, jeżeli stopa inflacji przekroczyła cel równy 2% lub gdy realny PKB znalazł się powyżej potencjalnego PKB. Jeżeli zarówno inflacja jak i realny PKB były zgodne z celem, wówczas stopa rezerwy federalnej równa się 4% lub 2% według wartości realnej. Wykorzystanie stopy inflacji z czterech poprzednich kwartałów po prawej stronie równania wskazywało, że reguła polityki monetarnej bazowała na wartościach realnych z opóźnioną stopą inflacji służącą jako przybliżenie dla inflacji oczekiwanej. 2-procentowa wartość realnej stopy „równowagi” była zbliżona do zakładanego zrównoważonego wzrostu stopy wynoszącego 2,2%. Powyższa reguła miała takie same zmienne dla odchyleń realnego PKB zarówno od trendu, jak i stopy inflacji. J.B. Taylor, Discretion Versus Policy Rules in Practice, Carnegie-Rochester Conference Series on Public Policy, 1993, vol. 39, s. 202. 28 Syntetyczną analizę najważniejszych elementów polityki bezpośredniego celu inflacyjnego banku centralnego można znaleźć w pracy Krzysztofa Rybińskiego: Globalizacja w trzech odsłonach. Offshoring – globalne nierównowagi – polityka pieniężna, Diffin, Warszawa 2007, s. 256– 261. Bardzo bogate rozważania w tej materii zawarte są natomiast w książce Andrzeja Wojtyny: Szkice o polityce pieniężnej, PWE, Warszawa 2004. 29 Podobna uwaga Frederica Mishkina została przytoczona w poprzednim punkcie. 30 Zob. J.B. Taylor, The Robustness and Efficiency of Monetary Policy Rules as Guidelines for Interest Rate Setting by the European Central Bank, „Journal of Monetary Economics” 1999, vol. 43, nr 3, s. 655–697. Zgodnie z koncepcją niespójności w czasie dyskrecjonalna polityka gospodarcza, która nie jest związana z jasnymi i długookresowymi celami, prowadzi do kontrefektywnych rezultatów gospodarczych. W związku z istnieniem dynamicznych racjonalnych oczekiwań podmio- 190 Adam P. Balcerzak Athanasios Orphanides, według którego współcześnie stosowane reguły polityki pieniężnej, w szczególności te oparte na regule Taylora, pozwalają na uchwycenie trzech powszechnie uznawanych elementów dobrej polityki gospodarczej: gwarantują silną systematyczną odpowiedź na pojawiające się zjawiska inflacyjne, zapewniają antycykliczny element polityki w kontekście cyklu koniunkturalnego, rozwiązują problem opóźnień czasowych związanych z mechanizmem transmisji monetarnej dzięki wykorzystywaniu prognoz inflacji oraz poziomu bezrobocia jako wskaźników stanu aktywności gospodarczej31. Poza tym według Krzysztofa Rybińskiego jasne reguły przyczyniają się do wzrostu czytelności i przewidywalności działań banku centralnego dla sektora prywatnego, co jest obecnie traktowane jako ważny element stabilizacji oczekiwań inflacyjnych, a tym samym stabilizacji samej inflacji32. W konsekwencji uznaje się, że polityka monetarna uwzględniająca regułę Taylora spełnia lub jest bliska spełnienia kryteriów optymalnej polityki gospodarczej w przypadku zarówno relatywnie skomplikowanych modeli polityki gospodarczej, jak i modeli względnie prostych. Spełnia warunki optymalnej polityki monetarnej dla poszczególnych krajów Europy, a także w znacznej mierze Europejskiego Banku Centralnego33, jak również dla Stanów Zjednoczonych34. Stosowanie reguł polityki monetarnej może rzeczywiście rozwiązywać powyższe tradycyjne, dobrze rozpoznane źródła nieefektywności polityki stabilizacyjnej. Jednakże efektywność takich działań stabilizacyjnych cały czas uzależniona jest od trzech elementów: a) względnie dobrej oceny aktualnego stanu tów gospodarczych, krótkookresowa polityka gospodarcza, która indywidualnie w oderwaniu od oczekiwań wydaje się optymalna w krótkim czasie, staje się nieoptymalna w długim horyzoncie czasowym. 31 A. Orphanides, Monetary-Policy Rules and the Great Inflation, „American Economic Review” 2002, vol. 92, nr 2, s. 116. 32 Pogląd o silnym wpływie efektywności komunikacyjnej między bankiem centralnym a rynkami finansowymi oraz przewidywalności działań tego pierwszego jest jednym z istotnych, relatywnie nowych elementów tzw. pryncypiów współczesnej polityki monetarnej. Jeszcze w okresie szczytowego rozwoju nowej ekonomii klasycznej, przypadającego na przełom lat 70. i 80. XX w., przyjmowano, że warunkiem skuteczności polityki pieniężnej jest zdolność banku centralnego do zaskakiwania rynków i zachowania nieprzewidywalności. Kwestie te są także syntetycznie omówione przez Krzysztofa Rybińskiego. Zob. K. Rybiński, op. cit., s. 247–254. 33 John Taylor przedstawił bardzo obszerną bibliografię badań nad efektywnością reguł polityki monetarnej obejmującą estymowane małe lub kalibrowane modele nieuwzględniające racjonalnych oczekiwań, estymowane lub kalibrowane modele z racjonalnymi oczekiwaniami, modele optymalizacyjne z reprezentatywnym agentem, duże ekonometryczne modele z racjonalnymi oczekiwaniami oraz badania obejmujące historyczne oraz międzynarodowe porównania. Zob. J.B. Taylor, The Robustness…, s. 659. 34 Według Gregory’ego Mankiwa polityka monetarna Stanów Zjednoczonych w latach 90. XX w. może być satysfakcjonująco opisana za pomocą prostej funkcji reakcji uwzględniającej poziom inflacji bazowej i poziom bezrobocia. Zob. N.G. Mankiw, U.S. Monetary Policy during the 1990s, „NBER Working Paper Series” 2001, Working Paper 8471, September. Współczesna polityka stabilizacyjna… 191 gospodarki, a więc oceny położenia gospodarki na krzywej przedstawiającej realny PKB na rys. 1; b) dobrej oceny normalnej trajektorii gospodarki stanowiącej punkt odniesienia dla monetarnych działań stabilizacyjnych, a więc oceny wysokości potencjalnego PKB; c) efektywnych narzędzi, które pozwalają na zmniejszenie luki inflacyjnej lub recesyjnej luki Okuna 35. Wynika z tego, że warunkiem brzegowym efektywności stabilizacji makroekonomicznej jest tutaj bardzo wysoka efektywność informacyjna, konieczna dla spełnienia punktu a i b. Oczywiste jest, że niespełnienie tych dwóch warunków będzie miało bardzo silne negatywne konsekwencje dla efektywności narzędzi wykorzystywanych w polityce stabilizacyjnej. W związku z tym dalsza analiza będzie się koncentrować na tych dwóch punktach. Obecnie warunek a wydaje się relatywnie łatwy do spełnienia ze względu na możliwość wykorzystania porównań historycznych oraz ekonometrycznej ewaluacji stanu bieżącej aktywności gospodarczej. Jednak w praktyce gospodarczej nawet w tej kwestii pojawiają się często poważne rozbieżności związane z tzw. luką rozpoznania (recognition lag), w wyniku której zarówno władze monetarne oraz fiskalne, jak i analitycy rynkowi często dostrzegają zmiany w poziomie aktywności gospodarczej z kilkumiesięcznym opóźnieniem36. Oprócz tego na tym etapie kształtowania działań polityki stabilizacyjnej pojawia się jeszcze konieczność uwzględnienia prognoz inflacji i bezrobocia, co jest warunkiem ograniczenia wpływu opóźnień mechanizmów transmisji monetarnej i zachowania efektywności reguły Taylora. Już w tym momencie należy oczekiwać pewnego wpływu na efektywność polityki gospodarczej błędów prognoz. Tym samym uwzględniając prognozy zamiast realnych wyników gospodarki, które nie mogą być znane w chwili podjęcia decyzji o kierunku działań gospodarczych, działania władz monetarnych nieumyślnie mogą odpowiadać na błędy oraz generować dodatkowe elementy zakłócające w polityce monetarnej37. Jeszcze większe problemy pojawiają się jednak w kontekście spełnienia warunku b. Ekonomiści są zgodni co do istnienia wartości określanej jako potencjalny PKB, który w praktyce często szacowany jest na podstawie popularnych procedur ekonometrycznych, jak np. filtr Hodricka-Prescotta38. Jasne jest także, 35 Federal Reserve Bank of Cleveland, Theory Ahead of Rhetoric: Measurement…, s. 10. Ibidem, s. 9–10. Efektywność banków centralnych w tym zakresie często nie jest znacząco wyższa niż sektora prywatnego mimo dużo wyższych nakładów środków przeznaczanych przez banki centralne na analizę stanu aktywności gospodarczej, czemu powszechnie przypisuje się przewagę informacyjną władz monetarnych nad sektorem prywatnym. K. Rybiński, op. cit., s. 250. 37 A. Orphanides, Monetary-Policy…, s. 116. 38 Zob. J.B. Taylor, Globalization and Monetary Policy: Missions Impossible, NBER Conference on the International Dimensions of Monetary Policy, Girona, Spain 2007, June 11–13; L. Ball, R.R. Tchaidze, The Fed and the New Economy, „American Economic Review” 2002, vol. 92, nr 2, s. 108; J. Gali, The Conduct of Monetary Policy in the Face of Technological Change: Theory and Postwar U.S. Evidence [w:] Stabilization and Monetary Policy: The International Experience, 36 192 Adam P. Balcerzak że możliwe są krótkookresowe odchylenia realnego PKB od jego wartości potencjalnej wynikające z zaburzeń w funkcjonowaniu mechanizmu rynkowego oraz jego pewnych nieefektywności, które powinny być przedmiotem zainteresowania władz gospodarczych39. Jednakże doświadczenia niektórych krajów wysoko rozwiniętych w ostatnich dekadach ponownie uzmysłowiły, że zmiany potencjalnego PKB wcale nie mają charakteru relatywnie łatwo estymowalnego trendu, a same cykliczne wahania mogą być efektem naturalnych zmian aktywności gospodarczej, które nie są konsekwencją nieefektywności mechanizmu rynkowego40. Najbardziej spektakularnym przykładem tego typu były z jednej strony nadzwyczajne makroekonomiczne osiągnięcia Stanów Zjednoczonych w drugiej połowie lat 90. ubiegłego wieku związane z rozwojem nowej gospodarki, z drugiej strony niespodziewane, a zarazem bardzo negatywne wyniki makroekonomiczne w zakresie stabilizacji produktu i inflacji w okresie stagflacji lat 70. Oba te, wydawałoby się skrajnie odmienne, przypadki zostaną bardziej szczegółowo omówione w następnym punkcie. 4. Reguła Taylora a problem obciążenia informacyjnego decydentów gospodarczych: przypadek Stanów Zjednoczonych w okresie nowej gospodarki lat 90. XX w. oraz w czasie stagflacji lat 70. XX w. Kwestia bieżącego efektywnego szacowania poziomu potencjalnego PKB oraz problem precyzji dekompozycji PKB na wahania cykliczne aktywności gospodarczej oraz długookresowe przesunięcia trendu, które wynikają np. z wyższej zdolności gospodarki do absorbowania innowacyjnych rozwiązań technologicznych, nabrały wyjątkowego znaczenia w Stanach Zjednoczonych w latach 90. XX w., nazywanych często czasem nowej gospodarki. Okres ten stanowił najdłuższą i najbardziej spektakularną prosperitę odnotowaną w powojennej historii Stanów Zjednoczonych, która przez niektórych ekonomistów była traktowana jako zjawisko cykliczne, w zasadzie utożsamiane z bąblami spekulacyjnymi na rynkach finansowych41. Z drugiej strony wielu ekonomistów znalazło Banco de Mexico, Mexico City, Mexico 2000, November 14–15; R.J. Hodrick, E.C. Prescott, Post War U.S. Business Cycles: An Empirical Investigation, „Journal of Money, Credit and Banking” 1997, vol. 29, nr 1, s. 1–16. 39 Federal Reserve Bank of Cleveland, Theory Ahead of Rhetoric: Measurement…, s. 9–10. 40 Taka możliwość została sformułowana przez twórców szkoły realnego cyklu koniunkturalnego. 41 Por. J.E. Stiglitz, The Roaring Nineties. A New History of the World’s Most Prosperous Decade, W.W. Norton, New York–London 2003. Współczesna polityka stabilizacyjna… 193 szereg dowodów potwierdzających tezę, że był to pierwszy etap fundamentalnej transformacji struktury gospodarczej tego kraju, związany z powszechną proliferacją teleinformatyki jako technologii ogólnego zastosowania oraz zdolności gospodarki do wykorzystania tego potencjału, co przyczyniło się do podniesienia amerykańskiego potencjalnego PKB42. W tym czasie głównym przedmiotem debaty nad makroekonomicznymi pryncypiami polityki stabilizacyjnej amerykańskiego banku centralnego był tzw. dopuszczalny „limit prędkości” (speed limit), w jakim mogła się rozwijać gospodarka amerykańska43. Według konwencjonalnego modelu omówionego na rys. 1, od płowy lat 90. XX w. realny PKB przekraczał jego wartość potencjalną, w związku z czym zgodnie z przyjmowanymi regułami polityki monetarnej, np. regułą Taylora, należało oczekiwać rozbudzonej presji inflacyjnej, czemu zawczasu powinny przeciwdziałać władze monetarne przez zacieśnienie polityki monetarnej44. W omawianym czasie powszechnie akceptowano szacunki NAIRU na poziomie 6–6,5%, podczas gdy w 1997 r. notowany poziom bezrobocia spadł poniżej 5%45. W rezultacie według prognoz Rezerwy Federalnej, jak również prognoz przygotowywanych przez ekonomistów związanych z prywatnym sektorem finansowym należało oczekiwać przyspieszenia tempa wzrostu inflacji. Mimo to w wyniku działań przewodniczącego Rezerwy Federalnej Alana Greenspana władze monetarne nie zdecydowały się na zacieśnienie polityki monetarnej zgodnej z konwencjonalną polityką stabilizacyjną i powszechnie akceptowanymi 42 Zob. D.W. Jorgenson, M.S. Ho, K.J. Stiroh, A Retrospective Look at the U.S. Productivity Growth Resurgence, Federal Reserve Bank of New York Staff Report, Staff Report No. 277, 2007, February; R.D. Atkinson, The Post and Future of America’s Economy. Long Waves of Innovation That Power Cycles of Growth, Edward Elgar, Washington 2005; W.D. Nordhaus, Productivity Growth and the New Economy, „Brookings Papers on Economic Activity” 2002, nr 2. 43 Co było jednoznaczne z problemem dotyczącym określenia wielkości potencjalnego PKB. Zob. D.W. Jorgenson, K.J. Stiroh, Raising the Speed Limit: U.S. Economic Growth in the Information Age, „Brookings Papers on Economic Activity” 2000, nr 1, s. 125–211; L. D’A. Tyson, Old Economic Logic in the New Economy, „California Management Review” 1999, vol. 41, nr 4, s. 12–14. 44 Wśród bardziej znanych ekonomistów zwolennikiem tego poglądu był np. Paul Krugman (zob. P.R. Krugman, America the Boastful, „Foreign Affairs” 1998, May–June; P.R. Krugman, How Fast Can the U.S. Economy Grow?, „Harvard Business Review” 1997, July–August). Warto także zwrócić uwagę na szacunki potencjalnego PKB z wykorzystaniem analizy spektralnej i filtra Hodricka-Prescotta dla gospodarki USA autorstwa Margaret Burke i Michaela Koupartisasa, których analiza przeczyła możliwości zmian w wielkości potencjalnego PKB (zob. M.K. Burke, M.A. Koupartisas, A New Paradigm for the U.S. Economy?, „The Federal Reserve Bank of Chicago FED Letter” 1998, nr 134). 45 Zob. M. Cox, R. Alm, The New Paradigm, Federal Reserve Bank of Dallas, 1999 Annual Report, s. 3–5. 194 Adam P. Balcerzak prognozami46. Powodem takiego działania było dostrzeżenie przez część ekonomistów, wśród których znalazł się Alan Greenspan, istotnego przyspieszenia tempa wzrostu produktywności pracy związanego z rozwojem nowej gospodarki47. W owym czasie przyspieszenie tempa wzrostu produktywności pracy było jednoznaczne z podniesieniem poziomu potencjalnego PKB. Wyeliminowało to presję inflacyjną wynikającą z wysokiego tempa wzrostu gospodarczego i związanego z tym bardzo ciasnego rynku pracy. W tym przypadku stosowanie polityki zgodnej z regułą Taylora oraz akceptowanym modelem polityki stabilizacyjnej z rys. 1 byłoby jednoznaczne z nieuwzględnianiem naturalnych zmian w systemie gospodarczym, które były związane z wykorzystaniem potencjału teleinformatyki jako technologii ogólnego zastosowania, skutkującej zwiększeniem tempa wzrostu produktywności pracy. Jej realizacja mogłaby doprowadzić do wysokich realnych kosztów w zakresie zatrudnienia i dochodu. W rezultacie koncentracja władz monetarnych wyłącznie na poziomie inflacji i rezygnacja z działań nastawionych na stabilizację produktu okazała się strategią efektywną48. Obecnie ekonomiści są zgodni, że powyższy przypadek zmiany tempa wzrostu produktywności pracy w latach 90. ubiegłego wieku, związany z rozwojem, proliferacją i wyjątkowym wykorzystaniem potencjału nowych rozwiązań teleinformatycznych, może być uznany za lustrzane odbicie strukturalnych zmian zachodzących w gospodarce Stanów Zjednoczonych w latach 70. ubiegłego stulecia49, których głównym elementem było spowolnienie produktywności pracy, a najważniejszym objawem wielka fala inflacji wywołana błędami w polityce monetarnej. W literaturze można znaleźć co najmniej kilka koherentnych i przekonujących modelowych analiz wskazujących na źródła tych proinflacyjnych błędów50. Trudno jednoznacznie wskazać najważniejsze powody sprawcze tych 46 Zob. R.J. Tetlow, B. Ironside, Real-Time Model Uncertainty in the United States. The FED from 1996–2003, European Central Bank Working Paper Series, 2006, No. 610, April; L.E.O. Svensson, R.J. Tetlow, Optimal Policy Projections, „International Journal of Central Banking” 2005, December, s. 187–190; S.G. Cecchetti, op. cit. 47 Zob. K. Rybiński, op. cit., s. 303; L.E.O. Svensson, R.J. Tetlow, op. cit., s. 195–201; J.B. Taylor, Commentary: Understanding the Greenspan Standard, Conference the Greenspan Era: Lessons for the Future, A Symposium Sponsored by Federal Reserve Bank of Kansas City, Jackson Hole, Wyoming 2005, August 25–27, s. 107–118; L. Ball, R.R. Tchaidze, op. cit., s. 108–144. 48 F. Mishkin, op. cit. 49 L. Summers, Cyclical Dynamics in the New Economy, „Journal of Policy Modeling” 2003, vol. 25, s. 527, 246; J. Temple, The Assessment: The New Economy, „Oxford Review of Economic Policy” 2002, vol. 18, nr 3; S.G. Cecchetti, op. cit.; Federal Reserve Bank of Cleveland, Theory Ahead of Rhetoric: Measurement…, s. 11. 50 Obecnie dość powszechnie przyjmuje się, że inflacyjne obciążenie polityki monetarnej w latach 70. XX w. wynikało z dyskrecjonalnych, krótkowzrocznych oraz niespójnych działań władz monetarnych, które były sprzeczne ze współczesnymi pryncypiami dobrej polityki monetarnej. A. Orphanides, Monetary-Policy…, s. 115. Współczesna polityka stabilizacyjna… 195 błędów51. Jednakże coraz więcej dowodów wskazuje na to, że szczególnie ważnym źródłem inflacyjnego obciążenia polityki monetarnej w tamtym okresie był brak możliwości uwzględnienia w polityce monetarnej zmian strukturalnych zachodzących w gospodarce, które istotnie wpływały na ograniczenie wysokości potencjalnego PKB. Wynikało to głównie z obciążeń bieżącej informacji dostępnej dla władz monetarnych52. O ile w przypadku zmian strukturalnych związanych z nową gospodarką amerykańskim władzom monetarnym udało się w porę zdiagnozować istotną transformację struktury makroekonomicznej gospodarki, w rezultacie czego odstąpiono od konwencjonalnej polityki stabilizacyjnej z rys. 1, bazującej na regule Taylora, i dzięki temu uniknięto strat produktu związanych z polityką stabilizacyjną53, o tyle w latach 70. XX w. utrzymano politykę monetarną zgodną z celami stabilizacyjnymi zarówno w zakresie produktu jak i inflacji, a mimo to wiązało się to z gwałtownym przyspieszeniem inflacji54. W tej sytuacji zbyt eks51 Według Allana Meltzera można mówić o dwóch głównych grupach przyczyn inflacji lat 70. XX w.: a) przyczyny związane z procesem politycznym prowadzenia polityki gospodarczej, a więc zjawiskami opisywanymi na gruncie teorii politycznego cyklu koniunkturalnego i zjawiskiem braku spójności działań Rezerwy Federalnej związanej z ograniczoną jego niezależnością; b) przyczyny związane z bazowaniem Rezerwy Federalnej na niewłaściwych teoriach i modelach. W ramach pierwszej grupy przyczyn duże znaczenie miała zwyczajowa zasada dążenia do osiągnięcia konsensusu w ramach Komitetu Otwartego Rynku przed zmianami polityki gospodarczej, co skutkowało opóźnieniami przy podejmowaniu działań antyinflacyjnych. W wypadku tej grupy przyczyn szczególne znaczenie miały reguły instytucjonalne narzucające konieczność koordynacji polityki fiskalnej oraz monetarnej, które jednocześnie ograniczały niezależność działań Rezerwy Federalnej. Ograniczało to możliwość prowadzenia szybkiej i efektywnej antyinflacyjnej polityki monetarnej. Według Allana Meltzera była to prawdopodobnie główna przyczyna „wielkiej inflacji” lat 70. ubiegłego wieku. W ramach drugiej grupy przyczyn odnoszących się do teorii niemal w całym okresie powojennym pracownicy oraz decydenci Rezerwy Federalnej ignorowali fundamentalną długookresową zależność pomiędzy wzrostem ilości pieniądza a inflacją. W rezultacie w latach 60. i 70. dominowały poglądy o niemonetarnych źródłach inflacji. W związku z tym według większości analiz z tego okresu inflacja stanowiła efekt przejściowych czynników, które nie wymuszały silnej odpowiedzi polityki gospodarczej. A.H. Meltzer, Origins of the Great Inflation, „Federal Reserve Bank of St. Louis Review” 2005, vol. 87, nr 2, cz. 2, s. 145–176. W kontekście tej ostatniej uwagi trudno nie dostrzec pewnych analogii do komentarzy dotyczących narastającej globalnej presji inflacyjnej w 2008 r., która według wielu ekonomistów stanowi przejściowy efekt związany z ujemnymi szokami podażowymi na rynkach energii i rynkach rolnych. 52 A. Orphanides, The Quest for Prosperity without Inflation, European Central Bank Working Paper Series 2000, No. 15, March; A. Orphanides, S. van Norden, The Unreliability of Output Gap Estimates in Real Time, „Review of Economics and Statistics” 2002, vol. 84, nr 4, s. 569–583. 53 F. Mishkin, op. cit. 54 Analizy symulacyjne przeprowadzone przez Athanasiosa Orphanidesa, w których wykorzystuje się współczesną informację oraz informację bieżącą dostępną władzom monetarnym w momencie podejmowania decyzji o restrykcyjności polityki monetarnej, wskazują, że wbrew dominującym poglądom obciążenie inflacyjne w latach 70. XX w. nie wynikało z odstąpienia od zasad polityki stabilizacyjnej zgodnej z regułą Taylora, na co wskazywałyby symulacje bazujące na współczesnej nieobciążonej błędami informacji. Symulacje bazujące na informacji dostępnej de- 196 Adam P. Balcerzak pansywna polityka monetarna wynikała z bieżącego przeszacowywania luki Okuna, co wiązało się z opóźnieniami w rozpoznaniu trwałego ograniczenia tempa wzrostu produktywności pracy ograniczającego poziom potencjalnego PKB55. Zarówno przykład nowej gospodarki oraz przykład stagflacji w Stanach Zjednoczonych w latach 70. ubiegłego wieku dowodzą, że głównym czynnikiem wpływającym na efektywność polityki stabilizacyjnej jest zdolność do bieżącego oszacowania wielkości potencjalnego PKB, co jest tożsame z koniecznością trafnego oszacowania w czasie bieżącym nieobserwowalnych wartości naturalnej czy też neutralnej stopy procentowej oraz naturalnego poziomu bezrobocia56. Standardowo takie analizy wykonywane są z zachowaniem dwóch założeń: a) założenia o znanej, stabilnej lub przewidywalnej stopie NAIRU; b) założenia o znanym, stabilnym lub przewidywalnym tempie wzrostu produktywności pracy57. W praktyce gospodarczej oba te założenia są dość trudne do spełnienia. Zarówno prognozowanie NAIRU, jak i w szczególności trafne przewidzenie zmiany trendu produktywności pracy stanowi jedno z największych wyzwań ekonomii stosowanej58. Zakres błędów, jakie mogą zostać popełnione w wypadku niespełnienia wspomnianych założeń, przedstawia rys. 2 zaczerpnięty z pracy Athanasiosa Orphanidesa. Rysunek ten ukazuje historyczne szacunki potencjalnego produktu opartego na danych opublikowanych w Ekonomicznym Raporcie Prezydenta w latach 1973, 1976 oraz 1979, na podstawie których trudno było rozpoznać gwałtowne spowolnienie produktywności pracy. Wartości te zostały porównane z szacunkami potencjalnego produktu opartego na danych dostępnych w 1994 r., które nie były już obciążone bieżącymi informacyjnymi zanieczyszczeniami. Porównanie to pokazuje bardzo poważne błędy w zakresie mierzenia luki produktu w pierwszej połowie lat 70. ubiegłego wieku wiążące się z niespodziewanym spadkiem potencjalnego PKB, który ze swej natury może być rozpoznacydentom monetarnym, która była jednak obciążona bieżącymi błędami w zakresie szacunków luki Okuna oraz inflacji dowiodły, że inflacja przybrała takie rozmiary mimo prowadzenia polityki stabilizacyjnej zgodnej z rys. 1 i regułą Taylora. A. Orphanides, The Quest…, 2000, s. 648–649; A. Orphanides, Monetary-Policy…, s. 115–120. Poniżej zostanie to szerzej omówione. 55 A. Orphanides, The Quest…, 2000, s. 633–663. 56 A. Orphanides, Monetary-Policy…, s. 116. 57 A. Orphanides, The Quest…, 2000, s. 653–654. 58 Szczególnie dużym wyzwaniem jest oszacowanie ex ante zmiany tempa wzrostu produktywności pracy oraz rozdzielenie elementu cyklicznego od długookresowej zmiany, co pozwoliłoby na określenie trwałości tego zjawiska. Świadczyła o tym dyskusja na temat wpływu nowej gospodarki na produktywność pracy tocząca się w Stanach Zjednoczonych w drugiej połowie lat 90. ubiegłego wieku. Potwierdza to także cały czas nierozstrzygnięta dyskusja nad przyczynami spowolnienia tempa wzrostu produktywności w latach 70. Także bieżące analizy zmian NAIRU zazwyczaj charakteryzują się znaczącymi różnicami uwarunkowanymi podejściem metodologicznym, co zwiększa ryzyko popełnienia istotnego błędu. Kwestie te zostały syntetycznie omówione przez Laurenca Balla i Roberta Tchaidze. L. Ball, R. Tchaidze, op. cit., s. 111–113. Współczesna polityka stabilizacyjna… 197 walny stopniowo wraz z upływem czasu. Warto tu podkreślić, że już w połowie lat 70. rosła świadomość błędów w odniesieniu do szacunków potencjalnego PKB, w związku z czym rozpoczęto prace nad ich usunięciem. W 1977 r. dokonano znacznej korekty szacunków potencjalnego PKB. Po przeprowadzonej rewizji ocen stwierdzono, że realny PKB w 1976 r. był o cztery punkty procentowe bliżej do potencjalnego PKB w porównaniu z wcześniejszym stanem wiedzy59. Porównując jednak efekty tych prac z kolejnych lat z obecnie dostępnymi szacunkami pozbawionymi zanieczyszczeń informacyjnych (luka PKB szacowana na podstawie danych z 1994 r.) można stwierdzić, że mimo kolejnych rewizji szacunków (1977 oraz 1979 r.) do końca lat 70. polityka gospodarcza była silnie obciążona błędami informacyjnymi. Rys. 2. Błędy w mierzeniu luki produktu (inflacyjnej luki oraz recesyjnej luki Okuna) w latach 70. XX w. w Stanach Zjednoczonych związane z zanieczyszczeniem bieżącej informacji Źródło: A. Orphanides, The Quest…, 2000, s. 665. Do podobnych wniosków prowadzi analiza Jordi Galiego. Wykazał on, że w odróżnieniu od lat 60. i 70. XX w., gdy negatywny szok związany ze zmianą tempa wzrostu produktywności w konsekwencji błędów diagnostycznych przełożył się na wzrost inflacji, w latach 80. i 90. szok związany ze zmianą produk59 A. Orphanides, The Quest…, 2000, s. 654–655. 198 Adam P. Balcerzak tywności nie wpłynął destabilizująco na poziom inflacji. Według Jordi Galiego, podobnie jak w przypadku analizy Athanasiosa Orphanidesa, problemy lat 70. wynikały z braku odróżnienia przejściowych zmian wiązanych ze zmianami produktywności od zmian o charakterze długookresowym60. W rezultacie obecnie panuje zgodność poglądów, że najważniejszym źródłem tak dużych oraz długotrwałych błędów w zakresie szacunków potencjalnego PKB, a tym samym luki produktu w latach 70. XX w. było szybkie podniesienie się NAIRU, a w szczególności spowolnienie produktywności pracy, które zaczęło się już w połowie lat 60. oraz gwałtownie przybrało na sile na przełomie 1973 i 1974 r.61 W przypadku inflacji lat 70. ubiegłego wieku oraz nowej gospodarki w drugiej połowie lat 90. błędy prognoz oraz szacunków potencjalnego PKB osiągnęły szczególnie duże rozmiary oraz mogły mieć bardzo istotny wpływ na efektywność polityki gospodarczej ze względu na przyspieszoną transformację struktury gospodarczej. Jednakże Athanasios Orphanides dowodzi w innym badaniu, że równie negatywne rezultaty dla efektywności antycyklicznej polityki stabilizacyjnej mogą być wywołane niewielkimi systematycznymi błędami w szacowaniu NAIRU oraz naturalnej stopy procentowej. W rezultacie szacunki neutralnej stopy procentowej oraz NAIRU, które są zbyt niskie, oraz zbyt optymistyczne prognozy inflacji lub zbyt pesymistyczne prognozy stopy bezrobocia mogą skutkować wskazaniami dla polityki gospodarczej, która doprowadzi do rozbudzenia presji inflacyjnej62. W tym miejscu należałoby jeszcze rozważyć, w jaki sposób na powyższe problemy efektywności informacyjnej decydentów gospodarczych wpływa oraz może najprawdopodobniej wpływać w przyszłości proces strukturalnej transformacji gospodarki związany ze zjawiskiem tworzenia nowej globalnej gospodarki opartej na wiedzy63. Wracając do amerykańskich doświadczeń z polityką monetarną drugiej połowy lat 90. ubiegłego wieku, wskazano, że w czasie tym część ekonomistów zdołała w porę zdiagnozować gwałtowne przyspieszenie tempa wzrostu produktywności pracy, dzięki czemu władze monetarne zrezygnowały z dysfunkcjonalnych działań nastawionych na stabilizację produktu 60 J. Gali, op. cit., s. 407–440. A. Orphanides, The Quest…, 2000, s. 656. 62 W badaniu tym Athanasios Orphanides przyjął funkcję reakcji opartej na regule Taylora i uwzględniającej oczekiwania w następującym kształcie: f = r* + Π* + (Π – Π*) + γ(u* – u), gdzie u* stanowi NAIRU, Π* – docelową stopę inflacji, f – federalną stopę procentową, r* – neutralną stopę procentową, u – prognozę stopy bezrobocia, a Π – prognozę dla stopy inflacji. Gdy przyjmie się zgodnie z tradycyjną regułą Taylora oraz powszechnie akceptowalnymi szacunkami = γ = 1,5 oraz Π* = r* = 2, prognozy inflacji oraz szacunki NAIRU, które są systematycznie zbyt niskie o 1 punkt procentowy prowadzą do polityki monetarnej obarczonej zniekształconym celem inflacyjnym, który jest o 3 punkty procentowe zbyt wysoki. Błędy te są jeszcze wyższe w wypadku wystąpienia wyższego γ lub niższego . A. Orphanides, Monetary-Policy…, s. 117. 63 Zob. K. Rybiński, op. cit. 61 Współczesna polityka stabilizacyjna… 199 i skoncentrowały się na zadaniu zapewnienia stabilnej inflacji 64. Przykład ten może świadczyć, że obecnie problemy te są w znacznej mierze dobrze zdiagnozowane i efektywnie rozwiązywane. W związku z tym może się wydawać, że decydenci opowiadający się za polityką monetarną nastawioną na antycykliczne działania stabilizacyjne w zakresie zarówno poziomu cen, jak i produktu mają istotne podstawy dla optymizmu. Niestety wiele wskazuje na to, że takie wnioski mogą się okazać zbyt optymistyczne. W tym kontekście spora grupa ekonomistów wskazuje, że trafne rozpoznanie przyspieszenia tempa wzrostu produktywności w drugiej połowie lat 90. XX w. i uwzględnienie tego w prowadzonej polityce monetarnej można uznać za jeden z najbardziej spektakularnych przykładów „wielkiego szczęścia” decydentów monetarnych (good fortune in monetary decision making) w ostatnim trzydziestoleciu polityki monetarnej Stanów Zjednoczonych65. Paradoksalnie, empirycznym potwierdzeniem ogromnej wagi problemów efektywności informacyjnej władz monetarnych wobec wyzwań obecnej transformacji strukturalnej globalnej gospodarki jest polityka monetarna prowadzona przez Alana Greenspana na początku XXI w. Jej celem było ograniczenie negatywnych konsekwencji bessy na rynkach finansowych z przełomu lat 2000 i 2001 oraz związanego z nią spowolnienia gospodarczego. W 2003 r. w rezultacie działań nastawionych na likwidację recesyjnej luki Okuna mimo rosnącej aktywności gospodarczej oraz oczekiwań rynków wskazujących na konieczność zacieśnienia polityki monetarnej, Rezerwa Federalna opierając się na prognozach wskazujących na trwały, przynajmniej w średnim horyzoncie czasowym, charakter bieżącej presji antyinflacyjnej wynikającej z globalizacji (głównie „eksportu deflacji” błyskawicznie integrujących się z gospodarką światową Chin i Indii) oraz wysokiego tempa wzrostu produktywności pracy (wiązanych z proliferacją technologii teleinformatycznych, a także wzrostem globalnej presji konkurencyjnej), zdecydowała się na odłożenie w czasie zacieśnienia monetarnego. Działania te były motywowane obawą przed możliwością ograniczenia 64 F. Mishkin, op. cit. S.G. Cecchetti, op. cit. Pogląd ten jest na tyle szeroko akceptowany, że stało się to wręcz podstawą do mitologizacji talentu oraz samej postaci ówczesnego prezesa Rezerwy Federalnej Alana Greenspana. Zob. B. Woodward, Maestro: Greenspan’s Fed and the American Boom, Touchstone-Rockefeller Center, New York 2000. Z drugiej strony w ostatnich latach wśród publicystów ekonomicznych pojawili się także zagorzali krytycy Alana Greenspana (zob. W.A. Fleckenstein, F. Sheehan, Greenspan’s Bubbles. The Age of Ignorance at the Federal Reserve, McGraw-Hill, New York 2008). W tym miejscu należy jednak podkreślić, że wśród profesjonalnych ekonomistów polityka prezesa Greenspana sprzed 2000 r. jest w zasadzie oceniana jednoznacznie pozytywnie (zob. F. Mishkin, op. cit.). Natomiast polityka po 2000 r., w szczególności w kontekście łagodzenia sutków pęknięcia bąbla internetowego na rynkach finansowych oraz narastania bąbla spekulacyjnego na rynku nieruchomości, jest przedmiotem poważnych kontrowersji, a przez część ekonomistów jest ocenia negatywnie (zob. K. Rybiński, op. cit., s. 253). 65 200 Adam P. Balcerzak tempa redukcji luki Okuna oraz pojawienia się deflacji, a tym samym wpadnięcia w pułapkę płynności66. Mimo powszechnej wysokiej oceny takiej polityki monetarnej ferowanej w czasie bieżącym, o czym świadczyła aprobata dla tych działań Międzynarodowego Funduszu Walutowego, tak prowadzona polityka stabilizacyjna znacząco przyczyniła się do pogłębienia zadłużenia amerykańskich gospodarstw domowych, powstania bąbla spekulacyjnego na rynku nieruchomości67, który na przełomie 2007 i 2008 r. stał się czynnikiem destabilizującym sytuację gospodarczą nie tylko w samych Stanach Zjednoczonych, ale w całej gospodarce światowej. Według części ekonomistów polityka ta także przyczyniła się do pogłębienia zewnętrznej nierównowagi gospodarczej Stanów Zjednoczonych, stanowiącej obecnie prawdopodobnie największe wyzwanie gospodarcze tego kraju. Bardzo dobitnie kwestię tę podsumował prezes Rezerwy Federalnej w Dallas Richard Fischer: „W retrospekcji realna stopa procentowa była zbyt niska, niż wydaje się właściwe, i była utrzymywana zbyt długo na niskim poziomie, co wynikało po części ze złej jakości danych ekonomicznych. Złe dane prowadziły do decyzji, które zwiększały aktywność spekulacyjną na rynku nieruchomości i na innych rynkach. Dzisiaj każdy, kto nie jest z byłej planety Pluton, wie, że na rynku nieruchomości ma miejsce silna korekta, która wiąże się z realnymi kosztami dla milionów właścicieli domów. To komplikuje zadanie banku centralnego, jakim jest osiągnięcie naszego celu monetarnego i stworzenie warunków dla trwałego bezinflacyjnego wzrostu”68. Athanasios Orphanides podkreśla, że w celu pełnego uniknięcia błędów i problemów diagnostycznych w zakresie oceny bieżącego stanu gospodarki oraz charakteru notowanych szoków podażowych, jak również zminimalizowania ich ewentualnych negatywnych konsekwencji, nie wystarczy tylko poprawienie jakości statystyk, czy też metodologii mierzenia NAIRU, i zmian produktywności pracy, ale wymagałoby to uzyskania pełnej wiedzy o czynnikach wpływających na tzw. resztę Solowa z jego neoklasycznego modelu egzogenicznego wzrostu gospodarczego, co jednak wydaje się trudne do spełnienia69. W świetle przeprowadzonej analizy sceptycyzm ten nie jest raczej przesadzony. Wobec obserwowanej obecnie powszechnej transformacji światowego sytemu gospodarczego, szczególnie w kontekście rosnącego usieciowienia gospodarki o charakterze 66 D.L. Kohn, Central Bank Communication, At the Annual Meeting of the American Economic Association, Philadelphia, Pennsylvania, January 9, 2005, http://www.federalreserve.gov/ boarddocs/speeches/2005/20050109/default.htm, 26.04.2008; D.L. Kohn, Globalization, Inflation, and Monetary Policy, At the James R. Wilson Lecture Series, The College of Wooster, Wooster, Ohio, October 11, 2005, http://www.federalreserve.gov/boarddocs/speeches/2005/20051011/default.htm, 28.04.2008. 67 K. Rybiński, op. cit., s. 252. 68 Cyt za: K. Rybiński, op. cit., s. 253. 69 A. Orphanides, The Quest…, 2000, s. 656. Współczesna polityka stabilizacyjna… 201 globalnym i wzrostu ekonomicznego znaczenia jakości nienamacalnych czynników organizacyjnych oraz instytucji70, można oczekiwać, że powyższe problemy będą nabierały coraz większego znaczenia. 5. Podsumowanie W pierwszej części artykułu zostały przeanalizowane fundamenty współczesnej polityki stabilizacyjnej, które mogą być uznane za podstawię konsensusu współcześnie panującego wśród makroekonomistów. Z analizy tej wynika, że obecnie główna odpowiedzialność za efektywność polityki stabilizacyjnej w normalnych czasach przypisywana jest władzom monetarnym. Przyczynami tego stanu są dobrze znane tradycyjne ograniczenia polityki fiskalnej, na które ponadto nakładają się dodatkowe czynniki związane z transformacją strukturalną światowej gospodarki prowadzącą do wzrostu interakcji pomiędzy poszczególnymi krajami oraz coraz wyższej elastyczności większości gospodarek. Zjawiska te przyczyniają się do dalszego ograniczenia efektywności stabilizacyjnej polityki fiskalnej, która w tych realiach staje się ważnym narzędziem budowania warunków dla średnio- i długookresowego wzrostu gospodarczego. W ostatnich latach w literaturze tematu coraz częściej można spotkać się z opiniami, według których nowocześnie prowadzona polityka monetarna daje gwarancje nie tylko zapewnienia wysokiej stabilności pieniądza, co stanowi explicite wyrażany cel każdego banku centralnego, ale jest także coraz bardziej efektywnym narzędziem stabilizacji aktywności gospodarczej w sferze realnej. Upraszając, gwarancją tego są wysoka niezależność banków centralnych oraz stosowanie reguł polityki monetarnej, które z jednej strony zapewniają dyscyplinę eliminującą negatywne konsekwencje niespójności w czasie, z drugiej strony dzięki wystarczającej elastyczności i uwzględnianiu prognoz i oczekiwań przyszłego stanu aktywności gospodarczej pozwalają rozwiązać problemy związane z opóźnieniami mechanizmów transmisji monetarnej. Przeprowadzona analiza oraz przytoczone przykłady sukcesów i porażek polityki monetarnej prowadzonej w Stanach Zjednoczonych dowodzą jednak, że pomimo ogromnych postępów w zakresie teorii oraz błyskawicznego rozwoju narzędzi statystycznych i ekonometrycznych podnoszących zdolności banków 70 Zob. A.P. Balcerzak, Państwo a wyzwania nowej globalnej gospodarki XXI wieku [w:] Europa wobec wyzwań gospodarki globalnej, pod red. A.P. Balcerzaka, E. Rogalskiej, Wydawnictwo Adam Marszałek, Toruń 2008; A.P. Balcerzak, Sieciowa logika gospodarki globalnej jako wyzwanie dla współczesnego przedsiębiorstwa, I Ogólnopolska Konferencja nt. „Przedsiębiorstwo w otoczeniu globalnym”, Wydział Ekonomiczny, Uniwersytet Gdański, Sopot 2008, 23–24 października. 202 Adam P. Balcerzak centralnych do diagnozowania i prognozowania stanu aktywności gospodarczej, ciągłym zagrożeniem dla efektywności monetarnej polityki stabilizacyjnej jest problem nieefektywności informacyjnej decydenta gospodarczego. Podejmując decyzję o kształcie polityki monetarnej generującej realne bodźce gospodarcze z kilkumiesięcznym opóźnieniem, decydent gospodarczy musi posługiwać się bieżącymi danymi o różnym stopniu zanieczyszczenia informacyjnego. Oznacza to, że banki centralne decydując o działaniach, których celem jest nie tylko ochrona siły nabywczej pieniądza, ale także działania o charakterze antycyklicznym, powinny cały czas zachowywać bardzo daleko posuniętą ostrożność. Literatura Alesina A., The Political Economy of the Budget Surplus in the U.S., „Journal of Economic Perspectives” 2000, vol. 14, nr 3. Atkinson R.D., The Post and Future of America’s Economy. Long Waves of Innovation That Power Cycles of Growth, Edward Elgar, Washington 2005. Balcerzak A.P., Państwo a wyzwania nowej globalnej gospodarki XXI wieku [w:] Europa wobec wyzwań gospodarki globalnej, pod red. A.P. Balcerzaka, E. Rogalskiej, Wydawnictwo Adam Marszałek, Toruń 2008. Balcerzak A.P., Sieciowa logika gospodarki globalnej jako wyzwanie dla współczesnego przedsiębiorstwa, I Ogólnopolska Konferencja nt. „Przedsiębiorstwo w otoczeniu globalnym”, Wydział Ekonomiczny, Uniwersytet Gdański, Sopot 2008, 23–24 października. Ball L., Tchaidze R.R., The Fed and the New Economy, „American Economic Review” 2002, vol. 92, nr 2. Blanchard O., Is There a Core of Usable Macroeconomics?, „American Economic Review” 1997, vol. 87, nr 2. Blinder A.S., Is There a Core of Practical Macroeconomics That We Should All Believe?, „American Economic Review” 1997, vol. 87, nr 2. Burke M.K., Koupartisas M.A., A New Paradigm for the U.S. Economy?, „The Federal Reserve Bank of Chicago FED Letter” 1998, nr 134. Cecchetti S.G., The New Economy and the Challenges for Macroeconomic Policy, „NBER Working Paper Series” 2002, Working Paper 8935, May. Cox M., Alm R., The New Paradigm, Federal Reserve Bank of Dallas, 1999 Annual Report. Eichenbaum M., Some Thoughts on Practical Stabilization Policy, „American Economic Review” 1997, vol. 87, nr 2. Federal Reserve Bank of Cleveland, Theory Ahead of Rhetoric: Economic Policy for a „New Economy”, 1999 Annual Report. Federal Reserve Bank of Cleveland, Theory Ahead of Rhetoric: Measurement and the „New Economy”, 2000 Annual Report. Fleckenstein W.A., Sheehan F., Greenspan’s Bubbles. The Age of Ignorance at the Federal Reserve, McGraw-Hill, New York 2008. Gali J., The Conduct of Monetary Policy in the Face of Technological Change: Theory and Postwar U.S. Evidence [w:] Stabilization and Monetary Policy: the International Experience, Banco de Mexico, Mexico City, Mexico 2000, November 14–15. Goodfriend M., The Monetary Policy Debate Since October 1979: Lessons for Theory and Practice, „Federal Reserve Bank of St. Louis Review” 2005, vol. 87, nr 2, cz. 2. Współczesna polityka stabilizacyjna… 203 Hodrick R.J., Prescott E.C., Post War U.S. Business Cycles: An Empirical Investigation, „Journal of Money, Credit and Banking” 1997, vol. 29, nr 1. Jorgenson D.W., Ho M.S., Stiroh K.J., A Retrospective Look at the U.S. Productivity Growth Resurgence, Federal Reserve Bank of New York Staff Report, Staff Report No. 277, 2007, February. Jorgenson D.W. Stiroh K.J., Raising the Speed Limit: U.S. Economic Growth in the Information Age, „Brookings Papers on Economic Activity” 2000, nr 1. Kohn D.L., Central Bank Communication, At the Annual Meeting of the American Economic Association, Philadelphia, Pennsylvania, January 9, 2005, http://www.federalreserve.gov/ boarddocs/speeches/2005/20050109/default.htm, 26.04.2008. Kohn D.L., Globalization, Inflation, and Monetary Policy, At the James R. Wilson Lecture Series, The College of Wooster, Wooster, Ohio, October 11, 2005, http://www.federalreserve.gov/ boarddocs/speeches/2005/20051011/default.htm, 28.04.2008. Krugman P.R., America the Boastful, „Foreign Affairs” 1998, May–June. Krugman P.R., How Fast Can the U.S. Economy Grow?, „Harvard Business Review” 1997, July– August. Lipowski A., Ekonomiczna zawodność państwa – krytyczna analiza ujęcia antyetatystycznego, „Ekonomista” 2002, nr 2. Mankiw N.G., U.S. Monetary Policy during the 1990s, „NBER Working Paper Series” 2001, Working Paper 8471, September. Meltzer A.H., Origins of the Great Inflation, „Federal Reserve Bank of St. Louis Review” 2005, vol. 87, nr 2, cz. 2. Mishkin F.S., Will Monetary Policy Become More of a Science?, „NBER Working Paper Series” 2007, Working Paper 13566, October. Nordhaus W.D., Productivity Growth and the New Economy, „Brookings Papers on Economic Activity” 2002, nr 2. Orphanides A., Monetary-Policy Rules and the Great Inflation, „American Economic Review” 2002, vol. 92, nr 2. Orphanides A., The Quest for Prosperity without Inflation, European Central Bank Working Paper Series 2000, No. 15, March. Orphanides A., The Quest for Prosperity without Inflation, „Journal of Monetary Economics” 2003, vol. 50. Orphanides A., Norden S. van, The Unreliability of Output Gap Estimates in Real Time, „Review of Economics and Statistics” 2002, vol. 84, nr 4. Rybiński K., Globalizacja w trzech odsłonach. Offshoring – globalne nierównowagi – polityka pieniężna, Diffin, Warszawa 2007. Snowdon B., Vane H., Wynarczyk P., Współczesne nurty teorii makroekonomii, Wydawnictwo Naukowe PWN, Warszawa 1998. Solow R.M., Is There a Core of Usable Macroeconomics We Should All Believe in?, „American Economic Review” 1997, vol. 87, nr 2. Stiglitz J.E., The Roaring Nineties. A New History of the World’s Most Prosperous Decade, W.W. Norton, New York–London 2003. Summers L., Cyclical Dynamics in the New Economy, „Journal of Policy Modeling” 2003, vol. 25. Svensson L.E.O., Tetlow R.J., Optimal Policy Projections, „International Journal of Central Banking” 2005, December. Taylor J.B., A Core of Practical Macroeconomics, „American Economic Review” 1997, vol. 87, nr 2. Taylor J.B., Commentary: Understanding the Greenspan Standard, Conference the Greenspan Era: Lessons for the Future, A Symposium Sponsored by Federal Reserve Bank of Kansas City, Jackson Hole, Wyoming 2005, August 25–27. 204 Adam P. Balcerzak Taylor J.B., Discretion Versus Policy Rules in Practice, Carnegie-Rochester Conference Series on Public Policy, 1993, vol. 39, s. 202. Taylor J.B., Globalization and Monetary Policy: Missions Impossible, NBER Conference on the International Dimensions of Monetary Policy, Girona, Spain 2007, June 11–13. Taylor J.B., The Robustness and Efficiency of Monetary Policy Rules as Guidelines for Interest Rate Setting by the European Central Bank, „Journal of Monetary Economics” 1999, vol. 43, nr 3. Temple J., The Assessment: The New Economy, „Oxford Review of Economic Policy” 2002, vol. 18, nr 3. Tetlow R.J., Ironside B., Real-Time Model Uncertainty in the United States. The FED from 1996– 2003, European Central Bank Working Paper Series, 2006, No. 610, April. Tyson L.D’A., Old Economic Logic in the New Economy, „California Management Review” 1999, vol. 41, nr 4. Wojtyna A., Szkice o polityce pieniężnej, PWE, Warszawa 2004. Wojtyna A., Ewolucja keynesizmu a główny nurt ekonomii, Wydawnictwo Naukowe PWN, Warszawa 2000. Wojtyna A., Nowoczesne państwo kapitalistyczne a gospodarka. Teoria i praktyka, PWN, Warszawa 1990. Woodward B., Maestro: Greenspan’s Fed and the American Boom, Touchstone-Rockefeller Center, New York 2000. The Contemporary Stabilisation Policies in the Context of the Ineffectiveness of Information Demonstrated by Economic Decision-Makers: the Case of the United States In the last three decades the theory of macroeconomics has undergone fundamental changes resulting from the fall of Keynes’s traditional theories, the expansion of monetarism followed by the revolution of rational expectations giving rise to the development of new classical economics and real business cycle theory, finally leading to new Keynesian economics. In the face of those dynamic changes and divisions, an attempt has been made to specify the contemporary and commonly accepted “applied” stabilisation policy. The analysis of the achievements of the above trends leads to the assumption that the current stabilisation policy is vested in the hands of monetary authorities. It is claimed that the ineffectiveness of information which contaminates current data used by economic decision-makers poses a major threat to the successful stabilisation policy apart from the economy’s growing analytical and forecasting potential. The analysis is based on the case of the United States in the last decade and the period of stagflation in the 1970s. Adam P. Balcerzak – magister, asystent w Katedrze Ekonomii na Wydziale Nauk Ekonomicznych i Zarządzania Uniwersytetu Mikołaja Kopernika w Toruniu. Zainteresowania naukowo-badawcze: rola państwa w gospodarce (efektywność polityki fiskalnej i monetarnej, zdolność państwa do prowadzenia skutecznej polityki antycyklicznej), determinanty wzrostu gospodarczego, innowacyjność gospodarki. e-mail: [email protected]