rec. Władysława Łuczka-Bakuła

Transkrypt

rec. Władysława Łuczka-Bakuła
EKONOMISTA
EKONOMISTA
Tylko prenumerata zapewni
regularne otrzymywanie
czasopisma
Warunki prenumeraty
11 Wy­daw­nic­two Key Text
Wpła­ty na pre­nu­me­ra­tę przyj­mo­wa­ne są na okres nie­prze­kra­cza­ją­cy jed­ne­go ro­ku. Pre­nu­me­ra­ta roz­po­czy­
na się od naj­bliż­sze­go nu­me­ru po do­ko­na­niu wpła­ty na ra­chu­nek ban­ko­wy nr:
64 1160 2202 0000 0001 1046 1312
Wy­daw­nic­two Key Text sp. z o.o.
ul. Wolska 64A, 01-134 War­sza­wa
+48 22 632 11 36
Ce­na jed­ne­go nu­me­ru w pre­nu­me­ra­cie krajowej w 2012 r. wy­no­si 55,65 PLN; ze zle­ce­niem do­sta­wy
za gra­ni­cę rów­na będzie ce­nie pre­nu­me­ra­ty kra­jo­wej plus rze­czy­wi­ste kosz­ty wy­sył­ki.
Ce­na pre­nu­me­ra­ty za okres obej­mu­jący kil­ka nu­me­rów jest wie­lo­krot­no­ścią tej su­my.
Ce­na pre­nu­me­ra­ty kra­jo­wej na 2012 r. wy­no­si 333,90 zł (w tym 5% VAT).
11 Prenumerata realizowana przez „RUCH” S.A.
Prenumerata krajowa
Zamówienia na prenumeratę przyjmują Zespoły Prenumeraty właściwe dla miejsca zamieszkania klienta.
www.prenumerata.ruch.com.pl
Pre­nu­me­ra­ta ze zleceniem wysyłki za granicę
Informacji o warunkach prenumeraty i sposobie zamawiania udziela
RUCH S.A. Biuro Kolportażu – Zespół Obrotu Zagranicznego
ul. Annopol 17A, 03-236 Warszawa
Tel. +48 22 693 67 75, +48 22 693 67 82, +48 22 693 67 18
www.ruch.pol.pl
Infolinia prenumeraty +48 801 443 122 koszt połączenia wg taryfy operatora.
EKONOMISTA
CZASOPISMO POŚWIĘCONE NAUCE I POTRZEBOM ŻYCIA
ZAŁOŻONE W ROKU 1900
2012
3
Indeks 357030
ISSN 0013-3205
Cena 55,65 zł
(w tym 5% VAT)
2012
3
W numerze
Marek Ratajczak
Finansyzacja gospodarki
Helena Gaspars-Wieloch
Ograniczona skuteczność
metod optymalizacyjnych
w rozwiązywaniu ekonomicznych
problemów decyzyjnych
Katarzyna Piłat
Indeks optymalnego obszaru walutowego
dla gospodarki polskiej
11 „Kol­por­ter” S.A. – [email protected], +48 22 35 50 471 do 478
11 „Gar­mond Press” S.A. – [email protected], 01-106 Warszawa, ul. Nakielska 3,
+48 22 836 69 21
11 Wersja elektroniczna (również numery archiwalne) do nabycia: www.ekonomista.info.pl
Eko­no­mi­sta 2012, nr 3, s. 273–394
Ce­na 55,65 zł (w tym 5% VAT)
PolskA AkademiA Nauk
Komitet Nauk Ekonomicznych
Okladka nr 3 2012.indd 1
Polskie Towarzystwo
Ekonomiczne
Wydawnictwo
Key Text
2012-06-08 14:37:24
Wydawnictwo Key Text
www.keytext.com.pl
WSKAZÓWKI DLA AUTORÓW
1.Redakcja przyjmuje do oceny i publikacji niepublikowane wcześniej teksty o charakterze naukowym, poświęcone problematyce ekonomicznej.
2.Redakcja prosi o składanie tekstów w formie elektronicznej (dokument MS Word
na CD, dyskietce lub e-mailem) oraz 2 egzemplarzy wydruku komputerowego.
Wydruk powinien być wykonany na papierze A4 z podwójnym odstępem między
wierszami, zawierającymi nie więcej niż 60 znaków w wierszu oraz 30 wierszy na
stronie, w objętości (łącznie z tabelami statystycznymi, rysunkami i literaturą) do
30 stron. Opracowania podzielone na części powinny zawierać śródtytuły.
3. Wraz z tekstem należy dostarczyć do Redakcji Oświadczenie Autora. Wzór
oświadczenia dostępny jest na stronie www.ekonomista.info.pl
4. Do tekstu należy dołączyć streszczenie (200 słów) składające się z uzasadnienia
podjętego tematu, opisu metody oraz uzyskanych wyników. Streszczenie powinno zawierać słowa kluczowe (w języku polskim, rosyjskim i angielskim).
5. Przypisy wyjaśniające tekst należy zamieszczać na dole strony, a dane bibliograficzne w tekście – przez podawanie nazwisk autorów i roku wydania dzieła, na
końcu zdania w nawiasie. W bibliografii zamieszczonej na końcu tekstu (ułożonej w porządku alfabetycznym) należy podawać:
–– w odniesieniu do pozycji książkowych – nazwisko, imię (lub inicjały imion) autora, tytuł dzieła, wydawcę, miejsce i rok wydania;
–– w przypadku prac zbiorowych nazwisko redaktora naukowego podaje się po
tytule dzieła;
–– w odniesieniu do artykułów z czasopism – nazwisko, imię (lub inicjały imion)
autora, tytuł artykułu, nazwę czasopisma ujętą w cudzysłów, rok wydania i kolejny numer czasopisma;
–– w przypadku korzystania z internetu należy podać adres i datę dostępu;
–– powołując dane liczbowe należy podawać ich źrodło pochodzenia (łącznie
z numerem strony).
6. W przypadku gdy artykuł jest oparty na wynikach badań finansowanych w ramach
programów badawczych, autorzy są proszeni o podanie źródła środków.
7. Warunkiem przyjęcia tekstu do oceny i dalszej pracy jest podanie przez autora
pełnych danych adresowych wraz z numerem telefonicznym i adresem e-mail.
Autorzy artykułów są również proszeni o podanie danych do notatki afiliacyjnej:
tytuł naukowy oraz nazwa uczelni albo innej jednostki (tylko jedna jednostka).
Dane afiliacyjne są zamieszczane w opublikowanych tekstach.
8. Opracowanie zakwalifikowane przez Komitet Redakcyjny do opublikowania na
łamach „EKONOMISTY”, lecz przygotowane przez autora w sposób niezgodny
z powyższymi wskazówkami, będzie odesłane z prośbą o dostosowanie jego formy do wymagań Redakcji.
9. Materiały zamieszczone w „EKONOMIŚCIE” są chronione prawem autorskim.
Przedruk tekstu może nastąpić tylko za zgodą Redakcji.
10.Redakcja nie zwraca tekstów i nie wypłaca honorariów autorskich.
N O W O Ś Ć
Tomasz Sobczak
Ekonomiści czytani, ale nie słuchani
Książka o roli ekonomicznego doradztwa instytucjonalnego. Przedstawia dorobek i ocenę pracy czterech ciał doradczych powoływanych przez Prezesa
Rady Ministrów:
• Rady Ekonomicznej przy Prezesie Rady Ministrów powołanej na początku
1957 r.
• Konsultacyjnej Rady Gospodarczej powołanej 1 kwietnia 1982 r.
• Rady Ekonomicznej przy Radzie Ministrów powołanej w grudniu 1989 r.
• Rady Strategii Społeczno-Gospodarczej powołanej 28 czerwca 1994 r.
cena: 31,50 zł (z VAT)
objętość: 162 strony
Autor prezentując działalność organów doradczych przy Prezesie Rady Ministrów, dzięki świetnie dobranym wypowiedziom zarówno członków tych organów, jak i obserwatorów zewnętrznych, stworzył kronikarski rys obecnego
środowiska polskich ekonomistów.
Podstawowym źródłem licznych cytatów są artykuły i wywiady z czasopism
i prasy społeczno-politycznej.
Książka pod patronatem naukowym Polskiego Towarzystwa Ekonomicznego.
P O L E C A M Y
Aleksander Łukaszewicz
Dylematy ekonomiczne przełomu stuleci
Praca naukowa adresowana do osób zajmujących się ekonomią, które chcą
dojrzeć w niej coś więcej niż tylko umiejętność posługiwania się bieżącym
rachunkiem efektywnościowym. Można nawet rzec, że jest ona prowokacją
wobec szablonowych, jednowymiarowych koncepcji i mechanicznego pojmowania zjawisk ekonomicznych i gospodarczych.
cena: 19,95 zł (z VAT)
objętość: 284 strony
Autor prowadzi w niej dociekania na temat dylematów własności, racjonalności gospodarczej oraz wzrostu i rozwoju gospodarczego, szeroko wykorzystując światową literaturę odnoszącą się do poruszanych i rozważanych
problemów. Przywołuje poglądy wielu autorów, wzajemnie przeciwstawne
i często otwarcie polemiczne. Włączając się w nurt tych rozważań i polemik,
autor nadał książce w wielu fragmentach formę dialogu, w którym zajmuje
swoje stanowisko.
Przedstawione poglądy i opinie wybitnych ekonomistów tworzą często spójne paradygmaty, będące wykładnią teoretyczną istniejących zjawisk i kontekstów praktycznych.
Wydawnictwo Key Text, ul. Wolska 64A, 01-134 Warszawa
tel. 22 632 11 36, 22 ,632 11 39, faks wew. 212, kom. 665 108 002
Okladka nr 3 2012.indd 2
2012-06-08 14:37:24
EKONOMISTA
CZASOPISMO
POŚWIĘCONE NAUCE I POTRZEBOM ŻYCIA
ZAŁOŻONE W ROKU 1900
2012
3
PolskA AkademiA Nauk
Komitet Nauk Ekonomicznych
Polskie Towarzystwo
Ekonomiczne
WARSZAWA
Wydawnictwo
Key Text
WydawcY
© Copyright by POLSKA AKADEMIA NAUK KOMITET NAUK EKONOMICZNYCH
© Copyright by Polskie Towarzystwo Ekonomiczne
© Copyright by WYDAWNICTWO KEY TEXT
Rada Programowa
Marek Belka, Adam Budnikowski, Krzysztof Jajuga, Wacław Jarmołowicz,
Mieczysław Kabaj, Eugeniusz Kwiatkowski, Jan Lipiński, Aleksander Łukaszewicz,
Wojciech Maciejewski, Jerzy Osiatyński, Stanisław Owsiak, Emil Panek,
Krzysztof Porwit, Antoni Rajkiewicz, Andrzej Sławiński, Andrzej Wernik,
Jerzy Wilkin (przewodniczący Rady) Michał G. Woźniak
Komitet Redakcyjny
Marek Bednarski, Bogusław Fiedor, Marian Gorynia, Brunon Górecki,
Joanna Kotowicz-Jawor, Barbara Liberska, Adam Lipowski (zastępca redaktora naczelnego),
Zbigniew Matkowski (sekretarz redakcji), Elżbieta Mączyńska, Adam Noga,
Marek Ratajczak, Eugeniusz Rychlewski, Zdzisław Sadowski (redaktor naczelny),
Tadeusz Smuga, Jan Solarz, Andrzej Wojtyna
Wydanie publikacji dofinansowane przez Ministra Nauki i Szkolnictwa Wyższego
Adres Redakcji: 00-042 Warszawa, Nowy Świat 49, tel. 022 55 15 416 oraz 417
http://www.ekonomista.info.pl
[email protected]
Polecamy wersję elektroniczną czasopisma
na stronie internetowej zixo.pl
Realizacja wydawnicza
Wydawnictwo Key Text sp. z o.o.
ul. Wolska 64 A, 01–134 Warszawa
tel. 022 632 11 39, 022 632 11 36, fax wew. 212
www.keytext.com.pl
[email protected]
Nakład 430 egz., ark. wyd. 10
Spis treści
Artykuły
Marek R A T A J C Z A K: Finansyzacja gospodarki. . . . . . . . . . . . . . . . . . . . . . . . . Helena G A S PA R S - W I E L O C H: Ograniczona skuteczność metod optymalizacyjnych w rozwiązywaniu ekonomicznych problemów decyzyjnych. . . . . . . . Katarzyna PIŁAT: Indeks optymalnego obszaru walutowego dla gospodarki polskiej. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 281
303
325
Mi­scel­la­nea
Sławomir I. B U K O W S K I: Stopień integracji rynków finansowych na obszarze
euro. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 339
Dyskusje
Stefan M A Ł E C K I -T E P I C H T: Instrukcja obsługi maszynki do mięsa nie jest
książką kucharską. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Jerzy W I L K I N: Czy współczesna ekonomia jest instrukcją obsługi mechanizmu
gospodarczego?. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Witold K W A Ś N I C K I: O matematyzacji ekonomii . . . . . . . . . . . . . . . . . . . . . . . 355
377
381
Recenzje i omówienia
Andrzej C Z Y Ż E W S K I, Agnieszka P O C Z T A - W A JD A, Polityka rolna
w warunkach globalizacji. Doświadczenia GATT/WTO (rec. Władysława Łuczka-Bakuła) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
391
*
Każ­dy ar­ty­kuł za­wie­ra stresz­cze­nie w ję­zy­ku an­giel­skim i ro­syj­skim.
An­giel­sko­ję­zycz­ne stresz­cze­nia ar­ty­ku­łów za­miesz­cza­nych w „Eko­no­mi­ście” są re­je­strowane w serwisie:
International Bibliography of the Social Sciences (IBSS): http://www.ibss.ac.uk oraz „The Central European
Journal of Social Sciences and Humanities”: http://cejsh.icm.edu.pl (LISTA FILADELFIJSKA)
Con­tents
Ar­tic­les
Marek R A T A J C Z A K: Financialisation of the Economy. . . . . . . . . . . . . . . . . . . .
Helena G A S PA R S - W I E L O C H: Limited Efficiency of Optimization Methods
in Solving Economic Decision Problems . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Katarzyna PIŁAT: The Index of Optimum Currency Area for the Polish Economy
281
303
325
Mi­scel­la­nea
Sławomir I. B U K O W S K I: The Degree of Financial Markets Integration in the
Euro Area . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 339
Discussion
Stefan M A Ł E C K I -T E P I C H T: An Instruction Manual for a Meat Grinder
Is Not a Cookery Book. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Jerzy W I L K I N: Is the Contemporary Economics an Instruction Manual for
Operating the Economic Mechanism?. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Witold K W A Ś N I C K I: On the Matematization of Economics. . . . . . . . . . . . . . 355
377
381
Book Reviews
Andrzej C Z Y Ż E W S K I, Agnieszka P O C Z T A - W A JD A, Polityka rolna
w warunkach globalizacji. Doświadczenia GATT/WTO (Agricultural Policy under
Globalisation: GATT/WTO Experience) (rec. Władysława Łuczka-Bakuła) . . . . 391
*
Each ar­tic­le is fol­lo­wed by a sum­ma­ry in En­glish and Rus­sian.
Abstracts of „Ekonomista” are reproduced in the International Bibliography of the Social Sciences (IBSS):
http://www.ibss.ac.uk and „The Central European Journal of Social Sciences and Humanities”: http://
cejsh.icm.edu.pl
Содержание
Статьи
Марек РА Т А Й Ч А К: Финансизация экономики . . . . . . . . . . . . . . . . . . . . . . . . . .
Хелена ГА С П А Р С - В Е Л О Х: Ограниченная эффективность оптимизационных методов при рассмотрении экономических проблем принятия решений . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Катажина П И Л А Т: Индекс оптимальной валютной зоны для польской экономики. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
281
303
325
Разное
Славомир И. Б У К О В С К И: Степень интеграции финансовых рынков в зоне
евро. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
339
Дискусcии
Стефан М А Л Е Ц К И - Т Е П И Х Т: Инструкция обслуживания мясорубки – это
не поваренная книга. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Ежи В И Л Ь К И Н: Является ли современная экономическая наука инструкцией
обслуживания хозяйственного механизма? . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Витольд К В А С Ь Н И Ц К И: О математизации экономической науки . . . . . . . . .
355
377
381
Рецензии и обсуждения
Анджей Ч И Ж Е В С К И, Агнешка П О Ч Т А - В А Й Д А, Аграрная политика
в условиях глобализации. Опыт ГАТТ/ВТО (рец. Владислава Лучка-Бакула). . .
391
*
Каждая статья сопровождается резюме на английском и руском языках.
Содержание и резюме статей, помещаемых в „Экономисте”, регистрируютсяв библиографическом сервисе International Bibliography of the Social Sciences (IBSS): http://www.ibss.ac.uk a также
в „The Central European Journal of Social Sciences and Humanities”: http://cejsh.icm.edu.pl
A
R
T
Y
K
U
Ł
Y
Marek Ratajczak*
Finansyzacja gospodarki
Uwagi wstępne
Źródeł światowego kryzysu1, którego umownym początkiem stał się upadek banku
Lehman Brothers we wrześniu 2008 r. upatruje się przede wszystkim w zjawiskach
z zakresu funkcjonowania sfery finansowej, a nie sfery realnej. Ta szczególna rola
sfery finansowej powoduje, że w dyskusjach o kryzysie, a szerzej o funkcjonowaniu
współczesnej gospodarki rynkowej, coraz większą uwagę przywiązuje się do interakcji sfery finansów i sfery realnej. Coraz więcej zwolenników ma przy tym teza, że
pieniądz nie tyle jest „dobrym sługą” sfery realnej, co stał się lub staje się jej niekoniecznie dobrym panem. Jednym z pojęć, które zadomowiło się już w literaturze
zagranicznej, a które stanowi relatywną nowość w literaturze polskiej i jest wykorzystywane w analizach obecnego stadium rozwoju gospodarki rynkowej, zwłaszcza
w krajach wysoko rozwiniętych, jest finansyzacja2. Celem tego artykułu jest próba
przybliżenia tego pojęcia i głównych obszarów dyskusji z nim związanych.
1. Istota finansyzacji
Dyskusję o finansyzacji należy rozpocząć od kwestii natury semantycznej. Słowo to
jest „kalką” angielskiego terminu financialisation i – jak z wieloma skopiowanymi
* Prof. dr hab. Marek Ratajczak – Uniwersytet Ekonomiczny w Poznaniu; e-mail: [email protected]
1 Poza ramy tego artykułu wykracza dyskusja na temat tego, na ile w kategoriach czysto
naukowych jest uzasadnione operowanie pojęciem kryzysu w odniesieniu do ciągu wydarzeń
w gospodarce światowej z ostatnich kilku lat. Określenie to jest jednak tak często używane
także w publikacjach naukowych, że mimo wszystkich możliwych zastrzeżeń, zwłaszcza ze strony
specjalistów od analizy koniunktury, będzie ono wykorzystywane także w niniejszym artykule.
2 Relatywna nowość nie oznacza, że pojęcie finansyzacji gospodarki nie jest wykorzystywane w publikacjach polskich autorów odnoszących się do ostatniego kryzysu czy analiz obecnego stadium kapitalizmu. Przykładem są prace M. Bałtowskiego [2008], E. Mączyńskiej [2009]
czy J. Żyżyńskiego [2009].
282
Marek Ratajczak
pojęciami, a zarazem neologizmami bywa – nie wszyscy z takim określeniem się
godzą. W polskiej literaturze można w związku z tym spotkać się także z nieco odmiennymi określeniami, takimi jak „finansjalizacja” i „ufinansowienie”, oraz określeniami o zbliżonej treści znaczeniowej takimi jak „giełdyzacja” [Kowalik 2009],
„bankokracja” [Gwiazdowski 2008] czy „kapitalizm finansowy” [Toporowski 2012].
Czas pokaże, które z tych określeń zostanie przyjęte jako forma podstawowa czy
wręcz obowiązująca. Jak na razie, wyłącznie na podstawie prostej analizy ilościowej
wykorzystania każdego z przytoczonych powyżej sformułowań, to właśnie określenie „finansyzacja” jest najpopularniejsze.
Literatura, przede wszystkim zagraniczna, zawiera wiele różnych definicji finansyzacji. Łączy je wskazywanie szczególnej i rosnącej roli sfery finansowej oraz
kryteriów finansowych w funkcjonowaniu gospodarki oraz w życiu ekonomicznym i społecznym. Sfera finansowa z tradycyjnej roli wspomagania i uzupełniania
sfery realnej staje się wręcz dominującym uczestnikiem życia ekonomicznego
i społecznego. Tak ogólną wizję finansyzacji gospodarki trudno byłoby uznać za
wystarczającą. Dlatego warto dokonać próby kolejnego przybliżenia chociażby
poprzez rozróżnienie finansyzacji w wąskim i szerokim znaczeniu.
W wąskim znaczeniu finansyzacja jest kojarzona przede wszystkim z rosnącym
znaczeniem działalności finansowej w aktywności podmiotów ekonomicznych
o charakterze niefinansowym. Konsekwencją tego jest zmiana strumieni dochodów, w których coraz większy udział mają dochody czerpane właśnie z działalności finansowej, a nie z tradycyjnie rozumianej działalności operacyjnej i inwestycyjnej. Zarówno w polskiej literaturze, jak i w zagranicznej przytaczane są różne,
acz co prawda głównie odwołujące się do doświadczeń gospodarki amerykańskiej
dane ilustrujące rosnącą rolę aktywności finansowej w organizacjach, które kojarzone są przede wszystkim z działaniami ze sfery realnej [Orhangazi 2008; Ząbkowicz 2009].
Finansyzacja w wąskim znaczeniu jest na ogół traktowana jako jeden z przejawów finansyzacji sensu largo i to wcale aspekt nie najważniejszy W szerokim
znaczeniu finansyzacja to wskazywany już proces autonomizacji sfery finansowej
w relacji do sfery realnej, a nawet uzyskiwania nadrzędności tej pierwszej w stosunku do drugiej. W ramach finansyzacji rynki finansowe oraz elity finansowe
uzyskują coraz większy wpływ na politykę ekonomiczną (w wymiarze mikroekonomicznym i makroekonomicznym) i na efekty gospodarowania [Epstein 2006;
Stockhammer 2004; Boyer 2000]. Dla części badaczy finansyzacja gospodarki
jest świadectwem nowego studium kapitalizmu, określanego mianem kapitalizmu finansowego, kapitalizmu rentierskiego, bankokracji czy też kapitalizmu
„odcinania kuponów” [Froud i in. 2001]. W nawiązaniu do tradycji keynesowskiej niekiedy pisze się też o „kapitalizmie kasynowym”3. Wreszcie autorzy najbardziej radykalnych koncepcji uważają, że finansyzacja jest wręcz zwiastunem
3 Jak
pisał J.M. Keynes: „Spekulanci mogą być nieszkodliwi, gdy są niczym piana na spokojnych wodach przedsiębiorczości. Ale sytuacja staje się poważna, gdy przedsiębiorczość staje się
pianą na wirze spekulacji. Gdy akumulacja kapitału w jakimś kraju staje się ubocznym produktem gry hazardowej, wyniki zawsze będą opłakane” [Keynes 1985, s. 182].
Finansyzacja gospodarki
283
„jesieni” kapitalizmu (co nie znaczy, że schyłku gospodarki rynkowej) oraz
kształtowania się kompleksu finansowo-politycznego, który swoimi wpływami
i znaczeniem przekracza rolę dawnego kompleksu militarno-przemysłowego
[Freeman 2010; Mączyńska 2009]. Ekonomiści nawiązujący do tradycji marksowskiej skłonni są z kolei pisać o monopolistyczno-finansowym stadium gospodarki kapitalistycznej [Foster 2007; Isaacs 2011]. Finansyzacja ma być także jednym z przejawów przechodzenia od demokracji do plutokracji, czyli rządów
pieniądza i jego dysponentów4.
Finansyzacja prowadzi do zasadniczych zmian w sferze zarządzania i własności, zwłaszcza dużych przedsiębiorstw. Na obszarze własności wiąże się to z coraz
większą rolą właścicieli instytucjonalnych ze sfery finansowej, którzy kojarzeni są
z tzw. kapitałem niecierpliwym, szukającym możliwości uzyskania nadzwyczajnych zysków w krótkim okresie [Rossman, Greenfiled 2006]. Właściciele ze sfery
finansowej często traktują swój udział w sferze realnej przed wszystkim jako jedną z okresowych i alternatywnych form lokowania kapitału, a nie jako rzeczywiste długookresowe angażowanie się we własność z zamiarem rozwoju danej organizacji. Prowadzi to do tego, że tradycyjna reguła „zatrzymuj i reinwestuj” zostaje zastąpiona zasadą „ograniczaj (koszty) i dystrybuuj (dywidendę)”
[Stockhammer 2004]. Zdaniem krytyków zmian, które pod wpływem narastającej
finansyzacji dokonują się na poziomie przedsiębiorstw, szczególnie wiele złego
dokonało upowszechnienie się idei wartości dla akcjonariuszy (shareholder value), związane z przesuwaniem akcentów w dyskusji o zarządzaniu ze stakeholder
perspective (perspektywa interesariuszy) na shareholder perspective (perspektywa
udziałowców, akcjonariuszy) [Palley 2007]. W połączeniu z narastającą tendencją
do skracania horyzontu czasowego podejmowanych decyzji inwestycyjnych doprowadziło to do nadmiernego wyeksponowania w analizie ekonomiczno-finansowej całej grupy wskaźników uwzględniających przede wszystkim krótkookresową zyskowność, a nie długookresową stabilność rozwoju danego przedsięwzięcia
[Froud i in. 2000; Williams 2000].
Nietrudno zauważyć, że o ile wąska interpretacja finansyzacji ma wymiar
ściśle ekonomiczno-finansowy, związany z analizą zmian struktury dochodów
instytucji niefinansowych, to w szerokiej interpretacji finansyzacja już w sferze
definicyjnej wyraźnie wykracza poza ramy analizy typowej dla tzw. ekonomii
głównego nurtu. Wiąże się to w znacznej mierze z uwzględnianiem elementów
typowych dla tradycji analizy instytucjonalnej, w której zdarzenia gospodarcze
pozostają w ścisłym związku ze zjawiskami z innych obszarów życia społecznego. Dlatego też właśnie wśród ekonomistów mniej lub bardziej kojarzonych
z współczesnym instytucjonalizmem idea finansyzacji jest coraz bardziej popularna. Akceptują tę koncepcję także inni ekonomiści reprezentujący szkoły czy
kierunki odnoszące się sceptycznie, a nawet zdecydowanie krytycznie do eko4 W. Buffett stwierdził, że: „USA zmierzają do stania się plutokracją, gdzie państwo jest
kontrolowane przez ludzi bardzo bogatych, a nie społeczeństwo” (cyt. za „Puls Biznesu”,
23.03.2011, s. 9).
284
Marek Ratajczak
nomii głównego nurtu oraz do tego, co w sferze doktrynalnej wiąże się z ideą
neoliberalizmu.
Keynesiści – pamiętając chociażby to, co pisał ich patron o wspominanym już
kapitalizmie kasynowym, brak akceptacji dla idei neutralności pieniądza wobec
sfery realnej, a także jego zdecydowaną niechęć do zachowań rentierskich –
skłonni są do dostrzegania pewnych istotnych negatywnych elementów w idei finansyzacji [Bhaduri 2011]. Na szczególną uwagę wśród ekonomistów kojarzonych
z keynesizmem, których dorobek jest ponownie analizowany w kontekście finansyzacji gospodarki i ostatniego kryzysu zasługują J. Tobin i H. Minsky. Ten pierwszy, uhonorowany Nagrodą Nobla z ekonomii w 1981 r., napisał m.in., że obawia
się, iż „(...)coraz więcej środków lokowanych jest w aktywności finansowej zamiast w produkcji dóbr i usług, działalności, która generuje wysokie prywatne
zyski nieproporcjonalne do jej społecznej użyteczności” [Tobin 1984, s. 14]. Ściśle
z tymi poglądami na rolę sfery finansowej wiąże się pomysł opodatkowania transakcji finansowych znany powszechnie jako podatek Tobina. Do idei tej powrócono przy okazji ostatniego kryzysu, lecz spotkało się to z bardzo silną krytyką
i oporem zarówno przedstawicieli sektora finansowego (co jest zrozumiałe), jak
i sporej części ekonomistów postrzegających w takim podatku swoisty zamach na
wolność rynku.
H. Minsky, niedoceniony za życia, jest dziś szczególnie popularny w związku
z hipotezą finansowej niestabilności, odnoszącą się zwłaszcza do tych gospodarek, które określał jako złożone pod względem finansowym (financially sophisticated economies). Gospodarka dla Minskiego to przede wszystkim złożony system finansowy, który przechodzi regularnie przez kolejne fazy cyklu koniunkturalnego. Faza załamania koniunktury jest konsekwencją podejmowania w fazie
wzrostowej coraz większego ryzyka finansowego. Co także jest istotne, H. Minsky
zdecydowanie rozróżniał ryzyko, możliwe do oszacowania w kategoriach prawdopodobieństwa, od niepewności [Kąsek, Lubiński 2010]. Ta ostatnia idea znajduje
w ostatnim czasie wyraz w koncepcji „czarnych łabędzi”, a szczególnym promotorem tej idei jest Nassim Taleb.
H. Minsky jest na ogół identyfikowany z keynesizmem, ale pod pewnymi
względami był bliski ekonomii instytucjonalnej, uważając, że na instytucjach powinna opierać się każda analiza ekonomiczna. Jak już wcześniej wspomniano,
właśnie w kręgu ekonomistów związanych z szeroko rozumianą ekonomią instytucjonalną idea finansyzacji gospodarki jest szczególnie popularna. Z dyskusją
o finansyzacji ściśle wiąże się tak ważny dla T. Veblena problem natury ludzkiej.
Co prawda we współczesnej psychologii w zasadzie nie operuje się pojęciem instynktów, a w tym podkreślaną przez Veblena ideą instynktu łupieżczego, ale
pojęcie chciwości eksponowane w dyskusjach o ostatnim kryzysie i jego źródłach
ściśle pasuje do rozważań o naturze człowieka. Tak zwany biznes w stylu Gordona Gecco5 stał się dla części uczestników życia gospodarczego, a zwłaszcza sfery
5 Określenie
pochodzi od nazwiska głównego bohatera filmu „Wall Street” z 1987 r. w reżyserii Oliviera Stone’a i fragmentu, w którym pojawia się sformułowanie „chciwość jest dobra”.
Finansyzacja gospodarki
285
finansowej, obowiązującą wykładnią tego, co wolno robić [Freeman 2010]. A robić, zgodnie z tą filozofią, wolno w zasadzie wszystko, o ile tylko prowadzi to do
wzrostu bogactwa w jego pieniężnym wymiarze.
W tradycyjnym instytucjonalizmie istotną rolę odgrywa pojęcie władzy. Z punktu widzenia finansyzacji pojęcie to można rozpatrywać m.in. z punktu widzenia
związków władzy politycznej różnych szczebli z sektorem finansowym [Hall 2009].
Tak zwane obrotowe drzwi, związane z przechodzeniem ludzi z biznesu do świata
polityki, w tym do administracji państwowej i z powrotem, ułatwiają podejmowanie
działań służących interesom sektora finansowego [Freeman 2010].
W dyskusji o finansyzacji trudno także pominąć mieszczące się w optyce instytucjonalnej zjawiska ze sfery kulturowej. Współczesna kultura masowa upowszechnia wyraźnie hedonistyczną wizję życia, w której rentierstwo, tradycyjnie bardzo
wstrzemięźliwie, a nawet źle oceniane przez ekonomistów, jest oznaką sukcesu
i wzorem godnym naśladowania. Finansyzacji sprzyjają także zmiany w sferze etyki i życia religijnego. Następuje erozja tradycyjnych wartości, a zwłaszcza ich interpretacji w odniesieniu do sfery biznesu. Przykładem, choć nie w każdym konkretnym wydaniu, jest kariera pojęcia „etyka biznesu”. Niestety, w praktyce jest
to niekiedy etyka przykrawana do potrzeb konkretnej korporacji, w której pojęcia
fundamentalne dla etyki nabierają częściowo nowego znaczenia.
Podobnie jak historyczny instytucjonalizm, tak i nowa ekonomia instytucjonalna i jej instrumentarium badawcze nadają się do analizy zjawiska finansyzacji.
Niewątpliwie dotyczy to idei asymetrii informacji z punktu widzenia relacji klientów i oferentów w sferze produktów finansowych. Złożoność instrumentów finansowych jest tak duża, że nawet ci, którzy tak jak agencje ratingowe, w imieniu
innych uczestników rynku powinni oceniać związane z nimi ryzyko, sami raz po
raz padają ofiarą asymetrii informacji.
Z punktu widzenia istotnej dla nowej ekonomii instytucjonalnej teorii praw własności warto zwrócić uwagę na podkreślany już coraz większy udział podmiotów finansowych we własności w sferze realnej. Następuje swego rodzaju finansyzacja
wszelkich aktywów, w tym także tych związanych z kapitałem ludzkim. Z kolei rozwój rynków instrumentów pochodnych prowadzi do upowszechniania się nowej formy własności, istotnie różniącej się od własności powiązanej z bezpośrednim sprawowaniem funkcji właścicielskiej i menedżerskiej oraz własności cedującej zarządzanie
na najętych menedżerów. W przypadku derywatów możliwa jest własność bez świadomości bycia współwłaścicielem oraz własność, której w zasadzie nie towarzyszą
żadne prawa i obowiązki. Właściciel derywatów może być wręcz zainteresowany upadłością podmiotu, którego aktywność jest źródłem kreacji instrumentu pochodnego,
tudzież jest często bardziej zainteresowany istotną zmiennością zdarzeń wpływających na wycenę posiadanych derywatów i możliwość realizacji renty spekulacyjnej niż
stabilnością rozwoju [Wigan 2009].
W perspektywie nowej ekonomii instytucjonalnej mieści się także podnoszona
w ramach dyskusji o finansyzacji kwestia rozprzestrzeniania się pogoni za rentą
(rent-seeking), co prowadzi do naruszania fundamentalnych reguł zaufania między sprzedającymi (np. nowe produkty finansowe) a nabywcami. Prowadzi to tak-
286
Marek Ratajczak
że do tego, że stara łacińska maksyma caveat emptor („niech kupujący się strzeże”) nabiera nowego szczególnego znaczenia [Freeman 2010].
Pisząc o finansyzacji z perspektywy nowej ekonomii instytucjonalnej, trudno
nie wspomnieć także o problemie pokusy nadużycia (moral hazard) czy też oportunizmu ex post, które to pojęcie ściśle wiąże się z dyskusją o roli państwa jako
gwaranta czy też ubezpieczyciela ostatniej instancji. Do problemu tego powrócimy w dalszej części artykułu.
W przeciwieństwie do keynesistów i innych reprezentantów szeroko rozumianej ekonomii heterodoksyjnej, ortodoksyjni reprezentanci ekonomii głównego
nurtu związanego z tradycją neoklasyczną traktują to wszystko, co składa się na
finansyzację gospodarki, jako przejawy pewnych naturalnych zmian zachodzących w ramach gospodarki rynkowej, niedające podstaw do istotnej rewizji paradygmatów oraz konstrukcji teoretycznych i modelowych. Ponieważ w modelu
neoklasycznym i jego pochodnych zakłócenia w działaniu rynku mogą mieć w zasadzie tylko charakter egzogeniczny, to nic dziwnego, że wspomniana grupa ekonomistów szuka przyczyn ostatniego kryzysu przede wszystkim w psujących rynek
działaniach państwa. O roli państwa z punktu widzenia finansyzacji będzie mowa
w dalszej części artykułu. W tym miejscu zauważmy jedynie, że różne instytucje
i działania państwa odegrały niewątpliwie pewną rolę w narastaniu finansyzacji
i wybuchu ostatniego kryzysu. Nie znaczy to jednak, że była to przyczyna pierwotna i zasadnicza. Nie jest także uzasadnione przekonanie o możliwości – w dzisiejszych realiach rynkowych – w pełni skutecznego działania tego, co popularnie
określa się mianem niewidzialnej ręki rynku i nieobecności państwa w gospodarce, zwłaszcza jako regulatora, w szczególności w odniesieniu do takich rynków
jak rynki finansowe. Jak słusznie zauważył D. Acemoglu, zarówno w nauce, jak
i w praktyce nie można stawiać znaku równości między rynkiem wolnym a rynkiem nieregulowanym [Acemoglu 2010].
Pisząc o finansyzacji gospodarki nie można pominąć jej związków z innym,
znacznie popularniejszym, choć też niejednoznacznie definiowanym zjawiskiem,
jakim jest globalizacja. Analizy globalizacji są tradycyjnie skoncentrowane na zjawiskach związanych ze sferą realną, co nie znaczy oczywiście, że w badaniach tych
nie dostrzega się pieniężnego wymiaru aktywności gospodarczej. Jednakże czym
innym jest dyskusja o pieniądzu w jego funkcjach środka wymiany, płatniczej
i miernika wartości w sferze międzynarodowej, a czym innym będąca przedmiotem
zainteresowania zwolenników idei finansyzacji dyskusja o sferze finansowej jako
szczególnej składowej procesów globalizacji. Z punktu widzenia finansyzacji jako
ogniwa globalizacji istotne znaczenie mają takie zjawiska, jak rozwój sekurytyzacji,
ograniczenie roli tradycyjnych instytucji finansowych, a zwłaszcza banków jako instytucji pośredniczących na rynku kapitałowym, oraz wzrost płynności rynków finansowych w ich wymiarze międzynarodowym [Engelen 2008]. Światowy rynek finansowy jest także szczególnym beneficjentem postępu technologicznego. Pieniądz
w swej bezgotówkowej postaci może bez żadnych ograniczeń, poza wynikającymi
z regulacji państwa, błyskawicznie przenosić się w przestrzeni, która jeszcze bardziej niż w przypadku sfery realnej stała się przestrzenią globalną.
Finansyzacja gospodarki
287
W ramach dyskusji o istocie finansyzacji należy także zwrócić uwagę na dwie
tradycyjne idee, należące do podstaw dyskusji o funkcjonowaniu gospodarki rynkowej. Pierwsza, i z punktu widzenia tych rozważań szczególnie ważna, wiąże się
z tym, co popularnie określane jest mianem gospodarki towarowo-pieniężnej.
Najczęściej w sposób schematyczny ilustruje się to zapisem: towar (T) " pieniądz (P) " towar (Tl). Zapis ten sugeruje, że po pierwsze, to sfera realna (towar) ma charakter podstawowy, i po drugie, że zasadniczą rolą pieniądza jest
pomocniczość czy też służebność wobec sfery realnej. Pieniądz ma być pośrednikiem w wymianie, ułatwiającym wymianę dóbr, rozwiązującym problemy typowe
dla wymiany barterowej i gospodarki naturalnej. Tyle tylko, że już Karol Marks,
a później raczej niebędący jego entuzjastą John Maynard Keynes zwrócili uwagę,
że mówiąc o kapitalizmie, należałoby raczej pisać o gospodarce pieniężno-towarowej, w której owa zależność powinna być zapisywana jako P " T " Pl [Foster
2007]. W świecie maksymalizacji zysku to pieniądz jest jego podstawowym wyrazem, a towar drogą do powiększania zasobów pieniądza. Współczesna finansyzacja gospodarki analizowana z tej perspektywy jest w zasadzie kolejną fazą poszukiwania nowych sposobów maksymalizacji zysku w jego pieniężnej postaci, przy
czym sposoby te nie muszą respektować innego elementu tradycyjnego spojrzenia na funkcjonowanie gospodarki rynkowej, który wiąże się z zależnością między
potrzebami, konsumpcją i produkcją.
W tradycyjnym ujęciu pierwotnym motorem wszelkiej aktywności gospodarczej są potrzeby ludzkie oraz konieczność ich zaspokajania drogą konsumpcji.
Potrzeby gospodarstw domowych determinują decyzje producentów, którzy pośrednio lub bezpośrednio uczestniczą w wytwarzaniu środków konsumpcji. Towarzyszy temu idea suwerenności konsumenta. Jednakże we współczesnym świecie
potrzeby konsumentów – poza potrzebami o charakterze podstawowym – są
w znacznej mierze kreowane przez producentów, a decyzje producentów, wśród
których coraz większą rolę odgrywają podmioty związane z sektorem finansowym, stają się w istotnej części pierwotnymi w stosunku do potrzeb. Finansowa
determinanta decyzji produkcyjnych jest wzmacniana przez dążenie do maksymalizacji shareholder value. Marnotrawstwo i góry odpadów, które stały się jednym z symboli gospodarek wysoko rozwiniętych, są po części efektem tego, że
produkowanie dóbr trwałych i niezawodnych niekoniecznie jest postrzegane jako
zjawisko pozytywne, gdyż może prowadzić do ograniczenia konsumpcji, a to z kolei może negatywnie wpływać na możliwość powiększania zysków.
2. Wymiar historyczny finansyzacji
We współczesnym świecie jest dość wyraźna tendencja do ahistoryzmu (liczy się
„tu i teraz”, a to, co było, nie ma istotnego znaczenia). Historia myśli ekonomicznej czy historia gospodarcza, niegdyś standardowe elementy wykształcenia ekonomicznego, są już prawie nieobecne w dydaktyce, i to nie tylko w Polsce. W sfe-
288
Marek Ratajczak
rze naukowej podejmowane są wręcz próby jednoznacznego przypisania tych
obszarów badawczych do historii i wyłączenia ich zarazem z szeroko rozumianej
ekonomii. Jednak w głębokim przekonaniu autora – nie tylko ze względu na coraz popularniejszą koncepcję path dependence – zjawiska gospodarcze i społeczne należy postrzegać i analizować w ich historycznym kontekście. Bez wiedzy
o przeszłości często trudniej zrozumieć teraźniejszość i podejmować decyzje dotyczące przyszłości6.
Z punktu widzenia dyskusji o finansyzacji w jej historycznym wymiarze, wyróżnić można dwie perspektywy badawcze. Jedna polega na postrzeganiu finansyzacji jako zjawiska o długiej historii, wiążącej się z występującymi na
przestrzeni dziejów przejawami nadrzędności działań w sferze finansowej
i kreowania na tej drodze bogactwa wobec aktywności w sferze realnej. W tle
tego typu analiz jest kojarzone z Arystotelesem rozróżnianie ekonomii i chrematystyki. Istotą tej pierwszej miało być powiększanie bogactwa poprzez zaspokajanie potrzeb działań w sferze realnej. Z kolei chrematystyka wiąże się
z ideą powiększania bogactwa jako celu samego w sobie, głównie poprzez działania, które można by określić mianem spekulacji finansowych.
Rozróżnianie ekonomii i chrematystyki wiąże się także ze sporem o rolę
pieniądza w życiu ekonomicznym i społecznym oraz sporem o pobieranie procentu. Przypomnijmy, że obrót pieniądzem i czerpanie z tego korzyści w postaci procentu były w starożytności i w średniowieczu traktowane jako zajęcia
w zasadzie niegodne człowieka wolnego i zajmującego wysoką pozycję w hierarchii społecznej. W ramach trzech głównych religii monoteistycznych Tora
dopuszcza pobieranie procentu od nie-Żydów, zabraniając zarazem stosowania go w transakcjach między Żydami. Koran w ogóle wykluczył ideę procentu w czystej postaci, w wyniku czego do dziś instytucje finansowe deklarujące
działanie zgodne z regułami islamu nie mogą ani pobierać, ani udzielać procentu, a gromadzone środki pieniężne powinny być wykorzystywane do inwestowania w sferze realnej. Chrześcijaństwo co prawda zaakceptowało ideę
procentu, ale chociażby poprzez ideę tzw. banków pobożnych podkreślano
różnicę między procentem jako przejawem tego, co w tradycji świętego Tomasza z Akwinu można by potraktować jako wyraz ceny sprawiedliwej, a pogonią za zyskiem czerpanym z samego obrotu pieniądzem, co kojarzono zwłaszcza z lichwą.
Na marginesie powyższego krótkiego odwołania do dyskusji o pieniądzu i procencie w kontekście religijnym warto zwrócić uwagę, że zwłaszcza w krajach mu6 Jak
słusznie napisano w tekście towarzyszącym wznowieniu wydania esejów jednego z najważniejszych przedstawicieli teorii zarządzania, a zarazem bardzo dobrego znawcy ekonomii,
P. Druckera „(...) menedżer musi obecnie funkcjonować w centrum burzy istotnych społecznych
zmian, które w sposób zasadniczy przeobrażają relacje między gospodarką, biznesem, polityką
i konsumentami. Zrozumienie tych wszystkich zmian i zarządzanie w ramach nich wymaga pewnej perspektywy, która wykracza poza «tu i teraz» w stronę określenia, jak się tu znaleźliśmy
i dokąd zmierzamy” [Drucker 2010].
Finansyzacja gospodarki
289
zułmańskich w ostatnich latach pojawiły się publikacje wskazujące na zalety bankowości opartej na regułach koranicznych w dobie finansyzacji [Khan 2008].
Autorzy tych opracowań, wychodząc od konstatacji o braku wśród banków dotkniętych konsekwencjami kryzysu banków islamskich, starają się wykazać, że to
właśnie konserwatywne reguły działania wynikające z tradycji koranicznej stały
się swoistą tarczą ochronną. Należy jednak zauważyć, że właśnie konserwatyzm
reguł ekonomicznych i społecznych, wynikających z przyjętej interpretacji Koranu, jest z kolei przez część historyków uznawany za jedną z istotnych przyczyn
tego, że świat muzułmański, który jeszcze w dobie średniowiecza na wielu obszarach życia społecznego (np. w medycynie) był nawet lepiej rozwinięty niż obszary
zdominowane przez chrześcijaństwo, tej roli lidera nie utrzymał i że to nie w tym
kręgu cywilizacyjnym narodził się kapitalizm. To właśnie innowacje finansowe
i księgowe, kojarzone zwłaszcza z włoskimi republikami-miastami, odegrały istotną rolę w rozwoju nastawionej na zysk aktywności gospodarczej stanowiącej istotę kapitalizmu7.
Wśród licznych historycznych przejawów finansyzacji szczególnie często jest
analizowany przypadek Hiszpanii w XVI i XVII w. Napływ kruszców z Ameryki,
z których bito monety, doprowadził do tego, że w Hiszpanii rozprzestrzeniła się
swoista wiara w to, że pieniądz i sam obrót nim są autonomicznym i gwarantującym sukces źródłem bogactwa i rozwoju [Barbaruk 2010]. Tak zwane kryzysy
hiszpańskie XVII w. bardzo szybko wykazały, że ani pieniądz, ani papiery wartościowe i obrót nimi nie są w stanie zastąpić normalnej aktywności w sferze realnej. W tym miejscu warto zauważyć, że jednym z elementów dyskusji towarzyszących ostatniemu kryzysowi stało się pytanie, które można potraktować po części
jako historyczne odbicie wskazanego wcześniej problemu, a które dotyczy tego,
czy idea serwicyzacji gospodarek wysoko rozwiniętych, m.in. drogą rozwoju sektora finansowego, zakładająca de facto akceptację ograniczania sfery realnej
w rozumieniu tradycyjnej działalności produkcyjnej jako kreatora miejsc pracy
i źródło bogactwa, jest rzeczywiście tak bezdyskusyjna i bezproblemowa, jak to
często przedstawiano. Czy rzeczywiście można przyjąć, że nie ma żadnego znaczenia czy 10% PKB jest uzyskiwane w ramach usług związanych z sektorem
finansowym, czy dzięki działaniom związanym z produkcją dóbr w ich postaci
materialnej?8 Czy świat, w którym – trywializując i upraszczając – Chiny będą
7 Kwestia
związków religii z ekonomią, w tym w sferze finansowej, sama w sobie warta jest
odrębnych, pogłębionych studiów. Przy okazji warto odnotować, że tak zwane PIIGS, czyli
gospodarki stanowiące szczególne źródło problemów w Unii Europejskiej i w strefie euro, to
kraje o silnej tradycji katolickiej, a w przypadku Grecji – prawosławnej. Odpowiedź na pytanie,
czy jest to tylko przypadek, czy argument na rzecz słuszności poglądów Maxa Webera o wpływie
etyki protestanckiej na rozwój kapitalizmu, a zarazem dowód na mniejsze dopasowanie do siebie kapitalizmu i innych składowych chrześcijaństwa, wykracza poza ramy tego artykułu.
8 Na 10% szacowany jest udział londyńskiego City w tworzeniu PKB Wielkiej Brytanii i to
troską o ochronę tej składowej brytyjskiej gospodarki tłumaczono postawę premiera Camerona
w trakcie szczytu Unii Europejskiej w grudniu 2011 r., sprzeciwiającego się paktowi fiskalnemu
oraz proponowanym restrykcjom wobec sektora finansowego.
290
Marek Ratajczak
produkować towary, a Ameryka dolary, może funkcjonować w dłuższej perspektywie historycznej? Ostatni kryzys wskazuje na to, że nie.
Historyczne przejawy finansyzacji gospodarki niekiedy są kojarzone z wszelkimi przykładami narastania i pękania baniek spekulacyjnych zarówno w sferze
finansowej, jak i realnej – od słynnej bańki tulipanowej z XVII w. począwszy.
Nawet ograniczając się tylko do baniek spekulacyjnych o charakterze finansowym, stawianie znaku równości między tym zjawiskiem a finansyzacją trudno
byłoby zaakceptować. Albowiem klasyczne bańki spekulacyjne w sferze finansowej to pojawiająca się co pewien czas sytuacja wzrostu cen aktywów finansowych. Z kolei finansyzacja to długookresowa tendencja do zmiany roli sfery finansowej w gospodarce. Bańki spekulacyjne w sferze finansowej to tylko jeden
z głównych aspektów finansyzacji gospodarki – obok takich kwestii, jak: a) rola
zysków i aktywności finansowej w zyskach ogółem, b) wzrost wartości długu
(prywatnego i publicznego) w relacji do PKB), c) wzrost znaczenia sektora
FIRE w aktywności gospodarczej, d) rozwój innowacji finansowych, zwłaszcza
w ramach tego, co współcześnie jest określane mianem instrumentów pochodnych [Foster 2007].
Wymienione powyżej zjawiska nasiliły się szczególnie w ostatnim ćwierćwieczu XX w. i dlatego druga i najczęściej analizowana historyczna perspektywa
dyskusji o finansyzacji gospodarki koncentruje się na ostatnich dziesięcioleciach
funkcjonowania kapitalizmu. Tym, co stanowi o zasadniczej różnicy między finansyzacją z niekiedy już bardzo historycznie odległej przeszłości a jej współczesną
postacią, jest zakres i skala zjawisk spekulacyjnych oraz – co bardzo ważne – istota tychże zjawisk. Tradycyjna spekulacja była oparta w znacznej mierze na wykorzystywaniu arbitrażu. Natomiast współczesna spekulacja wiąże się o wiele bardziej z inflacją aktywów finansowych i powstawaniem baniek spekulacyjnych
o charakterze finansowym [Knafo 2009].
Pisząc o różnicach między finansyzacją z historycznie odległej przeszłości a jej
współczesną postacią, należy zwrócić uwagę na jeszcze jedną istotną kwestię, która wiąże się z różnicą między współczesnym pieniądzem a pieniądzem w przeszłości. Pieniądz współczesny jest w pełni pieniądzem fiducjarnym, który nie jest
powiązany z żadnym dobrem trwałym – takim jakim było w przeszłości na ogół
złoto, a czasem także srebro. W systemie pieniądza kruszcowego zjawisko finansyzacji oczywiście było możliwe, ale – jak wskazywano powyżej – wiązało się raczej z arbitrażem niż z inflacją aktywów finansowych. Fiducjarny charakter współczesnego pieniądza powoduje także, że jest on bardziej niż pieniądz w przeszłości
wrażliwy na negatywne konsekwencje pękania baniek spekulacyjnych, a zarazem
łatwo jest go wykorzystywać w różnego rodzaju spekulacjach. Dodatkowo finansyzacji jako zjawisku międzynarodowemu sprzyja sytuacja panująca w międzynarodowym systemie walutowym od czasu faktycznej upadłości systemu z Bretton
Woods [Polanyi Levitt 2010]. Wielość systemów kursowych, brak akceptowanych
przynajmniej przez wszystkich głównych uczestników rynku reguł zachęcają i ułatwiają działania o charakterze spekulacyjnym.
Finansyzacja gospodarki
291
3. Przejawy finansyzacji
Szczegółowa analiza przejawów finansyzacji gospodarki wykracza poza ramy artykułu. Poniżej przedstawiono swoisty katalog najczęściej przytaczanych w literaturze świadectw narastania tego zjawiska.
Rozpocząć należy od roli tzw. transakcji niewidzialnych i rozwoju rynku instrumentów pochodnych. Szacuje się, że około 75–80% obrotów finansowych
w skali globalnej dotyczy transakcji, którym nie towarzyszy żaden przepływ towarów czy usług niefinansowych. Niewątpliwie istotną rolę w rozwoju i ułatwieniu
zawierania transakcji niewidzialnych odgrywa rozwój tego wszystkiego, co nazywane jest e-biznesem, a szerzej – digitalizacją życia ekonomicznego i społecznego. Nowym i szybko rozwijającym się zjawiskiem świadczącym o kolejnym wymiarze spekulacji stały się transakcje ultraszybkie, w których operuje się czasem
mierzonym w milisekundach.
Wyrazem finansyzacji gospodarki jest także wspominana już inflacja aktywów
finansowych i samych instrumentów finansowych. Szczególną rolę odgrywa rynek
instrumentów pochodnych, a w ramach tego rynku szczególną popularność zyskały
kredytowe instrumenty pochodne (CDS). Warto podkreślić, że w 2000 r. wartość
rynku CDS była prawie zerowa, a w 2007 r. wartość tego rynku szacowano już na
około 60 bln dol., a wartość całego rynku instrumentów pochodnych – na około
600 bln dol. Rozwijane w ramach inżynierii finansowej nowe instrumenty są coraz
bardziej skomplikowane, często nieczytelne zwłaszcza dla ich nabywców, którzy są
skazani przy ich nabywaniu na opinię ekspertów. Tymi ekspertami są na ogół instytucje ratingowe, które – jak pokazują doświadczenia ostatniego kryzysu – wcale nie
muszą dochowywać należytej staranności i ostrożności w formułowaniu swoich
ocen. Rozwój rynku instrumentów pochodnych, a zwłaszcza CDS, spowodował także zasadniczą zmianę w relacjach między kredytobiorcami a kredytodawcami.
W tradycyjnych relacjach w przypadku problemów kredytobiorcy kredytodawca był
na ogół zainteresowany w ewentualnym wspomaganiu kredytobiorcy w szukaniu
rozwiązania. Perspektywa bankructwa kredytobiorcy oznaczała bowiem potencjalnie także poważne konsekwencje dla kredytodawcy. W świecie CDS możliwa jest
wręcz gra na upadłość kredytobiorcy, korzystna zwłaszcza dla emitentów i pośredników w handlu CDS.
Klasycznymi przejawami finansyzacji są też takie zjawiska jak skala lewaryzacji działalności gospodarczej, a w tym samej sfery finansowej, oraz wspominany
już wzrost udziału dochodów z działalności finansowej w korporacjach niefinansowych, przekraczający niekiedy 50%.
O finansyzacji gospodarki świadczy także rola instytucji finansowych i ich dochodów w gospodarce. W latach 80. XX w. banki notowane na giełdzie w USA
stanowiły około 5% kapitalizacji giełdy i reprezentowały około 10% zysków
wszystkich notowanych na giełdzie przedsiębiorstw. W roku 2007 było to już odpowiednio 25% i 40%. Przypomnijmy także, że w szczególnie kojarzonej z kryzy-
292
Marek Ratajczak
sem finansowym Islandii wartość aktywów banków w 2008 r. stanowiła równowartość 10-krotności PKB tego kraju.
Finansyzacja dotyczy też gospodarstw domowych i udziału aktywów finansowych w ich łącznych aktywach oraz skali zadłużenia gospodarstw domowych
w relacji do ich dochodów. Przykładowo w Wielkiej Brytanii w 1975 r. było to
około 45% wartości aktywów posiadaniu gospodarstw domowych, a w 1995 r. już
61%, głównie za sprawą rozwoju funduszy ubezpieczeniowych i emerytalnych.
Z kolei poziom zadłużenia gospodarstw domowych w Wielkiej Brytanii w 2007 r.
odpowiadał 150% rocznych dochodów, a w USA – 137%.
Szczególną rolę w dyskusji o przejawach, a zarazem źródłach finansyzacji
gospodarki odgrywa analiza zmian w sferze zarządzania, związanych z wspominanym już upowszechnieniem się idei shareholder value i rolą instytucji finansowych w organizacjach spoza tej sfery. Istotną rolę w kreowaniu i upowszechnianiu takich idei, a także w rozwoju różnych elementów inżynierii finansowej
odgrywały i odgrywają nadal reprezentanci amerykańskiego środowiska akademickiego, którzy często łączą karierę uniwersytecką z pracą na rzecz firm doradczych i/lub funduszy inwestycyjnych. Szczególnym przykładem tego są laureaci Nagrody Nobla z ekonomii z 1997 r. Robert C. Merton i Myron S. Scholes. Nagroda ta uchodzi zresztą za jedną z bardziej kontrowersyjnych, a wpływ
na to ma zarówno poddawanie w wątpliwość naukowego, a nie tylko praktycznego znaczenia uhonorowanych osiągnięć, jak i zaangażowanie obu laureatów
w działania hedgingowego funduszu inwestycyjnego Long Term Capital Management, który po okresie wysokich zysków pod koniec XX w. zbankrutował9.
Z perspektywy czasu swoistą wiarę w „magiczną moc” sformalizowanych narzędzi zarządzania funduszami inwestycyjnymi należy ocenić niestety jako jedno
z istotnych zjawisk, które przyczyniły się do obecnego kryzysu. Inżynieria finansowa zaczęła być bowiem coraz bardziej postrzegana jako samoistny sposób
kreowania dochodów w oderwaniu od fundamentalnych reguł życia ekonomicznego, a w tym ścisłego związku ryzyka z dochodowością podejmowanych przedsięwzięć10. W tym miejscu warto wspomnieć pojęcie „nowej ekonomii”, która
w wyniku rozwoju informatyki i opartych na niej narzędzi zarządzania, stosowanych zarówno w sferze finansowej, jak i w sferze realnej, miała prowadzić do
9 Nawiązując, jak się wydaje, m.in. do Nagrody Nobla dla Mertona i Scholesa w wywiadzie
udzielonym J. Żakowskiemu Edmund S. Phelps, sam będący laureatem Nagrody Nobla, zawarł
dość zjadliwą krytykę kolegów, mówiąc: „Ludziom, którzy opracowali modele finansowe oparte
na fantastycznych, nierealistycznych założeniach przyznano przecież wiele Nagród Nobla.
Modele Mickey Mouse wykorzystywano do rozmaitych przedsięwzięć, które właśnie padają. Bo
założenia były bezsensowne i nie pasowały do realnego świata, pełnego niepewności, ciągłych
zmian, emocji, niepełnej wiedzy” (cyt. za Rynek w cuglach [2008, s. 9]).
10 Można spotkać się z opinią, że właśnie finanse jako obszar nauk ekonomicznych, w swym
dominującym w ostatnich dziesięcioleciach nurcie, mają najbardziej antykeynesowski wymiar.
To na gruncie współczesnych finansów szczególnie silnie bronione są idee rynków efektywnych,
oparte na wizji zaczerpniętej z prac Arrowa i Debreu, koncepcje w pełni racjonalnych podmiotów gospodarczych, jak i cen aktywów dyskontujących wszystkie dostępne informacje [Wigan
2009, s. 160].
Finansyzacja gospodarki
293
odrzucenia tradycyjnego spojrzenia na gospodarkę, chociażby w kategoriach
zjawiska cykliczności.
I wreszcie, na zasadzie last but not least i istotnym przejawem finansyzacji jest
nasilanie się częstotliwości i siły kryzysów finansowych. Szczególną rolę odgrywa
tutaj ostatni kryzys, który trudno uznać za definitywnie zakończony.
4. Finansyzacja a rola państwa w gospodarce
Jak już wspominano, zwłaszcza ekonomiści związani z tradycją paradygmatu neoklasycznego są skłonni upatrywać przyczyn ostatniego kryzysu przede wszystkim
w działaniach państwa, zakłócających skuteczność samoregulacji rynkowej. Nie
ulega wątpliwości, że państwo jako szczególny uczestnik życia ekonomicznego
może przyczyniać się do ułatwiania i narastania zjawiska finansyzacji. Po pierwsze, jest to kwestia funkcji regulacyjnej państwa, które poprzez rozwiązania prawne i organizacyjne może stwarzać mniej lub bardziej sprzyjające warunki dla ekspansji sfery finansowej. Idee deregulacji i prywatyzacji, stanowiące fundament
tzw. rewolucji (dla jednych) lub kontrrewolucji (dla innych) neoliberalnej, zapoczątkowanej w latach 70. XX w., są generalnie słuszne i bezdyskusyjne w rozumieniu stwarzania sprzyjających warunków dla rozwoju przedsiębiorczości i poszanowania reguł mikroekonomicznej efektywności. Jednakże w tak szczególnej
sferze, jaką jest obszar rynków finansowych, deregulacja i prywatyzacja, a zwłaszcza ograniczanie nadzoru, mogą prowadzić do bardzo groźnych konsekwencji11.
W tym miejscu warto wspomnieć o przyjętej w 1933 r. przez amerykański Kongres ustawie zakazującej łączenia bankowości komercyjnej i inwestycyjnej, znanej
jako Glass-Steagall Act. Uchylenie tej ustawy w 1999 r. jest dziś często postrzegane jako istotny błąd, a zarazem jako jedno ze źródeł nasilenia się zjawisk prowadzących do ostatniego kryzysu.
Po drugie, nasilaniu się zjawiska finansyzacji gospodarki może sprzyjać realizowana przez państwo polityka makroekonomiczna – zarówno w ramach polityki
fiskalnej, jak i polityki monetarnej. W odniesieniu do polityki monetarnej warto
zwrócić uwagę na politykę utrzymywania na bardzo niskim poziomie stóp procentowych, czego szczególnym wyrazem była polityka administracji amerykańskiej w czasach, gdy przewodniczącym rady gubernatorów Systemu Rezerwy
Federalnej był Alan Greenspan. Polityka ta zachęcała do kreowania kredytu i zadłużania się, tudzież do szukania alternatywnych w stosunku do tradycyjnych
depozytów bankowych form lokowania środków pieniężnych, np. w postaci funduszy inwestycyjnych. Polityka taka sprzyjała także powstawaniu baniek spekulacyjnych, zwłaszcza na rynku nieruchomości. Z kolei polityka fiskalna może wpły11 Znamienna z tego punktu widzenia była wypowiedź Alana Greenspana w trakcie przesłuchania w Kongresie Stanów Zjednoczonych, w trakcie którego przyznał, że mylił się wierząc,
że „banki są w stanie wykonywać właściwe posunięcia, by zabezpieczyć interesy ich akcjonariuszy i klientów. Myliłem się” [Kamiński 2008, s. 14].
294
Marek Ratajczak
wać na finansyzację gospodarki dwoma kanałami. Jeden wynika z przyjętych
rozwiązań podatkowych. Zwłaszcza ograniczanie progresywności opodatkowania
prowadzące do zwiększenia dochodów rozporządzalnych osób osiągających wyższe dochody przyczynia się do przeznaczania środków finansowych nie na dodatkową konsumpcję, lecz do ich inwestowania w instrumenty finansowe [Palley
2007]. Drugi kanał wpływu polityki fiskalnej na finansyzację gospodarki wiąże się
z potrzebami pożyczkowymi państwa i finansowaniem deficytu budżetowego oraz
spłaty długu publicznego. Im większe potrzeby pożyczkowe państwa, tym większa
zachęta do kreowania instrumentów finansowych powiązanych z oceną ryzyka
towarzyszącego zadłużeniu publicznemu.
Po trzecie, finansyzację gospodarki (w kontekście działań państwa) można
rozpatrywać przez pryzmat jej stymulowania i wykorzystywania w związku z realizacją pewnych celów społecznych. Jeżeli – tak jak w USA – państwo stara się
zapewnić grupom słabszym ekonomicznie dostęp do pewnych dóbr, w tym do
domów mieszkalnych, poprzez stymulowanie czy wręcz wymuszanie akcji kredytowej, to przyczynia się to do narastania problemu finansyzacji. Wiąże się to bowiem ze zwiększeniem stopnia zadłużenia gospodarstw domowych wobec instytucji finansowych, jak i – co nawet jest groźniejsze – ze stwarzaniem bodźców do
kreowania produktów finansowych zabezpieczających najbardziej ryzykowne kredyty. Rozwój rynku papierów wartościowych służących sekurytyzacji stanowi znakomity kanał „zarażania” kolejnych podmiotów – zarówno ze sfery finansowej,
jak i realnej – wirusem nadmiernego ryzyka, który w pewnym momencie uaktywnia się i powoduje swoistą pandemię kryzysu finansowego. Rynek kredytów subprime w USA rozwinął się w znacznej mierze jako konsekwencja polityki państwa
i związanych z nim instytucji, takich jak Fannie Mae i Fredie Mac.
Cele społeczne państwa to także zabezpieczenie warunków życia ludzi, którzy
zakończyli aktywność zawodową. W sytuacji narastającego problemu starzenia
się społeczeństw w krajach najwyżej rozwiniętych nawet najzamożniejsze państwa
nie są w stanie zapewnić adekwatnego do skali oczekiwań społecznych finansowania wydatków socjalnych, w tym funduszy emerytalnych. Państwa szukają więc
różnych sposobów przynajmniej częściowego uwolnienia się od tzw. sztywnych,
transferowych wydatków budżetowych. Sposobem na to jest rozwój alternatywnych wobec budżetu form finansowania świadczeń społecznych, takich jak np.
fundusze emerytalne. Te alternatywne, pozabudżetowe rozwiązania wiążą się
z rozwojem rynku kapitałowego i sfery finansowej, a w konsekwencji przyczyniają się wzrostu finansyzacji [Dixon, Sorsa 2009].
Pisząc o roli państwa w rozwoju finansyzacji gospodarki, należy także wspomnieć
o coraz szerzej dyskutowanym zjawisku, jakim są tzw. sovereign funds lub sovereign
wealth funds, czyli fundusze inwestycyjne tworzone pod auspicjami rządów poszczególnych państw i operujące środkami publicznymi. Rola państwowych funduszy inwestycyjnych w sferze finansów międzynarodowych i w gospodarce światowej jest
oceniana niejednoznacznie. Z jednej strony fundusze te są niekiedy traktowane
jako swoiste koło ratunkowe dla instytucji finansowych zagrożonych upadłością.
Przyjmuje się przy tym, że fundusze te powinny działać mniej ryzykownie, a zara-
Finansyzacja gospodarki
295
zem z uwzględnieniem dłuższego horyzontu czasowego niż typowe prywatne fundusze inwestycyjne o charakterze hedgingowym, a co za tym idzie, powinny wpływać
stabilizująco na system finansowy i gospodarkę. Z drugiej strony jednak istnieje niebezpieczeństwo, że rozwój tego typu funduszy może doprowadzić do swoistego
„upaństwowienia” rynku kapitałowego, a przynajmniej jego istotnego „skrzywienia”
w stronę decyzji wynikających z czynników pozaekonomicznych [Radon, Thaler
2008].
Należy także zwrócić uwagę na wspominaną już i szeroko dyskutowaną, zwłaszcza w kontekście ogłaszanych przez poszczególne rządy i banki centralne kolejnych planów ratunkowych dla sfery finansowej, a także sfery realnej, „pokusę
nadużycia”. Ryzyko pokusy nadużycia związane jest z działaniami państwa jako
ubezpieczyciela ostatniej instancji, czy też – co jest domeną banków centralnych
– kredytodawcy ostatniej instancji, a w szczególności dotyczy tzw. instytucji „zbyt
dużych”, aby upaść (too big to fail). Chrysler dwukrotnie na przestrzeni trzydziestu
lat został uratowany przed upadłością dzięki pomocy rządu amerykańskiego.
Wśród głównych udziałowców i menedżerów firmy może to rodzić przekonanie,
że niezależnie od tego, jak będzie funkcjonowała firma i na ile jej ewentualne
problemy będą spowodowane niekorzystnymi zmianami w jej otoczeniu, a na ile
błędami popełnionymi przez zarządzających, można będzie liczyć na polisę ubezpieczeniową ze strony państwa, która zostanie sfinansowana przez podatników.
Dlatego tak ważne jest, aby doraźne działania interwencyjne ze strony państwa
stanowiły tylko pierwszy krok, a nie istotę zwalczania kryzysu, a zwłaszcza minimalizacji ryzyka jego powtórzenia się na podobną skalę w przyszłości.
Finansyzacja gospodarki jest więc zarówno konsekwencją zmian, jakie dokonują się w ramach sektora prywatnego i w wyniku działania rynku, jak i następstwem opisanych wyżej zachowań państwa [Palley 2009; Kotz 2008]. Nie można
jednak przyjąć, że to właśnie państwo jest tu głównym sprawcą problemów. Tkwią
one głębiej w mechanizmach funkcjonowania współczesnej gospodarki rynkowej
w jej kapitalistycznym wariancie i wiążą się m.in. z ideą stałego wzrostu dobrobytu utożsamianego przede wszystkim z jego wymiarem finansowym.
5. Finansyzacja a dobrobyt społeczny
Kwestia związków finansyzacji z dobrobytem społecznym jest rozpatrywana
przede wszystkim w kontekście znanego w makroekonomii efektu bogactwa lub
inaczej efektu majątkowego, kojarzonego w wymiarze historycznym z postacią
A.C. Pigou. Przypomnijmy, że w największym uproszczeniu efekt bogactwa to
zmiany wydatków konsumpcyjnych będące konsekwencją zmiany wartości majątku gospodarstw domowych. Wzrost wartości majątku, np. w wyniku hossy na
giełdzie i związanego z tym wzrostu wartości aktywów finansowych posiadanych
przez gospodarstwa domowe czy też w wyniku boomu na rynku nieruchomości,
powinien – zgodnie z koncepcją efektu bogactwa – skutkować wzrostem wydat-
296
Marek Ratajczak
ków konsumpcyjnych. Konsumenci, uważając się za bogatszych powinni bowiem
łatwiej i chętniej podejmować decyzje zwiększające ich spożycie, także za pomocą środków pieniążnych pożyczonych na rynku. Pisząc o efekcie bogactwa należy
jednak zauważyć, że nie znajduje on jednoznacznego potwierdzenia w wynikach
badań empirycznych. Na dodatek wyniki te wskazują na istotne różnice występujące pod tym względem między poszczególnymi gospodarkami, których źródła
wykraczają poza wąsko rozumianą sferę czynników ekonomicznych.
Finansyzacja sprzyja występowaniu efektu majątkowego w znacznej mierze
w wyniku tzw. demokratyzacji finansów [Montgomerie, Williams 2009]. Rozwój
rynków finansowych i instrumentów finansowych, tudzież narzędzi służących sekurytyzacji, pozwala nawet podmiotom o bardzo ograniczonych dochodach i niewielkim majątku korzystać np. z kredytów na zakup nieruchomości, a to z kolei
otwiera drogę do dalszego wzrostu wydatków konsumpcyjnych wraz ze wzrostem
wartości nabytej nieruchomości. Niestety, towarzyszy temu ryzyko, które dało
o sobie znać wraz z kryzysem kredytów subprime w Stanach Zjednoczonych.
Niebezpieczeństwem, które wiąże się z wpływem finansyzacji na efekt majątkowy, jest podkreślane już powiązanie finansyzacji gospodarki z rozwojem działań o charakterze spekulacyjnym. Działania takie, co pokazuje zwłaszcza rynek
nieruchomości, mogą prowadzić do bardzo szybkiego wzrostu wartości majątku
posiadanego przez gospodarstwa domowe i co za tym idzie, kreować podstawy do
wzrostu efektu bogactwa. Równocześnie jednak rośnie ryzyko, z którego znaczna
część gospodarstw domowych nie zdaje sobie sprawy, możliwości równie szybkiego lub nawet szybszego spadku wartości posiadanego majątku w momencie wystąpienia zjawisk kryzysowych. Teoretycznie rzecz ujmujac, to kredytodawca powinien przeprowadzić na tyle wnikliwą analizę warunków udzielenia kredytu, aby
zminimalizować ryzyko zarówno własne, jak i kredytobiorcy. Doświadczenia
ostatnich lat przed wybuchem kryzysu pokazują jednak, że we współczesnym
świecie występuje tendencja do niedoszacowania ryzyka kredytowego lub przyjmowania założenia, że inne instrumenty finansowe, takie jak wspominane CDS,
skutecznie przeniosą ryzyko na inne podmioty.
Powyżej wspomniano już o demokratyzacji finansów jako pozytywnym, zdaniem wielu ekonomistów, następstwie rozwoju rynków finansowych. Należy jednak zauważyć, że wśród zwolenników idei finansyzacji jako odzwierciedlenia
pewnej nowej fazy rozwoju kapitalizmu nie brak głosów, że owa demokratyzacja
ma tylko pozorny charakter i że wciąganie kolejnych grup społecznych w świat
rynków finansowych ma służyć przede wszystkim interesom najzamożniejszych
grup społeczeństwa [Montgomerie, Williams 2009]. O niesprawiedliwym czy
wręcz klasowym wymiarze finansyzacji świadczyć mają obficie cytowane w literaturze, acz pochodzące głównie z USA, dane dotyczące zróżnicowania i rozkładu
dochodów między tzw. „białymi i niebieskimi kołnierzykami”. Finansyzacja sprzyja przede wszystkim wzrostowi dochodów i majątków najlepiej sytuowanych grup
społecznych.
Mówiąc o wpływie finansyzacji na sferę podziału dochodów, należy zauważyć, że finansyzacja jest postrzegana jako element destrukcji tzw. systemu for-
Finansyzacja gospodarki
297
dowskiego w sferze relacji między światem pracy a światem kapitału [Boyer
2005]. System ten był charakterystyczny dla tzw. złotych trzydziestu lat od końca II wojny światowej do połowy lat 70. XX w. i opierał się na daleko idącym
kompromisie między światem pracy a światem kapitału. Kompromis ten wynikał po części z idei solidaryzmu społecznego, charakterystycznego dla tzw. liberalizmu zakorzenionego społecznie, w znacznej mierze nawiązującego do kojarzonej z Johnem Stuartem Millem idei liberalizmu socjalnego [Harvey 2008].
Odzwierciedleniem charakterystycznego dla tego systemu kompromisu między
światem pracy a światem kapitału była m.in. umiarkowana, z punktu widzenia
dzisiejszej perspektywy, skala zróżnicowania przeciętnych dochodów szeregowych pracowników i kadr kierowniczych. W sferze polityki makroekonomicznej
w okresie dominacji systemu fordowskiego szczególną rolę odgrywały działania
odwołujące się do dorobku J.M. Keynesa, a polityka społeczna była związana
z ideą państwa dobrobytu i państwa opiekuńczego. Należy podkreślić, że
w okresie dominacji systemu fordowskiego nastąpił bezprecedensowy rozwój
gospodarek rynkowych zaliczanych do krajów wysoko rozwiniętych. Gdyby dokonać prostego porównania przeciętnego poziomu życia w tych krajach
w 1975 r. z tym, jaki był w 1945 r., a następnie dokonać podobnych obliczeń dla
lat 1975–2005, nie ulegałoby wątpliwości, dlaczego właśnie ten pierwszy okres
nazywany jest złotym.
To drugie trzydziestolecie kojarzone jest z okresem dominacji koncepcji
neoliberalnych, a symbolem zmian, które temu towarzyszyły, stały się tzw. thatcheryzm oraz reaganomika12. Obie te polityki czy wręcz filozofie dotyczące reguł życia ekonomicznego odwoływały się do idei powrotu do korzeni gospodarki rynkowej, w której zasadniczą rolę powinna odgrywać samoregulacja rynkowa, przy bardzo ograniczonej obecności państwa, odpowiedzialnego przede
wszystkim za stwarzanie i umacnianie ram instytucjonalnych niezbędnych dla
rozwoju aktywności gospodarczej sektora prywatnego. Wraz z nadejściem epoki neoliberalizmu nastąpiło stopniowe odejście od systemu fordowskiego. Wynagrodzenia szeregowych pracowników zaczęły być głównie postrzegane w kategoriach kosztu, a wynagrodzenia kadry menedżerskiej, zwłaszcza najwyższego
szczebla, jako cena zarządzania aktywami uzależniona bezpośrednio od ich
wartości rynkowej. W systemie postfordowskim nie ma za dużo miejsca na dyskusję o wynagrodzeniach i ich relacjach w kategoriach społecznych. To, co wynika z gry sił rynkowych – niezależnie od tego, czy jest to rzeczywiście rynek
zbliżony do ideału wolnego rynku, czy jak to ma na ogół miejsce rynek jest od
12 Poza ramy tego artykułu wykracza szczegółowa dyskusja na temat powodów, dla których
doszło do zmian związanych z upowszechnieniem się koncepcji neoliberalnych. Był to cały splot
przyczyn o charakterze społecznym, politycznym i ekonomicznym. W sferze ekonomicznej
można wspomnieć, że w końcowej fazie wspominanych wcześniej złotych trzydziestu lat pojawiły się zjawiska, które nie mieściły się w tradycyjnej keynesowskiej wizji gospodarki i traktowanej jako integralny element tego sposobu widzenia gospodarki krzywej Phillipsa. Stagflacja
i slumpflacja, które stały się udziałem sporej grupy państw, doprowadziły do zasadniczej rewizji
poglądów, zwłaszcza na rolę państwa w gospodarce.
298
Marek Ratajczak
tego ideału nawet mocno odległy – i to, co rynek akceptuje, jest uznawane za
właściwe. Przy tym zarówno ograniczanie kosztów płacowych związanych z pracownikami niższych szczebli, jak i szybki wzrost wynagrodzeń top managmentu
to elementy wskazywanego wcześniej i charakterystycznego dla doby finansyzacji umacniania się punktu widzenia zwanego shareholder perspective. Z punktu
widzenia akcjonariuszy wynagrodzenia szeregowych pracowników są przede
wszystkim składnikiem kosztów wpływających na efektywność zainwestowanego
kapitału, natomiast zarobki kadry kierowniczej są swego rodzaju premią za
dbałość o zainwestowany kapitał i poprawę rentowności. W tym miejscu warto
odnieść się do nowego zjawiska społecznego, które umownie określa się jako
„ruch oburzonych”, którego symbolem stały się takie wydarzenia, jak akcja blokowania Wall Street. Ruchy te mogą być postrzegane jako swego rodzaju upominanie się o powrót do systemu fordowskiego z punktu widzenia relacji świata pracy i świata kapitału. Powrót taki, jak zresztą każdy powrót do przeszłości,
nie wydaje się jednak w pełni możliwy, co nie znaczy, że nie jest pożądana szersza debata na temat tego, jak godzić potrzebę ochrony mikroekonomicznej
efektywności z efektywnością makroekonomiczną, a zwłaszcza makrospołeczną
skutecznością w zapewnianiu pokoju socjalnego, który jest jednym z niezbędnych warunków długookresowego rozwoju.
Pisząc o związkach między tendencją do finansyzacji gospodarki i dobrobytem
społecznym, należy także zwrócić uwagę na wskazywane już ryzyko rozszerzania
się postaw czy zachowań rentierskich. Tabloidyzacja sfery kulturowej i przekazu
medialnego powodują, że coraz częściej zwłaszcza młodzi uczestnicy rynku skłonni są traktować aktywność ekonomiczną związaną z pracą jako coś gorszego
w stosunku do ideału rentierskiego. Majątek, który może otwierać drogę do naprawdę dostatniego życia, miałby być przede wszystkim konsekwencją różnego
rodzaju operacji finansowych, a nie efektem tradycyjnie rozumianej aktywności
związanej z uczestnictwem w rynku w charakterze pracobiorcy lub pracodawcy.
W skali makrospołecznej i makroekonomicznej grozi to tworzeniem świata gigantycznej piramidy Ponziego [Froud i in. 2001].
Uwagi końcowe
Ostatni kryzys w gospodarce światowej jest traktowany przez część ekonomistów
jako naturalny przejaw cykliczności rozwoju gospodarki i wyraz działania samooczyszczającego się rynku, który po okresie pewnych turbulencji ponownie wprowadzi gospodarkę światową na ścieżkę szybkiego wzrostu. Dla tych, którzy akceptują ideę finansyzacji, kryzys ten jest wyrazem głębszych zmian, których konsekwencje są trudne w tej chwili do precyzyjnego określenia. Istnieje przy tym
niebezpieczeństwo, że po okresie największych zaburzeń związanych z ostatnim
kryzysem wróci presja na kontynuowanie działań służących dalszemu rozwojowi
finansyzacji. Dla gospodarstw domowych może oznaczać to, że będą mogły liczyć
Finansyzacja gospodarki
299
na większe dochody z ulokowanych w funduszach inwestycyjnych środków, jak
i na to, że państwo opodatkowując przynajmniej część aktywności związanej
z działalnością finansową pozyska dodatkowe środki na wydatki publiczne. Gospodarstwa domowe będą musiały jednak także liczyć się z tym, że będą płacić
coraz więcej za niektóre produkty – nie dlatego, że ich ceny będą rosły w wyniku
obiektywnych zmian warunków gospodarowania, lecz dlatego że będą one rosły
w wyniku spekulacji motywowanej m.in. chęcią zwiększenia wartości papierów
wartościowych posiadanych przez gospodarstwa domowe. Gospodarstwa domowe będą także narażone na większą niestabilność swoich dochodów i zmienność
wartości posiadanego majątku.
Kapitalizm kasynowy na pewno się nie skończy wraz z ostatnim kryzysem, ale
może doprowadzić do istotnych zmian na gospodarczej i nie tylko gospodarczej
mapie świata. Jedynym podmiotem, który może próbować ograniczyć proces finansyzacji gospodarki i jej skutki, jest państwo, jednak z różnych względów pożądane z tego punktu widzenia działania państwa są trudne do podjęcia i przeprowadzenia, a na dodatek państwo nie jest w tym przypadku wyłącznie bezstronnym arbitrem.
W kategoriach naukowych koncepcja finansyzacji gospodarki wymaga dalszych studiów i badań, prowadzących do prób konstrukcji modeli czy teorii, a następnie ich testowania. Jak na razie takich prób jest stosunkowo mało [Boyer
2000; Stockhammer 2004; van Treeck 2009]. Jedno jednak nie ulega wątpliwości.
Niezależnie od tego, czy idea finansyzacji stanie się bardziej popularna, czy też
wraz ze słabnięciem ostatniego kryzysu zainteresowanie tą koncepcją osłabnie,
(co nie znaczy, że w ogóle zaniknie) dobrze by było, aby ekonomiści uwzględniali konsekwencje tego zjawiska i związaną z tym potrzebę integracji rozważań
o sferze finansowej i sferze realnej. Wyróżnianie – charakterystyczne od niedawna także dla oficjalnej klasyfikacji dyscyplin naukowych w Polsce – ekonomii i odrębnie finansów ma oczywiście istotne uzasadnienie, ale nie może oznaczać utraty z pola widzenia tego, że nie da się zrozumieć zjawisk zachodzących we współczesnej gospodarce realnej bez odwołań do dyskusji o sferze finansowej, a z kolei
finansowy wymiar gospodarowania nie może być traktowany jako cel sam w sobie
bez powiązania z fundamentami z zakresu sfery realnej.
Tekst wpłynął 10 stycznia 2012 r.
Bibliografia
Acemoglu D., The Crisis of 2008: Structural Lessons for and from Economics, 2010, http://
econ-www.mit.edu/files/3703.
Bałtowski M., Kryzys finansowy – od neoliberalizmu do (neo)socjalizmu? 2008, http://www.
pte.pl/pliki/2/21/CZue-15.10-Kryzys-PTE-Baltowski-2.pdf (20.02.2012).
Barbaruk M., Hiszpański „kryzys XVII wieku, „Historia – Kultura – Globalizacja” 2010,
nr 8.
300
Marek Ratajczak
Bhaduri A., Financialization in the Light of Keynesian Theory, „PSL Quarterly Review”
2011, nr 64.
Boyer R., Coherence, Diversity, and the Evolution of Capitalisms – The Institutional Complementarity Hypothesis, „Evolutionary and Institutional Economic Review” 2005, nr 2(1).
Boyer R., Is a Finance-led Growth Regime a Viable Alternative to Fordism? A Preliminary
Analysis, „Economy and Society” 2000, nr 1.
Dixon A. D., Sorsa V-P., Institutional Change and the Financialisation of Pensions in
Europe, „Competition & Change” 2009, nr 4.
Drucker P., Toward the Next Economics and Other Essays, Harvard Business Press, Boston
2010.
Engelen E., The Case for Financialization, „Competition & Change” 2008, nr 2.
Financialisation and the World Economy, red. G.A. Epstein, Edward Elgar Publishers,
Northampton 2006.
Foster J.B., The Financialization of Capitalizm, „Monthly Review” 2007, nr 11.
Freeman R.B., It’s financialization!, „International Labour Review” 2010, nr 2.
Froud J., Haslam C., Johal S., Williams K., Financialisation and the Coupon Pool, „Gestão
& Produção” 2001, nr 3.
Froud J., Haslam C., Johal S., Williams K., Shareholder Value and Financialisation: Consultancy Promises, Management Moves, „Economy and Society” 2000, nr 1.
Gwiazdowski R., Bankokracja, „Przekrój”, 23.10.2008.
Hall S., Finacialised Elites and the Changing Nature of Finance Capitalism: Investment
Bankers in London’s Finacial District, „Competition & Change” 2009, nr 2.
Harvey D., Neoliberalizm. Historia katastrofy, Instytut Wydawniczy Książka i Prasa, Warszawa 2008.
Isaacs G., Contemporary Financialization: A Marxian Analysis, „Journal of Political Inquiry” 2011, nr 4.
Kamiński J., Wielki błąd papieża ekonomii, „Dziennik-Magazyn”, 31.10–2.11.2008.
Kąsek L., Lubiński M., Hyman Minsky – wczoraj i dziś, „Współczesna Ekonomia” 2010,
nr 1.
Keynes J.M., Ogólna teoria zatrudnienia, procentu i pieniądza, PWN, Warszawa 1985.
Khan F., Word Financial Crisis: Lessons from Islamic Economics, http://twocircles.net/2008oct11/
world_financial_crisis_lesson_form_islamic_economics.html (08.01.2011).
Knafo S., Liberalisation and the Political Economy of Financial Bubbles, „Competition &
Change” 2009, nr 2.
Kotz D.M., Neoliberalism and Finacialization, http: //people.umass.edu/dmkotz/ Neolib_and_Fin 08_03.pdf (08.01.2011).
Kowalik T., www.Polska Transformacja.pl, Warszawskie Wydawnictwo Literackie MUZA
S.A., Warszawa 2009.
Mączyńska E., Czy to starość? „Gazeta Bankowa”, 07.04.2009.
Mączyńska E., Ekonomia a przełom cywilizacji, „Studia Ekonomiczne” 2009, nr 3–4
(LXII–LXIII).
Montgomerie J., Williams K., Financialised Capitalism: After the Crisis and Beyond Neoliberalism, „Competition & Change” 2009, nr 2.
Orhangazi Ö., Finacialization and the US Economy, Edward Elgar, Northamptom
2008.
Palley T.I., Financialization: What It Is and Why it Matters, Political Economy Research
Institute, „Working Paper Series” 2007, nr 153.
Finansyzacja gospodarki
301
Palley T.I., The Macroeconomics of Financialization: A Stages of Development Approach,
„Ekonomiaz” 2009, nr 72.
Polanyi Levitt K., The Great Financialization, www.karipolanyilevitt.com (22.07.2011).
Radon J., Thaler J., Fonds Couverains: le Retour du Capitalism d’Etat? „Problèmes Economiques” 2008, nr 2951.
Rynek w cuglach (wywiad z E. S. Phelpsem), „Niezbędnik Inteligenta”, dodatek tygodnika
„Polityka”, 18.10.2008.
Rossman P., Greenfield G., Finacialisation, „Education Ouvrière” 2006, nr 1.
Stockhammer E., Finacialisation and the Slowdown of Accumulation, „Cambridge Journal of Economics” 2004, nr 5.
Tobin J., On the Efficiency of the Financial System, „Lloyd’s Bank Review” 1984,
nr 153.
Toporowski J., Moja Polska i moje podejście do ekonomii, http://www.pte.pl/314_ekonomisci_polscy_w_swiecie_pte.html (20.02.2012).
van Treeck T., A Synthetic, Stock-flow Consistent Macroeconomic Model of „Financialisation, „Cambridge Journal of Economics” 2009, nr 33.
Wigan D., Financialisation and Derivatives: Constructing an Artifice of Indifferance, „Competition & Change” 2009, nr 2.
Williams K., From Shareholder Value to Present-day Capitalism, „Economy and Society”
2000, nr 1.
Ząbkowicz A., Wzrost znaczenia dochodów z operacji finansowych w korporacjach niefinansowych (financialization) – kontekst instytucjonalny, „Organizacja i Kierowanie”
2009, nr 2.
Żyżyński J., Neoliberalizm jako strukturalna przyczyna kryzysu a poszukiwanie dróg
naprawy, „Ekonomista” 2009, nr 2.
Financialisation of the Economy
Summary
Although financialisation is a well known idea in the foreign literature, it is still
unrecognised in Poland. The aim of the paper is to clarify the concept of financialisation
and discuss some relevant fields of interest. The article presents the notion of
financialisation in a narrow sense identified with increasing significance of financial
actions in non-financial agents’ economic activity, as well as the financialisation in
a broad sense. The latter applies to the process of getting autonomy or even dominance
of the financial sector over the real sector. Financialisation implies that financial markets
and their establishment acquire a growing influence on economic policy and practical
results. Alongside with the discussion on the meaning of financialisation, the paper
offers considerations about its historical background and contemporary displays. Also,
the financialisation in the context of state policy and its effects on the social welfare are
analysed. The phenomenon of financialisation needs further research providing testable
models or theories.
Key words: financialisation 1 crisis 1 real sector 1 financial sector 1 state
302
Marek Ratajczak
Финансизация экономики
Резюме
Финансизация это понятие, которое уже нашло свое место в зарубежной литературе,
но все еще является относительным новшеством в Польше. Целью статьи является
попытка приближения этого понятия и связанных с ним главных областей дискуссии.
Анализу подвергается как финансизация в узком смысле, отождествляемая с растущим
значением финансовой деятельности в активности нефинансовых хозяйствующих субъектов, так и финансизация в широком смысле. Во втором случае это означает процесс
автономизации и более высокой позиции финансовой сферы по отношению к реальной
сфере. В рамках финансизации финансовые рынки, а также финансовые элиты приобретают растущее влияние на экономическую политику и эффекты хозяйствования. Кроме
дискуссии на тему интерпретации финансизации, автор статьи затрагивает вопрос исторического измерения этого явления и его проявлений в современных экономиках.
Финансизация анализируется в контексте политики государства, а также с точки зрения
ее влияния на благополучие общества. Финансизация требует дальнейшего изучения
и исследований, ведущих к выработке моделей или теорий и их последующей проверки.
Ключевые слова: финансизация 1 кризис 1 реальная сфера 1 финансовая сфера
1 государство
Helena Gaspars-Wieloch*
Ograniczona skuteczność metod optymalizacyjnych
w rozwiązywaniu ekonomicznych
problemów decyzyjnych
Wstęp
Ekonomia to nauka o tym, jak jednostka i społeczeństwo decydują o wykorzystaniu zasobów, zazwyczaj rzadkich, w celu wytworzenia różnych dóbr i rozdzielenia ich na konsumpcję obecną lub przyszłą. Zwolennicy teorii racjonalnych oczekiwań uważają, że podmioty gospodarcze podejmują swoje decyzje na
podstawie wszystkich dostępnych informacji o aktualnych uwarunkowaniach
ekonomicznych i o potencjalnych skutkach tych decyzji oraz posiadają umiejętność wyciągania wniosków ze zdarzeń w przeszłości, co pozwala im przewidywać możliwe scenariusze wydarzeń w przyszłości. Są jednak ekonomiści, którzy
twierdzą, że większość z nas wcale nie postępuje racjonalnie, chociażby z powodu braku dostatecznej inteligencji. Ich zdaniem nasze myślenie jest schematyczne i nielogiczne.
W nawiązaniu do tego drugiego poglądu chciałabym ukazać działanie niektórych metod optymalizacyjnych stosowanych w głównej mierze do rozwiązywania
ekonomicznych problemów decyzyjnych. Okazuje się bowiem, że – przy odpowiednio dobranych parametrach zadania – teoretycznie właściwe metody mogą
doprowadzić nas do zupełnie niedorzecznych rezultatów. Jest to o tyle niepokojące, że skoro spora część społeczeństwa nie postępuje racjonalnie, to mając do
dyspozycji wyniki otrzymane za pomocą rzekomo poprawnej procedury, nie podejmie ona wysiłku intelektualnego, aby sprawdzić, na ile uzyskane informacje są
wiarygodne.
Czym jest metoda optymalizacyjna? To procedura, której zastosowanie
umożliwia znalezienie dla danego problemu rozwiązania optymalnego bądź
* Dr
Helena Gaspars-Wieloch – Katedra Badań Operacyjnych, Uniwersytet Ekonomiczny
w Poznaniu; e-mail: [email protected]
304
Helena Gaspars-Wieloch
rozwiązania bliskiego optimum. Rozwiązaniem optymalnym jest rozwiązanie
dopuszczalne (tj. spełniające wszystkie postawione warunki), które najlepiej
realizuje sformułowany cel (tzw. funkcję celu, funkcję kryterium, wskaźnik jakości itd.). Takim celem może być np. minimalizacja kosztów, minimalizacja
długości drogi czy też maksymalizacja wydajności. Metody optymalizacyjne są
m.in. wykorzystywane jako narzędzie rozwiązywania praktycznych problemów
w badaniach operacyjnych, dyscyplinie naukowej związanej z teorią decyzji.
Metody te obejmują programowanie liniowe, całkowitoliczbowe, zero-jedynkowe, kwadratowe, nieliniowe, dynamiczne, wielocelowe, sieciowe, zarządzanie
projektem, zagadnienie transportowe, podejmowanie decyzji w warunkach ryzyka i niepewności itd.
Do metod optymalizacyjnych zaliczamy metody dokładne (czyli te, które
zawsze pozwalają otrzymać optymalne rozwiązanie) oraz metody heurystyczne
lub przybliżone (czyli te, które nie dają gwarancji uzyskania planu optymalnego, choć w wielu przypadkach mogą prowadzić do znalezienia optimum). Głównym zadaniem metod optymalizacyjnych jest wspomaganie procesu podejmowania decyzji w takich dziedzinach jak statystyka, ekonomia, zarządzanie, informatyka czy medycyna.
Jak już wcześniej zasygnalizowano, owo wspomaganie procesu decyzyjnego
może zostać zakłócone, gdy wyniki uzyskiwane dla danego problemu za pomocą wybranej, teoretycznie właściwej, metody optymalizacyjnej są sprzeczne z logiką. I o takich właśnie szczególnych przypadkach będzie mowa w dalszej części
tego artykułu. W artykule skupimy się na analizie ekonomicznych problemów
decyzyjnych.
1. Wybór projektu inwestycyjnego
na podstawie reguły Hurwicza
Rozważmy na początek problem wyboru projektu inwestycyjnego. W praktyce
decyzje tego typu zapadają najczęściej w warunkach niepewności. Mamy bowiem możliwość realizacji jednego biznesplanu spośród kilku potencjalnych,
ale wielkość zysków, jakie mogą przynieść poszczególne projekty, zależy od
rodzaju scenariusza, który wystąpi w rzeczywistości. Na to, który scenariusz
będzie miał miejsce, decydent nie ma wpływu. Stan faktyczny zależy o wielu
czynników, do których mogą należeć m.in. mikro- i makroekonomiczne decyzje różnych podmiotów gospodarczych, ceny towarów, wysokość podatków,
kursy walutowe, stopa bezrobocia, warunki meteorologiczne oraz zdarzenia
losowe.
Gdy decydent zamierza wyznaczyć optymalną strategię w warunkach niepewności, może posłużyć się np. regułą Hurwicza (zob. np. Guzik [2009, s. 259–260],
Ignasiak [1996, s. 223–224], Kaufmann, Faure [1968, s. 252–253], Kukuła [1996,
Ograniczona skuteczność metod optymalizacyjnych w rozwiązywaniu…
305
s.136], Stodulny [2008, s. 259–260], Trzaskalik [2008, s. 271–274]). Reguła ta,
w ogólnym przypadku, ma na celu ustalenie optymalnej strategii czystej 1 przy
założeniu, że:
11 decyzja podejmowana jest w warunkach niepewności (są znane możliwe stany
natury, lecz nie można ustalić rozkładu prawdopodobieństwa wystąpienia poszczególnych scenariuszy),
11 wybrana decyzja będzie realizowana jednokrotnie,
11 decydent potrafi podać poziom swojego pesymizmu a (lub optymizmu (1 – a)),
który jest wyrażony jako liczba z przedziału [0, 1]2.
Optymalną strategią czystą jest ten wariant, który spełnia warunki (1) i (2).
h j = a $ min {aij} + (1 - a) $ max {aij}, j = 1, ..., n, (1)
i
h j = a $ min {i aij} + (1 - a) $ max {aij}, j = 1, ..., n,
i
i
h j * = max {h j},
j
(2)
h j * = max {h j}, h j = a $ max {aij} + (1 - aj ) $ min {aij}, j = 1, ..., n,
i
gdzie:
h j = a $ max {i aij} + (1 - a) $ min {aij}, j = 1, ..., n,
i
i
h
h
{
}
.
=
min
hj –wskaźnik Hurwicza
wariantu decyzyjnego,
j*
j dlaj j-tego
h j * = min {h j} .
aij –wypłata, h
gdy
wystąpi i-ty stan naturyj (scenariusz), a decydent podejmie j-tą
P1 = 0, 7 $ 10 + 0, 3 $ 100 = 37,
= 0, 7 $ 10 + 0, 3 $ 100 = 37,
decyzję, h = 0, 7 $ 10 + 0,h3P1$ 95
= 35, 5,
P2
n –liczba możliwych strategii h(wariantów
decyzyjnych).
+ 0, 3 $ 95 = 35, 5,
P2 = 0, 7 $ 10
h P3 = 0, 7 $ 20 + 0, 3 $ 50 = 29.
0, 7 $ 20 +
0, 3 $ 50minimalnej
h Pn3 = ważoną
= 29.
Wskaźnik Hurwicza
średnią
i maksymalnej
m stanowi zatem
m
n
M = /danej
wi fi (x)decyzji.
- / w j f j (x) " max
wypłaty towarzyszącej
/ wibądź
/ kryterium
M
fi (x) w j f j (x) " max
1
1koszty
j==
Oczywiście, jeżelii =wypłatami
są
inne
minimalizowane,
j=1
m
n i=1
to reguła postępowania
nieco
w tej sytuacji:
m inaczej. Można
n
M = / wprzebiega
i gi (x) + / w j g j (x) " max
11 albo w macierzy iwypłat
dodać
zastoso/ wi gi (x)znak
M
w j g j (x)a następnie
" max
=
+ /minus,
1 wyników
j =do
=1
1min
1i =a
j},
=
1
1
h j =i (2),
a
a
j
n
$
{
}
(
)
{
,
...,
,
a $ min
+
max
=
wać wzory (1)
ij
ij
1
h
a
a
j
$
$
{
}
(
)
{
},
=
a
+
a
= 1, ..., n,
max
fik (x)
i
j
ij
i ij
i
fki (i wykorzystać
x)
k (x) =
imacierzy
11 albo przyjąćhgpierwotną
postać
wzory
(3)
i (4):
{hk j}, hg k (x=) =
M
j * = max
max {h j},
j*
j
j Mk
m
i
k
1
hgj =
a
j =a)1,$ ...,
n,{a }, j = 1,(3)
{
}
(
)m
+
$
max
$ min
a
a
ij
ij},(1 h
{i aij{}a+
..., n,
=
$
max
min
a
ij
k (x) = i
ij
i
fk (x)
g k (x) = i k
h j * = min {h j} . h = min
fk ({xh) j} . j f (x) - m j *
(4)
j
ii
k
k
g
x
(
)
=
f37
(,x)+-0m
10 +
0
3
h Pk1 = 0, 7 $ M
,
=
ii$ 100
k10
k $ 100 = 37,
0
7
3
h
,
,
=
$
=
k - mgkP
Powróćmy do zasygnalizowanego
wyboru projektu ink1(x) wcześniej
M5k, - mproblemu
0
7
10
0
3
95
h
,
,
=
+
=
$
$
2
P
0
h
, 735$ ,10
,k3 $ 95 = 35
, 5, osiągnąć po re=
+ 0inwestor
M
f
x
(
)
westycyjnego. W tabeli
1 kpokazano
jakie
może
ii
k P2 zyski,
g k (x) =
M.k - fk (x)
ii$ 50 = 29
0
7
20
0
3
h
,
,
=
+
$
alizacji poszczególnych
biznesplanów
(P1,
P2,+P3).
widać,
Mk - mhgkPk3(=
P3
x) 0=
0, 3 $Jak
50 =
29. wielkości te zale, 7 $ 20
mk n
- wystąpi
m
n S2,mS3,M
k
żą od tego, który
scenariusz
(S1,
S4)
w rzeczywistości. Zyski
x1 + 5 x2 " max,
(01)
/
M = / wprojektem
w
f j (xw)1 "
max
01=
max
) j/
5
x
"
,
+
i fi (x) - (
/
M
f
x
w
f
x
(
)
(
2
związane z pierwszym
charakteryzują
się
największą
i i
j j ) " maxrozpiętością,
(02) i 5= 1 x1 +
xj =
2 1" i max
j=1
=1 ,
projekt P2 w trzech mprzypadkach
wysokie
zyski, z kolei
x1 +dajex2bardzo
(02
) 5cztery
" max
,
n na
n
2 w
x1 g +
)niezależnie
5+
x/
Gw gm20
, ) " max
2scenariusza,
plan P3 przynosi,
od
dość
zbliżone
i stosunkowo
niskie
/
M(1=
x
x
(
)
(
i i
M
(1)= 2j/j xw1i g+
i (x)5+x2/Gw j g20
j (,x) " max
dochody.
(2) i 5= 1 x1 + 2 xj2= 1G i =40
1 ,
j=1
(2) 5 x1 + 2 x2 G 40,
f (x)
i
g(k3()x) = x1k,
xg2i (Hx) =0.fk (x)
Mk
x ,mieszanej,
(k3)
x H 0na
. tym, aby w pełni zreali1 Strategia czysta, w odróżnieniu
M = 4 $ (x1 +
5x2)od
1 $ (5x11M
+ strategii
+ kx2) = 92 xpolega
1 + 21x2 " max
m
M
x
x
x
4
5
1
5
=
(
+
)
+
(
$
$
i
zować jeden wariant decyzyjny.k
m
1 k
2
1 + x2) = 9x1 + 21x2 " max
i
5
g2k (x) c=
1
2 Zerowa wartość
g
x
(
)
=
k
współczynnika
pesymizmu
(ostrożności)
oznacza
całkowitą skłonność do
1
1
fk (x)
c fk (5x)
2
c2 oznacza
2 całkowitą
1 1awersję
1
ryzyka, natomiast 5jedynka
do ryzyka.
f (x) - m5
c
2
ii
g kiii(x) = kfk (x) gkii (x) 2= fk (x) - mk
g k (x) = Mk *- mk kiii
fM
(x)
g k (x) = k k*- mk
M
k
M - f (x)
ii
f (x)
kk k
g k (x) = k * k g ii (x) = MM
Mmk k- mk k
iii
*
M
g k (x) =
mkk- mk
iii
306
Helena Gaspars-Wieloch
Ta b e l a 1
Zyski (w tys. zł)
Projekty
inwestycyjne
P1
P2
P3
S1
100
10
40
S2
20
95
50
S3
15
95
20
10
95
35
Scenariusze
S4
h j = a $ min {aij} + (1 - a) $ max {aij}, j = 1, ..., n,
i
Źródło: Opracowanie własne.
i
h j * = max {h j},
Jeżeli decydent przyjmie, że jjego poziom pesymizmu wynosi a = 0,7, a po1 - a) $ min
1, ..., n, dla
{aij} + (wynika,
{aij}, j =Hurwicza
= 0,3,
a $ max
ziom optymizmu (1 – a)h j=
to
iżi wskaźniki
i z tabeli
analizowanych projektówhwyniosą
{ h j} .
j * = minodpowiednio:
j
h P1 = 0, 7 $ 10 + 0, 3 $ 100 = 37,
h P2 = 0, 7 $ 10 + 0, 3 $ 95 = 35, 5,
h P3 = 0, 7 $ 20 + 0, 3 $ 50 = 29.
m
n
Zgodnie ze wzorem (2)
wybrać
pierwszy plan (P1). Czy jest
M inwestor
(x) - / w
= / wi fipowinien
j f j (x) " max
1
i =Wskaźniki
j Hurwicza
=1
to jednak rozsądne podejście?
dla pozostałych dwóch wam
n nietrudno zauważyć, że projekt P2
riantów decyzyjnych są wprawdzie
niższe, ale
/
/
M
w
g
x
w j g S4)
" max
(
)
=
+
i i
j (x) najwyższe
daje w przypadku aż trzech scenariuszy
(S2,
S3,
wypłaty. Z kolei
i=1
j=1
podjęcie decyzji P1 tylko w jednejf sytuacji
(S1) stwarza możliwość uzyskania naj(x)
i
g k (xpozostałe
) = k trzy stany są w przypadku tej strategii barlepszego wyniku, natomiast
Mk
dzo niekorzystne. O ile rezygnacja z wariantu
P3 wydaje się logiczna, gdyż w najmk
i
lepszym razie decydent może
liczyć
na
wypłatę
równą 50 tys. zł, o tyle potraktog k (x) =
fk (x) strategia P1 można już zakwestionować.
wanie projektu P2 jako gorszego aniżeli
f (x) - mk (a więc raczej niska) skłonność inii
W analizowanym przypadku
g k (x)30-procentowa
= k
Mnie
mk
westora do ryzyka oznacza, że jeżeli
stan pierwszy, a decydent wybiek - wystąpi
rze projekt P1, to jego zyski
będą
niższe
aniżeli
najniższe
dochody związane z poM
f
x
(
)
ii
k
k
g k (x)to=znaczna
zostałymi decyzjami. Byłaby
strata,
biorąc
pod
uwagę dość ostrożne
Mk - mk
podejście inwestora.
x1 + 5 x2 " max,
(01)
Zazwyczaj wskaźnik Hurwicza daje sensowne wyniki, ale w tym szczególnym
max, z logiką. Omówioną me(02) 5 x1wydaje
xsię
+
2 "
przypadku otrzymana odpowiedź
sprzeczna
2 x1 + a uzyskane
(1)z rozwagą,
5 x2 G 20wyniki
,
todę należy więc stosować
warto poddać analizie
i ewentualnie zdecydować
się
na
inną
strategię
niż
ta,
którą wskazuje nam
(2) 5 x1 + 2 x2 G 40,
w pierwszej kolejności reguła Hurwicza. Można też zastanowić się, czy nie byłoby
xuwzględniającą
)
x2 H 0nie
. tylko najwyższy i najniższy
1,
rozsądniej skonstruować(3miarę
M
x
x
x
max
4
5
1
5
=
+
+
$
$
(
)
(
) = 9x1 + 21x2 "
1
1 + x2występowania
wynik związany z daną decyzją, lecz
też2 częstotliwość
względnie
2
c
5
najkorzystniejszych i najmniej
wypłat. Może stosowanie takiej nieco
1 1korzystnych
1
5
c2
2 w każdym analizowanym przypadku do barzmodyfikowanej miary prowadziłoby
dziej sensownych odpowiedzi.
f
(x)
iii
g k (x) = k *
Mk
iii
g k (x) =
*
mk
Ograniczona skuteczność metod optymalizacyjnych w rozwiązywaniu…
307
2. Ustalenie asortymentu produkcji
na podstawie metakryterium
dla ciągłej wersji optymalizacji wielocelowej
Kolejny problem ekonomiczny, przy którym warto na chwilę się zatrzymać, będzie dotyczyć wyznaczenia optymalnego asortymentu produkcji w sytuacji, gdy
decydent zainteresowany jest realizacją dwóch różnych kryteriów jednocześnie.
Wówczas nie mamy do czynienia z zagadnieniem jednokryterialnym (por.
poprzedni podrozdział), lecz z problemem wielocelowym. Istotne dla decydenta kryteria są zazwyczaj sprzeczne, optymalne zatem rozwiązania dla poszczególnych celów (tzw. optima cząstkowe) wiążą się najczęściej z koniecznością
realizacji odmiennych planów. Dlatego w przypadku optymalizacji wielokryterialnej nie poszukuje się decyzji optymalnej, lecz rozwiązania efektywnego,
kompromisowego. Wśród
wielocelowego
h = metod
a } + (1 - a) $ max
{aij}, j = 1,opisywanych
..., n,
a $ min {programowania
h jj =
n,
{aprocedura
a $ min
+ (1 -ważonej,
a) $ max
i {aijij} sumy
i tj.
ij}, j = 1, ...,
w literaturze znana jest
m.in.
metoda
wykorzystui
i
h = max
{h },
jąca metakryterium (M)
ważoną
h jj**jako
= max
j {h jj}, sumę kryteriów cząstkowych lub jako waj
żoną sumę stopni realizacji
Jeżeli
są
h = akryteriów
j = 1,wyrażone
{a },kryteria
..., n,
+ (1 - a) $ min
$ max {aij}cząstkowych.
h jj = a $ max
i {aijij}, j = 1, ..., n,
i {aij} + (1 - a) $ min
i
w tej samej jednostce i skali,
toi metakryterium
można
zapisać zgodnie ze wzoh = min {h j} .
h jj**razie
{h j} . się stosowanie formuły (6), w której po= min
jzaleca
rem (5). W przeciwnym
j
0
7
10 + 0, 3 $ 100 =realizacji
37,
h Psą
,
=
$
szczególne funkcje celu
zastąpione
kolejnych celów (zob.
h P11 = 0, 7 $ 10 + 0stopniami
, 3 $ 100 = 37,
Brzęczek [2010, s. 32–35],
110–111], Trzaskalik
0, 7 $ 10 + 0, 3 $ [2008,
95 = 35s. 91–92,
h =Marcinkowski
, 5,
h P2 = 0, 7 $ 10 + 0, 3 $ 95 = 35, 5,
[2008, s. 210–211]). hP2 = 0, 7 $ 20 + 0, 3 $ 50 = 29.
h PP33 = 0, 7 $ 20 + 0, 3 $ 50 = 29.
m
m
n
n
i=1
m
m
j=1
n
M = / wi fi (x) - / w j f j (x) " max ,
M= /
w f (x) - /
w f (x) " max
i=1 i i
j=1 j j
(5)
n
{gaaij(}}x)+
{a }, j = 1, ..., n,
a
min
a $$ /
-a
a)) $$ max
min
max
"((11max
M = / wi h
ghijj(=
x=) +
i w{
i {aijij}, j = 1, ..., n,
jg j(ijx)+
,
(6)
i
i
/
"
M= /
w
g
x
w
max
(
)
+
j j
i = 1 i hi
j = 1 {h
max
j* =
1 {h j},
i=1
j=
h
},
=
max
j
j
f (xj)*
j
i
gik (x) = fkk(hx)j = a $ max {aij} + (1 - a) $ min {aij}, j = 1, ..., n,
g
x
(
)
=
h
aij} + (1 - a) $ min
{
=
$
max
a
M
i {aij}, j = 1, ..., n,
i
k
gdzie:
i
i
Mkkj
hhk j * =
{{hhj}} ..
min
m (n)
– liczba kryteriów
maksymalizowanych
(minimalizowanych),
m
i
=
min
j
j
*
gi (x) = mk j kryterium
wi (wj)
– waga i-tego
(minimalizog kk(x) (j-tego)
= fk (hxP)1 = 0, 7j $ 10 maksymalizowanego
+
0
7
10
100 =
37,,
h
,
=
+ 00,, 33 $$ 100
= 37
$
fk (x)P1
wanego),
f (x)2 m
ii
00,,k77 $$ 10
=
)210 +
95 =
35,, 55,,
=m
+ 00,, 33 $$ 95
= 35
= fkk(hhxPP(j-tego)
k kryterium,
fi(x) (fj(x)) – funkcjaggiicelu
i-tego
k ((xx)) =
M
m
k
k =
00,, 33 $$ 50
,, 77 $$ 20
..
m0kk(j-tego)
gi(x) (gj(x)) – stopień realizacjiMhhi-tego
maksymalizowanego
20 +
50 =
29
+kryterium
= 29
kP33=0
Mk Pfk (mx)
n
ii
n
x)
(minimalizowanego).
gii (x) = Mk - fk (m
/
/
g kk (x) = M
M
w
w
=
m
i ffi ((xx)) /
/
" max
M
w
wjj ffjj ((xx)) "
max
=
k
k
i i
Mk - m
i=
j = 1 przy
k 1 decydenta,
Wagi określają znaczenie
kryteriów
dla
czym
ich suma nieko1 " max, j = 1
x1 + 5 i =
(01)
x
2
01Stopnie
x1 realizacji
)
maxmożna
+ 5 xm
, nn obliczyć zgodnie ze wzom2 "
niecznie musi wynosić(1.
celów
((xx)) +
x M
(02) 5 zawsze
x w"g max
+= /
, /w
/
" max
wj ggj ((xx)) "
max
+
rami (7)–(10). Przyjmują
z przedziału
5 x11 M
(02)one
x221 w"ii giimax
+ =wartości
, j/
i=
= 1 j j [0,1].
i=1
j=1
(1) 2 x + 5 x2 fG(x)20,
(1) 2 x11 g+ii (x5) =
x2 fGk (x)20
,,
(7)
k (x) = k
(2) 5 x1 g+
40
,
k 2 x2 G
M
(2) 5 x1 + 2 x2 GMkk 40,
m 0.
x, i
(3)
x H
x11, gg ki ((xx)) =
(3)
x=22 Hmkk 0,.
k
f
M = 4 $ (x + 5x ) + 1($x()5x + x ) = 9x + 21x " max (8)
M = 4 $ (x11 + 5x22) + 1fkk $((x5) x11 + x22) = 9x11 + 21x22 " max
ffk ((xx)) c
2
5 ii
mkk
-m
k
2 1 c11 1 5ggii
k ((xx)) =
=
M
m
5 1 c2 1 2 k
k
Mk - mkk
5
c2
2
M
- f (x)
f (iix)
iii
f kg(xii)(x) = Mkk - fkk (x)
giii
k (x) = kg k (x) =
M=
308
/
/
w g (x) +
w g (x)
i=1 i i
j=1 j j
i=1
j=1
ffk ((xx))
i
k
gg ki ((xx)) =
=
k
M
Mkk
Helena
Gaspars-Wieloch
m
i
mk
gg ki ((xx)) =
= f (xk)
k
fkk (x)
ffk ((xx)) ii
mk
-m
gg kii ((xx)) =
= kM - m k ,
k
Mkk - mkk
M
ii
Mk - ffk ((xx))
gg kii ((xx)) =
= Mk - km ,
k
Mkk - mkk
x
((01
)
01)
x11 +
+ 55 xx22 "
" max
max,,
" max
(9)
(10)
gdzie:
55 xx1 +
max
((02
xx2 "
,,
02II)) rodzaju)
max
gk(x) – stopień realizacji (I lub
celu
(stopień
realizacji k-tego
1 + k-tego
2 "
5
20
((11x),
)) 22 xx1 +
x
G
,
kryterium przez obiekt
2
1 + 5 x2 G 20,
fk(x) – funkcja celu k-tego kryterium
k-tego40kryterium
dla obiektu x),
((22)) 55 xx(wartość
1 +
+ 22 xx22 G
G 40,,
Mk – maksymalna wartość k-tego 1kryterium
w danym zbiorze rozwiązań
xx1,,
00..
((33))
xx2 H
1
2 H
(obiektów),
44 $$ ((xx1 +
5x2)) +
1 $ (5x1 + x2) =
21
M
21xx22 "
= kryterium
= 99xx11 +
+rozwiązań
max
M=
" max
mk – minimalna wartość k-tego
1 + 5xw analizowanym
2 + 1 $ (5x1 + x2) zbiorze
2
5
c
(obiektów).
2 1 c11 1 5
55 1 cc2 1 22
2dotyczą odpowiednio kryteriów maksymaliFormuły (7) i (9) oraz (8) i (10)
ffk ((xx))
iii
iii
k
zowanych i minimalizowanych.
że wzorów (7) i (8) (tj. stopni
gg kWarto
(x) = zauważyć,
*
k (x) =
*
M
realizacji I rodzaju) nie można stosować,Mgdy
k kryteria w rozpatrywanym zbiorze
k
* zerowe lub ujemne. Wyrażenia (9)
rozwiązań (obiektów) przyjmują
wartości
*
m
iii
k
k
gg kiiirodzaju)
(x) = mnie
i (10) (czyli stopnie realizacji II
k (x) = fk (
xx)) mają takich ograniczeń (por. Marf
(
k
cinowski [2008, s. 92–94]).
*
f
iV
k
fk ((xx)) m k*kzastanawia się nad wielkością
-m
Rozpatrzmy następującą sytuację.
Producent
gg kiV ((xx)) =
=
*
k
*
produkcji artykułów spożywczych,
które M
powinien
m *k* wytwarzać. Dla uproszczenia
kM
k - mk
*
przyjmijmy, że produkuje on dwa rodzaje
artykułów:
M
ffk ((xx)) A1 i A2, których ilość oznaiV
M k*k k
((xx)) =
czymy jako x1 i x2. Do produkcjigg kiV
zużywa
dwa
limitowane
surowce (S1 i S2), a waż=
*
*
k
* - m*
M
k
k
nymi kryteriami są dla niego: 1) maksymalizacja
M k - m k zysku (w tys. zł), rozumianego
jako różnica między przychodem ze sprzedaży
11 TT a kosztem produkcji, oraz 2) mak/
E
)) =
/1rrjtjt wielkość zależy od rodzaju i ilości
E ((R
R jjzł),
= których
symalizacja dopłat unijnych (w tys.
T
T tt =
1
wyprodukowanego artykułu spożywczego.=Znając
odpowiednie wyjściowe parametry zadania decyzyjnego, możemy go zapisać w postaci następującego problemu dwukryterialnego:
(01) x1 + 5x2 " max,
(02) 5x1 + x2 " max,
(1)
2x1 + 5x2 G 20,
(2)
5x1 + 2x2 G 40,
(3)
x1, x2 H 0.
Wyrażenia (01) i (02) opisują funkcje celu decydenta (maksymalizacja zysku
i maksymalizacja dopłat). Dzięki nierównościom (1) i (2) rzeczywiste zużycie posiadanych zasobów na wytworzenie artykułów A1 i A2 nie przekroczy dostępnych
ilości S1 i S2, natomiast ograniczenie (3) zapewnia uzyskanie nieujemnych wielkości produkcji.
i
g k (x) =
k
Mk
mk
i
g k (x) =
fk (x)
309
Ograniczona skuteczność
metod optymalizacyjnych w rozwiązywaniu…
fk (x) - mk
ii
g k (x) =
k - mrozwiązanie
k
Decydent zamierza M
ustalić
kompromisowe na podstawie metaMkłatwiej
- fk (x)jest przewidzieć poziom cen sprzedaży i kosztów
kryterium. Producentowi
ii
g k (x) =
produkcji aniżeli
to, czyM
jego
o dopłaty zostanie pozytywnie rozpatrzony.
mk
k - wniosek
W związku z powyższym
że ,pierwszy cel (01) jest dla niego cztery
x1 +przyjmijmy,
5 x2 " max
(01)
razy ważniejszy od celu (02). Zauważmy, że oba cele wyrażone są w tych samych
(02) 5 x1 +
x2 " max,
jednostkach. Na podstawie
współczynników
stojących przy zmiennych w funk+ 55oraz
) 1,2 cx1 =
x2 Gc 20
, 5 i c = 1) możemy też stwierdzić, że
cjach celu (c11(1=
=
12
21
22
skala obu kryteriów
metakryterium na podstawie
x1 taka
40,
(2) 5 jest
+ 2 sama.
x2 G Sformułowanie
wzoru (5) jest (zatem
teoretycznie
zupełnie
poprawne:
3)
x,
x H 0.
1
2
M = 4 $ (x1 + 5x2) + 1 $ (5x1 + x2) = 9x1 + 21x2 " max .
2
5
c
Ry s u n e k 1
1 11
5
2
c2
Optymalne rozwiązania
dla obu kryteriów oraz plan kompromisowy
f (x)
iii
g k (x) = k x *
M2k
*
m
20 k
g iii
x
=
(
)
k
fk (x)
g iV
k (x) =
g iV
k (x) =
E ( R j) =
fk (x) - m *k
M *k - m *k(2)
M *k - fk (x)
10 * - m *
M
k
k
FC2
1 T
/r
T t = 1 jt M
A
2
D
B
2
C
FC1
(1)
10
x1
Źródło: Opracowanie własne
Optymalne rozwiązania cząstkowe (punkty A i C) oraz ostateczny plan kompromisowy (punkt B) wskazano na rysunku 1 i opisano w tabeli 2. Przypomnijmy,
że pierwsze kryterium (tj. maksymalizacja zysku) ma dla decydenta cztery razy
większe znaczenie aniżeli drugie kryterium (tj. maksymalizacja dopłat). Tymczasem w planie końcowym wartość funkcji (01) spadła, w stosunku do swojej maksymalnej możliwej wartości w zbiorze rozwiązań dopuszczalnych, o ponad 7 tys. zł
(z 20 tys. zł do 12,38 tys. zł), tj. o ponad 35%, podczas gdy wartość funkcji (02)
spadła o niecałe tysiąc zł (z 40 tys. zł do 39,05 tys. zł), tj. o niecałe 2,5%. Preferencje producenta nie znalazły zatem żadnego odzwierciedlenia w ostatecznym
planie produkcji. Skoro pierwszy cel był tak istotny, to oczekiwalibyśmy od zasto-
h P3 = 0, 7 $ 20 + 0, 3 $ 50 = 29.
M=
310
m
n
i=1
j=1
/ wi fi (x) - / w j f j (x) " max
Helena Gaspars-Wieloch
m
n
M = / wi gi (x) + / w j g j (x) " max
1
i = 1 znaczniej =bliżej
sowanej metody wskazania planu leżącego
punktu A, tj. punktu
f
x
(
)
i
k kryterium.
stanowiącego optimum cząstkowegdla
tegoż
k (x) =
Mk
Ta b e l a 2
mk
i
g k (x) = i rozwiązanie
Optymalne rozwiązania cząstkowe
kompromisowe
fk (x)
fk (x) - mk
ii
Kryterium
(01) – punkt
– punkt C Metakryterium – punkt B
g k (xA) =(02)
Mk - mk
Optymalne wartości
x1 = 0;
x1 = 8;
x1 = 160/21 = 7,62;
zmiennych
x2 = g4ii (x) = Mkx2-=fk0(x)
x2 = 20/21 = 0,95
k
M
m
k
k
Wartość funkcji (01)
20 (max)
8
12,38
x1 + 5 x2 " max,
(01)
Wartość funkcji (02)
4
Źródło: Opracowanie własne.
40 (max)
(02) 5 x1 +
x2 " max,
39,05
(1) 2 x1 + 5 x2 G 20,
To nie koniec zaskakujących odpowiedzi. Otóż uważny Czytelnik sam zorien40,
) 5 x1 +
G której
tuje się, że każda kombinacja wag(2kryteriów
w1 2i wx22, dla
stosunek współ3
x
0
(
)
,
x
H
.
czynników c1 i c2 stojących przy zmiennych1 x1 i x2 w funkcji
metakryterium speł2
nia poniższy warunek:
M = 4 $ (x1 + 5x2) + 1 $ (5x1 + x2) = 9x1 + 21x2 " max
2
5
c
1 11 ,
5
2
c2
f (x)
iii
wskaże rozwiązanie kompromisowe
g k w punkcie
(x) = k *B (tab. 3), a więc zarówno kombiM k iż punkt ten jest jedynym wierznacja wag 4 : 1, jak i … 1 : 4. Wynika to z tego,
chołkiem, stanowiącym rozwiązanieiiiPareto-optymalne,
który znajduje się pomięm *k
g
x
=
(
)
k cząstkowe (A i C). Wystarczy zatem, aby
dzy punktami wskazującymi optima
fk (x)
izokwanta związana z funkcją metakryterium była bardziej
stroma niż warunek
fk (x) - m *k plan produkcji będzie za(1) i mniej stroma niż warunek (2),
a kompromisowy
g iV
x
=
(
)
k
wsze wyznaczony przez plan B.
M *k - m *k
Analizując powyższy przykład, należy stwierdzić,
M *k - fk (x) że stosowanie metakryteiV
x
=
(
)
rium z formułą (5) w zagadnieniu gustalania
optymalnego
asortymentu produkcji
k
*
*
M
m
k
k
nawet wtedy, gdy kryteria są wyrażone w tej samej skali i jednostce, nie jest do
1 T
końca prawidłowym podejściem.
E (R j) = / r jt
T
Ta b e l a 3t = 1
Współczynniki funkcji metakryterium i nachylenie jego izokwanty przy różnych
wagach kryteriów cząstkowych
Kryterium
(01)
Kryterium
(02)
Metakryterium
Warunek
(1)
Metakryterium
Warunek
(2)
w1
c11
c12
w2
c21
c22
c1
c2
a11/a12
c1/c2
a21/a22
10
1
5
1
5
1
15
51
2/5 = 0,4
0,294
5/2 = 2,5
9
1
5
1
5
1
14
46
2/5 = 0,4
0,304
5/2 = 2,5
8
1
5
1
5
1
13
41
2/5 = 0,4
0,317
5/2 = 2,5
7
1
5
1
5
1
12
36
2/5 = 0,4
0,333
5/2 = 2,5
Ograniczona skuteczność metod optymalizacyjnych w rozwiązywaniu…
311
6
1
5
1
5
1
11
31
2/5 = 0,4
0,355
5/2 = 2,5
5
1
5
1
5
1
10
26
2/5 = 0,4
0,385
5/2 = 2,5
4
1
5
1
5
1
9
21
2/5 = 0,4
0,429
5/2 = 2,5
3
1
5
1
5
1
8
16
2/5 = 0,4
0,500
5/2 = 2,5
2
1
5
1
5
1
7
11
2/5 = 0,4
0,636
5/2 = 2,5
1
1
5
1
5
1
6
6
2/5 = 0,4
1,000
5/2 = 2,5
1
1
5
2
5
1
11
7
2/5 = 0,4
1,571
5/2 = 2,5
1
1
5
3
5
1
16
8
2/5 = 0,4
2,000
5/2 = 2,5
1
1
5
4
5
1
21
9
2/5 = 0,4
2,333
5/2 = 2,5
1
1
5
5
5
1
26
10
2/5 = 0,4
2,600
5/2 = 2,5
1
1
5
6
5
1
31
11
2/5 = 0,4
2,818
5/2 = 2,5
1
1
5
7
5
1
36
12
2/5 = 0,4
3,000
5/2 = 2,5
1
1
5
8
5
1
41
13
2/5 = 0,4
3,154
5/2 = 2,5
1
1
5
9
5
1
46
14
2/5 = 0,4
3,286
5/2 = 2,5
1
1
5
10
5
1
51
15
2/5 = 0,4
3,400
5/2 = 2,5
Źródło: Opracowanie własne.
Bardziej racjonalne rozwiązania pozwala nam otrzymać formuła oparta na
stopniach realizacji (patrz wzór (6)). Jeżeli obliczymy je zgodnie ze wzorem (7)
lub (9)3, to punkt B będzie rozwiązaniem kompromisowym dla stosunku wag
kryteriów cząstkowych w1/w2 z przedziału [2/1, 1/9]4, co jest już bardziej logiczne, choć nadal niezadowalające. Warto jednak podkreślić, że to drugie podejście również nie jest pozbawione wad. Otóż może się przecież zdarzyć, że wyrażeń (7) i (8) nie będzie można zastosować ze względu na ujemne lub zerowe
wartości Mk i mk, a zbiór rozwiązań dopuszczalnych będzie otwarty w kierunku
minimalizacji lub maksymalizacji danego kryterium cząstkowego i wówczas niektórych parametrów Mk i mk we wzorach (9) i (10) też nie będziemy potrafili
wyznaczyć.
Przedstawiony przykład liczbowy miał nam uświadomić, że stosowanie metakryterium do ustalania rozwiązania kompromisowego może prowadzić do nielogicznych odpowiedzi nawet wówczas, gdy wszystkie założenia dotyczące korzystania z tejże metody są spełnione. Jeżeli dodatkowo uwzględnimy inne ograniczenia procedury (o których również była mowa), to powinniśmy zastanowić się, czy
wykorzystywanie metakryterium jako narzędzia generowania rozwiązań kompromisowych w ciągłych, wielocelowych problemach optymalizacyjnych ma w ogóle
sens. Powyżej pokazano, jak metakryterium jest stosowane w przypadku zagadnienia optymalnego asortymentu produkcji, lecz można równie dobrze odwołać
3 W tym
akurat przykładzie wzory (7) i (9) będą miały dokładnie tę samą postać.
założono, iż rozpatrywane są tylko wagi całkowite.
4 W rozważaniach
312
Helena Gaspars-Wieloch
się do innego ekonomicznego problemu decyzyjnego (np. do ustalania struktury
upraw, składu portfela papierów wartościowych czy też struktury wydatków publicznych).
Na koniec warto podkreślić, że w literaturze zagranicznej metakryterium jest
przedstawiane raczej jedynie jako metoda generowania zbioru rozwiązań Pareto,
a nie jako narzędzie ustalania decyzji kompromisowej [Collette, Siarry 2008; Cotrutz, Lahanas, Kappas, Baltas, 2001, s. 4; Messac, Puemi-Sukam, Melachrinoudis 2000; Messac, Mattson, 2003; Sharaff, El-Gammal, 2009] i takie podejście
wydaje się bardziej rozsądne.
3. Standaryzacja kryteriów
do tworzenia rankingów obiektów
według stopnia realizacji określonych celów
Obok ciągłej wersji optymalizacji wielocelowej (o której była mowa w poprzedniej części artykułu) często jest wykorzystywana w praktyce dyskretna wersja tego
zagadnienia, która umożliwia tworzenie rankingów obiektów na podstawie ustalonej listy kryteriów. Rankingi te mogą dotyczyć funduszy emerytalnych, banków,
funduszy inwestycyjnych, kredytów hipoteczno-mieszkaniowych, szkół wyższych,
najbardziej innowacyjnych przedsiębiorstw, najbardziej dynamicznych gospodarek świata, województw o największej aktywności zawodowej itd. Takie zestawienia są o tyle istotne, iż stanowią podstawę do podejmowania wielu decyzji, w tym
decyzji ekonomicznych, zarówno w skali mikro, jak i makro.
Sporządzenie rankingu np. za pomocą metakryterium, wymaga uprzedniej
standaryzacji kryteriów, tak aby były one porównywalne. Do standaryzacji celów
używa się m.in. wspomnianych już wcześniej stopni realizacji I i II rodzaju (wzory 7–10).
Mając obliczone stopnie realizacji celów, można ustalić dla każdego badanego
obiektu pewną ocenę syntetyczną, korzystając np. z formuły (6), a następnie
uszeregować obiekty według uzyskanych wartości metakryterium (por. Brzęczek
[2010, s. 42–44]).
Przyjrzyjmy się następującemu problemowi. Redakcja pewnego tygodnika
przeprowadza ranking banków. Dla uproszczenia przyjmiemy, że ranking ustalany jest na podstawie trzech kryteriów: 1) liczba placówek w kraju, 2) średnia
ocena jakości obsługi dokonana przez klientów (w skali 1 – 6) oraz 3) miesięczne
oprocentowanie kredytów (w %). Zakłada się, że wagi dla poszczególnych kryteriów wynoszą odpowiednio 0,25; 0,4; 0,35. Pierwsze dwa kryteria są maksymalizowane, natomiast ostatnie kryterium stanowi minimantę. Dane dotyczące
10 banków pokazano w tabeli 4.
Jak widać, rozpatrywane kryteria nie są porównywalne (wyrażono je w różnej
skali i jednostkach), a więc aby wyznaczyć ocenę syntetyczną dla każdego banku,
Ograniczona skuteczność metod optymalizacyjnych w rozwiązywaniu…
313
należy najpierw ujednolić kryteria poprzez przekształcenie wyników na stopnie
realizacji celów.
Ta b e l a 4
Dane dotyczące banków
Banki
A
B
C
D
E
F
G
H
I
J
Liczba placówek
50
60
70
80
65
85
75
25
45
40
Ocena jakości
obsługi
4
2
4
3
3
3
2
4
2
4
1,2
0,9
1,5
1,3
0,8
2,0
0,6
1,1
1,6
0,5
Oprocentowanie
Źródło: Opracowanie własne.
Celem niniejszego punktu nie jest pokazanie całego procesu przygotowywania
rankingu, a jedynie skupienie się na metodologii obliczania stopni realizacji celu dla
wybranego kryterium. Dlatego w dalszej części skoncentrujemy się na standaryzacji
ocen dokonanych przez klientów. Oceny stanowią kryterium maksymalizowane i są
wyrażone jako liczba dodatnia (od 1 do 6), zatem licząc stopień realizacji celu można zastosować zarówno formułę (7), jak i (9) – patrz wiersz 3 i 4 w tabeli 5.
Ta b e l a 5
Obliczone stopnie realizacji celu dla ocen jakości obsługi
Banki
A
B
C
D
E
F
G
H
I
J
Ocena
4
2
4
3
3
3
2
4
2
4
Wartość stopnia
realizacji (7)
1
0,5
1
0,75
0,75
0,75
0,5
1
0,5
1
Wartość stopnia
realizacji (9)
1
0
1
0,5
0,5
0,5
0
1
0
1
Wartość stopnia
realizacji (11)
0,67
0,33
0,67
0,5
0,5
0,5
0,33
0,67
0,33
0,67
Wartość stopnia
realizacji (13)
0,6
0,2
0,6
0,4
0,4
0,4
0,2
0,6
0,2
0,6
Źródło: Opracowanie własne.
Wśród otrzymanych rezultatów niektóre mogą wydawać się nam nieco zawyżone lub zaniżone:
11 zgodnie z formułą (7) bank, który uzyskał ocenę 3, realizuje kryterium w 75%
(wynik zawyżony),
11 zgodnie ze wzorami (7) i (9) bank, który uzyskał ocenę 4, realizuje kryterium
w 100% (wynik zawyżony),
fkk (xfk) (x) - m
ii
x)m
-kmkk
ii (x) =
ffk ((xxfkk))(ii g
mm
x) =
gg kii ((gxxkk))(=
k M-k
k
k
= MM
-km
k
km
k
kMM
m
k - fk (x)
ii
k
k
M
f
x
(
)
ii
M
f
x
(
)
k
k
)) =
ii g (x
314
Helena
Mkk fkk(xm
)
xGaspars-Wieloch
=
gg kii ((gxxkk))(=
M
k
k
=
M
m
k
Mk -km
m5kk xk " max,
((01
)) Mxx1k -+
01
+
"
max
xx1 +
5 x52 x"22 ocenę
max
)) który
, 2,, realizuje kryterium
1 uzyskał
11 zgodnie z wyrażeniem (9)((01
bank,
01
1 + 5 x2 " max,
02
5
x
+
"
(
)
x
max
,,
1
2 " max
w 0% (wynik zaniżony). (02()025) 5x1 x+
1 + x2 x"
max,,
(02) 5 x1 +
x2 "2 max
1iż) doskonale
2 x1 +
20istnieje
+ 5wiemy,
x2 G
G że
,
Nasze odczucia biorą się stąd,((1
jeszcze niższa
((11)) 22) 2xx1 x+
,,20,
1 5 x52 xG
5 4.x2Może
20
G2 20
ocena niż 2 i istnieją jeszcze wyższe
oceny
niż
więc
logiczniej
byłoby przy
1 +
2 xx2 G
40
(2) 5 x1 +
40,,
+
22 do
))(255) 5xx1 x+
xx22 zbioru
G
1 się
2 G40,badanych
ustalaniu wielkości Mk i mk nie((22ograniczać
obiektów,
lecz
40
+
,
G
1
2
xx1,,
0
((3
))* ) i minimalne
xx2(mH
..
* ) możliwe
3
0
H
przyjąć, że są nimi maksymalne
(M
wartości
k-tego
((33)) k xx1,, 1
xx2 H
.
2
k0
5
+
+
=
"
M
xx22)) H
xx1m
$$0((.5
((xx1 +
22)
1+
kryterium (wiersz 5 i 6 tab. 5, w naszym
M$ (*1
=
4x11$$przypadku
5
1
56,
9xxZmodyfiko21xx22 max
=$ (4
+
+*xx=
=9
+ 21
M 4=
" max
max
) 91)?
1
5
=
+
+
M
x
x
)
15+
2
k
4 $ c(x1 + 55x22) + 1 $ (5x11 +
9xx11 +
21xx22 "
M=
+1xx22))k =
=
+121
" max
2
wane wzory przedstawiono poniżej.
Nazwijmy
je
umownie
stopniami
realizacji
III
1
2
5
c
2
55
cc1 1 1
1
1
1
1
(formuły 11 i 12) i IV rodzaju 2(formuły
i 14).
5
2
cc1213
5 c21 1
2
55 1
c2 2 22 f (x)
iii
k
f
ffk ((xxk))(x) ,
(11)
iiig iii (x
x)) =
=
*
k
gg kiiig((kkxx))(=
*
M
=
*
k
*M k M
M kk **k
m
*
mk
iii (x) =
gg iii
k )(=
(12)
m kf*k (xk) ,
x) =m
gg iii
kiii ((kx
k x) = fk (xfk
k)(x) fk (x)
*
ffk ((xx)) iV
m *kk
-*k*m
iV (x) =
f
x
m
(
)
k
iVg
k
f (x) m k ,*
x) =
*
(13)
gg kiVg((kkxx))(=
* -*m
*
= k **M
k
k
M
*m k
M
m
k
k
k
M kk m
*
* - fk (x)
*M
iV
k - fk (x)
*M
iV
M
x
=
(
)
iVg
k
k
M k -k*ffkk ((xxk)) *
x) =
gg kiVg((kxx))(=
M
=
(14)
*M *k k
m.*kk
-*k*m
M
km
k* M
m
T
k
k
T
1
11 1TT
E
r
E j(()R
R=jj)) =
=
E
R
r r jt
(
T
Takie podejście umożliwia E
uzyskanie
tt r=jtjt11 jt racjonalnych wyników.
(R j) = T bardziej
T
t=1=
=1
Warto mieć jednak na uwadze fakt, Tiż t w przypadku
niektórych czynników nie
/
/
//
jesteśmy w stanie przedstawić parametrów M*k i m*k w postaci konkretnych liczb, gdyż
maksymalne (minimalne) możliwe wartości tychże kryteriów mogą teoretycznie dążyć do +3 (–3), np. wielkość zysków z inwestycji, poziom długu publicznego, czas
wykonania danego projektu inwestycyjnego. Dlatego w takich sytuacjach należałoby
przyjąć jakieś umowne wielkości M*k i m*k. Przykładowo, tworząc miary syntetyczne
dla pewnego zbioru krajów, w których jednym z kryteriów oceny jest stopa bezrobocia, można założyć, że jeżeli w ciągu ostatnich 10 lat stopa bezrobocia nie przekraczała w tych krajach 17,5% i nie była niższa niż 3,4%, to M *k = 18,
a m*k = 3. Należy również podkreślić, że choć same wartości stopnia realizacji celu
będą w ten sposób lepiej ukazywać stan faktyczny, to względne różnice pomiędzy
stopniami realizacji, a także pomiędzy metakryteriami oceny poszczególnych obiektów, zmniejszą się, co przy nawet mało istotnej zmianie wag przyznanych poszczególnym kryteriom będzie skutkowało istotnymi zmianami w rankingu (por. Marcinkowski [2008, s. 94]).
Inny ciekawy przykład, kwestionujący sporządzanie rankingów obiektów na
podstawie stopni realizacji I i II rodzaju, opracował swego czasu W. Sikora (profesor Uniwersytetu Ekonomicznego w Poznaniu). Zaobserwowany paradoks
polegał bowiem na tym, że ranking obiektów A, B, C, biorący pod uwagę trzy
kryteria i skonstruowany według stopni realizacji I rodzaju, uzyskał zupełnie odwrotną kolejność w stosunku do rankingu przygotowanego na podstawie stopni
II rodzaju.
Ograniczona skuteczność metod optymalizacyjnych w rozwiązywaniu…
315
4. Optymalizacja czasowo-kosztowa
projektów inwestycyjnych na podstawie algorytmu
Kaufmanna i Desbazeille
Kolejny ekonomiczny problem decyzyjny, z którym często spotykamy się w rzeczywistości, to próba realizacji interesującego nas projektu inwestycyjnego w czasie możliwie jak najkrótszym i po koszcie możliwie jak najniższym. Jest to dość
specyficzny problem dwukryterialny, który z racji samej struktury przedsięwzięcia
(niektóre jego czynności są wykonywane równolegle, inne – sekwencyjnie) nie
może być rozwiązywany za pomocą tradycyjnych metod programowania wielokryterialnego. W tym konkretnym przypadku należy odwołać się do metodologii
stosowanej w zarządzaniu projektami, czyli do algorytmów skracania czasu realizacji przedsięwzięcia. Do najbardziej znanych procedur należy algorytm Kaufmanna i Desbazeille [Kaufmann, Desbazeille, Ventura 1964]. Służy on właśnie
do optymalizacji czasowo-kosztowej projektu, tj. do ustalenia planu: a) minimalizującego czas jego realizacji przy określonych środkach finansowych (Kd) lub b)
minimalizującego koszt jego wykonania przy zadanym czasie dyrektywnym (Td)5.
Dokładny opis algorytmu zawiera rysunek 2.
Jak widać, metoda Kaufmanna i Desbazeille sprowadza się do iteracyjnego
skracania wszystkich ścieżek krytycznych (tj. ścieżek o najdłuższym czasie trwania) o tę samą wielkość. Oznacza to, iż przy ustalaniu możliwych wariantów kompresji sieci nie są rozpatrywane wszystkie przekroje podsieci krytycznej, czyli
kombinacje będące minimalnymi zbiorami łuków, przez które przechodzą wszystkie ścieżki krytyczne, lecz jedynie kombinacje stanowiące zbiory równoległych
łuków krytycznych. Takie warianty (zawierające dokładnie, a nie przynajmniej,
po jednej czynności na każdej ścieżce krytycznej) nazywać będziemy dokładnymi
przekrojami podsieci krytycznej. Skracanie czasu trwania najdłuższych ścieżek
sukcesywnie o jedną jednostkę jest konieczne zwłaszcza wówczas, gdy w sieci występuje kilka ścieżek krytycznych. Jeżeli natomiast sieć składa się tylko z jednej
drogi krytycznej, której czas trwania jest na dodatek znacznie dłuższy aniżeli czasy wyznaczone dla pozostałych ścieżek, to wybraną(e) czynność(i) krytyczną(e)
można w danej iteracji przyspieszyć od razu o więcej niż jedną jednostkę, pamiętając o ograniczeniach wynikających z ustalonego czasu granicznego oraz dostęp5
Szerzej o optymalizacji czasowo-kosztowej projektu inwestycyjnego zob. m.in. [Gaspars­
‑Wieloch 2008, s. 174–183; Gaspars-Wieloch 2010, s. 78–88, Gruszczyński, Kuszewski, Podgórska
2009, s. 391–395; Hein 1967, s. 315–325; Ignasiak 1996, s. 133–134; Kukuła 1996, s. 165–168;
Trzaskalik 2008, s. 345–353, 362–365]. W literaturze algorytm Kaufmanna i Desbazeille określany jest mianem algorytmu CPM-COST [Gaspars 2006a, 2006b], MCX (Minimum Cost
Expediting) [Idźkiewicz 1967], CPM-MCX [Siudak 1998], a nawet CPM [Idźkiewicz 1967], analizą CPM-COST [Pietras, Szmit 2003], albo nazywany jest bardzo ogólnie analizą kosztów
[Muller 1964], analizą czasowo-kosztową [Sikora 1993], procedurą czasowo-kosztową
[Kopańska-Bródka 1998] lub algorytmem kompresji sieci. Nie można mieć pewności, że to
właśnie Kaufmann i Desbazeille są twórcami wspomnianej metody. Ze studiów literaturowych
wynika jedynie, że jej opis pojawił się najwcześniej w ich pracy. Przyjmijmy więc umownie, że
omawiana procedura będzie określana mianem algorytmu Kaufmanna i Desbazeille.
316
Helena Gaspars-Wieloch
nych środków przeznaczonych na akcelerację działań. Dodajmy, że w omawianej
procedurze należy skracać te czynności krytyczne, których przyspieszenie wywoła
najniższy wzrost łącznego kosztu bezpośredniego. Łączny koszt bezpośredni projektu wyznacza się jako sumę kosztów ponoszonych przy kompresji sieci (tj. kosztów podlegających optymalizacji) oraz kosztów bezpośrednich odpowiadających
normalnym czasom trwania poszczególnych działań. Algorytm Kaufmanna i Desbazeille jest metodą heurystyczną, a więc nie daje ona gwarancji uzyskania rozwiązania optymalnego.
Ry s u n e k 2
Schemat blokowy algorytmu Kaufmanna i Desbazeille
START
1. Wyznaczyć
podsieć krytyczną
tak
2. Ustalić możliwe
warianty skrócenia
wszystkich ścieżek
krytycznych o jedną
jednostkę:
a) jedna czynność
wspólna dla
wszystkich ścieżek
krytycznych
b) po jednej czynności
na każdej ścieżce
krytycznej
c) kombinacja dwóch
pierwszych wariantów
Czy pojawiła się
nowa ścieżka
krytyczna?
STOP
nie
tak
nie
3. Przypisać
wymienionym
wariantom
łączne koszty
skrócenia
Czy cel został
osiagnięty?
4. Wybrać dowolny
najtańszy technicznie
możliwy wariant
i skrócić czas trwania
wybranych czynności
o jedną jednostkę
Źródło: [Bladowski 1970, s. 182–183; Kukuła 1996, s. 166; Gaspars 2006b, s. 7; Gaspars-Wieloch 2009,
s. 48–49].
Rozpatrzmy następującą sytuację. Załóżmy, że w fazie planowania pewnego
projektu (rys. 3) jego kierownik stwierdził, iż oszacowany czas realizacji (10 dni)
jest zbyt długi i że należy go skrócić o 3 dni (z 10 do 7 dni) możliwie jak najtaniej.
Działania (A, B, C, D, E) ukazano w postaci łuków. Normalne czasy trwania podano obok nazw działań, całkowite zapasy czasu policzono w nawiasach okrągłych, czynności krytyczne (tj. działania o zerowym zapasie czasu) pogrubiono,
a jednostkowe koszty skracania czynności zapisano w nawiasach kwadratowych.
Z rysunku 3 wynika, że czas trwania czynności A można maksymalnie skrócić
o 2 dni (gdyż w nawiasie kwadratowym zawarto dwa koszty), a czynności D
w ogóle nie można skrócić.
317
Ograniczona skuteczność metod optymalizacyjnych w rozwiązywaniu…
Ry s u n e k 3
Wyjściowa sieć (Td = 7)
B5 [1]
2
A5 [2, 2]
(0)
C2 [1]
1
D5
(0)
4
(0)
(0)
E3 [2, 2]
3
(2)
Źródło: Gaspars [2006b, s. 12].
Procedura Kaufmanna i Desbazeille spełnia wszystkie formalne wymogi, aby
z niej skorzystać przy rozwiązywaniu opisanego wyżej problemu. W tabeli 6 zebrano rezultaty końcowe uzyskane za pomocą tejże metody. Ze względu na obecność dwóch przekrojów dokładnych o najniższym koszcie kompresja sieci może
być teoretycznie przeprowadzona na trzy różne sposoby (zgodnie z krokiem 4.
algorytmu wybieramy dowolny najtańszy i technicznie możliwy wariant).
Ta b e l a 6
Zestawienie wyników pośrednich dla algorytmu Kaufmanna i Desbazeille
I opcja
Iteracja
Przekrój
dokładny
10–9
II opcja
Koszt
Przekrój
dokładny
A
CB
BE
2
2
3
9–8
A
CB
BE
8–7
AD
BCD
BE
Rezultat
III opcja
Koszt
Przekrój
dokładny
Koszt
A
CB
BE
2
2
3
A
CB
BE
2
2
3
2
∞
∞
A
CB
BE
2
2
3
A
CB
BE
2
2
3
∞
∞
∞
AD
BCD
BE
∞
∞
3
AD
BCD
BE
∞
∞
∞
Brak rozwiązania
dopuszczalnego
Otrzymano
rozwiązanie:
łączny koszt = 7
Brak rozwiązania
dopuszczalnego
Źródło: Gaspars [2006b, s. 13].
Wyniki są zaskakujące. Okazuje się, że jeśli zbyt wcześnie skrócimy działanie B (opcja I lub III), a ta z kolei czynność tworzy wraz z działaniem E jedyny
możliwy wariant w ostatniej iteracji, to zamiast konkretnego rozwiązania dopuszczalnego otrzymamy informację, że analizowany problem jest sprzeczny (tzn. zo-
318
Helena Gaspars-Wieloch
stał źle postawiony), choć wcale tak nie jest. Do takich absurdalnych wniosków
nie doszlibyśmy, gdybyśmy uwzględnili wszystkie przekroje, a nie tylko przekroje
dokładne6.
Algorytm Kaufmanna i Desbazeille stanowi zatem kolejny przykład metody
optymalizacyjnej stosowanej do rozwiązywania ekonomicznych problemów decyzyjnych, która w pewnych bardzo szczególnych przypadkach prowadzi do nielogicznych wyników.
5. Konstrukcja struktury portfela
papierów wartościowych o zmiennej stopie zwrotu
na podstawie modelu optymalizacyjnego
wykorzystującego średnią arytmetyczną
Ostatni przykład, na który chciałabym zwrócić uwagę, dotyczy konstrukcji struktury portfela papierów wartościowych o zmiennej stopie zwrotu, np. akcji. Ustalając ich udziały w portfelu p, inwestorzy najczęściej biorą pod uwagę oczekiwaną stopę zwrotu E(Rj) poszczególnych walorów. Sama oczekiwana stopa zwrotu,
stanowiąca jedynie prognozę przyszłej stopy zwrotu, nie jest jednak wystarczającym kryterium wyboru przedmiotu inwestowania. Dlatego inwestorzy uwzględniają dodatkowo ryzyko (mierzone np. wariancją V(Rj)), dające informację o dokładności otrzymanej prognozy. Obie miary (E(Rj) i V(Rj)) są podstawowymi
narzędziami analizy prognozowanej rentowności inwestycji w dany walor i są
brane pod uwagę przy formułowaniu zadania optymalizacyjnego dotyczącego
struktury portfela. W takim zadaniu istotne jest zazwyczaj kryterium maksymalizacji stopy zwrotu portfela E(Rp) (lub osiągnięcie poziomu równego przynajmniej R*) oraz kryterium minimalizacji ryzyka związanego z inwestycją V(Rp)
(lub osiągnięcie poziomu nieprzekraczającego V*). Dokładna postać modelu
leży już w gestii decydenta [por. Godlewski 2008, s. 305; Jurek 2001, s. 88; Trzaskalik 2008, s. 317].
Przyjrzyjmy się teraz bliżej procedurze wyznaczania samej oczekiwanej stopy
zwrotu pojedynczego waloru. Obok metody uwzględniającej opinie ekspertów
czy analityków giełdowych i traktującej oczekiwaną stopę zwrotu jako ważoną
prawdopodobieństwami sumę możliwych stóp zwrotu, powszechnie znane jest
podejście wykorzystujące średnią arytmetyczną z T historycznych stóp zwrotu
i zakładające, iż odzwierciedlają one z równym prawdopodobieństwem nieznane
przyszłe wartości stóp zwrotu (wzór 15) [Godlewski 2008, s. 293–296; Jurek 2001,
s. 29; Trzaskalik 2008, s. 314].
6 Gdyby przekrój A + E został dołączony w ostatniej iteracji do listy potencjalnych wariantów skracania, to uzyskanie rozwiązania dopuszczalnego (choć nie optymalnego) byłoby możliwe zarówno dla opcji I, jak i opcji III.
fk (x) - m *k
g iV
k (x) =
M *k - m *k
*
M k - fk (x) w rozwiązywaniu…
Ograniczona skuteczność metod
optymalizacyjnych
iV
g k (x) =
E ( R j) =
319
M *k - m *k
T
1
/ r ,
T t = 1 jt
(15)
gdzie rjt – stopa zwrotu j-tego waloru w okresie t.
Załóżmy, że inwestor zamierza ustalić strukturę udziałów akcji A i B w swoim
portfelu, korzystając z modelu optymalizacyjnego, lecz wcześniej chciałby zapoznać się z charakterystykami tych papierów wartościowych. Wyznaczmy zatem
średnią stopę zwrotu (tab. 7, wiersz 5) dla dwóch akcji np. na podstawie notowań
z trzech ostatnich miesięcy (tab. 7, wiersze 2–4).
Ta b e l a 7
Notowania, stopy zwrotu i oczekiwane stopy zwrotu dla akcji A i B
Akcja A
Miesiąc
Akcja B
Notowania
Miesięczne
stopy zwrotu
Notowania
Miesięczne
stopy zwrotu
I
12,5
–
8
–
II
25
100%
10
25%
III
12,5
–50%
12,5
25%
Średnia arytmetyczna
stopa zwrotu
25%
25%
Średnia geometryczna
stopa zwrotu
0%
25%
Źródło: Opracowanie własne (dane fikcyjne).
Jak widać, arytmetyczna średnia stopa zwrotu jest dla obu walorów taka sama
i wynosi 25%. Oczywiście, jeżeli uwzględnimy też drugą charakterystykę papierów wartościowych, to okaże się, że akcja A wiąże się ze znacznie większym ryzykiem niż akcja B, a więc dokładność sporządzonej prognozy jest dla tego waloru
znacznie mniejsza.
Powróćmy jednak do uzyskanych oczekiwanych rentowności poszczególnych
papierów wartościowych. O ile wynik dla akcji B był do przewidzenia i wydaje się
bardzo logiczny (stały wzrost notowań równy właśnie 25%), o tyle wartość średniej stopy zwrotu akcji A może nieco nas dziwić, chociażby dlatego, że ostateczna
cena tego waloru nie zmieniła się w stosunku do swojego pierwotnego poziomu.
W tym akurat przykładzie średnia geometryczna (tab. 7, wiersz 6), choć stosowana raczej do ustalenia zysku z inwestycji w danym okresie, a nie jako narzędzie
prognostyczne, daje sensowniejsze wyniki7.
7 Obliczając
średnią arytmetyczną, zakłada się, że wartość lokaty nie zmienia się w czasie,
z kolei średnią geometryczną ustala się przy założeniu, że wszystkie wypłaty towarzyszące lokacie są reinwestowane na tych samych warunkach. Oznacza ona bowiem, z jaką średnią stopą
rośnie jednostka pieniężna ulokowana na początku okresu [por. Jurek 2001, s. 29–31].
320
Helena Gaspars-Wieloch
Zakończenie
W niniejszym artykule zaprezentowano pięć metod optymalizacyjnych. Sposób
stosowania poszczególnych procedur zilustrowano, rozwiązując przykłady konkretnych ekonomicznych problemów decyzyjnych. Oczywiście opisane metody
znajdują praktyczne zastosowania nie tylko w tych problemach ekonomicznych,
które zostały zilustrowane przykładami liczbowymi. Procedury te można bowiem wykorzystać do rozwiązania każdego zadania, w którym decydent poszukuje optymalnego planu działania (optymalnego, czyli takiego, który realizuje
określony cel: maksymalizuje użyteczność, maksymalizuje zyski, minimalizuje
koszty itd.).
W artykule zakwestionowano wyniki uzyskane w podanych przykładach za
pomocą przedstawionych metod optymalizacyjnych, a w przypadku dwóch zagadnień zaproponowano wprowadzenie pewnych modyfikacji, dzięki którym rozwiązania powinny być bardziej logiczne.
W przypadku heurystycznego algorytmu Kaufmanna i Desbazeille stwierdzamy zupełnie obiektywnie, że w niektórych zadaniach jego stosowanie prowadzi
do całkowicie błędnych odpowiedzi (tj. do informacji o braku rozwiązania dopuszczalnego, mimo iż takie rozwiązanie z pewnością istnieje). Natomiast stopień
niedorzeczności rezultatów generowanych przez pozostałe omówione procedury
zależy już od osoby mającej z tych wyników skorzystać.
Warto zwrócić uwagę na to, iż wszystkie przedstawione narzędzia można zaliczyć do tzw. procedur „miękkich”, czyli tych:
11 które nie gwarantują uzyskania optimum (por. algorytm Kaufmanna i Desbazeille),
11 których konstrukcja ma charakter intuicyjny (por. algorytm Kaufmanna i Desbazeille),
11 które dotyczą problemów zawierających parametry obarczone dużym stopniem niepewności (por. regułę Hurwicza oraz średnią arytmetyczną stopę
zwrotu wykorzystywaną jako parametr w modelach optymalizacyjnych służących do ustalenia struktury portfela,
11 które zależą od indywidualnych preferencji decydenta (por. regułę Hurwicza
oraz metakryterium i stopnie realizacji celów).
W przypadku tzw. twardych metod (np. metoda potencjałów w zagadnieniu transportowym, algorytm Little’a dla zagadnienia komiwojażera czy programowanie dynamiczne stosowane przy wyznaczaniu optymalnego rozdziału
zasobu) cel jest jasno i obiektywnie zdefiniowany, a procedury są dokładne,
więc takie paradoksalne wyniki, o jakich była mowa w artykule, nie mogą się
pojawić.
W przeprowadzonej analizie oczywiście nie wyczerpano listy tzw. przypadków
szczególnych, dla których metody optymalizacyjne, teoretycznie właściwe dla danego problemu decyzyjnego, prowadzą do zaskakujących rezultatów (istotnie
różniących się od oczekiwanych wyników).
Ograniczona skuteczność metod optymalizacyjnych w rozwiązywaniu…
321
Analizując dostrzeżone ograniczenia różnych metod optymalizacyjnych, dochodzimy do następującego wniosku. Nie wystarczy wiedzieć, kiedy teoretycznie
można z danej procedury korzystać. Nie wystarczy też umieć ją zastosować.
W procesie podejmowania decyzji, zwłaszcza ekonomicznych, niezbędna jest
przede wszystkim umiejętność interpretacji i krytycznego spojrzenia na otrzymane wyniki. Warto zadać sobie trud sprawdzenia metodologii, jaką zastosowano
przy generowaniu poszczególnych rezultatów. Tylko wówczas będziemy postępować świadomie i racjonalnie.
Tekst wpłynął 9 września 2011 r.
Bibliografia
Badania operacyjne, red. E. Ignasiak, W. Borucki, J. Marcinkowski, W. Sikora, PWE,
Warszawa 1996.
Badania operacyjne w przykładach i zadaniach, red. K. Kukuła, Z. Jędrzejczyk, J. Skrzypek, A. Walkosz, WN PWN, Warszawa 1996.
Bladowski S., Metody sieciowe w planowaniu i organizacji pracy, PWE, Warszawa 1970.
Brzęczek T., Optymalizacja wielocelowa, w: Podstawy badań operacyjnych i ekonometrii,
red. T. Brzęczek, H. Gaspars-Wieloch, B. Godziszewski, Wydawnictwo Politechniki
Poznańskiej, Poznań 2010.
Collette Y., Siarry P., On the Sensitivity of Aggregative Multiobjective Optimization Methods,
„Journal of Computing and Information Technology” 2008, nr 1.
Cotrutz C., Lahanas M., Kappas C., Baltas D., A Multiobjective Gradient Based Dose
Optimization Algorithm for External Beam Conformal Radiotherapy, „Physics in Medicine and Biology” 2001, nr 8.
Gaspars H., Analiza czasowo-kosztowa (CPM-COST). Algorytm a model optymalizacyjny,
Wydawnictwo Politechniki Wrocławskiej, „Badania Operacyjne i Decyzje” 2006a,
nr 1.
Gaspars H., Propozycja nowego algorytmu w analizie czasowo-kosztowej przedsięwzięć, Wydawnictwo Politechniki Wrocławskiej, „Badania Operacyjne i Decyzje” 2006b, nr 3–4.
Gaspars-Wieloch H., Analiza sieciowa przedsięwzięć, w: Badania operacyjne, red.
W. Sikora, PWE, Warszawa 2008.
Gaspars-Wieloch H., Wyznaczanie wariantów czasowo-kosztowych realizacji projektu,
w: Badania operacyjne w planowaniu projektów, red. T. Trzaskalik, Wydanictwo Akademii Ekonomicznej w Katowicach, Katowice 2009.
Gaspars-Wieloch H., Sieciowe planowanie projektu, w: Podstawy badań operacyjnych
i ekonometrii, red. T. Brzęczek, H. Gaspars-Wieloch, B. Godziszewski, Wydawnictwo
Politechniki Poznańskiej, Poznań 2010.
Godlewski M., Optymalizacja decyzji inwestycyjnych, w: Badania operacyjne, red. W. Sikora,
PWE, Warszawa 2008.
Gruszczyński M., Kuszewski T., Podgórska M., Ekonometria i badania operacyjne. Podręcznik dla studiów licencjackich, WN PWN, Warszawa 2009.
Guzik B., Wstęp do badań operacyjnych, Wydawnictwo Uniwersytetu Ekonomicznego
w Poznaniu, Poznań 2009.
322
Helena Gaspars-Wieloch
Hein L., The Quantitative Approach to Managerial Decisions, Prentice-Hall, Inc., Englewood Cliffs 1967.
Idźkiewicz A., PERT. Metody analizy sieciowej, PWN, Warszawa 1967.
Jurek W., Konstrukcja i analiza portfela papierów wartościowych o zmiennym dochodzie,
Wydawnictwo Akademii Ekonomicznej w Poznaniu, Poznań 2001.
Kaufmann A., Desbazeille G., Ventura E., La méthode du chemin critique, Dunod, Paris
1964.
Kaufmann A., Faure R., Badania operacyjne na co dzień, PWN, Warszawa 1968.
Kopańska-Bródka D., Wprowadzenie do badań operacyjnych, wydanie II, Wydawnictwo
Akademii Ekonomicznej w Katowicach, Katowice 1998.
Marcinkowski J., Optymalizacja wielokryterialna, w: Badania operacyjne, red. W. Sikora,
PWE, Warszawa 2008.
Messac A., Puemi-Sukam C., Melachrinoudis E., Aggregate Objective Functions and
Pareto Frontiers: Required Relationships and Practical Implications, „Optimization and
Engineering” 2000, nr 2.
Messac A., Mattson C. A., Generating Well-Distributed Sets of Pareto Points for Engineering
Design Using Physical Programming, „Optimization and Engineering” 2003, nr 4.
Muller Y., Organisation et recherche opérationnelle, Eyrolles, Paris 1964.
Pietras P., Szmit M., Zarządzanie projektami: wybrane metody i techniki, Horyzont, Łódź
2003.
Sharaf A.M., El-Gammal A.A., A Multi-Objective Multi-Stage Particle Swarm Optimization MOPSO Search Scheme for Power Quality and Loss Reduction on Radial Distribution System, International Conference on Renewable Energies and Power Quality
(ICREPQ’ 2009), Valencia, 15–17.04.2009.
Sikora W., Analiza sieciowa przedsięwzięcia, w: Badania operacyjne i ekonometria, red.
B. Guzik, W. Sikora, Materiały Dydaktyczne 32, część II, Akademia Ekonomiczna
w Poznaniu, Poznań 1993.
Siudak M., Badania operacyjne, Oficyna Wydawnicza Politechniki Warszawskiej, Warszawa 1998.
Stodulny P., Programowanie w warunkach niepewności, w: Badania operacyjne, red.
W. Sikora, PWE, Warszawa 2008.
Trzaskalik T., Wprowadzenie do badań operacyjnych z komputerem, wydanie II, PWE,
Warszawa 2008.
Limited Efficiency of Optimization Methods
in Solving Economic Decision Problems
Summary
The author illustrates by means of numerical examples some economic decision
problems (the choice of investment projects, the choice of optimum product mix,
preparation of rankings for different objects based on incomparable criteria by means
of standardized measures, the time-cost project analysis, the asset portfolio construction)
for which the results generated by theoretically appropriate optimization methods (i.e.
procedures considering the characteristics of a given aim) are illogical or significantly
different from the answers expected. In connection with the fact that such cases exist,
Ograniczona skuteczność metod optymalizacyjnych w rozwiązywaniu…
323
the author: (a) suggests two modifications for the optimization methods discussed in the
article so that they could be more universal; (b) emphasizes the need of a careful
interpretation of the results obtained, in full consciousness of the limitations of the
computational procedures employed.
Key words: optimization methods 1 economic decision problems 1 the choice of
investment project 1 the Hurwicz rule 1 decision-making under uncertainty
1 the choice of product mix 1 aggregate objective function 1 multi-aim
optimization 1 compromise solution 1 implementation degrees 1 criterion
standardization 1 ranking 1 time-cost project analysis 1 project management
1 the Kaufmann-Desbazeille algorithm 1 asset portfolio 1 average rate of
return
Ограниченная эффективность оптимизационных
методов при рассмотрении экономических
проблем принятия решений
Резюме
Автор приводит примеры экономических проблем принятия решений (таких как
выбор инвестиционного проекта, определение оптимального ассортимента продукции,
создание ранкингов объектов путем стандартизации несопоставимых критериев, оптимизация проектов по времени и по издержкам, построение портфеля ценных бумаг), для
которых результаты, полученные с помощью теоретически правильных оптимизационных методов (т.е. процедур, учитывающих специфические черты рассматриваемой
задачи), могут пртиворечит логике или значительно отличаться от ожидаемых результатов. В связи с тем, что такие особые случаи существуют, автор предлагает: а) модифицировать некоторые из представленных методов так, чтобы они приобрели более универсальный характер; б) помнить о необходимости вдумчивой интерпретации полученных
результатов, осознавая ограничения применяемых калькуляционных процедур.
Ключевые слова: оптимизационные методы 1 экономические проблемы принятия
решений, выбор инвестиционного проекта 1 правило Гурвича 1 при
нятие решений в условиях неуверенности 1 выбор ассортимента
продукции 1 агрегатная функция цели 1 многоцелевая оптимизация
1 компромиссное решение 1 степени реализации 1 стандартизация
критериев 1 ранкинги 1 затратная и временная оптимизация
проектов 1 управление проектами 1 алгоритм Кауфманна-Десбазейя
1 конструкция портфеля ценных бумаг 1 средняя норма окупаемости
Katarzyna Piłat*
Indeks optymalnego obszaru walutowego
dla gospodarki polskiej**
Wstęp
Teoria optymalnych obszarów walutowych (OOW), choć poddawana częstej krytyce przez ekonomistów [por. Mongelli 2008; Corsetti 2008], wciąż pozostaje
głównym punktem wyjścia w analizach dotyczących tworzenia unii monetarnych.
Postulaty głoszone przez poszczególnych przedstawicieli tej teorii oraz sformułowane przez nich kryteria stanowią dość rozbudowaną listę założeń mających
umożliwić zweryfikowanie, czy dany obszar walutowy można nazwać optymalnym. Wśród kryteriów optymalnego obszaru walutowego należy wymienić mobilność czynników produkcji (geograficzną, sektorową oraz zawodową), wzajemną
otwartość gospodarek i znaczną ich dywersyfikację, zgodność prowadzonych polityk gospodarczych (szczególnie w zakresie niskiej inflacji), a także niską zmienność kursu walutowego [por. Biegun 2004; de Grauwe 2003; Krugman, Obstfeld
2007; Lachowicz 2008; Rose, Engel 2002]. W toku dyskusji nad optymalnymi obszarami walutowymi zwrócono także uwagę na bilans korzyści i kosztów przyłączenia się danego kraju do obszaru walutowego [Grubel 1970]. Niestety, jak
wskazują autorzy zajmujący się analizami procesów integracji monetarnej [por.
np. Bień 1988; Mayes, Suvanto 2007; Mongelli 2002], większość postulatów teorii
OOW jest trudna do empirycznej weryfikacji, szczególnie przy próbach uwzględnienia kilku kryteriów łącznie. Stąd najczęściej badania zasadności przystąpienia
danego kraju do wspólnego obszaru walutowego opierają się na analizie jednego
z założeń tej teorii. Odstępstwem tej od reguły stała się praca Bayoumi i Eichengreena [1998], w której zaproponowano syntetyczny indeks optymalnego obszaru
walutowego. Miara ta pozwoliła uwzględnić na raz kilka z kryteriów głoszonych
przez teorię OOW, a mianowicie: zmienność kursu walutowego, wzajemną otwar* Mgr
Katarzyna Piłat – Katedra Funkcjonowania Gospodarki, Uniwersytet Łódzki; e-mail:
[email protected]
** Praca finansowana ze środków MNiSzW na badania naukowe w latach 2009–2011.
326
Katarzyna Piłat
tość gospodarek, zbieżność wahań aktywności gospodarczej, podobieństwo struktur gospodarek oraz wielkość kraju.
W niniejszym artykule, w związku z dyskusją na temat zasadności wstępowania do strefy euro oraz kosztów i korzyści przyjęcia wspólnej waluty, przy wykorzystaniu indeksu optymalnego obszaru walutowego oszacowano, w jakim stopniu akcesja Polski do strefy euro jest korzystna z punktu widzenia teorii optymalnych obszarów walutowych. W pierwszej części artykułu omówiono tematykę
optymalnych obszarów walutowych począwszy od przedstawienia definicji obszaru walutowego, poprzez przegląd głównych nurtów i odmian teorii OOW. Następnie scharakteryzowano oraz poddano analizie empirycznej indeks optymalnego obszaru walutowego dla gospodarki polskiej oraz pozostałych krajów Unii
Gospodarczej i Walutowej z derogacją, a także Danii i Wielkiej Brytanii.
1. Definicja i warunki powstawania
optymalnych obszarów walutowych
Jedną z podstaw teoretycznych koncepcji unii monetarnej jest teoria optymalnych obszarów walutowych. Unia monetarna oznacza bowiem utworzenie jednolitego obszaru walutowego i wspólną optymalizację celów gospodarczych
państw go tworzących. Jest to zgodne z definicją optymalnego obszaru walutowego, który w literaturze jest najczęściej określany jako region, w którym w obiegu znajduje się jedna waluta lub kilka walut, lecz połączonych między sobą
sztywnymi kursami. Taką definicję zaproponował prekursor teorii optymalnych
obszarów walutowych – Mundell [1961]. W toku dalszej dyskusji na teorią OOW
definicja ta nie uległa w zasadzie znaczącym modyfikacjom, a jej uzupełnienia
wynikały przede wszystkim z poszerzania listy kryteriów, którymi powinien charakteryzować się optymalny obszar walutowy [Bień 1988]. Obecnie najczęściej
przyjmuje się, że optymalny obszar walutowy powinny utworzyć państwa, dla
których ustanowienie względem siebie sztywnych kursów walutowych (lub przyjęcie wspólnej waluty) będzie powodowało wystąpienie nadwyżki korzyści ekonomicznych w tych gospodarkach nad poniesionymi stratami związanymi z porzuceniem możliwości zmian kuru walutowego [Grubel 1970]. Wśród korzyści
wskazano tu głównie na zwiększenie wzajemnej wymiany handlowej pomiędzy
tymi gospodarkami, obniżenie inflacji oraz wzrost wiarygodności prowadzonej
polityki gospodarczej. Jako największy koszt wskazywano natomiast utracenie
możliwości prowadzenia autonomicznej polityki pieniężnej.
Dalsze rozszerzenia przedstawionej wyżej definicji OOW koncentrowały się
przede wszystkim na wskazaniu, czym powinny się charakteryzować państwa mające utworzyć optymalny obszar walutowy, aby mogły one osiągnąć jak największe korzyści z utworzenia danego obszaru walutowego [Bień 1988; Alesina, Barro, Tenreyro 2002]. Wśród tych kryteriów wymieniano głównie wysoką mobilność
czynników produkcji, w szczególności pracy, oraz duży wolumen wzajemnej wy-
Indeks optymalnego obszaru walutowego dla gospodarki polskiej
327
miany handlowej. Cechy te miały gwarantować, w przypadku wystąpienia szoku
w jednym z krajów należących do obszaru walutowego, osiągnięcie równowagi
wewnętrznej i zewnętrznej.
W nowszych badaniach nad teorią optymalnych obszarów walutowych zwrócono także uwagę na ważny aspekt postrzegania waluty narodowej jako symbolu tożsamości i dumy narodowej, jako warunku utworzenia optymalnego obszaru walutowego [Alesina, Barro, Tenreyro 2002]. Należy jednak zauważyć, iż takie odczucia
w stosunku do waluty narodowej nie zawsze idą w parze z ekonomicznym i politycznym interesem danego kraju. Dotyczyć to może przede wszystkim niewielkich
krajów, które – mimo iż są zdolne sprawnie funkcjonować w świecie wolnego handlu i otwartych rynków finansowych – mogą okazać się zbyt małe, aby zapewnić
swym obywatelom pewne dobra publiczne, w tym walutę narodową [Alesina, Barro, Tenreyro 2002]. Może również zaistnieć sytuacja, w której – zgodnie z teorią
OOW – w jednym kraju powinna funkcjonować więcej niż jedna waluta. Oznacza
to, iż optymalny obszar walutowy nie musi być terytorialnie równoważny jednemu
państwu i może stanowić raczej domenę regionalną. W takim razie w celu utworzenia OOW należałoby najpierw określić optymalną liczbę walut, która może funkcjonować na danym obszarze, a następnie – jeżeli liczba walut jest mniejsza niż
liczba krajów – wyodrębnić te z nich, które powinny utworzyć unię walutową.
Stosując się do powyższej metodyki tworzenia obszarów walutowych, Alesina,
Barro, Tenreyro [2002]1 wyodrębnili dwa główne przypadki, w których może zostać
utworzony optymalny obszar walutowy. Pierwszy z nich dotyczy sytuacji, w której
jest obserwowany znaczny wzrost liczby niezależnych państw i jednocześnie liczby
walut. Jeśli w tym samym czasie dochodzi do wzrostu wymiany międzynarodowej
dóbr i usług, to powinny wystąpić tendencje do ograniczania liczby walut, np.
w drodze tworzenia unii walutowych. Doprowadziłoby to do zwiększenia zyskowności transakcji zawieranych między poszczególnymi państwami tworzącymi unię
walutową. Druga droga to według autorów osiągnięcie stabilności cen, co pierwotnie miało zagwarantować wprowadzenie sztywnych kursów walutowych. Rozwiązaniem mogło być przyjęcie waluty innego kraju bądź utrzymanie sztywnego kursu
w ramach currency board. System ten jako jeden ze skrajnych kierunków w systemach kursowych zyskał wielu entuzjastów po kryzysach walutowych lat 90. [Nawrat
2002]. Przyjęcie takiego rozwiązania uwalnia kraj od ryzyka ataków spekulacyjnych,
a także przyczynia się do zwiększenia dyscypliny i wiarygodności prowadzonej polityki makroekonomicznej2.
Alesina, Barro, Tenreyro [2002] dokonali również podziału, według którego
możliwe są dwie formy tworzenia obszarów walutowych. Pierwsza z nich polega
1 Autorzy analizują różne przykłady utworzonych już bądź planowanych unii walutowych.
Oprócz Europejskiej Unii Gospodarczej i Walutowej badają oni możliwości integracji walutowej w krajach Ameryki Łacińskiej, Afryki Zachodniej oraz sześciu krajach Półwyspu Arabskiego
produkujących ropę naftową.
2 Drugie skrajne podejście, tj. utrzymanie płynnego kursu walutowego, umożliwia natomiast uodpornienie gospodarki na ataki spekulacyjne oraz akomodację popytowych szoków
asymetrycznych.
328
Katarzyna Piłat
na tym, że państwo-klient (client country) przyjmuje walutę większego państwa,
tzw. kraju-kotwicy (anchor country). Według Barro i Tenreyro [2003] najlepszym
krajem-klientem do utworzenia obszaru walutowego jest państwo:
11 położone w bliskiej odległości od kraju-kotwicy,
11 którego obywatele posługują się tym samym językiem co w państwie-kotwicy,
11 będące byłą kolonią kraju-kotwicy,
11 biedniejsze niż kraj-kotwica (charakteryzujące się niższym PKB per capita),
11 mniej zaludnione niż państwo-kotwica.
Drugą formą utworzenia obszaru walutowego jest przypadek, który ilustruje
taką metodę utworzenia wspólnego obszaru walutowego, jaka została zastosowana przy tworzeniu strefy euro. Tutaj grupa państw zdecydowała się adoptować
nową, wspólną walutę oraz utworzyć wspólny bank centralny.
Wciąż pozostaje jednak nie do końca jednoznaczne, co rozumie się przez pojęcie optymalnego obszaru walutowego. Twórca teorii OOW, Mundell, definiuje
optymalność obszaru walutowego jako:
11 zdolność do stabilizacji zatrudnienia i cen,
11 istnienie mechanizmu prowadzącego do niwelowania nierównowagi bilansu
płatniczego i rynku pracy (bez ingerencji państwa),
11 istnienie na danym obszarze wewnętrznej mobilności czynników produkcji,
lecz braku ich mobilności zewnętrznej [Bień 1988, s. 16].
Bukowski [2007a] zauważa, że optymalność obszaru walutowego polega na
tym, iż przed obszarem walutowym stoją konkretne cele i są określone metody
ich osiągania. Należy przy tym pamiętać, że – jak przyznaje jeden z prekursorów
teorii OOW McKinnon – dokładne określenie „optymalności” obszaru walutowego jest trudne do precyzyjnego wyjaśnienia ilościowego, co może utrudniać
empiryczną weryfikację kryteriów teorii optymalnych obszarów walutowych [Bukowski 2007b].
2. Ewolucja teorii optymalnych obszarów walutowych
W rozwoju teorii optymalnych obszarów walutowych można wyodrębnić na dwa
etapy: teorię tradycyjną (zwaną też teorią bazową) i nową teorię optymalnych
obszarów walutowych. Tradycyjna teoria OOW opierała się przede wszystkim na
zagadnieniach związanych z analizą wpływu polityki monetarnej i fiskalnej, a także dywersyfikacji gospodarki na możliwości utworzenia optymalnego obszaru
walutowego. W późniejszym etapie zwrócono także uwagę na zagadnienia instytucjonalne i elementy związane z konwergencją gospodarczą. Nowa teoria OOW,
oprócz ustalenia nowych kryteriów akcesji, zawierała także weryfikację postulatów tradycyjnej teorii OOW. Obnażyła ona wiele niespójności i problemów związanych z nierozstrzygalnością kryteriów teorii tradycyjnej i ich niewielką przydatnością w rozwiązywaniu rzeczywistych problemów z zakresu integracji monetarnej [Tchorek 2010].
Indeks optymalnego obszaru walutowego dla gospodarki polskiej
329
Poniżej zostały przedstawione główne nurty tradycyjnej i nowej teorii optymalnych obszarów walutowych z naciskiem na głoszone przez nie postulaty i kryteria mające weryfikować optymalność obszaru walutowego.
Pierwsze próby formułowania teorii OOW mają swoje początki w latach 60.
ubiegłego wieku. Teoria OOW powstała w ramach dyskusji nad przyczynami
upadku systemu z Bretton Woods i rozważań nad pozytywnymi i negatywnymi
skutkami gospodarczymi stosowania płynnych i sztywnych kursów walutowych.
Za prekursora tej teorii uważa się R.A. Mundella, który za przeprowadzone w tej
dziedzinie badania otrzymał Nagrodę Nobla w 1999 r. Istotny wkład w rozwój
tradycyjnej teorii OOW wnieśli również R.I. McKinnon [1963], P.B. Kenen [1970]
oraz H. Grubel [1970].
Mundell [1961] rozpoczął rozważania dotyczące optymalności obszaru walutowego od założenia dotyczącego zdolności takiego obszaru do stabilizacji cen
i zatrudnienia. Uważał on, że wewnątrz obszaru walutowego powinny działać
mechanizmy mające na celu niwelowanie nierównowagi płatniczej i bezrobocia.
Dostosowania te powinny według niego przebiegać automatycznie, bez konieczności ingerencji ze strony polityki fiskalnej i monetarnej. Mundell prowadzi rozważania poprzez analizę modeli, w których rozpatruje dwa kraje charakteryzujące się występowaniem równowagi bilansu płatniczego, pełnego zatrudnienia oraz
mechanizmów, w których ceny i płace nie mogą być obniżone w krótkim okresie
bez wzrostu bezrobocia. Ponadto zakłada on, iż władze kraju dążą do ograniczania inflacji. Analiza opiera się na założeniu, iż następuje przesunięcie popytu
dóbr wytwarzanych w jednym kraju na dobra produkowane w drugim kraju. Dodatkowo wprowadzone są pewne warunki dotyczące rodzaju kursu walutowego
i liczby walut, którymi posługują się te kraje.
Na podstawie przeprowadzonych rozważań Mundell dochodzi do wniosku, że
nie jest możliwe jednoczesne obniżanie bezrobocia i inflacji. Ponadto zauważa
on, że optymalnym obszarem walutowym może być region3 cechujący się wewnętrzną mobilnością czynników produkcji, brakiem zaś jej mobilności zewnętrznej. Wyraża jednak wątpliwości co do optymalnej wielkości obszaru walutowego.
Twierdzi, że z punktu widzenia redukcji kosztów transakcyjnych optymalnym obszarem walutowym powinien być cały świat. Co więcej, zbyt mały obszar walutowy mógłby powodować, że na obszarze tym wzrósłby udział dóbr importowanych
w konsumpcji ogółem, a to z kolei oddziaływałoby odwrotnie proporcjonalnie na
wskaźnik kosztów utrzymania przy dokonywaniu zmian kursu waluty.
Rozszerzenia rozważań Mundella dokonał McKinnon [1963]. Wprowadził on
do teorii OOW analizę dotyczącą wpływu efektywnej polityki fiskalnej i monetarnej. Według niego obszar walutowy powinien charakteryzować się zewnętrznie
płynnym kursem walutowym, a prowadzone polityki gospodarcze powinny być
nastawione na utrzymywanie stabilnego poziomu cen, pełnego zatrudnienia
i równowagi bilansu płatniczego. Drugą kwestią, na którą zwraca uwagę, jest
3
Mundell twierdzi, że obszar walutowy nie musi pokrywać się z granicami kraju, stąd stosuje określenie regionu, a nie państwa.
330
Katarzyna Piłat
stopień otwartości gospodarki. Jako miernik otwarcia gospodarki proponuje
przyjęcie stosunku dóbr wymienialnych (tradable) w skali międzynarodowej do
niewymienialnych (non-tradable). Im niższa wartość tej miary, tym kraj może więcej zyskać na utworzeniu wspólnego obszaru walutowego. Dodatkowo ekonomista ten modyfikuje założenie Mundella dotyczące geograficznej mobilności czynników produkcji, zauważając, że powinna występować również ich mobilność
międzygałęziowa.
Kenen [1970] również podkreśla znaczenie mobilności czynników produkcji,
w szczególności zwraca uwagę na mobilność siły roboczej. Rozszerza jednak pojęcie mobilności o mobilność zawodową. Ponadto uwzględnia w swoich rozważaniach dotyczących OOW kwestię dywersyfikacji gospodarki, co ma gwarantować
zróżnicowaną strukturę produkcji i eksportu, a w rezultacie mniejsze wahania
terms of trade. W takim przypadku możliwe jest – jego zdaniem – utrzymywanie
sztywnych kursów walutowych, gdyż dywersyfikacja produkcji jest w stanie zamortyzować skutki wystąpienia szoku w którymś z sektorów gospodarki. Głównym wkładem tego ekonomisty w rozwój teorii OOW jest sformułowanie postulatu dotyczącego konieczności centralizacji władzy fiskalnej i monetarnej na poziomie ponadregionalnym, a nawet ponadpaństwowym.
Łącznikiem między tradycyjną i nową teorią OOW jest dorobek kolejnego
przedstawiciela tego nurtu – H.G. Grubela [1970]. Jest on pierwszym ekonomistą, który zaczął analizować tworzenie przez poszczególne kraje optymalnego
obszaru walutowego pod kątem widzenia kosztów i korzyści z integracji. Naturalnie uważa on, że kraj powinien przystąpić do obszaru walutowego tylko wtedy,
gdy korzyści są większe niż koszty, co analizuje, wykorzystując funkcję dobrobytu.
Dostrzega on szereg korzyści, jakie może osiągnąć kraj, przystępując do wspólnego obszaru walutowego, a mianowicie: wzrost dochodu narodowego, likwidację ryzyka kursowego oraz stabilizację cen [Piłat 2011].
Rozwój nowej teorii OOW przypadał na lata 70. Próbowano wówczas wskazać
kolejne kryteria, które mogłyby rozstrzygnąć, które z państw powinny utworzyć
wspólny obszar walutowy. Wśród nich wskazywano na istnienie wysokiej integracji
finansowej pomiędzy krajami, podobnych stóp inflacji, a także występowanie niskiej zmienności kursu walutowego [Wojnicka 2002]. Następnie, w latach 80., teoria OOW cieszyła się stosunkowo mniejszym zainteresowaniem. Do odrodzenia tej
teorii doszło dopiero w latach 90., głównie z powodu nasilenia procesów integracyjnych w Europie. W tym okresie teoria OOW została poddana gruntownej rewizji i licznym uzupełnieniom. Przede wszystkim zostały ujawnione niektóre poważne
niespójności i wady tradycyjnej teorii OOW, z których najbardziej została skrytykowana niezwykle słaba aplikacyjność postulatów tej teorii do przeprowadzania badań empirycznych oraz rozwiązywania praktycznych problemów związanych z integracją monetarną [Tchorek 2010]. Uaktualnienie tradycyjnej teorii OOW opierało
się głównie na modyfikacji kryteriów, którym powinien odpowiadać optymalny obszar walutowy, przy uzględnieniu teorii monetarystycznych i teorii racjonalnych
oczekiwań. Obszarami badań, na których skupiła się dyskusja w ramach nowej teorii OOW, były problemy związane z występowaniem asymetrycznych szoków gospo-
Indeks optymalnego obszaru walutowego dla gospodarki polskiej
331
darczych, nieefektywność polityki monetarnej w długim okresie4, nieskuteczność
działania mechanizmu kursowego oraz zwiększenie roli wiarygodności i stabilności
polityki ekonomicznej państwa [Tchorek 2010].
W miarę rozwoju teorii OOW zwrócono także uwagę na fakt, iż kraje planujące utworzyć obszar wspólnej waluty powinny charakteryzować się podobną polityką fiskalną i monetarną, jak również cechować się podobieństwem w przebiegu wahań aktywności gospodarczej. Synchronizacja cykli koniunkturalnych w krajach tworzących unię walutową ma umożliwić efektywne stosowanie narzędzi
wspólnej polityki monetarnej w przypadku wystąpienia szoku5.
3. Konstrukcja indeksu optymalnego obszaru walutowego
Wielość kryteriów, jakimi teoria OOW charakteryzuje wspólny obszar walutowy,
a także fakt, iż większość z tych warunków jest trudna do empirycznej weryfikacji,
spowodowały, iż zdecydowana większość analiz empirycznych ogranicza się do
weryfikacji jedynie pojedynczych założeń tej teorii. Eichengreen i Bayoumi [1998]
podjęli próbę stworzenia miary, która uwzględniałaby różne kryteria optymalności obszarów walutowych i mogła jednoznacznie określić, które kraje są predestynowane do utworzenia unii monetarnych. Miara stworzona przez tych autorów,
nazwana indeksem OOW, umożliwia uwzględnienie jednocześnie kilku kryteriów
optymalności, wskazywanych zarówno przez tradycyjną, jak i nową teorię optymalnych obszarów walutowych. Znaczenie obliczonego w ten sposób indeksu,
mocno osadzonego w teorii OOW, staje się istotne w kontekście próby odpowiedzi na pytanie, które z krajów mają większą szansę na pomyślne utworzenie unii
monetarnej. Pozwala on bowiem na jednoczesne zbadanie za pomocą skwantyfikowanego wskaźnika podobieństwa gospodarek na kilku płaszczyznach, tj. zgodności wahań aktywności gospodarczej, podobieństwa struktur gospodarczych,
wielkości krajów oraz intensywności wzajemnej wymiany handlowej mierzącej
otwartość gospodarki. Indeksy OOW mogą więc stanowić pewien syntetyczny
wskaźnik szans pomyślnej i korzystnej integracji gospodarczej i walutowej dla
krajów planujących akcesję do strefy euro, w tym Polski.
Indeks Eichengreena i Bayoumi skupia się na wskazaniu czynników ekonomicznych, które mogą decydować o tym, że kursy walutowe będą podlegały mniejszym wahaniom. Ograniczona zmienność kursu walutowego może być sygnałem,
że unifikacja monetarna przyniesie korzyści dla krajów przystępujących do danego
obszaru walutowego. Jako czynniki sprzyjające większej stabilizacji kursu walutowego autorzy wskazują brak występowania szoków asymetrycznych produkcji,
wzmożoną wymianę handlową, podobną strukturę gospodarki, mobilność siły roboczej oraz podobny zakres działania automatycznych stabilizatorów.
4 Chodziło
tu o nieefektywność tej polityki w regulowaniu aktywności gospodarczej.
przy tym zaznaczyć, że polityka fiskalna może oddziaływać na synchronizację cykli
w krajach tworzących unię walutową [Krajewski, Piłat 2012].
5 Warto
332
Katarzyna Piłat
Asymetryczne szoki produkcji zostały wyrażone jako odchylenia standardowe
różnic logarytmów PKB. Jeśli w danej parze krajów cykle koniunkturalne są zsynchronizowane, współczynnik ten powinien przyjmować niską wartość. Dodatkowo
indeks ten uwzględnia różnice w udziałach poszczególnych sektorów gospodarki
w tworzeniu PKB. Otwartość gospodarki została wprowadzona do modelu jako
udział eksportu do danego kraju lub obszaru partnerskiego w PKB. Analiza objęła
także element mający ilustrować koszty wspólnej waluty. Teoria optymalnych obszarów walutowych głosi, że większe korzyści z przyjęcia wspólnej waluty osiągną
mniejsze kraje. Został zatem wprowadzony do modelu miernik wielkości kraju,
wyznaczony jako średnia z logarytmu PKB w obydwu krajach lub obszarach.
Równanie, którego parametry poddano estymacji, ma postać:
SD (eij) = a + b1 SD (Dyi - Dy j) + b2 DISSIMij + b3 TRADEij + b4 SIZEij + pij (1)
gdzie:
t (e ) = 0, 386SD (Dy - Dy ) + 0, 111 DISSIM ij - 0, 082 TRADEij + 0, 005SIZEij
SD
ij
i
j
(2, 47)
(- 2, 26)
(3, 33)
a, b1, b2, b3(2,, 02
b4) – parametry modelu,
SD(eij)
– odchylenie standardowe różnicy logarytmów wzajemnych nominalnych kursów walutowych pomiędzy dwoma krajami
i oraz j na koniec roku6,
SD(Dyi – Dyj) – odchylenie standardowe różnic w przyrostach logarytmów
produkcji w dwóch krajach i oraz j,
DISSIMij
– suma wartości bezwzględnych różnic w udziałach rolnictwa,
przemysłu wydobywczego i przemysłu przetwórczego w handlu
ogółem w krajach i oraz j,
TRADEij
– średnia z udziału wzajemnego eksportu w PKB w krajach
i oraz j,
SIZEij
– średnia logarytmu PKB w krajach i oraz j.
W każdym przypadku wartości zmiennej niezależnej były wyznaczane jako
średnia z całego okresu uwzględnionego w badanej próbie.
Analiza, którą przeprowadzili Eichengreen i Bayoumi [1998], była oparta na
danych obejmujących okres 1983–1992 dla 21 krajów. Indeks OOW został wyznaczony dla poszczególnych krajów europejskich w stosunku do Niemiec. Wartość
indeksu autorzy wyznaczyli zarówno dla okresu objętego badaną próbą, jak i prognozując jego wartości na 1995 r. Na podstawie otrzymanych wyników autorzy
wyodrębnili trzy grupy krajów. W pierwszej grupie znalazły się kraje, które okazały
się najlepszymi kandydatami do utworzenia z Niemcami wspólnego obszaru walutowego. Do grupy tej autorzy zaliczyli: Austrię, Belgię, Holandię oraz Irlandię,
a także jeden kraj niebędący członkiem Unii Europejskiej – Szwajcarię. Do drugiej
grupy zostały zaliczone Wielka Brytania, Finlandia, Norwegia i Francja. Obecność Francji w drugiej, a nie w pierwszej grupie wzbudziła zdziwienie autorów
6 Eichengreen i Bayoumi [1998] argumentowali wybór jako zmiennej objaśnianej nominalnego, a nie realnego kursu walutowego faktem, iż kurs nominalny jest lepszym punktem odniesienia dla porównywań ze wspólną walutą. W przypadku przyjęcia wspólnej waluty zmienność
nominalnego kursu walutowego jest zerowa.
Indeks optymalnego obszaru walutowego dla gospodarki polskiej
333
analizy; spodziewali się oni bowiem niższej wartości indeksu dla Francji względem Niemiec, zakładając wyższy stopień integracji między tymi dwoma krajami.
Natomiast ostatnią grupę państw, charakteryzujących się najsłabszymi zdolnościami do utworzenia wspólnego obszaru walutowego z Niemcami, stanowiły kraje południowe: Włochy, Grecja, Portugalia oraz Hiszpania.
Na zmiany wartości indeksów OOW w czasie największy wpływ miały rozbieżności w wahaniach aktywności gospodarczej w poszczególnych krajach oraz zmiany
intensywności wzajemnej wymiany handlowej. Wniosek, jaki autorzy wyciągają dla
polityki Unii Europejskiej dążącej do konwergencji, to postulat zwiększenia roli
udziału handlu wzajemnego w ramach Unii. Punktem wyjścia do pomyślnej integracji monetarnej jest utworzenie dobrze działającego wspólnego rynku.
4. Oszacowania indeksu dla krajów UE
nienależących do strefy euro
W naszym badaniu, opierając się na założeniach metodologicznych przyjętych
przez Eichengreena i Bayoumi, oszacowano indeks optymalnego obszaru walutowego dla krajów należących do Unii Europejskiej, lecz niebędących członkami
strefy euro (według stanu w 2011 r.). Indeksy OOW zostały wyznaczone dla poszczególnych krajów w stosunku do strefy euro jako całości i, dodatkowo, w stosunku do Polski. Wartości indeksu zostały obliczone z uśrednionych danych rocznych obejmujących okres 1999–2009. Dla Polski, oprócz wartości indeksu obliczonej dla całego badanego okresu, wartości indeksu zostały również wyznaczone
dla wybranych lat, tak by można było określić, czy następuje zjawisko konwergencji Polski ze strefą euro.
W celu obliczenia indeksu OOW dokonano estymacji równania (1). Dokonano jednakże kilku modyfikacji dotyczących postaci zmiennych. W przeprowadzonym badaniu zmianie uległa zmienna:
11 DISSIMij, która została określona jako suma wartości bezwzględnych różnic
w udziałach rolnictwa, przemysłu i usług w wartości dodanej ogółem (a nie
w wartości handlu ogółem) w krajach i oraz j.
11 TRADEij, która została przedstawiona jako średnia z udziału eksportu w PKB
w krajach i oraz j, ilustrująca ogólną otwartość gospodarki, a nie, jak to miało miejsce w badaniu Eichengreena i Bayoumi, gdzie zmienna ta wyrażała
wzajemną otwartość danej pary krajów7.
Ponieważ rezultaty pierwszej estymacji parametrów równania (1) wykazały
nieistotność wyrazu wolnego, dokonano powtórnej estymacji równania, bez wyrazu wolnego. Oszacowania parametrów pokazuje równanie (2).
7 Dane
o udziałach eksportu w PKB pochodzą z bazy OECD, natomiast pozostałe dane
pochodzą z bazy Eurostatu. Modyfikacje zmiennych DISSIMij oraz TRADEij zostały podyktowane dostępnością danych.
334
Katarzyna Piłat
SD (eij) = a + b1 SD (Dyi - Dy j) + b2 DISSIMij + b3 TRADEij + b4 SIZEij + pij
t (e ) = 0, 386SD (Dy - Dy ) + 0, 111 DISSIM ij - 0, 082 TRADEij + 0, 005SIZEij
SD
ij
i
j
(2, 02)
(2, 47)
(- 2, 26)
(3, 33)
(2)
W nawiasach poniżej wartości parametrów pokazano wartości statystyk t­‑Studenta. Wyniki testu informują, że hipoteza o nieistotnym wpływie zmiennych
SD(Dyi – Dyj), DISSIMij oraz TRADEij na zmienną zależną została odrzucona na
poziomie istotności 0,05. Natomiast istotność wpływu zmiennej SIZEij została
potwierdzona na poziomie istotności równym 1%.
Podobnie jak w badaniu Eichengreena i Bayoumi [1998], najważniejszym
czynnikiem determinującym wartość indeksu okazały się rozbieżności w przebiegu cyklu koniunkturalnego (tutaj: zmienna SD(Dyi – Dyj)). Drugą zmienną mającą największy wpływ na wartość indeksu jest podobieństwo struktur gospodarek
(zmienna DISSIMij). Świadczy to o tym, iż im większe są asymetrie w przebiegu
wahań aktywności gospodarczej pomiędzy danym krajem i strefą euro oraz im
bardziej zróżnicowane są struktury gospodarek, tym większe będą wartości indeksu OOW, który ilustruje zmienność kursu walutowego. Taka sytuacja może
powodować większe koszty usztywnienia kursu walutowego względem euro i rezygnacji z autonomicznej polityki pieniężnej.
Równanie (2) posłużyło do wyznaczenia wartości indeksów OOW dla wszystkich krajów uwzględnionych w badaniu w stosunku do strefy euro dla całego okresu objętego analizą. Wartości parametrów równania regresji stanowią wagi dla
poszczególnych zmiennych wchodzących w skład indeksu. Wartości indeksów zostały zatem wyznaczone jako wartości teoretyczne zmiennej endogenicznej. Wartości indeksów OOW zostały obliczone dla całego badanego okresu (1999–2009), co
oznacza, iż wartości zmiennych objaśniających zostały wyrażone jako średnie z całej próby. Przy tak skonstruowanym indeksie dla kraju rozważającego przystąpienie
do unii walutowej bardziej pożądane jest otrzymanie niskich wartości analizowanej
miary, co oznacza wyższe korzyści (w porównaniu z kosztami) w przypadku utworzenia wspólnego obszaru walutowego. Otrzymane wyniki ilustruje tabela 1.
Otrzymane wyniki pokazują, że biorąc pod uwagę dane z lat 1999–2009, najlepszymi kandydatami do przystąpienia do strefy euro były: Węgry, Polska oraz
Wielka Brytania. Kraje te osiągnęły wartości indeksów nieprzekraczające 0,08.
Do drugiej grupy zaliczyć można: Bułgarię, Czechy oraz Danię, dla których wartości indeksów zawierały się w przedziale od 0,08 do 0,09. Trzecią grupę stanowią: Litwa, Łotwa, Rumunia oraz Szwecja; w tej grupie wartości indeksu były
najwyższe i oscylowały wokół 0,1.
Podobną analizę przeprowadzono, wyznaczając wartości indeksów dla całego
badanego okresu próby, przyjmując jako kraj odniesienia Polskę. Tabela 2 pokazuje, że krajami najbliższymi Polsce pod względem analizowanych czynników
ekonomicznych są: Bułgaria, Czechy oraz Węgry. Gorszymi partnerami do utworzenia z Polską wspólnego obszaru walutowego byłyby: Dania, Litwa i Szwecja.
Natomiast najbardziej odległe, biorąc pod uwagę wartości tych indeksów, okazały się: Łotwa, Rumunia oraz Wielka Brytania.
Ostatnią część badania stanowiło wyznaczenie indeksu OOW dla Polski w stosunku do strefy euro dla kilku wybranych lat. Wyniki przeprowadzonej analizy
Indeks optymalnego obszaru walutowego dla gospodarki polskiej
335
Ta b e l a 1
Indeksy OW względem strefy euro
Kraj
Wartość indeksu
Bułgaria
0,084
Czechy
0,089
Dania
0,081
Litwa
0,103
Łotwa
0,100
Polska
0,077
Rumunia
0,107
Szwecja
0,096
Węgry
0,061
Wielka Brytania
0,077
Źródło: Opracowanie własne.
wskazują, że najniższe wartości tego indeksu przypadły na lata 2004–2005, czyli początkowy okres członkostwa w Unii Europejskiej. Wówczas wartość indeksu oscylowała
około 0,077. W następnych latach wartość indeksu pogarszała się stopniowo, tak by
w 2009 r. osiągnąć wartość 0,090. Z uwagi na fakt, że miara ta jest w znacznej mierze
determinowana przez zgodność wahań cyklu koniunkturalnego w Polsce i strefie euro,
można wnioskować, że to różnice w przebiegu cyklu koniunkturalnego8 (szczególnie
w okresie ostatniego kryzysu) przyczyniły się do pogorszenia wartości indeksu.
Ta b e l a 2
Indeksy OOW względem Polski
Kraj
Wartość indeksu
Bułgaria
0,057
Czechy
0,061
Dania
0,081
Litwa
0,074
Łotwa
0,104
Rumunia
0,100
Szwecja
0,089
Węgry
0,061
Wielka Brytania
0,104
Źródło: Opracowanie własne.
8 Zmniejszenie
stopnia zgodności wahań cyklicznych polegało głównie na zwiększeniu różnic amplitudy wahań w Polsce z stosunku do strefy euro [Skrzypczyński 2008].
336
Katarzyna Piłat
Podsumowanie
W przedstawionym badaniu dokonano analizy zasadności wstępowania nowych
krajów do strefy euro z perspektywy teorii optymalnych obszarów walutowych.
W badaniu wykorzystano zaproponowany przez Eichengreena i Bayoumi [1998]
indeks optymalnego obszaru walutowego.
Większość analiz empirycznych opartych na teorii optymalnych obszarów walutowych opiera się na jednym, wybranym kryterium optymalności. Wykorzystany
w tym badaniu indeks umożliwia uwzględnienie kilku kryteriów, wskazywanych
zarówno przez tradycyjną, jak i nową teorię OOW. Są to: zmienność kursu walutowego, wzajemna otwartość gospodarek, zbieżność wahań aktywności gospodarczej, podobieństwo struktur gospodarek oraz wielkość kraju.
Otrzymane wyniki pokazują, że Polska, na tle krajów członkowskich nienależących do strefy euro, jest relatywnie dobrym kandydatem do pełnego uczestnictwa w Unii Gospodarczej i Walutowej. Podobne wartości indeksu uzyskały także
Węgry oraz Wielka Brytania. Najsłabiej pod względem analizowanej miary wypadły Litwa, Łotwa, Rumunia oraz Szwecja. Krajami charakteryzującymi się dużym
podobieństwem do Polski pod względem analizowanych czynników okazały się
Bułgaria, Czechy oraz Węgry.
Analizując, jak zmieniał się indeks OOW dla Polski względem strefy euro,
stwierdzono, że Polska najlepiej spełniała kryteria teorii OOW dotyczące zgodności względem strefy euro w latach 2004–2005. W ostatnich latach nastąpiło
pogorszenie wartości tego indeksu, co było spowodowane zwiększeniem rozbieżności wahań koniunkturalnych w Polsce i strefie euro podczas ostatniego kryzysu
gospodarczego.
Tekst wpłynął 6 października 2011 r.
Bibliografia
Alesina A., Barro R.J., Tenreyro S., Optimal Currency Areas, „NBER Working Paper”
2002, nr 9072.
Barro R.J., Tenreyro S., Economic Effects of Currency Unions, „NBER Working Paper”
2003, nr 9435.
Bayoumi T., Eichengreen B., Ever Closer to Haven? An Optimum-Currency-Area Index
for European Countries, „European Economic Review” 1998, nr 41.
Bergman U.M., How Similar Are European Business Cycles? „EPRU Working Paper”
2004, nr 04–13.
Biegun K., Kryteria optymalnego obszaru walutowego w rozszerzonej unii Europejskiej, w:
Unifikacja gospodarek europejskich. Szanse i zagrożenia, red. A. Manikowski, A. Psyk,
Wydawnictwo Naukowe Wydziału Zarządzania Uniwersytetu Warszawskiego, Warszawa 2004.
Indeks optymalnego obszaru walutowego dla gospodarki polskiej
337
Bień A., Optymalny obszar walutowy. Teoria i praktyka, PWE, Warszawa 1988.
Bukowski S., Strefa Euro, PWE, Warszawa 2007a.
Bukowski S., Unia Monetarna. Teoria i praktyka, Difin, Warszawa 2007b.
Corsetti G., A Modern Reconsideration of the Theory of Optimal Currency Areas, „European University Institute Working Paper” 2008, February 2008.
De Grauwe P., Unia walutowa, PWE, Warszawa 2003.
Grubel H.G., The Theory of Optimum Currency Areas, „Canadian Journal of Economics”
1970.
Kenen P.B., The Theory of Optimum Currency Areas: an Eclectic View, w: Monetary Problems of the International Economy, red. R.A. Mundell, A.K. Swoboda, Chicago University, Chicago 1970.
Konopczak K., Analiza zbieżności cyklu koniunkturalnego gospodarki polskiej ze strefą
euro na tle krajów Europy Środkowo-Wschodniej oraz państw członkowskich strefy,
w: Raport na temat pełnego uczestnictwa Rzeczypospolitej Polskiej w trzecim etapie
Unii Gospodarczej i Walutowej. Projekty badawcze. Część III, NBP, Warszawa
2008.
Krajewski P., Piłat K., Wpływ polityki fiskalnej na synchronizację cyklu koniunkturalnego
w Polsce i strefie euro, „Bank i Kredyt” 2012, t. 44, nr 3.
Krugamn P.R., Obstfeld M., Ekonomia międzynarodowa, WN PWN, Warszawa 2007.
Lachowicz M., Koncepcja wspólnych obszarów walutowych, „Bank i Kredyt”, luty
2008.
Mayes D.G., Suvanto A., Meeting the Challenge of Monetary Union: Lessons form the
Finnish Experience, „Bank i Kredyt”, październik 2007.
McKinnon R.I., Optimum Currency Areas, „American Economic Review” 1963, t. 53, nr 4.
Mongelli F.P., European Economic and Monetary Integration and the Optimum Currency
Area Theory, European Comission, „European Economy, Economic Papers” 2008,
nr 302.
Mongelli F.P., ‘New’ Views on the Optimum Currency Area Theory: What is EMU Telling
Us? „European Central Bank Working Paper”, April 2002.
Mundell R.A., A Theory of Optimum Currency Areas, „American Economic Review”
1961, nr 51.
Nawrat R., Doświadczenia z systemem currency board, „Bank i Kredyt” 2002, t. 33, nr 9.
Piłat K., Europejska integracja monetarna a teoria optymalnego obszaru walutowego,
w: Gospodarka Polski w perspektywie wstąpienia do strefy euro. Ujęcie ilościowe, red.
P. Krajewski, PWE, Warszawa 2011.
Rose A.K., Engel C., Currency Union and International Integration, „Journal of Money,
Credit and Banking” 2002, t. 34, nr 3.
Skrzypczyński P., Analiza synchronizacji cykli koniunkturalnych w strefie euro, „Materiały
i Studia, Zeszty” 2006, nr 210.
Skrzypczyński P., Wahania aktywności gospodarczej w Polsce i strefie euro, „Materiały
i Studia” 2008, nr 227.
Tchorek G., Teoretyczne podstawy integracji walutowej, w: Mechanizmy funkcjonowania
strefy euro, NBP, Warszawa 2010.
Wojnicka E., Spory wokół teorii optymalnych obszarów walutowych, „Ekonomista” 2002,
nr 1.
Woźniak P., Paczyński W., Business Cycle Coherence between the Euro Area and the EU
New Member States: a Time-Frequency Analysis, 2007, www.cerge-ei.cz/pdf/gdn
338
Katarzyna Piłat
The Index of Optimum Currency
Area for the Polish Economy
Summary
The theory of the optimum currency areas (OCA) is an important reference point
in the analysis of monetary unions. The article presents the analysis of the synthetic
OCA index based on the concept developed by Bayoumi and Eichengreen (1998), aimed
to assess the conformity of several EU economies not yet included in the euro area with
the requirements of the OCA theory as regards their possible accession to the EMU.
The results of the analysis suggest that, among the analysed countries, Poland, Hungary
and Great Britain fulfill best the requirements of the OCA theory with respect to the
euro area. A more detailed examination, however, shows that Poland fitted best to the
euro area in the years 2004–2005, just after its accession to the EU, while in the last
years the OCA index, measuring the concordance of the Polish economy with the euro
area, deteriorated, due mainly to the discrepancy of cyclical fluctuations during the lat
economic crisis.
Key words: optimum currency area 1 Economic and Monetary Union 1 euro area
1 Poland, European Union
Индекс оптимальной валютной зоны
для польской экономики
Резюме
Теория оптимальных валютных зон представляет собой существенную точку отсчета
при анализе валютных союзов. В статье на основе синтетического анализа индекса оптимальной валютной зоны было проверено, является ли Польша, на фоне остальных
государств-членов Евросоюза, не принадлежащих к зоне евро, хорошим кандидатом для
полного участия в Экономическом и валютном союзе. Конструкция индекса опирается на
работу Байоми и Айхенгрина (1998). Результаты анализа указывают, что среди анализируемых стран Польша, наряду с Венгрией и Великобританией, наиболее полно отвечает
правилам теории оптимальных валютных зон по отношению к зоне евро. Однако более
подробный нализ указывает, что Польша выполняла критерии соответствия зоне евро
лучше всего в 2004–2005 гг., т.е. сразу после вступления в ЕС. На протяжении последних
нескольких лет индекс OWW для Польши в отношении зоны евро ухудшился, главным
образом в результате расхождений конъюнктурных колебаний во время последнего экономического кризиса.
Ключевые слова:оптимальная валютная зона 1 Экономический и валютный союз
1 зона евро 1 Польша, Евросоюз
M
I
S
C
E
L
L
A
N
E
A
Sławomir I. Bukowski*
Stopień integracji rynków finansowych
na obszarze euro
Wprowadzenie
Jednym z istotnych warunków unifikacji monetarnej jest osiągnięcie przez kraje tworzące unię monetarną podobnego poziomu rozwoju rynków finansowych i ich integracja.
Wymaga to zarówno dostosowań po stronie prawnej, jak i osiągnięcia odpowiedniego
poziomu rozwoju rynku finansowego pod względem instytucjonalnym, behawioralnym
i ekonomicznym. Kraje tworzące unię monetarną powinny posiadać rozwinięte systemy
instytucji finansowych (banki, fundusze wspólnego inwestowania, towarzystwa ubezpieczeniowe, giełdy pieniężne), gospodarstwa domowe i przedsiębiorstwa powinny być obeznane z inwestowaniem w instrumenty finansowe i wykorzystywaniem kredytu, a kraj
uczestniczący w unii walutowej powinien posiadać rozwinięty rynkowy mechanizm sprawnie regulujący zachowania podmiotów gospodarczych na rynku finansowym [Bukowski
2007b; Janicka 2005].
Z punktu widzenia funkcjonowania unii monetarnej szczególnie istotne są funkcja
alokacyjna rynku finansowego oraz funkcja absorpcji szoków ekonomicznych poprzez
mechanizm rozkładania ryzyka (risk sharing). Obie funkcje przenikają się nawzajem
[Bukowski 2007a, s. 64–69; Janicka 2005].
J.C. Ingram [1962, s. 28–35] podniósł integrację rynków finansowych do roli jednego
z kryteriów optymalności obszaru walutowego, wskazując, że pozwala ona na zredukowanie roli kursu walutowego jako instrumentu dostosowań w przypadku wystąpienia szoku
ekonomicznego. Funkcję dostosowawczą na obszarze walutowym o zintegrowanym rynku
finansowym mogą pełnić zmiany stóp procentowych oraz przepływy kapitałowe.
R.I. McKinnon [2001a, 2001b] zwraca uwagę na znaczenie rozłożenia ryzyka poprzez dywersyfikację portfela inwestycyjnego inwestorów w poszczególnych krajach
tworzących unię monetarną. Na znaczenie mechanizmu rozkładania ryzyka (risk sharing) zwraca również uwagę P. De Grauwe [2003, s. 243–245]. Według niego na wysoce
zintegrowanym rynku finansowym inwestorzy posiadają w swoich portfelach akcje
o różnych relacjach stóp zwrotu do ryzyka. Banki działają nie w jednym kraju, ale na
terenie całej unii monetarnej. W tych warunkach straty spowodowane spadkiem kursów papierów wartościowych w krajach dotkniętych szokami ekonomicznymi są kompensowane przez zyski z papierów wartościowych pochodzących z krajów, gdzie wystę* Prof. dr hab. Sławomir I. Bukowski – Wydział Ekonomiczny, Katedra Biznesu i Finansów Międzynarodowych, Politechnika Radomska; e-mail: [email protected]
340
Miscellanea
puje wzrost gospodarczy. Ryzyko inwestycyjne, będące skutkiem gorszej sytuacji ekonomicznej jednego kraju, rozkłada się na pozostałych członków unii. W konsekwencji
wpływ słabszej sytuacji ekonomicznej danego kraju na dochody inwestorów jest łagodzony lepszą sytuacją firm z innych krajów o lepszej sytuacji ekonomicznej. Analogicznie
jest w przypadku banków posiadających oddziały lub filie w różnych krajach unii. Ich
straty w krajach recesyjnych z tytułu niewypłacalności pożyczkobiorców i kredytobiorców są kompensowane wyższymi dochodami w krajach wzrostowych [Kalemli-Ozcan,
Sørensen, Yosha 2004, s. 5–7].
Przyjęcie jednolitej waluty oraz zniesienie ryzyka kursowego i kosztów transakcyjnych
związanych z wymianą walut intensyfikuje przepływy kapitału między krajami unii monetarnej oraz prowadzi do szybkiego rozwoju lokalnych rynków finansowych i ich integracji
w ramach jednolitego rynku finansowego.
Jednolity rynek finansowy w Unii Europejskiej stanowi część składową jednolitego
rynku wewnętrznego. Podstawą funkcjonowania jednolitego rynku finansowego oraz całego jednolitego rynku w UE są swoboda przepływów kapitałów, swoboda osiedlania się
i swoboda świadczenia usług. Podstawowym czynnikiem determinującym proces integracji rynków finansowych krajów członkowskich Unii Europejskiej jest zasada tzw. jednolitej licencji. Oznacza ona, że instytucja finansowa (m.in. bank, towarzystwo ubezpieczeniowe, towarzystwo funduszy inwestycyjnych) może świadczyć usługi w innych krajach
członkowskich na podstawie licencji (zezwolenia) na działalność finansową uzyskanej
w kraju macierzystym, bez potrzeby uzyskiwania tam odrębnych zezwoleń. Jednakże jej
działalność poza krajem macierzystym podlega jurysdykcji kraju goszczącego. Przyjęcie
tej zasady wymagało ustanowienia minimalnych wymagań wobec instytucji finansowych,
które obowiązują we wszystkich krajach członkowskich UE. Dotyczą one m.in. wyposażenia w kapitał i tzw. reguł ostrożnościowych.
Utworzenie Unii Gospodarczej i Walutowej oraz wprowadzenie euro przyspieszyło
w znaczący sposób integrację rynków finansowych w Unii Europejskiej. Przed wszystkim
wprowadzenie jednolitej waluty wiązało się z eliminacją ryzyka kursowego najpierw w 11,
później w 12, 15, 16 i 17 krajach UE. Umożliwiło to stworzenie wielkiego rynku finansowego charakteryzującego się wysoką płynnością.
W niniejszym artykule przedstawiono analizę stopnia integracji wybranych rynków
instrumentów finansowych na obszarze euro (rynku pieniężnego, giełdowego rynku obligacji skarbowych, giełdowego rynku akcji). Analizą objęto okres 1999–2010. Pozwoliło
to na wstępne ujęcie wpływu kryzysu finansowego oraz kryzysu fiskalnego na kształtowanie stopnia integracji rynków pieniężnych, rynków obligacji skarbowych i rynków akcji na
obszarze euro.
1. Definicje i miary integracji rynków finansowych
Międzynarodową integrację rynków finansowych można zdefiniować w sposób wąski. Tutaj podstawą definicji jest prawo jednej ceny. Integracja rynków finansowych oznacza
zatem realizację prawa jednej ceny. Oznacza to, że aktywa generujące identyczne przepływy pieniężne mają tę samą cenę (i stopę zwrotu) w krajach uczestniczących w unii
monetarnej. A zatem, jeśli firmy emitują obligacje w dwóch krajach lub regionach, to
muszą płacić odsetki według tej samej stopy procentowej posiadaczom obligacji z obu
krajów (regionów). Analogicznie w przypadku akcji w dwóch krajach (regionach) cena
kapitału pozyskiwanego na rynku finansowym poprzez emisję akcji powinna być taka
Miscellanea
341
sama. Jeśli rozszerzymy ten tok myślenia na rynek kredytowo-depozytowy, to gospodarstwa domowe powinny pożyczać w obu krajach (regionach) na tych samych warunkach,
niezależnie od lokalizacji banku [Adam i in. 2002, s. 4].
Zastosowanie powyższej definicji zawęża jednak pojęcie integracji do rynków o ujednoliconych zasadach emisji i notowań instrumentów finansowych. W rzeczywistości
w skali międzynarodowej istnieje wiele odstępstw od prawa jednej ceny, choćby za sprawą restrykcji wyłączających z obrotu w niektórych krajach niektóre instrumenty finansowe. A zatem rynki finansowe nie są w jednakowym stopniu zintegrowane.
L. Baele i in. [2004, s. 6–7] sformułowali szerszą definicję zintegrowanych rynków finansowych. Zgodnie z tą definicją „rynek danych instrumentów i/lub usług finansowych
jest w pełni zintegrowany, jeśli wszyscy potencjalni uczestnicy rynku o jednakowych cechach:
a) podlegają tym samym regułom, gdy zdecydują się na uczestnictwo w obrocie tymi
instrumentami i/lub usługami finansowymi,
b) mają jednakowy dostęp do tych instrumentów i/lub usług,
c) są traktowani jednakowo, gdy działają na rynku”.
Tak szerokie potraktowanie integracji rynków finansowych implikuje również działanie prawa jednej ceny. Prawo jednej ceny stanowi, że te same aktywa charakteryzują się
identycznym ryzykiem i stopą zwrotu. Jeśli prawo jednej ceny nie jest spełnione, to istnieje pole dla arbitrażu, który przywraca ważność tego prawa (pod warunkiem braku
barier integracji rynków finansowych, o których mowa dalej).
Obie definicje integracji rynków finansowych opisują pewnien istniejący lub pożądany
stan rzeczy. Jednakże mogą być także punktem odniesienia do oceny procesów integracji
rynków finansowych oraz stopnia tej integracji.
Z punktu widzenia segmentów rynku finansowego można wyróżnić następujące
wskaźniki godne uwagi w analizie integracju rynków finansowych:
a) wskaźniki rynku pieniężnego,
b) wskaźniki rynku kredytowo-depozytowego,
c) wskaźniki rynku obligacji skarbowych i korporacyjnych,
d) wskaźniki rynku akcji.
Natomiast z punktu widzenia konstrukcji wskaźników integracji rynków finansowych,
które można w zasadzie zastosować do każdego z segmentów rynku finansowego, wyróżnia się:
a) wskaźniki oparte na cenach i stopach zwrotu (price-based indicators, field-based indicators),
b) wskaźniki oparte na wiadomościach (news-based indicators),
c) wskaźniki ilościowe (quantity-based indicators).
Wskaźniki te zostały szeroko opisane w literaturze przedmiotu (np. Adam [2002];
Baele i in. [2004]; Financial Integration in Europe [2011]). W niniejszym artykule przedstawiono te spośród wskaźników, które są najczęściej analizowane w badaniach dotyczących integracji rynków finansowych na obszarze euro oraz integracji polskiego rynku finansowego z rynkami finansowymi na obszarze euro. Wybór analizowanych wskaźników
został podyktowany dostępnością danych statystycznych dotyczących rynku finansowego
w Polsce, pozwalających na analizę porównawczą.
Wskaźniki oparte na cenach i stopach zwrotu obejmują miary rozpiętości między cenami lub stopami zwrotu z aktywów na rynkach finansowych różnych krajów. Podstawą
teoretyczną konstrukcji tych wskaźników jest prawo jednej ceny. Pozwalają one testować
stopień, w jakim owo prawo jest realizowane w skali międzynarodowej. Jeśli aktywa mają
342
Miscellanea
te same lub znacznie zbliżone cechy, to wówczas można stosować bezpośrednie porównania cen lub stóp zwrotu. W przeciwnym przypadku miary tego typu muszą odzwierciedlać również wpływ czynników specyficznych związanych z rynkami w poszczególnych
krajach, różnice w poziomie ryzyka systematycznego, stopień płynności. Do wskaźników
tej grupy należą: odchylenie standardowe przeciętnego oprocentowania niezabezpieczonych pożyczek międzybankowych, odchylenie standardowe przeciętnego oprocentowania
depozytów bankowych, odchylenie standardowe przeciętnego oprocentowania kredytów
bankowych, rozpiętość (spread) między stopami zwrotu (stopami procentowymi) z aktywów na danym rynku i aktywów przyjętych jako benchmark, spread dla obligacji korporacyjnych, korelacja stóp zwrotu z indeksów giełdowych.
Wskaźniki oparte na wiadomościach rynkowych ujmują wpływ informacji dotyczących
przewidywanych szoków na rynkach finansowych i związanego z tym ryzyka inwestycyjnego. Na w pełni zintegrowanych rynkach portfele inwestycyjne powinny być dobrze zdywersyfikowane. Informacje napływające z lokalnych rynków i ich tylko dotyczące nie powinny
mieć większego wpływu na zmiany cen aktywów, w przeciwieństwie do informacji globalnych dotyczących całego zintegrowanego rynku, które w istotny sposób wpływają na zmiany cen. Stopień ryzyka systematycznego jest taki sam w różnych krajach, których rynki finansowe zostały zintegrowane. Wskaźniki tej grupy wskazują zatem, na ile informacje
specyficzne dla lokalnego rynku finansowego są istotne dla pozostałych rynków w relacji
do wpływu informacji o charakterze globalnym. Do tych wskaźników zalicza się: ewolucję
współczynnika beta, wpływ wzrostu wspólnego komponentu informacji na stopę zwrotu
z akcji, jak również wskaźniki wyprowadzone z modelu S. Hestona i G. Rouwenhorsta.
Wskaźniki ilościowe służą do oceny stanu i przebiegu integracji rynków finansowych.
Podstawą ich konstrukcji są dane o wolumenie, wartości lub udziale transakcji między
krajami lub regionami. Stanowią one wskaźniki uzupełniające pozostałe miary integracji.
Należą do nich m.in.: stosunek międzynarodowych inwestycji finansowych do krajowych
aktywów finansowych ogółem, stosunek kapitalizacji zagranicznych spółek akcyjnych na
danej giełdzie do kapitalizacji giełdowej ogółem, wartość obligacji skarbowych w posiadaniu podmiotów zagranicznych do wartości obligacji skarbowych ogółem, wartość transakcji transgranicznych w stosunku do transakcji ogółem.
W niniejszym artykule zostały wykorzystane następujące miary stopnia integracji rynków finansowych:
11 integracja rynków pieniężnych – miary oparte na cenach,
11 integracja rynku obligacji skarbowych – miary oparte na cenach i miary oparte na
wiadomościach,
11 integracja rynku akcji – miary oparte na wiadomościach.
Konstrukcję zastosowanych w analizie miar stopnia integracji przedstawiamy poniżej.
1.1. Miary integracji rynku pieniężnego
A. Odchylenie standardowe przeciętnego oprocentowania niezabezpieczonych pożyczek
międzybankowych
Dt =
1 n
/ (r - r ) 2 ,
n i = 1 i, t b, t
Sm = r - r ,
i, t
b, t
i, t
gdzie:
m
S i, t = yi, t annualizowana
- yb, t,
ri, t – średnia miesięczna (tygodniowa)
stopa procentowa rynku międzyn
bankowego w danym kraju (np. w Polsce
WIBOR),
1
/ ( y - yb, t) 2 ,
n i = 1 i, t
DRi, t = ai, t + bi, t DRb, t + fi, t
cov (DR , R )
D tB =
v
343
Miscellanea
rb, t – średnia miesięczna (tygodniowa) annualizowana stopa procentowa rynku międzybankowego przyjęta jako benchmark,
i – kraj,
n – liczba krajów,
t – okres.
Mniejsze odchylenie standardowe oznacza wyższy
stopień integracji.
n
1
/ (r - r ) , w danym kraju (np.
Dt =
B. Spread między stopą procentową
rynku międzybankowego
n i = 1 i, t b, t
w Polsce) a stopą procentową rynku bankowego przyjętą jako benchmark (np. na obszarze euro)
S im, t = ri, t - rb, t,
2
S im, t = yi, t - yb, t,
1 n
/ ( y - yb, t) 2 ,
n i = 1 i, t
n
1 obligacji
1.2. Miary integracji
rynku
Rskarbowych
D
+ (bri, t D
+2 f
i, t = ai, t/
DR
t=
i, t - rbb,, tt) , i, t
n
i=
cov
vi, t
t - 11(DRi, t, R
b, t)
A. Spread między stopą zwrotu z obligacji
skarbowych
w okresie
do wykupu
a stopą
,
= ti, b, t
bim, t =
S i, t =dori,wykupu
rb,t zwrotu z obligacji skarbowych w okresie
Var
(Rb, t) jako benchmark:
vb, t
tt, 1przyjętą
S im, t (=DR
yi,it, tVar
) =yb,bt,2i, t Var (Rb, t) + Var (fi, t) .
oznaczenia jak wyżej.
D tB =
21
n
gdzie:
/ ((yDi,Rt -b, t)yb,, t) 20, G VRi, t G 1.
D tB == bi, t Var
VR
i, t
n
i = (1DR )
yi, t – średnia miesięczna (lub tygodniowa) annualizowana
stopa zwrotu w okresie do
Var
i, t
n ai, t + bi, t DRb, t + fi, t
wykupu w kraju i w okresie t,DR1i, t =
r
2/
(bi, t + do/
= ((annualizowana
ar, zwrotu
br, t D
t D i, t) +w okresie
Dttygodniowa)
rai, it, t-+(rD
= DRi, t/
)
,
yb, t – średnia miesięczna (lub
stopa
,
b
t
R
R
cov
,
)
vi, t
r ! {AA + ,...A}
, t + b,...
, t A}
t - 1 r ! {iAA
n
,
= ti, b, t
bi, t =i = 1
wykupu przyjęta jak benchmark.
m
Ri, t = ni, tVar
+ ft i-, t1 (Rb, t)
vb, t
S i, t =zwrotu
ri, t - rz obligacji
b, t,
us
B. Odchylenie standardowe stopy
skarbowych
w danym kraju i stopy
eRi, it, +
fVar
beut f2i, eu
Rib, ,t tf)us+, t Var (fi, t) .
(
D
, t +(b
i, t =
m
t) =i,b
t Var
zwrotu z obligacji skarbowychS przyjętej
jako
benchmark:
y
y
=
,
i, t
b, t
i, t
2 (beu ) 2 v2
+ (bius, t ) 2 v2us, t
vi2, t =n hni,bt +
, t,)t
i, t Vari, (t DRbeu
1
B
VR1i, t =
0 G VRi, t G 1.
eu r2 y)2 2 ,) 2 , ,
//(r(i(,btyVar
DDt =
b, ,it,t t) ; 2
t =
R
Dt eu
ii,, tt) b(,v
eu
n
n
VR ii, =t i=
= ti, eu, t, r
1= 1
2
/
/ br, t D
oznaczenia jak wyżej.
= b(a
+
DRaii,,t +
ar, t D i, t) + (bi, t +
mR =
v
R
D
D
+
f
,
i
t
,
i
t
,
,
,
i
t
i
t
b
t
i, t
S i, t = ri, t - rb, t,
!
+
!
+ ,...A}
{
,...
}
{
r
AA
A
r
AA
2, R2 )
covust - 1 ((DbRus
vi, t
C. Ewolucja współczynnika b m
b, ,t t
i, ti,)ft vus
2
R
=
+
n
Sbi,i,t t==yVR
y
,
,
=
t
t b
i, t
i, ti,na
=, t i, t obligacji
= tii,, us
b,,tt . w danym kraju jest
Jeżeli przyjąć założenie, że ryzyko
skarbowych
, trynku
iVar
vb, t
eu
us
b2, t)
n t - 1 (R
v
e
=
+
+
f
b
f
b
f
,
i
t
1
identyczne jak w kraju lub obszarze
przyjętym
za
punkt
odniesienia,
B
i, t
i, t 2
i, t eu, t2
i, t us, t to można skonstru/ ( iy, it,Var
DVar
y(bR,s.2t) 18–19]:
, K Var (us
(DR
fi, t2) . 2
tJ - eu
t =
2i,n
ować następujące równanie regresji
[Baele
2004,
t) = ibin.
b, t)2 +
i =h1i, t + (bi, t) veu, t + (bi, t ) vus, t
=
v
,
i
t
Rit =
2 a + / b j Iij + / ck Cik + eit,
euR
Rb2, t)2+ f , 1
DRi, t = abi, it, +
D
b (D
t Var
VRi, t = eu i(, bt j i=, t)1 b,vt eu, , t i0,kt =
G 2VR G 1.
J
VR ti,Var
(DRRi, it,, tR
) b, t) = ti, eu,ivt,,ti, t
cov
(D
t 1=
2
gdzie:
,
bi, t = / b j w j = 0v
, i, t = ti, b, tr
)
vt)b+
/
/ br, t D ir, t) D
Ri, t =
D
(1Var
(bi, t +
ai, t t+
a
DRi, t – zmiana stopy zwrotu D
w kraju
t,
j =i w czasie
- 1 (R
,
,
t
b
t
,
r
t
,
i
us 2 2
+ ,..., tA}
r ! {AA + ,...A}
(rb!i{, tAA
) v
K us
ai, t – stała,
Var
(Rus
=
+ Var
b2i, t Var
=
t2i, us(, ft .i, t) .
, t)ic
b, t) =
,
t
Ri, (t D
=RVR
+
niw kraju
f
w
0
,
=
2
bi, t – współczynnik beta w czasie
t/
i w odniesieniu
do
wielkości
beta
przyjętej
i, t k ki, t
vi, t
2
1 Var
k=
eu
us
R
(
)
D
b
jako benchmark,
b, t
,t b f
fi, t ==ei, t i+
i, t euJ, t + b
, i, t 0fusGK, tVRi, t G 1.
i, t
DRb, t– zmiana stopy zwrotuVR
przyjętej
jako
benchmark,
Var
R
(
)
D
eu
2
2
2
2 k 2Cik + eit,
Rit =
a+ /
i, t b j Iij + /
+ (szok
vi,kraju
bius, t )c
v
fi, t – specyficzny dla danego
ekonomiczny.
, t + (bi, t)j =v
t = hi(idiosynkratyczny)
k = 1 r us, t
1 eu, t
/ br, t D ir, t) DR
DRi, t = (J ai, teu+ 2 2 /
ar, t D i, t) + (bi, t +
(
)
b
v
, t + ,... A2}
i, t r ! eu
eu
+ ,...A1
{AA
}
r ! {AA
Współczynnik bi, t równy 0VR
oznacza
brak
współczynnik
równy
/+
= 0, = tinatomiast
b j w j2integracji,
, eu, t,
i, t =
Ri, tze=
nj =
f
oznacza pełną integrację. Wraz
wzrostem
stopnia
integracji
wartość
a
zmierza
do
0,
i, t1
vi,it, t
i, t
us
co wynika z faktu, że przy w pełni
rynkach
zmiany stopy zwrotu w danym
useu2f 2 +
ei, tK+
fi, t =zintegrowanych
b
b
f
, t, t
euus
i,)t v
i, t2 us, t
us /(b
0,
cik, tw
k=
VR
eu
2 i, t =
2 2 = ti, us,us
t. 2 2
2
vi, t = hki,=t +
1 (bi, t) veu, t + (bi, t ) vus, t
vi, t
(bieu, tJ) 2 v2eu, t K2
VR eu =
,
=t
Dt =
1
/ (r - r ) 2 ,
n i = 1 i, t b, t
S im, t = ri, t - rb, t,
344
Miscellanea
S im, t = yi, t - yb, t,
n
1
2
kraju nie mogą być większe,
niż w kraju
/ (przyjętym
D tB =
yi, t - yb, t)jako
, benchmark, a zatem ai, t powinno
n i = 1 rynkach
być bliskie 0 na wysoce zintegrowanych
finansowych.
Współczynnik bi, t można
DR obliczyć
= a +za
DR +formuły:
b pomocą
f
i, t
i, t
i, t
b, t
i, t
covt - 1 (DRi, t, Rb, t)
vi, t
,
= ti, b, t
bi, t =
Vart - 1 (Rb, t)
vb, t
2
Var (DRi, t) = bi, t Var (Rb, t) + Var (fi, t) .
gdzie:
vi, t – odchylenie standardoweb2stóp
zwrotu w kraju i,
i, t Var (DRb, t)
vb, t – odchylenie standardowe
VRi, t = dla aktywów przyjętych
, 0 G VRzai, tbenchmark,
G 1.
Var (Dstopami
Ri, t) zwrotu z aktywów
ti, b, t – współczynnik korelacji między
w i-tym kraju i w krar
ju lub obszarzeDprzyjętym
punkt
odniesienia.
/
/ br, t D ir, t) DRb, t +
Ri, t = (ai,jako
D
)
(
+
+
a
b
t
r, t i, t
i, t +
{AA + ,... A}
r ! {AA + ,...A}
Jeśli integracja rynków finansowychr !wzrasta,
wówczas współczynnik
korelacji powiR
=
+
n
f
,
,
,
i
t
i
t
i
t
nien zmierzać do 1, zaś zmienność stóp
zwrotu w danym obszarze (mierzona odchylen
1 eu
us2
niem standardowym) powinien
, us, t właściwego w kraju przyjętym za
= ei, tzmierzać
+/
+rpoziomu
fDi,tt =
bi, (t frieu
, tdo
b,bt)i, t f
,
t
n in=b1 powinna zmierzać
punkt odniesienia, stąd też
wartość
do 1. Zmiana wartości tego
1 + (bi,eut ) 2 v2 +
2 (bus) 2 v2
= hważnej
vi2m, =
,
i
t
,
,
,
,t
t
i
t
eu
t
i
t
us
/
D
r
r
(
)
,
wskaźnika w czasie dostarcza
informacji
na
temat
procesu
integracji rynków fiSti, t = ri, tn- rb, t,i, t b, t
eu1 2 2
i=
nansowych.
(bi, t) veu, t
eu
Smim, t=
=rynków
=yi, t - ybfinansowych
= t2i, eu
, t,
Wzrost stopnia integracji
powoduje,
że DRi, t, objaśniane przez
, t,
SVR
i, t i, t ri, t - rb, t,2
niprowadzi
v
DRb, t, zmierza do 1. Proces
integracji
do
zmniejszania
się skali szoków ekono,
t
1
SDim, ttB==a zatem
yi, t - us
y/
- ybędzie
) 2 , zmierzał do 0. Przy pełnej integra2t, ( 2yi, t f
b,wyraz
micznych idiosynkratycznych,
,
b
t
(bni,itn)= 1vus, t i, t 2
us
cji rynków finansowych jedynie
wspólne
VR
= ti, us2 , t .rynków wiadomości mogą zmieniać
1 2 dla wszystkich
B i, t =
Rby,bt, +
D
+
b
f,i, t
/
(t yizałożeniu
v
, it, D
i, t = ai, tprzy
tt)identycznego
tR=
stopy zwrotu z aktywówD
(oczywiście
ryzyka systematycznego),
,
i
n i=1
R
R
cov
(
,
)
D
vi, t
J1
Kb, t
a wówczas stosunek wariancji stóp zwrotu
nai, trynkach
poszczególnych
krajów powinien być
t
R
Rb,/
+ bbi, It Dw kraju
+ f=
a
,
=
1 n stópDb
t=
t/
i, t t bjest
, teit,wzorem:
iit, it,=
Rzwrotu
+i,Var
+
2a z aktywów
równy 1. Wariancja
j (ijR
k Ciki,+
)t ci dana
v
Dt =
/ (ri, t - rb, t) cov
, j = 1t - 1
(DR
b, kt = 1
vi,bt, t
t - 1 2 i, t, R
b, t)
=
=
bVar
t
J
, b, t (fi, t), .
i, t (DR t) = bi, t Var (Rb, t) + iVar
vb, t
t - 1 (Rb, t)
S im, t = ri, t - rb, t,
/ b j w ji,=Var
0
,
2
2
Var
R
(
)
D
b
Stosunek
wariancji przyjmuje
postać:
j = 1(DR
b, t
i, t
+GVar
i, t) = bi, t Var (Rb, , t) 0
t) .1.
VR
VR(if, ti, G
S im, t = yi, t - yb, t, Var
K i, t =
Var
R
(
)
D
2
/ c=
0, (DRi,bt, t)
, t Var
1 n
k w2b
k i=
r G 1.
/ ( yi,VR
D tB =
y
)
,
/, 0 aGr, VR
/ br, t D ir, t) DRb, t +
i1, t = (ai, t +
kD=R
t D ii,, tt) + (bi, t +
(Dr R
)
n i = 1 t i,bt, t Var
t + ,... A}
! {i,AA
r ! {AA + ,...A}
n i=1
fi, t zbliżona
/ do
/1, a zmienDRRib,it, t==n(VR
ar, 1,
br, t D i, t) DRb, t +
, tti+
i, t
i, t
i, t wariancji
ii,a
,t +
t Djeśli
i, t +
i , t) +
Wartość
proporcji
bi,(tbzmierza
do
i, t jest
!
+
!
+
{
,...
}
{
,...
}
r
AA
A
r
AA
A
eu
us
covt - 1aktywów
(DRi,ft, Rna
ność stóp zwrotu
krajuvii oraz
rynku przyjętym jako punkt odniesienia,
,t
, t)rynku
b=
ei=
,t +
bi, t =
tib,fbii,, ttfeu, t ,+ bi, t fus, t
Rii,, tt =
n
i, t +
mierzone
wariancjami,
są
podobne.
Vart - 1 (Rvb,2t) = h + (eubeuv)b2, vt 2 us+ (bus) 2 v2
t b f
i, t e i,+
i, t
eu, t
i, t
us, t o ryzyko związane z dłuEwolucję współczynnika
2 fi, t = beta
i, t można
t + bi, t fskorygować
us, t
i, t eu,również
eu
2
2
Var
R
Var
R
Var
(
)
(
)
(
)
.
=
+
D
b
f
, t b obligacji
bratingi
i, t
giem rządu,i, tuwzględniając
Jest to istotne szczególnie
2i, t, t2 skarbowych.
)euv) eu
, tb
i(
eu h (+
(bius, t,) 2 v2us, t
vi2, t =
veu=
,t+
i, t stanęły
t2ina
w ostatnim okresie,
niektóre
kraje
granicy
niewypłacalności. Wówczas
,
,
i, t =i, t
eu
t
)
DRVR
b2i, t Var (kiedy
b, t
euVR
2
v22iv
VRi, wyżej
0
,
G
, it, t G 1.
podane
równanie przyjmuje
postać:
(
)
b
t=
,
,
i
t
eu
t
eu
2
DR = a + b DR
+f
r
r
Var (DRVR
2 2 = ti, eu, t,
i, t) i, t =
(bus
i,v
t )2r vus, t
us
,
i
VR
=
/i, t ar,ust D22i,t t)2 + (=bi,tt +2i, us, t . / br, t D ir, t) DRb, t + fi, t,
DRi, t = (ai, t +
r ! {AA + ,... A}(b )viv
r ! {AA + ,...A}
,t
i, t
us, t
us
= tK2i, us, t .
J
Ri, t r= ni, t + fi, t VR i, t =
2
gdzie Di, t – zmienna zerojedynkowavdla
i w czasie t. Jest to szczególnie
Rit =usa + /i,bt j Iratingu
+ /rcw kraju
eu
k Cik + eit,
istotna
miara
do
badania
stopnia
integracji
obligacji skarbowych w okresie kryfi, t = ei, t + bi, t feu, t + bi, t fus, tjJ= 1 ij rynków
kK= 1
zysu finansowego
i fiskalnego
euro,
ponieważ
tam obecnie znacz2 b 2I +
J = ana obszarze
/emitowanych
+ us/
ck Cik + ewystępują
vi2, t = hi, t + (bieu, t) 2R
vit2eu
j ,ijt
it,
, t + (bi, skarbowych
t ) vus
ne różnice
stóp ryzyka /
obligacji
przez
poszczególne
kraje
b j w j =j =01,
k=1
eu 2 2
=
członkowskie
tego
obszaru.
j
1
(
)
b
v
J
i, t
eu, t
2
VR ieu, t =
K=btw
i, eu, t,
/
2
j j = 0,
vi, t j =/
1 c k w k = 0,
us 2 2 kK= 1
(
)
b
v
i, t
us, t
/=ctk2iw, usk, =
0
VR us
i, t =
t. ,
2
vi, t k = 1
1 n
/ (r - r ) 2 ,
n i = 1 i, t b, t
Miscellanea
Dt =
345
S im, t = ri, t - rb, t,
1.3. Miarymintegracji rynku akcji
S i, t = yi, t - yb, t,
A. Miary oparte na wiadomościach
1 n
Zgodnie z definicją integracji rynków
D tB = akcji za miarę
yb, t) 2 , przyjmuje się wzrost
( yi, t -integracji
n i stopy
wpływu wspólnego komponentu informacji na
zwrotu z rynku akcji [Baele i in.
=1
/
2004, s. 19–21].
DR1i, tn= ai, t + bi, t DRb, t + fi, t
2
Do pomiaru integracji rynków
stosuje
sięrbmodel,
który jest rozszerzoną
wersją
Dt = akcji /
(ri, t , t) ,
cov
vi, t
t - 1 (DRi, t, Rb, t)
n
=
i
1
modelu stosowanego w przypadku rynku
, rynku akcji
= ti, b, t
bi, t =obligacji skarbowych. W przypadku
Vart - 1 (Rz głównych
vb, tświatowych).
b, t)
znaczący jest wpływ czynników
(wiadomości
rynków
S im, globalnych
t = ri, t - rb, t,
2
Można przyjąć, że tymi globalnymi
czynnikami
o kształtowaniu się stóp
(DRi,, t) =sąbiinformacje
, t Var (Rb, t) + Var (fi, t) .
S im, t = yVar
i, t - yi na obszarze
b, t
zwrotu z akcji w Stanach Zjednoczonych
euro. Im wyższy jest poziom inte2
n lokalnych
Rb, t) na kształtowanie się stóp
bi, t Var (Dzakłóceń
gracji rynków akcji, tym mniejszy
jest wpływ
VR1i, t /
= ( y - y ) 2 , , 0 G VRi, t G 1.
D tB =
,większy
, t jest
iVar
t (DbR
zwrotu z akcji w poszczególnych
krajach,
a
tym
wpływ czynników globalnych
i, t)
n i=1
(informacji i sygnałów płynących ze Stanów
Zjednoczonych i obszaru
euro). Model
/
+b, t + f/
ar, t D ir, t) + (bi, t +
DRi, t =DaRii,,t t+=b(i,at D
i, t R
i, t
przyjmuje następującą postać:
br, t D
r ! {AA + ,... A}
r ! {AA + ,...A}
covt - 1 (DRi, t, Rb, t)
vi, t
,
bi, t =1 Rni, t = ni, t + fi2, t , = ti, b, t
Var
vb, t
Dt =
(ri, tt--1 (rbR, tb)eu
, t),
us
gdzie:
nfi, t1= ei, t2+ bi, t feu, t + bi, t fus, t
Var (DRi =
Var (Rb, t) + Var (fusi, i w czasie
i, t) = bi, tgiełdowego)
t)2. 2
Ri, t – stopa zwrotu z rynku
t,
m akcji (z indeksu
hi, t + (bieu, t) 2 v2eu, w kraju
vri2,bt,2t=
S
r
=
,
t + (bi, t ) vus, t
,
i
t
,
i
t
ni, t – składnik oczekiwany stopy zwrotu,
bi, t Var (DRb, t)
= ,eut, (bieu, t) 2 v,2eu, t0 G VR
fi, t – składnik nieoczekiwany
S im, t VR
= yi,stopy
i , t G 1.
i,tt - ybzwrotu.
VR Var
=(DRi, t)
= t2i, eu, t,
2
ni, t
1
v
r
Składnik nieoczekiwany
(f
czysty
szok lokalny ei, t nab D r ) DR
= (ai,(t nzdekomponować
+
D tB D
yi, t - yb, it,)t 2 , ar,na
=R
i, it,)t można
t D i, t) + (bi, t +
r, t i, t
us
2 2 i w czasie
n i =1 1 danego
giełdzie kraju i w czasie t, reakcję giełdy
kraju
t
na
informacje
+
+ ,...A}
,...
}
r(!b{AA
A
r ! {AAz giełd
,2t,
i,t ) r vus
us
2
D
r
=
(
)
,
,
t
i
t
b
t
VR
= tiamerykańskich):
obszaru euro (feu, t) orazDinformacje
globalne
, us, t .
, ti,=
f , t R(f
RiR
ain
b
t)f(z giełd
,n
t=
t i+
, t i,=
, t i+
b, us,
t+
i, t
i = t1iD
v2i, t us
eu
= et - +
fi,im,t cov
bRif, t, Rb+
, vi, t
, t) bi, t fus, K
1 (D
,
= t = rii,,tt - rbi, t , eu, Jt
= ti, b,t t
bi, t S
eu
us 2v
2m
2 2
Var
(R
Rit +
=
+
+
cvbk,2tCik + eit,
- 1(ya
tb), t)v b j I+
ij
h
(
)
=
v
b
b
eu
us
S
y
=
,
i, t kraju
, t informacje
i,i,tt
eu, t
us, t
b,it, t i w czasie
gdzie: b i, t i bi, t oznaczają wrażliwość
tkina
dotyczące stóp
=1
2 2 2j = 1
eu
nVar
Var (DRi,euro
R
Var
)=
(
)
(
)
.
+
b
f
zwrotu odpowiednio na obszarze
i w Stanach
Zjednoczonych.
J
,
,
t
b
t
i
t
,
i
t
(
)
b
v
1i, t
2
D tBieu, =
yi,,0tt,(=eu
VR
=ytb,2i,t)eu,,t,
2
b (j w
tb=
j
2
Var
R
)
D
n
Dla porównania związku między
szokami
na obszarze
euro
i w Stanach Zjednoczonych
b, t
i, t
VRi, t = j = 1 iv=i,1t
, 0 G VRi, t G 1.
a stopami zwrotu w poszczególnych
krajach
oblicza
się
współczynnik
wariancji, tj. proVar
DRi, t =
+R2bi, it2,)t DRb, t + fi, t
Kai(
tD
(b,us
) vus, t kraju2 wyjaśnianą przez szoki na obsza,
i
t
porcję zmienności stóp zwrotu na
danego
us rynku
ck w(kD=
r
=cov
Ri0, t,=
, Rt
,D
t(a
t . i, t) + (v
DRiVR
bi,i,tt +
br, t D ir, t) DRb, t +
,it,)
t-1
ba
,bt =i,=
, t=
t+
rus
rze euro i w Stanach Zjednoczonych.
1 v2
ki,=
,
t
,
,
i
b
t
i, t
! {AA + ,...A}
r ! i{, AA
t (+R,... A)}
vb, t r (nie
Zakładając, że szoki lokalne w krajuVar
i mają
idiosynkratyczny
są skorelot - 1 charakter
b, t
J
K
R
=
+
n
f
,
,
,
i t i z i tindeksami
2
wane z szokami w innychi t krajach
na obszarze
euro
oraz
w Stanach
Var
(DaR+
+ikVar
bji,ItijVar
R
+us(Rbc, tk) C
+ e(itf,i, t) .
i, eu
t) = b
it =
Zjednoczonych, przyjętymi
odniesienia),
można
obliczyć
wariancję
dla
kraju i:
= epunkt
+
+
fi, tjako
b
f
b
f
1 ,t
1, t
i, t
i, jt = eu
i, kt =us
b2i,eu
t Var
J
2
2 (2DRb, t) us 2 2
GusVR
= hi,i,tt =
+ (bi, t) veu, t + (b, i, t )0 v
vi, t VR
, t , i , t G 1.
0, (DRi, t)
b j w j =Var
j = 1 (beu ) 2 v2
gdzie:
r
i, t
eu, t
eu
2
+ = tlokalnych,
br, t D ir, t) DR
VR
=
i, t = (a2i, tszoków
i,D
tKR
i, eu, t, ar, t D i, t) + (bi, t +
hi, t – wariancja warunkowa
składnika
r ! {AA + ,...A}
ck wk v=i, t0, r ! {AA + ,... A}
v2eu, t – wariancja warunkowa
euro,
nusi, t2+obszaru
f
=i,dla
kR
1t =rynku
2 i, t
i, t ) vamerykańskiego.
us
v2us, t – wariancja warunkowa
dla(b
rynku
eu, t = t2 us.
VR us
=
b, t f ,
, ti, t = ei, t +
if
i, us
2 bi, t feu, t +
vi, t eu 2 2 i, t usust 2 2
2
Proporcja wariancji względem
obszaru
euro
ma
postać:
vi, t = hiJ, t + (bi, t) Kveu, t + (bi, t ) vus, t
2
Rit = a + (bbeuj I)ij2+
ck Cik + eit,
i, t veu, t
2
k = 1= t
VR ieu, t =j = 1
i, eu, t,
2
J
vi, t
b j w j = 0, us 2 2
(bi, t ) vus, t
j=1
VR us
= t2i, us, t .
i, t =
K
2
ck wk = 0, vi, t
J
K
k=1
/
/
/
/
/
/
/
/ /
/
/
/
/
/
/
/
/
/
/
/
/
/
Ri,mt = ni, t + fi, t
S i, t = ri, t - rb, t,
fi, mt = ei, t + bieu, t feu, t + bus
i, t fus, t
S i, t = yi, t - yb, t,
eu 2 2
2
vi, t = hi, t +1 (bni, t) veu, t + (bius, t ) 2 v2us, t
346
/ yi, t - yb, t) 2 ,
D tB = (Miscellanea
bnieu, ti)=21v(2eu
,t
eu
VR i, t =
= tn2i, eu, t,
2
DRStanów
+
DR11b, tn+ ma
a proporcja wariancji względem
postać:
vi,b
i, t = ai,Zjednoczonych
tD
t i, t
/ ((frriii,,,ttt =
- rrb, t)) 22 ,,
tt =
/
D
b, t v
n
us
2
2
covt - 1 (DRi, t,nRiib=
=
, t11)
i, t
us= (bi, t )mvus, t
2 = ti, b, t
,
b
,
i
t
VR i, t = Var
.
=
t
m
,
,
i
us
t
R
(
)
v
S i2,t =
b, t
t rrb, t,,
1 rri,bt ,S
i, t
b, t
vim,i,ttt =
Var (DRi, t) JS
(KRyybb,,tt),, + Var (fi, t) .
=m
b2i=
S
, t Var
yyii,,tt b, t
ii,, tt =
Wariancje warunkowe dla
obszaru
euro,
Zjednoczonych
Rit = a +b2/Var
I(D
/
+
b jStanów
cnn k Cik + eit, i lokalnego rynku
ij
1
R
)
bk, 1
t 1 asymetrycznego
ij,=
t 1B
giełdowego są otrzymywane ze
=
/ ((0yyGii,, tt VR
D tB =
= modelu
- yyib, t, tG
) 22 1,, . GARCH(1, 1).
VRstandardowego
,/
D
i, t =
b, t)wpływu
t (DR (wyższy
n
Im wyższa jest wartość współczynników
wariancji
stosunek
szoków obJ
Var
)
=
i
1
i, t n i = 1
szaru euro lub globalnych – Stanów
w stosunku
do
wpływu
/
0
,
=
b j w Zjednoczonych)
r
Ri, t =
DR
=a
+ b , tD
DR
++ff(i,bt + szoków
a
/
/ lo- br, t D ir, t) D
Dbbi,, tt)+
DRi, t =j (aiD
, tr, t R
i, t
ii,,tt + biia
i, t i, t
,t +
j = 1 integracji
kalnych, tym wyższy jest stopień
rynków
akcji.
,...1 A
} Ri, t, Rb, t)
r ! {cov
AA +t r!
(D
v{i,AA
t + ,...A}
K
= covt - 1 (DRi, t, Rb, t) =
=t
bif, t =
ti, b, t vi, t ,,
b
R
=
+
n
B. Efekty krajowe vs. efekty sektorowe
i, b, t v
/i, tck wki,=t 0,i, ti, t
Vart - 1 ((R
Rb, t))
Var
v b, tt
b, specyficznego
t
ust - 1
Jeśli rynek akcji jest bardziej
wpływ czynnika
dlab, danego
k = 1zintegrowany,
2
+
fi, t = ei, t + Var
bieu, t f(D
b
f
,t ) =
euR
t
i, tb2us,Var
Rb, t)) +
Var ((ffakcji
) . stopy
+
kraju na stopy zwrotu z akcji powinien się obniżyć.
pełnejVar
integracji
rynków
Vareu(D2RPrzy
Var
((R
ii,,tt) = bii,, ttus
b, t
ii,, tt) .
((bDi, tR
) 2 v)2us, t sektora gospodarki,
+ekonomiczne
vi2, t = hi, t + (przez
bi, t) wyniki
vb2eu22, tVar
zwrotu z akcji są głównie zdeterminowane
b i, t Var (DRbb,, tt) , kraju,
2= i, t
2i, tdotyczące
do którego owe akcje należą, a nie przez wyniki
w którym
VR
VRi, t G
G VR
G 11akcje
VR
, 00 G
..
=, t Var2 gospodarki
(bieu
t eu
i, t
, t) i,v
Rgospodarki
(D
DR
eu
i,, tt))
Var
(
są notowane. Relację międzyVR
wpływem
sektora
i wpływem
danego
kraju
na
,
=
=
t
i
i, t
i, eu, t
2
r
kształtowanie się stóp zwrotu z akcji można
zbadać
m.in.
za
pomocą
modelu
Hestona
r
v
/
/
R
D
(
)
(
=
+
+
+
D
a
a
b
/+ ,...z każdej
/
DRi,ii,,t tt = (aii,,tt +
arr,, tt D ii,, tt) + (bii,,tt +
i Rouwenhorsta [1995, s. 53–58]. Model tenuszakłada,
że stopa
akcji
R
skła! {zwrotu
!
+,...
{AA
}
{
,...A
rr !
AA +
A
r
AA
A
2 2
it
,... A}
r ! {AA +
(biczynnik
, t) v
us,ntwpływu
us
2f wszystkich stóp zwrotu a, efekt
da się z czterech komponentów:
R
=
+
VRwspólny
.
=
=
t
,
,
,
i
t
i
t
i
t
Ri,2t = ni, t + fi, ius
i, t
, t, t
wpływu sektora bj, efekt kraju ck, specyficzne
na
poziomie
eu
us przedsiębiorstw eit:
vi,zakłócenia
t e + beu
=
+b
f
bus
fus, t
i, t f
f i, t = e i, t + b i, t ffeu, t +
Ji, t
i, t
K i, t eu, t
i, t us, t
us 22 22
22 e +
hi, t +
=
+
v2i2, b
bus
vus, t
Rit = a + /
/((bbcieuieuk,, tt))C22ikvv+
, ((b
t=
eu,, tt it+
i,,tt)) v
v
j Iijh+
,
i
t
,
i
t
eu
i
us, t
j=1
k=
eu1 22 22
eu
(
)
b
v
i, t
eu, t
eu
J
VR eu
= (bi, t) veu, t =
=t
t22i, eu, t,,
gdzie:
2
i, eu, t
/
0, ii,, tt =
b j w j = VR
2
vi,wartość
Iij – zmienna zerojedynkowa
dla sektora, przyjmująca
1, jeśli akcja i należy do
v
i, tt
j=1
us 22 22
sektora j i 0 w przeciwnym
K przypadku,
) v
bus
vus, t
us
2
((b
ii,,tt)wartość
us, t =1,tjeśli
us
Cik – zmienna zerojedynkowa
dla
kraju,
przyjmująca
i należy do
VR
=
/ ck wk =VR
0, ii,, tt =
us,, tt akcja
..
= t2ii,, us
2
2
vi, t
kraju k i 0 w przeciwnym
k = 1przypadku.
v
J
i, t
K
J
K
Dla estymacji efektu gałęzi i efektu kraju
Rit =
/ bb jjjest
/ cckk CCikik +
,
=niezbędne
+/
+wprowadzenie
+ eenastępująa+
R
IIijij +
/
a
it
itit,
cych dodatkowych ograniczeń:
j=1
k=1
JJ
j=1
k=1
/ bb jj ww jj =
= 00,,
/
= 11
jj =
K
K
= 11
kk =
/ cckk wwkk =
= 00,,
/
gdzie: wj i wk oznaczają odpowiednio udział kapitalizacji giełdowej gałęzi i kraju w próbie.
2. Stopień integracji rynków pieniężnych
Rynki pieniężne na obszarze euro charakteryzują się najwyższym stopniem integracji na
tle pozostałych rynków finansowych. Wynika to przede wszystkim z wprowadzenia wspólnej waluty oraz likwidacji ryzyka kursowego i kosztów transakcyjnych związanych z wymianą walut, a także z wprowadzenia jednolitej polityki monetarnej w 1999 r. Głównym
graczem na rynku pieniężnym strefy euro jest Europejski Bank Centralny, dbający
347
Miscellanea
o względną stabilność krótkoterminowych stóp procentowych na rynku bankowym,
kształtujących się w ramach marży wahań wyznaczonej przez stopy referencyjne od kredytów (marginal lending facility) i depozytów (marginal deposit facility) (rys. 1).
Ry s u n e k 1
Podstawowe stopy referencyjne EBC w latach 1999–2009 (w %)
6,0
5,0
4,0
3,0
2,0
1,0
20
1.
.0
01
.0
1.
20
09
08
07
01
.0
1.
20
06
01
.0
1.
20
05
Kredyty
01
.0
1.
20
04
01
.0
1.
20
03
01
.0
1.
20
02
01
.0
1.
20
01
Depozyty
01
20
1.
.0
20
00
01
1.
.0
01
01
.0
1.
19
99
0,0
EONIA
Źródło: Opracowanie własne na podstawie danych EBC (Statistical data warehouse, http://sdw.ecb.europa.eu).
Integracja rynku pieniężnego jest niezwykle istotna z punktu widzenia transmisji impulsów pieniężnych i skuteczności polityki monetarnej w ramach Europejskiego Systemu
Banków Centralnych.
Ry s u n e k 2
Odchylenie standardowe przeciętnego oprocentowania niezabezpieczonych pożyczek
międzybankowych w krajach obszaru euro w okresie styczeń 1999–maj 2010 r.
w punktach bazowych (dane na koniec miesiąca)
140,0
120,0
100,0
80,0
60,0
40,0
20,0
0,0
1998 1999 2000 2001 2002
O/N
2003 2004 2005 2006 2007 2008 2009 2010
1M
12 M
Źródło: Opracowanie własne na podstawie danych EBC (Statistical data warehouse, http://sdw.ecb.europa.eu).
348
Miscellanea
W latach 1999–2010 nastąpił wyraźny spadek wartości odchylenia standardowego niezabezpieczonych pożyczek O/N, 1-miesięcznych i 12-miesięcznych na rynku między krajami obszaru euro (rys. 2 i 3). W okresie od lutego 2007 r. nastąpił jednak wzrost wartości tych wskaźników. Było to związane ze zróżnicowaniem ryzyka oraz asymetrycznym
spadkiem płynności finansowej instytucji finansowych w poszczególnych krajach obszaru
euro w związku z kryzysem finansowym, którego wpływ na rynki międzybankowe był asymetryczny i zmniejszał stopień integracji rynków pieniężnych. Podobne zjawisko można
było zaobserwować na rynku repo.
Ry s u n e k 3
Odchylenie standardowe stóp procentowych repo
między krajami obszaru euro w latach 2003–2010
(dane na koniec miesiąca) w punktach bazowych
7
6
5
4
3
2
1
0
2003
2004
1M
2005
2006
2007
2008
2009
2010
12 M
Źródło: Opracowanie własne na podstawie danych EBC (Statistical data warehouse, http://sdw.ecb.europa.eu).
Na rynku repo nastąpił wyraźny wzrost stopnia integracji od 2003 r. i jego destabilizacja od 2007 r. Podobnie jak w przypadku pożyczek niezabezpieczonych, i tutaj wyraźny
był wpływ wzrostu ryzyka oraz spadku płynności finansowej związanego z kryzysem finansowym.
Sytuacja na rynkach pieniężnych poprawiła się i nastąpił ponowny wzrost stopnia integracji po przeprowadzeniu przez EBC trzech jednorocznych długoterminowych operacji
refinansowych (one year LTRO – longer term refinancing operations) i dodatkowych form
rozszerzonego wsparcia kredytowego (enhanced credit suport) dla banków krajów obszaru
euro. Pierwsza operacja została przeprowadzona 7 maja i 25 czerwca 2009 r. na łączną
wartość 442 mld euro i objęła 1121 banków. Druga operacja o wartości 75 mld euro miała
miejsce 30 września 2009 r. i objęła 589 banków, a trzecia – 16 grudnia 2009 r. i objęła 224
banki; jej wartość wyniosła 97 mld euro [Financial Integration... 2010, s. 11–12]. Operacje
te spowodowały znaczny spadek stóp procentowych zarówno na rynku pożyczek niezabezpieczonych, jak i na rynku pożyczek zabezpieczonych. EONIA obniżyła się do poziomu
stopy oprocentowania depozytów w EBC (marginal deposit facility). W rezultacie w końcu
2009 r. 3-miesięczny EURIBOR obniżył się z około 1,2% do 0,7%, a 12-miesięczny
EURIBOR z 1,58% do 1,25% [Financial Integration... 2010, s. 12).
349
Miscellanea
3. Stopień integracji giełdowego rynku obligacji skarbowych
Rynek obligacji skarbowych jest drugim po rynku pieniężnym najwyżej zintegrowanym
rynkiem na obszarze euro. Wskazuje na to analiza miar integracji rynków obligacji skarbowych (rys. 4, 5, 6).
Ry s u n e k 4
Ewolucja współczynnika beta i stałej skorygowanych
o ryzyko dla 10-letnich obligacji skarbowych krajów obszaru euro
w latach 1998–2010 (dane miesięczne)
0,20
0,15
0,10
0,05
0
1998
1999 2000 2001 2002
2003 2004 2005 2006 2007 2008 2009 2010
–0,05
–0,10
Stała
Beta
Dane dla współczynnika beta zostały znormalizowane przez odjęcie od każdej wielkości beta wartości 1.
Źródło: Opracowanie własne na podstawie danych EBC (Statistical data warehouse, http://sdw.ecb.europa.eu).
Ry s u n e k 5
Średnia odległość stałej od wartości
oznaczającej pełną integrację dla 10-letnich obligacji
na obszarze euro w latach 1998–2010
0,14
0,12
0,10
0,08
0,06
0,04
0,02
0
1998 1999 2000 2001 2002
2003 2004 2005 2006 2007
2008 2009 2010
Źródło: Opracowanie własne na podstawie danych EBC (Statistical date warehouse, http://sdw.ecb.europa.eu).
W latach 1999–2010 nastąpił wyraźny wzrost integracji rynków 10-letnich obligacji
skarbowych. Jednakże nie był to proces stabilny. O ile od połowy 2000 r. do końca 2007 r.
stała była równa lub zbliżona do 0, o tyle w latach 2008–2010 nastąpiło wyraźne odchy-
350
Miscellanea
lenie stałej od tej wartości. Współczynnik beta ewoluował w kierunku wartości 0 w okresie od 1999 r. do końca 2003 r., następnie odchylił się od 0 w okresie od stycznia 2004 r.
do października 2007 r., kiedy ponownie na krótko powrócił do wartości 0. W okresie od
listopada 2007 r. do października 2010 r. nastąpiło wyraźne odchylenie obu wielkości od
wartości 0. Przyczyną był wpływ kryzysu finansowego, który spowodował wzrost ryzyka
i rentowności obligacji skarbowych w niektórych krajach obszaru euro (Portugalia,
Hiszpania, Grecja).
Ry s u n e k 6
Średnia odległość współczynnika beta od wartości
oznaczającej pełną integrację dla 10-letnich obligacji
na obszarze euro w latach 1998–2010
1,2
1,0
0,8
0,6
0,4
0,2
0
1998 1999 2000 2001 2002
2003 2004 2005 2006 2007 2008 2009 2010
Źródło: Opracowanie własne na podstawie danych EBC (Statistical data warehouse, http://sdw.ecb.europa.eu).
Analiza kształtowania się średniej odległości stałej i współczynnika beta od wartości
oznaczających pełną integrację wskazuje na wzrost integracji rynków obligacji skarbowych w latach 2000–2007 i znaczny spadek stopnia integracji w okresie od połowy 2007 r.
do października 2010 r. (rys. 5 i 6).
4. Stopień integracji giełdowego rynku akcji
W latach 1998–2010 nastąpił znaczny wzrost stopnia integracji rynków akcji krajów obszaru euro. Jak wynika z rysunku 7, w latach 1998–2006 wystąpił znaczący spadek odchylenia standardowego stóp zwrotu z indeksów giełdowych. Jednakże w latach 2007–2009
nastąpił wzrost odchylenia standardowego, na co wpływ miała recesja i kryzys finansowy.
Na kolejnych rysunkach (8 i 9) przedstawiomo wyniki analizy stopnia integracji rynków finansowych przeprowadzonej za pomocą miar opartych na wiadomościach. Analiza
ich treści wskazuje na wzrost stopnia integracji rynków akcji krajów obszaru euro po
utworzeniu UGW. Nastąpił znaczny spadek wpływu szoków ze Stanów Zjednoczonych na
zmiany stóp zwrotu w krajach obszaru euro przy jednoczesnym wzroście intensywności
rozprzestrzeniania się szoków pochodzących z obszaru euro, wspólnych dla wszystkich
krajów tego obszaru.
351
Miscellanea
Ry s u n e k 7
Odchylenie standardowe stóp zwrotu z indeksów giełdowych
na obszarze euro (w %) po usunięciu wahań cyklicznych
przez zastosowanie filtra Hodricka–Prescotta
w okresie styczeń 1999–maj 2008 r.
6,0
5,0
4,0
3,0
2,0
1,0
0,0
1998 1999 2000 2001 2002
Kraje
2003 2004 2005 2006 2007
2008 2009 2010
Sektory
Źródło: Opracowanie własne na podstawie danych EBC (Statistical data warehouse, http://sdw.ecb.europa.eu).
Ry s u n e k 8
Intensywność rozprzestrzeniania się szoków
z obszaru euro i ze Stanów Zjednoczonych
0,45
0,40
0,35
0,30
0,25
0,20
0,15
0,10
0,05
0,00
1973–1985
1986–1991
1992–1998
1999–2010
Szoki z obszaru euro
Szoki ze Stanów Zjednoczonych
Źródło: Opracowanie własne na podstawie danych EBC (Statistical data warehouse, http://sdw.ecb.europa.eu).
352
Miscellanea
Ry s u n e k 9
Proporcja wariancji lokalnych stóp zwrotu z indeksów giełdowych
wyjaśniona szokami z obszaru euro i szokami ze Stanów Zjednoczonych (w %)
100
80
60
40
20
0
1973–1985
1986–1991
1992–1998
1999–2010
Szoki z obszaru euro
Szoki ze Stanów Zjednoczonych
Źródło: Opracowanie własne na podstawie danych EBC (Statistical data warehouse, http://sdw.ecb.europa.eu).
Udział wspólnego dla obszaru euro komponentu wiadomości w wyjaśnianiu zmian
stóp zwrotu z indeksów giełdowych w krajach obszaru euro wzrósł znacznie w okresie
1999–2010 w porównaniu z latami 1973–1985, 1985–1991, przy spadku udziału szoków
globalnych (ze Stanów Zjednoczonych). Radykalnie też zmniejszyło się oddziaływanie
szoków idiosynkratycznych, właściwych dla poszczególnych krajów [zob. również
Dziekoński 2005]. Oznacza to, że rynki akcji krajów obszaru euro są już w wysokim stopniu zintegrowane.
Wnioski
Rynek finansowy na obszarze euro jest w wysokim stopniu zintegrowany. Największym
stopniem integracji spośród zbadanych w niniejszej pracy rynków odznacza się rynek
pieniężny i rynek obligacji skarbowych, na kolejnym miejscu jest rynek akcji. Istotnym
czynnikiem hamującym proces integracji rynków finansowych w latach 2008–2010
okazał się kryzys finansowy. O ile w mniejszym stopniu impulsy kryzysowe wpłynęły
na stopień integracji rynków pieniężnych i rynków akcji, o tyle wyraźnie wpływ kryzysu finansowego był widoczny w przypadku stopnia integracji rynków obligacji skarbowych. Nie jest to zaskoczeniem, ponieważ obligacje skarbowe niektórych krajów (np.
Grecji, Portugalii, Hiszpanii czy też Włoch) stały się tak samo ryzykowne, jak obligacje korporacyjne. Czynnikiem obniżającym stopień integracji giełdowych rynków obligacji skarbowych jest destabilizacja finansów publicznych w kolejnych krajach obszaru euro.
Tekst wpłynął 1 listopada 2011 r.
Miscellanea
353
Bibliografia
Adam K., Japelli T., Menichini T., Padula A., Pagano M., Analyse, Compare, and Apply Alternative
Indicators and Monitoring Methodologies to Measure the Evolution of Capital Market Integration
in the European Union, European Commision, Brussels 2002.
Baele L., Ferrando A., Hördal P., Krylova E., Monnet C., Measuring Financial Integration in the
Euro Area, European Central Bank, „Occasional Paper Series” 2004, nr 143.
Bukowski S.I., Strefa euro. Perspektywy rozszerzenia o Polskę i inne kraje Europy Środkowo-Wschodniej,
PWE, Warszawa 2007a.
Bukowski S.I., Unia monetarna. Teoria i polityka, Difin, Warszawa 2007b.
De Grauwe P., Unia walutowa, PWE, Warszawa 2003.
Dziekoński K., Integracja rynków akcji wybranych krajów europejskich i Stanów Zjednoczonych,
Uniwersytet Ekonomiczny we Wrocławiu (rozprawa doktorska, tekst niepublikowany) Wrocław
2005.
Financial Integration in Europe, European Central Bank, April 2010.
Financial Integration in Europe, European Central Bank, April 2011.
Heston S.L., Rouwenhorst K.G., Industry and Country Effects in International Stock Returns, „The
Journal of Portfolio Management”, Spring 1995.
Janicka M., Polski rynek kapitałowy – powstanie, rozwój i perspektywy w strukturach jednolitego rynku
finansowego Unii Europejskiej, „Ekonomista” 2005, nr 5.
Kalemli-Ozcan S., Sørensen B.E., Yosha O., Asymmetric Shocks and Risk Sharing in a Monetary
Union: Update Evidence and Policy Implications for Europe, Department of Economics, University
of Houston, Working Papers, 2004–05, February 2004.
McKinnon R.I., Optimum Currency Area and European Experience, 2001a (http://www.stanford.
edu./-mckinnon/papers/optimumreveur.pdf).
McKinnon R.I., Optimum Currency Area Revisited, Stanford University Press, Stanford 2001b.
Statistical data warehouse, sdw.ecb.europa.eu.
D
y
s
k
u
s
j
e
Od Redakcji
Poniżej zamieszczamy artykuł dyskusyjny Stefana Małeckiego-Tepichta, zawierający krytyczne uwagi pod adresem teorii równowagi i głównego nurtu współczesnej ekonomii,
oraz dwa komentarze do tego tekstu, pióra Jerzego Wilkina i Witolda Kwaśnickiego.
Dyskusja na ten temat odbyła się 13 października 2011 r. w ramach konwersatorium
„Czwartki u Ekonomistów”, organizowanego przez Polskie Towarzystwo Ekonomiczne.
Stefan Małecki-Tepicht*
Instrukcja obsługi maszynki do mięsa
nie jest książką kucharską
Zvi Griliches wspominał, że jego ojciec przed II wojną światową w Kownie nie jadał mielonych
kotletów. Nie jadał na mieście, bo nie wiedział, z czego są robione,
nie jadał w domu – bo wiedział, z czego są robione.
ze wspomnień Zvi Grilichesa
[Berndt, Hulten 2005, s. 3]
Chciałbym zarazem udowodnić, że logiczna artykulacja teorii
nie jest wartością sama w sobie…
[Thomas S. Kuhn 1985, s. 395]
Wprowadzenie
Gdy czytam teksty licznych autorów głównego nurtu współczesnej ekonomii – począwszy
np. od Leona Walrasa, poprzez Kennetha Arrowa i Gerarda Debreu oraz Garry S. Beckera i Roberta Lucasa Jr., a na Robercie Barro i Paulu Romerze kończąc – to przychodzi
mi na myśl owo wspomnienie mielonych kotletów, których nie jadał ojciec zmarłego
w 1999 r. wybitnego ekonomisty amerykańskiego Zvi Grilichesa.
Do robienia mielonych kotletów potrzebna jest maszynka do mięsa. Istnieją różne
rodzaje maszynek – stare sprzed I wojny obsługiwane ręcznie przez moją babcię i te
obecne w pełni zautomatyzowane typu Moulinex – a tym, co różni owe narzędzia to
technika. Funkcja obu narzędzi jest taka sama, muszą mielić. Wspólne obu typom sprzętów jest to, że są to konstrukcje mechaniczne: egzogeniczne w podwójnym sensie.
* Stefan
Małecki-Tepicht – doktor ekonomii, emeryt; e-mail: [email protected]
356
Dyskusje
Egzogeniczne dlatego, że uruchamianie tego narzędzia wymaga zewnętrznej energii –
siły rąk osoby mielącej lub energii elektrycznej. Egzogeniczne również dlatego, że zewnętrzny jest wsad czegokolwiek (np. mięsny), który ulega procesowi mielenia. A bez
względu na to, które z narzędzi użyjemy i jaka będzie jego instrukcja obsługi zawsze
w wyniku dostaniemy taki sam, homogeniczny jednorodny produkt – kotlet mielony.
W dalszym ciągu będę się starał wykazać, że dzisiejszy główny nurt neoklasycznej
ekonomii jest właśnie taką zmieniającą się – pod wpływem zmian technik obliczeniowych
– instrukcją obsługi maszynki do mięsa. Twardym rdzeniem instrukcji obsługi jest zbiór
równań różniczkowych Walrasa wywodzący się z XVII-wiecznej teorii klasycznej fizyki
Newtona. Współczesny główny nurt neoklasycznej ekonomii – w miejsce odrębnych podmiotów: producentów i konsumentów uczestniczących w procesie gospodarowania – powołał do życia szczególną postać „wkładki mięsnej do kotleta mielonego” – ekonomiczną
jednostkę reprezentatywną (input). Jednorodna „jednostka reprezentatywna” w swym
działaniu, poddana działaniom licznych równań modeli równowagi rynkowej, maksymalizuje jednorodny homogenizowany efekt – użyteczność (output), która jednocześnie jest
zyskiem.
Jedyną miarą oceny działania ekonomicznej jednostki reprezentatywnej jest dążenie do maksymalizacji użyteczności. Nie wiemy, co oznacza owo pojęcie, nie wiemy –
odwołując się do poczucia smaku ojca Zvi Grilichesa – z czego jest zrobione, nie wiemy ani jak „użyteczność” definiować, ani jak ją mierzyć [Hurwicz 1945, s. 910]1. Inaczej
mówiąc, z punktu widzenia logiki formalnej „użyteczność” jest pojęciem pustym – nie
istnieje żaden desygnat tego pojęcia. Jak wiemy, w nauce tylko matematyka operuje
pojęciami pustymi.
Maksymalizacja użyteczności lub zysku odbywa się w ramach licznych procesów wymiany rynkowej, której cechą szczególną jest podstawowy Walrasowski aksjomat – o stanie równowagi rynkowej.
1. Mechaniczna ekonomia Leona Walrasa
Współczesne modele równowagi licznych ekonomistów tzw. głównego nurtu mają swoje
zakorzenienie w rachunku równań różniczkowych z klasycznej fizyki Newtona i matematyki Leibniza (z końca XVII wieku). Markiz Pierre Simone de Laplace w 1814 r. w swej
pracy Mécanique Céleste ogłosił, że „są to prawa mechaniki i tylko one rządzą wszelkimi
bytami w całym wszechświecie”. To wedle Laplace’a „całościowy zestaw równań różniczkowych opisujący system mechaniki jest tak liczny i rozległy, że tylko niezwykły umysł –
tzw. demon Laplace’a – byłby w stanie zebrać wszelkie dane równania i znaleźć odpowiednie rozwiązania”. Jednakże – powiada on z żalem – „tylko niedoskonałość ludzkiego
umysłu stoi na przeszkodzie stosowaniu praw mechaniki do poznania naszej przyszłości”
[cyt. według Georgescu-Roegen 1979, s. 320].
Leon Walras w 1874 r. w swym dziele Éléments d’économie politique pure – odrzucając
markiza uwagę o niedoskonałości ludzkiego umysłu – przemycił „demona Laplace’a” do
nauk ekonomicznych. W roku 1909 w swoim artykule Economie et Mécanique – nawiązując do tytułu pracy Laplace’a – Walras powiada, że: „Fakty matematyczne należy podzielić na dwie kategorie: fakty fizyczne będące przedmiotem nauk fizyko-matematycznych i fakty psychiczne będące przedmiotem nauk psychiczno-matematycznych.
1 W recenzji
Theory of Games and Economic Behavior Johna von Neumana i Oscara Morgernsterna
Hurwicz zwraca uwagę, że obaj autorzy nigdy nie podali dowodu na mierzalność funkcji użyteczności
[Hurwicz 1945, s. 910].
Dyskusje
357
Mechanika i astronomia należą do pierwszej kategorii; ekonomia należy do drugiej kategorii. (...) „Ekonomia ma ten sam tytuł do bycia nauką matematyczną jak mechanika
i astronomia”. Dalej czytamy w pracy Walrasa, że „Bogactwo społeczne to zbiór rzeczy,
które są jednocześnie użyteczne i ograniczone co do ilości, i które z tego względu są:
1° – zawłaszczalne, 2° – wartościowe i wymienialne, 3° – wytwarzane w wyniku ludzkiego
wysiłku. Z tych trzech faktów lub okoliczności druga cecha – a wiec wartość wymienna,
(...) jest niezaprzeczalnie faktem matematycznym. Ekonomia czysta, której przedmiot
analizy stanowi wartość wymienna jest nauką matematyczną. (...) Ekonomia czysta nie
będzie nauką fizyko-matematyczną; będzie nauką psychiczno-matematyczną. (...) Sposób
postępowania (ekonomii) jest dokładnie taki sam jak dwóch nauk fizyko-matematycznych o najwyższym stopniu zaawansowania i przez nikogo nie kwestionowanych: mechaniki i mechaniki ciał niebieskich” [Walras 1909, s. 313–325].
Dowodem słuszności dociekań Walrasa ma być pełna równoznaczność i zgodność
równań różniczkowych dotyczących zmian popytu i podaży oraz cen. Teoria równowagi
Walrasa jest teorią cen relatywnych stanowiących o równowadze popytu i podaży. Zbiór
równań wzajemnych relacji rzadkości i cen jest analogią równań różniczkowych z mechaniki fizycznej Newtona i mechaniki ciał niebieskich, co w jego opinii ma świadczyć o tym,
że „ekonomia ma ten sam tytuł do bycia nauką matematyczną jak mechanika i astronomia. Owe równania walrasowskiej równowagi – jak przez kalkę – odbijane są w większości prac współczesnych ekonomistów i przetwarzane na różne sposoby, także przez dzisiejszych laureatów lub kandydatów do Nagrody Nobla z ekonomii.
Henri Poincaré w 1901 r. pisał do Walrasa: „U samych początków każdej spekulacji
matematycznej znajdują się pewne hipotezy i żeby spekulacja ta była owocna, należy (...)
zdać sobie sprawę z tych hipotez. Kiedy zapomina się o tym warunku, przekracza się
dopuszczalne granice. (...). W Pana założeniach znajdować się będzie pewna liczba funkcji wybranych arbitralnie. Jeśli określi Pan te założenia, to będzie miał prawo wyciągać
z nich wnioski poprzez rachunek; jeżeli w tych wynikach nadal będą się znajdować funkcje arbitralne, wnioski te nie będą fałszywe, lecz pozbawione będą jakiegokolwiek znaczenia, gdyż będą podporządkowane arbitralnym założeniom poczynionym na samym
początku. I tak na przykład w mechanice ignoruje się często tarcie i przyjmuje się, że
ciało jest nieskończenie gładkie. Pan przyjmuje, że ludzie są nieskończenie egoistyczni
i nieskończenie przewidujący, „jasnowidzący”. O ile pierwsza hipoteza może być przyjęta w pierwszym przybliżeniu, o tyle co do drugiej odnosiłbym się z pewną rezerwą”
[Poincaré 1901]2 . Owe uwagi Poincaré’go Walras kwituje krótko w przypisie do swojego
tekstu w 1909 r. „(...) pan Poincaré nie będzie zakazywał nam uznawania naszych satysfakcji. Mówi, że Maxwell był przyzwyczajony „myśleć wektorowo”. Ale my jesteśmy przyzwyczajeni do „myślenia poprzez rzadkości”, które w szczególności są wektorami”
[Walras 1909, s. 10].
Tekst Walrasa jest interesujący z wielu względów.
Po pierwsze, orzeka explicte o zakresie ekonomii przez niego uprawianej – jest nią
„ekonomia czysta”, której przedmiot analizy stanowi wymiana. Jest to nauka matematyczna z szerokiej przestrzeni gospodarowania. Walras jednoznacznie odcina dwie pozostałe cechy bogactwa społecznego: zawłaszczanie (prawa własności stanowiące o podziale bogactwa – instytucje) i wytwarzanie (stanowiące o wzroście bogactwa – teoria wzrostu), uznając tylko wymianę za „czystą ekonomię”.
Po drugie – na co właśnie zwrócił uwagę Poincaré – Walras przekroczył granice stawiania hipotez, przyjmując, że ludzie są nieskończenie egoistyczni i nieskończenie prze2 List
od H. Poincaré z 1901 r. został przytoczony w cytowanym artykule Walresa [1909].
358
Dyskusje
widujący, „jasnowidzący”. Przekroczył ową granicę, o której wiedział Laplace, mając na
uwadze „niedoskonałość ludzkiego umysłu”. Można zasadnie powiedzieć, że Robert
Lucas Jr. za swoją teorię „racjonalnych oczekiwań” otrzymał w 1995 r. Nagrodę Nobla
z ekonomii, w dużej mierze korzystając z dorobku Leona Walrasa.
Po trzecie, zasadne jest twierdzenie, że – z dwóch pierwszych powodów – teoria czystej
ekonomii spełnia formułę „as if”. Jest czysta ekonomia jak gdyby czystą klasyczną fizyką.
I tak, za sprawą propozycji Walrasa z końca XIX wieku – współczesna ekonomia głównego
nurtu XX i XXI w. przypomina czystą klasyczną fizykę Newtona z końca XVII w.
Po czwarte – teoria wymiany Walrasa to taki szczególny przypadek procesów rynkowych, w których uczestnicy są w punkcie cen równowagi. Ceny równowagi wyznaczają
punkt, w którym żadna ze stron wymiany nic nie zyskuje, a też nic nie traci. Ponadto
rynkowa cena równowagi zawsze jest nie tylko datą zewnętrzną, czyli wielkością egzogeniczną, ale nadawana jest przez określony byt – auctioneura, który względem pozostałych
podmiotów, konsumentów i producentów odgrywa rolę „dyktatora”. Z ceną się nie dyskutuje. To sprawia, że Enrico Barone, który wprowadzając do rozważań równowagi rynkowej pojęcie „cen-cieni” – zastępuje działania auctioneura przez państwo. Tym śladem
podążał Oskar Lange, gdy prowadził swoją słynną dyskusję z Ludwigiem von Misesem,
dotyczącą racjonalnej gospodarki centralnie planowanej. Jest oczywiste, że jeżeli każda
cena jest ceną równowagi, to każda cena jest równocześnie „ceną-cieniem”. Jakby nie
podchodzić do walrasowskiej propozycji „czystej ekonomii”, ogólna teoria cen relatywnych jest to szczególny przypadek sytuacji, w której nikt nic nie traci i nic nie dostaje –
a zatem nie jest to teoria gospodarowania.
Idąc za ówczesnym „duchem czasu” (heglowskim Zeitgeist), Walras przyjął wraz z całym inwentarzem XVII-wieczną newtonowską rewolucję w fizyce, o której Karl Popper
pisał „Teoria Newtona była pierwszą w dziejach ludzkości, która odniosła prawdziwy
sukces (...) Determinizm fizyczny zapanował wśród ludzi oświeconych, a kto nie przyjmował nowej wiary, był uznawany za obskuranta i reakcjonistę” [Popper 2002, s. 253].
Walras – jak sądzę – nie chciał być uznawany za obskuranta i reakcjonistę, i podążając
z duchem czasu wmontował cały fizyczny determinizm w teorię wybiórczo pojmowanej
„czystej ekonomii”, pozostawiając zupełnie poza polem rozważań procesy wytwarzania
dóbr i usług przez producentów i spożycia dóbr i usług przez konsumentów. Wątpliwości
wyrażone przez Poincare’go nie stanowiły żadnego problemu w budowaniu przez Walrasa
swej „teorii czystej ekonomii”. Kończąc, wydaje mi się zasadne przywołanie opinii
Walrasa o tym, jaka jest funkcja wiedzy i nauki. Walras pisze: „Pareto wierzy, że celem
nauki jest stałe, sukcesywne przybliżanie się do rzeczywistości. Ja przede wszystkim wierzę, że ostatecznym celem wiedzy jest przybliżanie rzeczywistości do pewnego stanu idealnego. I to jest przyczyna, dla której formułuję ów stan idealny” [Walras 2000, s. 567].
W roku 1960 Israel M. Kirzner – uczeń Ludwiga von Misesa – zwrócił uwagę na tę
szczególną zmianę zakresu pojmowania ekonomii, pisząc, że w XIX w. „w definicji ekonomii politycznej dokonano zamiany o istotnym znaczeniu, nastąpiła substytucja rzeczownika „bogactwo” na rzeczownik czasownikowy „wymiana”. Przedmiotem badania
przestały być dobra jako zjawiska, a stały się operacje zachodzące miedzy dobrami”
[Kirzner 1976, s. 71]. W jego kolejnej pracy Konkurencja i przedsiębiorczość z 1973 r.
czytamy „(...) stan równowagi przedstawia sytuację, w której konkurencja nie odgrywa
czynnej roli. Atrofia procesu rynkowego charakterystyczna dla stanu równowagi jest zanikiem procesu konkurencji” [Kirzner 2010, s. 21].
Bezpośrednimi następcami Walrasa byli przedstawiciele „szkoły lozańskiej” – Vilfredo
Pareto i Enrico Barone. To Enrico Barone wprowadził do glosariusza ekonomicznego
formułę cen-cieni [Barone 1908, s. 272].
Dyskusje
359
W wieku XX Walras znalazł licznych kontynuatorów w głównym nurcie ekonomii
amerykańskiej. Pierwszymi byli Kenneth Arrow i Gerard Debreu – autorzy słynnego artykułu O istnieniu ogólnej równowagi rynkowej [Arrow, Debreu 1954], napisanego 80 lat
po ukazaniu się pracy Walrasa. Obaj zostali laureatami Nagrody Nobla w dziedzinie ekonomii. Następnie, 102 lata po publikacji dzieła Walrasa, Garry S. Becker w swojej pracy
Ekonomiczna teoria zachowań ludzkich [Becker 1990] stwierdził, że wszelkie ludzkie zachowania, rynkowe i nierynkowe, w gospodarstwie domowym bądź w firmie można opisać za pomocą walrasowskich równań równowagi rynkowej. Kolejnym przedstawicielem
głównego nurtu ekonomii – i laureatem Nagrody Nobla – jest Robert Lucas Jr., powtarzający za Walrasem (a przede wszystkim za amerykańskim ekonomistą Johnem
F. Muthem) formułę racjonalnych oczekiwań, która została poddana krytyce już w 1901 r.
przez Poincare’go w jego liście do Walrasa. Na końcu pozostaje Paul Romer, twórca tzw.
nowej ekonomii i autor endogenicznego modelu wzrostu. Żaden z przywołanych wyżej
ekonomistów nie sięgnął do znaczącego artykułu Arrowa z 1962 r. o uczeniu się poprzez
działanie [Arrow 1962], w którym po raz pierwszy znajdujemy próby opisania roli i funkcji kapitału ludzkiego (właśnie poprzez learning by doing). To Arrow w 1962 r., odwołując
się do Johna F. Mutha, przywrócił formułę racjonalnych oczekiwań, a nie Lucas dziesięć
lat później. Co więcej, w artykule tym Arrow dowodzi, że rozwiązania rynkowe oparte na
równowadze konkurencyjnej (competitive solution) są odmienne od społecznie optymalnych (socially optimal solution) [Arrow 1962, s. 155].
2. Dowód Arrowa i Debreu na istnienie równowagi rynkowej
Ściśle matematyczne rozważania na temat równowagi rynkowej rozpoczął pod koniec
XIX w. Leon Walras. Po nim rozważania te kontynuowali Vilfredo Pareto i Enrico Barone. W roku 1954 ostatecznych rozwiązań dostarczyli Kenneth J. Arrow i Gerard Debreu w swoim słynnym artykule O istnieniu równowagi w gospodarce konkurencyjnej [Arrow, Debreu 1954].
Arrow i Debreu piszą, że: „Walras pierwszy sformułował taki stan gospodarki, w którym istnieje takie rozwiązanie równoczesnych równań odpowiadających popytowi konsumentów na dobra i podaży dóbr dostarczanej przez producentów, które spełnia warunek
równowagi, w którym podaż jest równa popytowi na każdym rynku, w każdym punkcie
czasowym” [Arrow, Debreu 1954, s. 265].
Autorzy nie spodziewali się, że podświadomie w swym dowodzie na istnienie stanu
równowagi ogólnej udowadniają rzekomą prawdziwość „paradoksu strzały” Zenona
z Elei sprzed ponad 2000 lat, kwestionującego istnienie ruchu3.
Arrow i Debreu stwierdzają, że ów stan ogólnej równowagi może być osiągnięty wtedy i tylko wtedy, gdy „każdy konsument dąży do maksymalizacji swojej użyteczności,
a każdy producent dąży do maksymalizacji zysku, w warunkach wolnej konkurencji,
w której ceny płacone i uzyskiwane przez każdego producenta i konsumenta są od nich
niezależne”. Kontynuując swój wywód, autorzy stwierdzają, że „przy odpowiednich założeniach o preferencjach konsumentów i możliwościach producentów alokacja zasobów
w konkurencyjnej gospodarce jest optymalna w sensie Pareto (w której korzystny dla
3 Zgodnie z tym paradoksem strzała wystrzelona z łuku pokonała określony dowolny odcinek drogi.
Można więc powiedzieć, że w momencie wystrzelenia znajdowała się ona na początku tej trasy, a po dotarciu do celu – na końcu. Możemy sobie wyobrazić dowolną chwilę lotu, w którym strzała znajdowała się
w jakimś konkretnym punkcie, w konkretnej odległości od łucznika. Możemy więc powiedzieć, że skoro
w każdej chwili znajdowała się ona w jakimś konkretnym punkcie, to w każdej chwili była w spoczynku.
360
Dyskusje
jednostki rozdział dóbr i zasobów produkcyjnych nie pogarsza sytuacji żadnej innej osoby)” [Arrow, Debreu 1954, s. 265].
Arrow i Debreu konkludują, że „z punktu widzenia normatywnej ekonomii problem
istnienia równowagi konkurencyjnej gospodarki – jest podstawowy” [Arrow, Debreu
1954, s. 266]. Konkurencyjną gospodarkę rynkową charakteryzują następujące cechy:
11 każdy towar może być sprzedany i nabyty w każdym czasie i miejscu;
11 nie jest możliwe uzyskanie jakiejkolwiek produkcji bez pewnych nakładów;
11 do produkcji towarów niezbędna jest praca, której nie można wytworzyć w jednostkach produkcyjnych;
11 celem konsumpcji jest maksymalizacja użyteczności przy danych ograniczeniach budżetowych, przy czym koszt nabywanego koszyka dóbr konsumpcyjnych nie może
przekraczać posiadanego dochodu;
11 celem produkcji jest uzyskanie maksymalnego zysku przy danych cenach, a przy przyjętych warunkach ów cel jest tylko technicznym aspektem gospodarowania;
Aby w konkurencyjnej gospodarce rynkowej zaistniał stan ogólnej równowagi rynkowej, muszą być spełnione następujące warunki:
11 pierwotnie każdy uczestnik rynku dysponuje pewną nadwyżką towaru przeznaczonego do sprzedaży;
11 każdy pracownik występuje na rynku z podażą pracy, której krańcowa wydajność jest
większa od zera;
11 uzyskanie przez pracującego niezbędnej „wiązki towarów” nie może wymagać pracy
ponad 24 godziny na dobę;
11 każdy uczestnik rynku wchodzi na rynek z „wiązką towarów” wystarczającą na utrzymanie przez całe życie;
11 obowiązuje stała stopa zwrotu (stałe przychody ze skali).
Arrow i Debreu definiują model abstrakcyjnej gospodarki, „w której punkty równowagi zachowują wszystkie właściwości stanu równowagi konkurencyjnej. Uczestniczy w niej
liczba m + n + 1 podmiotów, gdzie; m – to gospodarstwa domowe, n – jednostki produkcyjne, 1 – fikcyjny byt, który określa ceny i może być nazwany uczestnikiem rynku” [Arrow,
Debreu 1954, s. 274]. Należy podkreślić fakt, iż w owej abstrakcyjnej gospodarce procesy
rynkowe są wyznaczane nie przez producentów i konsumentów, lecz przez taki szczególny
byt zewnętrzny, który wyznacza ceny równowagi. A ów stan równowagi – powiadają autorzy – w konkurencyjnej gospodarce jest tylko technicznym aspektem gospodarowania.
W tej sytuacji każde ceny wyznaczone przez „zewnętrznego uczestnika rynku” będą cenami
równowagi – albowiem do każdych relacji cen można dostosować odpowiednie relacje
kosztów krańcowych. Stąd też wyprowadzana jest oczywista tautologia, wedle której stan
równowagi jest stanem zrównywania się kosztów krańcowych z ceną, a cena wyznacza koszty krańcowe. To sprawia, że ceny traktuje się jako substytut kosztów krańcowych.
Autorzy podkreślają, że ich dowód na istnienie stanu ogólnej równowagi nie obejmuje takich gospodarek, w których „gdy płaca realna zmierza do zera, to podaż pracy nie
zmniejsza się do zera, (...) lecz przeciwnie, gdy dochód realny spada, konieczność zaspokojenia podstawowych potrzeb wywołuje rosnącą potrzebę wzrostu podaży pracy; (...)
w tym przypadku nie wystąpi stan równowagi” [Arrow, Debreu 1954, s. 275]. Wyłączenie
z rozważań takich gospodarek agrarnych, słabo rozwiniętych, w których podaż pracy ma
charakter akoniukturalny – rośnie, gdy cena pracy spada, i maleje, gdy cena pracy rośnie
– wskazuje, że istnieją takie sposoby gospodarowania, które nie poddają się analizie
walrasowskiej równowagi rynkowej.
Owe akoniukturalne zachowania, ze szczególnym zdziwieniem zaobserwowali
Parente i Prescott [1999, s. 72–73] w górnictwie amerykańskim w latach 1949–1994. Nie
Dyskusje
361
znajdowali oni żadnego „racjonalnego” wytłumaczenia takich zachowań ludzkich, kiedy wzrostowi cen węgla na rynku amerykańskim odpowiadał spadek wydajności pracy,
i przeciwnie – spadkowi cen węgla odpowiadał wzrost wydajności. Owe zachowania
w żadnym stopniu nie pasują do modeli równowagi rynkowej. Autorzy tłumaczyli to
niecnymi knowaniami górniczych związków zawodowych. Tymczasem mamy tu do czynienia przez ponad pół wieku z zachowaniami wytwórców, które uznać należy za w pełni racjonalne – w świetle ich własnych celów, które Herbert Simon i Harvey Lebenstein,
zgodnie ze swą formułą ograniczonej racjonalności, nazwaliby „wystarczającymi”,
a które w świetle neoklasycznej teorii równowagi nie poddają się żadnej „racjonalnej”
ocenie.
Arrow i Debreu wyłączyli z zakresu swojej teorii ogólnej równowagi rynkowej również taki system gospodarczy, „w którym praca wymaga pośrednio lub bezpośrednio
pewnych czynników komplementarnych (tymi komplementarnymi zasobami może być
ziemia, surowce lub wyposażenie w majątek trwały). W tych przypadkach uzyskanie równowagi nie jest możliwe” [Arrow, Debreu 1954, s. 281]. Jest to niezwykle ważne stwierdzenie: żadne procesy komplementarne nie występują w gospodarkach opisywanych
przez formułę ogólnej równowagi rynkowej. Nawiązując do wcześniejszej dyskusji o stanie równowagi ogólnej, obaj autorzy odwołują się do opinii Cassela, zgodnie z którą
równowagę tę wyznaczają cztery podstawowe zasady: „1) popyt na każde dobro finalne
jest funkcją cen wszystkich dóbr finalnych, 2) producenci otrzymują zyski o wartości zero,
3) techniczne współczynniki produkcji pierwotnych wyrażające zużycie zasobów w produkcji dóbr finalnych są stałe, 4) występuje zrównanie popytu i podaży na wszystkich
rynkach” [Arrow, Debreu 1954, s. 287].
W owej abstrakcyjnej gospodarce, w której spełnione są równocześnie wszystkie założone warunki funkcjonowania podmiotów – producentów i konsumentów, gdzie
uczestnicy konkurencyjnej gospodarki dążą do realizacji swych celów – maksymalizacji
zysku lub/i maksymalizacji użyteczności, dowodzenie istnienia stanu ogólnej równowagi
ogranicza się do zastosowania odpowiednich procedur czystej matematyki – rachunku
różniczkowego w odniesieniu do trzech kategorii: cen, dochodów i kosztów krańcowych.
Należy jednak zwrócić uwagę, że Arrow i Debreu – w przeciwieństwie do Walrasa – dostrzegają takie rodzaje procesów gospodarowania, których abstrakcyjny model gospodarki znajdującej się w stanie równowagi nie dotyczy: nie dotyczy on mianowicie wszelkich
procesów komplementarnych, oraz – co bardzo istotne – gospodarek, w których przy
spadku dochodów realnych rośnie podaż pracy.
Nicolas Georgescu-Roegen był pierwszym i bodajże jedynym ekonomistą, który zakwestionował jedno z podstawowych założeń modelu ogólnej równowagi Arrowa–
Debreu. Stwierdził on, że nie ma żadnego uzasadnienia założenie, iż każdy wchodzi na
rynek ze swoją „wiązką towarów” wystarczającą na utrzymanie jednostki przez całe życie. Jest to założenie z gruntu fałszywe, tym bardziej że sami autorzy zwracają uwagę na
sytuację, w której w celu utrzymania się przy życiu – przy malejących dochodach –
zwiększa się podaż pracy w celu zaspokojenia niezbędnych podstawowych potrzeb, i nie
można w tym przypadku znaleźć jakiegokolwiek punktu równowagi. Ponadto, jeżeli każdy człowiek dysponuje „wiązką towarów” wystarczającą na utrzymanie na całe życie, to
jaka przyczyna sprawiałaby, że każdy jest zmuszony uczestniczyć w procesie gospodarowania?
Ponieważ ceny ogólnej równowagi są zawsze nadawane z zewnątrz, przez szczególny
podmiot zwany „uczestnikiem rynku (auctioneur), stąd też w dalszych modelach równowagi konstruowanych przez wielu ekonomistów występuje „planista” (planner). W literaturze można znaleźć wiele odwołań do koncepcji Romera „utylitarnego planisty społecz-
362
Dyskusje
nego” (utilitarian social planner)4. Można zasadnie domniemywać, że Romer i inni współwyznawcy walrasowskiej koncepcji równowagi nie wyczuwają szczególnego dysonansu
poznawczego, gdy w odniesieniu do doskonale konkurencyjnej gospodarki odwołują się
do takiego szczególnego bytu „planisty społecznego”. Co więcej, jest to również szczególne świadectwo, że w dyskusji z von Misesem nad racjonalnością gospodarki centralnie
planowanej prowadzonej w 1936 r., to Oskar Lange miał rację5. Albo inaczej, spór między Misesem i Langem jest nierozstrzygalny ze względów aksjologicznych – ów dyskurs
toczy się na dwóch różnych płaszczyznach, które nie mają punktów stycznych. Albowiem
nic nie łączy „szkoły austriackiej” von Misesa, z „czystą ekonomią wymiany” Walrasa,
Barone i Langego.
3. Marksistowska aksjologia teorii zachowań ludzkich Beckera
W roku 1992 Gary Stanley Becker, profesor ekonomii Uniwersytetu w Chicago, otrzymał
Nagrodę Nobla w dziedzinie ekonomii za „rozszerzenie zakresu analizy mikroekonomicznej na szeroki zakres ludzkich zachowań i interakcji, włączając zachowania pozarynkowe”. W roku 1993 w rozmowie z redakcją „Religion & Liberty”, pisma afiliowanego
przy Acton Institute, G.S. Becker mówił: „Tematem mojego wykładu noblowskiego –
opartego na pracy mojego życia – było stwierdzenie, że należy rozszerzyć horyzonty ekonomii. Ekonomista nie może mówić tylko o popycie na samochody, ale również musi
zająć się takimi sprawami jak rodzina, dyskryminacja, religia, przesądy, wina i miłość.
Ekonomiści tradycyjnie nie poświęcali wiele uwagi tym obszarom wiedzy. I w tym sensie
to jest prawda – jestem ekonomicznym imperialistą. (...) Mój imperializm ekonomiczny
nie ma nic wspólnego z prymitywnym materializmem lub poglądem, że status materialny
stanowi o wartości człowieka, który to pogląd jest bardziej bliski marksistowskiej analizie” [Becker 1993].
To Becker podpowiedział mi tytuł tej części tekstu. Gdyby nie jego odwołanie do
marksizmu – a uczynił to już w przedmowie do swojego dzieła życia Economic Approach
to Human Behavior w 1976 r. – nigdy nie przyszłoby mi do głowy porównanie ekonomicznej teorii noblisty z Chicago z Karolem Marksem i jego dziedzictwem ideologicznym.
Mam tę szczególną przewagę nad Beckerem, że – w przeciwieństwie do niego – idee
Marksa znam nie tylko z teorii, którą Becker zna słabo, ale przede wszystkim z doświadczenia – czego Becker na pewno nie doświadczył. Oczywiście można mi zarzucić, że
kieruje mną zawiść i czysty empiryzm.
Jedno jest pewne, tak jak teoria ekonomiczna G.S. Beckera zagarnęła wszelkie dziedziny życia ludzkiego – za co dostał on Nobla – tak też teoria ekonomiczna K. Marksa,
wymyślona ponad 120 lat przez Beckerem, również dotyczyła wszelkich dziedzin życia
ludzkiego. To co jest wspólne obu tym teoriom – to właśnie ów „imperializm ekonomiczny”. Tylko Marks mówił bardziej szczerze i wprost, że światem rządzi „wilcza żądza zysku”, że „byt określa świadomość”, a „baza kształtuje nadbudowę” . Marksistowska walka o byt, która jest rdzeniem historycznego determinizmu i walki klas: walki nieposiada4 Zob. np. Elmendorf, Mankiw [1998, s. 72]. Odwołanie do planisty centralnego znajdziemy w licznych
tekstach E. Prescotta.
5 Rosen – 60 lat po dyskusji Oskara Langego z Ludwigiem von Misesem jasno stwierdza, że „przy
danych technologiach i gustach, jeżeli utrzymane są warunki teorii dobrobytu, odpowiedź uzyskujemy bezpośrednio z danych bez badania indywidualnych decyzji maksymalizujących – i tym samym »problem planowania centralnego« jest ekwiwalentny do rozwiązań rynkowych” [Rosen 1997, s. 10].
Dyskusje
363
jących własności przeciwko tym, którzy tę własność posiadają – jest tylko banalną
konsekwencja wszechograniczającego determinizmu ekonomicznego.
Do każdej maszynki do mięsa niezbędny jest wkład („egzogeniczny wsad”) i to teoria
ekonomicznych zachowań ludzkich G.S. Beckera dostarcza nam takiego wkładu. Ów
wkład traktuję zatem jako szczególną beckerowską aksjologię6. Naczelną wartością
wszelkich bytów gospodarujących jest – zdaniem Beckera – maksymalizacja. Każdy człowiek, każde indywiduum, każdy podmiot gospodarczy (gospodarstwo domowe lub firma), jest bytem maksymalizującym użyteczność lub zysk. Użyteczność i zysk są w tym
podejściu tożsame. Becker wyróżnia użyteczność dochodu pieniężnego, użyteczność psychiczną, użyteczność rynkową, użyteczność nierynkową itp. Jest charakterystyczne, że
teoria zachowań ludzkich odwołuje się do wielkich kwantyfikatorów, co nie powinno
zbytnio dziwić – bo tak też postępował Walras na długo przed Beckerem.
Będę się zatem starał wykazać, że „imperializm ekonomiczny” Beckera ma bardzo
wiele wspólnego z prymitywnym materializmem Marksa. Więcej, beckerowska neoklasyczna wizja świata, zapewniająca nas o tym, „że podejście ekonomiczne daje się stosować do wszelkich w ogóle zachowań ludzkich” [Becker 1990, s. 27], w pełni potwierdza
marksistowską formułę, że „byt określa świadomość”.
Becker odżegnuje się od tak prymitywnych materialistycznych uzasadnień, gdy pisze
w swej pracy: „Marks i jego kontynuatorzy stosowali podejście ogólnie zwane »ekonomicznym« zarówno do polityki, małżeństwa i innych dziedzin pozarynkowych, jak i do
zachowań rynkowych (...) to, co ja nazwałem »podejściem ekonomicznym«, niewiele ma
wspólnego z tym stanowiskiem” [Becker 1990, s. 28] . Jednak wbrew tym zastrzeżeniom
determinizm ekonomiczny Beckera objaśniany w neoklasycznym języku XIX-wiecznych
równań Walrasa w pełni współgra z XIX-wiecznym determinizmem historycznym
Marksa. Do teorii Marksa z powodzeniem można odnieść sformułowanie Beckera, że
„podejście ekonomiczne nie zakłada, iż jednostki decyzyjne muszą koniecznie mieć świadomość własnych dążeń maksymalizacyjnych, ani, że mogą (...) zrozumiale opisać przyczyny powtarzających się systematycznie prawidłowości własnego zachowania” [Becker
1993].
Teorie Beckera, dotyczące ekonomicznych zachowań w odniesieniu do długości własnego życia, liczby posiadanego potomstwa, małżeństwa, religii, prawa i wyboru różnych
idei, przedstawione w jego Ekonomicznej teorii zachowań ludzkich, w pełni potwierdzają
marksistowską formułę iż „byt określa świadomość”, czego szczególnym i krańcowym
przypadkiem są następujące słowa Beckera: „Podejście ekonomiczne prowadzi do wniosku, że istnieje jakaś »optymalna«, oczekiwana długość życia wyznaczona przez moment,
w którym użyteczność dodatkowego roku życia jest oceniana niżej od użyteczności, z której trzeba zrezygnować, poświęcając i czas, i inne zasoby na zapewnienie sobie tego dodatkowego roku (...) Zgodnie z podejściem ekonomicznym większość zgonów (jeżeli nie
wszystkie) jest w jakiejś mierze samobójcza (...). Ujęcie takie (...) skłania do zakwestionowania słuszności normalnie stosowanego rozróżnienia między samobójstwami a zgonami naturalnymi” [Becker 1990, s. 30]. Na tak ostateczne określenie ekonomicznego
determinizmu nawet Marks się nie zdobył.
6 Według Słownika języka polskiego aksjologia to nauka o wartościach, zajmująca się badaniem natury
wartości, podstawami i kryteriami wartościowania; także określona teoria wartości. Odwołuję się do aksjologii – filozoficznych teorii wartości dlatego, że wartości się nie uzasadnia, nie objaśnia (w ekonomii wartości przyjmuje się jako dane, których się nie uzasadnia). W epistemologii wartości wymagałyby uzasadnienia, musielibyśmy odpowiadać na pytania dlaczego przyjmujemy takie, a nie inne wartości [Słownik... 1978,
s. 24].
364
Dyskusje
Jeżeli uzasadnieniem XX-wiecznej teorii ekonomii są mechanistyczne równania klasycznej fizyki Newtona z XVII w., to jest oczywiste, że zachowania bytów, już nie tylko
gospodarczych, ale i społecznych, przedsiębiorców i konsumentów, rodzin i partii politycznych trzeba „dopasować” do bytów fizyki sprzed 300 laty. Becker powiada, że „mianem zachowań irracjonalnych określa się wszystkie dewiacje od reguły maksymalizacji
użyteczności; tutaj nie ma potrzeby formułowania precyzyjniejszej lub filozoficznej definicji” [Becker 1990, s. 291, przypis 6]7. Inaczej mówiąc – wedle becekrowskiej teorii
wartości (aksjologii) – każda osoba ludzka zawsze działa racjonalne z jedną i tylko jedną
formułą racjonalności, którą jest maksymalizacja użyteczności. Inaczej mówiąc, beckerowska „użyteczność” jest takim szczególnym przypadkiem czarnej dziury, która wsysa
wszystko co istnieje: „wszystkie decyzje o alokacji »pozarynkowego« czasu konsumenta,
wyboru religii, partnera w małżeństwie, liczebności rodziny, rozwodu, przynależności do
partii politycznej lub przyjętego stylu życia” [Becker 1990, s. 235].
Teoria wszelkich zachowań ludzkich Beckera opiera się na trzech głównych aksjomatach, dotyczących „użyteczności” jako takiej.
Pierwszym założeniem jest przyjęcie, że „gospodarstwa domowe są zarówno jednostkami produkcyjnymi, jak i maksymalizującymi użyteczność” [Becker 1990, s. 166]. Becker
twierdzi, że nic nie różni gospodarstwa domowego od firmy czy wręcz „małej fabryki”,
o czym świadczyć ma fakt, iż „przeniesienie czynności golenia z zakładów fryzyjskich do
gospodarstw domowych ilustruje, w jaki sposób i dlaczego gospodarstwa domowe nawet
w miastach stały się »małymi fabrykami»” [Becker 1990, s. 206, przypis 38]. Ta szczególna procedura badawcza – czysty empiryzm – Beckera jest mu potrzebna tylko dlatego,
żeby wykazać, że wszyscy jesteśmy „gospodarstwami domowymi – firmami” i nie istnieje
żadna różnica między maksymalizacją zysku i maksymalizacją użyteczności. Przywołany
przykład pozwala na drobny komentarz. Można sądzić, że rzeczywiście gospodarstwo
domowe dokonuje racjonalnego wyboru, rezygnując z droższych usług zakładów fryzjerskich na rzecz znacznie tańszej samoobsługi we własnym domu. Nikogo nie trzeba zbytnio przekonywać, że kupowane usługi są zawsze droższe od „samoobsługi”. Ów wybór
ekonomiczny nie jest jednak żadnym świadectwem przenoszenia produkcji od producentów do konsumentów. Konsument nie jest producentem, jest tylko racjonalnym konsumentem wybierającym „tańsze rozwiązanie”.
Po drugie, Becker uważa, że jedynym bilansowym warunkiem ograniczającym wielkość
zasobów gospodarstwa domowego jest „wielkość dochodów pieniężnych, które by osiągnięto, gdyby cały czas poświęcono na pracę zarobkową (...) wielkość zasobów jest z założenia równa wielkości maksymalnego, możliwego do osiągnięcia dochodu pieniężnego”
[Becker 1990, s. 169]. I dalej czytamy, „czysty” wzrost zarobków zwiększa liczbę godzin
pracy, a koszt dobra nazwanego „czasem wolnym” obejmuje wyłącznie utracone zarobki
[Becker 1990, s. 170]. Oznacza to, że gospodarstwo domowe jest nie tylko fabryką, ale jest
fabryką pracującą w „ruchu ciągłym”. Żadna fabryka nie pracuje w ruchu ciągłym, może
poza przypadkiem elektrowni, ponieważ energii nie można magazynować.
Po trzecie, z obu poprzednich założeń wynika – wbrew zastrzeżeniom Arrowa
i Debreu o tym, że pracy nie wytwarza się w fabrykach – że w beckerowskim „gospodarstwie domowym-fabryce” liczba dzieci jest – jak wszelkie środki trwałe – pochodną dochodów i kosztów, albowiem „dzieci stanowią zarówno trwałe dobro konsumpcyjne, jak
i produkcyjne (...) teoria popytu na dobra trwałe konsumpcyjne dostarcza struktur logicznych przydatnych do analizowania popytu na potomstwo” [Becker 1990, s. 300]. I to
7 Warto zwrócić uwagę, że najbardziej istotne dla teorii Beckera założenia i twierdzenia o zachowaniach ludzkich znajdujemy w przypisach zamieszczonych w książce, a nie w treści wywodu.
Dyskusje
365
sprawia, że – zdaniem Beckera – jest nie tylko możliwe, ale i zasadne „włączenie »popytu« na dzieci w ramy dobrze rozwiniętej teorii ekonomicznej” [Becker 1990, s. 300].
Wedle Beckera pojęcie użyteczności jest bardzo szerokie: mamy użyteczność rynkową,
dochodową pieniężną i mamy użyteczność nierynkową, „użyteczność psychiczną” itp.
Wszystko zaś daje się wycenić za pomocą ceny rynkowej, a jak nie ma rynku – to za pomocą nierynkowych „cen-cieni”.
Nikt nie wie na dobre, co to jest użyteczność. Jest to taka szczególna „czarna skrzynka”, o której w 1962 r. Joan Robinson pisała: „użyteczność jest jakością towarów, która
sprawia, że ludzie chcą je kupować, a fakt, że ludzie chcą je kupować wskazuje, że mają
one swoją użyteczność” [Robinson 1996, s. 120]. Na pierwszy rzut oka widać, że mamy tu
do czynienia z błędnym kołem definicji ignotum per ignotum. Co więcej, w 1951 r. Arrow
wykazał, że „możemy sobie wyobrazić osobę ustalającą listę, raz na zawsze, obejmującą
wszystkie wyobrażalne konsekwencje wyborów swoich preferencji, mając pełną informację dostępnych alternatyw, spośród których wybiera te, które znajdują się na najwyższym
miejscu listy” [Arrow 1951, s. 135]8. Arrow kontynuuje, że jest „logicznie możliwe, że
dana osoba może preferować A nad B, B nad C i C nad A” [Arrow 1951, s. 136]9. Mamy
zatem do czynienia nie tylko z definicją ignotum per ignotum, ale z dostępnym wyborem
– w ramach circulus vitious – błędnego koła preferencji.
Tjalling C. Koopmans w 1974 r. zawracił uwagę na pewne szczególne niebezpieczeństwo: „Jednostki gospodarcze nieustannie dążą do uzyskania optymalnych wyników przy
odpowiednich cenach, które są im znane. Ale te same ceny w jakimś stopniu są wynikiem
działań owych podmiotów. W opisie owych zdarzeń mamy zatem do czynienia z błędnym
kołem” [Koopmans 1974, s. 327]. Jakkolwiek ową uwagę autor czyni na marginesie, to
powiada, że stwarza to pewne trudności interpretacyjne w uznaniu teorii równowagi konkurencyjnej jako najlepszej teorii ekonomicznej.
Najlepszy komentarz do wszechogarniającej aksjologicznej teorii ekonomicznych zachowań ludzkich Beckera znajduję w przedmowie Harveya Leibensteina do jego książki
Poza schematem homo oeconomicus, w której pisze on: „Są dwa podstawowe sposoby
interpretacji postulatu maksymalizacji: „oparty na faktach” i „tautologiczny” (...)
Typowym przykładem argumentacji tautologicznej jest twierdzenie, że jeśli firma nie
maksymalizuje zysków, to maksymalizuje łączną użyteczność zysków oraz czasu wolnego;
jeśli nie są to zyski w połączeniu z czasem wolnym, to wprowadza się jakiś trzeci cel i tak
dalej, ad infinitum. Zasadniczym argumentem zwolennika interpretacji tautologicznej
jest to, że jednostka maksymalizuje zawsze, choć nie zawsze wszystkie jej cele są na
pierwszy rzut oka oczywiste” [Leibenstein 1988, s. 9].
Leibenstein najlepiej ocenił aksjologię Beckera, aksjologię, która oznacza, że do modelu równowagi – jak do maszynki do mięsa – możemy włożyć wszystko, łącznie z naszym
bytem osobowym, bez względu na to, czy mamy tego świadomość, czy też nie. Wedle
Beckera nie ma takich zachowań ludzkich, których nie dałoby się przepuścić przez model
walrasowskiej równowagi rynkowej. Herbert Simon w jednym ze swoich tekstów nadał
temu nazwę Humpty-Dumpty Theory. Rzeczywiście jest to teoria „Wańki-Wstańki”, wedle
8 To
sformułowanie – jak zaznacza Arrow – przypisywane Vilfredowi Pareto.
ten sam problem zwraca uwagę polski matematyk S. Ulam [1996, s. 120]. We wspomnieniach
matematyka szkoły lwowskiej czytamy: „Próbowałem ustalić, że gruszka jest lepsza od jabłka, które jest
lepsze od śliwki, która znów jest lepsza od pomarańczy, aż ku swojemu zdumieniu odkryłem, że ta relacja
nie jest tranzytywna (...) wpadłem w zaklęty krąg, co mnie wtedy zmieszało” [Ulam 1996, s. 120]. Ponadto
wiemy od czasów markiza de Condorceta – na długo wcześniej od teorii preferencji Pareto – że występują
sytuacje, w których dokonywane wybory są nierozstrzygalne – bowiem są cykliczne, czyli zamykają się
w błędnym kole.
9 Na
366
Dyskusje
której figura Wańki zawsze osiąga stan równowagi poprzez umieszczenie punktu ciężkości w odpowiednim miejscu.
Przyjęta przez Beckera aksjologia konsekwentnie narzuca określone podejście epistemologiczne10. Zresztą, co będę się starał wykazać, mamy tu do czynienia ze szczególnym
przypadkiem, w którym epistemologia traktująca o procesach i sposobach ludzkiego poznania w sposób jednoznaczny narzuca pewną szczególną aksjologię, od której żaden
podmiot gospodarujący nie jest w stanie się uwolnić. Możemy wyodrębnić cechy szczególne procesu poznawczego, które są wspólne i charakterystyczne zarówno dla teorii
Marksa, jak i Beckera. Są one następujące:
1. Obie wizje są w pełni deterministyczne – tak jest, bo tak być musi zgodnie z heglowskim „duchem czasu” – i zgodnie z determinizmem mechanistycznym klasycznej
fizyki Newtona.
2. Wspólna wizja świata – materialistyczne i/lub ekonomiczne pojmowanie dziejów –
wizja powszechna i wszechobecna, dotyczącego każdego miejsca i czasu.
3. Obie teorie ekonomiczne – Marksa i Beckera – łączy szczególnego rodzaju podejście
monistyczne w traktowaniu zarówno przyczyn, jak i celów działalności ludzkiej. Obie
teorie niczym nie różnią się od panujących religii, z których każda z nich jest równie
monistyczna i „jedynie słuszna”.
4. Imperializm poznawczy – wspólny obu autorom – sprawia, że według nich nie istnieją
żadne inne, alternatywne wizje dziejów świata, gospodarek i zachowań ludzkich.
Wymienione szczególne cechy procesu poznawczego – determinizm, redukcjonizm,
monizm – sprawiają, że imperializm poznawczy obu teorii prowadzi nas na manowce.
Zderzenie obu teorii – Marksa i Beckera – z rzeczywistością stawia ich autorów w sytuacji szczególnego dysonansu poznawczego.
4. Epistemologia teorii Beckera
Techniki badań zachowań ludzkich, które zaproponował G.S. Becker, opierają się na
następujących filarach. Są to założenia (aksjomaty) stanowiące, że jeżeli:
1) racjonalnym działaniem każdej jednostki gospodarczej (gospodarstwa domowego lub
przedsiębiorstwa) jest dążenie do maksymalizacji użyteczności,
2) preferencje są stałe i niezależne od miejsca i czasu, dotyczą ludzi bogatych i ubogich,
a nawet należących do różnych społeczeństw i kręgów kulturowych i obejmują fundamentalne aspekty życia: zdrowie, prestiż, zadowolenie, życzliwość i zawiść,
3) ceny – czy to wyrażone w pieniądzu ceny w sektorze rynkowym, czy to „ceny-cienie”
przypisywane sektorowi nierynkowemu – są miarą „kosztu zaniechanych możliwości”,
a podejście ekonomiczne przewiduje ten sam typ reakcji zarówno na „ceny-cienie”,
jak i na ceny rynkowe,
4) rynki konkurencyjne zaspokajają preferencje konsumentów w taki sposób, że ich
zachowania stają się wzajemnie spójne,
5) w warunkach równowagi rynkowej żadne przedsiębiorstwo nie osiąga zysków, chociaż
każde z nich może kierować się pragnieniem ich uzyskania,
to wynikające z tych założeń równania równowagi odkrywają – według autora – „ekonomiczną prawdę”, inaczej mówiąc są „ekonomiczną teorią poznania”.
10 Według Słownika języka polskiego epistemologia to: 1) dział filozofii traktujący o przedmiocie, treści,
procesach, sposobach, granicach i kryteriach poznania ludzkiego; teoria poznania; 2) teoria wiedzy naukowej, dyscyplina zajmująca miejsce pośrednie między ogólną teorią poznania a naukami szczegółowymi,
rzadziej „naukoznawstwo” [Słownik... 1978, t. I, s. 550].
Dyskusje
367
Oczywiście nie jest winą Walrasa, że Becker nie tylko odziedziczył cały jego dorobek, ale „twórczo go rozwinął” i wniósł swój własny wkład, doprowadzając teorię równowagi rynkowej do absurdu, twierdząc wprost, że byty nierynkowe są rynkowe.
Naczelna idea teorii Beckera, głosząca, że wszelkie zachowania są wyznaczone przez
wymianę rynkową, pozwala wrzucić wszystko co się da do owej maszynki równowagi
rynkowej.
Pośród kolejnych naśladowców tej koncepcji należy wymienić Roberta Lucasa Jr.,
laureata Nagrody Nobla za tzw. racjonalne oczekiwania. To u Lucasa znajdujemy sformułowanie: „Używam pojęcia »teoria« w bardzo ograniczonym znaczeniu, odnosząc je
do pewnego prostego systemu mechanicznego, który działa po wprowadzeniu go do
komputera. Tak właśnie rozumiem »mechanikę« rozwoju gospodarczego; jest to
w moim rozumieniu budowanie sztucznego świata, zaludnionego przez współdziałające
ze sobą roboty, jakimi normalnie zajmują się ekonomiści, umożliwiającego pokazanie
podstawowych właściwości rzeczywistego świata, tego, który właśnie opisuję” [Lucas
1988, s. 5]. Lucas wcale nie tworzy teorii robotów; tworzy teorię „programu komputera”, który robotom zadaje określone zachowania. Pamiętamy, jak radziecki szachista
Kasparow przegrał w szachy z komputerem IBM. Wygrał „demon Laplace’a” – dlatego, że program komputera był doskonalszy od ludzkiego umysłu. Lucas nie zdaje sobie
sprawy, że „współdziałające ze sobą roboty” – wbrew jego intencji – nie pokazują podstawowych właściwości rzeczywistego świata, a odzwierciedlają tylko program komputera – dyktatora (social planner), który nie daje żadnego wyboru i nakazuje im współdziałać w jednoznacznie określony sposób. Podobne podejście odnajdujemy w pracach
Paula Romera, twórcy, tzw. endogenicznego modelu wzrostu.
Z punktu widzenia dobrych pod względem technicznym modeli równowagi gospodarki
jest zupełnie obojętne co się do nich wkłada. Co więcej, do tej „maszynki” wrzucamy różnorodne podmioty, w odniesieniu do których używamy określenia „heterogeniczne”, po to
tylko, żeby w wyniku „zmielenia” za pomocą różnych zmiennych i przekształceń matematycznych uzyskać zupełnie nowy „homogeniczny” byt pod nazwą „reprezentacyjny podmiot
gospodarczy”. Bardzo dobrze opisują to w swoim artykule dwaj ekonomiści japońscy:
Masanao Aoki i Hiroshi Yoshikawa. Piszą oni: „Jakkolwiek na pozór heterogoniczne jednostki, firmy lub sektory – wprowadzone do modelu stają się w rzeczy samej homogeniczne
w tym rozumieniu, że stoją wobec wydarzeń, których doświadczają, z tym samym niezmiennym prawdopodobieństwem. Zarówno Microsoft, jak i mały uliczny sklepik spożywczy staje
wobec specyficznych mikroszoków, które nadchodzą z tym samym rozkładem prawdopodobieństwa” [Aoki, Yoshikawa 2010, s. 10]11. Za pomocą owych modeli początkowo heterogeniczne podmioty przekształcają się w byty homogeniczne, co ma – za pośrednictwem licznych modeli równowagi – pozwalać przedstawicielom głównego nurtu ekonomii tworzyć
modele makroekonomiczne oparte na mikroekonomii (micro-founded macroeconomics models). Homogeniczne podmioty gospodarcze generują homogeniczne efekty – użyteczność,
która jest tożsama z zyskiem. K.J. Arrow [1986, s. 389] w swym artykule z 1986 r. pisze, że
byty idealnie takie same nie prowadzą między sobą wymany, gdyż nie mają czego między
sobą wymieniać, ponieważ dysponują tymi samymi jednorodnymi wartościami.
W owej konstrukcji teorii-narzędzi szczególna rola przypada dwóm pojęciom.
Przedmiotem badania zachowań ekonomicznych jest maksymalizacja – użyteczności/zysku.
Narzędziem pomiaru jest cena, rozpatrywana w dwóch postaciach: w procesach wymiany –
cena rynkowa, a w pozostałych procesach – cena dualna zwana także ceną-cieniem. Cena11 Autorzy przywołanego tekstu dowodzą, że nie da się zhomogenizować heterogenicznych bytów, dlatego
że doświadczają one licznych zdarzeń zewnętrznych z różnym stopniem prawdopodobieństwa i – według
autorów – nie jest możliwe przyjęcie stałego, niezmiennego prawdopodobieństwa.
368
Dyskusje
cień to byt stricte wirtualny, dzięki któremu w każdym przypadku – działań rynkowych i nierynkowych – mamy do czynienia ze stanem „równowagi rynkowej”. A jak powiada R.E. Lucas Jr.
w rozmowie ze B. Snowdonem i H.R. Vanem, „stan równowagi rynkowej jest właściwością
sposobu, w jaki patrzymy na świat, nie zaś cechą rzeczywistości” [Snowdon 2003, s. 210]. Ów
sposób oglądu świata służy temu – jak dalej kontynuuje Lucas – żeby wykazać słuszność
„przekonania o konieczności podejmowania prób zmierzających do opracowania jednego
neoklasycznego modelu, który wyjaśniałby zjawisko wzrostu gospodarczego zarówno w bogatych, jak i biednych krajach. Pozostaje to w sprzeczności z panującym w latach sześćdziesiątych poglądem, zgodnie z którym jedna teoria wyjaśniać miała wzrost gospodarczy w krajach wysoko rozwiniętych, a inna w krajach Trzeciego Świata” [Snowdon 2003, s. 220].
Stoimy zatem wobec przedziwnej procedury badawczej, wedle której „aksjomaty
techniczne” – liniowe równania Eulera-Lagrange’a – nie tylko kreują, ale są konstytutywne w tworzeniu szczególnego typu aksjologii zachowań ekonomicznych i oglądu świata
przez pryzmat modeli równowagi.
5. „Bóg sprowadził na ziemię makroekonomistów nie po to,
żeby tworzyli eleganckie teorie, ale żeby rozwiązywali
praktyczne problemy” (N.G. Mankiw)
Pojawia się zatem pytanie, co to jest „czysta ekonomia”? – podstawowe pojęcie Walrasa,
od którego wiemy, że wymiana jest tylko wycinkiem procesów gospodarowania. Walrasowski model równowagi rynkowej nie dotyczy ani wzrostu gospodarki (produkcji), ani
też ostatecznego podziału wytworzonego produktu na spożycie i akumulację (lub wedle
nowej nomenklatury – oszczędności), tak jak możemy to odczytać z bilansów przepływów
międzygałęziowych Leontiefa.
Rosyjski matematyk V. Arnold w wywiadzie z 1996 r. powiedział, że „czysta matematyka jest opłacana za dokonywanie odkryć matematycznych. Matematyka stosowana jest
opłacana za rozwiązywanie zadanych problemów”. Przywołany w tytule tego ustępu
N.G. Mankiw w swoim referacie powiada, że „inżynierowie są to przede wszystkim ludzie, którzy rozwiązują problemy, a celem ludzi nauki jest zrozumienie jak działa świat”
[Mankiw 2006, s. 1].
Trudno jest uznać, że Leon Walras dokonał szczególnego odkrycia w ekonomii – odkrywcami to byli 200 lat przed nim Newton i Leibniz. Walras wcisnął wycinek procesów
gospodarowania – wymianę – w wyniki odkryć fizyki i matematyki klasycznej. I na tym
poprzestał. Nie powinien być zatem Walras i zastępy jego licznych następców „opłacany”
za dokonywanie odkryć. Jakkolwiek nie dokonali oni żadnych odkryć, to jednak wielu
z nich zostało nagrodzonych za „teorie ekonomiczne”, których jedynym „twardym rdzeniem” był dorobek Walrasa.
Pozostaje pytanie, czy walrasowska „czysta ekonomia” jest nauką stosowaną? Inaczej
mówiąc, czy walrasowskie równania równowagi rynkowej i ich pochodne tworzone przez
współczesnych ekonomistów głównego nurtu, rozwiązują pojawiające się od ponad
dwóch stuleci problemy gospodarcze. Czy rzeczywiście współczesna teoria ekonomii rozwiązuje zadane problemy? Najlepszą odpowiedź znajdujemy we wspomnieniach byłego
szefa FRB Allena Greenspana. Pisze on: „Zawsze uważałem, że zaktualizowany zbiór
najbardziej szczegółowych danych za ostatni dostępny kwartał jest o wiele pożyteczniejszy w prognozowaniu niż bardziej wyrafinowane modele (...) Nie można tworzyć abstrakcyjnych modeli z powietrza. Należy wysnuwać je z faktów” [Greenspan 2008, s. 46].
Dyskusje
369
Żadne z teorii-modeli głównego nurtu ekonomii nie prognozowały kryzysu dlatego,
że nie mogą tego czynić. Tylko Eugene Fama jest konsekwentny i twierdzi, że żadnego
kryzysu nie ma, a zgodnie z hipotezą efektywnego rynku ceny ukształtowały się na rynku
na poziomie określonym popytem i podażą i na tym poziomie „wyczyściły rynek”12.
Ekonomia głównego nurtu nie jest także nauką stosowaną, czego świadectwo odnajdujemy w kryzysie z lat 2007–2010, nie rozwiązuje bowiem problemów ujawniających się
w procesach gospodarowania. Kryzys finansowy dowodnie wskazuje, że w toczącym się
od czasów Miltona Friedmana sporze o „pozytywny” czy „normatywny” charakter teorii
ekonomicznych – w pełni zasadny jest wniosek, iż licznie generowane z walrasowskiej
teorii „modele równowagi ekonomicznej” są przede wszystkim normatywne, a nie pozytywne.
To jedynie Kenneth Arrow i Gerard Debreu w swej słynnej pracy podkreślali normatywny charakter teorii ogólnej równowagi rynkowej. Natomiast wywodzone z niej teorie-modele Beckera, Lucasa i Romera aplikują do tego, żeby być nauką pozytywną. Owe
modele, wywiedzione z walrasowskiej teorii równowagi rynkowej, nie są ani czystą nauką
– niczego nie odkrywają, nie są również nauką stosowaną – nie objaśniają procesów gospodarczych – ani tych, które już miały miejsce, ani tych, które mogą się wydarzyć.
Orzekają tylko o tym, „jak być powinno”, gdyby gospodarki działały według tych modeli
ekonometrycznych. Historia gospodarcza dostarcza wielu świadectw, że to nie po raz
pierwszy teoria ekonomiczna rozmija się z rzeczywistością.
Oczywiście dorobek myśli ekonomicznej dostarcza nam wielu innych podejść metodologicznych, które nie ograniczają gospodarczych zachowań homo sapiens do sztucznego bytu homo economicus. W świecie, którego doświadczamy, nie istnieje demon
Laplace’a, wedle którego pełny determinizm mechaniki stanowi o tym, że każdy maksymalizuje cokolwiek zgodnie ze schematem cen relatywnych, wyznaczonych przez równania różniczkowe klasycznej fizyki Newtona. Albowiem – jak możemy przeczytać u Karla
R. Poppera – to fizyk Arthur Compton w swoim dziele The Freedom of Man pisał: „Fizyk
rzadko kiedy (...) zwracał uwagę na fakt, że jeżeli (...) ludzkie czyny wyjaśnić można tylko
(...) za pomocą całkowicie deterministycznych (...) praw, to on sam jest automatem”.
W kolejnej pracy Comptona Human Meaning of Science czytamy: „Jeżeli założy się, że
sformułowania praw fizyki są poprawne, to należałoby przypuszczać (...), że poczucie
wolności jest złudne, jeżeli zaś akty [wolnego] wyboru uzna się za rzeczywiste, to sformułowania praw fizyki muszą być (...) nieprawidłowe”, i dalej: „ nie można już posługiwać
się prawami fizyki jako dowodami przeciwko ludzkiej wolności” [Popper 2002, s. 258
i 259]. Otóż od czasów Walrasa i szkoły lozańskiej aż po dzisiejsze modele równowagi
rynkowej przyjmuje się, że determinizm klasycznej mechaniki XVII w. w pełni odwzorowuje pole wolności wyboru i ludzkich działań w każdym miejscu i czasie. A w całym swoim dorobku Popper dowodzi, że tak nie jest.
To walrasowski model równowagi sprawia, że – jak powiada Becker – dobre techniki
obliczeniowe mają szerokie zastosowanie. Maszynka równowagi rynkowej jest takim
szczególnym przypadkiem, w którym teoria tzw. czystej ekonomii (Walras, Pareto, Baron)
jest tożsama i jednoznacznie wyznaczona przez stosowane przez nią techniki badawcze
(Becker, Lucas, Romer). Tak stosowane techniki badawcze jednoznacznie wyznaczają
cele i wartości – aksjologię bytu, tak określona aksjologia zaś stanowi o swoistej teorii
poznania, epistemologii. Inaczej mówiąc, stosowane techniki utożsamiane są z teorią,
natomiast teoria wyznacza zbiór dopuszczalnych technik badawczych. Obracamy się
w błędnym kole: techniki badawcze – narzędzia stanowią o teorii ekonomii, a teoria
12 Dyskusję z poglądem i modelem Famy odnajdujemy w artykule G.M. Frankfurtera opublikowanym
w 2007 r. [Frankfurter 2007].
370
Dyskusje
ograniczona stosowanymi narzędziami (zbiorem równań i ich matematycznymi właściwościami oraz technikami rachunku parametrów) wyznacza aksjologię ekonomii. Mamy tu
kompletne odwrócenie zasad poznania naukowego. Mamy do czynienia ze szczególnym
błędnym kołem, w którym narzędzia kształtują epistemologię, ta zaś określa aksjologię
i dalej z owej aksjologii wynikać ma określona epistemologia, i tak ad infinitum.
Owe licznie uzupełniane narzędzia „teorii równowagi” odnoszą się do takiego szczególnego bytu homo economicus, który jest wiecznie trwałym maksymalizatorem wszystkiego co się da pomieścić w pojęciu użyteczności/zysku. Jest to byt szczególny, zawsze
maksymalizujący swe stałe preferencje, doskonale znający wszelkie warunki wymiany
w każdym miejscu i czasie aż do nieskończoności. Tak się dzieje bez względu na to, czy
ów byt uczestniczy w wymianie rynkowej, czy też nie, albowiem nawet gdy nie zachodzi
wymiana rynkowa, to neoklasyczny Robinson Crusoe wymienia się sam ze sobą [Barro
1997, s. 73]. Ów „byt-robot” działa zawsze pod dyktando zewnętrznego dyktatora – auctioneura lub programu komputerowego. Paul Romer w swoim modelu wzrostu endogenicznego poszedł jeszcze dalej orzekając, że ów podmiot w procesie wymiany uzyskuje
efekty, które za sprawą rosnącej krańcowej wydajności czynników same się multiplikują,
nie wymagając żadnych dodatkowych nakładów. Z propozycji Romera wynika ponadto,
że to sama „maszynka równowagi” generuje dla siebie swój własny wkład. Mamy zatem
do czynienia z perpetuum mobile, a używając języka Friedmana, ale wbrew niemu, możemy powiedzieć, że „mamy do czynienia z darmowym lunchem”. Natomiast jeżeli zgadzamy się z Friedmanem, że nie ma darmowych obiadów – to konsekwentnie musimy przyjąć, że taki model wzrostu nie ma żadnej racji bytu.
Inaczej mówiąc, współczesny główny nurt ekonomii – wykorzystując dorobek fizyki
klasycznej XVII w. – chce być swoistą teorią wszystkiego. Od logików, fizyków, biologów
i genetyków wiemy, że nie ma i nie da się stworzyć teorii wszystkiego. Wszyscy wiemy, że
nie istnieje teoria wszystkiego; tak jak pierwsze i drugie prawo termodynamiki nie dopuszcza istnienia perpetuum mobile, tak samo twierdzenia Kurta Gödla o niezupełności
i sprzeczności nie pozwalają na stworzenie teorii wszystkiego.
U Karla R. Poppera kolejne ogniwa prawidłowych procedur „łańcucha poznawczego”
są przedstawione następująco: 1) najpierw jest aksjologia – system wartości określający
pojmowanie świata, 2) z uznawanej aksjologii wywodzimy teorię, 3) do określonej teorii
poszukujemy odpowiednich narzędzi – technik badawczych. To za pośrednictwem popperowskiej procedury badawczej i zastosowanych technik-narzędzi możemy orzekać, w czy
i w jakim stopniu wyniki przyjętej teorii odpowiadają jakimkolwiek stanom realnym, a zatem – zgodnie z korespondencyjną teorią prawdy Alfreda Tarskiego – możemy odpowiedzieć na pytanie, czy teoria jest prawdziwa [zob. Batman-Feferman, Feferman 2009, s.
136–150]. Natomiast sprawdzenie „prawdziwości” teorii – zdaniem Poppera – nie polega
na jej weryfikacji, na poszukiwaniu kolejnych potwierdzeń, nigdy bowiem nie potwierdzimy
wszystkich możliwych zdarzeń. Twierdzenie „wszystkie łabędzie są białe” nakazywałoby
sprawdzenie, czy wszystkie żyjące na świecie łabędzie są białe – co jest niemożliwe. Istnienie
jednego „czarnego łabędzia” sprawia, że twierdzenie to jest fałszywe. To nie weryfikacja,
a przeciwnie, falsyfikacja – jakikolwiek stan negujący prawdziwość teorii – nakazuje ją
odrzucić. Ale tak jest tylko w popperowskiej wizji świata nauki. W świecie nauki Thomasa
S. Kuhna jest zaś tak, „że chociaż logika jest potężnym i w ostatecznym rachunku zasadniczym narzędziem badań naukowych, to można posiadać wiedzę w takiej postaci, że logika
raczej nie daje się do niej stosować” [Kuhn 1985, s. 395].
Mark Blaug zwraca uwagę, że wszyscy ekonomiści głównego nurtu wierzą w popperowską logikę poznania naukowego. Jednak żaden z nich nie podejmuje prób falsyfikacji
– która jest popperowskim probierzem „prawdziwości teorii”. Jak powiada Blaug, przed-
Dyskusje
371
stawiciele współczesnej teorii ekonomii głównego nurtu „są wierzący, ale nie praktykujący” [Blaug 1998].
Najbardziej dobitną ocenę głównego nurtu chicagowskiej szkoły ekonomii znajdujemy w liście Vassily Leontiefa opublikowanym na łamach „Science” w 1982 r., w którym
czytamy:„Profesjonalne pisma ekonomiczne, strona po stronie, zapełnione są wzorami
matematycznymi, prowadzącymi czytelnika od mniej lub bardziej przekonujących, ale
zupełnie arbitralnych zbiorów założeń, do precyzyjnie ustalonych, ale zupełnie nieistotnych konkluzji (...). Rok po roku teoretycy ekonomii kontynuują produkcję wyników
uzyskiwanych z modeli matematycznych, badając niezwykle szczegółowo ich formalne
właściwości, a ekonometrycy dostosowują algebraiczne funkcje wszystkich możliwych
kształtów głównie do tych samych zbiorów danych, bez posuwania do przodu w jakikolwiek dostrzegalny sposób zdolności do systematycznego rozumienia struktury i działania
rzeczywistego systemu gospodarczego” [Leontief 1982, s. 104–107].
Zamiast zakończenia
W roku 2010 redakcja „Studiów Ekonomicznych” opublikowała mój list do redakcji pod
tytułem Makrokonfuzja: dylematy teorii ekonomicznych [Małecki-Tepicht 2010]. Recenzent słusznie zwrócił mi uwagę, że tekst ma podstawowy brak. Jeżeli ponad pół wieku
temu uczono mnie na lekcji języka polskiego, że każde wypracowanie powinno mieć
wstęp, rozwinięcie i zakończenie, to mój list do redakcji grzeszył brakiem rozwinięcia.
Był wstęp i zakończenie, brakowało – słusznym zdaniem recenzenta – uzasadnienia dla
sformułowanych przeze mnie hipotez lub wręcz jednoznacznie przedstawionych stwierdzeń. W niniejszej wypowiedzi starałem się – tak jak potrafię – uzupełnić braki poprzedniego tekstu. Teoria równowagi to taki szczególny fragment teorii ekonomii, która – jak
to ujął Nicolas Kaldor – obwarowana jest wielką liczbą restrykcyjnych założeń, pozbawiających ją jakiejkolwiek wartości. Owe założenia – bardziej ograniczające od tych, które
przyjął sam Walras – są następujące:
1. Wszystkie zasoby materialne i ludzkie przyjmuje się jako dane, tak samo jak dane są
skale (mapy) preferencji podmiotów.
2. Wszystkie techniczne procesy produkcji (zdolności do przetwarzania dóbr od surowców do produktu końcowego) są dane; wszystkie te procesy są liniowe i homogeniczne (tj. generalną zasadą jest stała stopa zwrotu).
3. Ceny są parametrycznie dane (narzucone) wszystkim uczestnikom (agentom) rynku;
istnieje doskonała konkurencja na wszystkich rynkach – zarówno po stronie kupujących, jak i sprzedających.
4. Czas nie istnieje. Decyzje o produkcji i konsumpcji następują symultanicznie i odbywają się natychmiastowo, poza czasem. W modelach równowagi nie istnieje ani przeszłość, ani przyszłość.
I na końcu – jak sądzę – uwaga najbardziej istotna: „System równowagi rynkowej
jest ustanowiony przed tym niż jakiekolwiek transakcje dochodzą do skutku” [Kaldor
1985 s. 7].
Podsumowując, zasadne jest twierdzenie, że nie istnieją takie byty jak konkurencyjne
gospodarki w stanie równowagi rynkowej. Inaczej mówiąc, albo gospodarki są konkurencyjne, albo są w stanie równowagi. Oznacza to, że stoimy wobec wyboru dwóch członów
alternatywy badawczej: albo badamy gospodarki konkurencyjne, które nie są w stanie
równowagi rynkowej, albo gospodarki będące w stanie równowagi, które nie są konkurencyjne.
372
Dyskusje
Przekonuje nas o tym nie tylko dorobek szkoły austriackiej (Menger, von Mises,
Kirzner), lecz także własne założenia neoklasycznej ekonomii stanowiącej o tym, że podmioty gospodarcze (ktokolwiek by to był) zawsze są kierowane przez „byty” zewnętrzne:
auctioneura (Walras, Arrow, Debreu) utylitarnego planistę społecznego lub program komputera (Lucas, Romer, Prescott i inni). W efekcie teoria neoklasycznej ekonomii obraca
się w swoim własnym błędnym kole. Wychodząc od Walrasa i Barone, poprzez Langego,
aż do Beckera, Lucasa i Romera, powraca do punktu wyjścia. A wyjścia nie ma.
Profesor Wojciech Maciejewski po lekturze mojego tekstu zapytał mnie, dlaczego tak
nie lubię tych ekonomistów. Odpowiedź, że wszystkich nie mogę lubić, jest niewystarczająca. W moim umyśle nastąpiła szczególnego rodzaju personifikacja – bo ekonomistów
owych nie znam, a znam tylko ich teorie. To co budzi mój sprzeciw, to ich szczególna
pewność (żeby nie powiedzieć – pycha), że świat jest taki, jak oni go postrzegają i przedstawiają. Ich teksty mają szczególny charakter – są pisane jakby przez kalkę – przepuszczone przez model-maszynkę, w której zmienia się tylko sitka. W efekcie operujemy
homogenicznym bytem reprezentacyjnego podmiotu gospodarczego maksymalizującego
wszystko co się da – użyteczność lub zysk. Jest to konstrukt, który w niczym nie różni się
od hamburgera McDonald’sa. Świat nie jest jeszcze koncernem McDonald’sa.
Ponadto moja wypowiedź jest próbą odreagowania lektury książki Parente
i Prescotta Barriers to Riches, w której autorzy całe bogactwo doświadczeń wzrostu
gospodarczego różnych cywilizacji, krajów i okresów historycznych usiłują wtłoczyć
w swój model oparty na założeniach równowagi, żeby dowieść rzeczy nieudawadnialnej
– tego mianowicie, że oto świat rzeczywisty pasuje do ich modelu13. Nie przychodzi im
nawet na myśl, że przedmiotem objaśniania świata – epistemologii właśnie – jest działanie przeciwne; jest to poszukiwanie odpowiedzi, jaki i który z możliwych modeli ekonomicznych zachowań ludzkich odpowiada rzeczywistym procesom gospodarowania.
Odpowiedź jest trywialna – nie ma jednego, jedynie słusznego modelu ekonomicznych
zachowań ludzkich.
Opisywany tutaj nurt neoklasycznej ekonomii można scharakteryzować trawestacją
słów Karla Poppera: „jest w niej wiele pewności, a mało prawdy”, a jak powiada dalej:
„pewność rzadko kiedy jest obiektywna (...), bowiem opiera się na niedostatecznej wiedzy” [Popper 1996, s. 43]14. Pozostańmy chwilę w głównym nurcie myśl Poppera, gdzie
czytamy „Nasza skłonność do myślenia deterministycznego wywodzi się z pojmowania
naszych czynów jako poruszycieli (...) Dzisiaj jednak nie jest to nauka: to już tylko ideologia” [Popper 1996, s. 35].
Celem moim była próba wykazania, że:
11 podmioty gospodarcze nie są demonami Laplace’a;
11 teorie równowagi opierają się na tautologiach zamkniętych w błędnych kołach rozumowania;
11 pytanie o prawdziwość lub fałszywość modeli wywodzonych z równań walrasowskiej
równowagi jest nieuprawnione;
11 modele ogólnej równowagi są nieobalalne – a zatem nie są teoriami;
13 Pełne potwierdzenie takiej postawy ekonomistów głównego nurtu odczytuję w przedmowie prof.
Urszuli Grzelońskiej do książki Roberta J. Barro, Makroekonomia, w której znajduję stwierdzenie:
„U Roberta J. Barro rzeczywiste dane o trendach (...) są wykorzystywane przede wszystkim do sprawdzenia,
czy zależności między zmiennymi »zgadzają się z teorią«, tzn. czy kierunek i skala zmienności wielkości
ekonomicznych pokrywają się z tym, co wynika z modelowego traktowania zagregowanych reakcji gospodarstw domowych i firm” [Barro 1997, s. 16].
14 Poddałem tutaj własnej trawestacji zdanie Poppera, które w oryginale brzmi: „W sporych fragmentach naszej wiedzy jest wiele prawdy, ale mało pewności”.
Dyskusje
373
modele te są nieobalalne nie dlatego, że nie ma innych, lepszych modeli, lecz dlatego, że nie spełniają popperowskich zasad logicznego uzasadniania hipotez i nie objaśniają świata.
Liczne modele równowagi stanowią wyraz tego, co Richard Feynman nazywał w swoich wykładach „kulturą cargo”, gdy powiadał: „porównuję różne pseudonauki do kultury
cargo, ponieważ tutaj też przestrzegane są wszystkie reguły i formy badania naukowego,
ale brakuje tego, co najistotniejsze. (...) Istnieje pewien rodzaj rzetelności naukowej,
pewna zasada pracy naukowej, której w życiu odpowiada stuprocentowa uczciwość – wychodzenie ze skóry, żeby być w porządku. (...) Kiedy stwarzacie teorię i przygotowujecie
ją do publikacji, musicie podać wszystkie fakty, które są z nią niezgodne. (...) Kiedy wyliczacie, co się z tą teorią zgadza, musicie zadbać o to, żeby zgadzało się coś więcej niż
tylko te fakty, które wam tę teorię nasunęły; musicie wykazać, że do gotowej teorii także
pasują inne zjawiska” [Feynman 1996, s. 344–345].
Zdaję sobie sprawę, że ta moja niechęć do owych licznych modeli równowagi nie
jest szczególnie oryginalna ani nowa. Można zasadnie uznać, że pierwszym tekstem
przeciw koncepcji racjonalności opartej na zasadzie maksymalizacji zysku i/lub użyteczności jest artykuł Armena Alchiana z 1950 r. Uncertainty, Evolution, and Economic
Theory [Alchian 1950]. Następnie wystarczy sięgnąć po prace Nicholasa GeorgescuRoegena, wykład noblowski Herberta Simona z 1978 r. i ostatni jego wykład wygłoszony w Carnegie Mellon University. Krytyce modeli równowagi P. Mirowski poświęcił
większość swej twórczości. Trudno wszystkich wymienić, ale muszę wspomnieć apel
44 ekonomistów, którzy w płatnym ogłoszeniu zamieszczonym w 1992 r. w „American
Economic Review” wystąpili przeciwko monopolowi tzw. głównego nurtu ekonomii
[The Plea... 1992].
W tym przypadku mamy rzeczywiście do czynienia z kuhnowskim paradygmatem
w stanie czystym, zgodnym z jego definicją, według której „paradygmat określa to, co
wspólne jest wszystkim członkom wspólnoty naukowej i tylko im” [Kuhn 1985, s. 407].
Jest to taki szczególny przypadek consensus omnium, zgodnie, z którym prawdą jest to,
na co wszyscy się godzą, że jest prawdą. S. Amsterdamski w posłowiu do polskiego wydania książki T.S. Kuhna zwraca uwagę, że owo pojęcie paradygmatu zamyka się również
w błędnym kole, „(...) w określeniu wspólnoty przez obowiązujący consensus, a consensusu – przez zespół wspólnych przeświadczeń członków wspólnoty” [Kuhn 1985, s. 495].
Przesłanie, które chcę zaproponować, jest poniekąd banalne. Przyjmuję, że walrasowskie ekonometryczne modele równowagi są lepszymi lub gorszymi narzędziami badawczymi wybranych procesów wymiany. Ale narzędzia nie tworzą teorii. To z teorii ekonomii ma wynikać wybór najlepszych narzędzi badawczych. Czy ekonometryczne modele
równowagi są tymi najlepszymi narzędziami? Wydaje mi się, że tak nie jest. I to jest
przyczyna, która sprawiła, że Tibor Scitovski już w 1976 r. nadał swej książce tytuł Smutna
ekonomia (The Joyless Economy). Smutnych skutków głównego nurtu neoklasycznej ekonomii doświadczamy dzisiaj wszyscy w trakcie pełzającego kryzysu finansowego od jesieni 2007 r.
Czy są teorie ekonomiczne, które mi odpowiadają? Oczywiście, że tak. Jednak wracając do tytułu tego tekstu – zawsze wolałem – zamiast „instrukcji użycia maszynki” –
„książki kucharskie”, książki w których znajdowałem różne propozycje i różne rozwiązania. Jest to przede wszystkim dorobek starożytnych filozofów greckich: Platona
i Arystotelesa. Są to teorie: szkoły austriackiej C. Mengera, L. von Misesa, I. Kirznera;
dorobek uczniów Schumpetera, jak np.: V. Leontiefa, N. Georgescu-Roegena; prace
twórców teorii gospodarek dualnych A. Lewisa, J.C.H. Feia i G. Ranisa. Ponadto wymienić należy przedstawicieli ekonomii instytucjonalnej – R. Coase’a i D.C. Northa. Ważny
11
374
Dyskusje
wkład teoretyczny i empiryczny wnieśli do ekonomii Z. Griliches, i D. Jorgensen.
W obecnym dyskursie ekonomicznym – nad przyczynami i skutkami kryzysu – przywoływani są wybitni polscy ekonomiści Oskar Lange i Michał Kalecki.
I wiem, że na pewno nie wymieniłem wszystkich.
Tekst wpłynął 16 czerwca 2011 r.
Bibliografia
Alchain A., Uncertainty, Evolution, and Economic Theory, „The Journal of Political Economy” 1950,
t. 58, nr 3.
An Interview with Wladimir Arnold, by S.H.Lui, Hong Kong Mathematics Society Newsletter,
Feburary 1996.
Aoki M., Yoshikawa H., Non-Self-Averaging in Macroeconomics Models: A Criticism of Modern
Micro-founded Macroeconomics, CIRJE-F-761, September 2010 (http://www.e.u-tokyo.ac.jp/
cirje/resaerch/03resaerch02dp.html).
Arrow K.J., Debreu G., Existence of an Equilibrium for a Competitive Economy, „Econometrica”
1954, nr 3.
Arrow K.J., Mathematical Model In The Social Sciences, w: Policy Sciences in the United States, red.
D. Lener, H.D. Lasswell, Stanford University Press, Stanford 1951.
Arrow K.J., Rationality of Self and Others in the Economic System, „Journal of Business” 1986, nr 4.
Arrow K.J. The Economic Implications of Learning by Doing, „The Review of Economic Studies”
1962, nr 3.
Berndt E.R., Hulten Ch.R., Hard-to-Measure Goods and Services. Essays in Honor of Zvi Griliches,
University of Chicago Press, Chicago 2007.
Barone E., Il Ministro della Produzione nello Stato Collettivista, 1908, tłum. ang.: The Ministry of
Production in the Collectivist State, red. F.A. Hayek, Collectivist Economic Planning, Routledge
& Kegan Paul, London 1935.
Barro R.J., Makroekonomia, PWE, Warszawa 1997.
Bartman-Feferman A., Feferman S., Alfred Tarski. Życie i logika, Wydawnictwa Akademickie
i Profesjonalne, Warszawa 2009.
Becker G.S., Ekonomiczna teoria zachowań ludzkich, PWN, Warszawa 1990.
Becker G., Interview (Acton Institute), „Religion&Liberty” 1993, nr 2, (http://www.acton.org/
publications/randl/rl_interview_76.php (03.06.2010).
Blaug M., Interview with Mark Blaug The Problems with Formalism, Challenge, May-June 1998
(http://www.btinternet.com/~pae_news/Blaug1.htm)
Elmendorf D.W., Mankiv N.G., Government Dept, NBER Working Paper, March 1998, nr 6470.
Feynmann R.P., Pan raczy żartować, Panie Feynman, Wydawnictwo ZNAK, Kraków 1996.
Frankfurter G.M., Market Efficiency cum Anomalie or Behavioral Finance? „Homo Oeconomicus”
2007, nr 1 (www.accedoverlag.de).
Georgescu-Roegen N., Methods in Economic Science, „Journal of Economic Issues” 13, June 1979.
Greenspan A., Era zawirowań. Krok w nowy wiek, Warszawskie Wydawnictwo Literackie MUZA,
Warszawa 2008.
Hurwicz L., The Theory of Economic Behavior, „American Economic Review” 1945, nr 35.
Kaldor N., Economics Without Equilibrium, University Collage Cardiff Press, Cardiff 1985.
Kirzner I.M., Konkurencja i przedsiębiorczość, Fijorr Publishing, Warszawa 2010.
Kirzner I.M., The Economic Point of View: Essey in the History of Economic Thought, red. S. Moss,
Sheed Andrews McMeel, Kansas City 1976.
Koopmans T.C., Is the Theory of Competitive Equilibrium With It? „American Economic Review”
1974, nr 2.
Dyskusje
375
Kuhn T.S., Dwa bieguny, Logika odkrycia naukowego czy psychologia badań? Państwowy Instytut
Wydawniczy, Warszawa 1985.
Leibenstein H., Poza schematem homo oeconomicus, PWN, Warszawa 1988.
Leontief V., Letter to Science, „Science” 1982, nr 4555.
Lucas R.E., Jr., On the Mechanics of Economic Development, „Journal of Monetary Economica”
1988, nr 22.
Lui S.A., An Interview with Vladimir Arnold, Hong Kong Mathematics Society Newsletter, February
1996.
Mankiw N.G., The Macroeconomist as Scientist and Engineer, NBER Working Papers 12349, June
2006.
Małecki-Tepicht S., Makrokonfuzja: dylematy teorii ekonomicznych, „Studia Ekonomiczne” 2010,
nr 10.
Parente S., Prescott E., Barriers for Riches, University of Lausanne, October 1999.
Popper K.R., Świat skłonności, Wydawnictwo Znak, Kraków 1996.
Popper K.R., Wiedza obiektywna, Ewolucyjna teoria epistemologiczna, WN PWN, Warszawa 2002.
Robinson J., Economic Philosophy, Penguin Books Harmondsworth, Middlesex 1962 (http://en.
wikipedia.org/wiki/Utility#cite_note-3).
Rosen S., Austrian and Neoclassical Economics, Any Gains from Trade? Working Paper 133, George
J. Stigler Center for the Study the Economy and State, The University of Chicago, Chicago
1997.
Snowdon B., Van H.R., Rozmowy z wybitnymi ekonomistami, PTE, Warszawa 2003.
Słownik języka polskiego, PWN, Warszawa 1978.
The Plea for a Pluralistic and Rigorous Economics, „American Economic Review”, May 1992.
Ulam S.M., Przygody matematyka, Na scieżkach nauki, Prószyński i S-ka, Warszawa 1996.
Walras L., Economique et Méchanique, „Bulletin de la Socitété Vaudoise de Sciences Naturelles”
1909, nr 45; przedruk w: „Metroeconomica” 1990, nr 1.
Walras L., Oeuvres divers, w: August et Leon Walras, Oeuvres Economiques Complets, red. P. Dockes,
C. Mouchot. J.-P. Potier, t. 13, „Economica”, Paris 2000. Cyt. za Michel De Vroey, Lucas on the
Relationship between Theory and Ideology, „Economics The Open Access, Open Assassment
E-Journal” 2011, nr 5 (http://d.doi.org/10.5018/economics-ejuornal.ja.2011-4).
Jerzy Wilkin*
Czy współczesna ekonomia jest instrukcją obsługi
mechanizmu gospodarczego?
Na marginesie artykułu S. Małeckiego-Tepichta
Mam wrażenie, że zamieszczony wcześniej artykuł S. Małeckiego-Tepichta jest nie tylko
wyrazem krytyki dominującego sposobu uprawiania ekonomii, ale wręcz buntem autora
przeciwko temu sposobowi, prowadzącym do jego odrzucenia. W artykule tym jest dużo
rozważań o ważnych składnikach współczesnej ekonomii, ale równie dużo uwagi poświęcono kwestiom epistemologicznym. Dyskurs ekonomiczny został umieszczony w szerokim kontekście filozoficznym, a zwłaszcza filozofii nauki. Co jest głównym przedmiotem
krytycznej analizy dokonanej przez S. Małeckiego-Tepichta? Jest nim zdominowanie
ekonomii przez teorie „ekonomicznej maszynki równowagi rynkowej”. Uważam, że krytyka ta jest w dużym stopniu uzasadniona. Autor artykułu najwięcej uwagi poświęca bardzo krytycznej analizie teorii ogólnej równowagi rynkowej, począwszy od L. Walrasa, na
modelu K. Arrowa i G. Debreu kończąc. Sporo miejsca w omawianym artykule zajmuje
też polemika z mechanistycznym modelem zachowań ludzkich, przedstawionym w latach
1970. przez G. Beckera.
Artykuł S. Małeckiego-Tepichta jest napisany z dużym zaangażowaniem, a nawet
z pasją. Styl artykułu może razić niektórych czytelników, przyzwyczajonych do chłodnej,
naukowej narracji, ale ma on też swoje zalety: prowokuje do przemyśleń i polemiki.
W naszym piśmiennictwie naukowym z zakresu ekonomii niewiele jest takich publikacji.
Artykuł ten zasługuje na uwagę także ze względu na przedmiot rozważań; jest nim kilka
najważniejszych koncepcji teoretycznych z „rdzenia” współczesnej teorii ekonomii.
Dyskusja odnosi się więc do spraw fundamentalnych dla nauk ekonomicznych.
Gospodarka prawie zawsze znajduje się w mniejszej lub większej nierównowadze rynkowej, ale ekonomiści są nieomal „opętani” ideą równowagi, a w teorii ekonomii koncepcje równowagi zajmują bardzo eksponowane miejsce. Dlaczego tak się dzieje? Przede
wszystkim dlatego, że w teorii tej równowaga jest powiązana z efektywnością, a efektywność to najważniejsze pojęcie w ekonomii. Nierównowaga oznacza, iż czegoś jest relatywnie za dużo, a czegoś za mało, co w działalności gospodarczej wiąże się na ogół z nieefektywnym wykorzystaniem zasobów i niedostatecznym zaspokojeniem potrzeb.
Najbardziej elegancką i będącą w wielkim poważaniu wśród ekonomistów (o czym
świadczy liczba ekonomistów uhonorowanych Nagrodą Nobla za wkład w tę część ekono* Prof. dr hab. Jerzy Wilkin – Wydział Nauk Ekonomicznych Uniwersytetu Warszawskiego; e-mail:
[email protected]
378
Dyskusje
mii) jest teoria równowagi ogólnej, która w ujęciu zapoczątkowanym przez L. Walrasa jest
modelem matematycznym i – jak stwierdza M. Blaug – pozbawiona jest treści empirycznej.
To właśnie Walras wylansował pogląd, że ekonomia jako nauka może być tylko ekonomią
matematyczną. Celem Walrasa, jak trafnie zauważył S. Małecki-Tepicht, nie jest opisywanie
rzeczywistości, lecz stworzenie teoretycznej koncepcji stanu idealnego gospodarki. Próby
powiązania tej koncepcji z materiałem empirycznym (danymi statystycznymi) pojawiły się
później. Obecnie istnieje wiele modeli równowagi ogólnej, które są wykorzystywane do analiz ekonometrycznych (tzw. obliczeniowe modele równowagi ogólnej – Computable General
Equilibrium Models) służących m.in. do oceny różnych rodzajów polityki ekonomicznej.
Jedną ze współczesnych koncepcji rozwijających dorobek twórców teorii równowagi ogólnej
jest grupa modeli nazywanych: Dynamic Stochastic General Equilibrium Models. Służą one
do analiz makroekonomicznych, w tym wzrostu gospodarczego i fluktuacji gospodarczych.
Chętnie są wykorzystywane przez banki centralne, w tym Europejski Bank Centralny.
Nowa ekonomia instytucjonalna, która w odróżnieniu od tradycyjnego instytucjonalizmu amerykańskiego nie kontestowała dorobku ekonomii neoklasycznej, starała się
uzupełnić ten dorobek o elementy instytucjonalne. O. Williamson, jeden z najważniejszych przedstawicieli nowej ekonomii instytucjonalnej stwierdził, powołując się zresztą
na F. von Hayeka: „Analiza w kategoriach równowagi stanowi zatem w ekonomii jedynie
wstęp do badań głównych problemów” [Williamson 1998, s. 21]. Instytucjonaliści różnych
nurtów więcej uwagi poświęcają raczej źródłom i mechanizmom zmian w gospodarce
bądź też przyczynom trwałości instytucji i systemów niż warunkom równowagi. Podjęto
też próby skonstruowania teorii równowagi instytucjonalnej, która wyraźnie różni sie od
teorii równowagi ogólnej. Szczególnie interesujące koncepcje w tej dziedzinie zaproponował M. Aoki [Aoki 2001].
Należy pamiętać, że rynek funkcjonuje lepiej lub gorzej w zależności od jakości ram
instytucjonalnych gospodarki. Model doskonałej konkurencji czy doskonałego rynku,
będący punktem wyjścia dla złożonych konstrukcji teoretycznych ekonomii neoklasycznej, był zawieszony w instytucjonalnej pustce. Instytucje są zawsze konkretne i kulturowo
określone, a więc niezwykle zróżnicowane. Tymczasem zarówno teoria równowagi ogólnej, jak i inne składniki mechanistycznej ekonomii neoklasycznej są tworzone w taki sposób, jakby miały obowiązywać zawsze i wszędzie – być uniwersalną fizyką procesów gospodarczych. Kontekst instytucjonalno-kulturowy nie ma w nich znaczenia.
Prawie we wszystkich podręcznikach ekonomii znajdziemy spopularyzowaną przez
P. Samuelsona definicję ekonomii jako nauki pozwalającej odpowiedzieć na pytanie: co,
jak i dla kogo produkować? Łatwo zauważyć, że w ostatnich kilku dekadach ekonomia
skoncentrowała się na tym, jak produkować, zakładając, że rynek sam rozstrzygnie, co
produkować i dla kogo. To bardzo zawężone podejście zostało upowszechnione przez
M. Friedmana, w związku z propagowaniem ekonomii jako nauki pozytywnej. W jego
ujęciu jakość danej nauki, w tym ekonomii, zależy od jej siły predykcyjnej. Było to bardzo
popularne podejście do roli nauki wśród przedstawicieli pozytywizmu. Głosili oni, że
celem nauki jest przewidywanie, a nie objaśnianie zjawisk [Woleński 2005, s. 32]. Jak
zauważa S. Małecki-Tepicht, w koncepcjach L. Walrasa i innych twórców teorii równowagi ogólnej nawet produkcja przestała być przedmiotem zainteresowania ekonomii, a stała się nim wymiana rynkowa. Teoria równowagi ogólnej jest de facto teorią wymiany na
rynku doskonałym.
Pozytywistyczne i mechanistyczne podejście do gospodarowania stało się bardzo popularne wśród ekonomistów głównego nurtu. W bardzo wyrazisty i charakterystyczny
sposób przedstawia je jeden z najbardziej znanych współczesnych ekonomistów, R. Lucas,
który zatytułował opublikowany w 1988 r. artykuł (zamieszczony później w wydanej
Dyskusje
379
w 2004 r. książce): On the Mechanics of Economic Development, podkreślając w ten
sposób podobieństwo teorii ekonomii do teorii mechaniki. „Wolę używać słowa »teoria«
w bardzo wąskim sensie, w odniesieniu do formalnego układu równań dynamicznych,
który można »wrzucić« do komputera i uruchomić. To właśnie rozumiem przez pojęcie
»mechaniki« rozwoju gospodarczego – konstrukcję mechanicznego, sztucznego świata,
zaludnionego przez powiązane interakcjami roboty, których działania są zwykle przedmiotem badań ekonomicznych, świata zdolnego do przejawiania zachowań, których
większość cech przypomina te właśnie, przeze mnie opisane, cechy prawdziwego świata”
[Lucas 2010, s. 33].
Świat mechaniki można opisać językiem matematyki, uniwersalnego języka wszechświata. Prawidłowości tego świata można jedynie odkrywać, ale nie można ich zmieniać.
W świecie mechaniki nie ma wolnej woli. Jak stwierdza M. Heller: „Językiem Wszechświata jest matematyka. Cała fizyka jest właściwie matematyką z pewnym naddatkiem
interpretacyjnym, odnoszącym struktury matematyczne do rzeczywistego, dostępnego
eksperymentom świata. Prawa matematyki nie podlegają zmianom, są wieczne, istnieją
niezależnie od świata materialnego i od naszego umysłu. Gdy wykonuje się pracę matematyka, silnie doświadcza się tego, że nie można zmienić wyników” [Heller 2010, s. 26].
Wszechstronną i, w moim przekonaniu, trafną krytykę „mechanistycznej ekonomii”
oraz prezentację złożonych relacji między fizyką a ekonomią przedstawił amerykański
ekonomista i filozof nauki P. Mirowski, zwłaszcza w dwóch książkach: Against Mechanism
[Mirowski 1988] i More Heat than Light [Mirowski 1989].
Jednym z ważnych wątków omawianego artykułu jest ocena dorobku G. Beckera jako
jednego z najważniejszych przedstawicieli mechanistycznej ekonomii. G. Becker stał się
symbolem „ekonomicznego imperializmu” i wiary w potęgę ekonomii jako uniwersalnej
teorii zachowań ludzkich. W prowokujący, ale i błyskotliwy zarazem sposób zestawia
S. Małecki-Tepicht G. Beckera z K. Marksem. Uważa on, że obaj przyjęli w swoich koncepcjach taką samą aksjologię. „Imperializm poznawczy wspólny Marksowi i Beckerowi sprawia, że według nich nie istnieją żadne inne możliwe, alternatywne wizje dziejów świata,
gospodarek i zachowań ludzkich” – stwierdza S. Małecki-Tepicht. A jeśli nawet są, to zasługują na odrzucenie. G. Becker, podobnie jak wspomniany wcześniej R. Lucas, tworzy
sztuczny świat (teorię świata), w którym działają identyczne „dwunożne kalkulatory” – roboty maksymalizujące użyteczność. Do „równowagowej maszynki do mięsa” można wrzucić wszystko, ale na wyjściu z tej maszynki mamy użyteczność, która, jak słusznie zauważa
S. Małecki-Tepicht, nie jest zdefiniowana i logicznie biorąc, jest pojęciem pustym.
Autor omawianego artykułu kończy swoje rozważania konkluzją, że ekonomia głównego nurtu w ujęciu jej najbardziej wpływowych przedstawicieli, których kluczowe poglądy wcześniej omówił, to „przygnębiająca nauka” (dismal science) i „smutna ekonomia”
(joyless economy). Niecała ekonomia jest jednak smutna i przygnębiająca. S. Małecki-Tepicht wymienia wielu ekonomistów, którzy mu znacznie bardziej odpowiadają, tworzą
bowiem „książki kucharskie”, a nie „instrukcje użycia maszynki”. Z trzech wymiarów
ekonomii: ekonomii pozytywnej, ekonomii normatywnej i sztuki ekonomii, ekonomia
głównego nurtu niemal całkowicie zagubiła ten trzeci wymiar. Tak uprawiana ekonomia
nie mogła być sztuką (the art of economics), a przypominała raczej zbiór instrukcji obsługi mechanizmów gospodarowania.
W roku 2000 ukazała się praca zbiorowa pod bardzo charakterystycznym tytułem:
A not-so-Dismal Science: A Broader View of Economies and Societies, przygotowana pod
redakcją M. Olsona i S. Kähkönena, przedstawiająca nowe, inspirujące nurty w badaniach ekonomicznych, wnoszące do ekonomii nieco jasności i optymizmu [A not-so­
‑Dismal... 2000]. Są to nurty i osiągnięcia badawcze, które autorzy tej pracy umieszczają
380
Dyskusje
na suburbiach ekonomii, w centrum bowiem nadal dominują monumentalne (dość ponure) gmachy, z których jednak coraz więcej osób migruje na przedmieścia, gdzie dzieje
się bardzo dużo ciekawych rzeczy – zarówno w samej ekonomii, jak i na styku ekonomii
z innymi naukami społecznymi.
Artykuł S. Małeckiego-Tepichta został napisany w sposób „drapieżny” i wyraźnie prowokujący do dyskusji.
Trudno byłoby zakwestionować większość krytycznych uwag pod adresem „filarów”
ekonomii, jakie przedstawia autor artykułu. Filary te są jednak bardzo mocne i zapewne
takimi pozostaną. Niemniej jednak zasadne są główne kierunki krytyki przedstawione
w artykule:
11 odhumanizowanie ekonomii i zafascynowanie abstrakcyjnymi, ponadczasowymi mechanizmami;
11 zaniedbywanie badań empirycznych i preferowanie wyrafinowanych modeli matematycznych, nieopartych na danych statystycznych;
11 pomijanie społecznego charakteru gospodarowania, roli instytucji i kontekstu kulturowego;
11 przyjęcie prymitywnej koncepcji homo oeconomicus jako aksjomatu wiedzy o zachowaniu człowieka.
Warto też zwrócić uwagę na to, iż krytykowane przez S. Małeckiego-Tepichta ważne
osiągnięcia w ekonomii, takie jak teoria równowagi ogólnej czy ekonomiczna teoria zachowań ludzkich G.Beckera, stały się inspiracją dla wielu badań i nowych nurtów.
Niektóre z nich zostały bardzo silnie wzbogacone fundamentem empirycznym, w tym
także wykorzystującym badania eksperymentalne. Koncepcje te są nadal atrakcyjne intelektualnie i wysoko cenione w świecie akademickiej ekonomii. Niemniej jednak wzrastający pluralizm metodologiczny, otwieranie się ekonomii na dorobek innych nauk, zwłaszcza nauk społecznych, i narastająca krytyka ekonomii, słabo radzącej sobie z wyzwaniami
współczesnego świata, stwarzają nadzieję na przełom w ekonomii, który spełni niektóre
przynajmniej oczekiwania formułowane przez S. Małeckiego-Tepichta.
Tekst wpłynął 12 lutego 2012 r.
Bibliografia
A not-so-Dismal Science: a Broader View of Economies and Eocieties, red. M. Olson, S. Kähkönen,
Oxford University Press, Oxford 2000.
Aoki M., Comparative Institutional Analysis, The MIT Press, Cambridge 2001.
Heller M., Dowód na istnienie Boga. Z ks. prof. Michałem Hellerem rozmawiają Jerzy Baczyński
i Adam Szostkiewicz, „Niezbędnik Inteligenta. Wydanie specjalne tygodnika Polityka” 2010,
nr 6.
Lucas R.E., Jr., Wykłady z teorii wzrostu gospodarczego, Wydawnictwo C.H. Beck, Warszawa 2010.
Mirowski P., Against Mechanism, Rowman and Littlefield, Totawa 1988.
Mirowski P., More Heat than Light, Cambridge University Press, Cambridge 1989.
Williamson O.E., Ekonomiczne instytucje kapitalizmu. Firmy, rynki, relacje kontraktowe, WN PWN,
Warszawa 1998.
Woleński J., Epistemologia. Poznanie, prawda, wiedza, realizm, WN PWN, Warszawa 2005.
Witold Kwaśnicki*
O matematyzacji ekonomii
Na marginesie artykułu S. Małeckiego-Tepichta
Generalnie mogę powiedzieć, że zgadzam się z artykułem S. Małeckiego-Tepichta
i z przedstawioną w nim krytyką nurtu matematycznego w ekonomii. Jednakże wydaje mi
się, że przedstawiona w tym artykule krytyka jest zbyt wąska, bo w istocie odnosi się do
krytyki nurtu zainicjowanego dziełem L. Walrasa oraz prac G. Beckera. Niezbyt podoba
mi się też użyta przez autora metafora „maszynki do mielenia mięsa”, ale to już kwestia
indywidualnej estetyki.
Krytyka zbytniej matematyzacji ekonomii ma swoja długą tradycję, niestety autor nie
wspomina nic o tym (poza krótką wzmianką o P. Mirowskim) i nie próbuje nawet jej
przedstawić, choćby w skrótowej formie. Tradycyjnie, co najmniej od kilkudziesięciu lat,
krytyczny stosunek do zbytniej matematyzacji analizy ekonomicznej jest wyrażany w ramach tzw. heterodoksyjnej ekonomii1. Znacznie dłuższą, bo trwającą od końca XIX w.
krytykę podejścia matematycznego w ekonomii przedstawia szkoła austriacka, poczynając od jej założycieli C. Mengera i E. Boehm-Bawerka, jak również L. von Misesa i F. von
Hayeka. Ekonomiści szkoły austriackiej niemalże z definicji sprzeciwiają się wykorzystaniu metod matematycznych w analizie ekonomicznej, uznając, że metody matematyczne
bardziej zniekształcają obraz życia gospodarczego niż cokolwiek wyjaśniają. Z wykształcenia uniwersyteckiego jestem inżynierem elektronikiem (potem dopiero stałem się również ekonomistą) i z racji tego swojego doświadczenia zawodowego w przeszłości mogę
powiedzieć, że nie uważam, iż należy iść aż tak daleko. Mimo że szkoła austriacka jest
mi najbliższa, nie uważam, że matematyki nie należy stosować, ale matematykę należy
stosować z umiarem, rozsądnie i w ściśle określonych celach (o czym wspomnę później).
Tego postulatu brakuje mi w przykładach, o których pisze S. Małecki-Tepicht.
W wydanej kilkadziesiąt lat temu Metodologii ekonomii M. Blaug (którego należy
zaliczyć do ekonomistów głównego nurtu) zauważa, że: „Historycznie rzecz biorąc, wydaje się, że teoria RO [równowagi ogólnej] dokonała inwazji na ekonomię neoklasyczną
i stopniowo przekształciła ją w coraz bardziej stechnicyzowany, w najwyższym stopniu
sformalizowany aparat służący do wypowiadania się o gospodarce w sposób sugerujący,
że wypowiedzi te odnoszą się do rzeczywistej gospodarki” [Blaug 1995, s. 253]. Wątek ten
obecny jest w jego późniejszych pracach, np. w opublikowanym w 1998 r. artykule, gdzie
pisze: „Współczesna ekonomia jest »chora«. Ekonomia stawała się coraz bardziej intelektualną grą uprawianą dla niej samej a nie z myślą o praktycznych zastosowaniach”
* Prof. dr hab. Witold Kwaśnicki – Instytut Nauk Ekonomicznych, Uniwersytet Wrocławski; e-mail:
[email protected]
1 Patrz np. http://www.paecon.net/PAEmovementindex1.htm
382
Dyskusje
[Blaug 1998]. Blaug zauważa, że ekonomiści powoli przekształcili ekonomię w coś, co
można nazwać „matematyką społeczną”, w której rygor formalny, zasadny w matematyce, przysłania to, co jest istotne w ekonomii, mianowicie zgodność teorii i praktyki.
Zdaniem Blauga sytuacja ta nie tyle rozwinęła się w końcu XIX w. począwszy od prac
L. Walrasa (o czym wspomina S. Małecki-Tepich w swoim artykule), lecz od opublikowanego w 1954 r. sławnego artykułu późniejszych laureatów Nagrody Nobla z ekonomii,
K. Arrowa i G. Debreu. Praca tych noblistów stała się prawdziwym wzorcem dla wielu
ekonomistów. Jeżeli jeszcze dla Walrasa koncepcja równowagi miała odniesienie do rzeczywistości, to dla współczesnych ekonomistów taki wymóg nie był już istotny. R. Coase
nazwał takie podejście „ekonomią pisaną na tablicy” (blackboard economics).
W wywiadzie opublikowanym w tym samym numerze „Challenge”, Blaug nie jest
przeciwko modelowaniu ani przeciwko matematyce. Uważa on, że może być ono użyteczne, ale nie może być celem w samym w sobie. Blaug postuluje zmianę priorytetów
w analizie ekonomicznej. Na pytanie, „Co może uratować ekonomię?” autor wyraża
dosyć pesymistyczną opinię, że lokomotywa formalizmu i matematyzacji jest tak bardzo
rozpędzona, że „to monstrum trudno będzie zatrzymać”. Na koniec tego wywiadu, odpowiadając na pytanie, „Czy jakiś fakt empiryczny albo silny kataklizm gospodarczy
mógłby to zmienić?”, Blaug stwierdza, że z pewnością miałoby to wpływ, ale nie widzi by
coś takiego mogło się wydarzyć [Blaug 1998b].
W podobnym duchu wypowiadał się w 1985 r. N. Kaldor. W jednym z wykładów wyraził opinię, że powojenny rozwój teorii równowagi konkurencyjnej był oparty na precyzyjnych założeniach matematycznych, które z logicznego punktu widzenia były niepodważalne, ale mogły być kwestionowane w konfrontacji z rzeczywistością. Ten stan matematycznej perfekcji teoria ta osiągnęła, zdaniem Kaldora, w 1954 r. Na określenie tegoż
stanu Kaldor proponuje termin „matematyczny kryształ” (a mathematical crystal), zaproponowany wcześniej przez Heisenberga w kontekście modeli budowanych przez fizyków.
Używając tego terminu, Kaldor chce wskazać na to, że teoria równowagi – w mniemaniu
jej zwolenników – jest tak doskonała, że nie może już być zmieniana i ulepszana [Kaldor
1985].
Ta dosyć ślepa wiara w formalizmy i reguły matematyczne jest widoczna w bankowości – choćby w powszechnie stosowanej przez banki centralne tzw. regule Taylora. Reguła
ta pozwala określać wartości nominalnych stóp procentowych w zależności od kilku
zmiennych (celu inflacyjnego i inflacji bieżącej, potencjalnego i nominalnego PKB oraz
realnej stopy procentowej odpowiadającej tzw. pełnemu zatrudnieniu). Innym przykładem fetyszu formalizmu w bankowości było używanie (zgodnie z zaleceniem tzw. systemu bazylejskiego) współczynnika kapitałowego, którego wartość nie może spaść poniżej
0,08 dla zapewnienia bezpieczeństwa operacyjnego banku. Współczynnik ten to stosunek
kapitału własnego banku do sumy składników majątku banku ważonych ryzykiem.
Podobnie jak w przypadku ustalania nominalnej stopy procentowej w regule Taylora, tak
i we współczynniku kapitałowym systemu bazylejskiego istnieje możliwość nadużycia
(„pokusa nadużycia”) – zachęta do tego, aby tak manipulować pewnymi danymi, aby
osiągnąć oczekiwane wartości wskaźników. I tak się właśnie działo w praktyce bankowej,
co w dużym stopniu przyczyniło się do powstania obecnego kryzysu finansowego.
Podobnie jest z niczym nieuzasadnionym wskaźnikiem zadłużenia państwa na poziomie
zapisanego w Konstytucji progu 60% (art. 216, ustęp 5) czy ostrożnościowego progu 55%
zapisanego w ustawie o finansach publicznych (art. 86). Tu można by długo opisywać
konsekwencje takich arbitralnych ustaleń, ale wystarczy tylko wskazać na wszelkiego rodzaju „sztuczki” dokonywane przez polskiego ministra finansów, aby tylko nie przekroczyć „magicznego” progu 55%.
Dyskusje
383
P. Krugman w artykule opublikowanym 2 września 2009 r. w „New York Times” też
przypuścił ostry atak na matematyzację ekonomii, twierdząc, że matematyzujący ekonomiści przyczynili się do ostatniego kryzysu w 2008 r., bo uznali piękno modeli matematycznych za oznakę prawdy [Krugman 2009]. Krugman wypowiada się w podobnym duchu, jak wcześniej czynili to inni laureaci Nagrody Nobla: R. Coase, W. Leontief czy
M. Friedman, pisząc że ekonomia została przekształcona w gałąź matematyki stosowanej
bez dbałości o odpowiednie relacje z rzeczywistością gospodarczą. Artykuł ten spotkał
się z szerokim odzewem ekonomistów ortodoksyjnych oraz heterodoksyjnych.
Zdecydowaną (można nawet powiedzieć, wściekłą) odpowiedź na ten artykuł przedstawili, krytykowani przez Krugmana, zwolennicy szkoły chicagowskiej, J.H. Cochrane
[2009] i D.K. Levine [2009]. Jednak wielu ekonomistów popiera stanowsko Krugmana.
To z ich inicjatywy fragmenty artykułu Krugmana sformułowano w formie petycji, którą zamieszczono na stronie internetowej2, zachęcając do podpisywania się pod nią.
Sama teza Krugmana o nadmiernej matematyzacji wydaje się słuszna, jednakże to, co
odstrasza od podpisania tej petycji to proponowane, bardzo centralistyczne i interwencjonistyczne rozwiązania (co w przypadku P. Krugmana wcale nie dziwi, dziwi
natomiast duża, ponad 2300, liczba osób, którzy podpisali się pod tą petycją).
Do tego typu krytycznych opinii przyłączają się praktycy gospodarczy, np. w kwietniowym numerze „BusinessWeek” w 2009 r., poświęconemu kryzysowi w ekonomii, przytaczana jest opinia znanego eksperta finansowego, Paula Wilmotta: „Modele ekonomistów są po prostu okropne. Ekonomiści ci całkowicie zapominają o tym, jak ważny jest
element ludzki” [Wilmott 2009].
Z całkiem odmiennych powodów krytykę matematyzacji ekonomii podejmują ekonomiści szkoły austriackiej. Ta niemalże programowa niechęć szkoły austriackiej do matematyki została zapoczątkowana przez jej twórców, C. Mengera, E. von Boehm-Bawerka,
i była podtrzymywana przez wszystkich następców, w tym Misesa, Hayeka czy Rothbarda.
Jest to temat na osobny artykuł, dlatego ograniczę się tutaj jedynie do przedstawienia,
jak się wydaje reprezentatywnej dla szkoły austriackiej, opinii L. von Misesa z jego magnum opus, traktatu Ludzkie działanie. Jak się wydaje, ten stosunek szkoły austriackiej
do matematyzacji ekonomii jest znacznie bardziej uzasadniony, uargumentowany i w dużym stopniu przekonujący w stosunku do opinii wyrażanych przez ekonomistów głównego nurtu. Stwierdzenia Misesa są dosyć kategoryczne, ale może dzięki temu zmuszają do
przeanalizowania problemu i zastanowienia się nad tym, jaki jest rzeczywisty problem
z matematyzacją ekonomii. Zgodnie z sugestią Misesa, „Metodę matematyczną należy
odrzucić nie tylko ze względu na jej jałowość. Jest ona całkowicie fałszywa, gdyż opiera
się na błędnych założeniach i prowadzi do nieprawdziwych wniosków. Jej sylogizmy są
2 Treść petycji: „Niewielu ekonomistów zauważyło nadejście obecnego kryzysu, ale to niepowodzenie
w przewidywaniu jest najmniejszym problemem ekonomii. Znacznie ważniejszym była zawodowa ślepota
na wielce prawdopodobne katastrofalne niepowodzenia gospodarki rynkowej (…) Zawodowi ekonomiści
pobłądzili, bo jako grupa pomylili piękno, odziane w robiącą wrażenie matematykę, z prawdą (…)
Ekonomiści zakochali się w starej, wyidealizowanej wizji gospodarki, w której racjonalni ludzie współdziałają na doskonałym rynku, udekorowanym wymyślnymi równaniami (…) Niestety, ta romantyczna i higienicznie czysta wizja gospodarki doprowadziła większość ekonomistów do zignorowania wszystkiego, co
mogło źle zadziałać. W swoim zaślepieniu nie dostrzegli ograniczeń ludzkiej racjonalności, która często
prowadzi do spekulacyjnych baniek i bankructw; zamknęli oczy na problemy instytucji powodujących szaleństwa; na niedoskonałości rynków – zwłaszcza rynków finansowych – które mogą powodować nagłe
i niespodziewane załamania gospodarki; na niebezpieczeństwa spowodowane tym, że prawodawcy (regulatorzy) nie wierzą w prawo (regulacje). (…) Kiedy przychodzi do rozważania humanistycznych aspektów
recesji i depresji, ekonomiści powinni zaniechać eleganckiego, ale niepoprawnego rozwiązania zakładającego, że wszyscy zachowują się racjonalnie, a rynki funkcjonują perfekcyjnie” [http://www.ipetitions.com/
petition/revitalizing_economics/?e].
384
Dyskusje
nie tylko jałowe, lecz odciągają umysł od badania rzeczywistych problemów i zniekształcają stosunki między różnymi zjawiskami” [Mises 2007, s. 300]. Ważne jest też spostrzeżenie Misesa, że aby sformułować równanie matematyczne, trzeba przeprowadzić długi
wywód niematematyczny, o którym często się zapomina. To, co istotnie różni fizykę od
ekonomii, to natura relacji pomiędzy elementami będącymi w sferze zainteresowań obu
nauk. W fizyce „istnieją stałe relacje między różnymi elementami mechanicznymi i jeżeli ich istnienie da się potwierdzić za pomocą eksperymentów, to można wykorzystać takie
równania do rozwiązania określonych problemów technicznych”. Natomiast w ekonomii,
z samej natury zjawisk gospodarczych, takie stałe relacje po prostu nie istnieją.
Rozważania nad problemem matematyzacji ekonomii prowadzą Misesa do wniosku, że
„Ekonomista matematyczny nie przyczynia się w żaden sposób do wyjaśnienia procesu
rynkowego” [Mises 2007, s. 304]. Na kilkadziesiąt lat przed rewoltą studentów francuskich w czerwcu 2000 r. Mises proroczo stwierdza, że: „Studenci są zdezorientowani. Na
zajęciach ekonomii matematycznej są zasypywani wzorami matematycznymi opisującymi
hipotetyczne stany równowagi, w których nie występuje działanie. Szybko dochodzą do
wniosku, że równania te są całkowicie bezużyteczne, by zrozumieć działania gospodarcze” [Mises 2007, s. 737].
Ktoś mógłby zarzucić, że poglądy szkoły austriackiej (w tym Misesa) są dziwne
i mało istotne, bo po prostu Mises nie znał matematyki (co zresztą nie jest prawdą).
Można jednak podać wiele przykładów, że nawet tak zmatematyzowane nauki jak
współczesna fizyka stoją przed podobnymi problemami metodologicznymi. Znów ograniczę się do jednego przykładu, chyba najsławniejszego fizyka naszych czasów. Albert
Einstein w opublikowanym w latach 20. XX w. artykule Geometria a doświadczenie
pisze o zagadce, „która niepokoiła badaczy we wszystkich czasach”, mianowicie zastanawia się nad tym, jak to jest możliwe, że „matematyka, która jest owocem ludzkiego
myślenia niezawisłym od wszelkiego doświadczenia, tak doskonale stosuje się do przedmiotów rzeczywistych”. Czy poprzez czyste rozumowanie można badać własności
przedmiotów rzeczywistych, bez odwoływania się do doświadczenia? Na tego typu pytania Einstein odpowiada, że „o ile twierdzenia matematyczne odnoszą się do rzeczywistości, nie są one pewne, a o ile są pewne, to nie odnoszą się do rzeczywistości”.
Matematyka jest dyscypliną specyficzną, w tym sensie, że wszelkie działanie badawcze
oparte jest na tzw. aksjomatyzacji. Dzięki temu możliwe jest ścisłe oddzielenie tego, co
logiczne, formalne, od tego, co jest „namacalne”, rzeczowe i dostępne dla ludzkich
zmysłów. Jak pisze Einstein, „wedle zasad aksjomatyzacji tylko zagadnienia logiczno-formalne są przedmiotem matematyki, a nie związana z nimi treść zmysłowa lub jakakolwiek inna”. I dalej pisze on niemalże dokładnie w duchu misesowskim, że „matematyka jako taka nie może niczego powiedzieć ani o przedmiotach poglądowo wyobrażenych, ani o przedmiotach rzeczywistych. W geometrii aksjomatycznej pojęcia
»punkt«, »prosta« itd. są to tylko schematy beztreściowe. To, co nadaje im treść, nie
należy do matematyki”3.
Drugi, może nawet ważniejszy problem z matematyzacją ekonomii, który w artykule
S. Małeckiego-Tepichta jest prawie nieobecny, to wykorzystywanie modeli matematycznych w praktyce życia gospodarczego. Wydaje mi się, że w analizie ekonomicznej źle
rozumiemy wykorzystanie matematyki, w tym wykorzystanie pewnych metafor fizykalistycznych. Już nawet nie chodzi o to, że ekonomiści głównego nurtu zapominają o niezmiennej od dziesięcioleci opinii o nieużyteczności matematyki w ekonomii wyrażanej
przez ekonomistów szkoły austriackiej. Najsmutniejsze jest to, że zapominają oni o prze3 http://www.wiw.pl/delta/geometria.asp
Dyskusje
385
słaniu jednego z największych ekonomistów głównego nurtu, Alfreda Marshalla. W liście
Marshalla napisanym w 1906 r. do A.L. Bowleya podsumowuje on swoje kilkudziesięcioletnie doświadczenie ekonomiczne następująco: „W miarę upływu lat mojej pracy rośnie
we mnie przekonanie, że jest bardzo mało prawdopodobne by dobre twierdzenie matematyczne odnoszące się do hipotez gospodarczych było jednocześnie dobrą ekonomią,
dlatego coraz częściej stosowałem się do następujących reguł:
1. Wykorzystuj matematykę jako język skrótu myślowego, a nie jako maszynerię
badań.
2. Badaj ten matematyczny model, aż będziesz zadowolony.
3. Przetłumacz to na angielski (wyraź to w języku naturalnym).
4. Znajdź dobre przykłady z realnego życia ilustrujące twoje dokonania teoretyczne.
5. Spal matematykę.
6. Jeżeli nie udało ci się zrealizować (4), spal także (3). To ostatnie robiłem często”4.
To ważne czwarte przesłanie jest prawie całkowicie nieobecne we współczesnym
głównym nurcie analizy ekonomicznej. Najczęściej jest tak, że nasze wysiłki idą na marne
i jedynie od czasu do czasu trafiają się perełki w wykorzystaniu matematyki w analizie
procesów gospodarczych. Jak znacznie gorsza musi być sytuacja w ekonomii, korzystającej od końca XIX ze wzorców fizykalistycznych, jeśli jeden z największych fizyków XX w.
Richard Feynman, laureat Nagrody Nobla z fizyki, powiedział: „rozumienie sensu matematycznego równań nie oznacza rozumienia fizyki. Sformułowanie równania, które opisywałoby w sposób ilościowy jakieś zjawisko fizyczne, wymaga wcześniej zrozumienia go
na poziomie jakościowym, zrozumienia na poziomie rozumu, prawdopodobnej przyczyny
powodującej to zjawisko wśród wielu możliwości”.
Formalizacja matematyczna prawa naukowego nie wnosi nic nowego do naszej wiedzy na temat analizowanych zjawisk i ma właściwie praktyczny sens, czyli jest konieczna
tylko wtedy, gdy wykorzystujemy naszą znajomość tego prawa do ilościowego przewidywania zjawisk. Samo równanie, pozbawione werbalnego jakościowego zaplecza, nie mówi
nam nic o naturze zjawisk. Ten aspekt prognozowania nie został przedstawiony w tekście
S. Małeckiego-Tepichta. Jaki najczęściej robimy błąd w analizie ekonomicznej? Warto
przede wszystkim pamiętać, że jeżeli budujemy model, to robimy to przyjmując pewne
założenia. Budujemy model, potem rozwiązujemy go, „bawimy się nim” – jak mówił
Marshall, wyciągamy pewne wnioski. Na koniec tej analizy formułowane są postulaty,
często mające na celu wsparcie działań w sferze realnej (np. w polityce gospodarczej
państwa). Prawdę powiedziawszy w tym momencie w ekonomii zapominamy o wszystkim, co było poprzednio, to znaczy o założeniach, przy których został zbudowany dany
model. Tyczy się to zwłaszcza polityków i ekonomistów, którzy doradzają rządowi; zapominają oni o tym, że pewne wnioski i postulaty zostały wyprowadzone z modelu o bardzo
jasnych, ściśle określonych założeniach. Przykłady takiego „zapominalstwa” można by
mnożyć. Wspomniany model równowagi jest dobrym przykładem, ale równie dobrym
i często przeze mnie przytaczanym przykładem jest model IS-LM, wykorzystywany niemal powszechnie w polityce gospodarczej. Zapomina się przy tym całkowicie o pewnych
istotnych założeniach leżących u podstaw tego modelu. Pamięta się tylko o końcowych
rezultatach analizy modelu i stosuje się je w kreowaniu czy to polityki fiskalnej, czy monetarnej, a najczęściej założenia te w jawny sposób nie pasują do rzeczywistości gospodarczej.
Kolejnym takim współczesnym przykładem, dla mnie niemalże klinicznym, jest reguła Blacka-Scholesa, którą wymyślili F. Black i M. Scholes w latach 70., rozwinęli wspólnie
4 Cyt.
za N. Kaldor [1985].
386
Dyskusje
z R. Mertonem w latach 80. XX w. i potem wykorzystywali to w praktyce. W roku 1978
M. Jensen, amerykański ekonomista, z odwagą stwierdził, że „nie ma w ekonomii innej
propozycji, która miałaby tak twarde dowody wspierające, jaką jest hipoteza efektywnych
rynków” (efficient-markets hypothesis). Hipoteza ta prowadziła do jasnej konkluzji, że
cena instrumentów rynkowych odzwierciedla wszelką dostępną wiedzę potrzebną do
tego, aby ustalona została poprawna wartość takich instrumentów. Na tym przekonaniu
zbudowana została cała matematyczna teoria inżynierii finansowej stosowana na Wall
Street. Panowało ogólne przekonanie, że dzięki jej stosowaniu instytucje finansowe stają
się bogatsze, system finansowy jest coraz bezpieczniejszy, a gospodarka zdrowsza.
M.S. Scholes wspólnie z R.C. Mertonem, dostali w 1997 r. Nagrodę Nobla z ekonomii za
„nowe metody wyceny opcji”5. Ma rację Scholes, twierdząc że „są modele, ale są też ci
którzy używają tych modeli”, i wyrażając opinię, że winę w obecnej sytuacji kryzysowej
ponoszą nie ekonomiści-teoretycy, ale „ci z Wall Street i z City, którzy posunęli się za
daleko w ich praktycznym wykorzystaniu”6. Dalej Scholes stwierdza, że „wiele modeli
używanych do opisu produktów strukturalnych było całkiem dobrych, ale dane wejściowe
do nich były okropne. W istocie ogromna większość kontraktów odnoszących się do instrumentów pochodnych oraz sekurytyzacji dawała rezultaty zgodne z tym, co uzyskiwano w modelach. Były jedynie pewne wyjątki, które okazały się katastrofalnymi”
[Efficiency... 2009]. Swego rodzaju „odkryciem” Scholesa jest opinia, że „w okresach napięć rynkowych zmienne, które normalnie nie są ze sobą skorelowane, stają się bardzo
skorelowane”. Zatem nie należy się dziwić, że „amortyzatory kapitałowe proponowane
przez modele VAR (value-at-risk) stają się całkowicie nieadekwatne i bezużyteczne”.
Należy jednak zauważyć, że te uwagi Scholes powinien adresować także do siebie i do
swojego kolegi Mertona. Obaj założyli bowiem w 1994 r. fundusz hedgingowy Long-Term
Capital Management (LTCM), który funkcjonował, wykorzystując teoretyczne osiągnięcia obu noblistów. Merton mówił, że to jest taki odkurzacz, który ściąga centy i tworzy
miliony.
Jak wiemy, w rok po uzyskaniu przez nich Nagrody Nobla, w 1998 r. LTCM upadł
(miał 4,6 mld długów), i gdyby nie wsparcie Banku Rezerwy Federalnej USA i powołanego ad hoc konsorcjum bankowego system finansowy doświadczyłby w końcu XX w.
daleko idącej destabilizacji7. Okazało się – jak potem przyznaje sam Merton – że nie
uwzględniono drobnych rzeczy, np. tego, że nastąpi kryzys finansowy w Rosji.
Doświadczenia z LTCM nie odstraszyły obu ekonomistów od robienia ryzykownych
interesów. Scholes (wspólnie z Chi-fu Huangiem, także profesorem ekonomii finansowej, i innymi partnerami: Ajmanem Hindy, Tong-sheng Sunem, and Lawrence Ng) tuż
po upadku LTCM utworzył kolejny fundusz hedgingowy Platinum Grove Asset
Management. W listopadzie 2008 r. ze względu na ogromne straty fundusz ten wstrzymał operacje i jest bliski upadku8. Drugi noblista od opcji też próbował robić interesy
po upadku LTCM. W styczniu 2007 r. R. Merton (wspólnie z byłymi szefami JP Morgan)
utworzył finansową firmę doradczą Trinsum Group, która wykorzystując teorię finansową miała „wypełnić lukę” pomiędzy konsultingiem zarządzania i bankowością inwestycyjną. Po dwóch latach działalności w lutym 2009 r. grupa ta ogłosiła upadłość, a jej
5 Trzecim laureatem powinien być F.S. Black, który niestety umarł w 1995 r. (sławna formuła Blacka-Scholesa wyceny opcji).
6 Cyt. za Efficiency and Beyond, „The Economist”, 16.07.2009.
7 Można by się zastanowić, czy gdyby Fed pozwolił wtedy upaść LTCM, to czy nie byłby to dostateczny
sygnał ostrzegawczy dla innych instytucji finansowych, że w przypadku podejmowania ryzykownych działań
instytucje te nie będą mogły korzystać ze wsparcia banku centralnego. W konsekwencji mogłoby nie dojść
do tak głębokiego kryzysu finansowego, jakiego świat doświadcza od 2008 r.
8 http://www.bloomberg.com/apps/news?sid=aWQVwbD5Hfxw&pid=20601087
Dyskusje
387
wierzytelności wyniosły 15,8 mln USD wobec wartości aktywów na poziomie 1,1–1,2 mln
USD9.
Jak widzimy, te przykre doświadczenie niczego nie nauczyły ani Scholesa, ani
Mertona. To różni właśnie takich ekonomistów, polityków i finansistów od praktyki inżynierskiej i fizycznej. Jak robią to fizycy, jak robią to inżynierowie? Przede wszystkim modele w fizyce i w inżynierii tworzone są iteracyjnie, metoda kolejnych przybliżeń, poprzez
stałą konfrontację modeli z rzeczywistością. Fizycy i inżynierowie, mając pewien model
teoretyczny, stosują go w praktyce z wielką ostrożnością. Zawsze zakłada się duży margines błędu. Projektując jakikolwiek system (np. most, budynek, akcelerator cząstek,
statek kosmiczny), inżynier i fizyk zakładają, że powinien on wytrzymać co najmniej
50–60-procentowe przeciążenie (powyżej tzw. naturalnych, oczekiwanych warunków).
Dobrym przykładem jest ten z elektroniki, który opowiedziano nam podczas studiów
na jednym z wykładów, ilustrujący podejście nieobecne w ekonomii. Na elektronice wykładana jest teoria obwodów, na podstawie której konstruuje się radioodbiorniki, tworzy się
też ich prototypy. Taki prototyp podlega gruntownej analizie i ważne jest przy tym nie tylko
teoretyczne rozważanie, ale także praktyczne testowanie, doświadczenie. W Dzierżoniowie
na Dolnym Śląsku była firma „Diora” (która niestety już nie działa) produkująca radioodbiorniki. To był przełom lat 50. i 60., w „Diorze” w tym czasie produkowano odbiorniki na
lampach elektronowych. Lampy były umieszczane na tzw. chasis (płycie metalowej) i inżynierowie mieli ogromne problemy z wytłumieniem drgań. Jak włączano radioodbiornik, to
chasis bardzo drgało i radioodbiornik, mimo że doskonale zaprojektowany, w którym teoretycznie wszystko powinno działać, nie funkcjonował. Inżynierowie z „Diory” zwrócili się
do prof. Roszkowskiego, wtedy najlepszego specjalistę w tej dziedzine – teoretyka, ale
także praktyka. On powiedział: „proszę przynieść mi suchego piasku”. Przynieśli mu ten
piasek i on tym piaskiem posypał płytę i powiedział: „proszę włączyć radioodbiornik”. Po
włączeniu okazało się, że na płycie powstawały strzałki drgań, na których nie było piasku.
W miejscach powstawania strzałek drgań profesor kazał wywiercić niewielkie otwory. Cóż
się okazało? Chasis przestało drgać, odbiorniki okazały się doskonałe i mogły z powodzeniem być sprzedawane na rynku (jeśli w ogóle w tym czasie można mówić o rynku). Czegoś
takiego w analizie ekonomicznej nie ma i to nie dlatego, że – jak się często twierdzi –
w ekonomii nie możemy robić eksperymentów.
Tego typu myślenie i podejście nie występuje u Mertona, Scholesa i innych matematyzujących ekonomistów. Zresztą Nassim Taleb zarzuca Mertonowi i innym ekonomistom, że nie uwzględniają w swoich rozważaniach czegoś takiego jak „czarny łabędź”
(nieoczekiwane, mało prawdopodobne zdarzenie). A jak daleko od świata rzeczywistego
jest ten nurt badawczy, to widać chociażby po pewnych sformułowaniach, które możemy
spotkać w publikacjach np. ekonomistów neoklasycznych. Bardzo często publikacje te
zaczynają w stylu: „Załóżmy, że w gospodarce Romera, Lucasa, Mankiwa będzie tak
9 http://nudaveritas.biznes.net/blogposts/view/16588-Firma_noblisty_z_ekonomii_zbankrutowala.html,
komunikat PAP, 26.02.2009.
Na marginesie tych rozważań można zadać pytanie, jak to jest możliwe, że ludzie, którzy doprowadzają
świat biznesu na skraj katastrofy, nadal mogą prowadzić interesy i nie są wykluczeni przez społeczność
przedsiębiorców? W normalnej gospodarce rynkowej byłoby to niemożliwe. Ostracyzm środowiska biznesowego w stosunku do nieuczciwych przedsiębiorców, który był bardzo silnym mechanizmem w znacznie
zdrowszej (rynkowej) gospodarce XIX w., jest obecnie całkowicie nieznany i nieobecny. Zastąpiły go,
z wysoce negatywnym skutkiem, wszechobecne regulacje rządowe i niewyobrażalny rozrost prawa.
Widocznie takie słowa jak honor, odpowiedzialność, uczciwość straciły już całkowicie na znaczeniu
Dewaluacja tych podstawowych dla rynku postaw dokonała się w ostatnich 70. i 80. latach i – jak się wydaje
– jest ściśle skorelowana z rozrostem rządu i wzrostem wzajemnych zależności (choć słowo „zażyłości”
wydaje się bardziej odpowiednie) pomiędzy biznesem i rządem, gospodarką i polityką. Można pokusić się
o hipotezę, że dewaluacja tych postaw jest dokładnie tak sama jak rządowa inflacja pieniądza w XX w.
388
Dyskusje
a tak …”; albo też fragment, który znalazłem u Snowdona i Wane’a (Współczesne nurty
teorii makroekonomii) odnośnie do ostatniego laureata Nagrody Nobla z ekonomii
T. Sargenta: „w świecie Sargenta i Wallace’a bezrobocie może się odchylać od stopy naturalnej w wyniku nieprzewidywalnych w wstrząsów popytu…” itd.
Ten z konieczności krótki komentarz chciałbym zakończyć wierszem W.J. Macquorna
Rankine’a Zakochany matematyk10, który dziwnym zbiegiem okoliczności opublikowany
został w tym samym 1874 r., kiedy Léon Marie Esprit Walras (1834–1910) opublikował Éléments d’économie politique pure, ou théorie de la richesse sociale, dzieło, które, nie
tylko zdaniem S. Małeckiego-Tepichta, zapoczątkowało matematyzację analizy ekonomicznej. Kumulacją tego kierunku rozwoju matematyki ekonomicznej był opublikowany
osiemdziesiąt lat później, w 1954 r., model Arrowa-Debreu, który (żartując tylko troszeczkę) można uznać za odpowiedzialny za wszelkie zło współczesnej analizy ekonomicznej głównego nurtu.
Zakochany matematyk
William John Macquorn Rankine (1820–1872)
I.
Pewien matematyk dał sobie skraść serce,
W damie ślicznej, ponętnej zakochał się wielce.
Ponieważ zapałał zupełną miłością,
W całkowitym skupieniu nad każdą krągłością,
Mierzył i studiował proporcje podziału,
Dowodząc, że wybranka bliska ideału.
II.
Mnożył, różniczkował, rachował z zapałem,
Równania układał doprawdy wspaniałe.
Działaniami rozwiewał wszelkie niewiadome,
I rozwiązał zadanie na kompletną żonę.
Nakreślał linie jej figury i twarzy,
Licząc, że taką ją sobie wymarzył.
III.
A że każda kobieta kocha piękne dźwięki,
Obmyślił teorię zdobycia jej ręki.
Akustycznych równań użył znakomicie,
By miłosną arią przekształcić jej życie.
W istocie gdy melodię tylko zaczął grać,
Dama włosy z głowy wnet zaczęła rwać.
IV.
Pewny siebie rachmistrz, bez cienia zwątpienia,
Nie odstąpił wcale od swego liczenia.
Wywodząc, że taniec to kolejna gratka,
Której musi ulec czarowna dzierlatka,
W następnym równaniu wyprowadził walca,
A następnie polkę, jako rodzaj tańca.
10 Tłumaczenie Olga Pisklewicz. Polskie tłumaczenie zostało opublikowane w książce Pod prąd głównego nurtu ekonomii, red. Mateusz Machaj, Instytut Misesa, Warszawa 2010, s. 233–234.
Dyskusje
389
V.
Symetrycznym krokiem na parkiet wyruszył
Zakładając pewnie: damę to poruszy.
Wykonując obrót wokół własnej osi,
Swój środek ciężkości niezgrabnie przenosił.
Zatem grawitacja figla mu spłatała
I upadł, aż podłoga złowróżbnie zadrżała.
VI.
Nie poddał się jednak, projektował dalej:
Miłości dowodzić należy wytrwale.
Afekt – to wiedział ze swych kalkulacji –
Musi odwzajemnić dama pełna gracji.
Przecież wszyscy wiedzą z mechaniki prawa:
Akcja równa się reakcji – ot, cała zabawa!
VII.
„Zatem niech x oznacza piękno, y – manier dobrych szereg”,
„z – pomyślność”, bo szczęścia nigdy nie za wiele,
„L – niech znaczy miłość”, a pojmiemy wnet,
że „L staje się funkcją x, y i z”.
Matematyk dostrzegł w tym potencjał wielki
I ujął w równania rachunkowe gierki.
VIII.
Postanowił scałkować jeszcze L po t.
t – to czas i perswazja, a więc stwierdził, że
„Całka oznaczona – drogą do ołtarza,
Co przedział czasowy klarownie wyraża”.
Matematyk w duszy poczuł słodką błogość:
Granicą ich uczuć będzie nieskończoność!
IX.
„Skoro Pani Algebra tak wiele wylicza
I jest w stanie określić nawet bieg księżyca,
To uczucia kobiety określi tym bardziej”,
Stwierdził matematyk i poczuł się raźniej,
Lecz dama uciekła z wojakiem wyśnionym,
A nieszczęsny logik oniemiał zdumiony.
P. O’Rourke w książce pt. Wykończyć bogatych!, zastanawiając się nad wpływem teorii
ekonomicznej na praktykę życia gospodarczego zapytał znajomego maklera Dawida, „jakie teorie ekonomiczne wyznają ludzie pracujący na giełdzie. Czy przynależą do »klasycznej szkoły«, która głosi, że siły popytu i podaży same wzajemnie się regulują i nie
sposób się im przeciwstawiać, czy należą może do zwolenników teorii Keynesa, który
wierzył że programy rządowe mogą stworzyć dobrobyt i dać wszystkim zatrudnienie?
A może są monetarystami i sądzą, że cykle ekonomiczne wiążą się z polityką banku centralnego?
– Moim zdaniem g… ich to obchodzi – odpowiedział Dawid” [O’Rourke 2006, s. 28].
Może warto uznać słowa maklera Dawida za przestrogę i zadbać, aby „prawdziwa
ekonomia trafiła pod strzechy”, czyli spopularyzować i upowszechnić znajomość ekono-
390
Dyskusje
mii. Przedstawianie ekonomii w bardzo sformalizowanej, zmatematyzowanej formie nie
służy temu celowi. Jeśli tego nie zrobimy, to zarówno konsumenci, jak i praktycy (przedsiębiorcy, finansiści, maklerzy, bankierzy) zachowają się jak ta dama w wierszu Rankine’a,
która „uciekła z wojakiem wyśnionym”. A nieszczęsny ekonomista oniemiał zdumiony.
Tekst wpłynął 3 stycznia 2012 r.
Bibliografia
Arrow K.J., Debreu G., Existence of an Equilibrium for a Competitive Economy, „Econometrica”
1954, nr 22.
Blaug M., Disturbing Currents in Modern Economics, „Challenge”1998a, t. 41, nr 3.
Blaug M., Metodologia ekonomii (I wyd. ang. 1980, drugie 1992), WN PWN, Warszawa 1995.
Blaug M., The Problems with Formalism, „Challenge” 1998b, t. 41, nr 3.
Cochrane J.H., How did Paul Krugman get it so Wrong? http://faculty.chicagobooth.edu/john.
cochrane/research/Papers/krugman_response.htm (16.09.2009).
Efficiency and Beyond, „The Economist”, 16.07.2009.
Kaldor N., Economic without Equilibrium, The Okun Lectures, M.E. Sharpe, Armonk, New York
1985.
Krugman P., How Did Economists Get It So Wrong? „The New York Times”, 2.09.2009.
Levine D.K., An Open Letter to Paul Krugman’, http://www.huffingtonpost.com/david-k-levine/
an-open-letter-to-paul-kr_b_289768.html (18.09.2009).
Mises L. von, Ludzkie działanie. Traktat o ekonomii, Instytut Misesa, Warszawa 2007 (pierwsze
wydanie angielskie ulazało się w 1949 r.).
Pod prąd głównego nurtu ekonomii, red. Mateusz Machaj, Instytut Misesa, Warszawa 2010.
O’Rourke P.J., Wykończyć bogatych! Wydawnictwo Wektory, Warszawa 2006.
Wilmott P., What Good Are Economists Anyway? „BusinessWeek”, 16.04.2009.
R E C E N Z J E
I
O M Ó W I E N I A
Andrzej Czyżewski, Agnieszka Poczta-Wajda, Polityka rolna w warunkach globalizacji.
Doświadczenia GATT/WTO, Polskie Wydawnictwo Ekonomiczne, Warszawa 2011,
s. 324.
Podjęty w recenzowanej książce problem interwencyjnej polityki państwa w kontekście
procesów globalizacji jest interesującym poznawczo pytaniem badawczym, inspirującym
do dyskusji na temat konsekwencji liberalizacji owej polityki oraz jej skuteczności w realizacji zamierzonych celów. Kumulacja negatywnych zjawisk w rolnictwie wynikających
z zawodności rynku jest wciąż ważnym argumentem przemawiającym jednocześnie za
interwencyjną polityką państwa i przeciw liberalizacji światowej polityki rolnej. Trwająca
kilka lat Runda Urugwajska, w trakcie której nie można było uzyskać konsensusu w sprawie liberalizacji, dowiodła jak silne są dążenia państw rozwiniętych do obrony wspólnej
polityki rolnej w jej dotychczasowym kształcie. Obawa o niekorzystne następstwa liberalizacji w rodzimych krajach okazała się silniejsza niż dążenie do „uczciwego” handlu
produktami rolnymi.
Sektorowa specyfika rolnictwa znajdująca odzwierciedlenie m.in. w niepodzielności
czynników wytwórczych bezsprzecznie przemawia za stosowaniem aktywnych form interwencji państwa. Z drugiej jednak strony z uwagi na to, że zniekształca ona warunki wymiany międzynarodowej i pozbawia kraje rozwijające się korzyści wynikające z przewag
komparatywnych, zachodzi potrzeba liberalizacji światowej polityki rolnej. Przejawem
owej liberalizacji było Porozumienie w Sprawie Rolnictwa zawarte w ramach Rundy
Urugwajskiej GATT/WTO, którego następstwa nie są tak duże, jak się tego początkowo
spodziewano. Autorzy recenzowanej książki podjęli próbę odpowiedzi na pytanie o skutki tego porozumienia w światowym handlu artykułami rolnymi, uwzględniając wpływ
ograniczenia w zakresie instrumentów pozataryfowych, redukcji ceł, subsydiów eksportowych oraz ograniczeń w zakresie wsparcia wewnętrznego. Przedmiotem głównego zainteresowania autorów są zmiany w handlu wybranej grupy krajów, będących największymi „graczami” na światowym rynku rolnym, tj. krajów UE, USA, Japonii, Australii
i Nowej Zelandii.
Książka stanowi obszerne i ciekawe studium omawiające z imponującą znajomością
problemu politykę rolną, kierunki ewolucji jej instrumentów dostosowywanych do zmieniających się makroekonomicznych warunków, szczególnie w kontekście procesów globalizacji
i wynikających z tego implikacji dla handlu światowego. Całość rozważań jest znakomicie
udokumentowana danymi statystycznymi obejmującymi okres bazowy dla Porozumienia
w Sprawie Rolnictwa, tj. lata 1986–1988, oraz okres implementacji porozumienia, tj. lata
1995–2001. Licząca ponad 300 stron praca pozwala spojrzeć całościowo na problematykę
liberalizacji handlu, przedstawia kompleksowy obraz jej złożoności, konfliktów interesów
i obiektywnych ograniczeń. Książka zaopatrzona jest w aneks, zawierający m.in. zestaw
wskaźników wsparcia producentów rolnych OECD, słowniczek podstawowych pojęć oraz
bogatą bibliografię liczącą ponad 200 pozycji, głównie anglojęzycznych.
W rozdziale pierwszym podjęto rozważania teoretyczne nad makroekonomicznymi
uwarunkowaniami rozwoju sektora rolnego, zmierzające do udowodnienia tezy, że rynek
392
Recenzje i omówienia
deprecjonuje rolnictwo w jego dalszym i bliższym otoczeniu jako gałęź surowcową oddaloną w sensie ekonomicznym od nabywcy. Gdyby nie przymus konsumpcyjny w zakresie
spożycia żywności, czynniki wytwórcze musiałby zostać przesunięte z rolnictwa do sektorów gospodarki, w których miałyby efektywniejsze zastosowanie. Jak piszą autorzy, „naturalne i ekonomiczne uwarunkowania wytwarzania surowców do produkcji żywności
implikują nieefektywną alokację czynników wytwórczych” (s. 23–24). Wiąże się to głównie z ograniczonością czynnika ziemi i ograniczonymi możliwościami tworzenia nadwyżki ekonomicznej i zwiększania produkcji, ale także z niekorzystnymi relacjami rynkowymi, mającymi odzwierciedlenie w wyższej elastyczności podaży produktów rolnych niż
popytu na artykuły żywnościowe. Rolnictwo jako gałąź surowcowa partycypuje w większym stopniu w wytwarzaniu wartości dodanej niż w osiąganiu z tego tytułu korzyści.
Ponieważ transfer zwrotny tych korzyści nie dokonuje się samoistnie przez mechanizm
rynkowy, zachodzi potrzeba wzmocnienia w rolnictwie roli państwa w funkcji alokacyjnej
poprzez mechanizm budżetowy i infrastrukturę instytucjonalną. W przeciwnym razie,
zdaniem autorów książki, mechanizm rynkowy zawsze będzie marginalizował sektor rolny i tym samym wpływał na zachwianie równowagi ekonomicznej i społecznej w całej
gospodarce. W rozdziale tym znajduje się też miejsce na wyjaśnienie zasady wahadła
w polityce monetarnej i fiskalnej oraz związków między polityką makroekonomiczną
a rolnictwem i efektywnością tej polityki.
Rozdział drugi zawiera charakterystykę sektora rolnego, polityki rolnej, jej pryncypiów, filarów, instrumentów oraz uwarunkowań ewolucji przed zakończeniem Rundy
Urugwajskiej w krajach UE, USA, Japonii, Australii i Nowej Zelandii. Wybór tych krajów jest podyktowany dużym udziałem w światowym handlu rolnym, a co za tym idzie
silną pozycją w negocjacjach Rundy Urugwajskiej i znacznym wpływem na ostateczny
kształt Porozumienia w Sprawie Rolnictwa. Z owej charakterystyki wyłania się obraz rolnictwa o pewnych zróżnicowanych i podobnych cechach modelu rozwoju. To, co wspólne,
to sukcesywnie zmniejszający się udział rolnictwa w podstawowych wskaźnikach ekonomicznych (PKB, zatrudnienie, udział importu i eksportu rolnego w imporcie i eksporcie
ogółem), natomiast to, co odmienne, to w znacznym stopniu polityka rolna zdeterminowana zróżnicowanymi uwarunkowaniami rozwoju sektora rolnego. W konkluzji autorzy
stwierdzają, że zróżnicowana polityka rolna wpłynęła na stanowisko poszczególnych krajów podczas negocjacji prowadzonych w ramach tej rundy, czego wyrazem było opowiedzenie się krajów o większej skali interwencji za umiarkowaną liberalizacją światowego
handlu.
W rozdziale trzecim opisano przebieg rozpoczętej w 1986 r. Rundy Urugwajskiej,
której rokowania przedłużyły się do 1994 r., co świadczy o tym, jak trudna była materia
podjętych rokowań. Dotychczasowa polityka rolna krajów rozwiniętych, m.in. poprzez
mechanizm wspierania cen i subsydia eksportowe, przyczyniła się do zniekształcenia
międzynarodowej wymiany produktami rolnymi i ograniczała dostęp do rynków światowych dla krajów rozwijających się. Dlatego kluczową kwestią rokowań w ramach Rundy
Urugwajskiej było stworzenie jednolitego systemu regulacji i zasad handlu produktami
rolnymi oraz wspierania sektora rolno-żywnościowego. Autorzy książki z dużą starannością badawczą omówili poszczególne elementy zobowiązań wynikających z Porozumienia
w Sprawie Rolnictwa GATT/WTO zawartego w 1994 r. dotyczących trzech kluczowych
obszarów: dostępu do rynku, subsydiów eksportowych i wsparcia wewnętrznego. Aby
dokonać oceny procesu implementacji tych zobowiązań w zakresie dostępu do rynku,
autorzy poddali szczegółowej analizie poziom ceł, sposób funkcjonowania paraceł oraz
wykorzystanie specjalnych klauzul ochronnych. Pozwoliło to na stwierdzenie, że zmiany
w polityce ochrony rynków w niewielkim stopniu przełożyły się na wzrost wielkości im-
Recenzje i omówienia
393
portu w krajach rozwiniętych. Zdaniem autorów jedną z przyczyn był wzrost średniego
poziomu ceł na produkty rolne w wyniku taryfikacji, jaka nastąpiła po Rundzie
Urugwajskiej, co wynikało z zamiany pozataryfowych instrumentów (ograniczenia ilościowe) na cła oraz z dużej swobody wyboru produktów o znacznej redukcji ceł i minimalnej redukcji. Spośród wielu innych ustaleń dokonanych w analizie przeprowadzonej
przez autorów książki warto wymienić wzrost w większości krajów rozwiniętych udziału
produktów rolnych objętych szczególnie wysokim cłem oraz dużego zróżnicowania ich
poziomu.
W analizie implementacji porozumienia w zakresie wsparcia wewnętrznego autorzy
omówili trzy grupy instrumentów zaliczonych według stopnia zniekształcania mechanizmu rynkowego i handlu zagranicznego do „skrzynki żółtej” (wsparcie podlegało redukcji do 20%), „skrzynki niebieskiej ” i „skrzynki zielonej”. Wprawdzie w pierwszych trzech
latach realizacji porozumienia łączna wartość transferów pieniężnych dla sektora rolnego w krajach OECD wzrosła, to jednak za pozytywne zjawisko należy uznać zmianę
struktury wsparcia, polegającą na wzroście wartości instrumentów zaliczanych do
„skrzynki zielonej” i spadku w dwóch pozostałych. Autorzy mają jednak uzasadnione
wątpliwości, na ile wskaźnik AMS, służący do ustalenia redukcji wsparcia wewnętrznego
w ramach „skrzynki żółtej”, odzwierciedla faktyczną skalę tej redukcji. Z wielu przytoczonych w książce przykładów wynika, że jego konstrukcja nie ilustruje w pełni rzeczywistego wsparcia cenowego i zniekształca jego obraz. Dlatego nie dziwi twierdzenie, że
„większość krajów rozwiniętych jeszcze w okresie implementacji porozumienia nie wykorzystała nawet w połowie przyznanych limitów wsparcia obliczonych wskaźnikiem
AMS, co oznacza, że posiadają one możliwość ponownego zwiększenia wsparcia udzielanego rolnikom” (s. 133).
Autorzy omówili również skutki wdrażania porozumienia w zakresie trzeciego elementu, jakim są subsydia eksportowe. Przeprowadzona analiza pozwoliła na wyciągnięcie generalnego wniosku o osiągnięciu dużej skuteczności redukcji tych subsydiów,
zwłaszcza w krajach UE. Skłoniło to autorów do ogólnej konkluzji, że implementacja
porozumienia była bardziej skuteczna w liberalizowaniu polityki handlowej, tj. obniżaniu
subsydiów eksportowych i ceł, niż w zreformowaniu wsparcia wewnętrznego. Potwierdziła
to również analiza wsparcia wyrażonego za pomocą odsetka PSE (wskaźnik ten określa
udział wsparcia w przychodach producentów rolnych), struktury tego wsparcia (udział
wsparcia powiązanego z bieżącym poziomem produkcji we wskaźniku PSE) oraz zróżnicowania wsparcia wobec różnych produktów. W rozdziale tym zamieszczono obszerne
i wyczerpujące dane porównawcze dotyczące wsparcia wyrażonego wskaźnikami % PSE,
relacji wskaźników wsparcia AMS i PSE, poziomu i struktury wsparcia, wskaźnika ochrony producentów rolnych NPC w okresie bazowym i w okresie implementacji Porozumienia
w Sprawie Rolnictwa.
Rozdział czwarty zawiera omówienie głównych założeń reform w polityce rolnej przeprowadzonych w wybranych krajach rozwiniętych w wyniku Rundy Urugwajskiej oraz
przebieg procesu implementacji Porozumienia w Sprawie Rolnictwa. Swoją uwagę autorzy skoncentrowali na reformach w UE i USA, gdzie kluczowe zmiany polegały na przeorientowaniu struktury wsparcia m.in. po to, aby zastąpić instrumenty podlegające redukcji, a więc ze „skrzynki żółtej”, instrumentami zaliczanymi do „skrzynki niebieskiej”,
wyłączonymi z redukcji. Dlatego zastąpiono wsparcie cenowe bezpośrednim wsparciem
dochodów, a wysokość dopłaty przestała być zależna od bieżącej wielkości produkcji.
Lektura tego interesującego rozdziału upoważnia do stwierdzenia, że stosunek krajów
rozwiniętych do zobowiązań porozumienia był ambiwalentny. Z jednej strony opowiadały się one za liberalizacją handlu produktami rolnymi, a z drugiej – zmierzały do utrzy-
394
Recenzje i omówienia
mania poziomu wsparcia za pomocą nowych instrumentów. Dowodzi tego chociażby
przykład UE, która zwiększyła łączną wartość wsparcia z 90 mld ecu w okresie bazowym
(1986–1988) do 95 mld euro w 2001 r., a jednocześnie spełniała zobowiązania porozumienia.
Rozdział piąty w zasadniczej części stanowi dyskusję autorów nad oceną skutków
Rundy Urugwajskiej GATT. Zdaniem autorów cele porozumienia wynegocjowanego
w ramach tej rundy nie zostały w pełni zrealizowane, a samo porozumienie okazało się
mało efektywne. Z przeprowadzonej analizy danych dotyczących wsparcia sektora rolnego wynika, że nie uległo ono zasadniczemu zmniejszeniu (poza pewnymi wyjątkami),
a jednocześnie zostały wypełnione zobowiązania wynikające z treści zawartego porozumienia. Przyczyn tego stanu upatrują w doborze okresu bazowego dla porozumienia
(1986–1988) oraz w zmianach zachodzących w tym czasie w relacji cen światowych i cen
wewnętrznych (niskie ceny światowe w okresie bazowym). Kolejną kontrowersyjną kwestią jest formuła redukcji ceł oparta na wielkości średniej, co skutkowało mniejszą redukcją ceł wysokich (zwłaszcza produktów strategicznych), a większą redukcją ceł niskich
oraz dużym zróżnicowaniem stawek. W końcowej części rozdziału przedstawiono pięć
scenariuszy liberalizacji wymiany handlowej artykułami rolno-żywnościowymi opracowanych za pomocą modelu AGLINK, w którym uwzględniono wpływ zmian ceł oraz subsydiów eksportowych. Pozwoliło to na określenie różnych scenariuszy wpływu liberalizacji
handlu produktami rolnymi na zmiany cen światowych oraz odchylenia wielkości produkcji, eksportu i importu na wybranych rynkach (pszenicy, innych zbóż, ryżu, wieprzowiny, drobiu, wołowiny mleka odtłuszczonego w proszku i masła). Z uwagi jednak na
pominięcie w symulacji (z obiektywnych przyczyn) wpływu zmian instrumentów wsparcia
wewnętrznego rolnictwa, przedstawione scenariusze mają ograniczoną przydatność. Na
wielu rynkach to właśnie instrumenty wsparcia wewnętrznego mają największy wpływ na
wielkość produkcji i handel zagraniczny. Nie można jednak przewidzieć, które instrumenty tego wsparcia i w jakim stopniu będą w przyszłości redukowane, a które zyskają
na znaczeniu.
Ostatni rozdział dotyczący dostosowań Wspólnej Polityki Rolnej UE po 2013 r.
w części odnoszącej się do przyszłych zmian w WPR pod wpływem globalnych uwarunkowań popytowych, podażowych oraz środowiskowo-klimatycznych budzi pewne wątpliwości z uwagi na to, że trudno jest przewidzieć, kiedy i w jakim stopniu będą następować
przyszłe zmiany w polityce rolnej mające na celu dalszą liberalizację handlu produktami
rolnymi. Potwierdzają to kończące się fiaskiem rozmowy negocjacyjne członków WTO
podejmowane wielokrotnie po Rundzie Urugwajskiej, w trakcie których dominowała postawa obrony własnych interesów krajów rozwiniętych, przedkładana nad potrzebę liberalizacji światowego handlu produktami rolnymi.
Reasumując, recenzowana książka zasługuje na szczególne uznanie, posiada wysokie walory poznawcze i jest cenną pozycją z zakresu polityki rolnej. Jej lektura daje całościowy pogląd na temat liberalizacji światowego handlu rolnego, ale także zachęca do
dyskusji nad kierunkami dalszych reform polityki rolnej w warunkach globalizacji. Do
przestudiowania tej książki zachęca również renoma profesora A. Czyżewskiego jako
jednego z najbardziej znanych specjalistów z zakresu polityki rolnej, który konsekwentnie dowodzi, jak skomplikowana jest materia związków rolnictwa z otoczeniem.
Władysława Łuczka-Bakuła
Wydawnictwo Key Text
www.keytext.com.pl
WSKAZÓWKI DLA AUTORÓW
1.Redakcja przyjmuje do oceny i publikacji niepublikowane wcześniej teksty o charakterze naukowym, poświęcone problematyce ekonomicznej.
2.Redakcja prosi o składanie tekstów w formie elektronicznej (dokument MS Word
na CD, dyskietce lub e-mailem) oraz 2 egzemplarzy wydruku komputerowego.
Wydruk powinien być wykonany na papierze A4 z podwójnym odstępem między
wierszami, zawierającymi nie więcej niż 60 znaków w wierszu oraz 30 wierszy na
stronie, w objętości (łącznie z tabelami statystycznymi, rysunkami i literaturą) do
30 stron. Opracowania podzielone na części powinny zawierać śródtytuły.
3. Wraz z tekstem należy dostarczyć do Redakcji Oświadczenie Autora. Wzór
oświadczenia dostępny jest na stronie www.ekonomista.info.pl
4. Do tekstu należy dołączyć streszczenie (200 słów) składające się z uzasadnienia
podjętego tematu, opisu metody oraz uzyskanych wyników. Streszczenie powinno zawierać słowa kluczowe (w języku polskim, rosyjskim i angielskim).
5. Przypisy wyjaśniające tekst należy zamieszczać na dole strony, a dane bibliograficzne w tekście – przez podawanie nazwisk autorów i roku wydania dzieła, na
końcu zdania w nawiasie. W bibliografii zamieszczonej na końcu tekstu (ułożonej w porządku alfabetycznym) należy podawać:
–– w odniesieniu do pozycji książkowych – nazwisko, imię (lub inicjały imion) autora, tytuł dzieła, wydawcę, miejsce i rok wydania;
–– w przypadku prac zbiorowych nazwisko redaktora naukowego podaje się po
tytule dzieła;
–– w odniesieniu do artykułów z czasopism – nazwisko, imię (lub inicjały imion)
autora, tytuł artykułu, nazwę czasopisma ujętą w cudzysłów, rok wydania i kolejny numer czasopisma;
–– w przypadku korzystania z internetu należy podać adres i datę dostępu;
–– powołując dane liczbowe należy podawać ich źrodło pochodzenia (łącznie
z numerem strony).
6. W przypadku gdy artykuł jest oparty na wynikach badań finansowanych w ramach
programów badawczych, autorzy są proszeni o podanie źródła środków.
7. Warunkiem przyjęcia tekstu do oceny i dalszej pracy jest podanie przez autora
pełnych danych adresowych wraz z numerem telefonicznym i adresem e-mail.
Autorzy artykułów są również proszeni o podanie danych do notatki afiliacyjnej:
tytuł naukowy oraz nazwa uczelni albo innej jednostki (tylko jedna jednostka).
Dane afiliacyjne są zamieszczane w opublikowanych tekstach.
8. Opracowanie zakwalifikowane przez Komitet Redakcyjny do opublikowania na
łamach „EKONOMISTY”, lecz przygotowane przez autora w sposób niezgodny
z powyższymi wskazówkami, będzie odesłane z prośbą o dostosowanie jego formy do wymagań Redakcji.
9. Materiały zamieszczone w „EKONOMIŚCIE” są chronione prawem autorskim.
Przedruk tekstu może nastąpić tylko za zgodą Redakcji.
10.Redakcja nie zwraca tekstów i nie wypłaca honorariów autorskich.
N O W O Ś Ć
Tomasz Sobczak
Ekonomiści czytani, ale nie słuchani
Książka o roli ekonomicznego doradztwa instytucjonalnego. Przedstawia dorobek i ocenę pracy czterech ciał doradczych powoływanych przez Prezesa
Rady Ministrów:
• Rady Ekonomicznej przy Prezesie Rady Ministrów powołanej na początku
1957 r.
• Konsultacyjnej Rady Gospodarczej powołanej 1 kwietnia 1982 r.
• Rady Ekonomicznej przy Radzie Ministrów powołanej w grudniu 1989 r.
• Rady Strategii Społeczno-Gospodarczej powołanej 28 czerwca 1994 r.
cena: 31,50 zł (z VAT)
objętość: 162 strony
Autor prezentując działalność organów doradczych przy Prezesie Rady Ministrów, dzięki świetnie dobranym wypowiedziom zarówno członków tych organów, jak i obserwatorów zewnętrznych, stworzył kronikarski rys obecnego
środowiska polskich ekonomistów.
Podstawowym źródłem licznych cytatów są artykuły i wywiady z czasopism
i prasy społeczno-politycznej.
Książka pod patronatem naukowym Polskiego Towarzystwa Ekonomicznego.
P O L E C A M Y
Aleksander Łukaszewicz
Dylematy ekonomiczne przełomu stuleci
Praca naukowa adresowana do osób zajmujących się ekonomią, które chcą
dojrzeć w niej coś więcej niż tylko umiejętność posługiwania się bieżącym
rachunkiem efektywnościowym. Można nawet rzec, że jest ona prowokacją
wobec szablonowych, jednowymiarowych koncepcji i mechanicznego pojmowania zjawisk ekonomicznych i gospodarczych.
cena: 19,95 zł (z VAT)
objętość: 284 strony
Autor prowadzi w niej dociekania na temat dylematów własności, racjonalności gospodarczej oraz wzrostu i rozwoju gospodarczego, szeroko wykorzystując światową literaturę odnoszącą się do poruszanych i rozważanych
problemów. Przywołuje poglądy wielu autorów, wzajemnie przeciwstawne
i często otwarcie polemiczne. Włączając się w nurt tych rozważań i polemik,
autor nadał książce w wielu fragmentach formę dialogu, w którym zajmuje
swoje stanowisko.
Przedstawione poglądy i opinie wybitnych ekonomistów tworzą często spójne paradygmaty, będące wykładnią teoretyczną istniejących zjawisk i kontekstów praktycznych.
Wydawnictwo Key Text, ul. Wolska 64A, 01-134 Warszawa
tel. 22 632 11 36, 22 ,632 11 39, faks wew. 212, kom. 665 108 002
Okladka nr 3 2012.indd 2
2012-06-08 14:37:24
EKONOMISTA
EKONOMISTA
Tylko prenumerata zapewni
regularne otrzymywanie
czasopisma
Warunki prenumeraty
11 Wy­daw­nic­two Key Text
Wpła­ty na pre­nu­me­ra­tę przyj­mo­wa­ne są na okres nie­prze­kra­cza­ją­cy jed­ne­go ro­ku. Pre­nu­me­ra­ta roz­po­czy­
na się od naj­bliż­sze­go nu­me­ru po do­ko­na­niu wpła­ty na ra­chu­nek ban­ko­wy nr:
64 1160 2202 0000 0001 1046 1312
Wy­daw­nic­two Key Text sp. z o.o.
ul. Wolska 64A, 01-134 War­sza­wa
+48 22 632 11 36
Ce­na jed­ne­go nu­me­ru w pre­nu­me­ra­cie krajowej w 2012 r. wy­no­si 55,65 PLN; ze zle­ce­niem do­sta­wy
za gra­ni­cę rów­na będzie ce­nie pre­nu­me­ra­ty kra­jo­wej plus rze­czy­wi­ste kosz­ty wy­sył­ki.
Ce­na pre­nu­me­ra­ty za okres obej­mu­jący kil­ka nu­me­rów jest wie­lo­krot­no­ścią tej su­my.
Ce­na pre­nu­me­ra­ty kra­jo­wej na 2012 r. wy­no­si 333,90 zł (w tym 5% VAT).
11 Prenumerata realizowana przez „RUCH” S.A.
Prenumerata krajowa
Zamówienia na prenumeratę przyjmują Zespoły Prenumeraty właściwe dla miejsca zamieszkania klienta.
www.prenumerata.ruch.com.pl
Pre­nu­me­ra­ta ze zleceniem wysyłki za granicę
Informacji o warunkach prenumeraty i sposobie zamawiania udziela
RUCH S.A. Biuro Kolportażu – Zespół Obrotu Zagranicznego
ul. Annopol 17A, 03-236 Warszawa
Tel. +48 22 693 67 75, +48 22 693 67 82, +48 22 693 67 18
www.ruch.pol.pl
Infolinia prenumeraty +48 801 443 122 koszt połączenia wg taryfy operatora.
EKONOMISTA
CZASOPISMO POŚWIĘCONE NAUCE I POTRZEBOM ŻYCIA
ZAŁOŻONE W ROKU 1900
2012
3
Indeks 357030
ISSN 0013-3205
Cena 55,65 zł
(w tym 5% VAT)
2012
3
W numerze
Marek Ratajczak
Finansyzacja gospodarki
Helena Gaspars-Wieloch
Ograniczona skuteczność
metod optymalizacyjnych
w rozwiązywaniu ekonomicznych
problemów decyzyjnych
Katarzyna Piłat
Indeks optymalnego obszaru walutowego
dla gospodarki polskiej
11 „Kol­por­ter” S.A. – [email protected], +48 22 35 50 471 do 478
11 „Gar­mond Press” S.A. – [email protected], 01-106 Warszawa, ul. Nakielska 3,
+48 22 836 69 21
11 Wersja elektroniczna (również numery archiwalne) do nabycia: www.ekonomista.info.pl
Eko­no­mi­sta 2012, nr 3, s. 273–394
Ce­na 55,65 zł (w tym 5% VAT)
PolskA AkademiA Nauk
Komitet Nauk Ekonomicznych
Okladka nr 3 2012.indd 1
Polskie Towarzystwo
Ekonomiczne
Wydawnictwo
Key Text
2012-06-08 14:37:24

Podobne dokumenty