rec. Władysława Łuczka-Bakuła
Transkrypt
rec. Władysława Łuczka-Bakuła
EKONOMISTA EKONOMISTA Tylko prenumerata zapewni regularne otrzymywanie czasopisma Warunki prenumeraty 11 Wydawnictwo Key Text Wpłaty na prenumeratę przyjmowane są na okres nieprzekraczający jednego roku. Prenumerata rozpoczy na się od najbliższego numeru po dokonaniu wpłaty na rachunek bankowy nr: 64 1160 2202 0000 0001 1046 1312 Wydawnictwo Key Text sp. z o.o. ul. Wolska 64A, 01-134 Warszawa +48 22 632 11 36 Cena jednego numeru w prenumeracie krajowej w 2012 r. wynosi 55,65 PLN; ze zleceniem dostawy za granicę równa będzie cenie prenumeraty krajowej plus rzeczywiste koszty wysyłki. Cena prenumeraty za okres obejmujący kilka numerów jest wielokrotnością tej sumy. Cena prenumeraty krajowej na 2012 r. wynosi 333,90 zł (w tym 5% VAT). 11 Prenumerata realizowana przez „RUCH” S.A. Prenumerata krajowa Zamówienia na prenumeratę przyjmują Zespoły Prenumeraty właściwe dla miejsca zamieszkania klienta. www.prenumerata.ruch.com.pl Prenumerata ze zleceniem wysyłki za granicę Informacji o warunkach prenumeraty i sposobie zamawiania udziela RUCH S.A. Biuro Kolportażu – Zespół Obrotu Zagranicznego ul. Annopol 17A, 03-236 Warszawa Tel. +48 22 693 67 75, +48 22 693 67 82, +48 22 693 67 18 www.ruch.pol.pl Infolinia prenumeraty +48 801 443 122 koszt połączenia wg taryfy operatora. EKONOMISTA CZASOPISMO POŚWIĘCONE NAUCE I POTRZEBOM ŻYCIA ZAŁOŻONE W ROKU 1900 2012 3 Indeks 357030 ISSN 0013-3205 Cena 55,65 zł (w tym 5% VAT) 2012 3 W numerze Marek Ratajczak Finansyzacja gospodarki Helena Gaspars-Wieloch Ograniczona skuteczność metod optymalizacyjnych w rozwiązywaniu ekonomicznych problemów decyzyjnych Katarzyna Piłat Indeks optymalnego obszaru walutowego dla gospodarki polskiej 11 „Kolporter” S.A. – [email protected], +48 22 35 50 471 do 478 11 „Garmond Press” S.A. – [email protected], 01-106 Warszawa, ul. Nakielska 3, +48 22 836 69 21 11 Wersja elektroniczna (również numery archiwalne) do nabycia: www.ekonomista.info.pl Ekonomista 2012, nr 3, s. 273–394 Cena 55,65 zł (w tym 5% VAT) PolskA AkademiA Nauk Komitet Nauk Ekonomicznych Okladka nr 3 2012.indd 1 Polskie Towarzystwo Ekonomiczne Wydawnictwo Key Text 2012-06-08 14:37:24 Wydawnictwo Key Text www.keytext.com.pl WSKAZÓWKI DLA AUTORÓW 1.Redakcja przyjmuje do oceny i publikacji niepublikowane wcześniej teksty o charakterze naukowym, poświęcone problematyce ekonomicznej. 2.Redakcja prosi o składanie tekstów w formie elektronicznej (dokument MS Word na CD, dyskietce lub e-mailem) oraz 2 egzemplarzy wydruku komputerowego. Wydruk powinien być wykonany na papierze A4 z podwójnym odstępem między wierszami, zawierającymi nie więcej niż 60 znaków w wierszu oraz 30 wierszy na stronie, w objętości (łącznie z tabelami statystycznymi, rysunkami i literaturą) do 30 stron. Opracowania podzielone na części powinny zawierać śródtytuły. 3. Wraz z tekstem należy dostarczyć do Redakcji Oświadczenie Autora. Wzór oświadczenia dostępny jest na stronie www.ekonomista.info.pl 4. Do tekstu należy dołączyć streszczenie (200 słów) składające się z uzasadnienia podjętego tematu, opisu metody oraz uzyskanych wyników. Streszczenie powinno zawierać słowa kluczowe (w języku polskim, rosyjskim i angielskim). 5. Przypisy wyjaśniające tekst należy zamieszczać na dole strony, a dane bibliograficzne w tekście – przez podawanie nazwisk autorów i roku wydania dzieła, na końcu zdania w nawiasie. W bibliografii zamieszczonej na końcu tekstu (ułożonej w porządku alfabetycznym) należy podawać: –– w odniesieniu do pozycji książkowych – nazwisko, imię (lub inicjały imion) autora, tytuł dzieła, wydawcę, miejsce i rok wydania; –– w przypadku prac zbiorowych nazwisko redaktora naukowego podaje się po tytule dzieła; –– w odniesieniu do artykułów z czasopism – nazwisko, imię (lub inicjały imion) autora, tytuł artykułu, nazwę czasopisma ujętą w cudzysłów, rok wydania i kolejny numer czasopisma; –– w przypadku korzystania z internetu należy podać adres i datę dostępu; –– powołując dane liczbowe należy podawać ich źrodło pochodzenia (łącznie z numerem strony). 6. W przypadku gdy artykuł jest oparty na wynikach badań finansowanych w ramach programów badawczych, autorzy są proszeni o podanie źródła środków. 7. Warunkiem przyjęcia tekstu do oceny i dalszej pracy jest podanie przez autora pełnych danych adresowych wraz z numerem telefonicznym i adresem e-mail. Autorzy artykułów są również proszeni o podanie danych do notatki afiliacyjnej: tytuł naukowy oraz nazwa uczelni albo innej jednostki (tylko jedna jednostka). Dane afiliacyjne są zamieszczane w opublikowanych tekstach. 8. Opracowanie zakwalifikowane przez Komitet Redakcyjny do opublikowania na łamach „EKONOMISTY”, lecz przygotowane przez autora w sposób niezgodny z powyższymi wskazówkami, będzie odesłane z prośbą o dostosowanie jego formy do wymagań Redakcji. 9. Materiały zamieszczone w „EKONOMIŚCIE” są chronione prawem autorskim. Przedruk tekstu może nastąpić tylko za zgodą Redakcji. 10.Redakcja nie zwraca tekstów i nie wypłaca honorariów autorskich. N O W O Ś Ć Tomasz Sobczak Ekonomiści czytani, ale nie słuchani Książka o roli ekonomicznego doradztwa instytucjonalnego. Przedstawia dorobek i ocenę pracy czterech ciał doradczych powoływanych przez Prezesa Rady Ministrów: • Rady Ekonomicznej przy Prezesie Rady Ministrów powołanej na początku 1957 r. • Konsultacyjnej Rady Gospodarczej powołanej 1 kwietnia 1982 r. • Rady Ekonomicznej przy Radzie Ministrów powołanej w grudniu 1989 r. • Rady Strategii Społeczno-Gospodarczej powołanej 28 czerwca 1994 r. cena: 31,50 zł (z VAT) objętość: 162 strony Autor prezentując działalność organów doradczych przy Prezesie Rady Ministrów, dzięki świetnie dobranym wypowiedziom zarówno członków tych organów, jak i obserwatorów zewnętrznych, stworzył kronikarski rys obecnego środowiska polskich ekonomistów. Podstawowym źródłem licznych cytatów są artykuły i wywiady z czasopism i prasy społeczno-politycznej. Książka pod patronatem naukowym Polskiego Towarzystwa Ekonomicznego. P O L E C A M Y Aleksander Łukaszewicz Dylematy ekonomiczne przełomu stuleci Praca naukowa adresowana do osób zajmujących się ekonomią, które chcą dojrzeć w niej coś więcej niż tylko umiejętność posługiwania się bieżącym rachunkiem efektywnościowym. Można nawet rzec, że jest ona prowokacją wobec szablonowych, jednowymiarowych koncepcji i mechanicznego pojmowania zjawisk ekonomicznych i gospodarczych. cena: 19,95 zł (z VAT) objętość: 284 strony Autor prowadzi w niej dociekania na temat dylematów własności, racjonalności gospodarczej oraz wzrostu i rozwoju gospodarczego, szeroko wykorzystując światową literaturę odnoszącą się do poruszanych i rozważanych problemów. Przywołuje poglądy wielu autorów, wzajemnie przeciwstawne i często otwarcie polemiczne. Włączając się w nurt tych rozważań i polemik, autor nadał książce w wielu fragmentach formę dialogu, w którym zajmuje swoje stanowisko. Przedstawione poglądy i opinie wybitnych ekonomistów tworzą często spójne paradygmaty, będące wykładnią teoretyczną istniejących zjawisk i kontekstów praktycznych. Wydawnictwo Key Text, ul. Wolska 64A, 01-134 Warszawa tel. 22 632 11 36, 22 ,632 11 39, faks wew. 212, kom. 665 108 002 Okladka nr 3 2012.indd 2 2012-06-08 14:37:24 EKONOMISTA CZASOPISMO POŚWIĘCONE NAUCE I POTRZEBOM ŻYCIA ZAŁOŻONE W ROKU 1900 2012 3 PolskA AkademiA Nauk Komitet Nauk Ekonomicznych Polskie Towarzystwo Ekonomiczne WARSZAWA Wydawnictwo Key Text WydawcY © Copyright by POLSKA AKADEMIA NAUK KOMITET NAUK EKONOMICZNYCH © Copyright by Polskie Towarzystwo Ekonomiczne © Copyright by WYDAWNICTWO KEY TEXT Rada Programowa Marek Belka, Adam Budnikowski, Krzysztof Jajuga, Wacław Jarmołowicz, Mieczysław Kabaj, Eugeniusz Kwiatkowski, Jan Lipiński, Aleksander Łukaszewicz, Wojciech Maciejewski, Jerzy Osiatyński, Stanisław Owsiak, Emil Panek, Krzysztof Porwit, Antoni Rajkiewicz, Andrzej Sławiński, Andrzej Wernik, Jerzy Wilkin (przewodniczący Rady) Michał G. Woźniak Komitet Redakcyjny Marek Bednarski, Bogusław Fiedor, Marian Gorynia, Brunon Górecki, Joanna Kotowicz-Jawor, Barbara Liberska, Adam Lipowski (zastępca redaktora naczelnego), Zbigniew Matkowski (sekretarz redakcji), Elżbieta Mączyńska, Adam Noga, Marek Ratajczak, Eugeniusz Rychlewski, Zdzisław Sadowski (redaktor naczelny), Tadeusz Smuga, Jan Solarz, Andrzej Wojtyna Wydanie publikacji dofinansowane przez Ministra Nauki i Szkolnictwa Wyższego Adres Redakcji: 00-042 Warszawa, Nowy Świat 49, tel. 022 55 15 416 oraz 417 http://www.ekonomista.info.pl [email protected] Polecamy wersję elektroniczną czasopisma na stronie internetowej zixo.pl Realizacja wydawnicza Wydawnictwo Key Text sp. z o.o. ul. Wolska 64 A, 01–134 Warszawa tel. 022 632 11 39, 022 632 11 36, fax wew. 212 www.keytext.com.pl [email protected] Nakład 430 egz., ark. wyd. 10 Spis treści Artykuły Marek R A T A J C Z A K: Finansyzacja gospodarki. . . . . . . . . . . . . . . . . . . . . . . . . Helena G A S PA R S - W I E L O C H: Ograniczona skuteczność metod optymalizacyjnych w rozwiązywaniu ekonomicznych problemów decyzyjnych. . . . . . . . Katarzyna PIŁAT: Indeks optymalnego obszaru walutowego dla gospodarki polskiej. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 281 303 325 Miscellanea Sławomir I. B U K O W S K I: Stopień integracji rynków finansowych na obszarze euro. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 339 Dyskusje Stefan M A Ł E C K I -T E P I C H T: Instrukcja obsługi maszynki do mięsa nie jest książką kucharską. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Jerzy W I L K I N: Czy współczesna ekonomia jest instrukcją obsługi mechanizmu gospodarczego?. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Witold K W A Ś N I C K I: O matematyzacji ekonomii . . . . . . . . . . . . . . . . . . . . . . . 355 377 381 Recenzje i omówienia Andrzej C Z Y Ż E W S K I, Agnieszka P O C Z T A - W A JD A, Polityka rolna w warunkach globalizacji. Doświadczenia GATT/WTO (rec. Władysława Łuczka-Bakuła) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 391 * Każdy artykuł zawiera streszczenie w języku angielskim i rosyjskim. Angielskojęzyczne streszczenia artykułów zamieszczanych w „Ekonomiście” są rejestrowane w serwisie: International Bibliography of the Social Sciences (IBSS): http://www.ibss.ac.uk oraz „The Central European Journal of Social Sciences and Humanities”: http://cejsh.icm.edu.pl (LISTA FILADELFIJSKA) Contents Articles Marek R A T A J C Z A K: Financialisation of the Economy. . . . . . . . . . . . . . . . . . . . Helena G A S PA R S - W I E L O C H: Limited Efficiency of Optimization Methods in Solving Economic Decision Problems . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Katarzyna PIŁAT: The Index of Optimum Currency Area for the Polish Economy 281 303 325 Miscellanea Sławomir I. B U K O W S K I: The Degree of Financial Markets Integration in the Euro Area . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 339 Discussion Stefan M A Ł E C K I -T E P I C H T: An Instruction Manual for a Meat Grinder Is Not a Cookery Book. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Jerzy W I L K I N: Is the Contemporary Economics an Instruction Manual for Operating the Economic Mechanism?. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Witold K W A Ś N I C K I: On the Matematization of Economics. . . . . . . . . . . . . . 355 377 381 Book Reviews Andrzej C Z Y Ż E W S K I, Agnieszka P O C Z T A - W A JD A, Polityka rolna w warunkach globalizacji. Doświadczenia GATT/WTO (Agricultural Policy under Globalisation: GATT/WTO Experience) (rec. Władysława Łuczka-Bakuła) . . . . 391 * Each article is followed by a summary in English and Russian. Abstracts of „Ekonomista” are reproduced in the International Bibliography of the Social Sciences (IBSS): http://www.ibss.ac.uk and „The Central European Journal of Social Sciences and Humanities”: http:// cejsh.icm.edu.pl Содержание Статьи Марек РА Т А Й Ч А К: Финансизация экономики . . . . . . . . . . . . . . . . . . . . . . . . . . Хелена ГА С П А Р С - В Е Л О Х: Ограниченная эффективность оптимизационных методов при рассмотрении экономических проблем принятия решений . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Катажина П И Л А Т: Индекс оптимальной валютной зоны для польской экономики. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 281 303 325 Разное Славомир И. Б У К О В С К И: Степень интеграции финансовых рынков в зоне евро. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 339 Дискусcии Стефан М А Л Е Ц К И - Т Е П И Х Т: Инструкция обслуживания мясорубки – это не поваренная книга. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Ежи В И Л Ь К И Н: Является ли современная экономическая наука инструкцией обслуживания хозяйственного механизма? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Витольд К В А С Ь Н И Ц К И: О математизации экономической науки . . . . . . . . . 355 377 381 Рецензии и обсуждения Анджей Ч И Ж Е В С К И, Агнешка П О Ч Т А - В А Й Д А, Аграрная политика в условиях глобализации. Опыт ГАТТ/ВТО (рец. Владислава Лучка-Бакула). . . 391 * Каждая статья сопровождается резюме на английском и руском языках. Содержание и резюме статей, помещаемых в „Экономисте”, регистрируютсяв библиографическом сервисе International Bibliography of the Social Sciences (IBSS): http://www.ibss.ac.uk a также в „The Central European Journal of Social Sciences and Humanities”: http://cejsh.icm.edu.pl A R T Y K U Ł Y Marek Ratajczak* Finansyzacja gospodarki Uwagi wstępne Źródeł światowego kryzysu1, którego umownym początkiem stał się upadek banku Lehman Brothers we wrześniu 2008 r. upatruje się przede wszystkim w zjawiskach z zakresu funkcjonowania sfery finansowej, a nie sfery realnej. Ta szczególna rola sfery finansowej powoduje, że w dyskusjach o kryzysie, a szerzej o funkcjonowaniu współczesnej gospodarki rynkowej, coraz większą uwagę przywiązuje się do interakcji sfery finansów i sfery realnej. Coraz więcej zwolenników ma przy tym teza, że pieniądz nie tyle jest „dobrym sługą” sfery realnej, co stał się lub staje się jej niekoniecznie dobrym panem. Jednym z pojęć, które zadomowiło się już w literaturze zagranicznej, a które stanowi relatywną nowość w literaturze polskiej i jest wykorzystywane w analizach obecnego stadium rozwoju gospodarki rynkowej, zwłaszcza w krajach wysoko rozwiniętych, jest finansyzacja2. Celem tego artykułu jest próba przybliżenia tego pojęcia i głównych obszarów dyskusji z nim związanych. 1. Istota finansyzacji Dyskusję o finansyzacji należy rozpocząć od kwestii natury semantycznej. Słowo to jest „kalką” angielskiego terminu financialisation i – jak z wieloma skopiowanymi * Prof. dr hab. Marek Ratajczak – Uniwersytet Ekonomiczny w Poznaniu; e-mail: [email protected] 1 Poza ramy tego artykułu wykracza dyskusja na temat tego, na ile w kategoriach czysto naukowych jest uzasadnione operowanie pojęciem kryzysu w odniesieniu do ciągu wydarzeń w gospodarce światowej z ostatnich kilku lat. Określenie to jest jednak tak często używane także w publikacjach naukowych, że mimo wszystkich możliwych zastrzeżeń, zwłaszcza ze strony specjalistów od analizy koniunktury, będzie ono wykorzystywane także w niniejszym artykule. 2 Relatywna nowość nie oznacza, że pojęcie finansyzacji gospodarki nie jest wykorzystywane w publikacjach polskich autorów odnoszących się do ostatniego kryzysu czy analiz obecnego stadium kapitalizmu. Przykładem są prace M. Bałtowskiego [2008], E. Mączyńskiej [2009] czy J. Żyżyńskiego [2009]. 282 Marek Ratajczak pojęciami, a zarazem neologizmami bywa – nie wszyscy z takim określeniem się godzą. W polskiej literaturze można w związku z tym spotkać się także z nieco odmiennymi określeniami, takimi jak „finansjalizacja” i „ufinansowienie”, oraz określeniami o zbliżonej treści znaczeniowej takimi jak „giełdyzacja” [Kowalik 2009], „bankokracja” [Gwiazdowski 2008] czy „kapitalizm finansowy” [Toporowski 2012]. Czas pokaże, które z tych określeń zostanie przyjęte jako forma podstawowa czy wręcz obowiązująca. Jak na razie, wyłącznie na podstawie prostej analizy ilościowej wykorzystania każdego z przytoczonych powyżej sformułowań, to właśnie określenie „finansyzacja” jest najpopularniejsze. Literatura, przede wszystkim zagraniczna, zawiera wiele różnych definicji finansyzacji. Łączy je wskazywanie szczególnej i rosnącej roli sfery finansowej oraz kryteriów finansowych w funkcjonowaniu gospodarki oraz w życiu ekonomicznym i społecznym. Sfera finansowa z tradycyjnej roli wspomagania i uzupełniania sfery realnej staje się wręcz dominującym uczestnikiem życia ekonomicznego i społecznego. Tak ogólną wizję finansyzacji gospodarki trudno byłoby uznać za wystarczającą. Dlatego warto dokonać próby kolejnego przybliżenia chociażby poprzez rozróżnienie finansyzacji w wąskim i szerokim znaczeniu. W wąskim znaczeniu finansyzacja jest kojarzona przede wszystkim z rosnącym znaczeniem działalności finansowej w aktywności podmiotów ekonomicznych o charakterze niefinansowym. Konsekwencją tego jest zmiana strumieni dochodów, w których coraz większy udział mają dochody czerpane właśnie z działalności finansowej, a nie z tradycyjnie rozumianej działalności operacyjnej i inwestycyjnej. Zarówno w polskiej literaturze, jak i w zagranicznej przytaczane są różne, acz co prawda głównie odwołujące się do doświadczeń gospodarki amerykańskiej dane ilustrujące rosnącą rolę aktywności finansowej w organizacjach, które kojarzone są przede wszystkim z działaniami ze sfery realnej [Orhangazi 2008; Ząbkowicz 2009]. Finansyzacja w wąskim znaczeniu jest na ogół traktowana jako jeden z przejawów finansyzacji sensu largo i to wcale aspekt nie najważniejszy W szerokim znaczeniu finansyzacja to wskazywany już proces autonomizacji sfery finansowej w relacji do sfery realnej, a nawet uzyskiwania nadrzędności tej pierwszej w stosunku do drugiej. W ramach finansyzacji rynki finansowe oraz elity finansowe uzyskują coraz większy wpływ na politykę ekonomiczną (w wymiarze mikroekonomicznym i makroekonomicznym) i na efekty gospodarowania [Epstein 2006; Stockhammer 2004; Boyer 2000]. Dla części badaczy finansyzacja gospodarki jest świadectwem nowego studium kapitalizmu, określanego mianem kapitalizmu finansowego, kapitalizmu rentierskiego, bankokracji czy też kapitalizmu „odcinania kuponów” [Froud i in. 2001]. W nawiązaniu do tradycji keynesowskiej niekiedy pisze się też o „kapitalizmie kasynowym”3. Wreszcie autorzy najbardziej radykalnych koncepcji uważają, że finansyzacja jest wręcz zwiastunem 3 Jak pisał J.M. Keynes: „Spekulanci mogą być nieszkodliwi, gdy są niczym piana na spokojnych wodach przedsiębiorczości. Ale sytuacja staje się poważna, gdy przedsiębiorczość staje się pianą na wirze spekulacji. Gdy akumulacja kapitału w jakimś kraju staje się ubocznym produktem gry hazardowej, wyniki zawsze będą opłakane” [Keynes 1985, s. 182]. Finansyzacja gospodarki 283 „jesieni” kapitalizmu (co nie znaczy, że schyłku gospodarki rynkowej) oraz kształtowania się kompleksu finansowo-politycznego, który swoimi wpływami i znaczeniem przekracza rolę dawnego kompleksu militarno-przemysłowego [Freeman 2010; Mączyńska 2009]. Ekonomiści nawiązujący do tradycji marksowskiej skłonni są z kolei pisać o monopolistyczno-finansowym stadium gospodarki kapitalistycznej [Foster 2007; Isaacs 2011]. Finansyzacja ma być także jednym z przejawów przechodzenia od demokracji do plutokracji, czyli rządów pieniądza i jego dysponentów4. Finansyzacja prowadzi do zasadniczych zmian w sferze zarządzania i własności, zwłaszcza dużych przedsiębiorstw. Na obszarze własności wiąże się to z coraz większą rolą właścicieli instytucjonalnych ze sfery finansowej, którzy kojarzeni są z tzw. kapitałem niecierpliwym, szukającym możliwości uzyskania nadzwyczajnych zysków w krótkim okresie [Rossman, Greenfiled 2006]. Właściciele ze sfery finansowej często traktują swój udział w sferze realnej przed wszystkim jako jedną z okresowych i alternatywnych form lokowania kapitału, a nie jako rzeczywiste długookresowe angażowanie się we własność z zamiarem rozwoju danej organizacji. Prowadzi to do tego, że tradycyjna reguła „zatrzymuj i reinwestuj” zostaje zastąpiona zasadą „ograniczaj (koszty) i dystrybuuj (dywidendę)” [Stockhammer 2004]. Zdaniem krytyków zmian, które pod wpływem narastającej finansyzacji dokonują się na poziomie przedsiębiorstw, szczególnie wiele złego dokonało upowszechnienie się idei wartości dla akcjonariuszy (shareholder value), związane z przesuwaniem akcentów w dyskusji o zarządzaniu ze stakeholder perspective (perspektywa interesariuszy) na shareholder perspective (perspektywa udziałowców, akcjonariuszy) [Palley 2007]. W połączeniu z narastającą tendencją do skracania horyzontu czasowego podejmowanych decyzji inwestycyjnych doprowadziło to do nadmiernego wyeksponowania w analizie ekonomiczno-finansowej całej grupy wskaźników uwzględniających przede wszystkim krótkookresową zyskowność, a nie długookresową stabilność rozwoju danego przedsięwzięcia [Froud i in. 2000; Williams 2000]. Nietrudno zauważyć, że o ile wąska interpretacja finansyzacji ma wymiar ściśle ekonomiczno-finansowy, związany z analizą zmian struktury dochodów instytucji niefinansowych, to w szerokiej interpretacji finansyzacja już w sferze definicyjnej wyraźnie wykracza poza ramy analizy typowej dla tzw. ekonomii głównego nurtu. Wiąże się to w znacznej mierze z uwzględnianiem elementów typowych dla tradycji analizy instytucjonalnej, w której zdarzenia gospodarcze pozostają w ścisłym związku ze zjawiskami z innych obszarów życia społecznego. Dlatego też właśnie wśród ekonomistów mniej lub bardziej kojarzonych z współczesnym instytucjonalizmem idea finansyzacji jest coraz bardziej popularna. Akceptują tę koncepcję także inni ekonomiści reprezentujący szkoły czy kierunki odnoszące się sceptycznie, a nawet zdecydowanie krytycznie do eko4 W. Buffett stwierdził, że: „USA zmierzają do stania się plutokracją, gdzie państwo jest kontrolowane przez ludzi bardzo bogatych, a nie społeczeństwo” (cyt. za „Puls Biznesu”, 23.03.2011, s. 9). 284 Marek Ratajczak nomii głównego nurtu oraz do tego, co w sferze doktrynalnej wiąże się z ideą neoliberalizmu. Keynesiści – pamiętając chociażby to, co pisał ich patron o wspominanym już kapitalizmie kasynowym, brak akceptacji dla idei neutralności pieniądza wobec sfery realnej, a także jego zdecydowaną niechęć do zachowań rentierskich – skłonni są do dostrzegania pewnych istotnych negatywnych elementów w idei finansyzacji [Bhaduri 2011]. Na szczególną uwagę wśród ekonomistów kojarzonych z keynesizmem, których dorobek jest ponownie analizowany w kontekście finansyzacji gospodarki i ostatniego kryzysu zasługują J. Tobin i H. Minsky. Ten pierwszy, uhonorowany Nagrodą Nobla z ekonomii w 1981 r., napisał m.in., że obawia się, iż „(...)coraz więcej środków lokowanych jest w aktywności finansowej zamiast w produkcji dóbr i usług, działalności, która generuje wysokie prywatne zyski nieproporcjonalne do jej społecznej użyteczności” [Tobin 1984, s. 14]. Ściśle z tymi poglądami na rolę sfery finansowej wiąże się pomysł opodatkowania transakcji finansowych znany powszechnie jako podatek Tobina. Do idei tej powrócono przy okazji ostatniego kryzysu, lecz spotkało się to z bardzo silną krytyką i oporem zarówno przedstawicieli sektora finansowego (co jest zrozumiałe), jak i sporej części ekonomistów postrzegających w takim podatku swoisty zamach na wolność rynku. H. Minsky, niedoceniony za życia, jest dziś szczególnie popularny w związku z hipotezą finansowej niestabilności, odnoszącą się zwłaszcza do tych gospodarek, które określał jako złożone pod względem finansowym (financially sophisticated economies). Gospodarka dla Minskiego to przede wszystkim złożony system finansowy, który przechodzi regularnie przez kolejne fazy cyklu koniunkturalnego. Faza załamania koniunktury jest konsekwencją podejmowania w fazie wzrostowej coraz większego ryzyka finansowego. Co także jest istotne, H. Minsky zdecydowanie rozróżniał ryzyko, możliwe do oszacowania w kategoriach prawdopodobieństwa, od niepewności [Kąsek, Lubiński 2010]. Ta ostatnia idea znajduje w ostatnim czasie wyraz w koncepcji „czarnych łabędzi”, a szczególnym promotorem tej idei jest Nassim Taleb. H. Minsky jest na ogół identyfikowany z keynesizmem, ale pod pewnymi względami był bliski ekonomii instytucjonalnej, uważając, że na instytucjach powinna opierać się każda analiza ekonomiczna. Jak już wcześniej wspomniano, właśnie w kręgu ekonomistów związanych z szeroko rozumianą ekonomią instytucjonalną idea finansyzacji gospodarki jest szczególnie popularna. Z dyskusją o finansyzacji ściśle wiąże się tak ważny dla T. Veblena problem natury ludzkiej. Co prawda we współczesnej psychologii w zasadzie nie operuje się pojęciem instynktów, a w tym podkreślaną przez Veblena ideą instynktu łupieżczego, ale pojęcie chciwości eksponowane w dyskusjach o ostatnim kryzysie i jego źródłach ściśle pasuje do rozważań o naturze człowieka. Tak zwany biznes w stylu Gordona Gecco5 stał się dla części uczestników życia gospodarczego, a zwłaszcza sfery 5 Określenie pochodzi od nazwiska głównego bohatera filmu „Wall Street” z 1987 r. w reżyserii Oliviera Stone’a i fragmentu, w którym pojawia się sformułowanie „chciwość jest dobra”. Finansyzacja gospodarki 285 finansowej, obowiązującą wykładnią tego, co wolno robić [Freeman 2010]. A robić, zgodnie z tą filozofią, wolno w zasadzie wszystko, o ile tylko prowadzi to do wzrostu bogactwa w jego pieniężnym wymiarze. W tradycyjnym instytucjonalizmie istotną rolę odgrywa pojęcie władzy. Z punktu widzenia finansyzacji pojęcie to można rozpatrywać m.in. z punktu widzenia związków władzy politycznej różnych szczebli z sektorem finansowym [Hall 2009]. Tak zwane obrotowe drzwi, związane z przechodzeniem ludzi z biznesu do świata polityki, w tym do administracji państwowej i z powrotem, ułatwiają podejmowanie działań służących interesom sektora finansowego [Freeman 2010]. W dyskusji o finansyzacji trudno także pominąć mieszczące się w optyce instytucjonalnej zjawiska ze sfery kulturowej. Współczesna kultura masowa upowszechnia wyraźnie hedonistyczną wizję życia, w której rentierstwo, tradycyjnie bardzo wstrzemięźliwie, a nawet źle oceniane przez ekonomistów, jest oznaką sukcesu i wzorem godnym naśladowania. Finansyzacji sprzyjają także zmiany w sferze etyki i życia religijnego. Następuje erozja tradycyjnych wartości, a zwłaszcza ich interpretacji w odniesieniu do sfery biznesu. Przykładem, choć nie w każdym konkretnym wydaniu, jest kariera pojęcia „etyka biznesu”. Niestety, w praktyce jest to niekiedy etyka przykrawana do potrzeb konkretnej korporacji, w której pojęcia fundamentalne dla etyki nabierają częściowo nowego znaczenia. Podobnie jak historyczny instytucjonalizm, tak i nowa ekonomia instytucjonalna i jej instrumentarium badawcze nadają się do analizy zjawiska finansyzacji. Niewątpliwie dotyczy to idei asymetrii informacji z punktu widzenia relacji klientów i oferentów w sferze produktów finansowych. Złożoność instrumentów finansowych jest tak duża, że nawet ci, którzy tak jak agencje ratingowe, w imieniu innych uczestników rynku powinni oceniać związane z nimi ryzyko, sami raz po raz padają ofiarą asymetrii informacji. Z punktu widzenia istotnej dla nowej ekonomii instytucjonalnej teorii praw własności warto zwrócić uwagę na podkreślany już coraz większy udział podmiotów finansowych we własności w sferze realnej. Następuje swego rodzaju finansyzacja wszelkich aktywów, w tym także tych związanych z kapitałem ludzkim. Z kolei rozwój rynków instrumentów pochodnych prowadzi do upowszechniania się nowej formy własności, istotnie różniącej się od własności powiązanej z bezpośrednim sprawowaniem funkcji właścicielskiej i menedżerskiej oraz własności cedującej zarządzanie na najętych menedżerów. W przypadku derywatów możliwa jest własność bez świadomości bycia współwłaścicielem oraz własność, której w zasadzie nie towarzyszą żadne prawa i obowiązki. Właściciel derywatów może być wręcz zainteresowany upadłością podmiotu, którego aktywność jest źródłem kreacji instrumentu pochodnego, tudzież jest często bardziej zainteresowany istotną zmiennością zdarzeń wpływających na wycenę posiadanych derywatów i możliwość realizacji renty spekulacyjnej niż stabilnością rozwoju [Wigan 2009]. W perspektywie nowej ekonomii instytucjonalnej mieści się także podnoszona w ramach dyskusji o finansyzacji kwestia rozprzestrzeniania się pogoni za rentą (rent-seeking), co prowadzi do naruszania fundamentalnych reguł zaufania między sprzedającymi (np. nowe produkty finansowe) a nabywcami. Prowadzi to tak- 286 Marek Ratajczak że do tego, że stara łacińska maksyma caveat emptor („niech kupujący się strzeże”) nabiera nowego szczególnego znaczenia [Freeman 2010]. Pisząc o finansyzacji z perspektywy nowej ekonomii instytucjonalnej, trudno nie wspomnieć także o problemie pokusy nadużycia (moral hazard) czy też oportunizmu ex post, które to pojęcie ściśle wiąże się z dyskusją o roli państwa jako gwaranta czy też ubezpieczyciela ostatniej instancji. Do problemu tego powrócimy w dalszej części artykułu. W przeciwieństwie do keynesistów i innych reprezentantów szeroko rozumianej ekonomii heterodoksyjnej, ortodoksyjni reprezentanci ekonomii głównego nurtu związanego z tradycją neoklasyczną traktują to wszystko, co składa się na finansyzację gospodarki, jako przejawy pewnych naturalnych zmian zachodzących w ramach gospodarki rynkowej, niedające podstaw do istotnej rewizji paradygmatów oraz konstrukcji teoretycznych i modelowych. Ponieważ w modelu neoklasycznym i jego pochodnych zakłócenia w działaniu rynku mogą mieć w zasadzie tylko charakter egzogeniczny, to nic dziwnego, że wspomniana grupa ekonomistów szuka przyczyn ostatniego kryzysu przede wszystkim w psujących rynek działaniach państwa. O roli państwa z punktu widzenia finansyzacji będzie mowa w dalszej części artykułu. W tym miejscu zauważmy jedynie, że różne instytucje i działania państwa odegrały niewątpliwie pewną rolę w narastaniu finansyzacji i wybuchu ostatniego kryzysu. Nie znaczy to jednak, że była to przyczyna pierwotna i zasadnicza. Nie jest także uzasadnione przekonanie o możliwości – w dzisiejszych realiach rynkowych – w pełni skutecznego działania tego, co popularnie określa się mianem niewidzialnej ręki rynku i nieobecności państwa w gospodarce, zwłaszcza jako regulatora, w szczególności w odniesieniu do takich rynków jak rynki finansowe. Jak słusznie zauważył D. Acemoglu, zarówno w nauce, jak i w praktyce nie można stawiać znaku równości między rynkiem wolnym a rynkiem nieregulowanym [Acemoglu 2010]. Pisząc o finansyzacji gospodarki nie można pominąć jej związków z innym, znacznie popularniejszym, choć też niejednoznacznie definiowanym zjawiskiem, jakim jest globalizacja. Analizy globalizacji są tradycyjnie skoncentrowane na zjawiskach związanych ze sferą realną, co nie znaczy oczywiście, że w badaniach tych nie dostrzega się pieniężnego wymiaru aktywności gospodarczej. Jednakże czym innym jest dyskusja o pieniądzu w jego funkcjach środka wymiany, płatniczej i miernika wartości w sferze międzynarodowej, a czym innym będąca przedmiotem zainteresowania zwolenników idei finansyzacji dyskusja o sferze finansowej jako szczególnej składowej procesów globalizacji. Z punktu widzenia finansyzacji jako ogniwa globalizacji istotne znaczenie mają takie zjawiska, jak rozwój sekurytyzacji, ograniczenie roli tradycyjnych instytucji finansowych, a zwłaszcza banków jako instytucji pośredniczących na rynku kapitałowym, oraz wzrost płynności rynków finansowych w ich wymiarze międzynarodowym [Engelen 2008]. Światowy rynek finansowy jest także szczególnym beneficjentem postępu technologicznego. Pieniądz w swej bezgotówkowej postaci może bez żadnych ograniczeń, poza wynikającymi z regulacji państwa, błyskawicznie przenosić się w przestrzeni, która jeszcze bardziej niż w przypadku sfery realnej stała się przestrzenią globalną. Finansyzacja gospodarki 287 W ramach dyskusji o istocie finansyzacji należy także zwrócić uwagę na dwie tradycyjne idee, należące do podstaw dyskusji o funkcjonowaniu gospodarki rynkowej. Pierwsza, i z punktu widzenia tych rozważań szczególnie ważna, wiąże się z tym, co popularnie określane jest mianem gospodarki towarowo-pieniężnej. Najczęściej w sposób schematyczny ilustruje się to zapisem: towar (T) " pieniądz (P) " towar (Tl). Zapis ten sugeruje, że po pierwsze, to sfera realna (towar) ma charakter podstawowy, i po drugie, że zasadniczą rolą pieniądza jest pomocniczość czy też służebność wobec sfery realnej. Pieniądz ma być pośrednikiem w wymianie, ułatwiającym wymianę dóbr, rozwiązującym problemy typowe dla wymiany barterowej i gospodarki naturalnej. Tyle tylko, że już Karol Marks, a później raczej niebędący jego entuzjastą John Maynard Keynes zwrócili uwagę, że mówiąc o kapitalizmie, należałoby raczej pisać o gospodarce pieniężno-towarowej, w której owa zależność powinna być zapisywana jako P " T " Pl [Foster 2007]. W świecie maksymalizacji zysku to pieniądz jest jego podstawowym wyrazem, a towar drogą do powiększania zasobów pieniądza. Współczesna finansyzacja gospodarki analizowana z tej perspektywy jest w zasadzie kolejną fazą poszukiwania nowych sposobów maksymalizacji zysku w jego pieniężnej postaci, przy czym sposoby te nie muszą respektować innego elementu tradycyjnego spojrzenia na funkcjonowanie gospodarki rynkowej, który wiąże się z zależnością między potrzebami, konsumpcją i produkcją. W tradycyjnym ujęciu pierwotnym motorem wszelkiej aktywności gospodarczej są potrzeby ludzkie oraz konieczność ich zaspokajania drogą konsumpcji. Potrzeby gospodarstw domowych determinują decyzje producentów, którzy pośrednio lub bezpośrednio uczestniczą w wytwarzaniu środków konsumpcji. Towarzyszy temu idea suwerenności konsumenta. Jednakże we współczesnym świecie potrzeby konsumentów – poza potrzebami o charakterze podstawowym – są w znacznej mierze kreowane przez producentów, a decyzje producentów, wśród których coraz większą rolę odgrywają podmioty związane z sektorem finansowym, stają się w istotnej części pierwotnymi w stosunku do potrzeb. Finansowa determinanta decyzji produkcyjnych jest wzmacniana przez dążenie do maksymalizacji shareholder value. Marnotrawstwo i góry odpadów, które stały się jednym z symboli gospodarek wysoko rozwiniętych, są po części efektem tego, że produkowanie dóbr trwałych i niezawodnych niekoniecznie jest postrzegane jako zjawisko pozytywne, gdyż może prowadzić do ograniczenia konsumpcji, a to z kolei może negatywnie wpływać na możliwość powiększania zysków. 2. Wymiar historyczny finansyzacji We współczesnym świecie jest dość wyraźna tendencja do ahistoryzmu (liczy się „tu i teraz”, a to, co było, nie ma istotnego znaczenia). Historia myśli ekonomicznej czy historia gospodarcza, niegdyś standardowe elementy wykształcenia ekonomicznego, są już prawie nieobecne w dydaktyce, i to nie tylko w Polsce. W sfe- 288 Marek Ratajczak rze naukowej podejmowane są wręcz próby jednoznacznego przypisania tych obszarów badawczych do historii i wyłączenia ich zarazem z szeroko rozumianej ekonomii. Jednak w głębokim przekonaniu autora – nie tylko ze względu na coraz popularniejszą koncepcję path dependence – zjawiska gospodarcze i społeczne należy postrzegać i analizować w ich historycznym kontekście. Bez wiedzy o przeszłości często trudniej zrozumieć teraźniejszość i podejmować decyzje dotyczące przyszłości6. Z punktu widzenia dyskusji o finansyzacji w jej historycznym wymiarze, wyróżnić można dwie perspektywy badawcze. Jedna polega na postrzeganiu finansyzacji jako zjawiska o długiej historii, wiążącej się z występującymi na przestrzeni dziejów przejawami nadrzędności działań w sferze finansowej i kreowania na tej drodze bogactwa wobec aktywności w sferze realnej. W tle tego typu analiz jest kojarzone z Arystotelesem rozróżnianie ekonomii i chrematystyki. Istotą tej pierwszej miało być powiększanie bogactwa poprzez zaspokajanie potrzeb działań w sferze realnej. Z kolei chrematystyka wiąże się z ideą powiększania bogactwa jako celu samego w sobie, głównie poprzez działania, które można by określić mianem spekulacji finansowych. Rozróżnianie ekonomii i chrematystyki wiąże się także ze sporem o rolę pieniądza w życiu ekonomicznym i społecznym oraz sporem o pobieranie procentu. Przypomnijmy, że obrót pieniądzem i czerpanie z tego korzyści w postaci procentu były w starożytności i w średniowieczu traktowane jako zajęcia w zasadzie niegodne człowieka wolnego i zajmującego wysoką pozycję w hierarchii społecznej. W ramach trzech głównych religii monoteistycznych Tora dopuszcza pobieranie procentu od nie-Żydów, zabraniając zarazem stosowania go w transakcjach między Żydami. Koran w ogóle wykluczył ideę procentu w czystej postaci, w wyniku czego do dziś instytucje finansowe deklarujące działanie zgodne z regułami islamu nie mogą ani pobierać, ani udzielać procentu, a gromadzone środki pieniężne powinny być wykorzystywane do inwestowania w sferze realnej. Chrześcijaństwo co prawda zaakceptowało ideę procentu, ale chociażby poprzez ideę tzw. banków pobożnych podkreślano różnicę między procentem jako przejawem tego, co w tradycji świętego Tomasza z Akwinu można by potraktować jako wyraz ceny sprawiedliwej, a pogonią za zyskiem czerpanym z samego obrotu pieniądzem, co kojarzono zwłaszcza z lichwą. Na marginesie powyższego krótkiego odwołania do dyskusji o pieniądzu i procencie w kontekście religijnym warto zwrócić uwagę, że zwłaszcza w krajach mu6 Jak słusznie napisano w tekście towarzyszącym wznowieniu wydania esejów jednego z najważniejszych przedstawicieli teorii zarządzania, a zarazem bardzo dobrego znawcy ekonomii, P. Druckera „(...) menedżer musi obecnie funkcjonować w centrum burzy istotnych społecznych zmian, które w sposób zasadniczy przeobrażają relacje między gospodarką, biznesem, polityką i konsumentami. Zrozumienie tych wszystkich zmian i zarządzanie w ramach nich wymaga pewnej perspektywy, która wykracza poza «tu i teraz» w stronę określenia, jak się tu znaleźliśmy i dokąd zmierzamy” [Drucker 2010]. Finansyzacja gospodarki 289 zułmańskich w ostatnich latach pojawiły się publikacje wskazujące na zalety bankowości opartej na regułach koranicznych w dobie finansyzacji [Khan 2008]. Autorzy tych opracowań, wychodząc od konstatacji o braku wśród banków dotkniętych konsekwencjami kryzysu banków islamskich, starają się wykazać, że to właśnie konserwatywne reguły działania wynikające z tradycji koranicznej stały się swoistą tarczą ochronną. Należy jednak zauważyć, że właśnie konserwatyzm reguł ekonomicznych i społecznych, wynikających z przyjętej interpretacji Koranu, jest z kolei przez część historyków uznawany za jedną z istotnych przyczyn tego, że świat muzułmański, który jeszcze w dobie średniowiecza na wielu obszarach życia społecznego (np. w medycynie) był nawet lepiej rozwinięty niż obszary zdominowane przez chrześcijaństwo, tej roli lidera nie utrzymał i że to nie w tym kręgu cywilizacyjnym narodził się kapitalizm. To właśnie innowacje finansowe i księgowe, kojarzone zwłaszcza z włoskimi republikami-miastami, odegrały istotną rolę w rozwoju nastawionej na zysk aktywności gospodarczej stanowiącej istotę kapitalizmu7. Wśród licznych historycznych przejawów finansyzacji szczególnie często jest analizowany przypadek Hiszpanii w XVI i XVII w. Napływ kruszców z Ameryki, z których bito monety, doprowadził do tego, że w Hiszpanii rozprzestrzeniła się swoista wiara w to, że pieniądz i sam obrót nim są autonomicznym i gwarantującym sukces źródłem bogactwa i rozwoju [Barbaruk 2010]. Tak zwane kryzysy hiszpańskie XVII w. bardzo szybko wykazały, że ani pieniądz, ani papiery wartościowe i obrót nimi nie są w stanie zastąpić normalnej aktywności w sferze realnej. W tym miejscu warto zauważyć, że jednym z elementów dyskusji towarzyszących ostatniemu kryzysowi stało się pytanie, które można potraktować po części jako historyczne odbicie wskazanego wcześniej problemu, a które dotyczy tego, czy idea serwicyzacji gospodarek wysoko rozwiniętych, m.in. drogą rozwoju sektora finansowego, zakładająca de facto akceptację ograniczania sfery realnej w rozumieniu tradycyjnej działalności produkcyjnej jako kreatora miejsc pracy i źródło bogactwa, jest rzeczywiście tak bezdyskusyjna i bezproblemowa, jak to często przedstawiano. Czy rzeczywiście można przyjąć, że nie ma żadnego znaczenia czy 10% PKB jest uzyskiwane w ramach usług związanych z sektorem finansowym, czy dzięki działaniom związanym z produkcją dóbr w ich postaci materialnej?8 Czy świat, w którym – trywializując i upraszczając – Chiny będą 7 Kwestia związków religii z ekonomią, w tym w sferze finansowej, sama w sobie warta jest odrębnych, pogłębionych studiów. Przy okazji warto odnotować, że tak zwane PIIGS, czyli gospodarki stanowiące szczególne źródło problemów w Unii Europejskiej i w strefie euro, to kraje o silnej tradycji katolickiej, a w przypadku Grecji – prawosławnej. Odpowiedź na pytanie, czy jest to tylko przypadek, czy argument na rzecz słuszności poglądów Maxa Webera o wpływie etyki protestanckiej na rozwój kapitalizmu, a zarazem dowód na mniejsze dopasowanie do siebie kapitalizmu i innych składowych chrześcijaństwa, wykracza poza ramy tego artykułu. 8 Na 10% szacowany jest udział londyńskiego City w tworzeniu PKB Wielkiej Brytanii i to troską o ochronę tej składowej brytyjskiej gospodarki tłumaczono postawę premiera Camerona w trakcie szczytu Unii Europejskiej w grudniu 2011 r., sprzeciwiającego się paktowi fiskalnemu oraz proponowanym restrykcjom wobec sektora finansowego. 290 Marek Ratajczak produkować towary, a Ameryka dolary, może funkcjonować w dłuższej perspektywie historycznej? Ostatni kryzys wskazuje na to, że nie. Historyczne przejawy finansyzacji gospodarki niekiedy są kojarzone z wszelkimi przykładami narastania i pękania baniek spekulacyjnych zarówno w sferze finansowej, jak i realnej – od słynnej bańki tulipanowej z XVII w. począwszy. Nawet ograniczając się tylko do baniek spekulacyjnych o charakterze finansowym, stawianie znaku równości między tym zjawiskiem a finansyzacją trudno byłoby zaakceptować. Albowiem klasyczne bańki spekulacyjne w sferze finansowej to pojawiająca się co pewien czas sytuacja wzrostu cen aktywów finansowych. Z kolei finansyzacja to długookresowa tendencja do zmiany roli sfery finansowej w gospodarce. Bańki spekulacyjne w sferze finansowej to tylko jeden z głównych aspektów finansyzacji gospodarki – obok takich kwestii, jak: a) rola zysków i aktywności finansowej w zyskach ogółem, b) wzrost wartości długu (prywatnego i publicznego) w relacji do PKB), c) wzrost znaczenia sektora FIRE w aktywności gospodarczej, d) rozwój innowacji finansowych, zwłaszcza w ramach tego, co współcześnie jest określane mianem instrumentów pochodnych [Foster 2007]. Wymienione powyżej zjawiska nasiliły się szczególnie w ostatnim ćwierćwieczu XX w. i dlatego druga i najczęściej analizowana historyczna perspektywa dyskusji o finansyzacji gospodarki koncentruje się na ostatnich dziesięcioleciach funkcjonowania kapitalizmu. Tym, co stanowi o zasadniczej różnicy między finansyzacją z niekiedy już bardzo historycznie odległej przeszłości a jej współczesną postacią, jest zakres i skala zjawisk spekulacyjnych oraz – co bardzo ważne – istota tychże zjawisk. Tradycyjna spekulacja była oparta w znacznej mierze na wykorzystywaniu arbitrażu. Natomiast współczesna spekulacja wiąże się o wiele bardziej z inflacją aktywów finansowych i powstawaniem baniek spekulacyjnych o charakterze finansowym [Knafo 2009]. Pisząc o różnicach między finansyzacją z historycznie odległej przeszłości a jej współczesną postacią, należy zwrócić uwagę na jeszcze jedną istotną kwestię, która wiąże się z różnicą między współczesnym pieniądzem a pieniądzem w przeszłości. Pieniądz współczesny jest w pełni pieniądzem fiducjarnym, który nie jest powiązany z żadnym dobrem trwałym – takim jakim było w przeszłości na ogół złoto, a czasem także srebro. W systemie pieniądza kruszcowego zjawisko finansyzacji oczywiście było możliwe, ale – jak wskazywano powyżej – wiązało się raczej z arbitrażem niż z inflacją aktywów finansowych. Fiducjarny charakter współczesnego pieniądza powoduje także, że jest on bardziej niż pieniądz w przeszłości wrażliwy na negatywne konsekwencje pękania baniek spekulacyjnych, a zarazem łatwo jest go wykorzystywać w różnego rodzaju spekulacjach. Dodatkowo finansyzacji jako zjawisku międzynarodowemu sprzyja sytuacja panująca w międzynarodowym systemie walutowym od czasu faktycznej upadłości systemu z Bretton Woods [Polanyi Levitt 2010]. Wielość systemów kursowych, brak akceptowanych przynajmniej przez wszystkich głównych uczestników rynku reguł zachęcają i ułatwiają działania o charakterze spekulacyjnym. Finansyzacja gospodarki 291 3. Przejawy finansyzacji Szczegółowa analiza przejawów finansyzacji gospodarki wykracza poza ramy artykułu. Poniżej przedstawiono swoisty katalog najczęściej przytaczanych w literaturze świadectw narastania tego zjawiska. Rozpocząć należy od roli tzw. transakcji niewidzialnych i rozwoju rynku instrumentów pochodnych. Szacuje się, że około 75–80% obrotów finansowych w skali globalnej dotyczy transakcji, którym nie towarzyszy żaden przepływ towarów czy usług niefinansowych. Niewątpliwie istotną rolę w rozwoju i ułatwieniu zawierania transakcji niewidzialnych odgrywa rozwój tego wszystkiego, co nazywane jest e-biznesem, a szerzej – digitalizacją życia ekonomicznego i społecznego. Nowym i szybko rozwijającym się zjawiskiem świadczącym o kolejnym wymiarze spekulacji stały się transakcje ultraszybkie, w których operuje się czasem mierzonym w milisekundach. Wyrazem finansyzacji gospodarki jest także wspominana już inflacja aktywów finansowych i samych instrumentów finansowych. Szczególną rolę odgrywa rynek instrumentów pochodnych, a w ramach tego rynku szczególną popularność zyskały kredytowe instrumenty pochodne (CDS). Warto podkreślić, że w 2000 r. wartość rynku CDS była prawie zerowa, a w 2007 r. wartość tego rynku szacowano już na około 60 bln dol., a wartość całego rynku instrumentów pochodnych – na około 600 bln dol. Rozwijane w ramach inżynierii finansowej nowe instrumenty są coraz bardziej skomplikowane, często nieczytelne zwłaszcza dla ich nabywców, którzy są skazani przy ich nabywaniu na opinię ekspertów. Tymi ekspertami są na ogół instytucje ratingowe, które – jak pokazują doświadczenia ostatniego kryzysu – wcale nie muszą dochowywać należytej staranności i ostrożności w formułowaniu swoich ocen. Rozwój rynku instrumentów pochodnych, a zwłaszcza CDS, spowodował także zasadniczą zmianę w relacjach między kredytobiorcami a kredytodawcami. W tradycyjnych relacjach w przypadku problemów kredytobiorcy kredytodawca był na ogół zainteresowany w ewentualnym wspomaganiu kredytobiorcy w szukaniu rozwiązania. Perspektywa bankructwa kredytobiorcy oznaczała bowiem potencjalnie także poważne konsekwencje dla kredytodawcy. W świecie CDS możliwa jest wręcz gra na upadłość kredytobiorcy, korzystna zwłaszcza dla emitentów i pośredników w handlu CDS. Klasycznymi przejawami finansyzacji są też takie zjawiska jak skala lewaryzacji działalności gospodarczej, a w tym samej sfery finansowej, oraz wspominany już wzrost udziału dochodów z działalności finansowej w korporacjach niefinansowych, przekraczający niekiedy 50%. O finansyzacji gospodarki świadczy także rola instytucji finansowych i ich dochodów w gospodarce. W latach 80. XX w. banki notowane na giełdzie w USA stanowiły około 5% kapitalizacji giełdy i reprezentowały około 10% zysków wszystkich notowanych na giełdzie przedsiębiorstw. W roku 2007 było to już odpowiednio 25% i 40%. Przypomnijmy także, że w szczególnie kojarzonej z kryzy- 292 Marek Ratajczak sem finansowym Islandii wartość aktywów banków w 2008 r. stanowiła równowartość 10-krotności PKB tego kraju. Finansyzacja dotyczy też gospodarstw domowych i udziału aktywów finansowych w ich łącznych aktywach oraz skali zadłużenia gospodarstw domowych w relacji do ich dochodów. Przykładowo w Wielkiej Brytanii w 1975 r. było to około 45% wartości aktywów posiadaniu gospodarstw domowych, a w 1995 r. już 61%, głównie za sprawą rozwoju funduszy ubezpieczeniowych i emerytalnych. Z kolei poziom zadłużenia gospodarstw domowych w Wielkiej Brytanii w 2007 r. odpowiadał 150% rocznych dochodów, a w USA – 137%. Szczególną rolę w dyskusji o przejawach, a zarazem źródłach finansyzacji gospodarki odgrywa analiza zmian w sferze zarządzania, związanych z wspominanym już upowszechnieniem się idei shareholder value i rolą instytucji finansowych w organizacjach spoza tej sfery. Istotną rolę w kreowaniu i upowszechnianiu takich idei, a także w rozwoju różnych elementów inżynierii finansowej odgrywały i odgrywają nadal reprezentanci amerykańskiego środowiska akademickiego, którzy często łączą karierę uniwersytecką z pracą na rzecz firm doradczych i/lub funduszy inwestycyjnych. Szczególnym przykładem tego są laureaci Nagrody Nobla z ekonomii z 1997 r. Robert C. Merton i Myron S. Scholes. Nagroda ta uchodzi zresztą za jedną z bardziej kontrowersyjnych, a wpływ na to ma zarówno poddawanie w wątpliwość naukowego, a nie tylko praktycznego znaczenia uhonorowanych osiągnięć, jak i zaangażowanie obu laureatów w działania hedgingowego funduszu inwestycyjnego Long Term Capital Management, który po okresie wysokich zysków pod koniec XX w. zbankrutował9. Z perspektywy czasu swoistą wiarę w „magiczną moc” sformalizowanych narzędzi zarządzania funduszami inwestycyjnymi należy ocenić niestety jako jedno z istotnych zjawisk, które przyczyniły się do obecnego kryzysu. Inżynieria finansowa zaczęła być bowiem coraz bardziej postrzegana jako samoistny sposób kreowania dochodów w oderwaniu od fundamentalnych reguł życia ekonomicznego, a w tym ścisłego związku ryzyka z dochodowością podejmowanych przedsięwzięć10. W tym miejscu warto wspomnieć pojęcie „nowej ekonomii”, która w wyniku rozwoju informatyki i opartych na niej narzędzi zarządzania, stosowanych zarówno w sferze finansowej, jak i w sferze realnej, miała prowadzić do 9 Nawiązując, jak się wydaje, m.in. do Nagrody Nobla dla Mertona i Scholesa w wywiadzie udzielonym J. Żakowskiemu Edmund S. Phelps, sam będący laureatem Nagrody Nobla, zawarł dość zjadliwą krytykę kolegów, mówiąc: „Ludziom, którzy opracowali modele finansowe oparte na fantastycznych, nierealistycznych założeniach przyznano przecież wiele Nagród Nobla. Modele Mickey Mouse wykorzystywano do rozmaitych przedsięwzięć, które właśnie padają. Bo założenia były bezsensowne i nie pasowały do realnego świata, pełnego niepewności, ciągłych zmian, emocji, niepełnej wiedzy” (cyt. za Rynek w cuglach [2008, s. 9]). 10 Można spotkać się z opinią, że właśnie finanse jako obszar nauk ekonomicznych, w swym dominującym w ostatnich dziesięcioleciach nurcie, mają najbardziej antykeynesowski wymiar. To na gruncie współczesnych finansów szczególnie silnie bronione są idee rynków efektywnych, oparte na wizji zaczerpniętej z prac Arrowa i Debreu, koncepcje w pełni racjonalnych podmiotów gospodarczych, jak i cen aktywów dyskontujących wszystkie dostępne informacje [Wigan 2009, s. 160]. Finansyzacja gospodarki 293 odrzucenia tradycyjnego spojrzenia na gospodarkę, chociażby w kategoriach zjawiska cykliczności. I wreszcie, na zasadzie last but not least i istotnym przejawem finansyzacji jest nasilanie się częstotliwości i siły kryzysów finansowych. Szczególną rolę odgrywa tutaj ostatni kryzys, który trudno uznać za definitywnie zakończony. 4. Finansyzacja a rola państwa w gospodarce Jak już wspominano, zwłaszcza ekonomiści związani z tradycją paradygmatu neoklasycznego są skłonni upatrywać przyczyn ostatniego kryzysu przede wszystkim w działaniach państwa, zakłócających skuteczność samoregulacji rynkowej. Nie ulega wątpliwości, że państwo jako szczególny uczestnik życia ekonomicznego może przyczyniać się do ułatwiania i narastania zjawiska finansyzacji. Po pierwsze, jest to kwestia funkcji regulacyjnej państwa, które poprzez rozwiązania prawne i organizacyjne może stwarzać mniej lub bardziej sprzyjające warunki dla ekspansji sfery finansowej. Idee deregulacji i prywatyzacji, stanowiące fundament tzw. rewolucji (dla jednych) lub kontrrewolucji (dla innych) neoliberalnej, zapoczątkowanej w latach 70. XX w., są generalnie słuszne i bezdyskusyjne w rozumieniu stwarzania sprzyjających warunków dla rozwoju przedsiębiorczości i poszanowania reguł mikroekonomicznej efektywności. Jednakże w tak szczególnej sferze, jaką jest obszar rynków finansowych, deregulacja i prywatyzacja, a zwłaszcza ograniczanie nadzoru, mogą prowadzić do bardzo groźnych konsekwencji11. W tym miejscu warto wspomnieć o przyjętej w 1933 r. przez amerykański Kongres ustawie zakazującej łączenia bankowości komercyjnej i inwestycyjnej, znanej jako Glass-Steagall Act. Uchylenie tej ustawy w 1999 r. jest dziś często postrzegane jako istotny błąd, a zarazem jako jedno ze źródeł nasilenia się zjawisk prowadzących do ostatniego kryzysu. Po drugie, nasilaniu się zjawiska finansyzacji gospodarki może sprzyjać realizowana przez państwo polityka makroekonomiczna – zarówno w ramach polityki fiskalnej, jak i polityki monetarnej. W odniesieniu do polityki monetarnej warto zwrócić uwagę na politykę utrzymywania na bardzo niskim poziomie stóp procentowych, czego szczególnym wyrazem była polityka administracji amerykańskiej w czasach, gdy przewodniczącym rady gubernatorów Systemu Rezerwy Federalnej był Alan Greenspan. Polityka ta zachęcała do kreowania kredytu i zadłużania się, tudzież do szukania alternatywnych w stosunku do tradycyjnych depozytów bankowych form lokowania środków pieniężnych, np. w postaci funduszy inwestycyjnych. Polityka taka sprzyjała także powstawaniu baniek spekulacyjnych, zwłaszcza na rynku nieruchomości. Z kolei polityka fiskalna może wpły11 Znamienna z tego punktu widzenia była wypowiedź Alana Greenspana w trakcie przesłuchania w Kongresie Stanów Zjednoczonych, w trakcie którego przyznał, że mylił się wierząc, że „banki są w stanie wykonywać właściwe posunięcia, by zabezpieczyć interesy ich akcjonariuszy i klientów. Myliłem się” [Kamiński 2008, s. 14]. 294 Marek Ratajczak wać na finansyzację gospodarki dwoma kanałami. Jeden wynika z przyjętych rozwiązań podatkowych. Zwłaszcza ograniczanie progresywności opodatkowania prowadzące do zwiększenia dochodów rozporządzalnych osób osiągających wyższe dochody przyczynia się do przeznaczania środków finansowych nie na dodatkową konsumpcję, lecz do ich inwestowania w instrumenty finansowe [Palley 2007]. Drugi kanał wpływu polityki fiskalnej na finansyzację gospodarki wiąże się z potrzebami pożyczkowymi państwa i finansowaniem deficytu budżetowego oraz spłaty długu publicznego. Im większe potrzeby pożyczkowe państwa, tym większa zachęta do kreowania instrumentów finansowych powiązanych z oceną ryzyka towarzyszącego zadłużeniu publicznemu. Po trzecie, finansyzację gospodarki (w kontekście działań państwa) można rozpatrywać przez pryzmat jej stymulowania i wykorzystywania w związku z realizacją pewnych celów społecznych. Jeżeli – tak jak w USA – państwo stara się zapewnić grupom słabszym ekonomicznie dostęp do pewnych dóbr, w tym do domów mieszkalnych, poprzez stymulowanie czy wręcz wymuszanie akcji kredytowej, to przyczynia się to do narastania problemu finansyzacji. Wiąże się to bowiem ze zwiększeniem stopnia zadłużenia gospodarstw domowych wobec instytucji finansowych, jak i – co nawet jest groźniejsze – ze stwarzaniem bodźców do kreowania produktów finansowych zabezpieczających najbardziej ryzykowne kredyty. Rozwój rynku papierów wartościowych służących sekurytyzacji stanowi znakomity kanał „zarażania” kolejnych podmiotów – zarówno ze sfery finansowej, jak i realnej – wirusem nadmiernego ryzyka, który w pewnym momencie uaktywnia się i powoduje swoistą pandemię kryzysu finansowego. Rynek kredytów subprime w USA rozwinął się w znacznej mierze jako konsekwencja polityki państwa i związanych z nim instytucji, takich jak Fannie Mae i Fredie Mac. Cele społeczne państwa to także zabezpieczenie warunków życia ludzi, którzy zakończyli aktywność zawodową. W sytuacji narastającego problemu starzenia się społeczeństw w krajach najwyżej rozwiniętych nawet najzamożniejsze państwa nie są w stanie zapewnić adekwatnego do skali oczekiwań społecznych finansowania wydatków socjalnych, w tym funduszy emerytalnych. Państwa szukają więc różnych sposobów przynajmniej częściowego uwolnienia się od tzw. sztywnych, transferowych wydatków budżetowych. Sposobem na to jest rozwój alternatywnych wobec budżetu form finansowania świadczeń społecznych, takich jak np. fundusze emerytalne. Te alternatywne, pozabudżetowe rozwiązania wiążą się z rozwojem rynku kapitałowego i sfery finansowej, a w konsekwencji przyczyniają się wzrostu finansyzacji [Dixon, Sorsa 2009]. Pisząc o roli państwa w rozwoju finansyzacji gospodarki, należy także wspomnieć o coraz szerzej dyskutowanym zjawisku, jakim są tzw. sovereign funds lub sovereign wealth funds, czyli fundusze inwestycyjne tworzone pod auspicjami rządów poszczególnych państw i operujące środkami publicznymi. Rola państwowych funduszy inwestycyjnych w sferze finansów międzynarodowych i w gospodarce światowej jest oceniana niejednoznacznie. Z jednej strony fundusze te są niekiedy traktowane jako swoiste koło ratunkowe dla instytucji finansowych zagrożonych upadłością. Przyjmuje się przy tym, że fundusze te powinny działać mniej ryzykownie, a zara- Finansyzacja gospodarki 295 zem z uwzględnieniem dłuższego horyzontu czasowego niż typowe prywatne fundusze inwestycyjne o charakterze hedgingowym, a co za tym idzie, powinny wpływać stabilizująco na system finansowy i gospodarkę. Z drugiej strony jednak istnieje niebezpieczeństwo, że rozwój tego typu funduszy może doprowadzić do swoistego „upaństwowienia” rynku kapitałowego, a przynajmniej jego istotnego „skrzywienia” w stronę decyzji wynikających z czynników pozaekonomicznych [Radon, Thaler 2008]. Należy także zwrócić uwagę na wspominaną już i szeroko dyskutowaną, zwłaszcza w kontekście ogłaszanych przez poszczególne rządy i banki centralne kolejnych planów ratunkowych dla sfery finansowej, a także sfery realnej, „pokusę nadużycia”. Ryzyko pokusy nadużycia związane jest z działaniami państwa jako ubezpieczyciela ostatniej instancji, czy też – co jest domeną banków centralnych – kredytodawcy ostatniej instancji, a w szczególności dotyczy tzw. instytucji „zbyt dużych”, aby upaść (too big to fail). Chrysler dwukrotnie na przestrzeni trzydziestu lat został uratowany przed upadłością dzięki pomocy rządu amerykańskiego. Wśród głównych udziałowców i menedżerów firmy może to rodzić przekonanie, że niezależnie od tego, jak będzie funkcjonowała firma i na ile jej ewentualne problemy będą spowodowane niekorzystnymi zmianami w jej otoczeniu, a na ile błędami popełnionymi przez zarządzających, można będzie liczyć na polisę ubezpieczeniową ze strony państwa, która zostanie sfinansowana przez podatników. Dlatego tak ważne jest, aby doraźne działania interwencyjne ze strony państwa stanowiły tylko pierwszy krok, a nie istotę zwalczania kryzysu, a zwłaszcza minimalizacji ryzyka jego powtórzenia się na podobną skalę w przyszłości. Finansyzacja gospodarki jest więc zarówno konsekwencją zmian, jakie dokonują się w ramach sektora prywatnego i w wyniku działania rynku, jak i następstwem opisanych wyżej zachowań państwa [Palley 2009; Kotz 2008]. Nie można jednak przyjąć, że to właśnie państwo jest tu głównym sprawcą problemów. Tkwią one głębiej w mechanizmach funkcjonowania współczesnej gospodarki rynkowej w jej kapitalistycznym wariancie i wiążą się m.in. z ideą stałego wzrostu dobrobytu utożsamianego przede wszystkim z jego wymiarem finansowym. 5. Finansyzacja a dobrobyt społeczny Kwestia związków finansyzacji z dobrobytem społecznym jest rozpatrywana przede wszystkim w kontekście znanego w makroekonomii efektu bogactwa lub inaczej efektu majątkowego, kojarzonego w wymiarze historycznym z postacią A.C. Pigou. Przypomnijmy, że w największym uproszczeniu efekt bogactwa to zmiany wydatków konsumpcyjnych będące konsekwencją zmiany wartości majątku gospodarstw domowych. Wzrost wartości majątku, np. w wyniku hossy na giełdzie i związanego z tym wzrostu wartości aktywów finansowych posiadanych przez gospodarstwa domowe czy też w wyniku boomu na rynku nieruchomości, powinien – zgodnie z koncepcją efektu bogactwa – skutkować wzrostem wydat- 296 Marek Ratajczak ków konsumpcyjnych. Konsumenci, uważając się za bogatszych powinni bowiem łatwiej i chętniej podejmować decyzje zwiększające ich spożycie, także za pomocą środków pieniążnych pożyczonych na rynku. Pisząc o efekcie bogactwa należy jednak zauważyć, że nie znajduje on jednoznacznego potwierdzenia w wynikach badań empirycznych. Na dodatek wyniki te wskazują na istotne różnice występujące pod tym względem między poszczególnymi gospodarkami, których źródła wykraczają poza wąsko rozumianą sferę czynników ekonomicznych. Finansyzacja sprzyja występowaniu efektu majątkowego w znacznej mierze w wyniku tzw. demokratyzacji finansów [Montgomerie, Williams 2009]. Rozwój rynków finansowych i instrumentów finansowych, tudzież narzędzi służących sekurytyzacji, pozwala nawet podmiotom o bardzo ograniczonych dochodach i niewielkim majątku korzystać np. z kredytów na zakup nieruchomości, a to z kolei otwiera drogę do dalszego wzrostu wydatków konsumpcyjnych wraz ze wzrostem wartości nabytej nieruchomości. Niestety, towarzyszy temu ryzyko, które dało o sobie znać wraz z kryzysem kredytów subprime w Stanach Zjednoczonych. Niebezpieczeństwem, które wiąże się z wpływem finansyzacji na efekt majątkowy, jest podkreślane już powiązanie finansyzacji gospodarki z rozwojem działań o charakterze spekulacyjnym. Działania takie, co pokazuje zwłaszcza rynek nieruchomości, mogą prowadzić do bardzo szybkiego wzrostu wartości majątku posiadanego przez gospodarstwa domowe i co za tym idzie, kreować podstawy do wzrostu efektu bogactwa. Równocześnie jednak rośnie ryzyko, z którego znaczna część gospodarstw domowych nie zdaje sobie sprawy, możliwości równie szybkiego lub nawet szybszego spadku wartości posiadanego majątku w momencie wystąpienia zjawisk kryzysowych. Teoretycznie rzecz ujmujac, to kredytodawca powinien przeprowadzić na tyle wnikliwą analizę warunków udzielenia kredytu, aby zminimalizować ryzyko zarówno własne, jak i kredytobiorcy. Doświadczenia ostatnich lat przed wybuchem kryzysu pokazują jednak, że we współczesnym świecie występuje tendencja do niedoszacowania ryzyka kredytowego lub przyjmowania założenia, że inne instrumenty finansowe, takie jak wspominane CDS, skutecznie przeniosą ryzyko na inne podmioty. Powyżej wspomniano już o demokratyzacji finansów jako pozytywnym, zdaniem wielu ekonomistów, następstwie rozwoju rynków finansowych. Należy jednak zauważyć, że wśród zwolenników idei finansyzacji jako odzwierciedlenia pewnej nowej fazy rozwoju kapitalizmu nie brak głosów, że owa demokratyzacja ma tylko pozorny charakter i że wciąganie kolejnych grup społecznych w świat rynków finansowych ma służyć przede wszystkim interesom najzamożniejszych grup społeczeństwa [Montgomerie, Williams 2009]. O niesprawiedliwym czy wręcz klasowym wymiarze finansyzacji świadczyć mają obficie cytowane w literaturze, acz pochodzące głównie z USA, dane dotyczące zróżnicowania i rozkładu dochodów między tzw. „białymi i niebieskimi kołnierzykami”. Finansyzacja sprzyja przede wszystkim wzrostowi dochodów i majątków najlepiej sytuowanych grup społecznych. Mówiąc o wpływie finansyzacji na sferę podziału dochodów, należy zauważyć, że finansyzacja jest postrzegana jako element destrukcji tzw. systemu for- Finansyzacja gospodarki 297 dowskiego w sferze relacji między światem pracy a światem kapitału [Boyer 2005]. System ten był charakterystyczny dla tzw. złotych trzydziestu lat od końca II wojny światowej do połowy lat 70. XX w. i opierał się na daleko idącym kompromisie między światem pracy a światem kapitału. Kompromis ten wynikał po części z idei solidaryzmu społecznego, charakterystycznego dla tzw. liberalizmu zakorzenionego społecznie, w znacznej mierze nawiązującego do kojarzonej z Johnem Stuartem Millem idei liberalizmu socjalnego [Harvey 2008]. Odzwierciedleniem charakterystycznego dla tego systemu kompromisu między światem pracy a światem kapitału była m.in. umiarkowana, z punktu widzenia dzisiejszej perspektywy, skala zróżnicowania przeciętnych dochodów szeregowych pracowników i kadr kierowniczych. W sferze polityki makroekonomicznej w okresie dominacji systemu fordowskiego szczególną rolę odgrywały działania odwołujące się do dorobku J.M. Keynesa, a polityka społeczna była związana z ideą państwa dobrobytu i państwa opiekuńczego. Należy podkreślić, że w okresie dominacji systemu fordowskiego nastąpił bezprecedensowy rozwój gospodarek rynkowych zaliczanych do krajów wysoko rozwiniętych. Gdyby dokonać prostego porównania przeciętnego poziomu życia w tych krajach w 1975 r. z tym, jaki był w 1945 r., a następnie dokonać podobnych obliczeń dla lat 1975–2005, nie ulegałoby wątpliwości, dlaczego właśnie ten pierwszy okres nazywany jest złotym. To drugie trzydziestolecie kojarzone jest z okresem dominacji koncepcji neoliberalnych, a symbolem zmian, które temu towarzyszyły, stały się tzw. thatcheryzm oraz reaganomika12. Obie te polityki czy wręcz filozofie dotyczące reguł życia ekonomicznego odwoływały się do idei powrotu do korzeni gospodarki rynkowej, w której zasadniczą rolę powinna odgrywać samoregulacja rynkowa, przy bardzo ograniczonej obecności państwa, odpowiedzialnego przede wszystkim za stwarzanie i umacnianie ram instytucjonalnych niezbędnych dla rozwoju aktywności gospodarczej sektora prywatnego. Wraz z nadejściem epoki neoliberalizmu nastąpiło stopniowe odejście od systemu fordowskiego. Wynagrodzenia szeregowych pracowników zaczęły być głównie postrzegane w kategoriach kosztu, a wynagrodzenia kadry menedżerskiej, zwłaszcza najwyższego szczebla, jako cena zarządzania aktywami uzależniona bezpośrednio od ich wartości rynkowej. W systemie postfordowskim nie ma za dużo miejsca na dyskusję o wynagrodzeniach i ich relacjach w kategoriach społecznych. To, co wynika z gry sił rynkowych – niezależnie od tego, czy jest to rzeczywiście rynek zbliżony do ideału wolnego rynku, czy jak to ma na ogół miejsce rynek jest od 12 Poza ramy tego artykułu wykracza szczegółowa dyskusja na temat powodów, dla których doszło do zmian związanych z upowszechnieniem się koncepcji neoliberalnych. Był to cały splot przyczyn o charakterze społecznym, politycznym i ekonomicznym. W sferze ekonomicznej można wspomnieć, że w końcowej fazie wspominanych wcześniej złotych trzydziestu lat pojawiły się zjawiska, które nie mieściły się w tradycyjnej keynesowskiej wizji gospodarki i traktowanej jako integralny element tego sposobu widzenia gospodarki krzywej Phillipsa. Stagflacja i slumpflacja, które stały się udziałem sporej grupy państw, doprowadziły do zasadniczej rewizji poglądów, zwłaszcza na rolę państwa w gospodarce. 298 Marek Ratajczak tego ideału nawet mocno odległy – i to, co rynek akceptuje, jest uznawane za właściwe. Przy tym zarówno ograniczanie kosztów płacowych związanych z pracownikami niższych szczebli, jak i szybki wzrost wynagrodzeń top managmentu to elementy wskazywanego wcześniej i charakterystycznego dla doby finansyzacji umacniania się punktu widzenia zwanego shareholder perspective. Z punktu widzenia akcjonariuszy wynagrodzenia szeregowych pracowników są przede wszystkim składnikiem kosztów wpływających na efektywność zainwestowanego kapitału, natomiast zarobki kadry kierowniczej są swego rodzaju premią za dbałość o zainwestowany kapitał i poprawę rentowności. W tym miejscu warto odnieść się do nowego zjawiska społecznego, które umownie określa się jako „ruch oburzonych”, którego symbolem stały się takie wydarzenia, jak akcja blokowania Wall Street. Ruchy te mogą być postrzegane jako swego rodzaju upominanie się o powrót do systemu fordowskiego z punktu widzenia relacji świata pracy i świata kapitału. Powrót taki, jak zresztą każdy powrót do przeszłości, nie wydaje się jednak w pełni możliwy, co nie znaczy, że nie jest pożądana szersza debata na temat tego, jak godzić potrzebę ochrony mikroekonomicznej efektywności z efektywnością makroekonomiczną, a zwłaszcza makrospołeczną skutecznością w zapewnianiu pokoju socjalnego, który jest jednym z niezbędnych warunków długookresowego rozwoju. Pisząc o związkach między tendencją do finansyzacji gospodarki i dobrobytem społecznym, należy także zwrócić uwagę na wskazywane już ryzyko rozszerzania się postaw czy zachowań rentierskich. Tabloidyzacja sfery kulturowej i przekazu medialnego powodują, że coraz częściej zwłaszcza młodzi uczestnicy rynku skłonni są traktować aktywność ekonomiczną związaną z pracą jako coś gorszego w stosunku do ideału rentierskiego. Majątek, który może otwierać drogę do naprawdę dostatniego życia, miałby być przede wszystkim konsekwencją różnego rodzaju operacji finansowych, a nie efektem tradycyjnie rozumianej aktywności związanej z uczestnictwem w rynku w charakterze pracobiorcy lub pracodawcy. W skali makrospołecznej i makroekonomicznej grozi to tworzeniem świata gigantycznej piramidy Ponziego [Froud i in. 2001]. Uwagi końcowe Ostatni kryzys w gospodarce światowej jest traktowany przez część ekonomistów jako naturalny przejaw cykliczności rozwoju gospodarki i wyraz działania samooczyszczającego się rynku, który po okresie pewnych turbulencji ponownie wprowadzi gospodarkę światową na ścieżkę szybkiego wzrostu. Dla tych, którzy akceptują ideę finansyzacji, kryzys ten jest wyrazem głębszych zmian, których konsekwencje są trudne w tej chwili do precyzyjnego określenia. Istnieje przy tym niebezpieczeństwo, że po okresie największych zaburzeń związanych z ostatnim kryzysem wróci presja na kontynuowanie działań służących dalszemu rozwojowi finansyzacji. Dla gospodarstw domowych może oznaczać to, że będą mogły liczyć Finansyzacja gospodarki 299 na większe dochody z ulokowanych w funduszach inwestycyjnych środków, jak i na to, że państwo opodatkowując przynajmniej część aktywności związanej z działalnością finansową pozyska dodatkowe środki na wydatki publiczne. Gospodarstwa domowe będą musiały jednak także liczyć się z tym, że będą płacić coraz więcej za niektóre produkty – nie dlatego, że ich ceny będą rosły w wyniku obiektywnych zmian warunków gospodarowania, lecz dlatego że będą one rosły w wyniku spekulacji motywowanej m.in. chęcią zwiększenia wartości papierów wartościowych posiadanych przez gospodarstwa domowe. Gospodarstwa domowe będą także narażone na większą niestabilność swoich dochodów i zmienność wartości posiadanego majątku. Kapitalizm kasynowy na pewno się nie skończy wraz z ostatnim kryzysem, ale może doprowadzić do istotnych zmian na gospodarczej i nie tylko gospodarczej mapie świata. Jedynym podmiotem, który może próbować ograniczyć proces finansyzacji gospodarki i jej skutki, jest państwo, jednak z różnych względów pożądane z tego punktu widzenia działania państwa są trudne do podjęcia i przeprowadzenia, a na dodatek państwo nie jest w tym przypadku wyłącznie bezstronnym arbitrem. W kategoriach naukowych koncepcja finansyzacji gospodarki wymaga dalszych studiów i badań, prowadzących do prób konstrukcji modeli czy teorii, a następnie ich testowania. Jak na razie takich prób jest stosunkowo mało [Boyer 2000; Stockhammer 2004; van Treeck 2009]. Jedno jednak nie ulega wątpliwości. Niezależnie od tego, czy idea finansyzacji stanie się bardziej popularna, czy też wraz ze słabnięciem ostatniego kryzysu zainteresowanie tą koncepcją osłabnie, (co nie znaczy, że w ogóle zaniknie) dobrze by było, aby ekonomiści uwzględniali konsekwencje tego zjawiska i związaną z tym potrzebę integracji rozważań o sferze finansowej i sferze realnej. Wyróżnianie – charakterystyczne od niedawna także dla oficjalnej klasyfikacji dyscyplin naukowych w Polsce – ekonomii i odrębnie finansów ma oczywiście istotne uzasadnienie, ale nie może oznaczać utraty z pola widzenia tego, że nie da się zrozumieć zjawisk zachodzących we współczesnej gospodarce realnej bez odwołań do dyskusji o sferze finansowej, a z kolei finansowy wymiar gospodarowania nie może być traktowany jako cel sam w sobie bez powiązania z fundamentami z zakresu sfery realnej. Tekst wpłynął 10 stycznia 2012 r. Bibliografia Acemoglu D., The Crisis of 2008: Structural Lessons for and from Economics, 2010, http:// econ-www.mit.edu/files/3703. Bałtowski M., Kryzys finansowy – od neoliberalizmu do (neo)socjalizmu? 2008, http://www. pte.pl/pliki/2/21/CZue-15.10-Kryzys-PTE-Baltowski-2.pdf (20.02.2012). Barbaruk M., Hiszpański „kryzys XVII wieku, „Historia – Kultura – Globalizacja” 2010, nr 8. 300 Marek Ratajczak Bhaduri A., Financialization in the Light of Keynesian Theory, „PSL Quarterly Review” 2011, nr 64. Boyer R., Coherence, Diversity, and the Evolution of Capitalisms – The Institutional Complementarity Hypothesis, „Evolutionary and Institutional Economic Review” 2005, nr 2(1). Boyer R., Is a Finance-led Growth Regime a Viable Alternative to Fordism? A Preliminary Analysis, „Economy and Society” 2000, nr 1. Dixon A. D., Sorsa V-P., Institutional Change and the Financialisation of Pensions in Europe, „Competition & Change” 2009, nr 4. Drucker P., Toward the Next Economics and Other Essays, Harvard Business Press, Boston 2010. Engelen E., The Case for Financialization, „Competition & Change” 2008, nr 2. Financialisation and the World Economy, red. G.A. Epstein, Edward Elgar Publishers, Northampton 2006. Foster J.B., The Financialization of Capitalizm, „Monthly Review” 2007, nr 11. Freeman R.B., It’s financialization!, „International Labour Review” 2010, nr 2. Froud J., Haslam C., Johal S., Williams K., Financialisation and the Coupon Pool, „Gestão & Produção” 2001, nr 3. Froud J., Haslam C., Johal S., Williams K., Shareholder Value and Financialisation: Consultancy Promises, Management Moves, „Economy and Society” 2000, nr 1. Gwiazdowski R., Bankokracja, „Przekrój”, 23.10.2008. Hall S., Finacialised Elites and the Changing Nature of Finance Capitalism: Investment Bankers in London’s Finacial District, „Competition & Change” 2009, nr 2. Harvey D., Neoliberalizm. Historia katastrofy, Instytut Wydawniczy Książka i Prasa, Warszawa 2008. Isaacs G., Contemporary Financialization: A Marxian Analysis, „Journal of Political Inquiry” 2011, nr 4. Kamiński J., Wielki błąd papieża ekonomii, „Dziennik-Magazyn”, 31.10–2.11.2008. Kąsek L., Lubiński M., Hyman Minsky – wczoraj i dziś, „Współczesna Ekonomia” 2010, nr 1. Keynes J.M., Ogólna teoria zatrudnienia, procentu i pieniądza, PWN, Warszawa 1985. Khan F., Word Financial Crisis: Lessons from Islamic Economics, http://twocircles.net/2008oct11/ world_financial_crisis_lesson_form_islamic_economics.html (08.01.2011). Knafo S., Liberalisation and the Political Economy of Financial Bubbles, „Competition & Change” 2009, nr 2. Kotz D.M., Neoliberalism and Finacialization, http: //people.umass.edu/dmkotz/ Neolib_and_Fin 08_03.pdf (08.01.2011). Kowalik T., www.Polska Transformacja.pl, Warszawskie Wydawnictwo Literackie MUZA S.A., Warszawa 2009. Mączyńska E., Czy to starość? „Gazeta Bankowa”, 07.04.2009. Mączyńska E., Ekonomia a przełom cywilizacji, „Studia Ekonomiczne” 2009, nr 3–4 (LXII–LXIII). Montgomerie J., Williams K., Financialised Capitalism: After the Crisis and Beyond Neoliberalism, „Competition & Change” 2009, nr 2. Orhangazi Ö., Finacialization and the US Economy, Edward Elgar, Northamptom 2008. Palley T.I., Financialization: What It Is and Why it Matters, Political Economy Research Institute, „Working Paper Series” 2007, nr 153. Finansyzacja gospodarki 301 Palley T.I., The Macroeconomics of Financialization: A Stages of Development Approach, „Ekonomiaz” 2009, nr 72. Polanyi Levitt K., The Great Financialization, www.karipolanyilevitt.com (22.07.2011). Radon J., Thaler J., Fonds Couverains: le Retour du Capitalism d’Etat? „Problèmes Economiques” 2008, nr 2951. Rynek w cuglach (wywiad z E. S. Phelpsem), „Niezbędnik Inteligenta”, dodatek tygodnika „Polityka”, 18.10.2008. Rossman P., Greenfield G., Finacialisation, „Education Ouvrière” 2006, nr 1. Stockhammer E., Finacialisation and the Slowdown of Accumulation, „Cambridge Journal of Economics” 2004, nr 5. Tobin J., On the Efficiency of the Financial System, „Lloyd’s Bank Review” 1984, nr 153. Toporowski J., Moja Polska i moje podejście do ekonomii, http://www.pte.pl/314_ekonomisci_polscy_w_swiecie_pte.html (20.02.2012). van Treeck T., A Synthetic, Stock-flow Consistent Macroeconomic Model of „Financialisation, „Cambridge Journal of Economics” 2009, nr 33. Wigan D., Financialisation and Derivatives: Constructing an Artifice of Indifferance, „Competition & Change” 2009, nr 2. Williams K., From Shareholder Value to Present-day Capitalism, „Economy and Society” 2000, nr 1. Ząbkowicz A., Wzrost znaczenia dochodów z operacji finansowych w korporacjach niefinansowych (financialization) – kontekst instytucjonalny, „Organizacja i Kierowanie” 2009, nr 2. Żyżyński J., Neoliberalizm jako strukturalna przyczyna kryzysu a poszukiwanie dróg naprawy, „Ekonomista” 2009, nr 2. Financialisation of the Economy Summary Although financialisation is a well known idea in the foreign literature, it is still unrecognised in Poland. The aim of the paper is to clarify the concept of financialisation and discuss some relevant fields of interest. The article presents the notion of financialisation in a narrow sense identified with increasing significance of financial actions in non-financial agents’ economic activity, as well as the financialisation in a broad sense. The latter applies to the process of getting autonomy or even dominance of the financial sector over the real sector. Financialisation implies that financial markets and their establishment acquire a growing influence on economic policy and practical results. Alongside with the discussion on the meaning of financialisation, the paper offers considerations about its historical background and contemporary displays. Also, the financialisation in the context of state policy and its effects on the social welfare are analysed. The phenomenon of financialisation needs further research providing testable models or theories. Key words: financialisation 1 crisis 1 real sector 1 financial sector 1 state 302 Marek Ratajczak Финансизация экономики Резюме Финансизация это понятие, которое уже нашло свое место в зарубежной литературе, но все еще является относительным новшеством в Польше. Целью статьи является попытка приближения этого понятия и связанных с ним главных областей дискуссии. Анализу подвергается как финансизация в узком смысле, отождествляемая с растущим значением финансовой деятельности в активности нефинансовых хозяйствующих субъектов, так и финансизация в широком смысле. Во втором случае это означает процесс автономизации и более высокой позиции финансовой сферы по отношению к реальной сфере. В рамках финансизации финансовые рынки, а также финансовые элиты приобретают растущее влияние на экономическую политику и эффекты хозяйствования. Кроме дискуссии на тему интерпретации финансизации, автор статьи затрагивает вопрос исторического измерения этого явления и его проявлений в современных экономиках. Финансизация анализируется в контексте политики государства, а также с точки зрения ее влияния на благополучие общества. Финансизация требует дальнейшего изучения и исследований, ведущих к выработке моделей или теорий и их последующей проверки. Ключевые слова: финансизация 1 кризис 1 реальная сфера 1 финансовая сфера 1 государство Helena Gaspars-Wieloch* Ograniczona skuteczność metod optymalizacyjnych w rozwiązywaniu ekonomicznych problemów decyzyjnych Wstęp Ekonomia to nauka o tym, jak jednostka i społeczeństwo decydują o wykorzystaniu zasobów, zazwyczaj rzadkich, w celu wytworzenia różnych dóbr i rozdzielenia ich na konsumpcję obecną lub przyszłą. Zwolennicy teorii racjonalnych oczekiwań uważają, że podmioty gospodarcze podejmują swoje decyzje na podstawie wszystkich dostępnych informacji o aktualnych uwarunkowaniach ekonomicznych i o potencjalnych skutkach tych decyzji oraz posiadają umiejętność wyciągania wniosków ze zdarzeń w przeszłości, co pozwala im przewidywać możliwe scenariusze wydarzeń w przyszłości. Są jednak ekonomiści, którzy twierdzą, że większość z nas wcale nie postępuje racjonalnie, chociażby z powodu braku dostatecznej inteligencji. Ich zdaniem nasze myślenie jest schematyczne i nielogiczne. W nawiązaniu do tego drugiego poglądu chciałabym ukazać działanie niektórych metod optymalizacyjnych stosowanych w głównej mierze do rozwiązywania ekonomicznych problemów decyzyjnych. Okazuje się bowiem, że – przy odpowiednio dobranych parametrach zadania – teoretycznie właściwe metody mogą doprowadzić nas do zupełnie niedorzecznych rezultatów. Jest to o tyle niepokojące, że skoro spora część społeczeństwa nie postępuje racjonalnie, to mając do dyspozycji wyniki otrzymane za pomocą rzekomo poprawnej procedury, nie podejmie ona wysiłku intelektualnego, aby sprawdzić, na ile uzyskane informacje są wiarygodne. Czym jest metoda optymalizacyjna? To procedura, której zastosowanie umożliwia znalezienie dla danego problemu rozwiązania optymalnego bądź * Dr Helena Gaspars-Wieloch – Katedra Badań Operacyjnych, Uniwersytet Ekonomiczny w Poznaniu; e-mail: [email protected] 304 Helena Gaspars-Wieloch rozwiązania bliskiego optimum. Rozwiązaniem optymalnym jest rozwiązanie dopuszczalne (tj. spełniające wszystkie postawione warunki), które najlepiej realizuje sformułowany cel (tzw. funkcję celu, funkcję kryterium, wskaźnik jakości itd.). Takim celem może być np. minimalizacja kosztów, minimalizacja długości drogi czy też maksymalizacja wydajności. Metody optymalizacyjne są m.in. wykorzystywane jako narzędzie rozwiązywania praktycznych problemów w badaniach operacyjnych, dyscyplinie naukowej związanej z teorią decyzji. Metody te obejmują programowanie liniowe, całkowitoliczbowe, zero-jedynkowe, kwadratowe, nieliniowe, dynamiczne, wielocelowe, sieciowe, zarządzanie projektem, zagadnienie transportowe, podejmowanie decyzji w warunkach ryzyka i niepewności itd. Do metod optymalizacyjnych zaliczamy metody dokładne (czyli te, które zawsze pozwalają otrzymać optymalne rozwiązanie) oraz metody heurystyczne lub przybliżone (czyli te, które nie dają gwarancji uzyskania planu optymalnego, choć w wielu przypadkach mogą prowadzić do znalezienia optimum). Głównym zadaniem metod optymalizacyjnych jest wspomaganie procesu podejmowania decyzji w takich dziedzinach jak statystyka, ekonomia, zarządzanie, informatyka czy medycyna. Jak już wcześniej zasygnalizowano, owo wspomaganie procesu decyzyjnego może zostać zakłócone, gdy wyniki uzyskiwane dla danego problemu za pomocą wybranej, teoretycznie właściwej, metody optymalizacyjnej są sprzeczne z logiką. I o takich właśnie szczególnych przypadkach będzie mowa w dalszej części tego artykułu. W artykule skupimy się na analizie ekonomicznych problemów decyzyjnych. 1. Wybór projektu inwestycyjnego na podstawie reguły Hurwicza Rozważmy na początek problem wyboru projektu inwestycyjnego. W praktyce decyzje tego typu zapadają najczęściej w warunkach niepewności. Mamy bowiem możliwość realizacji jednego biznesplanu spośród kilku potencjalnych, ale wielkość zysków, jakie mogą przynieść poszczególne projekty, zależy od rodzaju scenariusza, który wystąpi w rzeczywistości. Na to, który scenariusz będzie miał miejsce, decydent nie ma wpływu. Stan faktyczny zależy o wielu czynników, do których mogą należeć m.in. mikro- i makroekonomiczne decyzje różnych podmiotów gospodarczych, ceny towarów, wysokość podatków, kursy walutowe, stopa bezrobocia, warunki meteorologiczne oraz zdarzenia losowe. Gdy decydent zamierza wyznaczyć optymalną strategię w warunkach niepewności, może posłużyć się np. regułą Hurwicza (zob. np. Guzik [2009, s. 259–260], Ignasiak [1996, s. 223–224], Kaufmann, Faure [1968, s. 252–253], Kukuła [1996, Ograniczona skuteczność metod optymalizacyjnych w rozwiązywaniu… 305 s.136], Stodulny [2008, s. 259–260], Trzaskalik [2008, s. 271–274]). Reguła ta, w ogólnym przypadku, ma na celu ustalenie optymalnej strategii czystej 1 przy założeniu, że: 11 decyzja podejmowana jest w warunkach niepewności (są znane możliwe stany natury, lecz nie można ustalić rozkładu prawdopodobieństwa wystąpienia poszczególnych scenariuszy), 11 wybrana decyzja będzie realizowana jednokrotnie, 11 decydent potrafi podać poziom swojego pesymizmu a (lub optymizmu (1 – a)), który jest wyrażony jako liczba z przedziału [0, 1]2. Optymalną strategią czystą jest ten wariant, który spełnia warunki (1) i (2). h j = a $ min {aij} + (1 - a) $ max {aij}, j = 1, ..., n, (1) i h j = a $ min {i aij} + (1 - a) $ max {aij}, j = 1, ..., n, i i h j * = max {h j}, j (2) h j * = max {h j}, h j = a $ max {aij} + (1 - aj ) $ min {aij}, j = 1, ..., n, i gdzie: h j = a $ max {i aij} + (1 - a) $ min {aij}, j = 1, ..., n, i i h h { } . = min hj –wskaźnik Hurwicza wariantu decyzyjnego, j* j dlaj j-tego h j * = min {h j} . aij –wypłata, h gdy wystąpi i-ty stan naturyj (scenariusz), a decydent podejmie j-tą P1 = 0, 7 $ 10 + 0, 3 $ 100 = 37, = 0, 7 $ 10 + 0, 3 $ 100 = 37, decyzję, h = 0, 7 $ 10 + 0,h3P1$ 95 = 35, 5, P2 n –liczba możliwych strategii h(wariantów decyzyjnych). + 0, 3 $ 95 = 35, 5, P2 = 0, 7 $ 10 h P3 = 0, 7 $ 20 + 0, 3 $ 50 = 29. 0, 7 $ 20 + 0, 3 $ 50minimalnej h Pn3 = ważoną = 29. Wskaźnik Hurwicza średnią i maksymalnej m stanowi zatem m n M = /danej wi fi (x)decyzji. - / w j f j (x) " max wypłaty towarzyszącej / wibądź / kryterium M fi (x) w j f j (x) " max 1 1koszty j== Oczywiście, jeżelii =wypłatami są inne minimalizowane, j=1 m n i=1 to reguła postępowania nieco w tej sytuacji: m inaczej. Można n M = / wprzebiega i gi (x) + / w j g j (x) " max 11 albo w macierzy iwypłat dodać zastoso/ wi gi (x)znak M w j g j (x)a następnie " max = + /minus, 1 wyników j =do =1 1min 1i =a j}, = 1 1 h j =i (2), a a j n $ { } ( ) { , ..., , a $ min + max = wać wzory (1) ij ij 1 h a a j $ $ { } ( ) { }, = a + a = 1, ..., n, max fik (x) i j ij i ij i fki (i wykorzystać x) k (x) = imacierzy 11 albo przyjąćhgpierwotną postać wzory (3) i (4): {hk j}, hg k (x=) = M j * = max max {h j}, j* j j Mk m i k 1 hgj = a j =a)1,$ ..., n,{a }, j = 1,(3) { } ( )m + $ max $ min a a ij ij},(1 h {i aij{}a+ ..., n, = $ max min a ij k (x) = i ij i fk (x) g k (x) = i k h j * = min {h j} . h = min fk ({xh) j} . j f (x) - m j * (4) j ii k k g x ( ) = f37 (,x)+-0m 10 + 0 3 h Pk1 = 0, 7 $ M , = ii$ 100 k10 k $ 100 = 37, 0 7 3 h , , = $ = k - mgkP Powróćmy do zasygnalizowanego wyboru projektu ink1(x) wcześniej M5k, - mproblemu 0 7 10 0 3 95 h , , = + = $ $ 2 P 0 h , 735$ ,10 ,k3 $ 95 = 35 , 5, osiągnąć po re= + 0inwestor M f x ( ) westycyjnego. W tabeli 1 kpokazano jakie może ii k P2 zyski, g k (x) = M.k - fk (x) ii$ 50 = 29 0 7 20 0 3 h , , = + $ alizacji poszczególnych biznesplanów (P1, P2,+P3). widać, Mk - mhgkPk3(= P3 x) 0= 0, 3 $Jak 50 = 29. wielkości te zale, 7 $ 20 mk n - wystąpi m n S2,mS3,M k żą od tego, który scenariusz (S1, S4) w rzeczywistości. Zyski x1 + 5 x2 " max, (01) / M = / wprojektem w f j (xw)1 " max 01= max ) j/ 5 x " , + i fi (x) - ( / M f x w f x ( ) ( 2 związane z pierwszym charakteryzują się największą i i j j ) " maxrozpiętością, (02) i 5= 1 x1 + xj = 2 1" i max j=1 =1 , projekt P2 w trzech mprzypadkach wysokie zyski, z kolei x1 +dajex2bardzo (02 ) 5cztery " max , n na n 2 w x1 g + )niezależnie 5+ x/ Gw gm20 , ) " max 2scenariusza, plan P3 przynosi, od dość zbliżone i stosunkowo niskie / M(1= x x ( ) ( i i M (1)= 2j/j xw1i g+ i (x)5+x2/Gw j g20 j (,x) " max dochody. (2) i 5= 1 x1 + 2 xj2= 1G i =40 1 , j=1 (2) 5 x1 + 2 x2 G 40, f (x) i g(k3()x) = x1k, xg2i (Hx) =0.fk (x) Mk x ,mieszanej, (k3) x H 0na . tym, aby w pełni zreali1 Strategia czysta, w odróżnieniu M = 4 $ (x1 + 5x2)od 1 $ (5x11M + strategii + kx2) = 92 xpolega 1 + 21x2 " max m M x x x 4 5 1 5 = ( + ) + ( $ $ i zować jeden wariant decyzyjny.k m 1 k 2 1 + x2) = 9x1 + 21x2 " max i 5 g2k (x) c= 1 2 Zerowa wartość g x ( ) = k współczynnika pesymizmu (ostrożności) oznacza całkowitą skłonność do 1 1 fk (x) c fk (5x) 2 c2 oznacza 2 całkowitą 1 1awersję 1 ryzyka, natomiast 5jedynka do ryzyka. f (x) - m5 c 2 ii g kiii(x) = kfk (x) gkii (x) 2= fk (x) - mk g k (x) = Mk *- mk kiii fM (x) g k (x) = k k*- mk M k M - f (x) ii f (x) kk k g k (x) = k * k g ii (x) = MM Mmk k- mk k iii * M g k (x) = mkk- mk iii 306 Helena Gaspars-Wieloch Ta b e l a 1 Zyski (w tys. zł) Projekty inwestycyjne P1 P2 P3 S1 100 10 40 S2 20 95 50 S3 15 95 20 10 95 35 Scenariusze S4 h j = a $ min {aij} + (1 - a) $ max {aij}, j = 1, ..., n, i Źródło: Opracowanie własne. i h j * = max {h j}, Jeżeli decydent przyjmie, że jjego poziom pesymizmu wynosi a = 0,7, a po1 - a) $ min 1, ..., n, dla {aij} + (wynika, {aij}, j =Hurwicza = 0,3, a $ max ziom optymizmu (1 – a)h j= to iżi wskaźniki i z tabeli analizowanych projektówhwyniosą { h j} . j * = minodpowiednio: j h P1 = 0, 7 $ 10 + 0, 3 $ 100 = 37, h P2 = 0, 7 $ 10 + 0, 3 $ 95 = 35, 5, h P3 = 0, 7 $ 20 + 0, 3 $ 50 = 29. m n Zgodnie ze wzorem (2) wybrać pierwszy plan (P1). Czy jest M inwestor (x) - / w = / wi fipowinien j f j (x) " max 1 i =Wskaźniki j Hurwicza =1 to jednak rozsądne podejście? dla pozostałych dwóch wam n nietrudno zauważyć, że projekt P2 riantów decyzyjnych są wprawdzie niższe, ale / / M w g x w j g S4) " max ( ) = + i i j (x) najwyższe daje w przypadku aż trzech scenariuszy (S2, S3, wypłaty. Z kolei i=1 j=1 podjęcie decyzji P1 tylko w jednejf sytuacji (S1) stwarza możliwość uzyskania naj(x) i g k (xpozostałe ) = k trzy stany są w przypadku tej strategii barlepszego wyniku, natomiast Mk dzo niekorzystne. O ile rezygnacja z wariantu P3 wydaje się logiczna, gdyż w najmk i lepszym razie decydent może liczyć na wypłatę równą 50 tys. zł, o tyle potraktog k (x) = fk (x) strategia P1 można już zakwestionować. wanie projektu P2 jako gorszego aniżeli f (x) - mk (a więc raczej niska) skłonność inii W analizowanym przypadku g k (x)30-procentowa = k Mnie mk westora do ryzyka oznacza, że jeżeli stan pierwszy, a decydent wybiek - wystąpi rze projekt P1, to jego zyski będą niższe aniżeli najniższe dochody związane z poM f x ( ) ii k k g k (x)to=znaczna zostałymi decyzjami. Byłaby strata, biorąc pod uwagę dość ostrożne Mk - mk podejście inwestora. x1 + 5 x2 " max, (01) Zazwyczaj wskaźnik Hurwicza daje sensowne wyniki, ale w tym szczególnym max, z logiką. Omówioną me(02) 5 x1wydaje xsię + 2 " przypadku otrzymana odpowiedź sprzeczna 2 x1 + a uzyskane (1)z rozwagą, 5 x2 G 20wyniki , todę należy więc stosować warto poddać analizie i ewentualnie zdecydować się na inną strategię niż ta, którą wskazuje nam (2) 5 x1 + 2 x2 G 40, w pierwszej kolejności reguła Hurwicza. Można też zastanowić się, czy nie byłoby xuwzględniającą ) x2 H 0nie . tylko najwyższy i najniższy 1, rozsądniej skonstruować(3miarę M x x x max 4 5 1 5 = + + $ $ ( ) ( ) = 9x1 + 21x2 " 1 1 + x2występowania wynik związany z daną decyzją, lecz też2 częstotliwość względnie 2 c 5 najkorzystniejszych i najmniej wypłat. Może stosowanie takiej nieco 1 1korzystnych 1 5 c2 2 w każdym analizowanym przypadku do barzmodyfikowanej miary prowadziłoby dziej sensownych odpowiedzi. f (x) iii g k (x) = k * Mk iii g k (x) = * mk Ograniczona skuteczność metod optymalizacyjnych w rozwiązywaniu… 307 2. Ustalenie asortymentu produkcji na podstawie metakryterium dla ciągłej wersji optymalizacji wielocelowej Kolejny problem ekonomiczny, przy którym warto na chwilę się zatrzymać, będzie dotyczyć wyznaczenia optymalnego asortymentu produkcji w sytuacji, gdy decydent zainteresowany jest realizacją dwóch różnych kryteriów jednocześnie. Wówczas nie mamy do czynienia z zagadnieniem jednokryterialnym (por. poprzedni podrozdział), lecz z problemem wielocelowym. Istotne dla decydenta kryteria są zazwyczaj sprzeczne, optymalne zatem rozwiązania dla poszczególnych celów (tzw. optima cząstkowe) wiążą się najczęściej z koniecznością realizacji odmiennych planów. Dlatego w przypadku optymalizacji wielokryterialnej nie poszukuje się decyzji optymalnej, lecz rozwiązania efektywnego, kompromisowego. Wśród wielocelowego h = metod a } + (1 - a) $ max {aij}, j = 1,opisywanych ..., n, a $ min {programowania h jj = n, {aprocedura a $ min + (1 -ważonej, a) $ max i {aijij} sumy i tj. ij}, j = 1, ..., w literaturze znana jest m.in. metoda wykorzystui i h = max {h }, jąca metakryterium (M) ważoną h jj**jako = max j {h jj}, sumę kryteriów cząstkowych lub jako waj żoną sumę stopni realizacji Jeżeli są h = akryteriów j = 1,wyrażone {a },kryteria ..., n, + (1 - a) $ min $ max {aij}cząstkowych. h jj = a $ max i {aijij}, j = 1, ..., n, i {aij} + (1 - a) $ min i w tej samej jednostce i skali, toi metakryterium można zapisać zgodnie ze wzoh = min {h j} . h jj**razie {h j} . się stosowanie formuły (6), w której po= min jzaleca rem (5). W przeciwnym j 0 7 10 + 0, 3 $ 100 =realizacji 37, h Psą , = $ szczególne funkcje celu zastąpione kolejnych celów (zob. h P11 = 0, 7 $ 10 + 0stopniami , 3 $ 100 = 37, Brzęczek [2010, s. 32–35], 110–111], Trzaskalik 0, 7 $ 10 + 0, 3 $ [2008, 95 = 35s. 91–92, h =Marcinkowski , 5, h P2 = 0, 7 $ 10 + 0, 3 $ 95 = 35, 5, [2008, s. 210–211]). hP2 = 0, 7 $ 20 + 0, 3 $ 50 = 29. h PP33 = 0, 7 $ 20 + 0, 3 $ 50 = 29. m m n n i=1 m m j=1 n M = / wi fi (x) - / w j f j (x) " max , M= / w f (x) - / w f (x) " max i=1 i i j=1 j j (5) n {gaaij(}}x)+ {a }, j = 1, ..., n, a min a $$ / -a a)) $$ max min max "((11max M = / wi h ghijj(= x=) + i w{ i {aijij}, j = 1, ..., n, jg j(ijx)+ , (6) i i / " M= / w g x w max ( ) + j j i = 1 i hi j = 1 {h max j* = 1 {h j}, i=1 j= h }, = max j j f (xj)* j i gik (x) = fkk(hx)j = a $ max {aij} + (1 - a) $ min {aij}, j = 1, ..., n, g x ( ) = h aij} + (1 - a) $ min { = $ max a M i {aij}, j = 1, ..., n, i k gdzie: i i Mkkj hhk j * = {{hhj}} .. min m (n) – liczba kryteriów maksymalizowanych (minimalizowanych), m i = min j j * gi (x) = mk j kryterium wi (wj) – waga i-tego (minimalizog kk(x) (j-tego) = fk (hxP)1 = 0, 7j $ 10 maksymalizowanego + 0 7 10 100 = 37,, h , = + 00,, 33 $$ 100 = 37 $ fk (x)P1 wanego), f (x)2 m ii 00,,k77 $$ 10 = )210 + 95 = 35,, 55,, =m + 00,, 33 $$ 95 = 35 = fkk(hhxPP(j-tego) k kryterium, fi(x) (fj(x)) – funkcjaggiicelu i-tego k ((xx)) = M m k k = 00,, 33 $$ 50 ,, 77 $$ 20 .. m0kk(j-tego) gi(x) (gj(x)) – stopień realizacjiMhhi-tego maksymalizowanego 20 + 50 = 29 +kryterium = 29 kP33=0 Mk Pfk (mx) n ii n x) (minimalizowanego). gii (x) = Mk - fk (m / / g kk (x) = M M w w = m i ffi ((xx)) / / " max M w wjj ffjj ((xx)) " max = k k i i Mk - m i= j = 1 przy k 1 decydenta, Wagi określają znaczenie kryteriów dla czym ich suma nieko1 " max, j = 1 x1 + 5 i = (01) x 2 01Stopnie x1 realizacji ) maxmożna + 5 xm , nn obliczyć zgodnie ze wzom2 " niecznie musi wynosić(1. celów ((xx)) + x M (02) 5 zawsze x w"g max += / , /w / " max wj ggj ((xx)) " max + rami (7)–(10). Przyjmują z przedziału 5 x11 M (02)one x221 w"ii giimax + =wartości , j/ i= = 1 j j [0,1]. i=1 j=1 (1) 2 x + 5 x2 fG(x)20, (1) 2 x11 g+ii (x5) = x2 fGk (x)20 ,, (7) k (x) = k (2) 5 x1 g+ 40 , k 2 x2 G M (2) 5 x1 + 2 x2 GMkk 40, m 0. x, i (3) x H x11, gg ki ((xx)) = (3) x=22 Hmkk 0,. k f M = 4 $ (x + 5x ) + 1($x()5x + x ) = 9x + 21x " max (8) M = 4 $ (x11 + 5x22) + 1fkk $((x5) x11 + x22) = 9x11 + 21x22 " max ffk ((xx)) c 2 5 ii mkk -m k 2 1 c11 1 5ggii k ((xx)) = = M m 5 1 c2 1 2 k k Mk - mkk 5 c2 2 M - f (x) f (iix) iii f kg(xii)(x) = Mkk - fkk (x) giii k (x) = kg k (x) = M= 308 / / w g (x) + w g (x) i=1 i i j=1 j j i=1 j=1 ffk ((xx)) i k gg ki ((xx)) = = k M Mkk Helena Gaspars-Wieloch m i mk gg ki ((xx)) = = f (xk) k fkk (x) ffk ((xx)) ii mk -m gg kii ((xx)) = = kM - m k , k Mkk - mkk M ii Mk - ffk ((xx)) gg kii ((xx)) = = Mk - km , k Mkk - mkk x ((01 ) 01) x11 + + 55 xx22 " " max max,, " max (9) (10) gdzie: 55 xx1 + max ((02 xx2 " ,, 02II)) rodzaju) max gk(x) – stopień realizacji (I lub celu (stopień realizacji k-tego 1 + k-tego 2 " 5 20 ((11x), )) 22 xx1 + x G , kryterium przez obiekt 2 1 + 5 x2 G 20, fk(x) – funkcja celu k-tego kryterium k-tego40kryterium dla obiektu x), ((22)) 55 xx(wartość 1 + + 22 xx22 G G 40,, Mk – maksymalna wartość k-tego 1kryterium w danym zbiorze rozwiązań xx1,, 00.. ((33)) xx2 H 1 2 H (obiektów), 44 $$ ((xx1 + 5x2)) + 1 $ (5x1 + x2) = 21 M 21xx22 " = kryterium = 99xx11 + +rozwiązań max M= " max mk – minimalna wartość k-tego 1 + 5xw analizowanym 2 + 1 $ (5x1 + x2) zbiorze 2 5 c (obiektów). 2 1 c11 1 5 55 1 cc2 1 22 2dotyczą odpowiednio kryteriów maksymaliFormuły (7) i (9) oraz (8) i (10) ffk ((xx)) iii iii k zowanych i minimalizowanych. że wzorów (7) i (8) (tj. stopni gg kWarto (x) = zauważyć, * k (x) = * M realizacji I rodzaju) nie można stosować,Mgdy k kryteria w rozpatrywanym zbiorze k * zerowe lub ujemne. Wyrażenia (9) rozwiązań (obiektów) przyjmują wartości * m iii k k gg kiiirodzaju) (x) = mnie i (10) (czyli stopnie realizacji II k (x) = fk ( xx)) mają takich ograniczeń (por. Marf ( k cinowski [2008, s. 92–94]). * f iV k fk ((xx)) m k*kzastanawia się nad wielkością -m Rozpatrzmy następującą sytuację. Producent gg kiV ((xx)) = = * k * produkcji artykułów spożywczych, które M powinien m *k* wytwarzać. Dla uproszczenia kM k - mk * przyjmijmy, że produkuje on dwa rodzaje artykułów: M ffk ((xx)) A1 i A2, których ilość oznaiV M k*k k ((xx)) = czymy jako x1 i x2. Do produkcjigg kiV zużywa dwa limitowane surowce (S1 i S2), a waż= * * k * - m* M k k nymi kryteriami są dla niego: 1) maksymalizacja M k - m k zysku (w tys. zł), rozumianego jako różnica między przychodem ze sprzedaży 11 TT a kosztem produkcji, oraz 2) mak/ E )) = /1rrjtjt wielkość zależy od rodzaju i ilości E ((R R jjzł), = których symalizacja dopłat unijnych (w tys. T T tt = 1 wyprodukowanego artykułu spożywczego.=Znając odpowiednie wyjściowe parametry zadania decyzyjnego, możemy go zapisać w postaci następującego problemu dwukryterialnego: (01) x1 + 5x2 " max, (02) 5x1 + x2 " max, (1) 2x1 + 5x2 G 20, (2) 5x1 + 2x2 G 40, (3) x1, x2 H 0. Wyrażenia (01) i (02) opisują funkcje celu decydenta (maksymalizacja zysku i maksymalizacja dopłat). Dzięki nierównościom (1) i (2) rzeczywiste zużycie posiadanych zasobów na wytworzenie artykułów A1 i A2 nie przekroczy dostępnych ilości S1 i S2, natomiast ograniczenie (3) zapewnia uzyskanie nieujemnych wielkości produkcji. i g k (x) = k Mk mk i g k (x) = fk (x) 309 Ograniczona skuteczność metod optymalizacyjnych w rozwiązywaniu… fk (x) - mk ii g k (x) = k - mrozwiązanie k Decydent zamierza M ustalić kompromisowe na podstawie metaMkłatwiej - fk (x)jest przewidzieć poziom cen sprzedaży i kosztów kryterium. Producentowi ii g k (x) = produkcji aniżeli to, czyM jego o dopłaty zostanie pozytywnie rozpatrzony. mk k - wniosek W związku z powyższym że ,pierwszy cel (01) jest dla niego cztery x1 +przyjmijmy, 5 x2 " max (01) razy ważniejszy od celu (02). Zauważmy, że oba cele wyrażone są w tych samych (02) 5 x1 + x2 " max, jednostkach. Na podstawie współczynników stojących przy zmiennych w funk+ 55oraz ) 1,2 cx1 = x2 Gc 20 , 5 i c = 1) możemy też stwierdzić, że cjach celu (c11(1= = 12 21 22 skala obu kryteriów metakryterium na podstawie x1 taka 40, (2) 5 jest + 2 sama. x2 G Sformułowanie wzoru (5) jest (zatem teoretycznie zupełnie poprawne: 3) x, x H 0. 1 2 M = 4 $ (x1 + 5x2) + 1 $ (5x1 + x2) = 9x1 + 21x2 " max . 2 5 c Ry s u n e k 1 1 11 5 2 c2 Optymalne rozwiązania dla obu kryteriów oraz plan kompromisowy f (x) iii g k (x) = k x * M2k * m 20 k g iii x = ( ) k fk (x) g iV k (x) = g iV k (x) = E ( R j) = fk (x) - m *k M *k - m *k(2) M *k - fk (x) 10 * - m * M k k FC2 1 T /r T t = 1 jt M A 2 D B 2 C FC1 (1) 10 x1 Źródło: Opracowanie własne Optymalne rozwiązania cząstkowe (punkty A i C) oraz ostateczny plan kompromisowy (punkt B) wskazano na rysunku 1 i opisano w tabeli 2. Przypomnijmy, że pierwsze kryterium (tj. maksymalizacja zysku) ma dla decydenta cztery razy większe znaczenie aniżeli drugie kryterium (tj. maksymalizacja dopłat). Tymczasem w planie końcowym wartość funkcji (01) spadła, w stosunku do swojej maksymalnej możliwej wartości w zbiorze rozwiązań dopuszczalnych, o ponad 7 tys. zł (z 20 tys. zł do 12,38 tys. zł), tj. o ponad 35%, podczas gdy wartość funkcji (02) spadła o niecałe tysiąc zł (z 40 tys. zł do 39,05 tys. zł), tj. o niecałe 2,5%. Preferencje producenta nie znalazły zatem żadnego odzwierciedlenia w ostatecznym planie produkcji. Skoro pierwszy cel był tak istotny, to oczekiwalibyśmy od zasto- h P3 = 0, 7 $ 20 + 0, 3 $ 50 = 29. M= 310 m n i=1 j=1 / wi fi (x) - / w j f j (x) " max Helena Gaspars-Wieloch m n M = / wi gi (x) + / w j g j (x) " max 1 i = 1 znaczniej =bliżej sowanej metody wskazania planu leżącego punktu A, tj. punktu f x ( ) i k kryterium. stanowiącego optimum cząstkowegdla tegoż k (x) = Mk Ta b e l a 2 mk i g k (x) = i rozwiązanie Optymalne rozwiązania cząstkowe kompromisowe fk (x) fk (x) - mk ii Kryterium (01) – punkt – punkt C Metakryterium – punkt B g k (xA) =(02) Mk - mk Optymalne wartości x1 = 0; x1 = 8; x1 = 160/21 = 7,62; zmiennych x2 = g4ii (x) = Mkx2-=fk0(x) x2 = 20/21 = 0,95 k M m k k Wartość funkcji (01) 20 (max) 8 12,38 x1 + 5 x2 " max, (01) Wartość funkcji (02) 4 Źródło: Opracowanie własne. 40 (max) (02) 5 x1 + x2 " max, 39,05 (1) 2 x1 + 5 x2 G 20, To nie koniec zaskakujących odpowiedzi. Otóż uważny Czytelnik sam zorien40, ) 5 x1 + G której tuje się, że każda kombinacja wag(2kryteriów w1 2i wx22, dla stosunek współ3 x 0 ( ) , x H . czynników c1 i c2 stojących przy zmiennych1 x1 i x2 w funkcji metakryterium speł2 nia poniższy warunek: M = 4 $ (x1 + 5x2) + 1 $ (5x1 + x2) = 9x1 + 21x2 " max 2 5 c 1 11 , 5 2 c2 f (x) iii wskaże rozwiązanie kompromisowe g k w punkcie (x) = k *B (tab. 3), a więc zarówno kombiM k iż punkt ten jest jedynym wierznacja wag 4 : 1, jak i … 1 : 4. Wynika to z tego, chołkiem, stanowiącym rozwiązanieiiiPareto-optymalne, który znajduje się pomięm *k g x = ( ) k cząstkowe (A i C). Wystarczy zatem, aby dzy punktami wskazującymi optima fk (x) izokwanta związana z funkcją metakryterium była bardziej stroma niż warunek fk (x) - m *k plan produkcji będzie za(1) i mniej stroma niż warunek (2), a kompromisowy g iV x = ( ) k wsze wyznaczony przez plan B. M *k - m *k Analizując powyższy przykład, należy stwierdzić, M *k - fk (x) że stosowanie metakryteiV x = ( ) rium z formułą (5) w zagadnieniu gustalania optymalnego asortymentu produkcji k * * M m k k nawet wtedy, gdy kryteria są wyrażone w tej samej skali i jednostce, nie jest do 1 T końca prawidłowym podejściem. E (R j) = / r jt T Ta b e l a 3t = 1 Współczynniki funkcji metakryterium i nachylenie jego izokwanty przy różnych wagach kryteriów cząstkowych Kryterium (01) Kryterium (02) Metakryterium Warunek (1) Metakryterium Warunek (2) w1 c11 c12 w2 c21 c22 c1 c2 a11/a12 c1/c2 a21/a22 10 1 5 1 5 1 15 51 2/5 = 0,4 0,294 5/2 = 2,5 9 1 5 1 5 1 14 46 2/5 = 0,4 0,304 5/2 = 2,5 8 1 5 1 5 1 13 41 2/5 = 0,4 0,317 5/2 = 2,5 7 1 5 1 5 1 12 36 2/5 = 0,4 0,333 5/2 = 2,5 Ograniczona skuteczność metod optymalizacyjnych w rozwiązywaniu… 311 6 1 5 1 5 1 11 31 2/5 = 0,4 0,355 5/2 = 2,5 5 1 5 1 5 1 10 26 2/5 = 0,4 0,385 5/2 = 2,5 4 1 5 1 5 1 9 21 2/5 = 0,4 0,429 5/2 = 2,5 3 1 5 1 5 1 8 16 2/5 = 0,4 0,500 5/2 = 2,5 2 1 5 1 5 1 7 11 2/5 = 0,4 0,636 5/2 = 2,5 1 1 5 1 5 1 6 6 2/5 = 0,4 1,000 5/2 = 2,5 1 1 5 2 5 1 11 7 2/5 = 0,4 1,571 5/2 = 2,5 1 1 5 3 5 1 16 8 2/5 = 0,4 2,000 5/2 = 2,5 1 1 5 4 5 1 21 9 2/5 = 0,4 2,333 5/2 = 2,5 1 1 5 5 5 1 26 10 2/5 = 0,4 2,600 5/2 = 2,5 1 1 5 6 5 1 31 11 2/5 = 0,4 2,818 5/2 = 2,5 1 1 5 7 5 1 36 12 2/5 = 0,4 3,000 5/2 = 2,5 1 1 5 8 5 1 41 13 2/5 = 0,4 3,154 5/2 = 2,5 1 1 5 9 5 1 46 14 2/5 = 0,4 3,286 5/2 = 2,5 1 1 5 10 5 1 51 15 2/5 = 0,4 3,400 5/2 = 2,5 Źródło: Opracowanie własne. Bardziej racjonalne rozwiązania pozwala nam otrzymać formuła oparta na stopniach realizacji (patrz wzór (6)). Jeżeli obliczymy je zgodnie ze wzorem (7) lub (9)3, to punkt B będzie rozwiązaniem kompromisowym dla stosunku wag kryteriów cząstkowych w1/w2 z przedziału [2/1, 1/9]4, co jest już bardziej logiczne, choć nadal niezadowalające. Warto jednak podkreślić, że to drugie podejście również nie jest pozbawione wad. Otóż może się przecież zdarzyć, że wyrażeń (7) i (8) nie będzie można zastosować ze względu na ujemne lub zerowe wartości Mk i mk, a zbiór rozwiązań dopuszczalnych będzie otwarty w kierunku minimalizacji lub maksymalizacji danego kryterium cząstkowego i wówczas niektórych parametrów Mk i mk we wzorach (9) i (10) też nie będziemy potrafili wyznaczyć. Przedstawiony przykład liczbowy miał nam uświadomić, że stosowanie metakryterium do ustalania rozwiązania kompromisowego może prowadzić do nielogicznych odpowiedzi nawet wówczas, gdy wszystkie założenia dotyczące korzystania z tejże metody są spełnione. Jeżeli dodatkowo uwzględnimy inne ograniczenia procedury (o których również była mowa), to powinniśmy zastanowić się, czy wykorzystywanie metakryterium jako narzędzia generowania rozwiązań kompromisowych w ciągłych, wielocelowych problemach optymalizacyjnych ma w ogóle sens. Powyżej pokazano, jak metakryterium jest stosowane w przypadku zagadnienia optymalnego asortymentu produkcji, lecz można równie dobrze odwołać 3 W tym akurat przykładzie wzory (7) i (9) będą miały dokładnie tę samą postać. założono, iż rozpatrywane są tylko wagi całkowite. 4 W rozważaniach 312 Helena Gaspars-Wieloch się do innego ekonomicznego problemu decyzyjnego (np. do ustalania struktury upraw, składu portfela papierów wartościowych czy też struktury wydatków publicznych). Na koniec warto podkreślić, że w literaturze zagranicznej metakryterium jest przedstawiane raczej jedynie jako metoda generowania zbioru rozwiązań Pareto, a nie jako narzędzie ustalania decyzji kompromisowej [Collette, Siarry 2008; Cotrutz, Lahanas, Kappas, Baltas, 2001, s. 4; Messac, Puemi-Sukam, Melachrinoudis 2000; Messac, Mattson, 2003; Sharaff, El-Gammal, 2009] i takie podejście wydaje się bardziej rozsądne. 3. Standaryzacja kryteriów do tworzenia rankingów obiektów według stopnia realizacji określonych celów Obok ciągłej wersji optymalizacji wielocelowej (o której była mowa w poprzedniej części artykułu) często jest wykorzystywana w praktyce dyskretna wersja tego zagadnienia, która umożliwia tworzenie rankingów obiektów na podstawie ustalonej listy kryteriów. Rankingi te mogą dotyczyć funduszy emerytalnych, banków, funduszy inwestycyjnych, kredytów hipoteczno-mieszkaniowych, szkół wyższych, najbardziej innowacyjnych przedsiębiorstw, najbardziej dynamicznych gospodarek świata, województw o największej aktywności zawodowej itd. Takie zestawienia są o tyle istotne, iż stanowią podstawę do podejmowania wielu decyzji, w tym decyzji ekonomicznych, zarówno w skali mikro, jak i makro. Sporządzenie rankingu np. za pomocą metakryterium, wymaga uprzedniej standaryzacji kryteriów, tak aby były one porównywalne. Do standaryzacji celów używa się m.in. wspomnianych już wcześniej stopni realizacji I i II rodzaju (wzory 7–10). Mając obliczone stopnie realizacji celów, można ustalić dla każdego badanego obiektu pewną ocenę syntetyczną, korzystając np. z formuły (6), a następnie uszeregować obiekty według uzyskanych wartości metakryterium (por. Brzęczek [2010, s. 42–44]). Przyjrzyjmy się następującemu problemowi. Redakcja pewnego tygodnika przeprowadza ranking banków. Dla uproszczenia przyjmiemy, że ranking ustalany jest na podstawie trzech kryteriów: 1) liczba placówek w kraju, 2) średnia ocena jakości obsługi dokonana przez klientów (w skali 1 – 6) oraz 3) miesięczne oprocentowanie kredytów (w %). Zakłada się, że wagi dla poszczególnych kryteriów wynoszą odpowiednio 0,25; 0,4; 0,35. Pierwsze dwa kryteria są maksymalizowane, natomiast ostatnie kryterium stanowi minimantę. Dane dotyczące 10 banków pokazano w tabeli 4. Jak widać, rozpatrywane kryteria nie są porównywalne (wyrażono je w różnej skali i jednostkach), a więc aby wyznaczyć ocenę syntetyczną dla każdego banku, Ograniczona skuteczność metod optymalizacyjnych w rozwiązywaniu… 313 należy najpierw ujednolić kryteria poprzez przekształcenie wyników na stopnie realizacji celów. Ta b e l a 4 Dane dotyczące banków Banki A B C D E F G H I J Liczba placówek 50 60 70 80 65 85 75 25 45 40 Ocena jakości obsługi 4 2 4 3 3 3 2 4 2 4 1,2 0,9 1,5 1,3 0,8 2,0 0,6 1,1 1,6 0,5 Oprocentowanie Źródło: Opracowanie własne. Celem niniejszego punktu nie jest pokazanie całego procesu przygotowywania rankingu, a jedynie skupienie się na metodologii obliczania stopni realizacji celu dla wybranego kryterium. Dlatego w dalszej części skoncentrujemy się na standaryzacji ocen dokonanych przez klientów. Oceny stanowią kryterium maksymalizowane i są wyrażone jako liczba dodatnia (od 1 do 6), zatem licząc stopień realizacji celu można zastosować zarówno formułę (7), jak i (9) – patrz wiersz 3 i 4 w tabeli 5. Ta b e l a 5 Obliczone stopnie realizacji celu dla ocen jakości obsługi Banki A B C D E F G H I J Ocena 4 2 4 3 3 3 2 4 2 4 Wartość stopnia realizacji (7) 1 0,5 1 0,75 0,75 0,75 0,5 1 0,5 1 Wartość stopnia realizacji (9) 1 0 1 0,5 0,5 0,5 0 1 0 1 Wartość stopnia realizacji (11) 0,67 0,33 0,67 0,5 0,5 0,5 0,33 0,67 0,33 0,67 Wartość stopnia realizacji (13) 0,6 0,2 0,6 0,4 0,4 0,4 0,2 0,6 0,2 0,6 Źródło: Opracowanie własne. Wśród otrzymanych rezultatów niektóre mogą wydawać się nam nieco zawyżone lub zaniżone: 11 zgodnie z formułą (7) bank, który uzyskał ocenę 3, realizuje kryterium w 75% (wynik zawyżony), 11 zgodnie ze wzorami (7) i (9) bank, który uzyskał ocenę 4, realizuje kryterium w 100% (wynik zawyżony), fkk (xfk) (x) - m ii x)m -kmkk ii (x) = ffk ((xxfkk))(ii g mm x) = gg kii ((gxxkk))(= k M-k k k = MM -km k km k kMM m k - fk (x) ii k k M f x ( ) ii M f x ( ) k k )) = ii g (x 314 Helena Mkk fkk(xm ) xGaspars-Wieloch = gg kii ((gxxkk))(= M k k = M m k Mk -km m5kk xk " max, ((01 )) Mxx1k -+ 01 + " max xx1 + 5 x52 x"22 ocenę max )) który , 2,, realizuje kryterium 1 uzyskał 11 zgodnie z wyrażeniem (9)((01 bank, 01 1 + 5 x2 " max, 02 5 x + " ( ) x max ,, 1 2 " max w 0% (wynik zaniżony). (02()025) 5x1 x+ 1 + x2 x" max,, (02) 5 x1 + x2 "2 max 1iż) doskonale 2 x1 + 20istnieje + 5wiemy, x2 G G że , Nasze odczucia biorą się stąd,((1 jeszcze niższa ((11)) 22) 2xx1 x+ ,,20, 1 5 x52 xG 5 4.x2Może 20 G2 20 ocena niż 2 i istnieją jeszcze wyższe oceny niż więc logiczniej byłoby przy 1 + 2 xx2 G 40 (2) 5 x1 + 40,, + 22 do ))(255) 5xx1 x+ xx22 zbioru G 1 się 2 G40,badanych ustalaniu wielkości Mk i mk nie((22ograniczać obiektów, lecz 40 + , G 1 2 xx1,, 0 ((3 ))* ) i minimalne xx2(mH .. * ) możliwe 3 0 H przyjąć, że są nimi maksymalne (M wartości k-tego ((33)) k xx1,, 1 xx2 H . 2 k0 5 + + = " M xx22)) H xx1m $$0((.5 ((xx1 + 22) 1+ kryterium (wiersz 5 i 6 tab. 5, w naszym M$ (*1 = 4x11$$przypadku 5 1 56, 9xxZmodyfiko21xx22 max =$ (4 + +*xx= =9 + 21 M 4= " max max ) 91)? 1 5 = + + M x x ) 15+ 2 k 4 $ c(x1 + 55x22) + 1 $ (5x11 + 9xx11 + 21xx22 " M= +1xx22))k = = +121 " max 2 wane wzory przedstawiono poniżej. Nazwijmy je umownie stopniami realizacji III 1 2 5 c 2 55 cc1 1 1 1 1 1 1 (formuły 11 i 12) i IV rodzaju 2(formuły i 14). 5 2 cc1213 5 c21 1 2 55 1 c2 2 22 f (x) iii k f ffk ((xxk))(x) , (11) iiig iii (x x)) = = * k gg kiiig((kkxx))(= * M = * k *M k M M kk **k m * mk iii (x) = gg iii k )(= (12) m kf*k (xk) , x) =m gg iii kiii ((kx k x) = fk (xfk k)(x) fk (x) * ffk ((xx)) iV m *kk -*k*m iV (x) = f x m ( ) k iVg k f (x) m k ,* x) = * (13) gg kiVg((kkxx))(= * -*m * = k **M k k M *m k M m k k k M kk m * * - fk (x) *M iV k - fk (x) *M iV M x = ( ) iVg k k M k -k*ffkk ((xxk)) * x) = gg kiVg((kxx))(= M = (14) *M *k k m.*kk -*k*m M km k* M m T k k T 1 11 1TT E r E j(()R R=jj)) = = E R r r jt ( T Takie podejście umożliwia E uzyskanie tt r=jtjt11 jt racjonalnych wyników. (R j) = T bardziej T t=1= =1 Warto mieć jednak na uwadze fakt, Tiż t w przypadku niektórych czynników nie / / // jesteśmy w stanie przedstawić parametrów M*k i m*k w postaci konkretnych liczb, gdyż maksymalne (minimalne) możliwe wartości tychże kryteriów mogą teoretycznie dążyć do +3 (–3), np. wielkość zysków z inwestycji, poziom długu publicznego, czas wykonania danego projektu inwestycyjnego. Dlatego w takich sytuacjach należałoby przyjąć jakieś umowne wielkości M*k i m*k. Przykładowo, tworząc miary syntetyczne dla pewnego zbioru krajów, w których jednym z kryteriów oceny jest stopa bezrobocia, można założyć, że jeżeli w ciągu ostatnich 10 lat stopa bezrobocia nie przekraczała w tych krajach 17,5% i nie była niższa niż 3,4%, to M *k = 18, a m*k = 3. Należy również podkreślić, że choć same wartości stopnia realizacji celu będą w ten sposób lepiej ukazywać stan faktyczny, to względne różnice pomiędzy stopniami realizacji, a także pomiędzy metakryteriami oceny poszczególnych obiektów, zmniejszą się, co przy nawet mało istotnej zmianie wag przyznanych poszczególnym kryteriom będzie skutkowało istotnymi zmianami w rankingu (por. Marcinkowski [2008, s. 94]). Inny ciekawy przykład, kwestionujący sporządzanie rankingów obiektów na podstawie stopni realizacji I i II rodzaju, opracował swego czasu W. Sikora (profesor Uniwersytetu Ekonomicznego w Poznaniu). Zaobserwowany paradoks polegał bowiem na tym, że ranking obiektów A, B, C, biorący pod uwagę trzy kryteria i skonstruowany według stopni realizacji I rodzaju, uzyskał zupełnie odwrotną kolejność w stosunku do rankingu przygotowanego na podstawie stopni II rodzaju. Ograniczona skuteczność metod optymalizacyjnych w rozwiązywaniu… 315 4. Optymalizacja czasowo-kosztowa projektów inwestycyjnych na podstawie algorytmu Kaufmanna i Desbazeille Kolejny ekonomiczny problem decyzyjny, z którym często spotykamy się w rzeczywistości, to próba realizacji interesującego nas projektu inwestycyjnego w czasie możliwie jak najkrótszym i po koszcie możliwie jak najniższym. Jest to dość specyficzny problem dwukryterialny, który z racji samej struktury przedsięwzięcia (niektóre jego czynności są wykonywane równolegle, inne – sekwencyjnie) nie może być rozwiązywany za pomocą tradycyjnych metod programowania wielokryterialnego. W tym konkretnym przypadku należy odwołać się do metodologii stosowanej w zarządzaniu projektami, czyli do algorytmów skracania czasu realizacji przedsięwzięcia. Do najbardziej znanych procedur należy algorytm Kaufmanna i Desbazeille [Kaufmann, Desbazeille, Ventura 1964]. Służy on właśnie do optymalizacji czasowo-kosztowej projektu, tj. do ustalenia planu: a) minimalizującego czas jego realizacji przy określonych środkach finansowych (Kd) lub b) minimalizującego koszt jego wykonania przy zadanym czasie dyrektywnym (Td)5. Dokładny opis algorytmu zawiera rysunek 2. Jak widać, metoda Kaufmanna i Desbazeille sprowadza się do iteracyjnego skracania wszystkich ścieżek krytycznych (tj. ścieżek o najdłuższym czasie trwania) o tę samą wielkość. Oznacza to, iż przy ustalaniu możliwych wariantów kompresji sieci nie są rozpatrywane wszystkie przekroje podsieci krytycznej, czyli kombinacje będące minimalnymi zbiorami łuków, przez które przechodzą wszystkie ścieżki krytyczne, lecz jedynie kombinacje stanowiące zbiory równoległych łuków krytycznych. Takie warianty (zawierające dokładnie, a nie przynajmniej, po jednej czynności na każdej ścieżce krytycznej) nazywać będziemy dokładnymi przekrojami podsieci krytycznej. Skracanie czasu trwania najdłuższych ścieżek sukcesywnie o jedną jednostkę jest konieczne zwłaszcza wówczas, gdy w sieci występuje kilka ścieżek krytycznych. Jeżeli natomiast sieć składa się tylko z jednej drogi krytycznej, której czas trwania jest na dodatek znacznie dłuższy aniżeli czasy wyznaczone dla pozostałych ścieżek, to wybraną(e) czynność(i) krytyczną(e) można w danej iteracji przyspieszyć od razu o więcej niż jedną jednostkę, pamiętając o ograniczeniach wynikających z ustalonego czasu granicznego oraz dostęp5 Szerzej o optymalizacji czasowo-kosztowej projektu inwestycyjnego zob. m.in. [Gaspars ‑Wieloch 2008, s. 174–183; Gaspars-Wieloch 2010, s. 78–88, Gruszczyński, Kuszewski, Podgórska 2009, s. 391–395; Hein 1967, s. 315–325; Ignasiak 1996, s. 133–134; Kukuła 1996, s. 165–168; Trzaskalik 2008, s. 345–353, 362–365]. W literaturze algorytm Kaufmanna i Desbazeille określany jest mianem algorytmu CPM-COST [Gaspars 2006a, 2006b], MCX (Minimum Cost Expediting) [Idźkiewicz 1967], CPM-MCX [Siudak 1998], a nawet CPM [Idźkiewicz 1967], analizą CPM-COST [Pietras, Szmit 2003], albo nazywany jest bardzo ogólnie analizą kosztów [Muller 1964], analizą czasowo-kosztową [Sikora 1993], procedurą czasowo-kosztową [Kopańska-Bródka 1998] lub algorytmem kompresji sieci. Nie można mieć pewności, że to właśnie Kaufmann i Desbazeille są twórcami wspomnianej metody. Ze studiów literaturowych wynika jedynie, że jej opis pojawił się najwcześniej w ich pracy. Przyjmijmy więc umownie, że omawiana procedura będzie określana mianem algorytmu Kaufmanna i Desbazeille. 316 Helena Gaspars-Wieloch nych środków przeznaczonych na akcelerację działań. Dodajmy, że w omawianej procedurze należy skracać te czynności krytyczne, których przyspieszenie wywoła najniższy wzrost łącznego kosztu bezpośredniego. Łączny koszt bezpośredni projektu wyznacza się jako sumę kosztów ponoszonych przy kompresji sieci (tj. kosztów podlegających optymalizacji) oraz kosztów bezpośrednich odpowiadających normalnym czasom trwania poszczególnych działań. Algorytm Kaufmanna i Desbazeille jest metodą heurystyczną, a więc nie daje ona gwarancji uzyskania rozwiązania optymalnego. Ry s u n e k 2 Schemat blokowy algorytmu Kaufmanna i Desbazeille START 1. Wyznaczyć podsieć krytyczną tak 2. Ustalić możliwe warianty skrócenia wszystkich ścieżek krytycznych o jedną jednostkę: a) jedna czynność wspólna dla wszystkich ścieżek krytycznych b) po jednej czynności na każdej ścieżce krytycznej c) kombinacja dwóch pierwszych wariantów Czy pojawiła się nowa ścieżka krytyczna? STOP nie tak nie 3. Przypisać wymienionym wariantom łączne koszty skrócenia Czy cel został osiagnięty? 4. Wybrać dowolny najtańszy technicznie możliwy wariant i skrócić czas trwania wybranych czynności o jedną jednostkę Źródło: [Bladowski 1970, s. 182–183; Kukuła 1996, s. 166; Gaspars 2006b, s. 7; Gaspars-Wieloch 2009, s. 48–49]. Rozpatrzmy następującą sytuację. Załóżmy, że w fazie planowania pewnego projektu (rys. 3) jego kierownik stwierdził, iż oszacowany czas realizacji (10 dni) jest zbyt długi i że należy go skrócić o 3 dni (z 10 do 7 dni) możliwie jak najtaniej. Działania (A, B, C, D, E) ukazano w postaci łuków. Normalne czasy trwania podano obok nazw działań, całkowite zapasy czasu policzono w nawiasach okrągłych, czynności krytyczne (tj. działania o zerowym zapasie czasu) pogrubiono, a jednostkowe koszty skracania czynności zapisano w nawiasach kwadratowych. Z rysunku 3 wynika, że czas trwania czynności A można maksymalnie skrócić o 2 dni (gdyż w nawiasie kwadratowym zawarto dwa koszty), a czynności D w ogóle nie można skrócić. 317 Ograniczona skuteczność metod optymalizacyjnych w rozwiązywaniu… Ry s u n e k 3 Wyjściowa sieć (Td = 7) B5 [1] 2 A5 [2, 2] (0) C2 [1] 1 D5 (0) 4 (0) (0) E3 [2, 2] 3 (2) Źródło: Gaspars [2006b, s. 12]. Procedura Kaufmanna i Desbazeille spełnia wszystkie formalne wymogi, aby z niej skorzystać przy rozwiązywaniu opisanego wyżej problemu. W tabeli 6 zebrano rezultaty końcowe uzyskane za pomocą tejże metody. Ze względu na obecność dwóch przekrojów dokładnych o najniższym koszcie kompresja sieci może być teoretycznie przeprowadzona na trzy różne sposoby (zgodnie z krokiem 4. algorytmu wybieramy dowolny najtańszy i technicznie możliwy wariant). Ta b e l a 6 Zestawienie wyników pośrednich dla algorytmu Kaufmanna i Desbazeille I opcja Iteracja Przekrój dokładny 10–9 II opcja Koszt Przekrój dokładny A CB BE 2 2 3 9–8 A CB BE 8–7 AD BCD BE Rezultat III opcja Koszt Przekrój dokładny Koszt A CB BE 2 2 3 A CB BE 2 2 3 2 ∞ ∞ A CB BE 2 2 3 A CB BE 2 2 3 ∞ ∞ ∞ AD BCD BE ∞ ∞ 3 AD BCD BE ∞ ∞ ∞ Brak rozwiązania dopuszczalnego Otrzymano rozwiązanie: łączny koszt = 7 Brak rozwiązania dopuszczalnego Źródło: Gaspars [2006b, s. 13]. Wyniki są zaskakujące. Okazuje się, że jeśli zbyt wcześnie skrócimy działanie B (opcja I lub III), a ta z kolei czynność tworzy wraz z działaniem E jedyny możliwy wariant w ostatniej iteracji, to zamiast konkretnego rozwiązania dopuszczalnego otrzymamy informację, że analizowany problem jest sprzeczny (tzn. zo- 318 Helena Gaspars-Wieloch stał źle postawiony), choć wcale tak nie jest. Do takich absurdalnych wniosków nie doszlibyśmy, gdybyśmy uwzględnili wszystkie przekroje, a nie tylko przekroje dokładne6. Algorytm Kaufmanna i Desbazeille stanowi zatem kolejny przykład metody optymalizacyjnej stosowanej do rozwiązywania ekonomicznych problemów decyzyjnych, która w pewnych bardzo szczególnych przypadkach prowadzi do nielogicznych wyników. 5. Konstrukcja struktury portfela papierów wartościowych o zmiennej stopie zwrotu na podstawie modelu optymalizacyjnego wykorzystującego średnią arytmetyczną Ostatni przykład, na który chciałabym zwrócić uwagę, dotyczy konstrukcji struktury portfela papierów wartościowych o zmiennej stopie zwrotu, np. akcji. Ustalając ich udziały w portfelu p, inwestorzy najczęściej biorą pod uwagę oczekiwaną stopę zwrotu E(Rj) poszczególnych walorów. Sama oczekiwana stopa zwrotu, stanowiąca jedynie prognozę przyszłej stopy zwrotu, nie jest jednak wystarczającym kryterium wyboru przedmiotu inwestowania. Dlatego inwestorzy uwzględniają dodatkowo ryzyko (mierzone np. wariancją V(Rj)), dające informację o dokładności otrzymanej prognozy. Obie miary (E(Rj) i V(Rj)) są podstawowymi narzędziami analizy prognozowanej rentowności inwestycji w dany walor i są brane pod uwagę przy formułowaniu zadania optymalizacyjnego dotyczącego struktury portfela. W takim zadaniu istotne jest zazwyczaj kryterium maksymalizacji stopy zwrotu portfela E(Rp) (lub osiągnięcie poziomu równego przynajmniej R*) oraz kryterium minimalizacji ryzyka związanego z inwestycją V(Rp) (lub osiągnięcie poziomu nieprzekraczającego V*). Dokładna postać modelu leży już w gestii decydenta [por. Godlewski 2008, s. 305; Jurek 2001, s. 88; Trzaskalik 2008, s. 317]. Przyjrzyjmy się teraz bliżej procedurze wyznaczania samej oczekiwanej stopy zwrotu pojedynczego waloru. Obok metody uwzględniającej opinie ekspertów czy analityków giełdowych i traktującej oczekiwaną stopę zwrotu jako ważoną prawdopodobieństwami sumę możliwych stóp zwrotu, powszechnie znane jest podejście wykorzystujące średnią arytmetyczną z T historycznych stóp zwrotu i zakładające, iż odzwierciedlają one z równym prawdopodobieństwem nieznane przyszłe wartości stóp zwrotu (wzór 15) [Godlewski 2008, s. 293–296; Jurek 2001, s. 29; Trzaskalik 2008, s. 314]. 6 Gdyby przekrój A + E został dołączony w ostatniej iteracji do listy potencjalnych wariantów skracania, to uzyskanie rozwiązania dopuszczalnego (choć nie optymalnego) byłoby możliwe zarówno dla opcji I, jak i opcji III. fk (x) - m *k g iV k (x) = M *k - m *k * M k - fk (x) w rozwiązywaniu… Ograniczona skuteczność metod optymalizacyjnych iV g k (x) = E ( R j) = 319 M *k - m *k T 1 / r , T t = 1 jt (15) gdzie rjt – stopa zwrotu j-tego waloru w okresie t. Załóżmy, że inwestor zamierza ustalić strukturę udziałów akcji A i B w swoim portfelu, korzystając z modelu optymalizacyjnego, lecz wcześniej chciałby zapoznać się z charakterystykami tych papierów wartościowych. Wyznaczmy zatem średnią stopę zwrotu (tab. 7, wiersz 5) dla dwóch akcji np. na podstawie notowań z trzech ostatnich miesięcy (tab. 7, wiersze 2–4). Ta b e l a 7 Notowania, stopy zwrotu i oczekiwane stopy zwrotu dla akcji A i B Akcja A Miesiąc Akcja B Notowania Miesięczne stopy zwrotu Notowania Miesięczne stopy zwrotu I 12,5 – 8 – II 25 100% 10 25% III 12,5 –50% 12,5 25% Średnia arytmetyczna stopa zwrotu 25% 25% Średnia geometryczna stopa zwrotu 0% 25% Źródło: Opracowanie własne (dane fikcyjne). Jak widać, arytmetyczna średnia stopa zwrotu jest dla obu walorów taka sama i wynosi 25%. Oczywiście, jeżeli uwzględnimy też drugą charakterystykę papierów wartościowych, to okaże się, że akcja A wiąże się ze znacznie większym ryzykiem niż akcja B, a więc dokładność sporządzonej prognozy jest dla tego waloru znacznie mniejsza. Powróćmy jednak do uzyskanych oczekiwanych rentowności poszczególnych papierów wartościowych. O ile wynik dla akcji B był do przewidzenia i wydaje się bardzo logiczny (stały wzrost notowań równy właśnie 25%), o tyle wartość średniej stopy zwrotu akcji A może nieco nas dziwić, chociażby dlatego, że ostateczna cena tego waloru nie zmieniła się w stosunku do swojego pierwotnego poziomu. W tym akurat przykładzie średnia geometryczna (tab. 7, wiersz 6), choć stosowana raczej do ustalenia zysku z inwestycji w danym okresie, a nie jako narzędzie prognostyczne, daje sensowniejsze wyniki7. 7 Obliczając średnią arytmetyczną, zakłada się, że wartość lokaty nie zmienia się w czasie, z kolei średnią geometryczną ustala się przy założeniu, że wszystkie wypłaty towarzyszące lokacie są reinwestowane na tych samych warunkach. Oznacza ona bowiem, z jaką średnią stopą rośnie jednostka pieniężna ulokowana na początku okresu [por. Jurek 2001, s. 29–31]. 320 Helena Gaspars-Wieloch Zakończenie W niniejszym artykule zaprezentowano pięć metod optymalizacyjnych. Sposób stosowania poszczególnych procedur zilustrowano, rozwiązując przykłady konkretnych ekonomicznych problemów decyzyjnych. Oczywiście opisane metody znajdują praktyczne zastosowania nie tylko w tych problemach ekonomicznych, które zostały zilustrowane przykładami liczbowymi. Procedury te można bowiem wykorzystać do rozwiązania każdego zadania, w którym decydent poszukuje optymalnego planu działania (optymalnego, czyli takiego, który realizuje określony cel: maksymalizuje użyteczność, maksymalizuje zyski, minimalizuje koszty itd.). W artykule zakwestionowano wyniki uzyskane w podanych przykładach za pomocą przedstawionych metod optymalizacyjnych, a w przypadku dwóch zagadnień zaproponowano wprowadzenie pewnych modyfikacji, dzięki którym rozwiązania powinny być bardziej logiczne. W przypadku heurystycznego algorytmu Kaufmanna i Desbazeille stwierdzamy zupełnie obiektywnie, że w niektórych zadaniach jego stosowanie prowadzi do całkowicie błędnych odpowiedzi (tj. do informacji o braku rozwiązania dopuszczalnego, mimo iż takie rozwiązanie z pewnością istnieje). Natomiast stopień niedorzeczności rezultatów generowanych przez pozostałe omówione procedury zależy już od osoby mającej z tych wyników skorzystać. Warto zwrócić uwagę na to, iż wszystkie przedstawione narzędzia można zaliczyć do tzw. procedur „miękkich”, czyli tych: 11 które nie gwarantują uzyskania optimum (por. algorytm Kaufmanna i Desbazeille), 11 których konstrukcja ma charakter intuicyjny (por. algorytm Kaufmanna i Desbazeille), 11 które dotyczą problemów zawierających parametry obarczone dużym stopniem niepewności (por. regułę Hurwicza oraz średnią arytmetyczną stopę zwrotu wykorzystywaną jako parametr w modelach optymalizacyjnych służących do ustalenia struktury portfela, 11 które zależą od indywidualnych preferencji decydenta (por. regułę Hurwicza oraz metakryterium i stopnie realizacji celów). W przypadku tzw. twardych metod (np. metoda potencjałów w zagadnieniu transportowym, algorytm Little’a dla zagadnienia komiwojażera czy programowanie dynamiczne stosowane przy wyznaczaniu optymalnego rozdziału zasobu) cel jest jasno i obiektywnie zdefiniowany, a procedury są dokładne, więc takie paradoksalne wyniki, o jakich była mowa w artykule, nie mogą się pojawić. W przeprowadzonej analizie oczywiście nie wyczerpano listy tzw. przypadków szczególnych, dla których metody optymalizacyjne, teoretycznie właściwe dla danego problemu decyzyjnego, prowadzą do zaskakujących rezultatów (istotnie różniących się od oczekiwanych wyników). Ograniczona skuteczność metod optymalizacyjnych w rozwiązywaniu… 321 Analizując dostrzeżone ograniczenia różnych metod optymalizacyjnych, dochodzimy do następującego wniosku. Nie wystarczy wiedzieć, kiedy teoretycznie można z danej procedury korzystać. Nie wystarczy też umieć ją zastosować. W procesie podejmowania decyzji, zwłaszcza ekonomicznych, niezbędna jest przede wszystkim umiejętność interpretacji i krytycznego spojrzenia na otrzymane wyniki. Warto zadać sobie trud sprawdzenia metodologii, jaką zastosowano przy generowaniu poszczególnych rezultatów. Tylko wówczas będziemy postępować świadomie i racjonalnie. Tekst wpłynął 9 września 2011 r. Bibliografia Badania operacyjne, red. E. Ignasiak, W. Borucki, J. Marcinkowski, W. Sikora, PWE, Warszawa 1996. Badania operacyjne w przykładach i zadaniach, red. K. Kukuła, Z. Jędrzejczyk, J. Skrzypek, A. Walkosz, WN PWN, Warszawa 1996. Bladowski S., Metody sieciowe w planowaniu i organizacji pracy, PWE, Warszawa 1970. Brzęczek T., Optymalizacja wielocelowa, w: Podstawy badań operacyjnych i ekonometrii, red. T. Brzęczek, H. Gaspars-Wieloch, B. Godziszewski, Wydawnictwo Politechniki Poznańskiej, Poznań 2010. Collette Y., Siarry P., On the Sensitivity of Aggregative Multiobjective Optimization Methods, „Journal of Computing and Information Technology” 2008, nr 1. Cotrutz C., Lahanas M., Kappas C., Baltas D., A Multiobjective Gradient Based Dose Optimization Algorithm for External Beam Conformal Radiotherapy, „Physics in Medicine and Biology” 2001, nr 8. Gaspars H., Analiza czasowo-kosztowa (CPM-COST). Algorytm a model optymalizacyjny, Wydawnictwo Politechniki Wrocławskiej, „Badania Operacyjne i Decyzje” 2006a, nr 1. Gaspars H., Propozycja nowego algorytmu w analizie czasowo-kosztowej przedsięwzięć, Wydawnictwo Politechniki Wrocławskiej, „Badania Operacyjne i Decyzje” 2006b, nr 3–4. Gaspars-Wieloch H., Analiza sieciowa przedsięwzięć, w: Badania operacyjne, red. W. Sikora, PWE, Warszawa 2008. Gaspars-Wieloch H., Wyznaczanie wariantów czasowo-kosztowych realizacji projektu, w: Badania operacyjne w planowaniu projektów, red. T. Trzaskalik, Wydanictwo Akademii Ekonomicznej w Katowicach, Katowice 2009. Gaspars-Wieloch H., Sieciowe planowanie projektu, w: Podstawy badań operacyjnych i ekonometrii, red. T. Brzęczek, H. Gaspars-Wieloch, B. Godziszewski, Wydawnictwo Politechniki Poznańskiej, Poznań 2010. Godlewski M., Optymalizacja decyzji inwestycyjnych, w: Badania operacyjne, red. W. Sikora, PWE, Warszawa 2008. Gruszczyński M., Kuszewski T., Podgórska M., Ekonometria i badania operacyjne. Podręcznik dla studiów licencjackich, WN PWN, Warszawa 2009. Guzik B., Wstęp do badań operacyjnych, Wydawnictwo Uniwersytetu Ekonomicznego w Poznaniu, Poznań 2009. 322 Helena Gaspars-Wieloch Hein L., The Quantitative Approach to Managerial Decisions, Prentice-Hall, Inc., Englewood Cliffs 1967. Idźkiewicz A., PERT. Metody analizy sieciowej, PWN, Warszawa 1967. Jurek W., Konstrukcja i analiza portfela papierów wartościowych o zmiennym dochodzie, Wydawnictwo Akademii Ekonomicznej w Poznaniu, Poznań 2001. Kaufmann A., Desbazeille G., Ventura E., La méthode du chemin critique, Dunod, Paris 1964. Kaufmann A., Faure R., Badania operacyjne na co dzień, PWN, Warszawa 1968. Kopańska-Bródka D., Wprowadzenie do badań operacyjnych, wydanie II, Wydawnictwo Akademii Ekonomicznej w Katowicach, Katowice 1998. Marcinkowski J., Optymalizacja wielokryterialna, w: Badania operacyjne, red. W. Sikora, PWE, Warszawa 2008. Messac A., Puemi-Sukam C., Melachrinoudis E., Aggregate Objective Functions and Pareto Frontiers: Required Relationships and Practical Implications, „Optimization and Engineering” 2000, nr 2. Messac A., Mattson C. A., Generating Well-Distributed Sets of Pareto Points for Engineering Design Using Physical Programming, „Optimization and Engineering” 2003, nr 4. Muller Y., Organisation et recherche opérationnelle, Eyrolles, Paris 1964. Pietras P., Szmit M., Zarządzanie projektami: wybrane metody i techniki, Horyzont, Łódź 2003. Sharaf A.M., El-Gammal A.A., A Multi-Objective Multi-Stage Particle Swarm Optimization MOPSO Search Scheme for Power Quality and Loss Reduction on Radial Distribution System, International Conference on Renewable Energies and Power Quality (ICREPQ’ 2009), Valencia, 15–17.04.2009. Sikora W., Analiza sieciowa przedsięwzięcia, w: Badania operacyjne i ekonometria, red. B. Guzik, W. Sikora, Materiały Dydaktyczne 32, część II, Akademia Ekonomiczna w Poznaniu, Poznań 1993. Siudak M., Badania operacyjne, Oficyna Wydawnicza Politechniki Warszawskiej, Warszawa 1998. Stodulny P., Programowanie w warunkach niepewności, w: Badania operacyjne, red. W. Sikora, PWE, Warszawa 2008. Trzaskalik T., Wprowadzenie do badań operacyjnych z komputerem, wydanie II, PWE, Warszawa 2008. Limited Efficiency of Optimization Methods in Solving Economic Decision Problems Summary The author illustrates by means of numerical examples some economic decision problems (the choice of investment projects, the choice of optimum product mix, preparation of rankings for different objects based on incomparable criteria by means of standardized measures, the time-cost project analysis, the asset portfolio construction) for which the results generated by theoretically appropriate optimization methods (i.e. procedures considering the characteristics of a given aim) are illogical or significantly different from the answers expected. In connection with the fact that such cases exist, Ograniczona skuteczność metod optymalizacyjnych w rozwiązywaniu… 323 the author: (a) suggests two modifications for the optimization methods discussed in the article so that they could be more universal; (b) emphasizes the need of a careful interpretation of the results obtained, in full consciousness of the limitations of the computational procedures employed. Key words: optimization methods 1 economic decision problems 1 the choice of investment project 1 the Hurwicz rule 1 decision-making under uncertainty 1 the choice of product mix 1 aggregate objective function 1 multi-aim optimization 1 compromise solution 1 implementation degrees 1 criterion standardization 1 ranking 1 time-cost project analysis 1 project management 1 the Kaufmann-Desbazeille algorithm 1 asset portfolio 1 average rate of return Ограниченная эффективность оптимизационных методов при рассмотрении экономических проблем принятия решений Резюме Автор приводит примеры экономических проблем принятия решений (таких как выбор инвестиционного проекта, определение оптимального ассортимента продукции, создание ранкингов объектов путем стандартизации несопоставимых критериев, оптимизация проектов по времени и по издержкам, построение портфеля ценных бумаг), для которых результаты, полученные с помощью теоретически правильных оптимизационных методов (т.е. процедур, учитывающих специфические черты рассматриваемой задачи), могут пртиворечит логике или значительно отличаться от ожидаемых результатов. В связи с тем, что такие особые случаи существуют, автор предлагает: а) модифицировать некоторые из представленных методов так, чтобы они приобрели более универсальный характер; б) помнить о необходимости вдумчивой интерпретации полученных результатов, осознавая ограничения применяемых калькуляционных процедур. Ключевые слова: оптимизационные методы 1 экономические проблемы принятия решений, выбор инвестиционного проекта 1 правило Гурвича 1 при нятие решений в условиях неуверенности 1 выбор ассортимента продукции 1 агрегатная функция цели 1 многоцелевая оптимизация 1 компромиссное решение 1 степени реализации 1 стандартизация критериев 1 ранкинги 1 затратная и временная оптимизация проектов 1 управление проектами 1 алгоритм Кауфманна-Десбазейя 1 конструкция портфеля ценных бумаг 1 средняя норма окупаемости Katarzyna Piłat* Indeks optymalnego obszaru walutowego dla gospodarki polskiej** Wstęp Teoria optymalnych obszarów walutowych (OOW), choć poddawana częstej krytyce przez ekonomistów [por. Mongelli 2008; Corsetti 2008], wciąż pozostaje głównym punktem wyjścia w analizach dotyczących tworzenia unii monetarnych. Postulaty głoszone przez poszczególnych przedstawicieli tej teorii oraz sformułowane przez nich kryteria stanowią dość rozbudowaną listę założeń mających umożliwić zweryfikowanie, czy dany obszar walutowy można nazwać optymalnym. Wśród kryteriów optymalnego obszaru walutowego należy wymienić mobilność czynników produkcji (geograficzną, sektorową oraz zawodową), wzajemną otwartość gospodarek i znaczną ich dywersyfikację, zgodność prowadzonych polityk gospodarczych (szczególnie w zakresie niskiej inflacji), a także niską zmienność kursu walutowego [por. Biegun 2004; de Grauwe 2003; Krugman, Obstfeld 2007; Lachowicz 2008; Rose, Engel 2002]. W toku dyskusji nad optymalnymi obszarami walutowymi zwrócono także uwagę na bilans korzyści i kosztów przyłączenia się danego kraju do obszaru walutowego [Grubel 1970]. Niestety, jak wskazują autorzy zajmujący się analizami procesów integracji monetarnej [por. np. Bień 1988; Mayes, Suvanto 2007; Mongelli 2002], większość postulatów teorii OOW jest trudna do empirycznej weryfikacji, szczególnie przy próbach uwzględnienia kilku kryteriów łącznie. Stąd najczęściej badania zasadności przystąpienia danego kraju do wspólnego obszaru walutowego opierają się na analizie jednego z założeń tej teorii. Odstępstwem tej od reguły stała się praca Bayoumi i Eichengreena [1998], w której zaproponowano syntetyczny indeks optymalnego obszaru walutowego. Miara ta pozwoliła uwzględnić na raz kilka z kryteriów głoszonych przez teorię OOW, a mianowicie: zmienność kursu walutowego, wzajemną otwar* Mgr Katarzyna Piłat – Katedra Funkcjonowania Gospodarki, Uniwersytet Łódzki; e-mail: [email protected] ** Praca finansowana ze środków MNiSzW na badania naukowe w latach 2009–2011. 326 Katarzyna Piłat tość gospodarek, zbieżność wahań aktywności gospodarczej, podobieństwo struktur gospodarek oraz wielkość kraju. W niniejszym artykule, w związku z dyskusją na temat zasadności wstępowania do strefy euro oraz kosztów i korzyści przyjęcia wspólnej waluty, przy wykorzystaniu indeksu optymalnego obszaru walutowego oszacowano, w jakim stopniu akcesja Polski do strefy euro jest korzystna z punktu widzenia teorii optymalnych obszarów walutowych. W pierwszej części artykułu omówiono tematykę optymalnych obszarów walutowych począwszy od przedstawienia definicji obszaru walutowego, poprzez przegląd głównych nurtów i odmian teorii OOW. Następnie scharakteryzowano oraz poddano analizie empirycznej indeks optymalnego obszaru walutowego dla gospodarki polskiej oraz pozostałych krajów Unii Gospodarczej i Walutowej z derogacją, a także Danii i Wielkiej Brytanii. 1. Definicja i warunki powstawania optymalnych obszarów walutowych Jedną z podstaw teoretycznych koncepcji unii monetarnej jest teoria optymalnych obszarów walutowych. Unia monetarna oznacza bowiem utworzenie jednolitego obszaru walutowego i wspólną optymalizację celów gospodarczych państw go tworzących. Jest to zgodne z definicją optymalnego obszaru walutowego, który w literaturze jest najczęściej określany jako region, w którym w obiegu znajduje się jedna waluta lub kilka walut, lecz połączonych między sobą sztywnymi kursami. Taką definicję zaproponował prekursor teorii optymalnych obszarów walutowych – Mundell [1961]. W toku dalszej dyskusji na teorią OOW definicja ta nie uległa w zasadzie znaczącym modyfikacjom, a jej uzupełnienia wynikały przede wszystkim z poszerzania listy kryteriów, którymi powinien charakteryzować się optymalny obszar walutowy [Bień 1988]. Obecnie najczęściej przyjmuje się, że optymalny obszar walutowy powinny utworzyć państwa, dla których ustanowienie względem siebie sztywnych kursów walutowych (lub przyjęcie wspólnej waluty) będzie powodowało wystąpienie nadwyżki korzyści ekonomicznych w tych gospodarkach nad poniesionymi stratami związanymi z porzuceniem możliwości zmian kuru walutowego [Grubel 1970]. Wśród korzyści wskazano tu głównie na zwiększenie wzajemnej wymiany handlowej pomiędzy tymi gospodarkami, obniżenie inflacji oraz wzrost wiarygodności prowadzonej polityki gospodarczej. Jako największy koszt wskazywano natomiast utracenie możliwości prowadzenia autonomicznej polityki pieniężnej. Dalsze rozszerzenia przedstawionej wyżej definicji OOW koncentrowały się przede wszystkim na wskazaniu, czym powinny się charakteryzować państwa mające utworzyć optymalny obszar walutowy, aby mogły one osiągnąć jak największe korzyści z utworzenia danego obszaru walutowego [Bień 1988; Alesina, Barro, Tenreyro 2002]. Wśród tych kryteriów wymieniano głównie wysoką mobilność czynników produkcji, w szczególności pracy, oraz duży wolumen wzajemnej wy- Indeks optymalnego obszaru walutowego dla gospodarki polskiej 327 miany handlowej. Cechy te miały gwarantować, w przypadku wystąpienia szoku w jednym z krajów należących do obszaru walutowego, osiągnięcie równowagi wewnętrznej i zewnętrznej. W nowszych badaniach nad teorią optymalnych obszarów walutowych zwrócono także uwagę na ważny aspekt postrzegania waluty narodowej jako symbolu tożsamości i dumy narodowej, jako warunku utworzenia optymalnego obszaru walutowego [Alesina, Barro, Tenreyro 2002]. Należy jednak zauważyć, iż takie odczucia w stosunku do waluty narodowej nie zawsze idą w parze z ekonomicznym i politycznym interesem danego kraju. Dotyczyć to może przede wszystkim niewielkich krajów, które – mimo iż są zdolne sprawnie funkcjonować w świecie wolnego handlu i otwartych rynków finansowych – mogą okazać się zbyt małe, aby zapewnić swym obywatelom pewne dobra publiczne, w tym walutę narodową [Alesina, Barro, Tenreyro 2002]. Może również zaistnieć sytuacja, w której – zgodnie z teorią OOW – w jednym kraju powinna funkcjonować więcej niż jedna waluta. Oznacza to, iż optymalny obszar walutowy nie musi być terytorialnie równoważny jednemu państwu i może stanowić raczej domenę regionalną. W takim razie w celu utworzenia OOW należałoby najpierw określić optymalną liczbę walut, która może funkcjonować na danym obszarze, a następnie – jeżeli liczba walut jest mniejsza niż liczba krajów – wyodrębnić te z nich, które powinny utworzyć unię walutową. Stosując się do powyższej metodyki tworzenia obszarów walutowych, Alesina, Barro, Tenreyro [2002]1 wyodrębnili dwa główne przypadki, w których może zostać utworzony optymalny obszar walutowy. Pierwszy z nich dotyczy sytuacji, w której jest obserwowany znaczny wzrost liczby niezależnych państw i jednocześnie liczby walut. Jeśli w tym samym czasie dochodzi do wzrostu wymiany międzynarodowej dóbr i usług, to powinny wystąpić tendencje do ograniczania liczby walut, np. w drodze tworzenia unii walutowych. Doprowadziłoby to do zwiększenia zyskowności transakcji zawieranych między poszczególnymi państwami tworzącymi unię walutową. Druga droga to według autorów osiągnięcie stabilności cen, co pierwotnie miało zagwarantować wprowadzenie sztywnych kursów walutowych. Rozwiązaniem mogło być przyjęcie waluty innego kraju bądź utrzymanie sztywnego kursu w ramach currency board. System ten jako jeden ze skrajnych kierunków w systemach kursowych zyskał wielu entuzjastów po kryzysach walutowych lat 90. [Nawrat 2002]. Przyjęcie takiego rozwiązania uwalnia kraj od ryzyka ataków spekulacyjnych, a także przyczynia się do zwiększenia dyscypliny i wiarygodności prowadzonej polityki makroekonomicznej2. Alesina, Barro, Tenreyro [2002] dokonali również podziału, według którego możliwe są dwie formy tworzenia obszarów walutowych. Pierwsza z nich polega 1 Autorzy analizują różne przykłady utworzonych już bądź planowanych unii walutowych. Oprócz Europejskiej Unii Gospodarczej i Walutowej badają oni możliwości integracji walutowej w krajach Ameryki Łacińskiej, Afryki Zachodniej oraz sześciu krajach Półwyspu Arabskiego produkujących ropę naftową. 2 Drugie skrajne podejście, tj. utrzymanie płynnego kursu walutowego, umożliwia natomiast uodpornienie gospodarki na ataki spekulacyjne oraz akomodację popytowych szoków asymetrycznych. 328 Katarzyna Piłat na tym, że państwo-klient (client country) przyjmuje walutę większego państwa, tzw. kraju-kotwicy (anchor country). Według Barro i Tenreyro [2003] najlepszym krajem-klientem do utworzenia obszaru walutowego jest państwo: 11 położone w bliskiej odległości od kraju-kotwicy, 11 którego obywatele posługują się tym samym językiem co w państwie-kotwicy, 11 będące byłą kolonią kraju-kotwicy, 11 biedniejsze niż kraj-kotwica (charakteryzujące się niższym PKB per capita), 11 mniej zaludnione niż państwo-kotwica. Drugą formą utworzenia obszaru walutowego jest przypadek, który ilustruje taką metodę utworzenia wspólnego obszaru walutowego, jaka została zastosowana przy tworzeniu strefy euro. Tutaj grupa państw zdecydowała się adoptować nową, wspólną walutę oraz utworzyć wspólny bank centralny. Wciąż pozostaje jednak nie do końca jednoznaczne, co rozumie się przez pojęcie optymalnego obszaru walutowego. Twórca teorii OOW, Mundell, definiuje optymalność obszaru walutowego jako: 11 zdolność do stabilizacji zatrudnienia i cen, 11 istnienie mechanizmu prowadzącego do niwelowania nierównowagi bilansu płatniczego i rynku pracy (bez ingerencji państwa), 11 istnienie na danym obszarze wewnętrznej mobilności czynników produkcji, lecz braku ich mobilności zewnętrznej [Bień 1988, s. 16]. Bukowski [2007a] zauważa, że optymalność obszaru walutowego polega na tym, iż przed obszarem walutowym stoją konkretne cele i są określone metody ich osiągania. Należy przy tym pamiętać, że – jak przyznaje jeden z prekursorów teorii OOW McKinnon – dokładne określenie „optymalności” obszaru walutowego jest trudne do precyzyjnego wyjaśnienia ilościowego, co może utrudniać empiryczną weryfikację kryteriów teorii optymalnych obszarów walutowych [Bukowski 2007b]. 2. Ewolucja teorii optymalnych obszarów walutowych W rozwoju teorii optymalnych obszarów walutowych można wyodrębnić na dwa etapy: teorię tradycyjną (zwaną też teorią bazową) i nową teorię optymalnych obszarów walutowych. Tradycyjna teoria OOW opierała się przede wszystkim na zagadnieniach związanych z analizą wpływu polityki monetarnej i fiskalnej, a także dywersyfikacji gospodarki na możliwości utworzenia optymalnego obszaru walutowego. W późniejszym etapie zwrócono także uwagę na zagadnienia instytucjonalne i elementy związane z konwergencją gospodarczą. Nowa teoria OOW, oprócz ustalenia nowych kryteriów akcesji, zawierała także weryfikację postulatów tradycyjnej teorii OOW. Obnażyła ona wiele niespójności i problemów związanych z nierozstrzygalnością kryteriów teorii tradycyjnej i ich niewielką przydatnością w rozwiązywaniu rzeczywistych problemów z zakresu integracji monetarnej [Tchorek 2010]. Indeks optymalnego obszaru walutowego dla gospodarki polskiej 329 Poniżej zostały przedstawione główne nurty tradycyjnej i nowej teorii optymalnych obszarów walutowych z naciskiem na głoszone przez nie postulaty i kryteria mające weryfikować optymalność obszaru walutowego. Pierwsze próby formułowania teorii OOW mają swoje początki w latach 60. ubiegłego wieku. Teoria OOW powstała w ramach dyskusji nad przyczynami upadku systemu z Bretton Woods i rozważań nad pozytywnymi i negatywnymi skutkami gospodarczymi stosowania płynnych i sztywnych kursów walutowych. Za prekursora tej teorii uważa się R.A. Mundella, który za przeprowadzone w tej dziedzinie badania otrzymał Nagrodę Nobla w 1999 r. Istotny wkład w rozwój tradycyjnej teorii OOW wnieśli również R.I. McKinnon [1963], P.B. Kenen [1970] oraz H. Grubel [1970]. Mundell [1961] rozpoczął rozważania dotyczące optymalności obszaru walutowego od założenia dotyczącego zdolności takiego obszaru do stabilizacji cen i zatrudnienia. Uważał on, że wewnątrz obszaru walutowego powinny działać mechanizmy mające na celu niwelowanie nierównowagi płatniczej i bezrobocia. Dostosowania te powinny według niego przebiegać automatycznie, bez konieczności ingerencji ze strony polityki fiskalnej i monetarnej. Mundell prowadzi rozważania poprzez analizę modeli, w których rozpatruje dwa kraje charakteryzujące się występowaniem równowagi bilansu płatniczego, pełnego zatrudnienia oraz mechanizmów, w których ceny i płace nie mogą być obniżone w krótkim okresie bez wzrostu bezrobocia. Ponadto zakłada on, iż władze kraju dążą do ograniczania inflacji. Analiza opiera się na założeniu, iż następuje przesunięcie popytu dóbr wytwarzanych w jednym kraju na dobra produkowane w drugim kraju. Dodatkowo wprowadzone są pewne warunki dotyczące rodzaju kursu walutowego i liczby walut, którymi posługują się te kraje. Na podstawie przeprowadzonych rozważań Mundell dochodzi do wniosku, że nie jest możliwe jednoczesne obniżanie bezrobocia i inflacji. Ponadto zauważa on, że optymalnym obszarem walutowym może być region3 cechujący się wewnętrzną mobilnością czynników produkcji, brakiem zaś jej mobilności zewnętrznej. Wyraża jednak wątpliwości co do optymalnej wielkości obszaru walutowego. Twierdzi, że z punktu widzenia redukcji kosztów transakcyjnych optymalnym obszarem walutowym powinien być cały świat. Co więcej, zbyt mały obszar walutowy mógłby powodować, że na obszarze tym wzrósłby udział dóbr importowanych w konsumpcji ogółem, a to z kolei oddziaływałoby odwrotnie proporcjonalnie na wskaźnik kosztów utrzymania przy dokonywaniu zmian kursu waluty. Rozszerzenia rozważań Mundella dokonał McKinnon [1963]. Wprowadził on do teorii OOW analizę dotyczącą wpływu efektywnej polityki fiskalnej i monetarnej. Według niego obszar walutowy powinien charakteryzować się zewnętrznie płynnym kursem walutowym, a prowadzone polityki gospodarcze powinny być nastawione na utrzymywanie stabilnego poziomu cen, pełnego zatrudnienia i równowagi bilansu płatniczego. Drugą kwestią, na którą zwraca uwagę, jest 3 Mundell twierdzi, że obszar walutowy nie musi pokrywać się z granicami kraju, stąd stosuje określenie regionu, a nie państwa. 330 Katarzyna Piłat stopień otwartości gospodarki. Jako miernik otwarcia gospodarki proponuje przyjęcie stosunku dóbr wymienialnych (tradable) w skali międzynarodowej do niewymienialnych (non-tradable). Im niższa wartość tej miary, tym kraj może więcej zyskać na utworzeniu wspólnego obszaru walutowego. Dodatkowo ekonomista ten modyfikuje założenie Mundella dotyczące geograficznej mobilności czynników produkcji, zauważając, że powinna występować również ich mobilność międzygałęziowa. Kenen [1970] również podkreśla znaczenie mobilności czynników produkcji, w szczególności zwraca uwagę na mobilność siły roboczej. Rozszerza jednak pojęcie mobilności o mobilność zawodową. Ponadto uwzględnia w swoich rozważaniach dotyczących OOW kwestię dywersyfikacji gospodarki, co ma gwarantować zróżnicowaną strukturę produkcji i eksportu, a w rezultacie mniejsze wahania terms of trade. W takim przypadku możliwe jest – jego zdaniem – utrzymywanie sztywnych kursów walutowych, gdyż dywersyfikacja produkcji jest w stanie zamortyzować skutki wystąpienia szoku w którymś z sektorów gospodarki. Głównym wkładem tego ekonomisty w rozwój teorii OOW jest sformułowanie postulatu dotyczącego konieczności centralizacji władzy fiskalnej i monetarnej na poziomie ponadregionalnym, a nawet ponadpaństwowym. Łącznikiem między tradycyjną i nową teorią OOW jest dorobek kolejnego przedstawiciela tego nurtu – H.G. Grubela [1970]. Jest on pierwszym ekonomistą, który zaczął analizować tworzenie przez poszczególne kraje optymalnego obszaru walutowego pod kątem widzenia kosztów i korzyści z integracji. Naturalnie uważa on, że kraj powinien przystąpić do obszaru walutowego tylko wtedy, gdy korzyści są większe niż koszty, co analizuje, wykorzystując funkcję dobrobytu. Dostrzega on szereg korzyści, jakie może osiągnąć kraj, przystępując do wspólnego obszaru walutowego, a mianowicie: wzrost dochodu narodowego, likwidację ryzyka kursowego oraz stabilizację cen [Piłat 2011]. Rozwój nowej teorii OOW przypadał na lata 70. Próbowano wówczas wskazać kolejne kryteria, które mogłyby rozstrzygnąć, które z państw powinny utworzyć wspólny obszar walutowy. Wśród nich wskazywano na istnienie wysokiej integracji finansowej pomiędzy krajami, podobnych stóp inflacji, a także występowanie niskiej zmienności kursu walutowego [Wojnicka 2002]. Następnie, w latach 80., teoria OOW cieszyła się stosunkowo mniejszym zainteresowaniem. Do odrodzenia tej teorii doszło dopiero w latach 90., głównie z powodu nasilenia procesów integracyjnych w Europie. W tym okresie teoria OOW została poddana gruntownej rewizji i licznym uzupełnieniom. Przede wszystkim zostały ujawnione niektóre poważne niespójności i wady tradycyjnej teorii OOW, z których najbardziej została skrytykowana niezwykle słaba aplikacyjność postulatów tej teorii do przeprowadzania badań empirycznych oraz rozwiązywania praktycznych problemów związanych z integracją monetarną [Tchorek 2010]. Uaktualnienie tradycyjnej teorii OOW opierało się głównie na modyfikacji kryteriów, którym powinien odpowiadać optymalny obszar walutowy, przy uzględnieniu teorii monetarystycznych i teorii racjonalnych oczekiwań. Obszarami badań, na których skupiła się dyskusja w ramach nowej teorii OOW, były problemy związane z występowaniem asymetrycznych szoków gospo- Indeks optymalnego obszaru walutowego dla gospodarki polskiej 331 darczych, nieefektywność polityki monetarnej w długim okresie4, nieskuteczność działania mechanizmu kursowego oraz zwiększenie roli wiarygodności i stabilności polityki ekonomicznej państwa [Tchorek 2010]. W miarę rozwoju teorii OOW zwrócono także uwagę na fakt, iż kraje planujące utworzyć obszar wspólnej waluty powinny charakteryzować się podobną polityką fiskalną i monetarną, jak również cechować się podobieństwem w przebiegu wahań aktywności gospodarczej. Synchronizacja cykli koniunkturalnych w krajach tworzących unię walutową ma umożliwić efektywne stosowanie narzędzi wspólnej polityki monetarnej w przypadku wystąpienia szoku5. 3. Konstrukcja indeksu optymalnego obszaru walutowego Wielość kryteriów, jakimi teoria OOW charakteryzuje wspólny obszar walutowy, a także fakt, iż większość z tych warunków jest trudna do empirycznej weryfikacji, spowodowały, iż zdecydowana większość analiz empirycznych ogranicza się do weryfikacji jedynie pojedynczych założeń tej teorii. Eichengreen i Bayoumi [1998] podjęli próbę stworzenia miary, która uwzględniałaby różne kryteria optymalności obszarów walutowych i mogła jednoznacznie określić, które kraje są predestynowane do utworzenia unii monetarnych. Miara stworzona przez tych autorów, nazwana indeksem OOW, umożliwia uwzględnienie jednocześnie kilku kryteriów optymalności, wskazywanych zarówno przez tradycyjną, jak i nową teorię optymalnych obszarów walutowych. Znaczenie obliczonego w ten sposób indeksu, mocno osadzonego w teorii OOW, staje się istotne w kontekście próby odpowiedzi na pytanie, które z krajów mają większą szansę na pomyślne utworzenie unii monetarnej. Pozwala on bowiem na jednoczesne zbadanie za pomocą skwantyfikowanego wskaźnika podobieństwa gospodarek na kilku płaszczyznach, tj. zgodności wahań aktywności gospodarczej, podobieństwa struktur gospodarczych, wielkości krajów oraz intensywności wzajemnej wymiany handlowej mierzącej otwartość gospodarki. Indeksy OOW mogą więc stanowić pewien syntetyczny wskaźnik szans pomyślnej i korzystnej integracji gospodarczej i walutowej dla krajów planujących akcesję do strefy euro, w tym Polski. Indeks Eichengreena i Bayoumi skupia się na wskazaniu czynników ekonomicznych, które mogą decydować o tym, że kursy walutowe będą podlegały mniejszym wahaniom. Ograniczona zmienność kursu walutowego może być sygnałem, że unifikacja monetarna przyniesie korzyści dla krajów przystępujących do danego obszaru walutowego. Jako czynniki sprzyjające większej stabilizacji kursu walutowego autorzy wskazują brak występowania szoków asymetrycznych produkcji, wzmożoną wymianę handlową, podobną strukturę gospodarki, mobilność siły roboczej oraz podobny zakres działania automatycznych stabilizatorów. 4 Chodziło tu o nieefektywność tej polityki w regulowaniu aktywności gospodarczej. przy tym zaznaczyć, że polityka fiskalna może oddziaływać na synchronizację cykli w krajach tworzących unię walutową [Krajewski, Piłat 2012]. 5 Warto 332 Katarzyna Piłat Asymetryczne szoki produkcji zostały wyrażone jako odchylenia standardowe różnic logarytmów PKB. Jeśli w danej parze krajów cykle koniunkturalne są zsynchronizowane, współczynnik ten powinien przyjmować niską wartość. Dodatkowo indeks ten uwzględnia różnice w udziałach poszczególnych sektorów gospodarki w tworzeniu PKB. Otwartość gospodarki została wprowadzona do modelu jako udział eksportu do danego kraju lub obszaru partnerskiego w PKB. Analiza objęła także element mający ilustrować koszty wspólnej waluty. Teoria optymalnych obszarów walutowych głosi, że większe korzyści z przyjęcia wspólnej waluty osiągną mniejsze kraje. Został zatem wprowadzony do modelu miernik wielkości kraju, wyznaczony jako średnia z logarytmu PKB w obydwu krajach lub obszarach. Równanie, którego parametry poddano estymacji, ma postać: SD (eij) = a + b1 SD (Dyi - Dy j) + b2 DISSIMij + b3 TRADEij + b4 SIZEij + pij (1) gdzie: t (e ) = 0, 386SD (Dy - Dy ) + 0, 111 DISSIM ij - 0, 082 TRADEij + 0, 005SIZEij SD ij i j (2, 47) (- 2, 26) (3, 33) a, b1, b2, b3(2,, 02 b4) – parametry modelu, SD(eij) – odchylenie standardowe różnicy logarytmów wzajemnych nominalnych kursów walutowych pomiędzy dwoma krajami i oraz j na koniec roku6, SD(Dyi – Dyj) – odchylenie standardowe różnic w przyrostach logarytmów produkcji w dwóch krajach i oraz j, DISSIMij – suma wartości bezwzględnych różnic w udziałach rolnictwa, przemysłu wydobywczego i przemysłu przetwórczego w handlu ogółem w krajach i oraz j, TRADEij – średnia z udziału wzajemnego eksportu w PKB w krajach i oraz j, SIZEij – średnia logarytmu PKB w krajach i oraz j. W każdym przypadku wartości zmiennej niezależnej były wyznaczane jako średnia z całego okresu uwzględnionego w badanej próbie. Analiza, którą przeprowadzili Eichengreen i Bayoumi [1998], była oparta na danych obejmujących okres 1983–1992 dla 21 krajów. Indeks OOW został wyznaczony dla poszczególnych krajów europejskich w stosunku do Niemiec. Wartość indeksu autorzy wyznaczyli zarówno dla okresu objętego badaną próbą, jak i prognozując jego wartości na 1995 r. Na podstawie otrzymanych wyników autorzy wyodrębnili trzy grupy krajów. W pierwszej grupie znalazły się kraje, które okazały się najlepszymi kandydatami do utworzenia z Niemcami wspólnego obszaru walutowego. Do grupy tej autorzy zaliczyli: Austrię, Belgię, Holandię oraz Irlandię, a także jeden kraj niebędący członkiem Unii Europejskiej – Szwajcarię. Do drugiej grupy zostały zaliczone Wielka Brytania, Finlandia, Norwegia i Francja. Obecność Francji w drugiej, a nie w pierwszej grupie wzbudziła zdziwienie autorów 6 Eichengreen i Bayoumi [1998] argumentowali wybór jako zmiennej objaśnianej nominalnego, a nie realnego kursu walutowego faktem, iż kurs nominalny jest lepszym punktem odniesienia dla porównywań ze wspólną walutą. W przypadku przyjęcia wspólnej waluty zmienność nominalnego kursu walutowego jest zerowa. Indeks optymalnego obszaru walutowego dla gospodarki polskiej 333 analizy; spodziewali się oni bowiem niższej wartości indeksu dla Francji względem Niemiec, zakładając wyższy stopień integracji między tymi dwoma krajami. Natomiast ostatnią grupę państw, charakteryzujących się najsłabszymi zdolnościami do utworzenia wspólnego obszaru walutowego z Niemcami, stanowiły kraje południowe: Włochy, Grecja, Portugalia oraz Hiszpania. Na zmiany wartości indeksów OOW w czasie największy wpływ miały rozbieżności w wahaniach aktywności gospodarczej w poszczególnych krajach oraz zmiany intensywności wzajemnej wymiany handlowej. Wniosek, jaki autorzy wyciągają dla polityki Unii Europejskiej dążącej do konwergencji, to postulat zwiększenia roli udziału handlu wzajemnego w ramach Unii. Punktem wyjścia do pomyślnej integracji monetarnej jest utworzenie dobrze działającego wspólnego rynku. 4. Oszacowania indeksu dla krajów UE nienależących do strefy euro W naszym badaniu, opierając się na założeniach metodologicznych przyjętych przez Eichengreena i Bayoumi, oszacowano indeks optymalnego obszaru walutowego dla krajów należących do Unii Europejskiej, lecz niebędących członkami strefy euro (według stanu w 2011 r.). Indeksy OOW zostały wyznaczone dla poszczególnych krajów w stosunku do strefy euro jako całości i, dodatkowo, w stosunku do Polski. Wartości indeksu zostały obliczone z uśrednionych danych rocznych obejmujących okres 1999–2009. Dla Polski, oprócz wartości indeksu obliczonej dla całego badanego okresu, wartości indeksu zostały również wyznaczone dla wybranych lat, tak by można było określić, czy następuje zjawisko konwergencji Polski ze strefą euro. W celu obliczenia indeksu OOW dokonano estymacji równania (1). Dokonano jednakże kilku modyfikacji dotyczących postaci zmiennych. W przeprowadzonym badaniu zmianie uległa zmienna: 11 DISSIMij, która została określona jako suma wartości bezwzględnych różnic w udziałach rolnictwa, przemysłu i usług w wartości dodanej ogółem (a nie w wartości handlu ogółem) w krajach i oraz j. 11 TRADEij, która została przedstawiona jako średnia z udziału eksportu w PKB w krajach i oraz j, ilustrująca ogólną otwartość gospodarki, a nie, jak to miało miejsce w badaniu Eichengreena i Bayoumi, gdzie zmienna ta wyrażała wzajemną otwartość danej pary krajów7. Ponieważ rezultaty pierwszej estymacji parametrów równania (1) wykazały nieistotność wyrazu wolnego, dokonano powtórnej estymacji równania, bez wyrazu wolnego. Oszacowania parametrów pokazuje równanie (2). 7 Dane o udziałach eksportu w PKB pochodzą z bazy OECD, natomiast pozostałe dane pochodzą z bazy Eurostatu. Modyfikacje zmiennych DISSIMij oraz TRADEij zostały podyktowane dostępnością danych. 334 Katarzyna Piłat SD (eij) = a + b1 SD (Dyi - Dy j) + b2 DISSIMij + b3 TRADEij + b4 SIZEij + pij t (e ) = 0, 386SD (Dy - Dy ) + 0, 111 DISSIM ij - 0, 082 TRADEij + 0, 005SIZEij SD ij i j (2, 02) (2, 47) (- 2, 26) (3, 33) (2) W nawiasach poniżej wartości parametrów pokazano wartości statystyk t‑Studenta. Wyniki testu informują, że hipoteza o nieistotnym wpływie zmiennych SD(Dyi – Dyj), DISSIMij oraz TRADEij na zmienną zależną została odrzucona na poziomie istotności 0,05. Natomiast istotność wpływu zmiennej SIZEij została potwierdzona na poziomie istotności równym 1%. Podobnie jak w badaniu Eichengreena i Bayoumi [1998], najważniejszym czynnikiem determinującym wartość indeksu okazały się rozbieżności w przebiegu cyklu koniunkturalnego (tutaj: zmienna SD(Dyi – Dyj)). Drugą zmienną mającą największy wpływ na wartość indeksu jest podobieństwo struktur gospodarek (zmienna DISSIMij). Świadczy to o tym, iż im większe są asymetrie w przebiegu wahań aktywności gospodarczej pomiędzy danym krajem i strefą euro oraz im bardziej zróżnicowane są struktury gospodarek, tym większe będą wartości indeksu OOW, który ilustruje zmienność kursu walutowego. Taka sytuacja może powodować większe koszty usztywnienia kursu walutowego względem euro i rezygnacji z autonomicznej polityki pieniężnej. Równanie (2) posłużyło do wyznaczenia wartości indeksów OOW dla wszystkich krajów uwzględnionych w badaniu w stosunku do strefy euro dla całego okresu objętego analizą. Wartości parametrów równania regresji stanowią wagi dla poszczególnych zmiennych wchodzących w skład indeksu. Wartości indeksów zostały zatem wyznaczone jako wartości teoretyczne zmiennej endogenicznej. Wartości indeksów OOW zostały obliczone dla całego badanego okresu (1999–2009), co oznacza, iż wartości zmiennych objaśniających zostały wyrażone jako średnie z całej próby. Przy tak skonstruowanym indeksie dla kraju rozważającego przystąpienie do unii walutowej bardziej pożądane jest otrzymanie niskich wartości analizowanej miary, co oznacza wyższe korzyści (w porównaniu z kosztami) w przypadku utworzenia wspólnego obszaru walutowego. Otrzymane wyniki ilustruje tabela 1. Otrzymane wyniki pokazują, że biorąc pod uwagę dane z lat 1999–2009, najlepszymi kandydatami do przystąpienia do strefy euro były: Węgry, Polska oraz Wielka Brytania. Kraje te osiągnęły wartości indeksów nieprzekraczające 0,08. Do drugiej grupy zaliczyć można: Bułgarię, Czechy oraz Danię, dla których wartości indeksów zawierały się w przedziale od 0,08 do 0,09. Trzecią grupę stanowią: Litwa, Łotwa, Rumunia oraz Szwecja; w tej grupie wartości indeksu były najwyższe i oscylowały wokół 0,1. Podobną analizę przeprowadzono, wyznaczając wartości indeksów dla całego badanego okresu próby, przyjmując jako kraj odniesienia Polskę. Tabela 2 pokazuje, że krajami najbliższymi Polsce pod względem analizowanych czynników ekonomicznych są: Bułgaria, Czechy oraz Węgry. Gorszymi partnerami do utworzenia z Polską wspólnego obszaru walutowego byłyby: Dania, Litwa i Szwecja. Natomiast najbardziej odległe, biorąc pod uwagę wartości tych indeksów, okazały się: Łotwa, Rumunia oraz Wielka Brytania. Ostatnią część badania stanowiło wyznaczenie indeksu OOW dla Polski w stosunku do strefy euro dla kilku wybranych lat. Wyniki przeprowadzonej analizy Indeks optymalnego obszaru walutowego dla gospodarki polskiej 335 Ta b e l a 1 Indeksy OW względem strefy euro Kraj Wartość indeksu Bułgaria 0,084 Czechy 0,089 Dania 0,081 Litwa 0,103 Łotwa 0,100 Polska 0,077 Rumunia 0,107 Szwecja 0,096 Węgry 0,061 Wielka Brytania 0,077 Źródło: Opracowanie własne. wskazują, że najniższe wartości tego indeksu przypadły na lata 2004–2005, czyli początkowy okres członkostwa w Unii Europejskiej. Wówczas wartość indeksu oscylowała około 0,077. W następnych latach wartość indeksu pogarszała się stopniowo, tak by w 2009 r. osiągnąć wartość 0,090. Z uwagi na fakt, że miara ta jest w znacznej mierze determinowana przez zgodność wahań cyklu koniunkturalnego w Polsce i strefie euro, można wnioskować, że to różnice w przebiegu cyklu koniunkturalnego8 (szczególnie w okresie ostatniego kryzysu) przyczyniły się do pogorszenia wartości indeksu. Ta b e l a 2 Indeksy OOW względem Polski Kraj Wartość indeksu Bułgaria 0,057 Czechy 0,061 Dania 0,081 Litwa 0,074 Łotwa 0,104 Rumunia 0,100 Szwecja 0,089 Węgry 0,061 Wielka Brytania 0,104 Źródło: Opracowanie własne. 8 Zmniejszenie stopnia zgodności wahań cyklicznych polegało głównie na zwiększeniu różnic amplitudy wahań w Polsce z stosunku do strefy euro [Skrzypczyński 2008]. 336 Katarzyna Piłat Podsumowanie W przedstawionym badaniu dokonano analizy zasadności wstępowania nowych krajów do strefy euro z perspektywy teorii optymalnych obszarów walutowych. W badaniu wykorzystano zaproponowany przez Eichengreena i Bayoumi [1998] indeks optymalnego obszaru walutowego. Większość analiz empirycznych opartych na teorii optymalnych obszarów walutowych opiera się na jednym, wybranym kryterium optymalności. Wykorzystany w tym badaniu indeks umożliwia uwzględnienie kilku kryteriów, wskazywanych zarówno przez tradycyjną, jak i nową teorię OOW. Są to: zmienność kursu walutowego, wzajemna otwartość gospodarek, zbieżność wahań aktywności gospodarczej, podobieństwo struktur gospodarek oraz wielkość kraju. Otrzymane wyniki pokazują, że Polska, na tle krajów członkowskich nienależących do strefy euro, jest relatywnie dobrym kandydatem do pełnego uczestnictwa w Unii Gospodarczej i Walutowej. Podobne wartości indeksu uzyskały także Węgry oraz Wielka Brytania. Najsłabiej pod względem analizowanej miary wypadły Litwa, Łotwa, Rumunia oraz Szwecja. Krajami charakteryzującymi się dużym podobieństwem do Polski pod względem analizowanych czynników okazały się Bułgaria, Czechy oraz Węgry. Analizując, jak zmieniał się indeks OOW dla Polski względem strefy euro, stwierdzono, że Polska najlepiej spełniała kryteria teorii OOW dotyczące zgodności względem strefy euro w latach 2004–2005. W ostatnich latach nastąpiło pogorszenie wartości tego indeksu, co było spowodowane zwiększeniem rozbieżności wahań koniunkturalnych w Polsce i strefie euro podczas ostatniego kryzysu gospodarczego. Tekst wpłynął 6 października 2011 r. Bibliografia Alesina A., Barro R.J., Tenreyro S., Optimal Currency Areas, „NBER Working Paper” 2002, nr 9072. Barro R.J., Tenreyro S., Economic Effects of Currency Unions, „NBER Working Paper” 2003, nr 9435. Bayoumi T., Eichengreen B., Ever Closer to Haven? An Optimum-Currency-Area Index for European Countries, „European Economic Review” 1998, nr 41. Bergman U.M., How Similar Are European Business Cycles? „EPRU Working Paper” 2004, nr 04–13. Biegun K., Kryteria optymalnego obszaru walutowego w rozszerzonej unii Europejskiej, w: Unifikacja gospodarek europejskich. Szanse i zagrożenia, red. A. Manikowski, A. Psyk, Wydawnictwo Naukowe Wydziału Zarządzania Uniwersytetu Warszawskiego, Warszawa 2004. Indeks optymalnego obszaru walutowego dla gospodarki polskiej 337 Bień A., Optymalny obszar walutowy. Teoria i praktyka, PWE, Warszawa 1988. Bukowski S., Strefa Euro, PWE, Warszawa 2007a. Bukowski S., Unia Monetarna. Teoria i praktyka, Difin, Warszawa 2007b. Corsetti G., A Modern Reconsideration of the Theory of Optimal Currency Areas, „European University Institute Working Paper” 2008, February 2008. De Grauwe P., Unia walutowa, PWE, Warszawa 2003. Grubel H.G., The Theory of Optimum Currency Areas, „Canadian Journal of Economics” 1970. Kenen P.B., The Theory of Optimum Currency Areas: an Eclectic View, w: Monetary Problems of the International Economy, red. R.A. Mundell, A.K. Swoboda, Chicago University, Chicago 1970. Konopczak K., Analiza zbieżności cyklu koniunkturalnego gospodarki polskiej ze strefą euro na tle krajów Europy Środkowo-Wschodniej oraz państw członkowskich strefy, w: Raport na temat pełnego uczestnictwa Rzeczypospolitej Polskiej w trzecim etapie Unii Gospodarczej i Walutowej. Projekty badawcze. Część III, NBP, Warszawa 2008. Krajewski P., Piłat K., Wpływ polityki fiskalnej na synchronizację cyklu koniunkturalnego w Polsce i strefie euro, „Bank i Kredyt” 2012, t. 44, nr 3. Krugamn P.R., Obstfeld M., Ekonomia międzynarodowa, WN PWN, Warszawa 2007. Lachowicz M., Koncepcja wspólnych obszarów walutowych, „Bank i Kredyt”, luty 2008. Mayes D.G., Suvanto A., Meeting the Challenge of Monetary Union: Lessons form the Finnish Experience, „Bank i Kredyt”, październik 2007. McKinnon R.I., Optimum Currency Areas, „American Economic Review” 1963, t. 53, nr 4. Mongelli F.P., European Economic and Monetary Integration and the Optimum Currency Area Theory, European Comission, „European Economy, Economic Papers” 2008, nr 302. Mongelli F.P., ‘New’ Views on the Optimum Currency Area Theory: What is EMU Telling Us? „European Central Bank Working Paper”, April 2002. Mundell R.A., A Theory of Optimum Currency Areas, „American Economic Review” 1961, nr 51. Nawrat R., Doświadczenia z systemem currency board, „Bank i Kredyt” 2002, t. 33, nr 9. Piłat K., Europejska integracja monetarna a teoria optymalnego obszaru walutowego, w: Gospodarka Polski w perspektywie wstąpienia do strefy euro. Ujęcie ilościowe, red. P. Krajewski, PWE, Warszawa 2011. Rose A.K., Engel C., Currency Union and International Integration, „Journal of Money, Credit and Banking” 2002, t. 34, nr 3. Skrzypczyński P., Analiza synchronizacji cykli koniunkturalnych w strefie euro, „Materiały i Studia, Zeszty” 2006, nr 210. Skrzypczyński P., Wahania aktywności gospodarczej w Polsce i strefie euro, „Materiały i Studia” 2008, nr 227. Tchorek G., Teoretyczne podstawy integracji walutowej, w: Mechanizmy funkcjonowania strefy euro, NBP, Warszawa 2010. Wojnicka E., Spory wokół teorii optymalnych obszarów walutowych, „Ekonomista” 2002, nr 1. Woźniak P., Paczyński W., Business Cycle Coherence between the Euro Area and the EU New Member States: a Time-Frequency Analysis, 2007, www.cerge-ei.cz/pdf/gdn 338 Katarzyna Piłat The Index of Optimum Currency Area for the Polish Economy Summary The theory of the optimum currency areas (OCA) is an important reference point in the analysis of monetary unions. The article presents the analysis of the synthetic OCA index based on the concept developed by Bayoumi and Eichengreen (1998), aimed to assess the conformity of several EU economies not yet included in the euro area with the requirements of the OCA theory as regards their possible accession to the EMU. The results of the analysis suggest that, among the analysed countries, Poland, Hungary and Great Britain fulfill best the requirements of the OCA theory with respect to the euro area. A more detailed examination, however, shows that Poland fitted best to the euro area in the years 2004–2005, just after its accession to the EU, while in the last years the OCA index, measuring the concordance of the Polish economy with the euro area, deteriorated, due mainly to the discrepancy of cyclical fluctuations during the lat economic crisis. Key words: optimum currency area 1 Economic and Monetary Union 1 euro area 1 Poland, European Union Индекс оптимальной валютной зоны для польской экономики Резюме Теория оптимальных валютных зон представляет собой существенную точку отсчета при анализе валютных союзов. В статье на основе синтетического анализа индекса оптимальной валютной зоны было проверено, является ли Польша, на фоне остальных государств-членов Евросоюза, не принадлежащих к зоне евро, хорошим кандидатом для полного участия в Экономическом и валютном союзе. Конструкция индекса опирается на работу Байоми и Айхенгрина (1998). Результаты анализа указывают, что среди анализируемых стран Польша, наряду с Венгрией и Великобританией, наиболее полно отвечает правилам теории оптимальных валютных зон по отношению к зоне евро. Однако более подробный нализ указывает, что Польша выполняла критерии соответствия зоне евро лучше всего в 2004–2005 гг., т.е. сразу после вступления в ЕС. На протяжении последних нескольких лет индекс OWW для Польши в отношении зоны евро ухудшился, главным образом в результате расхождений конъюнктурных колебаний во время последнего экономического кризиса. Ключевые слова:оптимальная валютная зона 1 Экономический и валютный союз 1 зона евро 1 Польша, Евросоюз M I S C E L L A N E A Sławomir I. Bukowski* Stopień integracji rynków finansowych na obszarze euro Wprowadzenie Jednym z istotnych warunków unifikacji monetarnej jest osiągnięcie przez kraje tworzące unię monetarną podobnego poziomu rozwoju rynków finansowych i ich integracja. Wymaga to zarówno dostosowań po stronie prawnej, jak i osiągnięcia odpowiedniego poziomu rozwoju rynku finansowego pod względem instytucjonalnym, behawioralnym i ekonomicznym. Kraje tworzące unię monetarną powinny posiadać rozwinięte systemy instytucji finansowych (banki, fundusze wspólnego inwestowania, towarzystwa ubezpieczeniowe, giełdy pieniężne), gospodarstwa domowe i przedsiębiorstwa powinny być obeznane z inwestowaniem w instrumenty finansowe i wykorzystywaniem kredytu, a kraj uczestniczący w unii walutowej powinien posiadać rozwinięty rynkowy mechanizm sprawnie regulujący zachowania podmiotów gospodarczych na rynku finansowym [Bukowski 2007b; Janicka 2005]. Z punktu widzenia funkcjonowania unii monetarnej szczególnie istotne są funkcja alokacyjna rynku finansowego oraz funkcja absorpcji szoków ekonomicznych poprzez mechanizm rozkładania ryzyka (risk sharing). Obie funkcje przenikają się nawzajem [Bukowski 2007a, s. 64–69; Janicka 2005]. J.C. Ingram [1962, s. 28–35] podniósł integrację rynków finansowych do roli jednego z kryteriów optymalności obszaru walutowego, wskazując, że pozwala ona na zredukowanie roli kursu walutowego jako instrumentu dostosowań w przypadku wystąpienia szoku ekonomicznego. Funkcję dostosowawczą na obszarze walutowym o zintegrowanym rynku finansowym mogą pełnić zmiany stóp procentowych oraz przepływy kapitałowe. R.I. McKinnon [2001a, 2001b] zwraca uwagę na znaczenie rozłożenia ryzyka poprzez dywersyfikację portfela inwestycyjnego inwestorów w poszczególnych krajach tworzących unię monetarną. Na znaczenie mechanizmu rozkładania ryzyka (risk sharing) zwraca również uwagę P. De Grauwe [2003, s. 243–245]. Według niego na wysoce zintegrowanym rynku finansowym inwestorzy posiadają w swoich portfelach akcje o różnych relacjach stóp zwrotu do ryzyka. Banki działają nie w jednym kraju, ale na terenie całej unii monetarnej. W tych warunkach straty spowodowane spadkiem kursów papierów wartościowych w krajach dotkniętych szokami ekonomicznymi są kompensowane przez zyski z papierów wartościowych pochodzących z krajów, gdzie wystę* Prof. dr hab. Sławomir I. Bukowski – Wydział Ekonomiczny, Katedra Biznesu i Finansów Międzynarodowych, Politechnika Radomska; e-mail: [email protected] 340 Miscellanea puje wzrost gospodarczy. Ryzyko inwestycyjne, będące skutkiem gorszej sytuacji ekonomicznej jednego kraju, rozkłada się na pozostałych członków unii. W konsekwencji wpływ słabszej sytuacji ekonomicznej danego kraju na dochody inwestorów jest łagodzony lepszą sytuacją firm z innych krajów o lepszej sytuacji ekonomicznej. Analogicznie jest w przypadku banków posiadających oddziały lub filie w różnych krajach unii. Ich straty w krajach recesyjnych z tytułu niewypłacalności pożyczkobiorców i kredytobiorców są kompensowane wyższymi dochodami w krajach wzrostowych [Kalemli-Ozcan, Sørensen, Yosha 2004, s. 5–7]. Przyjęcie jednolitej waluty oraz zniesienie ryzyka kursowego i kosztów transakcyjnych związanych z wymianą walut intensyfikuje przepływy kapitału między krajami unii monetarnej oraz prowadzi do szybkiego rozwoju lokalnych rynków finansowych i ich integracji w ramach jednolitego rynku finansowego. Jednolity rynek finansowy w Unii Europejskiej stanowi część składową jednolitego rynku wewnętrznego. Podstawą funkcjonowania jednolitego rynku finansowego oraz całego jednolitego rynku w UE są swoboda przepływów kapitałów, swoboda osiedlania się i swoboda świadczenia usług. Podstawowym czynnikiem determinującym proces integracji rynków finansowych krajów członkowskich Unii Europejskiej jest zasada tzw. jednolitej licencji. Oznacza ona, że instytucja finansowa (m.in. bank, towarzystwo ubezpieczeniowe, towarzystwo funduszy inwestycyjnych) może świadczyć usługi w innych krajach członkowskich na podstawie licencji (zezwolenia) na działalność finansową uzyskanej w kraju macierzystym, bez potrzeby uzyskiwania tam odrębnych zezwoleń. Jednakże jej działalność poza krajem macierzystym podlega jurysdykcji kraju goszczącego. Przyjęcie tej zasady wymagało ustanowienia minimalnych wymagań wobec instytucji finansowych, które obowiązują we wszystkich krajach członkowskich UE. Dotyczą one m.in. wyposażenia w kapitał i tzw. reguł ostrożnościowych. Utworzenie Unii Gospodarczej i Walutowej oraz wprowadzenie euro przyspieszyło w znaczący sposób integrację rynków finansowych w Unii Europejskiej. Przed wszystkim wprowadzenie jednolitej waluty wiązało się z eliminacją ryzyka kursowego najpierw w 11, później w 12, 15, 16 i 17 krajach UE. Umożliwiło to stworzenie wielkiego rynku finansowego charakteryzującego się wysoką płynnością. W niniejszym artykule przedstawiono analizę stopnia integracji wybranych rynków instrumentów finansowych na obszarze euro (rynku pieniężnego, giełdowego rynku obligacji skarbowych, giełdowego rynku akcji). Analizą objęto okres 1999–2010. Pozwoliło to na wstępne ujęcie wpływu kryzysu finansowego oraz kryzysu fiskalnego na kształtowanie stopnia integracji rynków pieniężnych, rynków obligacji skarbowych i rynków akcji na obszarze euro. 1. Definicje i miary integracji rynków finansowych Międzynarodową integrację rynków finansowych można zdefiniować w sposób wąski. Tutaj podstawą definicji jest prawo jednej ceny. Integracja rynków finansowych oznacza zatem realizację prawa jednej ceny. Oznacza to, że aktywa generujące identyczne przepływy pieniężne mają tę samą cenę (i stopę zwrotu) w krajach uczestniczących w unii monetarnej. A zatem, jeśli firmy emitują obligacje w dwóch krajach lub regionach, to muszą płacić odsetki według tej samej stopy procentowej posiadaczom obligacji z obu krajów (regionów). Analogicznie w przypadku akcji w dwóch krajach (regionach) cena kapitału pozyskiwanego na rynku finansowym poprzez emisję akcji powinna być taka Miscellanea 341 sama. Jeśli rozszerzymy ten tok myślenia na rynek kredytowo-depozytowy, to gospodarstwa domowe powinny pożyczać w obu krajach (regionach) na tych samych warunkach, niezależnie od lokalizacji banku [Adam i in. 2002, s. 4]. Zastosowanie powyższej definicji zawęża jednak pojęcie integracji do rynków o ujednoliconych zasadach emisji i notowań instrumentów finansowych. W rzeczywistości w skali międzynarodowej istnieje wiele odstępstw od prawa jednej ceny, choćby za sprawą restrykcji wyłączających z obrotu w niektórych krajach niektóre instrumenty finansowe. A zatem rynki finansowe nie są w jednakowym stopniu zintegrowane. L. Baele i in. [2004, s. 6–7] sformułowali szerszą definicję zintegrowanych rynków finansowych. Zgodnie z tą definicją „rynek danych instrumentów i/lub usług finansowych jest w pełni zintegrowany, jeśli wszyscy potencjalni uczestnicy rynku o jednakowych cechach: a) podlegają tym samym regułom, gdy zdecydują się na uczestnictwo w obrocie tymi instrumentami i/lub usługami finansowymi, b) mają jednakowy dostęp do tych instrumentów i/lub usług, c) są traktowani jednakowo, gdy działają na rynku”. Tak szerokie potraktowanie integracji rynków finansowych implikuje również działanie prawa jednej ceny. Prawo jednej ceny stanowi, że te same aktywa charakteryzują się identycznym ryzykiem i stopą zwrotu. Jeśli prawo jednej ceny nie jest spełnione, to istnieje pole dla arbitrażu, który przywraca ważność tego prawa (pod warunkiem braku barier integracji rynków finansowych, o których mowa dalej). Obie definicje integracji rynków finansowych opisują pewnien istniejący lub pożądany stan rzeczy. Jednakże mogą być także punktem odniesienia do oceny procesów integracji rynków finansowych oraz stopnia tej integracji. Z punktu widzenia segmentów rynku finansowego można wyróżnić następujące wskaźniki godne uwagi w analizie integracju rynków finansowych: a) wskaźniki rynku pieniężnego, b) wskaźniki rynku kredytowo-depozytowego, c) wskaźniki rynku obligacji skarbowych i korporacyjnych, d) wskaźniki rynku akcji. Natomiast z punktu widzenia konstrukcji wskaźników integracji rynków finansowych, które można w zasadzie zastosować do każdego z segmentów rynku finansowego, wyróżnia się: a) wskaźniki oparte na cenach i stopach zwrotu (price-based indicators, field-based indicators), b) wskaźniki oparte na wiadomościach (news-based indicators), c) wskaźniki ilościowe (quantity-based indicators). Wskaźniki te zostały szeroko opisane w literaturze przedmiotu (np. Adam [2002]; Baele i in. [2004]; Financial Integration in Europe [2011]). W niniejszym artykule przedstawiono te spośród wskaźników, które są najczęściej analizowane w badaniach dotyczących integracji rynków finansowych na obszarze euro oraz integracji polskiego rynku finansowego z rynkami finansowymi na obszarze euro. Wybór analizowanych wskaźników został podyktowany dostępnością danych statystycznych dotyczących rynku finansowego w Polsce, pozwalających na analizę porównawczą. Wskaźniki oparte na cenach i stopach zwrotu obejmują miary rozpiętości między cenami lub stopami zwrotu z aktywów na rynkach finansowych różnych krajów. Podstawą teoretyczną konstrukcji tych wskaźników jest prawo jednej ceny. Pozwalają one testować stopień, w jakim owo prawo jest realizowane w skali międzynarodowej. Jeśli aktywa mają 342 Miscellanea te same lub znacznie zbliżone cechy, to wówczas można stosować bezpośrednie porównania cen lub stóp zwrotu. W przeciwnym przypadku miary tego typu muszą odzwierciedlać również wpływ czynników specyficznych związanych z rynkami w poszczególnych krajach, różnice w poziomie ryzyka systematycznego, stopień płynności. Do wskaźników tej grupy należą: odchylenie standardowe przeciętnego oprocentowania niezabezpieczonych pożyczek międzybankowych, odchylenie standardowe przeciętnego oprocentowania depozytów bankowych, odchylenie standardowe przeciętnego oprocentowania kredytów bankowych, rozpiętość (spread) między stopami zwrotu (stopami procentowymi) z aktywów na danym rynku i aktywów przyjętych jako benchmark, spread dla obligacji korporacyjnych, korelacja stóp zwrotu z indeksów giełdowych. Wskaźniki oparte na wiadomościach rynkowych ujmują wpływ informacji dotyczących przewidywanych szoków na rynkach finansowych i związanego z tym ryzyka inwestycyjnego. Na w pełni zintegrowanych rynkach portfele inwestycyjne powinny być dobrze zdywersyfikowane. Informacje napływające z lokalnych rynków i ich tylko dotyczące nie powinny mieć większego wpływu na zmiany cen aktywów, w przeciwieństwie do informacji globalnych dotyczących całego zintegrowanego rynku, które w istotny sposób wpływają na zmiany cen. Stopień ryzyka systematycznego jest taki sam w różnych krajach, których rynki finansowe zostały zintegrowane. Wskaźniki tej grupy wskazują zatem, na ile informacje specyficzne dla lokalnego rynku finansowego są istotne dla pozostałych rynków w relacji do wpływu informacji o charakterze globalnym. Do tych wskaźników zalicza się: ewolucję współczynnika beta, wpływ wzrostu wspólnego komponentu informacji na stopę zwrotu z akcji, jak również wskaźniki wyprowadzone z modelu S. Hestona i G. Rouwenhorsta. Wskaźniki ilościowe służą do oceny stanu i przebiegu integracji rynków finansowych. Podstawą ich konstrukcji są dane o wolumenie, wartości lub udziale transakcji między krajami lub regionami. Stanowią one wskaźniki uzupełniające pozostałe miary integracji. Należą do nich m.in.: stosunek międzynarodowych inwestycji finansowych do krajowych aktywów finansowych ogółem, stosunek kapitalizacji zagranicznych spółek akcyjnych na danej giełdzie do kapitalizacji giełdowej ogółem, wartość obligacji skarbowych w posiadaniu podmiotów zagranicznych do wartości obligacji skarbowych ogółem, wartość transakcji transgranicznych w stosunku do transakcji ogółem. W niniejszym artykule zostały wykorzystane następujące miary stopnia integracji rynków finansowych: 11 integracja rynków pieniężnych – miary oparte na cenach, 11 integracja rynku obligacji skarbowych – miary oparte na cenach i miary oparte na wiadomościach, 11 integracja rynku akcji – miary oparte na wiadomościach. Konstrukcję zastosowanych w analizie miar stopnia integracji przedstawiamy poniżej. 1.1. Miary integracji rynku pieniężnego A. Odchylenie standardowe przeciętnego oprocentowania niezabezpieczonych pożyczek międzybankowych Dt = 1 n / (r - r ) 2 , n i = 1 i, t b, t Sm = r - r , i, t b, t i, t gdzie: m S i, t = yi, t annualizowana - yb, t, ri, t – średnia miesięczna (tygodniowa) stopa procentowa rynku międzyn bankowego w danym kraju (np. w Polsce WIBOR), 1 / ( y - yb, t) 2 , n i = 1 i, t DRi, t = ai, t + bi, t DRb, t + fi, t cov (DR , R ) D tB = v 343 Miscellanea rb, t – średnia miesięczna (tygodniowa) annualizowana stopa procentowa rynku międzybankowego przyjęta jako benchmark, i – kraj, n – liczba krajów, t – okres. Mniejsze odchylenie standardowe oznacza wyższy stopień integracji. n 1 / (r - r ) , w danym kraju (np. Dt = B. Spread między stopą procentową rynku międzybankowego n i = 1 i, t b, t w Polsce) a stopą procentową rynku bankowego przyjętą jako benchmark (np. na obszarze euro) S im, t = ri, t - rb, t, 2 S im, t = yi, t - yb, t, 1 n / ( y - yb, t) 2 , n i = 1 i, t n 1 obligacji 1.2. Miary integracji rynku Rskarbowych D + (bri, t D +2 f i, t = ai, t/ DR t= i, t - rbb,, tt) , i, t n i= cov vi, t t - 11(DRi, t, R b, t) A. Spread między stopą zwrotu z obligacji skarbowych w okresie do wykupu a stopą , = ti, b, t bim, t = S i, t =dori,wykupu rb,t zwrotu z obligacji skarbowych w okresie Var (Rb, t) jako benchmark: vb, t tt, 1przyjętą S im, t (=DR yi,it, tVar ) =yb,bt,2i, t Var (Rb, t) + Var (fi, t) . oznaczenia jak wyżej. D tB = 21 n gdzie: / ((yDi,Rt -b, t)yb,, t) 20, G VRi, t G 1. D tB == bi, t Var VR i, t n i = (1DR ) yi, t – średnia miesięczna (lub tygodniowa) annualizowana stopa zwrotu w okresie do Var i, t n ai, t + bi, t DRb, t + fi, t wykupu w kraju i w okresie t,DR1i, t = r 2/ (bi, t + do/ = ((annualizowana ar, zwrotu br, t D t D i, t) +w okresie Dttygodniowa) rai, it, t-+(rD = DRi, t/ ) , yb, t – średnia miesięczna (lub stopa , b t R R cov , ) vi, t r ! {AA + ,...A} , t + b,... , t A} t - 1 r ! {iAA n , = ti, b, t bi, t =i = 1 wykupu przyjęta jak benchmark. m Ri, t = ni, tVar + ft i-, t1 (Rb, t) vb, t S i, t =zwrotu ri, t - rz obligacji b, t, us B. Odchylenie standardowe stopy skarbowych w danym kraju i stopy eRi, it, + fVar beut f2i, eu Rib, ,t tf)us+, t Var (fi, t) . ( D , t +(b i, t = m t) =i,b t Var zwrotu z obligacji skarbowychS przyjętej jako benchmark: y y = , i, t b, t i, t 2 (beu ) 2 v2 + (bius, t ) 2 v2us, t vi2, t =n hni,bt + , t,)t i, t Vari, (t DRbeu 1 B VR1i, t = 0 G VRi, t G 1. eu r2 y)2 2 ,) 2 , , //(r(i(,btyVar DDt = b, ,it,t t) ; 2 t = R Dt eu ii,, tt) b(,v eu n n VR ii, =t i= = ti, eu, t, r 1= 1 2 / / br, t D oznaczenia jak wyżej. = b(a + DRaii,,t + ar, t D i, t) + (bi, t + mR = v R D D + f , i t , i t , , , i t i t b t i, t S i, t = ri, t - rb, t, ! + ! + ,...A} { ,... } { r AA A r AA 2, R2 ) covust - 1 ((DbRus vi, t C. Ewolucja współczynnika b m b, ,t t i, ti,)ft vus 2 R = + n Sbi,i,t t==yVR y , , = t t b i, t i, ti,na =, t i, t obligacji = tii,, us b,,tt . w danym kraju jest Jeżeli przyjąć założenie, że ryzyko skarbowych , trynku iVar vb, t eu us b2, t) n t - 1 (R v e = + + f b f b f , i t 1 identyczne jak w kraju lub obszarze przyjętym za punkt odniesienia, B i, t i, t 2 i, t eu, t2 i, t us, t to można skonstru/ ( iy, it,Var DVar y(bR,s.2t) 18–19]: , K Var (us (DR fi, t2) . 2 tJ - eu t = 2i,n ować następujące równanie regresji [Baele 2004, t) = ibin. b, t)2 + i =h1i, t + (bi, t) veu, t + (bi, t ) vus, t = v , i t Rit = 2 a + / b j Iij + / ck Cik + eit, euR Rb2, t)2+ f , 1 DRi, t = abi, it, + D b (D t Var VRi, t = eu i(, bt j i=, t)1 b,vt eu, , t i0,kt = G 2VR G 1. J VR ti,Var (DRRi, it,, tR ) b, t) = ti, eu,ivt,,ti, t cov (D t 1= 2 gdzie: , bi, t = / b j w j = 0v , i, t = ti, b, tr ) vt)b+ / / br, t D ir, t) D Ri, t = D (1Var (bi, t + ai, t t+ a DRi, t – zmiana stopy zwrotu D w kraju t, j =i w czasie - 1 (R , , t b t , r t , i us 2 2 + ,..., tA} r ! {AA + ,...A} (rb!i{, tAA ) v K us ai, t – stała, Var (Rus = + Var b2i, t Var = t2i, us(, ft .i, t) . , t)ic b, t) = , t Ri, (t D =RVR + niw kraju f w 0 , = 2 bi, t – współczynnik beta w czasie t/ i w odniesieniu do wielkości beta przyjętej i, t k ki, t vi, t 2 1 Var k= eu us R ( ) D b jako benchmark, b, t ,t b f fi, t ==ei, t i+ i, t euJ, t + b , i, t 0fusGK, tVRi, t G 1. i, t DRb, t– zmiana stopy zwrotuVR przyjętej jako benchmark, Var R ( ) D eu 2 2 2 2 k 2Cik + eit, Rit = a+ / i, t b j Iij + / + (szok vi,kraju bius, t )c v fi, t – specyficzny dla danego ekonomiczny. , t + (bi, t)j =v t = hi(idiosynkratyczny) k = 1 r us, t 1 eu, t / br, t D ir, t) DR DRi, t = (J ai, teu+ 2 2 / ar, t D i, t) + (bi, t + ( ) b v , t + ,... A2} i, t r ! eu eu + ,...A1 {AA } r ! {AA Współczynnik bi, t równy 0VR oznacza brak współczynnik równy /+ = 0, = tinatomiast b j w j2integracji, , eu, t, i, t = Ri, tze= nj = f oznacza pełną integrację. Wraz wzrostem stopnia integracji wartość a zmierza do 0, i, t1 vi,it, t i, t us co wynika z faktu, że przy w pełni rynkach zmiany stopy zwrotu w danym useu2f 2 + ei, tK+ fi, t =zintegrowanych b b f , t, t euus i,)t v i, t2 us, t us /(b 0, cik, tw k= VR eu 2 i, t = 2 2 = ti, us,us t. 2 2 2 vi, t = hki,=t + 1 (bi, t) veu, t + (bi, t ) vus, t vi, t (bieu, tJ) 2 v2eu, t K2 VR eu = , =t Dt = 1 / (r - r ) 2 , n i = 1 i, t b, t S im, t = ri, t - rb, t, 344 Miscellanea S im, t = yi, t - yb, t, n 1 2 kraju nie mogą być większe, niż w kraju / (przyjętym D tB = yi, t - yb, t)jako , benchmark, a zatem ai, t powinno n i = 1 rynkach być bliskie 0 na wysoce zintegrowanych finansowych. Współczynnik bi, t można DR obliczyć = a +za DR +formuły: b pomocą f i, t i, t i, t b, t i, t covt - 1 (DRi, t, Rb, t) vi, t , = ti, b, t bi, t = Vart - 1 (Rb, t) vb, t 2 Var (DRi, t) = bi, t Var (Rb, t) + Var (fi, t) . gdzie: vi, t – odchylenie standardoweb2stóp zwrotu w kraju i, i, t Var (DRb, t) vb, t – odchylenie standardowe VRi, t = dla aktywów przyjętych , 0 G VRzai, tbenchmark, G 1. Var (Dstopami Ri, t) zwrotu z aktywów ti, b, t – współczynnik korelacji między w i-tym kraju i w krar ju lub obszarzeDprzyjętym punkt odniesienia. / / br, t D ir, t) DRb, t + Ri, t = (ai,jako D ) ( + + a b t r, t i, t i, t + {AA + ,... A} r ! {AA + ,...A} Jeśli integracja rynków finansowychr !wzrasta, wówczas współczynnik korelacji powiR = + n f , , , i t i t i t nien zmierzać do 1, zaś zmienność stóp zwrotu w danym obszarze (mierzona odchylen 1 eu us2 niem standardowym) powinien , us, t właściwego w kraju przyjętym za = ei, tzmierzać +/ +rpoziomu fDi,tt = bi, (t frieu , tdo b,bt)i, t f , t n in=b1 powinna zmierzać punkt odniesienia, stąd też wartość do 1. Zmiana wartości tego 1 + (bi,eut ) 2 v2 + 2 (bus) 2 v2 = hważnej vi2m, = , i t , , , ,t t i t eu t i t us / D r r ( ) , wskaźnika w czasie dostarcza informacji na temat procesu integracji rynków fiSti, t = ri, tn- rb, t,i, t b, t eu1 2 2 i= nansowych. (bi, t) veu, t eu Smim, t= =rynków =yi, t - ybfinansowych = t2i, eu , t, Wzrost stopnia integracji powoduje, że DRi, t, objaśniane przez , t, SVR i, t i, t ri, t - rb, t,2 niprowadzi v DRb, t, zmierza do 1. Proces integracji do zmniejszania się skali szoków ekono, t 1 SDim, ttB==a zatem yi, t - us y/ - ybędzie ) 2 , zmierzał do 0. Przy pełnej integra2t, ( 2yi, t f b,wyraz micznych idiosynkratycznych, , b t (bni,itn)= 1vus, t i, t 2 us cji rynków finansowych jedynie wspólne VR = ti, us2 , t .rynków wiadomości mogą zmieniać 1 2 dla wszystkich B i, t = Rby,bt, + D + b f,i, t / (t yizałożeniu v , it, D i, t = ai, tprzy tt)identycznego tR= stopy zwrotu z aktywówD (oczywiście ryzyka systematycznego), , i n i=1 R R cov ( , ) D vi, t J1 Kb, t a wówczas stosunek wariancji stóp zwrotu nai, trynkach poszczególnych krajów powinien być t R Rb,/ + bbi, It Dw kraju + f= a , = 1 n stópDb t= t/ i, t t bjest , teit,wzorem: iit, it,= Rzwrotu +i,Var + 2a z aktywów równy 1. Wariancja j (ijR k Ciki,+ )t ci dana v Dt = / (ri, t - rb, t) cov , j = 1t - 1 (DR b, kt = 1 vi,bt, t t - 1 2 i, t, R b, t) = = bVar t J , b, t (fi, t), . i, t (DR t) = bi, t Var (Rb, t) + iVar vb, t t - 1 (Rb, t) S im, t = ri, t - rb, t, / b j w ji,=Var 0 , 2 2 Var R ( ) D b Stosunek wariancji przyjmuje postać: j = 1(DR b, t i, t +GVar i, t) = bi, t Var (Rb, , t) 0 t) .1. VR VR(if, ti, G S im, t = yi, t - yb, t, Var K i, t = Var R ( ) D 2 / c= 0, (DRi,bt, t) , t Var 1 n k w2b k i= r G 1. / ( yi,VR D tB = y ) , /, 0 aGr, VR / br, t D ir, t) DRb, t + i1, t = (ai, t + kD=R t D ii,, tt) + (bi, t + (Dr R ) n i = 1 t i,bt, t Var t + ,... A} ! {i,AA r ! {AA + ,...A} n i=1 fi, t zbliżona / do /1, a zmienDRRib,it, t==n(VR ar, 1, br, t D i, t) DRb, t + , tti+ i, t i, t i, t wariancji ii,a ,t + t Djeśli i, t + i , t) + Wartość proporcji bi,(tbzmierza do i, t jest ! + ! + { ,... } { ,... } r AA A r AA A eu us covt - 1aktywów (DRi,ft, Rna ność stóp zwrotu krajuvii oraz rynku przyjętym jako punkt odniesienia, ,t , t)rynku b= ei= ,t + bi, t = tib,fbii,, ttfeu, t ,+ bi, t fus, t Rii,, tt = n i, t + mierzone wariancjami, są podobne. Vart - 1 (Rvb,2t) = h + (eubeuv)b2, vt 2 us+ (bus) 2 v2 t b f i, t e i,+ i, t eu, t i, t us, t o ryzyko związane z dłuEwolucję współczynnika 2 fi, t = beta i, t można t + bi, t fskorygować us, t i, t eu,również eu 2 2 Var R Var R Var ( ) ( ) ( ) . = + D b f , t b obligacji bratingi i, t giem rządu,i, tuwzględniając Jest to istotne szczególnie 2i, t, t2 skarbowych. )euv) eu , tb i( eu h (+ (bius, t,) 2 v2us, t vi2, t = veu= ,t+ i, t stanęły t2ina w ostatnim okresie, niektóre kraje granicy niewypłacalności. Wówczas , , i, t =i, t eu t ) DRVR b2i, t Var (kiedy b, t euVR 2 v22iv VRi, wyżej 0 , G , it, t G 1. podane równanie przyjmuje postać: ( ) b t= , , i t eu t eu 2 DR = a + b DR +f r r Var (DRVR 2 2 = ti, eu, t, i, t) i, t = (bus i,v t )2r vus, t us , i VR = /i, t ar,ust D22i,t t)2 + (=bi,tt +2i, us, t . / br, t D ir, t) DRb, t + fi, t, DRi, t = (ai, t + r ! {AA + ,... A}(b )viv r ! {AA + ,...A} ,t i, t us, t us = tK2i, us, t . J Ri, t r= ni, t + fi, t VR i, t = 2 gdzie Di, t – zmienna zerojedynkowavdla i w czasie t. Jest to szczególnie Rit =usa + /i,bt j Iratingu + /rcw kraju eu k Cik + eit, istotna miara do badania stopnia integracji obligacji skarbowych w okresie kryfi, t = ei, t + bi, t feu, t + bi, t fus, tjJ= 1 ij rynków kK= 1 zysu finansowego i fiskalnego euro, ponieważ tam obecnie znacz2 b 2I + J = ana obszarze /emitowanych + us/ ck Cik + ewystępują vi2, t = hi, t + (bieu, t) 2R vit2eu j ,ijt it, , t + (bi, skarbowych t ) vus ne różnice stóp ryzyka / obligacji przez poszczególne kraje b j w j =j =01, k=1 eu 2 2 = członkowskie tego obszaru. j 1 ( ) b v J i, t eu, t 2 VR ieu, t = K=btw i, eu, t, / 2 j j = 0, vi, t j =/ 1 c k w k = 0, us 2 2 kK= 1 ( ) b v i, t us, t /=ctk2iw, usk, = 0 VR us i, t = t. , 2 vi, t k = 1 1 n / (r - r ) 2 , n i = 1 i, t b, t Miscellanea Dt = 345 S im, t = ri, t - rb, t, 1.3. Miarymintegracji rynku akcji S i, t = yi, t - yb, t, A. Miary oparte na wiadomościach 1 n Zgodnie z definicją integracji rynków D tB = akcji za miarę yb, t) 2 , przyjmuje się wzrost ( yi, t -integracji n i stopy wpływu wspólnego komponentu informacji na zwrotu z rynku akcji [Baele i in. =1 / 2004, s. 19–21]. DR1i, tn= ai, t + bi, t DRb, t + fi, t 2 Do pomiaru integracji rynków stosuje sięrbmodel, który jest rozszerzoną wersją Dt = akcji / (ri, t , t) , cov vi, t t - 1 (DRi, t, Rb, t) n = i 1 modelu stosowanego w przypadku rynku , rynku akcji = ti, b, t bi, t =obligacji skarbowych. W przypadku Vart - 1 (Rz głównych vb, tświatowych). b, t) znaczący jest wpływ czynników (wiadomości rynków S im, globalnych t = ri, t - rb, t, 2 Można przyjąć, że tymi globalnymi czynnikami o kształtowaniu się stóp (DRi,, t) =sąbiinformacje , t Var (Rb, t) + Var (fi, t) . S im, t = yVar i, t - yi na obszarze b, t zwrotu z akcji w Stanach Zjednoczonych euro. Im wyższy jest poziom inte2 n lokalnych Rb, t) na kształtowanie się stóp bi, t Var (Dzakłóceń gracji rynków akcji, tym mniejszy jest wpływ VR1i, t / = ( y - y ) 2 , , 0 G VRi, t G 1. D tB = ,większy , t jest iVar t (DbR zwrotu z akcji w poszczególnych krajach, a tym wpływ czynników globalnych i, t) n i=1 (informacji i sygnałów płynących ze Stanów Zjednoczonych i obszaru euro). Model / +b, t + f/ ar, t D ir, t) + (bi, t + DRi, t =DaRii,,t t+=b(i,at D i, t R i, t przyjmuje następującą postać: br, t D r ! {AA + ,... A} r ! {AA + ,...A} covt - 1 (DRi, t, Rb, t) vi, t , bi, t =1 Rni, t = ni, t + fi2, t , = ti, b, t Var vb, t Dt = (ri, tt--1 (rbR, tb)eu , t), us gdzie: nfi, t1= ei, t2+ bi, t feu, t + bi, t fus, t Var (DRi = Var (Rb, t) + Var (fusi, i w czasie i, t) = bi, tgiełdowego) t)2. 2 Ri, t – stopa zwrotu z rynku t, m akcji (z indeksu hi, t + (bieu, t) 2 v2eu, w kraju vri2,bt,2t= S r = , t + (bi, t ) vus, t , i t , i t ni, t – składnik oczekiwany stopy zwrotu, bi, t Var (DRb, t) = ,eut, (bieu, t) 2 v,2eu, t0 G VR fi, t – składnik nieoczekiwany S im, t VR = yi,stopy i , t G 1. i,tt - ybzwrotu. VR Var =(DRi, t) = t2i, eu, t, 2 ni, t 1 v r Składnik nieoczekiwany (f czysty szok lokalny ei, t nab D r ) DR = (ai,(t nzdekomponować + D tB D yi, t - yb, it,)t 2 , ar,na =R i, it,)t można t D i, t) + (bi, t + r, t i, t us 2 2 i w czasie n i =1 1 danego giełdzie kraju i w czasie t, reakcję giełdy kraju t na informacje + + ,...A} ,... } r(!b{AA A r ! {AAz giełd ,2t, i,t ) r vus us 2 D r = ( ) , , t i t b t VR = tiamerykańskich): obszaru euro (feu, t) orazDinformacje globalne , us, t . , ti,= f , t R(f RiR ain b t)f(z giełd ,n t= t i+ , t i,= , t i+ b, us, t+ i, t i = t1iD v2i, t us eu = et - + fi,im,t cov bRif, t, Rb+ , vi, t , t) bi, t fus, K 1 (D , = t = rii,,tt - rbi, t , eu, Jt = ti, b,t t bi, t S eu us 2v 2m 2 2 Var (R Rit + = + + cvbk,2tCik + eit, - 1(ya tb), t)v b j I+ ij h ( ) = v b b eu us S y = , i, t kraju , t informacje i,i,tt eu, t us, t b,it, t i w czasie gdzie: b i, t i bi, t oznaczają wrażliwość tkina dotyczące stóp =1 2 2 2j = 1 eu nVar Var (DRi,euro R Var )= ( ) ( ) . + b f zwrotu odpowiednio na obszarze i w Stanach Zjednoczonych. J , , t b t i t , i t ( ) b v 1i, t 2 D tBieu, = yi,,0tt,(=eu VR =ytb,2i,t)eu,,t, 2 b (j w tb= j 2 Var R ) D n Dla porównania związku między szokami na obszarze euro i w Stanach Zjednoczonych b, t i, t VRi, t = j = 1 iv=i,1t , 0 G VRi, t G 1. a stopami zwrotu w poszczególnych krajach oblicza się współczynnik wariancji, tj. proVar DRi, t = +R2bi, it2,)t DRb, t + fi, t Kai( tD (b,us ) vus, t kraju2 wyjaśnianą przez szoki na obsza, i t porcję zmienności stóp zwrotu na danego us rynku ck w(kD= r =cov Ri0, t,= , Rt ,D t(a t . i, t) + (v DRiVR bi,i,tt + br, t D ir, t) DRb, t + ,it,) t-1 ba ,bt =i,= , t= t+ rus rze euro i w Stanach Zjednoczonych. 1 v2 ki,= , t , , i b t i, t ! {AA + ,...A} r ! i{, AA t (+R,... A)} vb, t r (nie Zakładając, że szoki lokalne w krajuVar i mają idiosynkratyczny są skorelot - 1 charakter b, t J K R = + n f , , , i t i z i tindeksami 2 wane z szokami w innychi t krajach na obszarze euro oraz w Stanach Var (DaR+ +ikVar bji,ItijVar R +us(Rbc, tk) C + e(itf,i, t) . i, eu t) = b it = Zjednoczonych, przyjętymi odniesienia), można obliczyć wariancję dla kraju i: = epunkt + + fi, tjako b f b f 1 ,t 1, t i, t i, jt = eu i, kt =us b2i,eu t Var J 2 2 (2DRb, t) us 2 2 GusVR = hi,i,tt = + (bi, t) veu, t + (b, i, t )0 v vi, t VR , t , i , t G 1. 0, (DRi, t) b j w j =Var j = 1 (beu ) 2 v2 gdzie: r i, t eu, t eu 2 + = tlokalnych, br, t D ir, t) DR VR = i, t = (a2i, tszoków i,D tKR i, eu, t, ar, t D i, t) + (bi, t + hi, t – wariancja warunkowa składnika r ! {AA + ,...A} ck wk v=i, t0, r ! {AA + ,... A} v2eu, t – wariancja warunkowa euro, nusi, t2+obszaru f =i,dla kR 1t =rynku 2 i, t i, t ) vamerykańskiego. us v2us, t – wariancja warunkowa dla(b rynku eu, t = t2 us. VR us = b, t f , , ti, t = ei, t + if i, us 2 bi, t feu, t + vi, t eu 2 2 i, t usust 2 2 2 Proporcja wariancji względem obszaru euro ma postać: vi, t = hiJ, t + (bi, t) Kveu, t + (bi, t ) vus, t 2 Rit = a + (bbeuj I)ij2+ ck Cik + eit, i, t veu, t 2 k = 1= t VR ieu, t =j = 1 i, eu, t, 2 J vi, t b j w j = 0, us 2 2 (bi, t ) vus, t j=1 VR us = t2i, us, t . i, t = K 2 ck wk = 0, vi, t J K k=1 / / / / / / / / / / / / / / / / / / / / / / Ri,mt = ni, t + fi, t S i, t = ri, t - rb, t, fi, mt = ei, t + bieu, t feu, t + bus i, t fus, t S i, t = yi, t - yb, t, eu 2 2 2 vi, t = hi, t +1 (bni, t) veu, t + (bius, t ) 2 v2us, t 346 / yi, t - yb, t) 2 , D tB = (Miscellanea bnieu, ti)=21v(2eu ,t eu VR i, t = = tn2i, eu, t, 2 DRStanów + DR11b, tn+ ma a proporcja wariancji względem postać: vi,b i, t = ai,Zjednoczonych tD t i, t / ((frriii,,,ttt = - rrb, t)) 22 ,, tt = / D b, t v n us 2 2 covt - 1 (DRi, t,nRiib= = , t11) i, t us= (bi, t )mvus, t 2 = ti, b, t , b , i t VR i, t = Var . = t m , , i us t R ( ) v S i2,t = b, t t rrb, t,, 1 rri,bt ,S i, t b, t vim,i,ttt = Var (DRi, t) JS (KRyybb,,tt),, + Var (fi, t) . =m b2i= S , t Var yyii,,tt b, t ii,, tt = Wariancje warunkowe dla obszaru euro, Zjednoczonych Rit = a +b2/Var I(D / + b jStanów cnn k Cik + eit, i lokalnego rynku ij 1 R ) bk, 1 t 1 asymetrycznego ij,= t 1B giełdowego są otrzymywane ze = / ((0yyGii,, tt VR D tB = = modelu - yyib, t, tG ) 22 1,, . GARCH(1, 1). VRstandardowego ,/ D i, t = b, t)wpływu t (DR (wyższy n Im wyższa jest wartość współczynników wariancji stosunek szoków obJ Var ) = i 1 i, t n i = 1 szaru euro lub globalnych – Stanów w stosunku do wpływu / 0 , = b j w Zjednoczonych) r Ri, t = DR =a + b , tD DR ++ff(i,bt + szoków a / / lo- br, t D ir, t) D Dbbi,, tt)+ DRi, t =j (aiD , tr, t R i, t ii,,tt + biia i, t i, t ,t + j = 1 integracji kalnych, tym wyższy jest stopień rynków akcji. ,...1 A } Ri, t, Rb, t) r ! {cov AA +t r! (D v{i,AA t + ,...A} K = covt - 1 (DRi, t, Rb, t) = =t bif, t = ti, b, t vi, t ,, b R = + n B. Efekty krajowe vs. efekty sektorowe i, b, t v /i, tck wki,=t 0,i, ti, t Vart - 1 ((R Rb, t)) Var v b, tt b, specyficznego t ust - 1 Jeśli rynek akcji jest bardziej wpływ czynnika dlab, danego k = 1zintegrowany, 2 + fi, t = ei, t + Var bieu, t f(D b f ,t ) = euR t i, tb2us,Var Rb, t)) + Var ((ffakcji ) . stopy + kraju na stopy zwrotu z akcji powinien się obniżyć. pełnejVar integracji rynków Vareu(D2RPrzy Var ((R ii,,tt) = bii,, ttus b, t ii,, tt) . ((bDi, tR ) 2 v)2us, t sektora gospodarki, +ekonomiczne vi2, t = hi, t + (przez bi, t) wyniki vb2eu22, tVar zwrotu z akcji są głównie zdeterminowane b i, t Var (DRbb,, tt) , kraju, 2= i, t 2i, tdotyczące do którego owe akcje należą, a nie przez wyniki w którym VR VRi, t G G VR G 11akcje VR , 00 G .. =, t Var2 gospodarki (bieu t eu i, t , t) i,v Rgospodarki (D DR eu i,, tt)) Var ( są notowane. Relację międzyVR wpływem sektora i wpływem danego kraju na , = = t i i, t i, eu, t 2 r kształtowanie się stóp zwrotu z akcji można zbadać m.in. za pomocą modelu Hestona r v / / R D ( ) ( = + + + D a a b /+ ,...z każdej / DRi,ii,,t tt = (aii,,tt + arr,, tt D ii,, tt) + (bii,,tt + i Rouwenhorsta [1995, s. 53–58]. Model tenuszakłada, że stopa akcji R skła! {zwrotu ! +,... {AA } { ,...A rr ! AA + A r AA A 2 2 it ,... A} r ! {AA + (biczynnik , t) v us,ntwpływu us 2f wszystkich stóp zwrotu a, efekt da się z czterech komponentów: R = + VRwspólny . = = t , , , i t i t i t Ri,2t = ni, t + fi, ius i, t , t, t wpływu sektora bj, efekt kraju ck, specyficzne na poziomie eu us przedsiębiorstw eit: vi,zakłócenia t e + beu = +b f bus fus, t i, t f f i, t = e i, t + b i, t ffeu, t + Ji, t i, t K i, t eu, t i, t us, t us 22 22 22 e + hi, t + = + v2i2, b bus vus, t Rit = a + / /((bbcieuieuk,, tt))C22ikvv+ , ((b t= eu,, tt it+ i,,tt)) v v j Iijh+ , i t , i t eu i us, t j=1 k= eu1 22 22 eu ( ) b v i, t eu, t eu J VR eu = (bi, t) veu, t = =t t22i, eu, t,, gdzie: 2 i, eu, t / 0, ii,, tt = b j w j = VR 2 vi,wartość Iij – zmienna zerojedynkowa dla sektora, przyjmująca 1, jeśli akcja i należy do v i, tt j=1 us 22 22 sektora j i 0 w przeciwnym K przypadku, ) v bus vus, t us 2 ((b ii,,tt)wartość us, t =1,tjeśli us Cik – zmienna zerojedynkowa dla kraju, przyjmująca i należy do VR = / ck wk =VR 0, ii,, tt = us,, tt akcja .. = t2ii,, us 2 2 vi, t kraju k i 0 w przeciwnym k = 1przypadku. v J i, t K J K Dla estymacji efektu gałęzi i efektu kraju Rit = / bb jjjest / cckk CCikik + , =niezbędne +/ +wprowadzenie + eenastępująa+ R IIijij + / a it itit, cych dodatkowych ograniczeń: j=1 k=1 JJ j=1 k=1 / bb jj ww jj = = 00,, / = 11 jj = K K = 11 kk = / cckk wwkk = = 00,, / gdzie: wj i wk oznaczają odpowiednio udział kapitalizacji giełdowej gałęzi i kraju w próbie. 2. Stopień integracji rynków pieniężnych Rynki pieniężne na obszarze euro charakteryzują się najwyższym stopniem integracji na tle pozostałych rynków finansowych. Wynika to przede wszystkim z wprowadzenia wspólnej waluty oraz likwidacji ryzyka kursowego i kosztów transakcyjnych związanych z wymianą walut, a także z wprowadzenia jednolitej polityki monetarnej w 1999 r. Głównym graczem na rynku pieniężnym strefy euro jest Europejski Bank Centralny, dbający 347 Miscellanea o względną stabilność krótkoterminowych stóp procentowych na rynku bankowym, kształtujących się w ramach marży wahań wyznaczonej przez stopy referencyjne od kredytów (marginal lending facility) i depozytów (marginal deposit facility) (rys. 1). Ry s u n e k 1 Podstawowe stopy referencyjne EBC w latach 1999–2009 (w %) 6,0 5,0 4,0 3,0 2,0 1,0 20 1. .0 01 .0 1. 20 09 08 07 01 .0 1. 20 06 01 .0 1. 20 05 Kredyty 01 .0 1. 20 04 01 .0 1. 20 03 01 .0 1. 20 02 01 .0 1. 20 01 Depozyty 01 20 1. .0 20 00 01 1. .0 01 01 .0 1. 19 99 0,0 EONIA Źródło: Opracowanie własne na podstawie danych EBC (Statistical data warehouse, http://sdw.ecb.europa.eu). Integracja rynku pieniężnego jest niezwykle istotna z punktu widzenia transmisji impulsów pieniężnych i skuteczności polityki monetarnej w ramach Europejskiego Systemu Banków Centralnych. Ry s u n e k 2 Odchylenie standardowe przeciętnego oprocentowania niezabezpieczonych pożyczek międzybankowych w krajach obszaru euro w okresie styczeń 1999–maj 2010 r. w punktach bazowych (dane na koniec miesiąca) 140,0 120,0 100,0 80,0 60,0 40,0 20,0 0,0 1998 1999 2000 2001 2002 O/N 2003 2004 2005 2006 2007 2008 2009 2010 1M 12 M Źródło: Opracowanie własne na podstawie danych EBC (Statistical data warehouse, http://sdw.ecb.europa.eu). 348 Miscellanea W latach 1999–2010 nastąpił wyraźny spadek wartości odchylenia standardowego niezabezpieczonych pożyczek O/N, 1-miesięcznych i 12-miesięcznych na rynku między krajami obszaru euro (rys. 2 i 3). W okresie od lutego 2007 r. nastąpił jednak wzrost wartości tych wskaźników. Było to związane ze zróżnicowaniem ryzyka oraz asymetrycznym spadkiem płynności finansowej instytucji finansowych w poszczególnych krajach obszaru euro w związku z kryzysem finansowym, którego wpływ na rynki międzybankowe był asymetryczny i zmniejszał stopień integracji rynków pieniężnych. Podobne zjawisko można było zaobserwować na rynku repo. Ry s u n e k 3 Odchylenie standardowe stóp procentowych repo między krajami obszaru euro w latach 2003–2010 (dane na koniec miesiąca) w punktach bazowych 7 6 5 4 3 2 1 0 2003 2004 1M 2005 2006 2007 2008 2009 2010 12 M Źródło: Opracowanie własne na podstawie danych EBC (Statistical data warehouse, http://sdw.ecb.europa.eu). Na rynku repo nastąpił wyraźny wzrost stopnia integracji od 2003 r. i jego destabilizacja od 2007 r. Podobnie jak w przypadku pożyczek niezabezpieczonych, i tutaj wyraźny był wpływ wzrostu ryzyka oraz spadku płynności finansowej związanego z kryzysem finansowym. Sytuacja na rynkach pieniężnych poprawiła się i nastąpił ponowny wzrost stopnia integracji po przeprowadzeniu przez EBC trzech jednorocznych długoterminowych operacji refinansowych (one year LTRO – longer term refinancing operations) i dodatkowych form rozszerzonego wsparcia kredytowego (enhanced credit suport) dla banków krajów obszaru euro. Pierwsza operacja została przeprowadzona 7 maja i 25 czerwca 2009 r. na łączną wartość 442 mld euro i objęła 1121 banków. Druga operacja o wartości 75 mld euro miała miejsce 30 września 2009 r. i objęła 589 banków, a trzecia – 16 grudnia 2009 r. i objęła 224 banki; jej wartość wyniosła 97 mld euro [Financial Integration... 2010, s. 11–12]. Operacje te spowodowały znaczny spadek stóp procentowych zarówno na rynku pożyczek niezabezpieczonych, jak i na rynku pożyczek zabezpieczonych. EONIA obniżyła się do poziomu stopy oprocentowania depozytów w EBC (marginal deposit facility). W rezultacie w końcu 2009 r. 3-miesięczny EURIBOR obniżył się z około 1,2% do 0,7%, a 12-miesięczny EURIBOR z 1,58% do 1,25% [Financial Integration... 2010, s. 12). 349 Miscellanea 3. Stopień integracji giełdowego rynku obligacji skarbowych Rynek obligacji skarbowych jest drugim po rynku pieniężnym najwyżej zintegrowanym rynkiem na obszarze euro. Wskazuje na to analiza miar integracji rynków obligacji skarbowych (rys. 4, 5, 6). Ry s u n e k 4 Ewolucja współczynnika beta i stałej skorygowanych o ryzyko dla 10-letnich obligacji skarbowych krajów obszaru euro w latach 1998–2010 (dane miesięczne) 0,20 0,15 0,10 0,05 0 1998 1999 2000 2001 2002 2003 2004 2005 2006 2007 2008 2009 2010 –0,05 –0,10 Stała Beta Dane dla współczynnika beta zostały znormalizowane przez odjęcie od każdej wielkości beta wartości 1. Źródło: Opracowanie własne na podstawie danych EBC (Statistical data warehouse, http://sdw.ecb.europa.eu). Ry s u n e k 5 Średnia odległość stałej od wartości oznaczającej pełną integrację dla 10-letnich obligacji na obszarze euro w latach 1998–2010 0,14 0,12 0,10 0,08 0,06 0,04 0,02 0 1998 1999 2000 2001 2002 2003 2004 2005 2006 2007 2008 2009 2010 Źródło: Opracowanie własne na podstawie danych EBC (Statistical date warehouse, http://sdw.ecb.europa.eu). W latach 1999–2010 nastąpił wyraźny wzrost integracji rynków 10-letnich obligacji skarbowych. Jednakże nie był to proces stabilny. O ile od połowy 2000 r. do końca 2007 r. stała była równa lub zbliżona do 0, o tyle w latach 2008–2010 nastąpiło wyraźne odchy- 350 Miscellanea lenie stałej od tej wartości. Współczynnik beta ewoluował w kierunku wartości 0 w okresie od 1999 r. do końca 2003 r., następnie odchylił się od 0 w okresie od stycznia 2004 r. do października 2007 r., kiedy ponownie na krótko powrócił do wartości 0. W okresie od listopada 2007 r. do października 2010 r. nastąpiło wyraźne odchylenie obu wielkości od wartości 0. Przyczyną był wpływ kryzysu finansowego, który spowodował wzrost ryzyka i rentowności obligacji skarbowych w niektórych krajach obszaru euro (Portugalia, Hiszpania, Grecja). Ry s u n e k 6 Średnia odległość współczynnika beta od wartości oznaczającej pełną integrację dla 10-letnich obligacji na obszarze euro w latach 1998–2010 1,2 1,0 0,8 0,6 0,4 0,2 0 1998 1999 2000 2001 2002 2003 2004 2005 2006 2007 2008 2009 2010 Źródło: Opracowanie własne na podstawie danych EBC (Statistical data warehouse, http://sdw.ecb.europa.eu). Analiza kształtowania się średniej odległości stałej i współczynnika beta od wartości oznaczających pełną integrację wskazuje na wzrost integracji rynków obligacji skarbowych w latach 2000–2007 i znaczny spadek stopnia integracji w okresie od połowy 2007 r. do października 2010 r. (rys. 5 i 6). 4. Stopień integracji giełdowego rynku akcji W latach 1998–2010 nastąpił znaczny wzrost stopnia integracji rynków akcji krajów obszaru euro. Jak wynika z rysunku 7, w latach 1998–2006 wystąpił znaczący spadek odchylenia standardowego stóp zwrotu z indeksów giełdowych. Jednakże w latach 2007–2009 nastąpił wzrost odchylenia standardowego, na co wpływ miała recesja i kryzys finansowy. Na kolejnych rysunkach (8 i 9) przedstawiomo wyniki analizy stopnia integracji rynków finansowych przeprowadzonej za pomocą miar opartych na wiadomościach. Analiza ich treści wskazuje na wzrost stopnia integracji rynków akcji krajów obszaru euro po utworzeniu UGW. Nastąpił znaczny spadek wpływu szoków ze Stanów Zjednoczonych na zmiany stóp zwrotu w krajach obszaru euro przy jednoczesnym wzroście intensywności rozprzestrzeniania się szoków pochodzących z obszaru euro, wspólnych dla wszystkich krajów tego obszaru. 351 Miscellanea Ry s u n e k 7 Odchylenie standardowe stóp zwrotu z indeksów giełdowych na obszarze euro (w %) po usunięciu wahań cyklicznych przez zastosowanie filtra Hodricka–Prescotta w okresie styczeń 1999–maj 2008 r. 6,0 5,0 4,0 3,0 2,0 1,0 0,0 1998 1999 2000 2001 2002 Kraje 2003 2004 2005 2006 2007 2008 2009 2010 Sektory Źródło: Opracowanie własne na podstawie danych EBC (Statistical data warehouse, http://sdw.ecb.europa.eu). Ry s u n e k 8 Intensywność rozprzestrzeniania się szoków z obszaru euro i ze Stanów Zjednoczonych 0,45 0,40 0,35 0,30 0,25 0,20 0,15 0,10 0,05 0,00 1973–1985 1986–1991 1992–1998 1999–2010 Szoki z obszaru euro Szoki ze Stanów Zjednoczonych Źródło: Opracowanie własne na podstawie danych EBC (Statistical data warehouse, http://sdw.ecb.europa.eu). 352 Miscellanea Ry s u n e k 9 Proporcja wariancji lokalnych stóp zwrotu z indeksów giełdowych wyjaśniona szokami z obszaru euro i szokami ze Stanów Zjednoczonych (w %) 100 80 60 40 20 0 1973–1985 1986–1991 1992–1998 1999–2010 Szoki z obszaru euro Szoki ze Stanów Zjednoczonych Źródło: Opracowanie własne na podstawie danych EBC (Statistical data warehouse, http://sdw.ecb.europa.eu). Udział wspólnego dla obszaru euro komponentu wiadomości w wyjaśnianiu zmian stóp zwrotu z indeksów giełdowych w krajach obszaru euro wzrósł znacznie w okresie 1999–2010 w porównaniu z latami 1973–1985, 1985–1991, przy spadku udziału szoków globalnych (ze Stanów Zjednoczonych). Radykalnie też zmniejszyło się oddziaływanie szoków idiosynkratycznych, właściwych dla poszczególnych krajów [zob. również Dziekoński 2005]. Oznacza to, że rynki akcji krajów obszaru euro są już w wysokim stopniu zintegrowane. Wnioski Rynek finansowy na obszarze euro jest w wysokim stopniu zintegrowany. Największym stopniem integracji spośród zbadanych w niniejszej pracy rynków odznacza się rynek pieniężny i rynek obligacji skarbowych, na kolejnym miejscu jest rynek akcji. Istotnym czynnikiem hamującym proces integracji rynków finansowych w latach 2008–2010 okazał się kryzys finansowy. O ile w mniejszym stopniu impulsy kryzysowe wpłynęły na stopień integracji rynków pieniężnych i rynków akcji, o tyle wyraźnie wpływ kryzysu finansowego był widoczny w przypadku stopnia integracji rynków obligacji skarbowych. Nie jest to zaskoczeniem, ponieważ obligacje skarbowe niektórych krajów (np. Grecji, Portugalii, Hiszpanii czy też Włoch) stały się tak samo ryzykowne, jak obligacje korporacyjne. Czynnikiem obniżającym stopień integracji giełdowych rynków obligacji skarbowych jest destabilizacja finansów publicznych w kolejnych krajach obszaru euro. Tekst wpłynął 1 listopada 2011 r. Miscellanea 353 Bibliografia Adam K., Japelli T., Menichini T., Padula A., Pagano M., Analyse, Compare, and Apply Alternative Indicators and Monitoring Methodologies to Measure the Evolution of Capital Market Integration in the European Union, European Commision, Brussels 2002. Baele L., Ferrando A., Hördal P., Krylova E., Monnet C., Measuring Financial Integration in the Euro Area, European Central Bank, „Occasional Paper Series” 2004, nr 143. Bukowski S.I., Strefa euro. Perspektywy rozszerzenia o Polskę i inne kraje Europy Środkowo-Wschodniej, PWE, Warszawa 2007a. Bukowski S.I., Unia monetarna. Teoria i polityka, Difin, Warszawa 2007b. De Grauwe P., Unia walutowa, PWE, Warszawa 2003. Dziekoński K., Integracja rynków akcji wybranych krajów europejskich i Stanów Zjednoczonych, Uniwersytet Ekonomiczny we Wrocławiu (rozprawa doktorska, tekst niepublikowany) Wrocław 2005. Financial Integration in Europe, European Central Bank, April 2010. Financial Integration in Europe, European Central Bank, April 2011. Heston S.L., Rouwenhorst K.G., Industry and Country Effects in International Stock Returns, „The Journal of Portfolio Management”, Spring 1995. Janicka M., Polski rynek kapitałowy – powstanie, rozwój i perspektywy w strukturach jednolitego rynku finansowego Unii Europejskiej, „Ekonomista” 2005, nr 5. Kalemli-Ozcan S., Sørensen B.E., Yosha O., Asymmetric Shocks and Risk Sharing in a Monetary Union: Update Evidence and Policy Implications for Europe, Department of Economics, University of Houston, Working Papers, 2004–05, February 2004. McKinnon R.I., Optimum Currency Area and European Experience, 2001a (http://www.stanford. edu./-mckinnon/papers/optimumreveur.pdf). McKinnon R.I., Optimum Currency Area Revisited, Stanford University Press, Stanford 2001b. Statistical data warehouse, sdw.ecb.europa.eu. D y s k u s j e Od Redakcji Poniżej zamieszczamy artykuł dyskusyjny Stefana Małeckiego-Tepichta, zawierający krytyczne uwagi pod adresem teorii równowagi i głównego nurtu współczesnej ekonomii, oraz dwa komentarze do tego tekstu, pióra Jerzego Wilkina i Witolda Kwaśnickiego. Dyskusja na ten temat odbyła się 13 października 2011 r. w ramach konwersatorium „Czwartki u Ekonomistów”, organizowanego przez Polskie Towarzystwo Ekonomiczne. Stefan Małecki-Tepicht* Instrukcja obsługi maszynki do mięsa nie jest książką kucharską Zvi Griliches wspominał, że jego ojciec przed II wojną światową w Kownie nie jadał mielonych kotletów. Nie jadał na mieście, bo nie wiedział, z czego są robione, nie jadał w domu – bo wiedział, z czego są robione. ze wspomnień Zvi Grilichesa [Berndt, Hulten 2005, s. 3] Chciałbym zarazem udowodnić, że logiczna artykulacja teorii nie jest wartością sama w sobie… [Thomas S. Kuhn 1985, s. 395] Wprowadzenie Gdy czytam teksty licznych autorów głównego nurtu współczesnej ekonomii – począwszy np. od Leona Walrasa, poprzez Kennetha Arrowa i Gerarda Debreu oraz Garry S. Beckera i Roberta Lucasa Jr., a na Robercie Barro i Paulu Romerze kończąc – to przychodzi mi na myśl owo wspomnienie mielonych kotletów, których nie jadał ojciec zmarłego w 1999 r. wybitnego ekonomisty amerykańskiego Zvi Grilichesa. Do robienia mielonych kotletów potrzebna jest maszynka do mięsa. Istnieją różne rodzaje maszynek – stare sprzed I wojny obsługiwane ręcznie przez moją babcię i te obecne w pełni zautomatyzowane typu Moulinex – a tym, co różni owe narzędzia to technika. Funkcja obu narzędzi jest taka sama, muszą mielić. Wspólne obu typom sprzętów jest to, że są to konstrukcje mechaniczne: egzogeniczne w podwójnym sensie. * Stefan Małecki-Tepicht – doktor ekonomii, emeryt; e-mail: [email protected] 356 Dyskusje Egzogeniczne dlatego, że uruchamianie tego narzędzia wymaga zewnętrznej energii – siły rąk osoby mielącej lub energii elektrycznej. Egzogeniczne również dlatego, że zewnętrzny jest wsad czegokolwiek (np. mięsny), który ulega procesowi mielenia. A bez względu na to, które z narzędzi użyjemy i jaka będzie jego instrukcja obsługi zawsze w wyniku dostaniemy taki sam, homogeniczny jednorodny produkt – kotlet mielony. W dalszym ciągu będę się starał wykazać, że dzisiejszy główny nurt neoklasycznej ekonomii jest właśnie taką zmieniającą się – pod wpływem zmian technik obliczeniowych – instrukcją obsługi maszynki do mięsa. Twardym rdzeniem instrukcji obsługi jest zbiór równań różniczkowych Walrasa wywodzący się z XVII-wiecznej teorii klasycznej fizyki Newtona. Współczesny główny nurt neoklasycznej ekonomii – w miejsce odrębnych podmiotów: producentów i konsumentów uczestniczących w procesie gospodarowania – powołał do życia szczególną postać „wkładki mięsnej do kotleta mielonego” – ekonomiczną jednostkę reprezentatywną (input). Jednorodna „jednostka reprezentatywna” w swym działaniu, poddana działaniom licznych równań modeli równowagi rynkowej, maksymalizuje jednorodny homogenizowany efekt – użyteczność (output), która jednocześnie jest zyskiem. Jedyną miarą oceny działania ekonomicznej jednostki reprezentatywnej jest dążenie do maksymalizacji użyteczności. Nie wiemy, co oznacza owo pojęcie, nie wiemy – odwołując się do poczucia smaku ojca Zvi Grilichesa – z czego jest zrobione, nie wiemy ani jak „użyteczność” definiować, ani jak ją mierzyć [Hurwicz 1945, s. 910]1. Inaczej mówiąc, z punktu widzenia logiki formalnej „użyteczność” jest pojęciem pustym – nie istnieje żaden desygnat tego pojęcia. Jak wiemy, w nauce tylko matematyka operuje pojęciami pustymi. Maksymalizacja użyteczności lub zysku odbywa się w ramach licznych procesów wymiany rynkowej, której cechą szczególną jest podstawowy Walrasowski aksjomat – o stanie równowagi rynkowej. 1. Mechaniczna ekonomia Leona Walrasa Współczesne modele równowagi licznych ekonomistów tzw. głównego nurtu mają swoje zakorzenienie w rachunku równań różniczkowych z klasycznej fizyki Newtona i matematyki Leibniza (z końca XVII wieku). Markiz Pierre Simone de Laplace w 1814 r. w swej pracy Mécanique Céleste ogłosił, że „są to prawa mechaniki i tylko one rządzą wszelkimi bytami w całym wszechświecie”. To wedle Laplace’a „całościowy zestaw równań różniczkowych opisujący system mechaniki jest tak liczny i rozległy, że tylko niezwykły umysł – tzw. demon Laplace’a – byłby w stanie zebrać wszelkie dane równania i znaleźć odpowiednie rozwiązania”. Jednakże – powiada on z żalem – „tylko niedoskonałość ludzkiego umysłu stoi na przeszkodzie stosowaniu praw mechaniki do poznania naszej przyszłości” [cyt. według Georgescu-Roegen 1979, s. 320]. Leon Walras w 1874 r. w swym dziele Éléments d’économie politique pure – odrzucając markiza uwagę o niedoskonałości ludzkiego umysłu – przemycił „demona Laplace’a” do nauk ekonomicznych. W roku 1909 w swoim artykule Economie et Mécanique – nawiązując do tytułu pracy Laplace’a – Walras powiada, że: „Fakty matematyczne należy podzielić na dwie kategorie: fakty fizyczne będące przedmiotem nauk fizyko-matematycznych i fakty psychiczne będące przedmiotem nauk psychiczno-matematycznych. 1 W recenzji Theory of Games and Economic Behavior Johna von Neumana i Oscara Morgernsterna Hurwicz zwraca uwagę, że obaj autorzy nigdy nie podali dowodu na mierzalność funkcji użyteczności [Hurwicz 1945, s. 910]. Dyskusje 357 Mechanika i astronomia należą do pierwszej kategorii; ekonomia należy do drugiej kategorii. (...) „Ekonomia ma ten sam tytuł do bycia nauką matematyczną jak mechanika i astronomia”. Dalej czytamy w pracy Walrasa, że „Bogactwo społeczne to zbiór rzeczy, które są jednocześnie użyteczne i ograniczone co do ilości, i które z tego względu są: 1° – zawłaszczalne, 2° – wartościowe i wymienialne, 3° – wytwarzane w wyniku ludzkiego wysiłku. Z tych trzech faktów lub okoliczności druga cecha – a wiec wartość wymienna, (...) jest niezaprzeczalnie faktem matematycznym. Ekonomia czysta, której przedmiot analizy stanowi wartość wymienna jest nauką matematyczną. (...) Ekonomia czysta nie będzie nauką fizyko-matematyczną; będzie nauką psychiczno-matematyczną. (...) Sposób postępowania (ekonomii) jest dokładnie taki sam jak dwóch nauk fizyko-matematycznych o najwyższym stopniu zaawansowania i przez nikogo nie kwestionowanych: mechaniki i mechaniki ciał niebieskich” [Walras 1909, s. 313–325]. Dowodem słuszności dociekań Walrasa ma być pełna równoznaczność i zgodność równań różniczkowych dotyczących zmian popytu i podaży oraz cen. Teoria równowagi Walrasa jest teorią cen relatywnych stanowiących o równowadze popytu i podaży. Zbiór równań wzajemnych relacji rzadkości i cen jest analogią równań różniczkowych z mechaniki fizycznej Newtona i mechaniki ciał niebieskich, co w jego opinii ma świadczyć o tym, że „ekonomia ma ten sam tytuł do bycia nauką matematyczną jak mechanika i astronomia. Owe równania walrasowskiej równowagi – jak przez kalkę – odbijane są w większości prac współczesnych ekonomistów i przetwarzane na różne sposoby, także przez dzisiejszych laureatów lub kandydatów do Nagrody Nobla z ekonomii. Henri Poincaré w 1901 r. pisał do Walrasa: „U samych początków każdej spekulacji matematycznej znajdują się pewne hipotezy i żeby spekulacja ta była owocna, należy (...) zdać sobie sprawę z tych hipotez. Kiedy zapomina się o tym warunku, przekracza się dopuszczalne granice. (...). W Pana założeniach znajdować się będzie pewna liczba funkcji wybranych arbitralnie. Jeśli określi Pan te założenia, to będzie miał prawo wyciągać z nich wnioski poprzez rachunek; jeżeli w tych wynikach nadal będą się znajdować funkcje arbitralne, wnioski te nie będą fałszywe, lecz pozbawione będą jakiegokolwiek znaczenia, gdyż będą podporządkowane arbitralnym założeniom poczynionym na samym początku. I tak na przykład w mechanice ignoruje się często tarcie i przyjmuje się, że ciało jest nieskończenie gładkie. Pan przyjmuje, że ludzie są nieskończenie egoistyczni i nieskończenie przewidujący, „jasnowidzący”. O ile pierwsza hipoteza może być przyjęta w pierwszym przybliżeniu, o tyle co do drugiej odnosiłbym się z pewną rezerwą” [Poincaré 1901]2 . Owe uwagi Poincaré’go Walras kwituje krótko w przypisie do swojego tekstu w 1909 r. „(...) pan Poincaré nie będzie zakazywał nam uznawania naszych satysfakcji. Mówi, że Maxwell był przyzwyczajony „myśleć wektorowo”. Ale my jesteśmy przyzwyczajeni do „myślenia poprzez rzadkości”, które w szczególności są wektorami” [Walras 1909, s. 10]. Tekst Walrasa jest interesujący z wielu względów. Po pierwsze, orzeka explicte o zakresie ekonomii przez niego uprawianej – jest nią „ekonomia czysta”, której przedmiot analizy stanowi wymiana. Jest to nauka matematyczna z szerokiej przestrzeni gospodarowania. Walras jednoznacznie odcina dwie pozostałe cechy bogactwa społecznego: zawłaszczanie (prawa własności stanowiące o podziale bogactwa – instytucje) i wytwarzanie (stanowiące o wzroście bogactwa – teoria wzrostu), uznając tylko wymianę za „czystą ekonomię”. Po drugie – na co właśnie zwrócił uwagę Poincaré – Walras przekroczył granice stawiania hipotez, przyjmując, że ludzie są nieskończenie egoistyczni i nieskończenie prze2 List od H. Poincaré z 1901 r. został przytoczony w cytowanym artykule Walresa [1909]. 358 Dyskusje widujący, „jasnowidzący”. Przekroczył ową granicę, o której wiedział Laplace, mając na uwadze „niedoskonałość ludzkiego umysłu”. Można zasadnie powiedzieć, że Robert Lucas Jr. za swoją teorię „racjonalnych oczekiwań” otrzymał w 1995 r. Nagrodę Nobla z ekonomii, w dużej mierze korzystając z dorobku Leona Walrasa. Po trzecie, zasadne jest twierdzenie, że – z dwóch pierwszych powodów – teoria czystej ekonomii spełnia formułę „as if”. Jest czysta ekonomia jak gdyby czystą klasyczną fizyką. I tak, za sprawą propozycji Walrasa z końca XIX wieku – współczesna ekonomia głównego nurtu XX i XXI w. przypomina czystą klasyczną fizykę Newtona z końca XVII w. Po czwarte – teoria wymiany Walrasa to taki szczególny przypadek procesów rynkowych, w których uczestnicy są w punkcie cen równowagi. Ceny równowagi wyznaczają punkt, w którym żadna ze stron wymiany nic nie zyskuje, a też nic nie traci. Ponadto rynkowa cena równowagi zawsze jest nie tylko datą zewnętrzną, czyli wielkością egzogeniczną, ale nadawana jest przez określony byt – auctioneura, który względem pozostałych podmiotów, konsumentów i producentów odgrywa rolę „dyktatora”. Z ceną się nie dyskutuje. To sprawia, że Enrico Barone, który wprowadzając do rozważań równowagi rynkowej pojęcie „cen-cieni” – zastępuje działania auctioneura przez państwo. Tym śladem podążał Oskar Lange, gdy prowadził swoją słynną dyskusję z Ludwigiem von Misesem, dotyczącą racjonalnej gospodarki centralnie planowanej. Jest oczywiste, że jeżeli każda cena jest ceną równowagi, to każda cena jest równocześnie „ceną-cieniem”. Jakby nie podchodzić do walrasowskiej propozycji „czystej ekonomii”, ogólna teoria cen relatywnych jest to szczególny przypadek sytuacji, w której nikt nic nie traci i nic nie dostaje – a zatem nie jest to teoria gospodarowania. Idąc za ówczesnym „duchem czasu” (heglowskim Zeitgeist), Walras przyjął wraz z całym inwentarzem XVII-wieczną newtonowską rewolucję w fizyce, o której Karl Popper pisał „Teoria Newtona była pierwszą w dziejach ludzkości, która odniosła prawdziwy sukces (...) Determinizm fizyczny zapanował wśród ludzi oświeconych, a kto nie przyjmował nowej wiary, był uznawany za obskuranta i reakcjonistę” [Popper 2002, s. 253]. Walras – jak sądzę – nie chciał być uznawany za obskuranta i reakcjonistę, i podążając z duchem czasu wmontował cały fizyczny determinizm w teorię wybiórczo pojmowanej „czystej ekonomii”, pozostawiając zupełnie poza polem rozważań procesy wytwarzania dóbr i usług przez producentów i spożycia dóbr i usług przez konsumentów. Wątpliwości wyrażone przez Poincare’go nie stanowiły żadnego problemu w budowaniu przez Walrasa swej „teorii czystej ekonomii”. Kończąc, wydaje mi się zasadne przywołanie opinii Walrasa o tym, jaka jest funkcja wiedzy i nauki. Walras pisze: „Pareto wierzy, że celem nauki jest stałe, sukcesywne przybliżanie się do rzeczywistości. Ja przede wszystkim wierzę, że ostatecznym celem wiedzy jest przybliżanie rzeczywistości do pewnego stanu idealnego. I to jest przyczyna, dla której formułuję ów stan idealny” [Walras 2000, s. 567]. W roku 1960 Israel M. Kirzner – uczeń Ludwiga von Misesa – zwrócił uwagę na tę szczególną zmianę zakresu pojmowania ekonomii, pisząc, że w XIX w. „w definicji ekonomii politycznej dokonano zamiany o istotnym znaczeniu, nastąpiła substytucja rzeczownika „bogactwo” na rzeczownik czasownikowy „wymiana”. Przedmiotem badania przestały być dobra jako zjawiska, a stały się operacje zachodzące miedzy dobrami” [Kirzner 1976, s. 71]. W jego kolejnej pracy Konkurencja i przedsiębiorczość z 1973 r. czytamy „(...) stan równowagi przedstawia sytuację, w której konkurencja nie odgrywa czynnej roli. Atrofia procesu rynkowego charakterystyczna dla stanu równowagi jest zanikiem procesu konkurencji” [Kirzner 2010, s. 21]. Bezpośrednimi następcami Walrasa byli przedstawiciele „szkoły lozańskiej” – Vilfredo Pareto i Enrico Barone. To Enrico Barone wprowadził do glosariusza ekonomicznego formułę cen-cieni [Barone 1908, s. 272]. Dyskusje 359 W wieku XX Walras znalazł licznych kontynuatorów w głównym nurcie ekonomii amerykańskiej. Pierwszymi byli Kenneth Arrow i Gerard Debreu – autorzy słynnego artykułu O istnieniu ogólnej równowagi rynkowej [Arrow, Debreu 1954], napisanego 80 lat po ukazaniu się pracy Walrasa. Obaj zostali laureatami Nagrody Nobla w dziedzinie ekonomii. Następnie, 102 lata po publikacji dzieła Walrasa, Garry S. Becker w swojej pracy Ekonomiczna teoria zachowań ludzkich [Becker 1990] stwierdził, że wszelkie ludzkie zachowania, rynkowe i nierynkowe, w gospodarstwie domowym bądź w firmie można opisać za pomocą walrasowskich równań równowagi rynkowej. Kolejnym przedstawicielem głównego nurtu ekonomii – i laureatem Nagrody Nobla – jest Robert Lucas Jr., powtarzający za Walrasem (a przede wszystkim za amerykańskim ekonomistą Johnem F. Muthem) formułę racjonalnych oczekiwań, która została poddana krytyce już w 1901 r. przez Poincare’go w jego liście do Walrasa. Na końcu pozostaje Paul Romer, twórca tzw. nowej ekonomii i autor endogenicznego modelu wzrostu. Żaden z przywołanych wyżej ekonomistów nie sięgnął do znaczącego artykułu Arrowa z 1962 r. o uczeniu się poprzez działanie [Arrow 1962], w którym po raz pierwszy znajdujemy próby opisania roli i funkcji kapitału ludzkiego (właśnie poprzez learning by doing). To Arrow w 1962 r., odwołując się do Johna F. Mutha, przywrócił formułę racjonalnych oczekiwań, a nie Lucas dziesięć lat później. Co więcej, w artykule tym Arrow dowodzi, że rozwiązania rynkowe oparte na równowadze konkurencyjnej (competitive solution) są odmienne od społecznie optymalnych (socially optimal solution) [Arrow 1962, s. 155]. 2. Dowód Arrowa i Debreu na istnienie równowagi rynkowej Ściśle matematyczne rozważania na temat równowagi rynkowej rozpoczął pod koniec XIX w. Leon Walras. Po nim rozważania te kontynuowali Vilfredo Pareto i Enrico Barone. W roku 1954 ostatecznych rozwiązań dostarczyli Kenneth J. Arrow i Gerard Debreu w swoim słynnym artykule O istnieniu równowagi w gospodarce konkurencyjnej [Arrow, Debreu 1954]. Arrow i Debreu piszą, że: „Walras pierwszy sformułował taki stan gospodarki, w którym istnieje takie rozwiązanie równoczesnych równań odpowiadających popytowi konsumentów na dobra i podaży dóbr dostarczanej przez producentów, które spełnia warunek równowagi, w którym podaż jest równa popytowi na każdym rynku, w każdym punkcie czasowym” [Arrow, Debreu 1954, s. 265]. Autorzy nie spodziewali się, że podświadomie w swym dowodzie na istnienie stanu równowagi ogólnej udowadniają rzekomą prawdziwość „paradoksu strzały” Zenona z Elei sprzed ponad 2000 lat, kwestionującego istnienie ruchu3. Arrow i Debreu stwierdzają, że ów stan ogólnej równowagi może być osiągnięty wtedy i tylko wtedy, gdy „każdy konsument dąży do maksymalizacji swojej użyteczności, a każdy producent dąży do maksymalizacji zysku, w warunkach wolnej konkurencji, w której ceny płacone i uzyskiwane przez każdego producenta i konsumenta są od nich niezależne”. Kontynuując swój wywód, autorzy stwierdzają, że „przy odpowiednich założeniach o preferencjach konsumentów i możliwościach producentów alokacja zasobów w konkurencyjnej gospodarce jest optymalna w sensie Pareto (w której korzystny dla 3 Zgodnie z tym paradoksem strzała wystrzelona z łuku pokonała określony dowolny odcinek drogi. Można więc powiedzieć, że w momencie wystrzelenia znajdowała się ona na początku tej trasy, a po dotarciu do celu – na końcu. Możemy sobie wyobrazić dowolną chwilę lotu, w którym strzała znajdowała się w jakimś konkretnym punkcie, w konkretnej odległości od łucznika. Możemy więc powiedzieć, że skoro w każdej chwili znajdowała się ona w jakimś konkretnym punkcie, to w każdej chwili była w spoczynku. 360 Dyskusje jednostki rozdział dóbr i zasobów produkcyjnych nie pogarsza sytuacji żadnej innej osoby)” [Arrow, Debreu 1954, s. 265]. Arrow i Debreu konkludują, że „z punktu widzenia normatywnej ekonomii problem istnienia równowagi konkurencyjnej gospodarki – jest podstawowy” [Arrow, Debreu 1954, s. 266]. Konkurencyjną gospodarkę rynkową charakteryzują następujące cechy: 11 każdy towar może być sprzedany i nabyty w każdym czasie i miejscu; 11 nie jest możliwe uzyskanie jakiejkolwiek produkcji bez pewnych nakładów; 11 do produkcji towarów niezbędna jest praca, której nie można wytworzyć w jednostkach produkcyjnych; 11 celem konsumpcji jest maksymalizacja użyteczności przy danych ograniczeniach budżetowych, przy czym koszt nabywanego koszyka dóbr konsumpcyjnych nie może przekraczać posiadanego dochodu; 11 celem produkcji jest uzyskanie maksymalnego zysku przy danych cenach, a przy przyjętych warunkach ów cel jest tylko technicznym aspektem gospodarowania; Aby w konkurencyjnej gospodarce rynkowej zaistniał stan ogólnej równowagi rynkowej, muszą być spełnione następujące warunki: 11 pierwotnie każdy uczestnik rynku dysponuje pewną nadwyżką towaru przeznaczonego do sprzedaży; 11 każdy pracownik występuje na rynku z podażą pracy, której krańcowa wydajność jest większa od zera; 11 uzyskanie przez pracującego niezbędnej „wiązki towarów” nie może wymagać pracy ponad 24 godziny na dobę; 11 każdy uczestnik rynku wchodzi na rynek z „wiązką towarów” wystarczającą na utrzymanie przez całe życie; 11 obowiązuje stała stopa zwrotu (stałe przychody ze skali). Arrow i Debreu definiują model abstrakcyjnej gospodarki, „w której punkty równowagi zachowują wszystkie właściwości stanu równowagi konkurencyjnej. Uczestniczy w niej liczba m + n + 1 podmiotów, gdzie; m – to gospodarstwa domowe, n – jednostki produkcyjne, 1 – fikcyjny byt, który określa ceny i może być nazwany uczestnikiem rynku” [Arrow, Debreu 1954, s. 274]. Należy podkreślić fakt, iż w owej abstrakcyjnej gospodarce procesy rynkowe są wyznaczane nie przez producentów i konsumentów, lecz przez taki szczególny byt zewnętrzny, który wyznacza ceny równowagi. A ów stan równowagi – powiadają autorzy – w konkurencyjnej gospodarce jest tylko technicznym aspektem gospodarowania. W tej sytuacji każde ceny wyznaczone przez „zewnętrznego uczestnika rynku” będą cenami równowagi – albowiem do każdych relacji cen można dostosować odpowiednie relacje kosztów krańcowych. Stąd też wyprowadzana jest oczywista tautologia, wedle której stan równowagi jest stanem zrównywania się kosztów krańcowych z ceną, a cena wyznacza koszty krańcowe. To sprawia, że ceny traktuje się jako substytut kosztów krańcowych. Autorzy podkreślają, że ich dowód na istnienie stanu ogólnej równowagi nie obejmuje takich gospodarek, w których „gdy płaca realna zmierza do zera, to podaż pracy nie zmniejsza się do zera, (...) lecz przeciwnie, gdy dochód realny spada, konieczność zaspokojenia podstawowych potrzeb wywołuje rosnącą potrzebę wzrostu podaży pracy; (...) w tym przypadku nie wystąpi stan równowagi” [Arrow, Debreu 1954, s. 275]. Wyłączenie z rozważań takich gospodarek agrarnych, słabo rozwiniętych, w których podaż pracy ma charakter akoniukturalny – rośnie, gdy cena pracy spada, i maleje, gdy cena pracy rośnie – wskazuje, że istnieją takie sposoby gospodarowania, które nie poddają się analizie walrasowskiej równowagi rynkowej. Owe akoniukturalne zachowania, ze szczególnym zdziwieniem zaobserwowali Parente i Prescott [1999, s. 72–73] w górnictwie amerykańskim w latach 1949–1994. Nie Dyskusje 361 znajdowali oni żadnego „racjonalnego” wytłumaczenia takich zachowań ludzkich, kiedy wzrostowi cen węgla na rynku amerykańskim odpowiadał spadek wydajności pracy, i przeciwnie – spadkowi cen węgla odpowiadał wzrost wydajności. Owe zachowania w żadnym stopniu nie pasują do modeli równowagi rynkowej. Autorzy tłumaczyli to niecnymi knowaniami górniczych związków zawodowych. Tymczasem mamy tu do czynienia przez ponad pół wieku z zachowaniami wytwórców, które uznać należy za w pełni racjonalne – w świetle ich własnych celów, które Herbert Simon i Harvey Lebenstein, zgodnie ze swą formułą ograniczonej racjonalności, nazwaliby „wystarczającymi”, a które w świetle neoklasycznej teorii równowagi nie poddają się żadnej „racjonalnej” ocenie. Arrow i Debreu wyłączyli z zakresu swojej teorii ogólnej równowagi rynkowej również taki system gospodarczy, „w którym praca wymaga pośrednio lub bezpośrednio pewnych czynników komplementarnych (tymi komplementarnymi zasobami może być ziemia, surowce lub wyposażenie w majątek trwały). W tych przypadkach uzyskanie równowagi nie jest możliwe” [Arrow, Debreu 1954, s. 281]. Jest to niezwykle ważne stwierdzenie: żadne procesy komplementarne nie występują w gospodarkach opisywanych przez formułę ogólnej równowagi rynkowej. Nawiązując do wcześniejszej dyskusji o stanie równowagi ogólnej, obaj autorzy odwołują się do opinii Cassela, zgodnie z którą równowagę tę wyznaczają cztery podstawowe zasady: „1) popyt na każde dobro finalne jest funkcją cen wszystkich dóbr finalnych, 2) producenci otrzymują zyski o wartości zero, 3) techniczne współczynniki produkcji pierwotnych wyrażające zużycie zasobów w produkcji dóbr finalnych są stałe, 4) występuje zrównanie popytu i podaży na wszystkich rynkach” [Arrow, Debreu 1954, s. 287]. W owej abstrakcyjnej gospodarce, w której spełnione są równocześnie wszystkie założone warunki funkcjonowania podmiotów – producentów i konsumentów, gdzie uczestnicy konkurencyjnej gospodarki dążą do realizacji swych celów – maksymalizacji zysku lub/i maksymalizacji użyteczności, dowodzenie istnienia stanu ogólnej równowagi ogranicza się do zastosowania odpowiednich procedur czystej matematyki – rachunku różniczkowego w odniesieniu do trzech kategorii: cen, dochodów i kosztów krańcowych. Należy jednak zwrócić uwagę, że Arrow i Debreu – w przeciwieństwie do Walrasa – dostrzegają takie rodzaje procesów gospodarowania, których abstrakcyjny model gospodarki znajdującej się w stanie równowagi nie dotyczy: nie dotyczy on mianowicie wszelkich procesów komplementarnych, oraz – co bardzo istotne – gospodarek, w których przy spadku dochodów realnych rośnie podaż pracy. Nicolas Georgescu-Roegen był pierwszym i bodajże jedynym ekonomistą, który zakwestionował jedno z podstawowych założeń modelu ogólnej równowagi Arrowa– Debreu. Stwierdził on, że nie ma żadnego uzasadnienia założenie, iż każdy wchodzi na rynek ze swoją „wiązką towarów” wystarczającą na utrzymanie jednostki przez całe życie. Jest to założenie z gruntu fałszywe, tym bardziej że sami autorzy zwracają uwagę na sytuację, w której w celu utrzymania się przy życiu – przy malejących dochodach – zwiększa się podaż pracy w celu zaspokojenia niezbędnych podstawowych potrzeb, i nie można w tym przypadku znaleźć jakiegokolwiek punktu równowagi. Ponadto, jeżeli każdy człowiek dysponuje „wiązką towarów” wystarczającą na utrzymanie na całe życie, to jaka przyczyna sprawiałaby, że każdy jest zmuszony uczestniczyć w procesie gospodarowania? Ponieważ ceny ogólnej równowagi są zawsze nadawane z zewnątrz, przez szczególny podmiot zwany „uczestnikiem rynku (auctioneur), stąd też w dalszych modelach równowagi konstruowanych przez wielu ekonomistów występuje „planista” (planner). W literaturze można znaleźć wiele odwołań do koncepcji Romera „utylitarnego planisty społecz- 362 Dyskusje nego” (utilitarian social planner)4. Można zasadnie domniemywać, że Romer i inni współwyznawcy walrasowskiej koncepcji równowagi nie wyczuwają szczególnego dysonansu poznawczego, gdy w odniesieniu do doskonale konkurencyjnej gospodarki odwołują się do takiego szczególnego bytu „planisty społecznego”. Co więcej, jest to również szczególne świadectwo, że w dyskusji z von Misesem nad racjonalnością gospodarki centralnie planowanej prowadzonej w 1936 r., to Oskar Lange miał rację5. Albo inaczej, spór między Misesem i Langem jest nierozstrzygalny ze względów aksjologicznych – ów dyskurs toczy się na dwóch różnych płaszczyznach, które nie mają punktów stycznych. Albowiem nic nie łączy „szkoły austriackiej” von Misesa, z „czystą ekonomią wymiany” Walrasa, Barone i Langego. 3. Marksistowska aksjologia teorii zachowań ludzkich Beckera W roku 1992 Gary Stanley Becker, profesor ekonomii Uniwersytetu w Chicago, otrzymał Nagrodę Nobla w dziedzinie ekonomii za „rozszerzenie zakresu analizy mikroekonomicznej na szeroki zakres ludzkich zachowań i interakcji, włączając zachowania pozarynkowe”. W roku 1993 w rozmowie z redakcją „Religion & Liberty”, pisma afiliowanego przy Acton Institute, G.S. Becker mówił: „Tematem mojego wykładu noblowskiego – opartego na pracy mojego życia – było stwierdzenie, że należy rozszerzyć horyzonty ekonomii. Ekonomista nie może mówić tylko o popycie na samochody, ale również musi zająć się takimi sprawami jak rodzina, dyskryminacja, religia, przesądy, wina i miłość. Ekonomiści tradycyjnie nie poświęcali wiele uwagi tym obszarom wiedzy. I w tym sensie to jest prawda – jestem ekonomicznym imperialistą. (...) Mój imperializm ekonomiczny nie ma nic wspólnego z prymitywnym materializmem lub poglądem, że status materialny stanowi o wartości człowieka, który to pogląd jest bardziej bliski marksistowskiej analizie” [Becker 1993]. To Becker podpowiedział mi tytuł tej części tekstu. Gdyby nie jego odwołanie do marksizmu – a uczynił to już w przedmowie do swojego dzieła życia Economic Approach to Human Behavior w 1976 r. – nigdy nie przyszłoby mi do głowy porównanie ekonomicznej teorii noblisty z Chicago z Karolem Marksem i jego dziedzictwem ideologicznym. Mam tę szczególną przewagę nad Beckerem, że – w przeciwieństwie do niego – idee Marksa znam nie tylko z teorii, którą Becker zna słabo, ale przede wszystkim z doświadczenia – czego Becker na pewno nie doświadczył. Oczywiście można mi zarzucić, że kieruje mną zawiść i czysty empiryzm. Jedno jest pewne, tak jak teoria ekonomiczna G.S. Beckera zagarnęła wszelkie dziedziny życia ludzkiego – za co dostał on Nobla – tak też teoria ekonomiczna K. Marksa, wymyślona ponad 120 lat przez Beckerem, również dotyczyła wszelkich dziedzin życia ludzkiego. To co jest wspólne obu tym teoriom – to właśnie ów „imperializm ekonomiczny”. Tylko Marks mówił bardziej szczerze i wprost, że światem rządzi „wilcza żądza zysku”, że „byt określa świadomość”, a „baza kształtuje nadbudowę” . Marksistowska walka o byt, która jest rdzeniem historycznego determinizmu i walki klas: walki nieposiada4 Zob. np. Elmendorf, Mankiw [1998, s. 72]. Odwołanie do planisty centralnego znajdziemy w licznych tekstach E. Prescotta. 5 Rosen – 60 lat po dyskusji Oskara Langego z Ludwigiem von Misesem jasno stwierdza, że „przy danych technologiach i gustach, jeżeli utrzymane są warunki teorii dobrobytu, odpowiedź uzyskujemy bezpośrednio z danych bez badania indywidualnych decyzji maksymalizujących – i tym samym »problem planowania centralnego« jest ekwiwalentny do rozwiązań rynkowych” [Rosen 1997, s. 10]. Dyskusje 363 jących własności przeciwko tym, którzy tę własność posiadają – jest tylko banalną konsekwencja wszechograniczającego determinizmu ekonomicznego. Do każdej maszynki do mięsa niezbędny jest wkład („egzogeniczny wsad”) i to teoria ekonomicznych zachowań ludzkich G.S. Beckera dostarcza nam takiego wkładu. Ów wkład traktuję zatem jako szczególną beckerowską aksjologię6. Naczelną wartością wszelkich bytów gospodarujących jest – zdaniem Beckera – maksymalizacja. Każdy człowiek, każde indywiduum, każdy podmiot gospodarczy (gospodarstwo domowe lub firma), jest bytem maksymalizującym użyteczność lub zysk. Użyteczność i zysk są w tym podejściu tożsame. Becker wyróżnia użyteczność dochodu pieniężnego, użyteczność psychiczną, użyteczność rynkową, użyteczność nierynkową itp. Jest charakterystyczne, że teoria zachowań ludzkich odwołuje się do wielkich kwantyfikatorów, co nie powinno zbytnio dziwić – bo tak też postępował Walras na długo przed Beckerem. Będę się zatem starał wykazać, że „imperializm ekonomiczny” Beckera ma bardzo wiele wspólnego z prymitywnym materializmem Marksa. Więcej, beckerowska neoklasyczna wizja świata, zapewniająca nas o tym, „że podejście ekonomiczne daje się stosować do wszelkich w ogóle zachowań ludzkich” [Becker 1990, s. 27], w pełni potwierdza marksistowską formułę, że „byt określa świadomość”. Becker odżegnuje się od tak prymitywnych materialistycznych uzasadnień, gdy pisze w swej pracy: „Marks i jego kontynuatorzy stosowali podejście ogólnie zwane »ekonomicznym« zarówno do polityki, małżeństwa i innych dziedzin pozarynkowych, jak i do zachowań rynkowych (...) to, co ja nazwałem »podejściem ekonomicznym«, niewiele ma wspólnego z tym stanowiskiem” [Becker 1990, s. 28] . Jednak wbrew tym zastrzeżeniom determinizm ekonomiczny Beckera objaśniany w neoklasycznym języku XIX-wiecznych równań Walrasa w pełni współgra z XIX-wiecznym determinizmem historycznym Marksa. Do teorii Marksa z powodzeniem można odnieść sformułowanie Beckera, że „podejście ekonomiczne nie zakłada, iż jednostki decyzyjne muszą koniecznie mieć świadomość własnych dążeń maksymalizacyjnych, ani, że mogą (...) zrozumiale opisać przyczyny powtarzających się systematycznie prawidłowości własnego zachowania” [Becker 1993]. Teorie Beckera, dotyczące ekonomicznych zachowań w odniesieniu do długości własnego życia, liczby posiadanego potomstwa, małżeństwa, religii, prawa i wyboru różnych idei, przedstawione w jego Ekonomicznej teorii zachowań ludzkich, w pełni potwierdzają marksistowską formułę iż „byt określa świadomość”, czego szczególnym i krańcowym przypadkiem są następujące słowa Beckera: „Podejście ekonomiczne prowadzi do wniosku, że istnieje jakaś »optymalna«, oczekiwana długość życia wyznaczona przez moment, w którym użyteczność dodatkowego roku życia jest oceniana niżej od użyteczności, z której trzeba zrezygnować, poświęcając i czas, i inne zasoby na zapewnienie sobie tego dodatkowego roku (...) Zgodnie z podejściem ekonomicznym większość zgonów (jeżeli nie wszystkie) jest w jakiejś mierze samobójcza (...). Ujęcie takie (...) skłania do zakwestionowania słuszności normalnie stosowanego rozróżnienia między samobójstwami a zgonami naturalnymi” [Becker 1990, s. 30]. Na tak ostateczne określenie ekonomicznego determinizmu nawet Marks się nie zdobył. 6 Według Słownika języka polskiego aksjologia to nauka o wartościach, zajmująca się badaniem natury wartości, podstawami i kryteriami wartościowania; także określona teoria wartości. Odwołuję się do aksjologii – filozoficznych teorii wartości dlatego, że wartości się nie uzasadnia, nie objaśnia (w ekonomii wartości przyjmuje się jako dane, których się nie uzasadnia). W epistemologii wartości wymagałyby uzasadnienia, musielibyśmy odpowiadać na pytania dlaczego przyjmujemy takie, a nie inne wartości [Słownik... 1978, s. 24]. 364 Dyskusje Jeżeli uzasadnieniem XX-wiecznej teorii ekonomii są mechanistyczne równania klasycznej fizyki Newtona z XVII w., to jest oczywiste, że zachowania bytów, już nie tylko gospodarczych, ale i społecznych, przedsiębiorców i konsumentów, rodzin i partii politycznych trzeba „dopasować” do bytów fizyki sprzed 300 laty. Becker powiada, że „mianem zachowań irracjonalnych określa się wszystkie dewiacje od reguły maksymalizacji użyteczności; tutaj nie ma potrzeby formułowania precyzyjniejszej lub filozoficznej definicji” [Becker 1990, s. 291, przypis 6]7. Inaczej mówiąc – wedle becekrowskiej teorii wartości (aksjologii) – każda osoba ludzka zawsze działa racjonalne z jedną i tylko jedną formułą racjonalności, którą jest maksymalizacja użyteczności. Inaczej mówiąc, beckerowska „użyteczność” jest takim szczególnym przypadkiem czarnej dziury, która wsysa wszystko co istnieje: „wszystkie decyzje o alokacji »pozarynkowego« czasu konsumenta, wyboru religii, partnera w małżeństwie, liczebności rodziny, rozwodu, przynależności do partii politycznej lub przyjętego stylu życia” [Becker 1990, s. 235]. Teoria wszelkich zachowań ludzkich Beckera opiera się na trzech głównych aksjomatach, dotyczących „użyteczności” jako takiej. Pierwszym założeniem jest przyjęcie, że „gospodarstwa domowe są zarówno jednostkami produkcyjnymi, jak i maksymalizującymi użyteczność” [Becker 1990, s. 166]. Becker twierdzi, że nic nie różni gospodarstwa domowego od firmy czy wręcz „małej fabryki”, o czym świadczyć ma fakt, iż „przeniesienie czynności golenia z zakładów fryzyjskich do gospodarstw domowych ilustruje, w jaki sposób i dlaczego gospodarstwa domowe nawet w miastach stały się »małymi fabrykami»” [Becker 1990, s. 206, przypis 38]. Ta szczególna procedura badawcza – czysty empiryzm – Beckera jest mu potrzebna tylko dlatego, żeby wykazać, że wszyscy jesteśmy „gospodarstwami domowymi – firmami” i nie istnieje żadna różnica między maksymalizacją zysku i maksymalizacją użyteczności. Przywołany przykład pozwala na drobny komentarz. Można sądzić, że rzeczywiście gospodarstwo domowe dokonuje racjonalnego wyboru, rezygnując z droższych usług zakładów fryzjerskich na rzecz znacznie tańszej samoobsługi we własnym domu. Nikogo nie trzeba zbytnio przekonywać, że kupowane usługi są zawsze droższe od „samoobsługi”. Ów wybór ekonomiczny nie jest jednak żadnym świadectwem przenoszenia produkcji od producentów do konsumentów. Konsument nie jest producentem, jest tylko racjonalnym konsumentem wybierającym „tańsze rozwiązanie”. Po drugie, Becker uważa, że jedynym bilansowym warunkiem ograniczającym wielkość zasobów gospodarstwa domowego jest „wielkość dochodów pieniężnych, które by osiągnięto, gdyby cały czas poświęcono na pracę zarobkową (...) wielkość zasobów jest z założenia równa wielkości maksymalnego, możliwego do osiągnięcia dochodu pieniężnego” [Becker 1990, s. 169]. I dalej czytamy, „czysty” wzrost zarobków zwiększa liczbę godzin pracy, a koszt dobra nazwanego „czasem wolnym” obejmuje wyłącznie utracone zarobki [Becker 1990, s. 170]. Oznacza to, że gospodarstwo domowe jest nie tylko fabryką, ale jest fabryką pracującą w „ruchu ciągłym”. Żadna fabryka nie pracuje w ruchu ciągłym, może poza przypadkiem elektrowni, ponieważ energii nie można magazynować. Po trzecie, z obu poprzednich założeń wynika – wbrew zastrzeżeniom Arrowa i Debreu o tym, że pracy nie wytwarza się w fabrykach – że w beckerowskim „gospodarstwie domowym-fabryce” liczba dzieci jest – jak wszelkie środki trwałe – pochodną dochodów i kosztów, albowiem „dzieci stanowią zarówno trwałe dobro konsumpcyjne, jak i produkcyjne (...) teoria popytu na dobra trwałe konsumpcyjne dostarcza struktur logicznych przydatnych do analizowania popytu na potomstwo” [Becker 1990, s. 300]. I to 7 Warto zwrócić uwagę, że najbardziej istotne dla teorii Beckera założenia i twierdzenia o zachowaniach ludzkich znajdujemy w przypisach zamieszczonych w książce, a nie w treści wywodu. Dyskusje 365 sprawia, że – zdaniem Beckera – jest nie tylko możliwe, ale i zasadne „włączenie »popytu« na dzieci w ramy dobrze rozwiniętej teorii ekonomicznej” [Becker 1990, s. 300]. Wedle Beckera pojęcie użyteczności jest bardzo szerokie: mamy użyteczność rynkową, dochodową pieniężną i mamy użyteczność nierynkową, „użyteczność psychiczną” itp. Wszystko zaś daje się wycenić za pomocą ceny rynkowej, a jak nie ma rynku – to za pomocą nierynkowych „cen-cieni”. Nikt nie wie na dobre, co to jest użyteczność. Jest to taka szczególna „czarna skrzynka”, o której w 1962 r. Joan Robinson pisała: „użyteczność jest jakością towarów, która sprawia, że ludzie chcą je kupować, a fakt, że ludzie chcą je kupować wskazuje, że mają one swoją użyteczność” [Robinson 1996, s. 120]. Na pierwszy rzut oka widać, że mamy tu do czynienia z błędnym kołem definicji ignotum per ignotum. Co więcej, w 1951 r. Arrow wykazał, że „możemy sobie wyobrazić osobę ustalającą listę, raz na zawsze, obejmującą wszystkie wyobrażalne konsekwencje wyborów swoich preferencji, mając pełną informację dostępnych alternatyw, spośród których wybiera te, które znajdują się na najwyższym miejscu listy” [Arrow 1951, s. 135]8. Arrow kontynuuje, że jest „logicznie możliwe, że dana osoba może preferować A nad B, B nad C i C nad A” [Arrow 1951, s. 136]9. Mamy zatem do czynienia nie tylko z definicją ignotum per ignotum, ale z dostępnym wyborem – w ramach circulus vitious – błędnego koła preferencji. Tjalling C. Koopmans w 1974 r. zawracił uwagę na pewne szczególne niebezpieczeństwo: „Jednostki gospodarcze nieustannie dążą do uzyskania optymalnych wyników przy odpowiednich cenach, które są im znane. Ale te same ceny w jakimś stopniu są wynikiem działań owych podmiotów. W opisie owych zdarzeń mamy zatem do czynienia z błędnym kołem” [Koopmans 1974, s. 327]. Jakkolwiek ową uwagę autor czyni na marginesie, to powiada, że stwarza to pewne trudności interpretacyjne w uznaniu teorii równowagi konkurencyjnej jako najlepszej teorii ekonomicznej. Najlepszy komentarz do wszechogarniającej aksjologicznej teorii ekonomicznych zachowań ludzkich Beckera znajduję w przedmowie Harveya Leibensteina do jego książki Poza schematem homo oeconomicus, w której pisze on: „Są dwa podstawowe sposoby interpretacji postulatu maksymalizacji: „oparty na faktach” i „tautologiczny” (...) Typowym przykładem argumentacji tautologicznej jest twierdzenie, że jeśli firma nie maksymalizuje zysków, to maksymalizuje łączną użyteczność zysków oraz czasu wolnego; jeśli nie są to zyski w połączeniu z czasem wolnym, to wprowadza się jakiś trzeci cel i tak dalej, ad infinitum. Zasadniczym argumentem zwolennika interpretacji tautologicznej jest to, że jednostka maksymalizuje zawsze, choć nie zawsze wszystkie jej cele są na pierwszy rzut oka oczywiste” [Leibenstein 1988, s. 9]. Leibenstein najlepiej ocenił aksjologię Beckera, aksjologię, która oznacza, że do modelu równowagi – jak do maszynki do mięsa – możemy włożyć wszystko, łącznie z naszym bytem osobowym, bez względu na to, czy mamy tego świadomość, czy też nie. Wedle Beckera nie ma takich zachowań ludzkich, których nie dałoby się przepuścić przez model walrasowskiej równowagi rynkowej. Herbert Simon w jednym ze swoich tekstów nadał temu nazwę Humpty-Dumpty Theory. Rzeczywiście jest to teoria „Wańki-Wstańki”, wedle 8 To sformułowanie – jak zaznacza Arrow – przypisywane Vilfredowi Pareto. ten sam problem zwraca uwagę polski matematyk S. Ulam [1996, s. 120]. We wspomnieniach matematyka szkoły lwowskiej czytamy: „Próbowałem ustalić, że gruszka jest lepsza od jabłka, które jest lepsze od śliwki, która znów jest lepsza od pomarańczy, aż ku swojemu zdumieniu odkryłem, że ta relacja nie jest tranzytywna (...) wpadłem w zaklęty krąg, co mnie wtedy zmieszało” [Ulam 1996, s. 120]. Ponadto wiemy od czasów markiza de Condorceta – na długo wcześniej od teorii preferencji Pareto – że występują sytuacje, w których dokonywane wybory są nierozstrzygalne – bowiem są cykliczne, czyli zamykają się w błędnym kole. 9 Na 366 Dyskusje której figura Wańki zawsze osiąga stan równowagi poprzez umieszczenie punktu ciężkości w odpowiednim miejscu. Przyjęta przez Beckera aksjologia konsekwentnie narzuca określone podejście epistemologiczne10. Zresztą, co będę się starał wykazać, mamy tu do czynienia ze szczególnym przypadkiem, w którym epistemologia traktująca o procesach i sposobach ludzkiego poznania w sposób jednoznaczny narzuca pewną szczególną aksjologię, od której żaden podmiot gospodarujący nie jest w stanie się uwolnić. Możemy wyodrębnić cechy szczególne procesu poznawczego, które są wspólne i charakterystyczne zarówno dla teorii Marksa, jak i Beckera. Są one następujące: 1. Obie wizje są w pełni deterministyczne – tak jest, bo tak być musi zgodnie z heglowskim „duchem czasu” – i zgodnie z determinizmem mechanistycznym klasycznej fizyki Newtona. 2. Wspólna wizja świata – materialistyczne i/lub ekonomiczne pojmowanie dziejów – wizja powszechna i wszechobecna, dotyczącego każdego miejsca i czasu. 3. Obie teorie ekonomiczne – Marksa i Beckera – łączy szczególnego rodzaju podejście monistyczne w traktowaniu zarówno przyczyn, jak i celów działalności ludzkiej. Obie teorie niczym nie różnią się od panujących religii, z których każda z nich jest równie monistyczna i „jedynie słuszna”. 4. Imperializm poznawczy – wspólny obu autorom – sprawia, że według nich nie istnieją żadne inne, alternatywne wizje dziejów świata, gospodarek i zachowań ludzkich. Wymienione szczególne cechy procesu poznawczego – determinizm, redukcjonizm, monizm – sprawiają, że imperializm poznawczy obu teorii prowadzi nas na manowce. Zderzenie obu teorii – Marksa i Beckera – z rzeczywistością stawia ich autorów w sytuacji szczególnego dysonansu poznawczego. 4. Epistemologia teorii Beckera Techniki badań zachowań ludzkich, które zaproponował G.S. Becker, opierają się na następujących filarach. Są to założenia (aksjomaty) stanowiące, że jeżeli: 1) racjonalnym działaniem każdej jednostki gospodarczej (gospodarstwa domowego lub przedsiębiorstwa) jest dążenie do maksymalizacji użyteczności, 2) preferencje są stałe i niezależne od miejsca i czasu, dotyczą ludzi bogatych i ubogich, a nawet należących do różnych społeczeństw i kręgów kulturowych i obejmują fundamentalne aspekty życia: zdrowie, prestiż, zadowolenie, życzliwość i zawiść, 3) ceny – czy to wyrażone w pieniądzu ceny w sektorze rynkowym, czy to „ceny-cienie” przypisywane sektorowi nierynkowemu – są miarą „kosztu zaniechanych możliwości”, a podejście ekonomiczne przewiduje ten sam typ reakcji zarówno na „ceny-cienie”, jak i na ceny rynkowe, 4) rynki konkurencyjne zaspokajają preferencje konsumentów w taki sposób, że ich zachowania stają się wzajemnie spójne, 5) w warunkach równowagi rynkowej żadne przedsiębiorstwo nie osiąga zysków, chociaż każde z nich może kierować się pragnieniem ich uzyskania, to wynikające z tych założeń równania równowagi odkrywają – według autora – „ekonomiczną prawdę”, inaczej mówiąc są „ekonomiczną teorią poznania”. 10 Według Słownika języka polskiego epistemologia to: 1) dział filozofii traktujący o przedmiocie, treści, procesach, sposobach, granicach i kryteriach poznania ludzkiego; teoria poznania; 2) teoria wiedzy naukowej, dyscyplina zajmująca miejsce pośrednie między ogólną teorią poznania a naukami szczegółowymi, rzadziej „naukoznawstwo” [Słownik... 1978, t. I, s. 550]. Dyskusje 367 Oczywiście nie jest winą Walrasa, że Becker nie tylko odziedziczył cały jego dorobek, ale „twórczo go rozwinął” i wniósł swój własny wkład, doprowadzając teorię równowagi rynkowej do absurdu, twierdząc wprost, że byty nierynkowe są rynkowe. Naczelna idea teorii Beckera, głosząca, że wszelkie zachowania są wyznaczone przez wymianę rynkową, pozwala wrzucić wszystko co się da do owej maszynki równowagi rynkowej. Pośród kolejnych naśladowców tej koncepcji należy wymienić Roberta Lucasa Jr., laureata Nagrody Nobla za tzw. racjonalne oczekiwania. To u Lucasa znajdujemy sformułowanie: „Używam pojęcia »teoria« w bardzo ograniczonym znaczeniu, odnosząc je do pewnego prostego systemu mechanicznego, który działa po wprowadzeniu go do komputera. Tak właśnie rozumiem »mechanikę« rozwoju gospodarczego; jest to w moim rozumieniu budowanie sztucznego świata, zaludnionego przez współdziałające ze sobą roboty, jakimi normalnie zajmują się ekonomiści, umożliwiającego pokazanie podstawowych właściwości rzeczywistego świata, tego, który właśnie opisuję” [Lucas 1988, s. 5]. Lucas wcale nie tworzy teorii robotów; tworzy teorię „programu komputera”, który robotom zadaje określone zachowania. Pamiętamy, jak radziecki szachista Kasparow przegrał w szachy z komputerem IBM. Wygrał „demon Laplace’a” – dlatego, że program komputera był doskonalszy od ludzkiego umysłu. Lucas nie zdaje sobie sprawy, że „współdziałające ze sobą roboty” – wbrew jego intencji – nie pokazują podstawowych właściwości rzeczywistego świata, a odzwierciedlają tylko program komputera – dyktatora (social planner), który nie daje żadnego wyboru i nakazuje im współdziałać w jednoznacznie określony sposób. Podobne podejście odnajdujemy w pracach Paula Romera, twórcy, tzw. endogenicznego modelu wzrostu. Z punktu widzenia dobrych pod względem technicznym modeli równowagi gospodarki jest zupełnie obojętne co się do nich wkłada. Co więcej, do tej „maszynki” wrzucamy różnorodne podmioty, w odniesieniu do których używamy określenia „heterogeniczne”, po to tylko, żeby w wyniku „zmielenia” za pomocą różnych zmiennych i przekształceń matematycznych uzyskać zupełnie nowy „homogeniczny” byt pod nazwą „reprezentacyjny podmiot gospodarczy”. Bardzo dobrze opisują to w swoim artykule dwaj ekonomiści japońscy: Masanao Aoki i Hiroshi Yoshikawa. Piszą oni: „Jakkolwiek na pozór heterogoniczne jednostki, firmy lub sektory – wprowadzone do modelu stają się w rzeczy samej homogeniczne w tym rozumieniu, że stoją wobec wydarzeń, których doświadczają, z tym samym niezmiennym prawdopodobieństwem. Zarówno Microsoft, jak i mały uliczny sklepik spożywczy staje wobec specyficznych mikroszoków, które nadchodzą z tym samym rozkładem prawdopodobieństwa” [Aoki, Yoshikawa 2010, s. 10]11. Za pomocą owych modeli początkowo heterogeniczne podmioty przekształcają się w byty homogeniczne, co ma – za pośrednictwem licznych modeli równowagi – pozwalać przedstawicielom głównego nurtu ekonomii tworzyć modele makroekonomiczne oparte na mikroekonomii (micro-founded macroeconomics models). Homogeniczne podmioty gospodarcze generują homogeniczne efekty – użyteczność, która jest tożsama z zyskiem. K.J. Arrow [1986, s. 389] w swym artykule z 1986 r. pisze, że byty idealnie takie same nie prowadzą między sobą wymany, gdyż nie mają czego między sobą wymieniać, ponieważ dysponują tymi samymi jednorodnymi wartościami. W owej konstrukcji teorii-narzędzi szczególna rola przypada dwóm pojęciom. Przedmiotem badania zachowań ekonomicznych jest maksymalizacja – użyteczności/zysku. Narzędziem pomiaru jest cena, rozpatrywana w dwóch postaciach: w procesach wymiany – cena rynkowa, a w pozostałych procesach – cena dualna zwana także ceną-cieniem. Cena11 Autorzy przywołanego tekstu dowodzą, że nie da się zhomogenizować heterogenicznych bytów, dlatego że doświadczają one licznych zdarzeń zewnętrznych z różnym stopniem prawdopodobieństwa i – według autorów – nie jest możliwe przyjęcie stałego, niezmiennego prawdopodobieństwa. 368 Dyskusje cień to byt stricte wirtualny, dzięki któremu w każdym przypadku – działań rynkowych i nierynkowych – mamy do czynienia ze stanem „równowagi rynkowej”. A jak powiada R.E. Lucas Jr. w rozmowie ze B. Snowdonem i H.R. Vanem, „stan równowagi rynkowej jest właściwością sposobu, w jaki patrzymy na świat, nie zaś cechą rzeczywistości” [Snowdon 2003, s. 210]. Ów sposób oglądu świata służy temu – jak dalej kontynuuje Lucas – żeby wykazać słuszność „przekonania o konieczności podejmowania prób zmierzających do opracowania jednego neoklasycznego modelu, który wyjaśniałby zjawisko wzrostu gospodarczego zarówno w bogatych, jak i biednych krajach. Pozostaje to w sprzeczności z panującym w latach sześćdziesiątych poglądem, zgodnie z którym jedna teoria wyjaśniać miała wzrost gospodarczy w krajach wysoko rozwiniętych, a inna w krajach Trzeciego Świata” [Snowdon 2003, s. 220]. Stoimy zatem wobec przedziwnej procedury badawczej, wedle której „aksjomaty techniczne” – liniowe równania Eulera-Lagrange’a – nie tylko kreują, ale są konstytutywne w tworzeniu szczególnego typu aksjologii zachowań ekonomicznych i oglądu świata przez pryzmat modeli równowagi. 5. „Bóg sprowadził na ziemię makroekonomistów nie po to, żeby tworzyli eleganckie teorie, ale żeby rozwiązywali praktyczne problemy” (N.G. Mankiw) Pojawia się zatem pytanie, co to jest „czysta ekonomia”? – podstawowe pojęcie Walrasa, od którego wiemy, że wymiana jest tylko wycinkiem procesów gospodarowania. Walrasowski model równowagi rynkowej nie dotyczy ani wzrostu gospodarki (produkcji), ani też ostatecznego podziału wytworzonego produktu na spożycie i akumulację (lub wedle nowej nomenklatury – oszczędności), tak jak możemy to odczytać z bilansów przepływów międzygałęziowych Leontiefa. Rosyjski matematyk V. Arnold w wywiadzie z 1996 r. powiedział, że „czysta matematyka jest opłacana za dokonywanie odkryć matematycznych. Matematyka stosowana jest opłacana za rozwiązywanie zadanych problemów”. Przywołany w tytule tego ustępu N.G. Mankiw w swoim referacie powiada, że „inżynierowie są to przede wszystkim ludzie, którzy rozwiązują problemy, a celem ludzi nauki jest zrozumienie jak działa świat” [Mankiw 2006, s. 1]. Trudno jest uznać, że Leon Walras dokonał szczególnego odkrycia w ekonomii – odkrywcami to byli 200 lat przed nim Newton i Leibniz. Walras wcisnął wycinek procesów gospodarowania – wymianę – w wyniki odkryć fizyki i matematyki klasycznej. I na tym poprzestał. Nie powinien być zatem Walras i zastępy jego licznych następców „opłacany” za dokonywanie odkryć. Jakkolwiek nie dokonali oni żadnych odkryć, to jednak wielu z nich zostało nagrodzonych za „teorie ekonomiczne”, których jedynym „twardym rdzeniem” był dorobek Walrasa. Pozostaje pytanie, czy walrasowska „czysta ekonomia” jest nauką stosowaną? Inaczej mówiąc, czy walrasowskie równania równowagi rynkowej i ich pochodne tworzone przez współczesnych ekonomistów głównego nurtu, rozwiązują pojawiające się od ponad dwóch stuleci problemy gospodarcze. Czy rzeczywiście współczesna teoria ekonomii rozwiązuje zadane problemy? Najlepszą odpowiedź znajdujemy we wspomnieniach byłego szefa FRB Allena Greenspana. Pisze on: „Zawsze uważałem, że zaktualizowany zbiór najbardziej szczegółowych danych za ostatni dostępny kwartał jest o wiele pożyteczniejszy w prognozowaniu niż bardziej wyrafinowane modele (...) Nie można tworzyć abstrakcyjnych modeli z powietrza. Należy wysnuwać je z faktów” [Greenspan 2008, s. 46]. Dyskusje 369 Żadne z teorii-modeli głównego nurtu ekonomii nie prognozowały kryzysu dlatego, że nie mogą tego czynić. Tylko Eugene Fama jest konsekwentny i twierdzi, że żadnego kryzysu nie ma, a zgodnie z hipotezą efektywnego rynku ceny ukształtowały się na rynku na poziomie określonym popytem i podażą i na tym poziomie „wyczyściły rynek”12. Ekonomia głównego nurtu nie jest także nauką stosowaną, czego świadectwo odnajdujemy w kryzysie z lat 2007–2010, nie rozwiązuje bowiem problemów ujawniających się w procesach gospodarowania. Kryzys finansowy dowodnie wskazuje, że w toczącym się od czasów Miltona Friedmana sporze o „pozytywny” czy „normatywny” charakter teorii ekonomicznych – w pełni zasadny jest wniosek, iż licznie generowane z walrasowskiej teorii „modele równowagi ekonomicznej” są przede wszystkim normatywne, a nie pozytywne. To jedynie Kenneth Arrow i Gerard Debreu w swej słynnej pracy podkreślali normatywny charakter teorii ogólnej równowagi rynkowej. Natomiast wywodzone z niej teorie-modele Beckera, Lucasa i Romera aplikują do tego, żeby być nauką pozytywną. Owe modele, wywiedzione z walrasowskiej teorii równowagi rynkowej, nie są ani czystą nauką – niczego nie odkrywają, nie są również nauką stosowaną – nie objaśniają procesów gospodarczych – ani tych, które już miały miejsce, ani tych, które mogą się wydarzyć. Orzekają tylko o tym, „jak być powinno”, gdyby gospodarki działały według tych modeli ekonometrycznych. Historia gospodarcza dostarcza wielu świadectw, że to nie po raz pierwszy teoria ekonomiczna rozmija się z rzeczywistością. Oczywiście dorobek myśli ekonomicznej dostarcza nam wielu innych podejść metodologicznych, które nie ograniczają gospodarczych zachowań homo sapiens do sztucznego bytu homo economicus. W świecie, którego doświadczamy, nie istnieje demon Laplace’a, wedle którego pełny determinizm mechaniki stanowi o tym, że każdy maksymalizuje cokolwiek zgodnie ze schematem cen relatywnych, wyznaczonych przez równania różniczkowe klasycznej fizyki Newtona. Albowiem – jak możemy przeczytać u Karla R. Poppera – to fizyk Arthur Compton w swoim dziele The Freedom of Man pisał: „Fizyk rzadko kiedy (...) zwracał uwagę na fakt, że jeżeli (...) ludzkie czyny wyjaśnić można tylko (...) za pomocą całkowicie deterministycznych (...) praw, to on sam jest automatem”. W kolejnej pracy Comptona Human Meaning of Science czytamy: „Jeżeli założy się, że sformułowania praw fizyki są poprawne, to należałoby przypuszczać (...), że poczucie wolności jest złudne, jeżeli zaś akty [wolnego] wyboru uzna się za rzeczywiste, to sformułowania praw fizyki muszą być (...) nieprawidłowe”, i dalej: „ nie można już posługiwać się prawami fizyki jako dowodami przeciwko ludzkiej wolności” [Popper 2002, s. 258 i 259]. Otóż od czasów Walrasa i szkoły lozańskiej aż po dzisiejsze modele równowagi rynkowej przyjmuje się, że determinizm klasycznej mechaniki XVII w. w pełni odwzorowuje pole wolności wyboru i ludzkich działań w każdym miejscu i czasie. A w całym swoim dorobku Popper dowodzi, że tak nie jest. To walrasowski model równowagi sprawia, że – jak powiada Becker – dobre techniki obliczeniowe mają szerokie zastosowanie. Maszynka równowagi rynkowej jest takim szczególnym przypadkiem, w którym teoria tzw. czystej ekonomii (Walras, Pareto, Baron) jest tożsama i jednoznacznie wyznaczona przez stosowane przez nią techniki badawcze (Becker, Lucas, Romer). Tak stosowane techniki badawcze jednoznacznie wyznaczają cele i wartości – aksjologię bytu, tak określona aksjologia zaś stanowi o swoistej teorii poznania, epistemologii. Inaczej mówiąc, stosowane techniki utożsamiane są z teorią, natomiast teoria wyznacza zbiór dopuszczalnych technik badawczych. Obracamy się w błędnym kole: techniki badawcze – narzędzia stanowią o teorii ekonomii, a teoria 12 Dyskusję z poglądem i modelem Famy odnajdujemy w artykule G.M. Frankfurtera opublikowanym w 2007 r. [Frankfurter 2007]. 370 Dyskusje ograniczona stosowanymi narzędziami (zbiorem równań i ich matematycznymi właściwościami oraz technikami rachunku parametrów) wyznacza aksjologię ekonomii. Mamy tu kompletne odwrócenie zasad poznania naukowego. Mamy do czynienia ze szczególnym błędnym kołem, w którym narzędzia kształtują epistemologię, ta zaś określa aksjologię i dalej z owej aksjologii wynikać ma określona epistemologia, i tak ad infinitum. Owe licznie uzupełniane narzędzia „teorii równowagi” odnoszą się do takiego szczególnego bytu homo economicus, który jest wiecznie trwałym maksymalizatorem wszystkiego co się da pomieścić w pojęciu użyteczności/zysku. Jest to byt szczególny, zawsze maksymalizujący swe stałe preferencje, doskonale znający wszelkie warunki wymiany w każdym miejscu i czasie aż do nieskończoności. Tak się dzieje bez względu na to, czy ów byt uczestniczy w wymianie rynkowej, czy też nie, albowiem nawet gdy nie zachodzi wymiana rynkowa, to neoklasyczny Robinson Crusoe wymienia się sam ze sobą [Barro 1997, s. 73]. Ów „byt-robot” działa zawsze pod dyktando zewnętrznego dyktatora – auctioneura lub programu komputerowego. Paul Romer w swoim modelu wzrostu endogenicznego poszedł jeszcze dalej orzekając, że ów podmiot w procesie wymiany uzyskuje efekty, które za sprawą rosnącej krańcowej wydajności czynników same się multiplikują, nie wymagając żadnych dodatkowych nakładów. Z propozycji Romera wynika ponadto, że to sama „maszynka równowagi” generuje dla siebie swój własny wkład. Mamy zatem do czynienia z perpetuum mobile, a używając języka Friedmana, ale wbrew niemu, możemy powiedzieć, że „mamy do czynienia z darmowym lunchem”. Natomiast jeżeli zgadzamy się z Friedmanem, że nie ma darmowych obiadów – to konsekwentnie musimy przyjąć, że taki model wzrostu nie ma żadnej racji bytu. Inaczej mówiąc, współczesny główny nurt ekonomii – wykorzystując dorobek fizyki klasycznej XVII w. – chce być swoistą teorią wszystkiego. Od logików, fizyków, biologów i genetyków wiemy, że nie ma i nie da się stworzyć teorii wszystkiego. Wszyscy wiemy, że nie istnieje teoria wszystkiego; tak jak pierwsze i drugie prawo termodynamiki nie dopuszcza istnienia perpetuum mobile, tak samo twierdzenia Kurta Gödla o niezupełności i sprzeczności nie pozwalają na stworzenie teorii wszystkiego. U Karla R. Poppera kolejne ogniwa prawidłowych procedur „łańcucha poznawczego” są przedstawione następująco: 1) najpierw jest aksjologia – system wartości określający pojmowanie świata, 2) z uznawanej aksjologii wywodzimy teorię, 3) do określonej teorii poszukujemy odpowiednich narzędzi – technik badawczych. To za pośrednictwem popperowskiej procedury badawczej i zastosowanych technik-narzędzi możemy orzekać, w czy i w jakim stopniu wyniki przyjętej teorii odpowiadają jakimkolwiek stanom realnym, a zatem – zgodnie z korespondencyjną teorią prawdy Alfreda Tarskiego – możemy odpowiedzieć na pytanie, czy teoria jest prawdziwa [zob. Batman-Feferman, Feferman 2009, s. 136–150]. Natomiast sprawdzenie „prawdziwości” teorii – zdaniem Poppera – nie polega na jej weryfikacji, na poszukiwaniu kolejnych potwierdzeń, nigdy bowiem nie potwierdzimy wszystkich możliwych zdarzeń. Twierdzenie „wszystkie łabędzie są białe” nakazywałoby sprawdzenie, czy wszystkie żyjące na świecie łabędzie są białe – co jest niemożliwe. Istnienie jednego „czarnego łabędzia” sprawia, że twierdzenie to jest fałszywe. To nie weryfikacja, a przeciwnie, falsyfikacja – jakikolwiek stan negujący prawdziwość teorii – nakazuje ją odrzucić. Ale tak jest tylko w popperowskiej wizji świata nauki. W świecie nauki Thomasa S. Kuhna jest zaś tak, „że chociaż logika jest potężnym i w ostatecznym rachunku zasadniczym narzędziem badań naukowych, to można posiadać wiedzę w takiej postaci, że logika raczej nie daje się do niej stosować” [Kuhn 1985, s. 395]. Mark Blaug zwraca uwagę, że wszyscy ekonomiści głównego nurtu wierzą w popperowską logikę poznania naukowego. Jednak żaden z nich nie podejmuje prób falsyfikacji – która jest popperowskim probierzem „prawdziwości teorii”. Jak powiada Blaug, przed- Dyskusje 371 stawiciele współczesnej teorii ekonomii głównego nurtu „są wierzący, ale nie praktykujący” [Blaug 1998]. Najbardziej dobitną ocenę głównego nurtu chicagowskiej szkoły ekonomii znajdujemy w liście Vassily Leontiefa opublikowanym na łamach „Science” w 1982 r., w którym czytamy:„Profesjonalne pisma ekonomiczne, strona po stronie, zapełnione są wzorami matematycznymi, prowadzącymi czytelnika od mniej lub bardziej przekonujących, ale zupełnie arbitralnych zbiorów założeń, do precyzyjnie ustalonych, ale zupełnie nieistotnych konkluzji (...). Rok po roku teoretycy ekonomii kontynuują produkcję wyników uzyskiwanych z modeli matematycznych, badając niezwykle szczegółowo ich formalne właściwości, a ekonometrycy dostosowują algebraiczne funkcje wszystkich możliwych kształtów głównie do tych samych zbiorów danych, bez posuwania do przodu w jakikolwiek dostrzegalny sposób zdolności do systematycznego rozumienia struktury i działania rzeczywistego systemu gospodarczego” [Leontief 1982, s. 104–107]. Zamiast zakończenia W roku 2010 redakcja „Studiów Ekonomicznych” opublikowała mój list do redakcji pod tytułem Makrokonfuzja: dylematy teorii ekonomicznych [Małecki-Tepicht 2010]. Recenzent słusznie zwrócił mi uwagę, że tekst ma podstawowy brak. Jeżeli ponad pół wieku temu uczono mnie na lekcji języka polskiego, że każde wypracowanie powinno mieć wstęp, rozwinięcie i zakończenie, to mój list do redakcji grzeszył brakiem rozwinięcia. Był wstęp i zakończenie, brakowało – słusznym zdaniem recenzenta – uzasadnienia dla sformułowanych przeze mnie hipotez lub wręcz jednoznacznie przedstawionych stwierdzeń. W niniejszej wypowiedzi starałem się – tak jak potrafię – uzupełnić braki poprzedniego tekstu. Teoria równowagi to taki szczególny fragment teorii ekonomii, która – jak to ujął Nicolas Kaldor – obwarowana jest wielką liczbą restrykcyjnych założeń, pozbawiających ją jakiejkolwiek wartości. Owe założenia – bardziej ograniczające od tych, które przyjął sam Walras – są następujące: 1. Wszystkie zasoby materialne i ludzkie przyjmuje się jako dane, tak samo jak dane są skale (mapy) preferencji podmiotów. 2. Wszystkie techniczne procesy produkcji (zdolności do przetwarzania dóbr od surowców do produktu końcowego) są dane; wszystkie te procesy są liniowe i homogeniczne (tj. generalną zasadą jest stała stopa zwrotu). 3. Ceny są parametrycznie dane (narzucone) wszystkim uczestnikom (agentom) rynku; istnieje doskonała konkurencja na wszystkich rynkach – zarówno po stronie kupujących, jak i sprzedających. 4. Czas nie istnieje. Decyzje o produkcji i konsumpcji następują symultanicznie i odbywają się natychmiastowo, poza czasem. W modelach równowagi nie istnieje ani przeszłość, ani przyszłość. I na końcu – jak sądzę – uwaga najbardziej istotna: „System równowagi rynkowej jest ustanowiony przed tym niż jakiekolwiek transakcje dochodzą do skutku” [Kaldor 1985 s. 7]. Podsumowując, zasadne jest twierdzenie, że nie istnieją takie byty jak konkurencyjne gospodarki w stanie równowagi rynkowej. Inaczej mówiąc, albo gospodarki są konkurencyjne, albo są w stanie równowagi. Oznacza to, że stoimy wobec wyboru dwóch członów alternatywy badawczej: albo badamy gospodarki konkurencyjne, które nie są w stanie równowagi rynkowej, albo gospodarki będące w stanie równowagi, które nie są konkurencyjne. 372 Dyskusje Przekonuje nas o tym nie tylko dorobek szkoły austriackiej (Menger, von Mises, Kirzner), lecz także własne założenia neoklasycznej ekonomii stanowiącej o tym, że podmioty gospodarcze (ktokolwiek by to był) zawsze są kierowane przez „byty” zewnętrzne: auctioneura (Walras, Arrow, Debreu) utylitarnego planistę społecznego lub program komputera (Lucas, Romer, Prescott i inni). W efekcie teoria neoklasycznej ekonomii obraca się w swoim własnym błędnym kole. Wychodząc od Walrasa i Barone, poprzez Langego, aż do Beckera, Lucasa i Romera, powraca do punktu wyjścia. A wyjścia nie ma. Profesor Wojciech Maciejewski po lekturze mojego tekstu zapytał mnie, dlaczego tak nie lubię tych ekonomistów. Odpowiedź, że wszystkich nie mogę lubić, jest niewystarczająca. W moim umyśle nastąpiła szczególnego rodzaju personifikacja – bo ekonomistów owych nie znam, a znam tylko ich teorie. To co budzi mój sprzeciw, to ich szczególna pewność (żeby nie powiedzieć – pycha), że świat jest taki, jak oni go postrzegają i przedstawiają. Ich teksty mają szczególny charakter – są pisane jakby przez kalkę – przepuszczone przez model-maszynkę, w której zmienia się tylko sitka. W efekcie operujemy homogenicznym bytem reprezentacyjnego podmiotu gospodarczego maksymalizującego wszystko co się da – użyteczność lub zysk. Jest to konstrukt, który w niczym nie różni się od hamburgera McDonald’sa. Świat nie jest jeszcze koncernem McDonald’sa. Ponadto moja wypowiedź jest próbą odreagowania lektury książki Parente i Prescotta Barriers to Riches, w której autorzy całe bogactwo doświadczeń wzrostu gospodarczego różnych cywilizacji, krajów i okresów historycznych usiłują wtłoczyć w swój model oparty na założeniach równowagi, żeby dowieść rzeczy nieudawadnialnej – tego mianowicie, że oto świat rzeczywisty pasuje do ich modelu13. Nie przychodzi im nawet na myśl, że przedmiotem objaśniania świata – epistemologii właśnie – jest działanie przeciwne; jest to poszukiwanie odpowiedzi, jaki i który z możliwych modeli ekonomicznych zachowań ludzkich odpowiada rzeczywistym procesom gospodarowania. Odpowiedź jest trywialna – nie ma jednego, jedynie słusznego modelu ekonomicznych zachowań ludzkich. Opisywany tutaj nurt neoklasycznej ekonomii można scharakteryzować trawestacją słów Karla Poppera: „jest w niej wiele pewności, a mało prawdy”, a jak powiada dalej: „pewność rzadko kiedy jest obiektywna (...), bowiem opiera się na niedostatecznej wiedzy” [Popper 1996, s. 43]14. Pozostańmy chwilę w głównym nurcie myśl Poppera, gdzie czytamy „Nasza skłonność do myślenia deterministycznego wywodzi się z pojmowania naszych czynów jako poruszycieli (...) Dzisiaj jednak nie jest to nauka: to już tylko ideologia” [Popper 1996, s. 35]. Celem moim była próba wykazania, że: 11 podmioty gospodarcze nie są demonami Laplace’a; 11 teorie równowagi opierają się na tautologiach zamkniętych w błędnych kołach rozumowania; 11 pytanie o prawdziwość lub fałszywość modeli wywodzonych z równań walrasowskiej równowagi jest nieuprawnione; 11 modele ogólnej równowagi są nieobalalne – a zatem nie są teoriami; 13 Pełne potwierdzenie takiej postawy ekonomistów głównego nurtu odczytuję w przedmowie prof. Urszuli Grzelońskiej do książki Roberta J. Barro, Makroekonomia, w której znajduję stwierdzenie: „U Roberta J. Barro rzeczywiste dane o trendach (...) są wykorzystywane przede wszystkim do sprawdzenia, czy zależności między zmiennymi »zgadzają się z teorią«, tzn. czy kierunek i skala zmienności wielkości ekonomicznych pokrywają się z tym, co wynika z modelowego traktowania zagregowanych reakcji gospodarstw domowych i firm” [Barro 1997, s. 16]. 14 Poddałem tutaj własnej trawestacji zdanie Poppera, które w oryginale brzmi: „W sporych fragmentach naszej wiedzy jest wiele prawdy, ale mało pewności”. Dyskusje 373 modele te są nieobalalne nie dlatego, że nie ma innych, lepszych modeli, lecz dlatego, że nie spełniają popperowskich zasad logicznego uzasadniania hipotez i nie objaśniają świata. Liczne modele równowagi stanowią wyraz tego, co Richard Feynman nazywał w swoich wykładach „kulturą cargo”, gdy powiadał: „porównuję różne pseudonauki do kultury cargo, ponieważ tutaj też przestrzegane są wszystkie reguły i formy badania naukowego, ale brakuje tego, co najistotniejsze. (...) Istnieje pewien rodzaj rzetelności naukowej, pewna zasada pracy naukowej, której w życiu odpowiada stuprocentowa uczciwość – wychodzenie ze skóry, żeby być w porządku. (...) Kiedy stwarzacie teorię i przygotowujecie ją do publikacji, musicie podać wszystkie fakty, które są z nią niezgodne. (...) Kiedy wyliczacie, co się z tą teorią zgadza, musicie zadbać o to, żeby zgadzało się coś więcej niż tylko te fakty, które wam tę teorię nasunęły; musicie wykazać, że do gotowej teorii także pasują inne zjawiska” [Feynman 1996, s. 344–345]. Zdaję sobie sprawę, że ta moja niechęć do owych licznych modeli równowagi nie jest szczególnie oryginalna ani nowa. Można zasadnie uznać, że pierwszym tekstem przeciw koncepcji racjonalności opartej na zasadzie maksymalizacji zysku i/lub użyteczności jest artykuł Armena Alchiana z 1950 r. Uncertainty, Evolution, and Economic Theory [Alchian 1950]. Następnie wystarczy sięgnąć po prace Nicholasa GeorgescuRoegena, wykład noblowski Herberta Simona z 1978 r. i ostatni jego wykład wygłoszony w Carnegie Mellon University. Krytyce modeli równowagi P. Mirowski poświęcił większość swej twórczości. Trudno wszystkich wymienić, ale muszę wspomnieć apel 44 ekonomistów, którzy w płatnym ogłoszeniu zamieszczonym w 1992 r. w „American Economic Review” wystąpili przeciwko monopolowi tzw. głównego nurtu ekonomii [The Plea... 1992]. W tym przypadku mamy rzeczywiście do czynienia z kuhnowskim paradygmatem w stanie czystym, zgodnym z jego definicją, według której „paradygmat określa to, co wspólne jest wszystkim członkom wspólnoty naukowej i tylko im” [Kuhn 1985, s. 407]. Jest to taki szczególny przypadek consensus omnium, zgodnie, z którym prawdą jest to, na co wszyscy się godzą, że jest prawdą. S. Amsterdamski w posłowiu do polskiego wydania książki T.S. Kuhna zwraca uwagę, że owo pojęcie paradygmatu zamyka się również w błędnym kole, „(...) w określeniu wspólnoty przez obowiązujący consensus, a consensusu – przez zespół wspólnych przeświadczeń członków wspólnoty” [Kuhn 1985, s. 495]. Przesłanie, które chcę zaproponować, jest poniekąd banalne. Przyjmuję, że walrasowskie ekonometryczne modele równowagi są lepszymi lub gorszymi narzędziami badawczymi wybranych procesów wymiany. Ale narzędzia nie tworzą teorii. To z teorii ekonomii ma wynikać wybór najlepszych narzędzi badawczych. Czy ekonometryczne modele równowagi są tymi najlepszymi narzędziami? Wydaje mi się, że tak nie jest. I to jest przyczyna, która sprawiła, że Tibor Scitovski już w 1976 r. nadał swej książce tytuł Smutna ekonomia (The Joyless Economy). Smutnych skutków głównego nurtu neoklasycznej ekonomii doświadczamy dzisiaj wszyscy w trakcie pełzającego kryzysu finansowego od jesieni 2007 r. Czy są teorie ekonomiczne, które mi odpowiadają? Oczywiście, że tak. Jednak wracając do tytułu tego tekstu – zawsze wolałem – zamiast „instrukcji użycia maszynki” – „książki kucharskie”, książki w których znajdowałem różne propozycje i różne rozwiązania. Jest to przede wszystkim dorobek starożytnych filozofów greckich: Platona i Arystotelesa. Są to teorie: szkoły austriackiej C. Mengera, L. von Misesa, I. Kirznera; dorobek uczniów Schumpetera, jak np.: V. Leontiefa, N. Georgescu-Roegena; prace twórców teorii gospodarek dualnych A. Lewisa, J.C.H. Feia i G. Ranisa. Ponadto wymienić należy przedstawicieli ekonomii instytucjonalnej – R. Coase’a i D.C. Northa. Ważny 11 374 Dyskusje wkład teoretyczny i empiryczny wnieśli do ekonomii Z. Griliches, i D. Jorgensen. W obecnym dyskursie ekonomicznym – nad przyczynami i skutkami kryzysu – przywoływani są wybitni polscy ekonomiści Oskar Lange i Michał Kalecki. I wiem, że na pewno nie wymieniłem wszystkich. Tekst wpłynął 16 czerwca 2011 r. Bibliografia Alchain A., Uncertainty, Evolution, and Economic Theory, „The Journal of Political Economy” 1950, t. 58, nr 3. An Interview with Wladimir Arnold, by S.H.Lui, Hong Kong Mathematics Society Newsletter, Feburary 1996. Aoki M., Yoshikawa H., Non-Self-Averaging in Macroeconomics Models: A Criticism of Modern Micro-founded Macroeconomics, CIRJE-F-761, September 2010 (http://www.e.u-tokyo.ac.jp/ cirje/resaerch/03resaerch02dp.html). Arrow K.J., Debreu G., Existence of an Equilibrium for a Competitive Economy, „Econometrica” 1954, nr 3. Arrow K.J., Mathematical Model In The Social Sciences, w: Policy Sciences in the United States, red. D. Lener, H.D. Lasswell, Stanford University Press, Stanford 1951. Arrow K.J., Rationality of Self and Others in the Economic System, „Journal of Business” 1986, nr 4. Arrow K.J. The Economic Implications of Learning by Doing, „The Review of Economic Studies” 1962, nr 3. Berndt E.R., Hulten Ch.R., Hard-to-Measure Goods and Services. Essays in Honor of Zvi Griliches, University of Chicago Press, Chicago 2007. Barone E., Il Ministro della Produzione nello Stato Collettivista, 1908, tłum. ang.: The Ministry of Production in the Collectivist State, red. F.A. Hayek, Collectivist Economic Planning, Routledge & Kegan Paul, London 1935. Barro R.J., Makroekonomia, PWE, Warszawa 1997. Bartman-Feferman A., Feferman S., Alfred Tarski. Życie i logika, Wydawnictwa Akademickie i Profesjonalne, Warszawa 2009. Becker G.S., Ekonomiczna teoria zachowań ludzkich, PWN, Warszawa 1990. Becker G., Interview (Acton Institute), „Religion&Liberty” 1993, nr 2, (http://www.acton.org/ publications/randl/rl_interview_76.php (03.06.2010). Blaug M., Interview with Mark Blaug The Problems with Formalism, Challenge, May-June 1998 (http://www.btinternet.com/~pae_news/Blaug1.htm) Elmendorf D.W., Mankiv N.G., Government Dept, NBER Working Paper, March 1998, nr 6470. Feynmann R.P., Pan raczy żartować, Panie Feynman, Wydawnictwo ZNAK, Kraków 1996. Frankfurter G.M., Market Efficiency cum Anomalie or Behavioral Finance? „Homo Oeconomicus” 2007, nr 1 (www.accedoverlag.de). Georgescu-Roegen N., Methods in Economic Science, „Journal of Economic Issues” 13, June 1979. Greenspan A., Era zawirowań. Krok w nowy wiek, Warszawskie Wydawnictwo Literackie MUZA, Warszawa 2008. Hurwicz L., The Theory of Economic Behavior, „American Economic Review” 1945, nr 35. Kaldor N., Economics Without Equilibrium, University Collage Cardiff Press, Cardiff 1985. Kirzner I.M., Konkurencja i przedsiębiorczość, Fijorr Publishing, Warszawa 2010. Kirzner I.M., The Economic Point of View: Essey in the History of Economic Thought, red. S. Moss, Sheed Andrews McMeel, Kansas City 1976. Koopmans T.C., Is the Theory of Competitive Equilibrium With It? „American Economic Review” 1974, nr 2. Dyskusje 375 Kuhn T.S., Dwa bieguny, Logika odkrycia naukowego czy psychologia badań? Państwowy Instytut Wydawniczy, Warszawa 1985. Leibenstein H., Poza schematem homo oeconomicus, PWN, Warszawa 1988. Leontief V., Letter to Science, „Science” 1982, nr 4555. Lucas R.E., Jr., On the Mechanics of Economic Development, „Journal of Monetary Economica” 1988, nr 22. Lui S.A., An Interview with Vladimir Arnold, Hong Kong Mathematics Society Newsletter, February 1996. Mankiw N.G., The Macroeconomist as Scientist and Engineer, NBER Working Papers 12349, June 2006. Małecki-Tepicht S., Makrokonfuzja: dylematy teorii ekonomicznych, „Studia Ekonomiczne” 2010, nr 10. Parente S., Prescott E., Barriers for Riches, University of Lausanne, October 1999. Popper K.R., Świat skłonności, Wydawnictwo Znak, Kraków 1996. Popper K.R., Wiedza obiektywna, Ewolucyjna teoria epistemologiczna, WN PWN, Warszawa 2002. Robinson J., Economic Philosophy, Penguin Books Harmondsworth, Middlesex 1962 (http://en. wikipedia.org/wiki/Utility#cite_note-3). Rosen S., Austrian and Neoclassical Economics, Any Gains from Trade? Working Paper 133, George J. Stigler Center for the Study the Economy and State, The University of Chicago, Chicago 1997. Snowdon B., Van H.R., Rozmowy z wybitnymi ekonomistami, PTE, Warszawa 2003. Słownik języka polskiego, PWN, Warszawa 1978. The Plea for a Pluralistic and Rigorous Economics, „American Economic Review”, May 1992. Ulam S.M., Przygody matematyka, Na scieżkach nauki, Prószyński i S-ka, Warszawa 1996. Walras L., Economique et Méchanique, „Bulletin de la Socitété Vaudoise de Sciences Naturelles” 1909, nr 45; przedruk w: „Metroeconomica” 1990, nr 1. Walras L., Oeuvres divers, w: August et Leon Walras, Oeuvres Economiques Complets, red. P. Dockes, C. Mouchot. J.-P. Potier, t. 13, „Economica”, Paris 2000. Cyt. za Michel De Vroey, Lucas on the Relationship between Theory and Ideology, „Economics The Open Access, Open Assassment E-Journal” 2011, nr 5 (http://d.doi.org/10.5018/economics-ejuornal.ja.2011-4). Jerzy Wilkin* Czy współczesna ekonomia jest instrukcją obsługi mechanizmu gospodarczego? Na marginesie artykułu S. Małeckiego-Tepichta Mam wrażenie, że zamieszczony wcześniej artykuł S. Małeckiego-Tepichta jest nie tylko wyrazem krytyki dominującego sposobu uprawiania ekonomii, ale wręcz buntem autora przeciwko temu sposobowi, prowadzącym do jego odrzucenia. W artykule tym jest dużo rozważań o ważnych składnikach współczesnej ekonomii, ale równie dużo uwagi poświęcono kwestiom epistemologicznym. Dyskurs ekonomiczny został umieszczony w szerokim kontekście filozoficznym, a zwłaszcza filozofii nauki. Co jest głównym przedmiotem krytycznej analizy dokonanej przez S. Małeckiego-Tepichta? Jest nim zdominowanie ekonomii przez teorie „ekonomicznej maszynki równowagi rynkowej”. Uważam, że krytyka ta jest w dużym stopniu uzasadniona. Autor artykułu najwięcej uwagi poświęca bardzo krytycznej analizie teorii ogólnej równowagi rynkowej, począwszy od L. Walrasa, na modelu K. Arrowa i G. Debreu kończąc. Sporo miejsca w omawianym artykule zajmuje też polemika z mechanistycznym modelem zachowań ludzkich, przedstawionym w latach 1970. przez G. Beckera. Artykuł S. Małeckiego-Tepichta jest napisany z dużym zaangażowaniem, a nawet z pasją. Styl artykułu może razić niektórych czytelników, przyzwyczajonych do chłodnej, naukowej narracji, ale ma on też swoje zalety: prowokuje do przemyśleń i polemiki. W naszym piśmiennictwie naukowym z zakresu ekonomii niewiele jest takich publikacji. Artykuł ten zasługuje na uwagę także ze względu na przedmiot rozważań; jest nim kilka najważniejszych koncepcji teoretycznych z „rdzenia” współczesnej teorii ekonomii. Dyskusja odnosi się więc do spraw fundamentalnych dla nauk ekonomicznych. Gospodarka prawie zawsze znajduje się w mniejszej lub większej nierównowadze rynkowej, ale ekonomiści są nieomal „opętani” ideą równowagi, a w teorii ekonomii koncepcje równowagi zajmują bardzo eksponowane miejsce. Dlaczego tak się dzieje? Przede wszystkim dlatego, że w teorii tej równowaga jest powiązana z efektywnością, a efektywność to najważniejsze pojęcie w ekonomii. Nierównowaga oznacza, iż czegoś jest relatywnie za dużo, a czegoś za mało, co w działalności gospodarczej wiąże się na ogół z nieefektywnym wykorzystaniem zasobów i niedostatecznym zaspokojeniem potrzeb. Najbardziej elegancką i będącą w wielkim poważaniu wśród ekonomistów (o czym świadczy liczba ekonomistów uhonorowanych Nagrodą Nobla za wkład w tę część ekono* Prof. dr hab. Jerzy Wilkin – Wydział Nauk Ekonomicznych Uniwersytetu Warszawskiego; e-mail: [email protected] 378 Dyskusje mii) jest teoria równowagi ogólnej, która w ujęciu zapoczątkowanym przez L. Walrasa jest modelem matematycznym i – jak stwierdza M. Blaug – pozbawiona jest treści empirycznej. To właśnie Walras wylansował pogląd, że ekonomia jako nauka może być tylko ekonomią matematyczną. Celem Walrasa, jak trafnie zauważył S. Małecki-Tepicht, nie jest opisywanie rzeczywistości, lecz stworzenie teoretycznej koncepcji stanu idealnego gospodarki. Próby powiązania tej koncepcji z materiałem empirycznym (danymi statystycznymi) pojawiły się później. Obecnie istnieje wiele modeli równowagi ogólnej, które są wykorzystywane do analiz ekonometrycznych (tzw. obliczeniowe modele równowagi ogólnej – Computable General Equilibrium Models) służących m.in. do oceny różnych rodzajów polityki ekonomicznej. Jedną ze współczesnych koncepcji rozwijających dorobek twórców teorii równowagi ogólnej jest grupa modeli nazywanych: Dynamic Stochastic General Equilibrium Models. Służą one do analiz makroekonomicznych, w tym wzrostu gospodarczego i fluktuacji gospodarczych. Chętnie są wykorzystywane przez banki centralne, w tym Europejski Bank Centralny. Nowa ekonomia instytucjonalna, która w odróżnieniu od tradycyjnego instytucjonalizmu amerykańskiego nie kontestowała dorobku ekonomii neoklasycznej, starała się uzupełnić ten dorobek o elementy instytucjonalne. O. Williamson, jeden z najważniejszych przedstawicieli nowej ekonomii instytucjonalnej stwierdził, powołując się zresztą na F. von Hayeka: „Analiza w kategoriach równowagi stanowi zatem w ekonomii jedynie wstęp do badań głównych problemów” [Williamson 1998, s. 21]. Instytucjonaliści różnych nurtów więcej uwagi poświęcają raczej źródłom i mechanizmom zmian w gospodarce bądź też przyczynom trwałości instytucji i systemów niż warunkom równowagi. Podjęto też próby skonstruowania teorii równowagi instytucjonalnej, która wyraźnie różni sie od teorii równowagi ogólnej. Szczególnie interesujące koncepcje w tej dziedzinie zaproponował M. Aoki [Aoki 2001]. Należy pamiętać, że rynek funkcjonuje lepiej lub gorzej w zależności od jakości ram instytucjonalnych gospodarki. Model doskonałej konkurencji czy doskonałego rynku, będący punktem wyjścia dla złożonych konstrukcji teoretycznych ekonomii neoklasycznej, był zawieszony w instytucjonalnej pustce. Instytucje są zawsze konkretne i kulturowo określone, a więc niezwykle zróżnicowane. Tymczasem zarówno teoria równowagi ogólnej, jak i inne składniki mechanistycznej ekonomii neoklasycznej są tworzone w taki sposób, jakby miały obowiązywać zawsze i wszędzie – być uniwersalną fizyką procesów gospodarczych. Kontekst instytucjonalno-kulturowy nie ma w nich znaczenia. Prawie we wszystkich podręcznikach ekonomii znajdziemy spopularyzowaną przez P. Samuelsona definicję ekonomii jako nauki pozwalającej odpowiedzieć na pytanie: co, jak i dla kogo produkować? Łatwo zauważyć, że w ostatnich kilku dekadach ekonomia skoncentrowała się na tym, jak produkować, zakładając, że rynek sam rozstrzygnie, co produkować i dla kogo. To bardzo zawężone podejście zostało upowszechnione przez M. Friedmana, w związku z propagowaniem ekonomii jako nauki pozytywnej. W jego ujęciu jakość danej nauki, w tym ekonomii, zależy od jej siły predykcyjnej. Było to bardzo popularne podejście do roli nauki wśród przedstawicieli pozytywizmu. Głosili oni, że celem nauki jest przewidywanie, a nie objaśnianie zjawisk [Woleński 2005, s. 32]. Jak zauważa S. Małecki-Tepicht, w koncepcjach L. Walrasa i innych twórców teorii równowagi ogólnej nawet produkcja przestała być przedmiotem zainteresowania ekonomii, a stała się nim wymiana rynkowa. Teoria równowagi ogólnej jest de facto teorią wymiany na rynku doskonałym. Pozytywistyczne i mechanistyczne podejście do gospodarowania stało się bardzo popularne wśród ekonomistów głównego nurtu. W bardzo wyrazisty i charakterystyczny sposób przedstawia je jeden z najbardziej znanych współczesnych ekonomistów, R. Lucas, który zatytułował opublikowany w 1988 r. artykuł (zamieszczony później w wydanej Dyskusje 379 w 2004 r. książce): On the Mechanics of Economic Development, podkreślając w ten sposób podobieństwo teorii ekonomii do teorii mechaniki. „Wolę używać słowa »teoria« w bardzo wąskim sensie, w odniesieniu do formalnego układu równań dynamicznych, który można »wrzucić« do komputera i uruchomić. To właśnie rozumiem przez pojęcie »mechaniki« rozwoju gospodarczego – konstrukcję mechanicznego, sztucznego świata, zaludnionego przez powiązane interakcjami roboty, których działania są zwykle przedmiotem badań ekonomicznych, świata zdolnego do przejawiania zachowań, których większość cech przypomina te właśnie, przeze mnie opisane, cechy prawdziwego świata” [Lucas 2010, s. 33]. Świat mechaniki można opisać językiem matematyki, uniwersalnego języka wszechświata. Prawidłowości tego świata można jedynie odkrywać, ale nie można ich zmieniać. W świecie mechaniki nie ma wolnej woli. Jak stwierdza M. Heller: „Językiem Wszechświata jest matematyka. Cała fizyka jest właściwie matematyką z pewnym naddatkiem interpretacyjnym, odnoszącym struktury matematyczne do rzeczywistego, dostępnego eksperymentom świata. Prawa matematyki nie podlegają zmianom, są wieczne, istnieją niezależnie od świata materialnego i od naszego umysłu. Gdy wykonuje się pracę matematyka, silnie doświadcza się tego, że nie można zmienić wyników” [Heller 2010, s. 26]. Wszechstronną i, w moim przekonaniu, trafną krytykę „mechanistycznej ekonomii” oraz prezentację złożonych relacji między fizyką a ekonomią przedstawił amerykański ekonomista i filozof nauki P. Mirowski, zwłaszcza w dwóch książkach: Against Mechanism [Mirowski 1988] i More Heat than Light [Mirowski 1989]. Jednym z ważnych wątków omawianego artykułu jest ocena dorobku G. Beckera jako jednego z najważniejszych przedstawicieli mechanistycznej ekonomii. G. Becker stał się symbolem „ekonomicznego imperializmu” i wiary w potęgę ekonomii jako uniwersalnej teorii zachowań ludzkich. W prowokujący, ale i błyskotliwy zarazem sposób zestawia S. Małecki-Tepicht G. Beckera z K. Marksem. Uważa on, że obaj przyjęli w swoich koncepcjach taką samą aksjologię. „Imperializm poznawczy wspólny Marksowi i Beckerowi sprawia, że według nich nie istnieją żadne inne możliwe, alternatywne wizje dziejów świata, gospodarek i zachowań ludzkich” – stwierdza S. Małecki-Tepicht. A jeśli nawet są, to zasługują na odrzucenie. G. Becker, podobnie jak wspomniany wcześniej R. Lucas, tworzy sztuczny świat (teorię świata), w którym działają identyczne „dwunożne kalkulatory” – roboty maksymalizujące użyteczność. Do „równowagowej maszynki do mięsa” można wrzucić wszystko, ale na wyjściu z tej maszynki mamy użyteczność, która, jak słusznie zauważa S. Małecki-Tepicht, nie jest zdefiniowana i logicznie biorąc, jest pojęciem pustym. Autor omawianego artykułu kończy swoje rozważania konkluzją, że ekonomia głównego nurtu w ujęciu jej najbardziej wpływowych przedstawicieli, których kluczowe poglądy wcześniej omówił, to „przygnębiająca nauka” (dismal science) i „smutna ekonomia” (joyless economy). Niecała ekonomia jest jednak smutna i przygnębiająca. S. Małecki-Tepicht wymienia wielu ekonomistów, którzy mu znacznie bardziej odpowiadają, tworzą bowiem „książki kucharskie”, a nie „instrukcje użycia maszynki”. Z trzech wymiarów ekonomii: ekonomii pozytywnej, ekonomii normatywnej i sztuki ekonomii, ekonomia głównego nurtu niemal całkowicie zagubiła ten trzeci wymiar. Tak uprawiana ekonomia nie mogła być sztuką (the art of economics), a przypominała raczej zbiór instrukcji obsługi mechanizmów gospodarowania. W roku 2000 ukazała się praca zbiorowa pod bardzo charakterystycznym tytułem: A not-so-Dismal Science: A Broader View of Economies and Societies, przygotowana pod redakcją M. Olsona i S. Kähkönena, przedstawiająca nowe, inspirujące nurty w badaniach ekonomicznych, wnoszące do ekonomii nieco jasności i optymizmu [A not-so ‑Dismal... 2000]. Są to nurty i osiągnięcia badawcze, które autorzy tej pracy umieszczają 380 Dyskusje na suburbiach ekonomii, w centrum bowiem nadal dominują monumentalne (dość ponure) gmachy, z których jednak coraz więcej osób migruje na przedmieścia, gdzie dzieje się bardzo dużo ciekawych rzeczy – zarówno w samej ekonomii, jak i na styku ekonomii z innymi naukami społecznymi. Artykuł S. Małeckiego-Tepichta został napisany w sposób „drapieżny” i wyraźnie prowokujący do dyskusji. Trudno byłoby zakwestionować większość krytycznych uwag pod adresem „filarów” ekonomii, jakie przedstawia autor artykułu. Filary te są jednak bardzo mocne i zapewne takimi pozostaną. Niemniej jednak zasadne są główne kierunki krytyki przedstawione w artykule: 11 odhumanizowanie ekonomii i zafascynowanie abstrakcyjnymi, ponadczasowymi mechanizmami; 11 zaniedbywanie badań empirycznych i preferowanie wyrafinowanych modeli matematycznych, nieopartych na danych statystycznych; 11 pomijanie społecznego charakteru gospodarowania, roli instytucji i kontekstu kulturowego; 11 przyjęcie prymitywnej koncepcji homo oeconomicus jako aksjomatu wiedzy o zachowaniu człowieka. Warto też zwrócić uwagę na to, iż krytykowane przez S. Małeckiego-Tepichta ważne osiągnięcia w ekonomii, takie jak teoria równowagi ogólnej czy ekonomiczna teoria zachowań ludzkich G.Beckera, stały się inspiracją dla wielu badań i nowych nurtów. Niektóre z nich zostały bardzo silnie wzbogacone fundamentem empirycznym, w tym także wykorzystującym badania eksperymentalne. Koncepcje te są nadal atrakcyjne intelektualnie i wysoko cenione w świecie akademickiej ekonomii. Niemniej jednak wzrastający pluralizm metodologiczny, otwieranie się ekonomii na dorobek innych nauk, zwłaszcza nauk społecznych, i narastająca krytyka ekonomii, słabo radzącej sobie z wyzwaniami współczesnego świata, stwarzają nadzieję na przełom w ekonomii, który spełni niektóre przynajmniej oczekiwania formułowane przez S. Małeckiego-Tepichta. Tekst wpłynął 12 lutego 2012 r. Bibliografia A not-so-Dismal Science: a Broader View of Economies and Eocieties, red. M. Olson, S. Kähkönen, Oxford University Press, Oxford 2000. Aoki M., Comparative Institutional Analysis, The MIT Press, Cambridge 2001. Heller M., Dowód na istnienie Boga. Z ks. prof. Michałem Hellerem rozmawiają Jerzy Baczyński i Adam Szostkiewicz, „Niezbędnik Inteligenta. Wydanie specjalne tygodnika Polityka” 2010, nr 6. Lucas R.E., Jr., Wykłady z teorii wzrostu gospodarczego, Wydawnictwo C.H. Beck, Warszawa 2010. Mirowski P., Against Mechanism, Rowman and Littlefield, Totawa 1988. Mirowski P., More Heat than Light, Cambridge University Press, Cambridge 1989. Williamson O.E., Ekonomiczne instytucje kapitalizmu. Firmy, rynki, relacje kontraktowe, WN PWN, Warszawa 1998. Woleński J., Epistemologia. Poznanie, prawda, wiedza, realizm, WN PWN, Warszawa 2005. Witold Kwaśnicki* O matematyzacji ekonomii Na marginesie artykułu S. Małeckiego-Tepichta Generalnie mogę powiedzieć, że zgadzam się z artykułem S. Małeckiego-Tepichta i z przedstawioną w nim krytyką nurtu matematycznego w ekonomii. Jednakże wydaje mi się, że przedstawiona w tym artykule krytyka jest zbyt wąska, bo w istocie odnosi się do krytyki nurtu zainicjowanego dziełem L. Walrasa oraz prac G. Beckera. Niezbyt podoba mi się też użyta przez autora metafora „maszynki do mielenia mięsa”, ale to już kwestia indywidualnej estetyki. Krytyka zbytniej matematyzacji ekonomii ma swoja długą tradycję, niestety autor nie wspomina nic o tym (poza krótką wzmianką o P. Mirowskim) i nie próbuje nawet jej przedstawić, choćby w skrótowej formie. Tradycyjnie, co najmniej od kilkudziesięciu lat, krytyczny stosunek do zbytniej matematyzacji analizy ekonomicznej jest wyrażany w ramach tzw. heterodoksyjnej ekonomii1. Znacznie dłuższą, bo trwającą od końca XIX w. krytykę podejścia matematycznego w ekonomii przedstawia szkoła austriacka, poczynając od jej założycieli C. Mengera i E. Boehm-Bawerka, jak również L. von Misesa i F. von Hayeka. Ekonomiści szkoły austriackiej niemalże z definicji sprzeciwiają się wykorzystaniu metod matematycznych w analizie ekonomicznej, uznając, że metody matematyczne bardziej zniekształcają obraz życia gospodarczego niż cokolwiek wyjaśniają. Z wykształcenia uniwersyteckiego jestem inżynierem elektronikiem (potem dopiero stałem się również ekonomistą) i z racji tego swojego doświadczenia zawodowego w przeszłości mogę powiedzieć, że nie uważam, iż należy iść aż tak daleko. Mimo że szkoła austriacka jest mi najbliższa, nie uważam, że matematyki nie należy stosować, ale matematykę należy stosować z umiarem, rozsądnie i w ściśle określonych celach (o czym wspomnę później). Tego postulatu brakuje mi w przykładach, o których pisze S. Małecki-Tepicht. W wydanej kilkadziesiąt lat temu Metodologii ekonomii M. Blaug (którego należy zaliczyć do ekonomistów głównego nurtu) zauważa, że: „Historycznie rzecz biorąc, wydaje się, że teoria RO [równowagi ogólnej] dokonała inwazji na ekonomię neoklasyczną i stopniowo przekształciła ją w coraz bardziej stechnicyzowany, w najwyższym stopniu sformalizowany aparat służący do wypowiadania się o gospodarce w sposób sugerujący, że wypowiedzi te odnoszą się do rzeczywistej gospodarki” [Blaug 1995, s. 253]. Wątek ten obecny jest w jego późniejszych pracach, np. w opublikowanym w 1998 r. artykule, gdzie pisze: „Współczesna ekonomia jest »chora«. Ekonomia stawała się coraz bardziej intelektualną grą uprawianą dla niej samej a nie z myślą o praktycznych zastosowaniach” * Prof. dr hab. Witold Kwaśnicki – Instytut Nauk Ekonomicznych, Uniwersytet Wrocławski; e-mail: [email protected] 1 Patrz np. http://www.paecon.net/PAEmovementindex1.htm 382 Dyskusje [Blaug 1998]. Blaug zauważa, że ekonomiści powoli przekształcili ekonomię w coś, co można nazwać „matematyką społeczną”, w której rygor formalny, zasadny w matematyce, przysłania to, co jest istotne w ekonomii, mianowicie zgodność teorii i praktyki. Zdaniem Blauga sytuacja ta nie tyle rozwinęła się w końcu XIX w. począwszy od prac L. Walrasa (o czym wspomina S. Małecki-Tepich w swoim artykule), lecz od opublikowanego w 1954 r. sławnego artykułu późniejszych laureatów Nagrody Nobla z ekonomii, K. Arrowa i G. Debreu. Praca tych noblistów stała się prawdziwym wzorcem dla wielu ekonomistów. Jeżeli jeszcze dla Walrasa koncepcja równowagi miała odniesienie do rzeczywistości, to dla współczesnych ekonomistów taki wymóg nie był już istotny. R. Coase nazwał takie podejście „ekonomią pisaną na tablicy” (blackboard economics). W wywiadzie opublikowanym w tym samym numerze „Challenge”, Blaug nie jest przeciwko modelowaniu ani przeciwko matematyce. Uważa on, że może być ono użyteczne, ale nie może być celem w samym w sobie. Blaug postuluje zmianę priorytetów w analizie ekonomicznej. Na pytanie, „Co może uratować ekonomię?” autor wyraża dosyć pesymistyczną opinię, że lokomotywa formalizmu i matematyzacji jest tak bardzo rozpędzona, że „to monstrum trudno będzie zatrzymać”. Na koniec tego wywiadu, odpowiadając na pytanie, „Czy jakiś fakt empiryczny albo silny kataklizm gospodarczy mógłby to zmienić?”, Blaug stwierdza, że z pewnością miałoby to wpływ, ale nie widzi by coś takiego mogło się wydarzyć [Blaug 1998b]. W podobnym duchu wypowiadał się w 1985 r. N. Kaldor. W jednym z wykładów wyraził opinię, że powojenny rozwój teorii równowagi konkurencyjnej był oparty na precyzyjnych założeniach matematycznych, które z logicznego punktu widzenia były niepodważalne, ale mogły być kwestionowane w konfrontacji z rzeczywistością. Ten stan matematycznej perfekcji teoria ta osiągnęła, zdaniem Kaldora, w 1954 r. Na określenie tegoż stanu Kaldor proponuje termin „matematyczny kryształ” (a mathematical crystal), zaproponowany wcześniej przez Heisenberga w kontekście modeli budowanych przez fizyków. Używając tego terminu, Kaldor chce wskazać na to, że teoria równowagi – w mniemaniu jej zwolenników – jest tak doskonała, że nie może już być zmieniana i ulepszana [Kaldor 1985]. Ta dosyć ślepa wiara w formalizmy i reguły matematyczne jest widoczna w bankowości – choćby w powszechnie stosowanej przez banki centralne tzw. regule Taylora. Reguła ta pozwala określać wartości nominalnych stóp procentowych w zależności od kilku zmiennych (celu inflacyjnego i inflacji bieżącej, potencjalnego i nominalnego PKB oraz realnej stopy procentowej odpowiadającej tzw. pełnemu zatrudnieniu). Innym przykładem fetyszu formalizmu w bankowości było używanie (zgodnie z zaleceniem tzw. systemu bazylejskiego) współczynnika kapitałowego, którego wartość nie może spaść poniżej 0,08 dla zapewnienia bezpieczeństwa operacyjnego banku. Współczynnik ten to stosunek kapitału własnego banku do sumy składników majątku banku ważonych ryzykiem. Podobnie jak w przypadku ustalania nominalnej stopy procentowej w regule Taylora, tak i we współczynniku kapitałowym systemu bazylejskiego istnieje możliwość nadużycia („pokusa nadużycia”) – zachęta do tego, aby tak manipulować pewnymi danymi, aby osiągnąć oczekiwane wartości wskaźników. I tak się właśnie działo w praktyce bankowej, co w dużym stopniu przyczyniło się do powstania obecnego kryzysu finansowego. Podobnie jest z niczym nieuzasadnionym wskaźnikiem zadłużenia państwa na poziomie zapisanego w Konstytucji progu 60% (art. 216, ustęp 5) czy ostrożnościowego progu 55% zapisanego w ustawie o finansach publicznych (art. 86). Tu można by długo opisywać konsekwencje takich arbitralnych ustaleń, ale wystarczy tylko wskazać na wszelkiego rodzaju „sztuczki” dokonywane przez polskiego ministra finansów, aby tylko nie przekroczyć „magicznego” progu 55%. Dyskusje 383 P. Krugman w artykule opublikowanym 2 września 2009 r. w „New York Times” też przypuścił ostry atak na matematyzację ekonomii, twierdząc, że matematyzujący ekonomiści przyczynili się do ostatniego kryzysu w 2008 r., bo uznali piękno modeli matematycznych za oznakę prawdy [Krugman 2009]. Krugman wypowiada się w podobnym duchu, jak wcześniej czynili to inni laureaci Nagrody Nobla: R. Coase, W. Leontief czy M. Friedman, pisząc że ekonomia została przekształcona w gałąź matematyki stosowanej bez dbałości o odpowiednie relacje z rzeczywistością gospodarczą. Artykuł ten spotkał się z szerokim odzewem ekonomistów ortodoksyjnych oraz heterodoksyjnych. Zdecydowaną (można nawet powiedzieć, wściekłą) odpowiedź na ten artykuł przedstawili, krytykowani przez Krugmana, zwolennicy szkoły chicagowskiej, J.H. Cochrane [2009] i D.K. Levine [2009]. Jednak wielu ekonomistów popiera stanowsko Krugmana. To z ich inicjatywy fragmenty artykułu Krugmana sformułowano w formie petycji, którą zamieszczono na stronie internetowej2, zachęcając do podpisywania się pod nią. Sama teza Krugmana o nadmiernej matematyzacji wydaje się słuszna, jednakże to, co odstrasza od podpisania tej petycji to proponowane, bardzo centralistyczne i interwencjonistyczne rozwiązania (co w przypadku P. Krugmana wcale nie dziwi, dziwi natomiast duża, ponad 2300, liczba osób, którzy podpisali się pod tą petycją). Do tego typu krytycznych opinii przyłączają się praktycy gospodarczy, np. w kwietniowym numerze „BusinessWeek” w 2009 r., poświęconemu kryzysowi w ekonomii, przytaczana jest opinia znanego eksperta finansowego, Paula Wilmotta: „Modele ekonomistów są po prostu okropne. Ekonomiści ci całkowicie zapominają o tym, jak ważny jest element ludzki” [Wilmott 2009]. Z całkiem odmiennych powodów krytykę matematyzacji ekonomii podejmują ekonomiści szkoły austriackiej. Ta niemalże programowa niechęć szkoły austriackiej do matematyki została zapoczątkowana przez jej twórców, C. Mengera, E. von Boehm-Bawerka, i była podtrzymywana przez wszystkich następców, w tym Misesa, Hayeka czy Rothbarda. Jest to temat na osobny artykuł, dlatego ograniczę się tutaj jedynie do przedstawienia, jak się wydaje reprezentatywnej dla szkoły austriackiej, opinii L. von Misesa z jego magnum opus, traktatu Ludzkie działanie. Jak się wydaje, ten stosunek szkoły austriackiej do matematyzacji ekonomii jest znacznie bardziej uzasadniony, uargumentowany i w dużym stopniu przekonujący w stosunku do opinii wyrażanych przez ekonomistów głównego nurtu. Stwierdzenia Misesa są dosyć kategoryczne, ale może dzięki temu zmuszają do przeanalizowania problemu i zastanowienia się nad tym, jaki jest rzeczywisty problem z matematyzacją ekonomii. Zgodnie z sugestią Misesa, „Metodę matematyczną należy odrzucić nie tylko ze względu na jej jałowość. Jest ona całkowicie fałszywa, gdyż opiera się na błędnych założeniach i prowadzi do nieprawdziwych wniosków. Jej sylogizmy są 2 Treść petycji: „Niewielu ekonomistów zauważyło nadejście obecnego kryzysu, ale to niepowodzenie w przewidywaniu jest najmniejszym problemem ekonomii. Znacznie ważniejszym była zawodowa ślepota na wielce prawdopodobne katastrofalne niepowodzenia gospodarki rynkowej (…) Zawodowi ekonomiści pobłądzili, bo jako grupa pomylili piękno, odziane w robiącą wrażenie matematykę, z prawdą (…) Ekonomiści zakochali się w starej, wyidealizowanej wizji gospodarki, w której racjonalni ludzie współdziałają na doskonałym rynku, udekorowanym wymyślnymi równaniami (…) Niestety, ta romantyczna i higienicznie czysta wizja gospodarki doprowadziła większość ekonomistów do zignorowania wszystkiego, co mogło źle zadziałać. W swoim zaślepieniu nie dostrzegli ograniczeń ludzkiej racjonalności, która często prowadzi do spekulacyjnych baniek i bankructw; zamknęli oczy na problemy instytucji powodujących szaleństwa; na niedoskonałości rynków – zwłaszcza rynków finansowych – które mogą powodować nagłe i niespodziewane załamania gospodarki; na niebezpieczeństwa spowodowane tym, że prawodawcy (regulatorzy) nie wierzą w prawo (regulacje). (…) Kiedy przychodzi do rozważania humanistycznych aspektów recesji i depresji, ekonomiści powinni zaniechać eleganckiego, ale niepoprawnego rozwiązania zakładającego, że wszyscy zachowują się racjonalnie, a rynki funkcjonują perfekcyjnie” [http://www.ipetitions.com/ petition/revitalizing_economics/?e]. 384 Dyskusje nie tylko jałowe, lecz odciągają umysł od badania rzeczywistych problemów i zniekształcają stosunki między różnymi zjawiskami” [Mises 2007, s. 300]. Ważne jest też spostrzeżenie Misesa, że aby sformułować równanie matematyczne, trzeba przeprowadzić długi wywód niematematyczny, o którym często się zapomina. To, co istotnie różni fizykę od ekonomii, to natura relacji pomiędzy elementami będącymi w sferze zainteresowań obu nauk. W fizyce „istnieją stałe relacje między różnymi elementami mechanicznymi i jeżeli ich istnienie da się potwierdzić za pomocą eksperymentów, to można wykorzystać takie równania do rozwiązania określonych problemów technicznych”. Natomiast w ekonomii, z samej natury zjawisk gospodarczych, takie stałe relacje po prostu nie istnieją. Rozważania nad problemem matematyzacji ekonomii prowadzą Misesa do wniosku, że „Ekonomista matematyczny nie przyczynia się w żaden sposób do wyjaśnienia procesu rynkowego” [Mises 2007, s. 304]. Na kilkadziesiąt lat przed rewoltą studentów francuskich w czerwcu 2000 r. Mises proroczo stwierdza, że: „Studenci są zdezorientowani. Na zajęciach ekonomii matematycznej są zasypywani wzorami matematycznymi opisującymi hipotetyczne stany równowagi, w których nie występuje działanie. Szybko dochodzą do wniosku, że równania te są całkowicie bezużyteczne, by zrozumieć działania gospodarcze” [Mises 2007, s. 737]. Ktoś mógłby zarzucić, że poglądy szkoły austriackiej (w tym Misesa) są dziwne i mało istotne, bo po prostu Mises nie znał matematyki (co zresztą nie jest prawdą). Można jednak podać wiele przykładów, że nawet tak zmatematyzowane nauki jak współczesna fizyka stoją przed podobnymi problemami metodologicznymi. Znów ograniczę się do jednego przykładu, chyba najsławniejszego fizyka naszych czasów. Albert Einstein w opublikowanym w latach 20. XX w. artykule Geometria a doświadczenie pisze o zagadce, „która niepokoiła badaczy we wszystkich czasach”, mianowicie zastanawia się nad tym, jak to jest możliwe, że „matematyka, która jest owocem ludzkiego myślenia niezawisłym od wszelkiego doświadczenia, tak doskonale stosuje się do przedmiotów rzeczywistych”. Czy poprzez czyste rozumowanie można badać własności przedmiotów rzeczywistych, bez odwoływania się do doświadczenia? Na tego typu pytania Einstein odpowiada, że „o ile twierdzenia matematyczne odnoszą się do rzeczywistości, nie są one pewne, a o ile są pewne, to nie odnoszą się do rzeczywistości”. Matematyka jest dyscypliną specyficzną, w tym sensie, że wszelkie działanie badawcze oparte jest na tzw. aksjomatyzacji. Dzięki temu możliwe jest ścisłe oddzielenie tego, co logiczne, formalne, od tego, co jest „namacalne”, rzeczowe i dostępne dla ludzkich zmysłów. Jak pisze Einstein, „wedle zasad aksjomatyzacji tylko zagadnienia logiczno-formalne są przedmiotem matematyki, a nie związana z nimi treść zmysłowa lub jakakolwiek inna”. I dalej pisze on niemalże dokładnie w duchu misesowskim, że „matematyka jako taka nie może niczego powiedzieć ani o przedmiotach poglądowo wyobrażenych, ani o przedmiotach rzeczywistych. W geometrii aksjomatycznej pojęcia »punkt«, »prosta« itd. są to tylko schematy beztreściowe. To, co nadaje im treść, nie należy do matematyki”3. Drugi, może nawet ważniejszy problem z matematyzacją ekonomii, który w artykule S. Małeckiego-Tepichta jest prawie nieobecny, to wykorzystywanie modeli matematycznych w praktyce życia gospodarczego. Wydaje mi się, że w analizie ekonomicznej źle rozumiemy wykorzystanie matematyki, w tym wykorzystanie pewnych metafor fizykalistycznych. Już nawet nie chodzi o to, że ekonomiści głównego nurtu zapominają o niezmiennej od dziesięcioleci opinii o nieużyteczności matematyki w ekonomii wyrażanej przez ekonomistów szkoły austriackiej. Najsmutniejsze jest to, że zapominają oni o prze3 http://www.wiw.pl/delta/geometria.asp Dyskusje 385 słaniu jednego z największych ekonomistów głównego nurtu, Alfreda Marshalla. W liście Marshalla napisanym w 1906 r. do A.L. Bowleya podsumowuje on swoje kilkudziesięcioletnie doświadczenie ekonomiczne następująco: „W miarę upływu lat mojej pracy rośnie we mnie przekonanie, że jest bardzo mało prawdopodobne by dobre twierdzenie matematyczne odnoszące się do hipotez gospodarczych było jednocześnie dobrą ekonomią, dlatego coraz częściej stosowałem się do następujących reguł: 1. Wykorzystuj matematykę jako język skrótu myślowego, a nie jako maszynerię badań. 2. Badaj ten matematyczny model, aż będziesz zadowolony. 3. Przetłumacz to na angielski (wyraź to w języku naturalnym). 4. Znajdź dobre przykłady z realnego życia ilustrujące twoje dokonania teoretyczne. 5. Spal matematykę. 6. Jeżeli nie udało ci się zrealizować (4), spal także (3). To ostatnie robiłem często”4. To ważne czwarte przesłanie jest prawie całkowicie nieobecne we współczesnym głównym nurcie analizy ekonomicznej. Najczęściej jest tak, że nasze wysiłki idą na marne i jedynie od czasu do czasu trafiają się perełki w wykorzystaniu matematyki w analizie procesów gospodarczych. Jak znacznie gorsza musi być sytuacja w ekonomii, korzystającej od końca XIX ze wzorców fizykalistycznych, jeśli jeden z największych fizyków XX w. Richard Feynman, laureat Nagrody Nobla z fizyki, powiedział: „rozumienie sensu matematycznego równań nie oznacza rozumienia fizyki. Sformułowanie równania, które opisywałoby w sposób ilościowy jakieś zjawisko fizyczne, wymaga wcześniej zrozumienia go na poziomie jakościowym, zrozumienia na poziomie rozumu, prawdopodobnej przyczyny powodującej to zjawisko wśród wielu możliwości”. Formalizacja matematyczna prawa naukowego nie wnosi nic nowego do naszej wiedzy na temat analizowanych zjawisk i ma właściwie praktyczny sens, czyli jest konieczna tylko wtedy, gdy wykorzystujemy naszą znajomość tego prawa do ilościowego przewidywania zjawisk. Samo równanie, pozbawione werbalnego jakościowego zaplecza, nie mówi nam nic o naturze zjawisk. Ten aspekt prognozowania nie został przedstawiony w tekście S. Małeckiego-Tepichta. Jaki najczęściej robimy błąd w analizie ekonomicznej? Warto przede wszystkim pamiętać, że jeżeli budujemy model, to robimy to przyjmując pewne założenia. Budujemy model, potem rozwiązujemy go, „bawimy się nim” – jak mówił Marshall, wyciągamy pewne wnioski. Na koniec tej analizy formułowane są postulaty, często mające na celu wsparcie działań w sferze realnej (np. w polityce gospodarczej państwa). Prawdę powiedziawszy w tym momencie w ekonomii zapominamy o wszystkim, co było poprzednio, to znaczy o założeniach, przy których został zbudowany dany model. Tyczy się to zwłaszcza polityków i ekonomistów, którzy doradzają rządowi; zapominają oni o tym, że pewne wnioski i postulaty zostały wyprowadzone z modelu o bardzo jasnych, ściśle określonych założeniach. Przykłady takiego „zapominalstwa” można by mnożyć. Wspomniany model równowagi jest dobrym przykładem, ale równie dobrym i często przeze mnie przytaczanym przykładem jest model IS-LM, wykorzystywany niemal powszechnie w polityce gospodarczej. Zapomina się przy tym całkowicie o pewnych istotnych założeniach leżących u podstaw tego modelu. Pamięta się tylko o końcowych rezultatach analizy modelu i stosuje się je w kreowaniu czy to polityki fiskalnej, czy monetarnej, a najczęściej założenia te w jawny sposób nie pasują do rzeczywistości gospodarczej. Kolejnym takim współczesnym przykładem, dla mnie niemalże klinicznym, jest reguła Blacka-Scholesa, którą wymyślili F. Black i M. Scholes w latach 70., rozwinęli wspólnie 4 Cyt. za N. Kaldor [1985]. 386 Dyskusje z R. Mertonem w latach 80. XX w. i potem wykorzystywali to w praktyce. W roku 1978 M. Jensen, amerykański ekonomista, z odwagą stwierdził, że „nie ma w ekonomii innej propozycji, która miałaby tak twarde dowody wspierające, jaką jest hipoteza efektywnych rynków” (efficient-markets hypothesis). Hipoteza ta prowadziła do jasnej konkluzji, że cena instrumentów rynkowych odzwierciedla wszelką dostępną wiedzę potrzebną do tego, aby ustalona została poprawna wartość takich instrumentów. Na tym przekonaniu zbudowana została cała matematyczna teoria inżynierii finansowej stosowana na Wall Street. Panowało ogólne przekonanie, że dzięki jej stosowaniu instytucje finansowe stają się bogatsze, system finansowy jest coraz bezpieczniejszy, a gospodarka zdrowsza. M.S. Scholes wspólnie z R.C. Mertonem, dostali w 1997 r. Nagrodę Nobla z ekonomii za „nowe metody wyceny opcji”5. Ma rację Scholes, twierdząc że „są modele, ale są też ci którzy używają tych modeli”, i wyrażając opinię, że winę w obecnej sytuacji kryzysowej ponoszą nie ekonomiści-teoretycy, ale „ci z Wall Street i z City, którzy posunęli się za daleko w ich praktycznym wykorzystaniu”6. Dalej Scholes stwierdza, że „wiele modeli używanych do opisu produktów strukturalnych było całkiem dobrych, ale dane wejściowe do nich były okropne. W istocie ogromna większość kontraktów odnoszących się do instrumentów pochodnych oraz sekurytyzacji dawała rezultaty zgodne z tym, co uzyskiwano w modelach. Były jedynie pewne wyjątki, które okazały się katastrofalnymi” [Efficiency... 2009]. Swego rodzaju „odkryciem” Scholesa jest opinia, że „w okresach napięć rynkowych zmienne, które normalnie nie są ze sobą skorelowane, stają się bardzo skorelowane”. Zatem nie należy się dziwić, że „amortyzatory kapitałowe proponowane przez modele VAR (value-at-risk) stają się całkowicie nieadekwatne i bezużyteczne”. Należy jednak zauważyć, że te uwagi Scholes powinien adresować także do siebie i do swojego kolegi Mertona. Obaj założyli bowiem w 1994 r. fundusz hedgingowy Long-Term Capital Management (LTCM), który funkcjonował, wykorzystując teoretyczne osiągnięcia obu noblistów. Merton mówił, że to jest taki odkurzacz, który ściąga centy i tworzy miliony. Jak wiemy, w rok po uzyskaniu przez nich Nagrody Nobla, w 1998 r. LTCM upadł (miał 4,6 mld długów), i gdyby nie wsparcie Banku Rezerwy Federalnej USA i powołanego ad hoc konsorcjum bankowego system finansowy doświadczyłby w końcu XX w. daleko idącej destabilizacji7. Okazało się – jak potem przyznaje sam Merton – że nie uwzględniono drobnych rzeczy, np. tego, że nastąpi kryzys finansowy w Rosji. Doświadczenia z LTCM nie odstraszyły obu ekonomistów od robienia ryzykownych interesów. Scholes (wspólnie z Chi-fu Huangiem, także profesorem ekonomii finansowej, i innymi partnerami: Ajmanem Hindy, Tong-sheng Sunem, and Lawrence Ng) tuż po upadku LTCM utworzył kolejny fundusz hedgingowy Platinum Grove Asset Management. W listopadzie 2008 r. ze względu na ogromne straty fundusz ten wstrzymał operacje i jest bliski upadku8. Drugi noblista od opcji też próbował robić interesy po upadku LTCM. W styczniu 2007 r. R. Merton (wspólnie z byłymi szefami JP Morgan) utworzył finansową firmę doradczą Trinsum Group, która wykorzystując teorię finansową miała „wypełnić lukę” pomiędzy konsultingiem zarządzania i bankowością inwestycyjną. Po dwóch latach działalności w lutym 2009 r. grupa ta ogłosiła upadłość, a jej 5 Trzecim laureatem powinien być F.S. Black, który niestety umarł w 1995 r. (sławna formuła Blacka-Scholesa wyceny opcji). 6 Cyt. za Efficiency and Beyond, „The Economist”, 16.07.2009. 7 Można by się zastanowić, czy gdyby Fed pozwolił wtedy upaść LTCM, to czy nie byłby to dostateczny sygnał ostrzegawczy dla innych instytucji finansowych, że w przypadku podejmowania ryzykownych działań instytucje te nie będą mogły korzystać ze wsparcia banku centralnego. W konsekwencji mogłoby nie dojść do tak głębokiego kryzysu finansowego, jakiego świat doświadcza od 2008 r. 8 http://www.bloomberg.com/apps/news?sid=aWQVwbD5Hfxw&pid=20601087 Dyskusje 387 wierzytelności wyniosły 15,8 mln USD wobec wartości aktywów na poziomie 1,1–1,2 mln USD9. Jak widzimy, te przykre doświadczenie niczego nie nauczyły ani Scholesa, ani Mertona. To różni właśnie takich ekonomistów, polityków i finansistów od praktyki inżynierskiej i fizycznej. Jak robią to fizycy, jak robią to inżynierowie? Przede wszystkim modele w fizyce i w inżynierii tworzone są iteracyjnie, metoda kolejnych przybliżeń, poprzez stałą konfrontację modeli z rzeczywistością. Fizycy i inżynierowie, mając pewien model teoretyczny, stosują go w praktyce z wielką ostrożnością. Zawsze zakłada się duży margines błędu. Projektując jakikolwiek system (np. most, budynek, akcelerator cząstek, statek kosmiczny), inżynier i fizyk zakładają, że powinien on wytrzymać co najmniej 50–60-procentowe przeciążenie (powyżej tzw. naturalnych, oczekiwanych warunków). Dobrym przykładem jest ten z elektroniki, który opowiedziano nam podczas studiów na jednym z wykładów, ilustrujący podejście nieobecne w ekonomii. Na elektronice wykładana jest teoria obwodów, na podstawie której konstruuje się radioodbiorniki, tworzy się też ich prototypy. Taki prototyp podlega gruntownej analizie i ważne jest przy tym nie tylko teoretyczne rozważanie, ale także praktyczne testowanie, doświadczenie. W Dzierżoniowie na Dolnym Śląsku była firma „Diora” (która niestety już nie działa) produkująca radioodbiorniki. To był przełom lat 50. i 60., w „Diorze” w tym czasie produkowano odbiorniki na lampach elektronowych. Lampy były umieszczane na tzw. chasis (płycie metalowej) i inżynierowie mieli ogromne problemy z wytłumieniem drgań. Jak włączano radioodbiornik, to chasis bardzo drgało i radioodbiornik, mimo że doskonale zaprojektowany, w którym teoretycznie wszystko powinno działać, nie funkcjonował. Inżynierowie z „Diory” zwrócili się do prof. Roszkowskiego, wtedy najlepszego specjalistę w tej dziedzine – teoretyka, ale także praktyka. On powiedział: „proszę przynieść mi suchego piasku”. Przynieśli mu ten piasek i on tym piaskiem posypał płytę i powiedział: „proszę włączyć radioodbiornik”. Po włączeniu okazało się, że na płycie powstawały strzałki drgań, na których nie było piasku. W miejscach powstawania strzałek drgań profesor kazał wywiercić niewielkie otwory. Cóż się okazało? Chasis przestało drgać, odbiorniki okazały się doskonałe i mogły z powodzeniem być sprzedawane na rynku (jeśli w ogóle w tym czasie można mówić o rynku). Czegoś takiego w analizie ekonomicznej nie ma i to nie dlatego, że – jak się często twierdzi – w ekonomii nie możemy robić eksperymentów. Tego typu myślenie i podejście nie występuje u Mertona, Scholesa i innych matematyzujących ekonomistów. Zresztą Nassim Taleb zarzuca Mertonowi i innym ekonomistom, że nie uwzględniają w swoich rozważaniach czegoś takiego jak „czarny łabędź” (nieoczekiwane, mało prawdopodobne zdarzenie). A jak daleko od świata rzeczywistego jest ten nurt badawczy, to widać chociażby po pewnych sformułowaniach, które możemy spotkać w publikacjach np. ekonomistów neoklasycznych. Bardzo często publikacje te zaczynają w stylu: „Załóżmy, że w gospodarce Romera, Lucasa, Mankiwa będzie tak 9 http://nudaveritas.biznes.net/blogposts/view/16588-Firma_noblisty_z_ekonomii_zbankrutowala.html, komunikat PAP, 26.02.2009. Na marginesie tych rozważań można zadać pytanie, jak to jest możliwe, że ludzie, którzy doprowadzają świat biznesu na skraj katastrofy, nadal mogą prowadzić interesy i nie są wykluczeni przez społeczność przedsiębiorców? W normalnej gospodarce rynkowej byłoby to niemożliwe. Ostracyzm środowiska biznesowego w stosunku do nieuczciwych przedsiębiorców, który był bardzo silnym mechanizmem w znacznie zdrowszej (rynkowej) gospodarce XIX w., jest obecnie całkowicie nieznany i nieobecny. Zastąpiły go, z wysoce negatywnym skutkiem, wszechobecne regulacje rządowe i niewyobrażalny rozrost prawa. Widocznie takie słowa jak honor, odpowiedzialność, uczciwość straciły już całkowicie na znaczeniu Dewaluacja tych podstawowych dla rynku postaw dokonała się w ostatnich 70. i 80. latach i – jak się wydaje – jest ściśle skorelowana z rozrostem rządu i wzrostem wzajemnych zależności (choć słowo „zażyłości” wydaje się bardziej odpowiednie) pomiędzy biznesem i rządem, gospodarką i polityką. Można pokusić się o hipotezę, że dewaluacja tych postaw jest dokładnie tak sama jak rządowa inflacja pieniądza w XX w. 388 Dyskusje a tak …”; albo też fragment, który znalazłem u Snowdona i Wane’a (Współczesne nurty teorii makroekonomii) odnośnie do ostatniego laureata Nagrody Nobla z ekonomii T. Sargenta: „w świecie Sargenta i Wallace’a bezrobocie może się odchylać od stopy naturalnej w wyniku nieprzewidywalnych w wstrząsów popytu…” itd. Ten z konieczności krótki komentarz chciałbym zakończyć wierszem W.J. Macquorna Rankine’a Zakochany matematyk10, który dziwnym zbiegiem okoliczności opublikowany został w tym samym 1874 r., kiedy Léon Marie Esprit Walras (1834–1910) opublikował Éléments d’économie politique pure, ou théorie de la richesse sociale, dzieło, które, nie tylko zdaniem S. Małeckiego-Tepichta, zapoczątkowało matematyzację analizy ekonomicznej. Kumulacją tego kierunku rozwoju matematyki ekonomicznej był opublikowany osiemdziesiąt lat później, w 1954 r., model Arrowa-Debreu, który (żartując tylko troszeczkę) można uznać za odpowiedzialny za wszelkie zło współczesnej analizy ekonomicznej głównego nurtu. Zakochany matematyk William John Macquorn Rankine (1820–1872) I. Pewien matematyk dał sobie skraść serce, W damie ślicznej, ponętnej zakochał się wielce. Ponieważ zapałał zupełną miłością, W całkowitym skupieniu nad każdą krągłością, Mierzył i studiował proporcje podziału, Dowodząc, że wybranka bliska ideału. II. Mnożył, różniczkował, rachował z zapałem, Równania układał doprawdy wspaniałe. Działaniami rozwiewał wszelkie niewiadome, I rozwiązał zadanie na kompletną żonę. Nakreślał linie jej figury i twarzy, Licząc, że taką ją sobie wymarzył. III. A że każda kobieta kocha piękne dźwięki, Obmyślił teorię zdobycia jej ręki. Akustycznych równań użył znakomicie, By miłosną arią przekształcić jej życie. W istocie gdy melodię tylko zaczął grać, Dama włosy z głowy wnet zaczęła rwać. IV. Pewny siebie rachmistrz, bez cienia zwątpienia, Nie odstąpił wcale od swego liczenia. Wywodząc, że taniec to kolejna gratka, Której musi ulec czarowna dzierlatka, W następnym równaniu wyprowadził walca, A następnie polkę, jako rodzaj tańca. 10 Tłumaczenie Olga Pisklewicz. Polskie tłumaczenie zostało opublikowane w książce Pod prąd głównego nurtu ekonomii, red. Mateusz Machaj, Instytut Misesa, Warszawa 2010, s. 233–234. Dyskusje 389 V. Symetrycznym krokiem na parkiet wyruszył Zakładając pewnie: damę to poruszy. Wykonując obrót wokół własnej osi, Swój środek ciężkości niezgrabnie przenosił. Zatem grawitacja figla mu spłatała I upadł, aż podłoga złowróżbnie zadrżała. VI. Nie poddał się jednak, projektował dalej: Miłości dowodzić należy wytrwale. Afekt – to wiedział ze swych kalkulacji – Musi odwzajemnić dama pełna gracji. Przecież wszyscy wiedzą z mechaniki prawa: Akcja równa się reakcji – ot, cała zabawa! VII. „Zatem niech x oznacza piękno, y – manier dobrych szereg”, „z – pomyślność”, bo szczęścia nigdy nie za wiele, „L – niech znaczy miłość”, a pojmiemy wnet, że „L staje się funkcją x, y i z”. Matematyk dostrzegł w tym potencjał wielki I ujął w równania rachunkowe gierki. VIII. Postanowił scałkować jeszcze L po t. t – to czas i perswazja, a więc stwierdził, że „Całka oznaczona – drogą do ołtarza, Co przedział czasowy klarownie wyraża”. Matematyk w duszy poczuł słodką błogość: Granicą ich uczuć będzie nieskończoność! IX. „Skoro Pani Algebra tak wiele wylicza I jest w stanie określić nawet bieg księżyca, To uczucia kobiety określi tym bardziej”, Stwierdził matematyk i poczuł się raźniej, Lecz dama uciekła z wojakiem wyśnionym, A nieszczęsny logik oniemiał zdumiony. P. O’Rourke w książce pt. Wykończyć bogatych!, zastanawiając się nad wpływem teorii ekonomicznej na praktykę życia gospodarczego zapytał znajomego maklera Dawida, „jakie teorie ekonomiczne wyznają ludzie pracujący na giełdzie. Czy przynależą do »klasycznej szkoły«, która głosi, że siły popytu i podaży same wzajemnie się regulują i nie sposób się im przeciwstawiać, czy należą może do zwolenników teorii Keynesa, który wierzył że programy rządowe mogą stworzyć dobrobyt i dać wszystkim zatrudnienie? A może są monetarystami i sądzą, że cykle ekonomiczne wiążą się z polityką banku centralnego? – Moim zdaniem g… ich to obchodzi – odpowiedział Dawid” [O’Rourke 2006, s. 28]. Może warto uznać słowa maklera Dawida za przestrogę i zadbać, aby „prawdziwa ekonomia trafiła pod strzechy”, czyli spopularyzować i upowszechnić znajomość ekono- 390 Dyskusje mii. Przedstawianie ekonomii w bardzo sformalizowanej, zmatematyzowanej formie nie służy temu celowi. Jeśli tego nie zrobimy, to zarówno konsumenci, jak i praktycy (przedsiębiorcy, finansiści, maklerzy, bankierzy) zachowają się jak ta dama w wierszu Rankine’a, która „uciekła z wojakiem wyśnionym”. A nieszczęsny ekonomista oniemiał zdumiony. Tekst wpłynął 3 stycznia 2012 r. Bibliografia Arrow K.J., Debreu G., Existence of an Equilibrium for a Competitive Economy, „Econometrica” 1954, nr 22. Blaug M., Disturbing Currents in Modern Economics, „Challenge”1998a, t. 41, nr 3. Blaug M., Metodologia ekonomii (I wyd. ang. 1980, drugie 1992), WN PWN, Warszawa 1995. Blaug M., The Problems with Formalism, „Challenge” 1998b, t. 41, nr 3. Cochrane J.H., How did Paul Krugman get it so Wrong? http://faculty.chicagobooth.edu/john. cochrane/research/Papers/krugman_response.htm (16.09.2009). Efficiency and Beyond, „The Economist”, 16.07.2009. Kaldor N., Economic without Equilibrium, The Okun Lectures, M.E. Sharpe, Armonk, New York 1985. Krugman P., How Did Economists Get It So Wrong? „The New York Times”, 2.09.2009. Levine D.K., An Open Letter to Paul Krugman’, http://www.huffingtonpost.com/david-k-levine/ an-open-letter-to-paul-kr_b_289768.html (18.09.2009). Mises L. von, Ludzkie działanie. Traktat o ekonomii, Instytut Misesa, Warszawa 2007 (pierwsze wydanie angielskie ulazało się w 1949 r.). Pod prąd głównego nurtu ekonomii, red. Mateusz Machaj, Instytut Misesa, Warszawa 2010. O’Rourke P.J., Wykończyć bogatych! Wydawnictwo Wektory, Warszawa 2006. Wilmott P., What Good Are Economists Anyway? „BusinessWeek”, 16.04.2009. R E C E N Z J E I O M Ó W I E N I A Andrzej Czyżewski, Agnieszka Poczta-Wajda, Polityka rolna w warunkach globalizacji. Doświadczenia GATT/WTO, Polskie Wydawnictwo Ekonomiczne, Warszawa 2011, s. 324. Podjęty w recenzowanej książce problem interwencyjnej polityki państwa w kontekście procesów globalizacji jest interesującym poznawczo pytaniem badawczym, inspirującym do dyskusji na temat konsekwencji liberalizacji owej polityki oraz jej skuteczności w realizacji zamierzonych celów. Kumulacja negatywnych zjawisk w rolnictwie wynikających z zawodności rynku jest wciąż ważnym argumentem przemawiającym jednocześnie za interwencyjną polityką państwa i przeciw liberalizacji światowej polityki rolnej. Trwająca kilka lat Runda Urugwajska, w trakcie której nie można było uzyskać konsensusu w sprawie liberalizacji, dowiodła jak silne są dążenia państw rozwiniętych do obrony wspólnej polityki rolnej w jej dotychczasowym kształcie. Obawa o niekorzystne następstwa liberalizacji w rodzimych krajach okazała się silniejsza niż dążenie do „uczciwego” handlu produktami rolnymi. Sektorowa specyfika rolnictwa znajdująca odzwierciedlenie m.in. w niepodzielności czynników wytwórczych bezsprzecznie przemawia za stosowaniem aktywnych form interwencji państwa. Z drugiej jednak strony z uwagi na to, że zniekształca ona warunki wymiany międzynarodowej i pozbawia kraje rozwijające się korzyści wynikające z przewag komparatywnych, zachodzi potrzeba liberalizacji światowej polityki rolnej. Przejawem owej liberalizacji było Porozumienie w Sprawie Rolnictwa zawarte w ramach Rundy Urugwajskiej GATT/WTO, którego następstwa nie są tak duże, jak się tego początkowo spodziewano. Autorzy recenzowanej książki podjęli próbę odpowiedzi na pytanie o skutki tego porozumienia w światowym handlu artykułami rolnymi, uwzględniając wpływ ograniczenia w zakresie instrumentów pozataryfowych, redukcji ceł, subsydiów eksportowych oraz ograniczeń w zakresie wsparcia wewnętrznego. Przedmiotem głównego zainteresowania autorów są zmiany w handlu wybranej grupy krajów, będących największymi „graczami” na światowym rynku rolnym, tj. krajów UE, USA, Japonii, Australii i Nowej Zelandii. Książka stanowi obszerne i ciekawe studium omawiające z imponującą znajomością problemu politykę rolną, kierunki ewolucji jej instrumentów dostosowywanych do zmieniających się makroekonomicznych warunków, szczególnie w kontekście procesów globalizacji i wynikających z tego implikacji dla handlu światowego. Całość rozważań jest znakomicie udokumentowana danymi statystycznymi obejmującymi okres bazowy dla Porozumienia w Sprawie Rolnictwa, tj. lata 1986–1988, oraz okres implementacji porozumienia, tj. lata 1995–2001. Licząca ponad 300 stron praca pozwala spojrzeć całościowo na problematykę liberalizacji handlu, przedstawia kompleksowy obraz jej złożoności, konfliktów interesów i obiektywnych ograniczeń. Książka zaopatrzona jest w aneks, zawierający m.in. zestaw wskaźników wsparcia producentów rolnych OECD, słowniczek podstawowych pojęć oraz bogatą bibliografię liczącą ponad 200 pozycji, głównie anglojęzycznych. W rozdziale pierwszym podjęto rozważania teoretyczne nad makroekonomicznymi uwarunkowaniami rozwoju sektora rolnego, zmierzające do udowodnienia tezy, że rynek 392 Recenzje i omówienia deprecjonuje rolnictwo w jego dalszym i bliższym otoczeniu jako gałęź surowcową oddaloną w sensie ekonomicznym od nabywcy. Gdyby nie przymus konsumpcyjny w zakresie spożycia żywności, czynniki wytwórcze musiałby zostać przesunięte z rolnictwa do sektorów gospodarki, w których miałyby efektywniejsze zastosowanie. Jak piszą autorzy, „naturalne i ekonomiczne uwarunkowania wytwarzania surowców do produkcji żywności implikują nieefektywną alokację czynników wytwórczych” (s. 23–24). Wiąże się to głównie z ograniczonością czynnika ziemi i ograniczonymi możliwościami tworzenia nadwyżki ekonomicznej i zwiększania produkcji, ale także z niekorzystnymi relacjami rynkowymi, mającymi odzwierciedlenie w wyższej elastyczności podaży produktów rolnych niż popytu na artykuły żywnościowe. Rolnictwo jako gałąź surowcowa partycypuje w większym stopniu w wytwarzaniu wartości dodanej niż w osiąganiu z tego tytułu korzyści. Ponieważ transfer zwrotny tych korzyści nie dokonuje się samoistnie przez mechanizm rynkowy, zachodzi potrzeba wzmocnienia w rolnictwie roli państwa w funkcji alokacyjnej poprzez mechanizm budżetowy i infrastrukturę instytucjonalną. W przeciwnym razie, zdaniem autorów książki, mechanizm rynkowy zawsze będzie marginalizował sektor rolny i tym samym wpływał na zachwianie równowagi ekonomicznej i społecznej w całej gospodarce. W rozdziale tym znajduje się też miejsce na wyjaśnienie zasady wahadła w polityce monetarnej i fiskalnej oraz związków między polityką makroekonomiczną a rolnictwem i efektywnością tej polityki. Rozdział drugi zawiera charakterystykę sektora rolnego, polityki rolnej, jej pryncypiów, filarów, instrumentów oraz uwarunkowań ewolucji przed zakończeniem Rundy Urugwajskiej w krajach UE, USA, Japonii, Australii i Nowej Zelandii. Wybór tych krajów jest podyktowany dużym udziałem w światowym handlu rolnym, a co za tym idzie silną pozycją w negocjacjach Rundy Urugwajskiej i znacznym wpływem na ostateczny kształt Porozumienia w Sprawie Rolnictwa. Z owej charakterystyki wyłania się obraz rolnictwa o pewnych zróżnicowanych i podobnych cechach modelu rozwoju. To, co wspólne, to sukcesywnie zmniejszający się udział rolnictwa w podstawowych wskaźnikach ekonomicznych (PKB, zatrudnienie, udział importu i eksportu rolnego w imporcie i eksporcie ogółem), natomiast to, co odmienne, to w znacznym stopniu polityka rolna zdeterminowana zróżnicowanymi uwarunkowaniami rozwoju sektora rolnego. W konkluzji autorzy stwierdzają, że zróżnicowana polityka rolna wpłynęła na stanowisko poszczególnych krajów podczas negocjacji prowadzonych w ramach tej rundy, czego wyrazem było opowiedzenie się krajów o większej skali interwencji za umiarkowaną liberalizacją światowego handlu. W rozdziale trzecim opisano przebieg rozpoczętej w 1986 r. Rundy Urugwajskiej, której rokowania przedłużyły się do 1994 r., co świadczy o tym, jak trudna była materia podjętych rokowań. Dotychczasowa polityka rolna krajów rozwiniętych, m.in. poprzez mechanizm wspierania cen i subsydia eksportowe, przyczyniła się do zniekształcenia międzynarodowej wymiany produktami rolnymi i ograniczała dostęp do rynków światowych dla krajów rozwijających się. Dlatego kluczową kwestią rokowań w ramach Rundy Urugwajskiej było stworzenie jednolitego systemu regulacji i zasad handlu produktami rolnymi oraz wspierania sektora rolno-żywnościowego. Autorzy książki z dużą starannością badawczą omówili poszczególne elementy zobowiązań wynikających z Porozumienia w Sprawie Rolnictwa GATT/WTO zawartego w 1994 r. dotyczących trzech kluczowych obszarów: dostępu do rynku, subsydiów eksportowych i wsparcia wewnętrznego. Aby dokonać oceny procesu implementacji tych zobowiązań w zakresie dostępu do rynku, autorzy poddali szczegółowej analizie poziom ceł, sposób funkcjonowania paraceł oraz wykorzystanie specjalnych klauzul ochronnych. Pozwoliło to na stwierdzenie, że zmiany w polityce ochrony rynków w niewielkim stopniu przełożyły się na wzrost wielkości im- Recenzje i omówienia 393 portu w krajach rozwiniętych. Zdaniem autorów jedną z przyczyn był wzrost średniego poziomu ceł na produkty rolne w wyniku taryfikacji, jaka nastąpiła po Rundzie Urugwajskiej, co wynikało z zamiany pozataryfowych instrumentów (ograniczenia ilościowe) na cła oraz z dużej swobody wyboru produktów o znacznej redukcji ceł i minimalnej redukcji. Spośród wielu innych ustaleń dokonanych w analizie przeprowadzonej przez autorów książki warto wymienić wzrost w większości krajów rozwiniętych udziału produktów rolnych objętych szczególnie wysokim cłem oraz dużego zróżnicowania ich poziomu. W analizie implementacji porozumienia w zakresie wsparcia wewnętrznego autorzy omówili trzy grupy instrumentów zaliczonych według stopnia zniekształcania mechanizmu rynkowego i handlu zagranicznego do „skrzynki żółtej” (wsparcie podlegało redukcji do 20%), „skrzynki niebieskiej ” i „skrzynki zielonej”. Wprawdzie w pierwszych trzech latach realizacji porozumienia łączna wartość transferów pieniężnych dla sektora rolnego w krajach OECD wzrosła, to jednak za pozytywne zjawisko należy uznać zmianę struktury wsparcia, polegającą na wzroście wartości instrumentów zaliczanych do „skrzynki zielonej” i spadku w dwóch pozostałych. Autorzy mają jednak uzasadnione wątpliwości, na ile wskaźnik AMS, służący do ustalenia redukcji wsparcia wewnętrznego w ramach „skrzynki żółtej”, odzwierciedla faktyczną skalę tej redukcji. Z wielu przytoczonych w książce przykładów wynika, że jego konstrukcja nie ilustruje w pełni rzeczywistego wsparcia cenowego i zniekształca jego obraz. Dlatego nie dziwi twierdzenie, że „większość krajów rozwiniętych jeszcze w okresie implementacji porozumienia nie wykorzystała nawet w połowie przyznanych limitów wsparcia obliczonych wskaźnikiem AMS, co oznacza, że posiadają one możliwość ponownego zwiększenia wsparcia udzielanego rolnikom” (s. 133). Autorzy omówili również skutki wdrażania porozumienia w zakresie trzeciego elementu, jakim są subsydia eksportowe. Przeprowadzona analiza pozwoliła na wyciągnięcie generalnego wniosku o osiągnięciu dużej skuteczności redukcji tych subsydiów, zwłaszcza w krajach UE. Skłoniło to autorów do ogólnej konkluzji, że implementacja porozumienia była bardziej skuteczna w liberalizowaniu polityki handlowej, tj. obniżaniu subsydiów eksportowych i ceł, niż w zreformowaniu wsparcia wewnętrznego. Potwierdziła to również analiza wsparcia wyrażonego za pomocą odsetka PSE (wskaźnik ten określa udział wsparcia w przychodach producentów rolnych), struktury tego wsparcia (udział wsparcia powiązanego z bieżącym poziomem produkcji we wskaźniku PSE) oraz zróżnicowania wsparcia wobec różnych produktów. W rozdziale tym zamieszczono obszerne i wyczerpujące dane porównawcze dotyczące wsparcia wyrażonego wskaźnikami % PSE, relacji wskaźników wsparcia AMS i PSE, poziomu i struktury wsparcia, wskaźnika ochrony producentów rolnych NPC w okresie bazowym i w okresie implementacji Porozumienia w Sprawie Rolnictwa. Rozdział czwarty zawiera omówienie głównych założeń reform w polityce rolnej przeprowadzonych w wybranych krajach rozwiniętych w wyniku Rundy Urugwajskiej oraz przebieg procesu implementacji Porozumienia w Sprawie Rolnictwa. Swoją uwagę autorzy skoncentrowali na reformach w UE i USA, gdzie kluczowe zmiany polegały na przeorientowaniu struktury wsparcia m.in. po to, aby zastąpić instrumenty podlegające redukcji, a więc ze „skrzynki żółtej”, instrumentami zaliczanymi do „skrzynki niebieskiej”, wyłączonymi z redukcji. Dlatego zastąpiono wsparcie cenowe bezpośrednim wsparciem dochodów, a wysokość dopłaty przestała być zależna od bieżącej wielkości produkcji. Lektura tego interesującego rozdziału upoważnia do stwierdzenia, że stosunek krajów rozwiniętych do zobowiązań porozumienia był ambiwalentny. Z jednej strony opowiadały się one za liberalizacją handlu produktami rolnymi, a z drugiej – zmierzały do utrzy- 394 Recenzje i omówienia mania poziomu wsparcia za pomocą nowych instrumentów. Dowodzi tego chociażby przykład UE, która zwiększyła łączną wartość wsparcia z 90 mld ecu w okresie bazowym (1986–1988) do 95 mld euro w 2001 r., a jednocześnie spełniała zobowiązania porozumienia. Rozdział piąty w zasadniczej części stanowi dyskusję autorów nad oceną skutków Rundy Urugwajskiej GATT. Zdaniem autorów cele porozumienia wynegocjowanego w ramach tej rundy nie zostały w pełni zrealizowane, a samo porozumienie okazało się mało efektywne. Z przeprowadzonej analizy danych dotyczących wsparcia sektora rolnego wynika, że nie uległo ono zasadniczemu zmniejszeniu (poza pewnymi wyjątkami), a jednocześnie zostały wypełnione zobowiązania wynikające z treści zawartego porozumienia. Przyczyn tego stanu upatrują w doborze okresu bazowego dla porozumienia (1986–1988) oraz w zmianach zachodzących w tym czasie w relacji cen światowych i cen wewnętrznych (niskie ceny światowe w okresie bazowym). Kolejną kontrowersyjną kwestią jest formuła redukcji ceł oparta na wielkości średniej, co skutkowało mniejszą redukcją ceł wysokich (zwłaszcza produktów strategicznych), a większą redukcją ceł niskich oraz dużym zróżnicowaniem stawek. W końcowej części rozdziału przedstawiono pięć scenariuszy liberalizacji wymiany handlowej artykułami rolno-żywnościowymi opracowanych za pomocą modelu AGLINK, w którym uwzględniono wpływ zmian ceł oraz subsydiów eksportowych. Pozwoliło to na określenie różnych scenariuszy wpływu liberalizacji handlu produktami rolnymi na zmiany cen światowych oraz odchylenia wielkości produkcji, eksportu i importu na wybranych rynkach (pszenicy, innych zbóż, ryżu, wieprzowiny, drobiu, wołowiny mleka odtłuszczonego w proszku i masła). Z uwagi jednak na pominięcie w symulacji (z obiektywnych przyczyn) wpływu zmian instrumentów wsparcia wewnętrznego rolnictwa, przedstawione scenariusze mają ograniczoną przydatność. Na wielu rynkach to właśnie instrumenty wsparcia wewnętrznego mają największy wpływ na wielkość produkcji i handel zagraniczny. Nie można jednak przewidzieć, które instrumenty tego wsparcia i w jakim stopniu będą w przyszłości redukowane, a które zyskają na znaczeniu. Ostatni rozdział dotyczący dostosowań Wspólnej Polityki Rolnej UE po 2013 r. w części odnoszącej się do przyszłych zmian w WPR pod wpływem globalnych uwarunkowań popytowych, podażowych oraz środowiskowo-klimatycznych budzi pewne wątpliwości z uwagi na to, że trudno jest przewidzieć, kiedy i w jakim stopniu będą następować przyszłe zmiany w polityce rolnej mające na celu dalszą liberalizację handlu produktami rolnymi. Potwierdzają to kończące się fiaskiem rozmowy negocjacyjne członków WTO podejmowane wielokrotnie po Rundzie Urugwajskiej, w trakcie których dominowała postawa obrony własnych interesów krajów rozwiniętych, przedkładana nad potrzebę liberalizacji światowego handlu produktami rolnymi. Reasumując, recenzowana książka zasługuje na szczególne uznanie, posiada wysokie walory poznawcze i jest cenną pozycją z zakresu polityki rolnej. Jej lektura daje całościowy pogląd na temat liberalizacji światowego handlu rolnego, ale także zachęca do dyskusji nad kierunkami dalszych reform polityki rolnej w warunkach globalizacji. Do przestudiowania tej książki zachęca również renoma profesora A. Czyżewskiego jako jednego z najbardziej znanych specjalistów z zakresu polityki rolnej, który konsekwentnie dowodzi, jak skomplikowana jest materia związków rolnictwa z otoczeniem. Władysława Łuczka-Bakuła Wydawnictwo Key Text www.keytext.com.pl WSKAZÓWKI DLA AUTORÓW 1.Redakcja przyjmuje do oceny i publikacji niepublikowane wcześniej teksty o charakterze naukowym, poświęcone problematyce ekonomicznej. 2.Redakcja prosi o składanie tekstów w formie elektronicznej (dokument MS Word na CD, dyskietce lub e-mailem) oraz 2 egzemplarzy wydruku komputerowego. Wydruk powinien być wykonany na papierze A4 z podwójnym odstępem między wierszami, zawierającymi nie więcej niż 60 znaków w wierszu oraz 30 wierszy na stronie, w objętości (łącznie z tabelami statystycznymi, rysunkami i literaturą) do 30 stron. Opracowania podzielone na części powinny zawierać śródtytuły. 3. Wraz z tekstem należy dostarczyć do Redakcji Oświadczenie Autora. Wzór oświadczenia dostępny jest na stronie www.ekonomista.info.pl 4. Do tekstu należy dołączyć streszczenie (200 słów) składające się z uzasadnienia podjętego tematu, opisu metody oraz uzyskanych wyników. Streszczenie powinno zawierać słowa kluczowe (w języku polskim, rosyjskim i angielskim). 5. Przypisy wyjaśniające tekst należy zamieszczać na dole strony, a dane bibliograficzne w tekście – przez podawanie nazwisk autorów i roku wydania dzieła, na końcu zdania w nawiasie. W bibliografii zamieszczonej na końcu tekstu (ułożonej w porządku alfabetycznym) należy podawać: –– w odniesieniu do pozycji książkowych – nazwisko, imię (lub inicjały imion) autora, tytuł dzieła, wydawcę, miejsce i rok wydania; –– w przypadku prac zbiorowych nazwisko redaktora naukowego podaje się po tytule dzieła; –– w odniesieniu do artykułów z czasopism – nazwisko, imię (lub inicjały imion) autora, tytuł artykułu, nazwę czasopisma ujętą w cudzysłów, rok wydania i kolejny numer czasopisma; –– w przypadku korzystania z internetu należy podać adres i datę dostępu; –– powołując dane liczbowe należy podawać ich źrodło pochodzenia (łącznie z numerem strony). 6. W przypadku gdy artykuł jest oparty na wynikach badań finansowanych w ramach programów badawczych, autorzy są proszeni o podanie źródła środków. 7. Warunkiem przyjęcia tekstu do oceny i dalszej pracy jest podanie przez autora pełnych danych adresowych wraz z numerem telefonicznym i adresem e-mail. Autorzy artykułów są również proszeni o podanie danych do notatki afiliacyjnej: tytuł naukowy oraz nazwa uczelni albo innej jednostki (tylko jedna jednostka). Dane afiliacyjne są zamieszczane w opublikowanych tekstach. 8. Opracowanie zakwalifikowane przez Komitet Redakcyjny do opublikowania na łamach „EKONOMISTY”, lecz przygotowane przez autora w sposób niezgodny z powyższymi wskazówkami, będzie odesłane z prośbą o dostosowanie jego formy do wymagań Redakcji. 9. Materiały zamieszczone w „EKONOMIŚCIE” są chronione prawem autorskim. Przedruk tekstu może nastąpić tylko za zgodą Redakcji. 10.Redakcja nie zwraca tekstów i nie wypłaca honorariów autorskich. N O W O Ś Ć Tomasz Sobczak Ekonomiści czytani, ale nie słuchani Książka o roli ekonomicznego doradztwa instytucjonalnego. Przedstawia dorobek i ocenę pracy czterech ciał doradczych powoływanych przez Prezesa Rady Ministrów: • Rady Ekonomicznej przy Prezesie Rady Ministrów powołanej na początku 1957 r. • Konsultacyjnej Rady Gospodarczej powołanej 1 kwietnia 1982 r. • Rady Ekonomicznej przy Radzie Ministrów powołanej w grudniu 1989 r. • Rady Strategii Społeczno-Gospodarczej powołanej 28 czerwca 1994 r. cena: 31,50 zł (z VAT) objętość: 162 strony Autor prezentując działalność organów doradczych przy Prezesie Rady Ministrów, dzięki świetnie dobranym wypowiedziom zarówno członków tych organów, jak i obserwatorów zewnętrznych, stworzył kronikarski rys obecnego środowiska polskich ekonomistów. Podstawowym źródłem licznych cytatów są artykuły i wywiady z czasopism i prasy społeczno-politycznej. Książka pod patronatem naukowym Polskiego Towarzystwa Ekonomicznego. P O L E C A M Y Aleksander Łukaszewicz Dylematy ekonomiczne przełomu stuleci Praca naukowa adresowana do osób zajmujących się ekonomią, które chcą dojrzeć w niej coś więcej niż tylko umiejętność posługiwania się bieżącym rachunkiem efektywnościowym. Można nawet rzec, że jest ona prowokacją wobec szablonowych, jednowymiarowych koncepcji i mechanicznego pojmowania zjawisk ekonomicznych i gospodarczych. cena: 19,95 zł (z VAT) objętość: 284 strony Autor prowadzi w niej dociekania na temat dylematów własności, racjonalności gospodarczej oraz wzrostu i rozwoju gospodarczego, szeroko wykorzystując światową literaturę odnoszącą się do poruszanych i rozważanych problemów. Przywołuje poglądy wielu autorów, wzajemnie przeciwstawne i często otwarcie polemiczne. Włączając się w nurt tych rozważań i polemik, autor nadał książce w wielu fragmentach formę dialogu, w którym zajmuje swoje stanowisko. Przedstawione poglądy i opinie wybitnych ekonomistów tworzą często spójne paradygmaty, będące wykładnią teoretyczną istniejących zjawisk i kontekstów praktycznych. Wydawnictwo Key Text, ul. Wolska 64A, 01-134 Warszawa tel. 22 632 11 36, 22 ,632 11 39, faks wew. 212, kom. 665 108 002 Okladka nr 3 2012.indd 2 2012-06-08 14:37:24 EKONOMISTA EKONOMISTA Tylko prenumerata zapewni regularne otrzymywanie czasopisma Warunki prenumeraty 11 Wydawnictwo Key Text Wpłaty na prenumeratę przyjmowane są na okres nieprzekraczający jednego roku. Prenumerata rozpoczy na się od najbliższego numeru po dokonaniu wpłaty na rachunek bankowy nr: 64 1160 2202 0000 0001 1046 1312 Wydawnictwo Key Text sp. z o.o. ul. Wolska 64A, 01-134 Warszawa +48 22 632 11 36 Cena jednego numeru w prenumeracie krajowej w 2012 r. wynosi 55,65 PLN; ze zleceniem dostawy za granicę równa będzie cenie prenumeraty krajowej plus rzeczywiste koszty wysyłki. Cena prenumeraty za okres obejmujący kilka numerów jest wielokrotnością tej sumy. Cena prenumeraty krajowej na 2012 r. wynosi 333,90 zł (w tym 5% VAT). 11 Prenumerata realizowana przez „RUCH” S.A. Prenumerata krajowa Zamówienia na prenumeratę przyjmują Zespoły Prenumeraty właściwe dla miejsca zamieszkania klienta. www.prenumerata.ruch.com.pl Prenumerata ze zleceniem wysyłki za granicę Informacji o warunkach prenumeraty i sposobie zamawiania udziela RUCH S.A. Biuro Kolportażu – Zespół Obrotu Zagranicznego ul. Annopol 17A, 03-236 Warszawa Tel. +48 22 693 67 75, +48 22 693 67 82, +48 22 693 67 18 www.ruch.pol.pl Infolinia prenumeraty +48 801 443 122 koszt połączenia wg taryfy operatora. EKONOMISTA CZASOPISMO POŚWIĘCONE NAUCE I POTRZEBOM ŻYCIA ZAŁOŻONE W ROKU 1900 2012 3 Indeks 357030 ISSN 0013-3205 Cena 55,65 zł (w tym 5% VAT) 2012 3 W numerze Marek Ratajczak Finansyzacja gospodarki Helena Gaspars-Wieloch Ograniczona skuteczność metod optymalizacyjnych w rozwiązywaniu ekonomicznych problemów decyzyjnych Katarzyna Piłat Indeks optymalnego obszaru walutowego dla gospodarki polskiej 11 „Kolporter” S.A. – [email protected], +48 22 35 50 471 do 478 11 „Garmond Press” S.A. – [email protected], 01-106 Warszawa, ul. Nakielska 3, +48 22 836 69 21 11 Wersja elektroniczna (również numery archiwalne) do nabycia: www.ekonomista.info.pl Ekonomista 2012, nr 3, s. 273–394 Cena 55,65 zł (w tym 5% VAT) PolskA AkademiA Nauk Komitet Nauk Ekonomicznych Okladka nr 3 2012.indd 1 Polskie Towarzystwo Ekonomiczne Wydawnictwo Key Text 2012-06-08 14:37:24