EKONOMISTA
Transkrypt
EKONOMISTA
EKONOMISTA EKONOMISTA Tylko prenumerata zapewni regularne otrzymywanie czasopisma Warunki prenumeraty 11 Wydawnictwo Key Text Wpłaty na prenumeratę przyjmowane są na okres nieprzekraczający jednego roku. Prenumerata rozpoczyna się od naj bliższego numeru po dokonaniu wpłaty na rachunek bankowy nr: 64 1160 2202 0000 0001 1046 1312 Wydawnictwo Key Text spółka z o.o., ul. Górczewska 8, 01-180 Warszawa. Cena jednego numeru w prenumeracie krajowej w 2011 r. wynosi 50,40 PLN; ze zleceniem dostawy za granicę równa będzie cenie prenumeraty krajowej plus rzeczywiste koszty wysyłki. Cena prenumeraty za okres obejmujący kilka numerów jest wielokrotnością tej sumy. Cena prenumeraty krajowej na 2011 r. wynosi 302,40 zł (w tym 5% VAT). 11 „RUCH” S.A. Prenumerata krajowa Wpłaty na prenumeratę przyjmują jednostki kolportażowe „RUCH” S.A. właściwe dla miejsca zamieszkania. Termin przyj mowania wpłat na prenumeratę krajową do 5-go dnia każdego miesiąca poprzedzającego okres rozpoczęcia prenumeraty. infolinia 0-804-200-600; www.ruch.com.pl Prenumerata zagraniczna Informacji o warunkach prenumeraty i sposobie zamawiania udziela „RUCH” S.A. Oddział Krajowej Dystrybucji Prasy, 01-248 Warszawa, ul. Jana Kazimierza 31/33, telefony 0-22 53-28-731 – prenumerata płatna w walucie obcej; telefony 022 53-28-816, 022 53-28-734, 022 53-28-819 – prenumerata płatna w PLN. infolinia 0-804-200-600 Prenumerata opłacana w PLN Przelewem na konto w banku: PEKAO S.A. IV O/Warszawa, 68 1240 1053 1111 0000 0443 0494 lub w kasie Oddziału. Dokonując wpłaty za prenumeratę w banku czy też w Urzędzie Pocztowym należy podać: nazwę naszej firmy, nazwę banku, numer konta, czytelny, pełny adres odbiorcy za granicą, zamawiany tytuł, okres prenumeraty, rodzaj wysyłki (pocztą priory tetową czy ekonomiczną). Warunkiem r ozpoczęcia w ysyłki prenumeraty jest dokonanie wpłaty na nasze konto. Prenumerata opłacana w dewizach przez odbiorcę z zagranicy –– przelew na nasze konto w banku: SWIFT banku: PKOPPLPWXXX w USD PEKAO S.A. IV O/W-wa IBAN PL54124010531787000004430508 w EUR PEKAO S.A. IV O/W-wa IBAN PL46124010531978000004430511 Po dokonaniu przelewu prosimy o przesłanie kserokopii polecenia przelewu z podaniem adresu i tytułu pod nr faxu +48 022 532-87-31. –– czek wystawiony na firmę „RUCH SA OKDP” i przesłany razem z zamówieniem listem poleconym na nasz adres. –– karty kredytowe VISA i MASTERCARD płatność przez http://www.ruch.pol.pl. EKONOMISTA CZASOPISMO POŚWIĘCONE NAUCE I POTRZEBOM ŻYCIA ZAŁOŻONE W ROKU 1900 2011 1 2011 1 W numerze Andrzej Czyżewski, Sebastian Stępień Wspólna polityka rolna UE po 2013 r. a interesy polskiego rolnictwa Eugeniusz Kwiatkowski Kryzys globalny a rynek pracy w Polsce i innych krajach Grupy Wyszehradzkiej Jan Fałkowski Konkurencja między partiami politycznymi a polityka gospodarcza 11 „Kolporter” S.A. ul. Strycharska 6, 25-659 Kielce 11 „Garmond Press” S.A. ul. Sienna 5, 31-041 Kraków 11 Wersja elektroniczna (również numery archiwalne) do nabycia: http://www.ekonomista.info.pl Ekonomista 2011, nr 1, s. 1–152 Cena 50,40 PLN Wydawnictwo KEY TEXT WARSZAWA Indeks 357030 ISSN 0013-3205 Cena 50,40 zł (w tym 5% VAT) WSKAZÓWKI DLA AUTORÓW 1.Redakcja przyjmuje do oceny i publikacji niepublikowane wcześniej teksty o charakterze naukowym, poświęcone problematyce ekonomicznej. 2.Redakcja prosi o składanie tekstów w formie elektronicznej (dokument MS Word na CD, dyskietce lub e-mailem) oraz 2 egzemplarzy wydruku komputerowego. Wydruk powinien być wykonany na papierze A4 z podwójnym odstępem między wierszami, zawierającymi nie więcej niż 60 znaków w wierszu oraz 30 wierszy na stronie, w objętości (łącznie z tabelami statystycznymi, rysunkami i literaturą) do 30 stron. Opracowania podzielone na części powinny zawierać śródtytuły. 3.Wraz z tekstem należy dostarczyć do Redakcji Oświadczenie Autora. Wzór oświadczenia dostępny jest na stronie www.ekonomista.info.pl 4.Do tekstu należy dołączyć streszczenie (200 słów) składające się z uzasadnienia podjętego tematu, opisu metody oraz uzyskanych wyników. Streszczenie powinno zawierać słowa kluczowe (w języku polskim, rosyjskim i angielskim). 5.Przypisy wyjaśniające tekst należy zamieszczać na dole strony, a dane bibliograficzne w tekście – przez podawanie nazwisk autorów i roku wydania dzieła, na końcu zdania w nawiasie. W bibliografii zamieszczonej na końcu tekstu (ułożonej w porządku alfabetycznym) należy podawać: –– w odniesieniu do pozycji książkowych – nazwisko, imię (lub inicjały imion) autora, tytuł dzieła, wydawcę, miejsce i rok wydania; –– w przypadku prac zbiorowych nazwisko redaktora naukowego podaje się po tytule dzieła; –– w odniesieniu do artykułów z czasopism – nazwisko, imię (lub inicjały imion) autora, tytuł artykułu, nazwę czasopisma ujętą w cudzysłów, rok wydania i kolejny numer czasopisma; –– w przypadku korzystania z internetu należy podać adres i datę dostępu; –– powołując dane liczbowe należy podawać ich źrodło pochodzenia (łącznie z numerem strony). 6.W przypadku gdy artykuł jest oparty na wynikach badań finansowanych w ramach programów badawczych, autorzy są proszeni o podanie źródła środków. 7.Warunkiem przyjęcia tekstu do oceny i dalszej pracy jest podanie przez autora pełnych danych adresowych wraz z numerem telefonicznym i adresem e-mail. Autorzy artykułów są również proszeni o podanie danych do notatki afiliacyjnej: tytuł naukowy oraz nazwa uczelni albo innej jednostki (tylko jedna jednostka). Dane afiliacyjne są zamieszczane w opublikowanych tekstach. 8.Opracowanie zakwalifikowane przez Komitet Redakcyjny do opublikowania na łamach „EKONOMISTY”, lecz przygotowane przez autora w sposób niezgodny z powyższymi wskazówkami, będzie odesłane z prośbą o dostosowanie jego formy do wymagań Redakcji. 9. Materiały zamieszczone w „EKONOMIŚCIE” są chronione prawem autorskim. Przedruk tekstu może nastąpić tylko za zgodą Redakcji. 10.Redakcja nie zwraca tekstów i nie wypłaca honorariów autorskich. WYBRANE TYTUŁY WYDAWNICZE POLSKIEGO TOWARZYSTWA EKONOMICZNEGO Joseph E. Stiglitz, Freefall. Jazda bez trzymanki. Ameryka, wolne rynki i tonięcie gospodarki światowej, Warszawa 2010 John Kenneth Galbraith, Idee ordo i społeczna gospodarka rynkowa, Warszawa 2011 John Kenneth Galbraith, Pieniądz. Pochodzenie i losy, Warszawa 2011 John C. Bogle, Dość. Prawdziwe miary bogactwa, biznesu i życia, Warszawa 2009 Pełna oferta wydawnicza dostępna jest w księgarni internetowej Polskiego Towarzystwa Ekonomicznego www.ksiazkiekonomiczne.pl Książki można zamówić internetowo, nabyć w księgarniach naukowych lub w siedzibie Polskiego Towarzystwa Ekonomicznego ul. Nowy Świat 49, 00-042 Warszawa, tel. (22) 55 15 401, e-mail: [email protected] EKONOMISTA CZASOPISMO POŚWIĘCONE NAUCE I POTRZEBOM ŻYCIA ZAŁOŻONE W ROKU 1900 2011 1 WARSZAWA Wydawca KOMITET NAUK EKONOMICZNYCH POLSKIEJ AKADEMII NAUK i Polskie Towarzystwo Ekonomiczne Rada Programowa Marek Belka, Adam Budnikowski, Zbigniew Czerwiński, Krzysztof Jajuga, Wacław Jarmołowicz, Mieczysław Kabaj, Eugeniusz Kwiatkowski, Jan Lipiński, Aleksander Łukaszewicz, Wojciech Maciejewski, Jerzy Osiatyński, Stanisław Owsiak, Emil Panek, Urszula Płowiec, Krzysztof Porwit, Antoni Rajkiewicz, Andrzej Sławiński, Andrzej Wernik, Jerzy Wilkin (przewodniczący Rady) Michał G. Woźniak Komitet Redakcyjny Marek Bednarski, Bogusław Fiedor, Marian Gorynia, Brunon Górecki, Joanna Kotowicz-Jawor, Barbara Liberska, Adam Lipowski (zastępca redaktora naczelnego), Zbigniew Matkowski (sekretarz redakcji), Elżbieta Mączyńska, Adam Noga, Marek Ratajczak, Eugeniusz Rychlewski, Zdzisław Sadowski (redaktor naczelny), Tadeusz Smuga, Jan Solarz, Andrzej Wojtyna Wydanie publikacji dofinansowane przez Ministra Nauki i Szkolnictwa Wyższego Adres Redakcji: 00-042 Warszawa, Nowy Świat 49, tel. 022 55 15 416 oraz 417 http://www.ekonomista.info.pl [email protected] Polecamy wersję elektroniczną czasopisma http://www.ekonomista.info.pl Realizacja wydawnicza Wydawnictwo Key Text sp. z o.o. 01-180 Warszawa, ul. Górczewska 8 tel. 022 632 11 39; 022 632 11 36, fax wew. 212 www.keytext.com.pl [email protected] Nakład 500 egz., ark. wyd. 14 Spis treści Artykuły Andrzej C Z Y Ż E W S K I, Sebastian S T Ę P I E Ń: Wspólna polityka rolna UE po 2013 r. a interesy polskiego rolnictwa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Eugeniusz K W I A T K O W S K I: Kryzys globalny a rynek pracy w Polsce i innych krajach Grupy Wyszehradzkiej . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Jan FA Ł K O W S K I: Konkurencja między partiami politycznymi a polityka gospodarcza. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 37 55 Miscellanea Andrzej G R Z E B I E N I A K: Reasekuracja w ubezpieczeniach na życie w Polsce w latach 1991–2009. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Adam Z A R E M B A: Przyczyny malejącej zyskowności funduszy kontraktów terminowych. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73 85 Eseje Michał G. W O Ź N I A K: Przyszłość może być lepsza. Refleksje na marginesie książki Grzegorza W. Kołodko Świat na wyciągnięcie myśli. . . . . . . . . . . . . . . . . 107 Laureaci Nagrody Nobla Dominik B U T T L E R, Józef O R C Z Y K, Jan S Z A M B E L A Ń C Z Y K: Procesy poszukiwań i dopasowań na rynku pracy. Laureaci Nagrody Nobla z ekonomii w 2010 r. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Krzysztof N O W A K: Problem bezrobocia strukturalnego: czego uczy nas teoria poszukiwań i dopasowań na rynku pracy? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121 135 Recenzje i omówienia Stanisław K U B I E L A S: Innowacje i luka technologiczna w gospodarce globalnej opartej na wiedzy. Strukturalne i makroekonomiczne uwarunkowania (rec. Bogusław Fiedor) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Idee ordo i społeczna gospodarka rynkowa, praca zbiorowa pod red. Elżbiety Mączyńskiej i Piotra Pysza (rec. Anna Chmielak) . . . . . . . . . . . . . . . . . . . . . . . . . Konwergencja modeli ekonomicznych: Polska i Ukraina, praca zbiorowa pod red. Michała G. Woźniaka, Viktora I. Chuzhykova, Dmytro G. Łukjanenki (rec. Stanisław Swadźba). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141 144 149 * Każdy artykuł zawiera streszczenie w języku angielskim i rosyjskim. Angielskojęzyczne streszczenia artykułów zamieszczanych w „Ekonomiście” są rejestrowane w serwisie: International Bibliography of the Social Sciences (IBSS): http://www.ibss.ac.uk oraz „The Central European Journal of Social Sciences and Humanities”: http://cejsh.icm.edu.pl (LISTA FILADELFIJSKA) Contents Articles Andrzej C Z Y Ż E W S K I, Sebastian S T Ę P I E Ń: Common Agricultural Policy of the EU After 2013 and the Interests of the Polish Agriculture. . . . . . . . . . . Eugeniusz K W I A T K O W S K I: Global Crisis and Labour Market in Poland and Other Countries of the Vyshehrad Group . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Jan FA Ł K O W S K I: Competition Between Political Parties and Economic Policy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 37 55 Miscellanea Andrzej G R Z E B I E N I A K: Reinsurance in Life Insurance Contracts in Poland, 1991–2009. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Adam Z A R E M B A: Causes of the Falling Profitability of Managed Futures. . . Essays Michał G. W O Ź N I A K: Future May Be Better. Reflections on the Book by Grzegorz W. Kołodko Świat na wyciągnięcie myśli (The World in Thought’s Reach) 73 85 107 Nobel Prize Laureates Dominik B U T L E R, Józef O R C Z Y K, Jan S Z A M B E L A Ń C Z Y K: Search and Matching Processes in the Labour Market. Nobel Prizes in Economics 2010 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Krzysztof N O W A K: The Problem of Structural Unemployment: What Can Be Learnt from the Theory of Search and Matching in the Labour Market . . . . . 121 135 Book Reviews Stanisław K U B I E L A S: Innowacje i luka technologiczna w gospodarce globalnej opartej na wiedzy. Strukturalne i makroekonomiczne uwarunkowania (Innovation and Technological Gap in the Global Knowledge – Based Economy: Structural and Macroeconomic Determinants) (by Bogusław Fiedor). . . . . . . . Idee ordo i społeczna gospodarka rynkowa (Ordo Ideas and Market Economy), eds. Elżbieta Mączyńska, Piotr Pysz (by Anna Chmielak). . . . . . . . . . . . . . . . . . Konwergencja modeli ekonomicznych: Polska i Ukraina (Convergence of Economic Models: Poland and Ukraine), eds. Michał G. Woźniak, Viktor I. Chuzhykov, Dmytro G. Łukjanenko (by Stanisław Swadźba) . . . . . . . . . . . . . . . . . . . . . . . . . . . 141 144 149 * Each article is followed by a summary in English and Russian. Abstracts of „Ekonomista” are reproduced in the International Bibliography of the Social Sciences (IBSS): http://www.ibss.ac.uk and „The Central European Journal of Social Sciences and Humanities”: http:// cejsh.icm.edu.pl Содержание Статьи Анджей Ч И Ж Е В С К И, Себастьян С Т Е М П Е Н Ь: Общая аграрная политика ЕС после 2013 г. и интересы польского сельского хозяйства. . . . . . . . . . . . . . . Эугениуш К В Я Т К О В С К И: Глобальный кризис и рынок труда в Польше и в других странах Вишеградской группы . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Ян ФАЛКОВСКИ: Конкуренция между политическими партиями и экономическая политика. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 37 55 Разное Анджей Г Ж Е Б Е Н Я К: Перестрахование страхования жизни в Польше в 1991– –2009 гг.. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Адам З А Р Е М Б А: Причины уменьшающейся прибыльности фондов срочных контрактов. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73 85 Эссе Михал Г. В О З Н Я К: Будущее может быть лучше – рассуждения на полях книги Гжегожа В. Колодко До мира – мыслью подать. . . . . . . . . . . . . . . . . . . . . . . . . . . . 107 Лауреаты Нобелевской Премии Доминик Б У Т Л Е Р, Юзеф О Р Ч И К, Ян Ш А М Б Е Л Я Н Ь Ч И К: Процессы поиска и адаптации на рынке труда. Лауреаты Нобелевской премии по экономике 2010 года. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Кжиштоф Н О В А К: Проблема структурной безработицы: чему нас учит теория поиска и адаптации на рынке труда?. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121 135 Рецензии и обсуждения Станислав КУБЕЛЯС: Инновации и технологический разрыв в глобальной экономике, основанной на знаниях. Структурные и макроэкономические обусловленности (рец. Богуслав Федор) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Идеи Ордо и социальная рыночная экономика, kоллективный труд под ред. Эльжбеты Мончинской и Петра Пыша (рец. Анна Хмеляк). . . . . . . . . . . . . . . . . . . . . . . . . . . . . Конвергенция экономических моделей: Польша и Украина, kоллективный труд под ред. Михала Г. Возняка, Виктора И. Хужикова, Дмытро Г. Лукьяненко (рец. Станислав Свадзьба) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141 144 149 * Каждая статья сопровождается резюме на английском и руском языках. Содержание и резюме статей, помещаемых в „Экономисте”, регистрируютсяв библиографическом сервисе International Bibliography of the Social Sciences (IBSS): http://www.ibss.ac.uk a также в „The Central European Journal of Social Sciences and Humanities”: http://cejsh.icm.edu.pl A R T Y K U Ł Y Andrzej Czyżewski* Sebastian Stępień** Wspólna polityka rolna UE po 2013 r. a interesy polskiego rolnictwa Wprowadzenie Wspólna polityka rolna (WPR), od chwili jej powstania ponad pół wieku temu, systematycznie podlega przeobrażeniom. W ostatnich latach istotne zmiany dokonały się pod wpływem reformy luksemburskiej z 2003 r. oraz przeglądu średniookresowego Health Check z 2008 r. Przyjęte rozwiązania miały na celu przede wszystkim ograniczenie zakresu interwencji rynkowej, zmianę systemu płatności bezpośrednich poprzez zmniejszenie stopnia powiązania dopłat z produkcją i wprowadzenie obowiązkowej modulacji, zwiększenie nakładów finansowych na wsparcie rozwoju obszarów wiejskich, ochronę zasobów przyrodniczych oraz zarządzanie ryzykiem w rolnictwie. Należy podkreślić, że uzgodnienia te miały charakter zarówno ekonomiczny, jak i polityczny. W pierwszym przypadku kierunki zmian były następujące: 11 historyczny system płatności bezpośrednich, wiążący wsparcie z wielkością i strukturą produkcji, okazał się nieefektywny, gdyż prowadził do powstania nadwyżek żywności w tych sektorach, które otrzymywały wsparcie. System oparty na zasadzie decouplingu (tj. oderwania płatności od produkcji) w mniejszym stopniu zniekształca warunki konkurencyjne zarówno w skali globalnej, jak i w skali UE, a rolnik sam decyduje o tym, co i w jakiej ilości produkować, kierując się sygnałami płynącymi z rynku; 11 wprowadzenie modulacji (redukcji płatności bezpośrednich) dla największych gospodarstw podyktowane było faktem, iż większość wsparcia trafiała do go* Prof. dr hab. Andrzej Czyżewski – Katedra Makroekonomii i Gospodarki Żywnościowej (KMiGŻ), Uniwersytet Ekonomiczny w Poznaniu, e-mail: [email protected] ** Dr Sebastian Stępień – Katedra Makroekonomii i Gospodarki Żywnościowej (KMiGŻ), Uniwersytet Ekonomiczny w Poznaniu, e-mail: [email protected] 10 Andrzej Czyżewski, Sebastian Stępień spodarstw, w których możliwości dalszego wzrostu produktywności były mocno ograniczone, gdzie podtrzymywano dochody bez motywacji dla poprawy efektywności gospodarowania [Czyżewski, Kułyk 2008]. Prowadziło to do działań dostosowawczych polegających na usprawnieniu absorpcji środków unijnych, a nie poprawy wydajności i dotyczyło głównie państw UE-15, bowiem w przypadku nowych krajów członkowskich, takich jak Polska, wciąż występują obszary, gdzie możliwy jest wzrost wartości dodanej poprzez rozwój funkcji czysto rolniczych; 11 ograniczenie interwencji rynkowej, poza presją ze strony WTO, było wynikiem niewykorzystania części instrumentów, co generowało koszty administracyjne. Utrzymano jednak pewien zakres wsparcia rynkowego, które powinno odgrywać rolę „siatki bezpieczeństwa” na wypadek pogorszenia koniunktury w rolnictwie. Całkowite zniesienie mechanizmów wsparcia w tym zakresie byłoby nieodwracalne i naraziłoby producentów rolnych na nieuzasadnione ryzyko spadku dochodów [Czyżewski, Poczta-Wajda, Stępień 2010, s. 28]; 11 wzmocniono finansowanie rozwoju obszarów wiejskich (II filar WPR), które odgrywa istotną rolę modernizacyjną i prorozwojową, zwiększając konkurencyjność sektora rolno-żywnościowego. Ponadto takie rozwiązanie wychodzi naprzeciw oczekiwaniom społecznym, które przejawiają się w żądaniach polityki rolnej harmonijnie połączonej z polityką na rzecz obszarów wiejskich i uwzględniającą kwestie związane z jakością i zdrowotnością żywności oraz bioróżnorodnością krajobrazu przyrodniczego; 11 w warunkach coraz większej zmienności koniunktury celowe było wprowadzenie nowych instrumentów zarządzania ryzykiem w celu stabilizacji dochodów producentów rolnych. Z kolei polityczny charakter tych porozumień można rozpatrywać z punktu widzenia takich zagrożeń, jak renacjonalizacja finansowania WPR po 2013 r., za którą opowiada się część bogatszych krajów UE (przede wszystkim Wielka Brytania i Szwecja). Zamrożenie, a tym bardziej ewentualne zmniejszenie wspólnotowego budżetu na WPR oznaczałoby, że po 2013 r. biedniejsze państwa Unii nie byłyby w stanie zrekompensować prawdopodobnych dalszych redukcji cen rolnych, co doprowadziłoby do utraty zdolności konkurowania z tymi, których stać byłoby na finansowanie płatności z budżetów krajowych. Propozycje takie były zatem trudne do zaakceptowania przez biedniejsze państwa członkowskie UE, nie tylko dlatego, iż są one obecnie beneficjentem netto przepływów finansowych związanych z WPR, ale przede wszystkim z uwagi na niebezpieczeństwo zróżnicowania poziomu wsparcia sektora rolnego w ramach jednolitego rynku i tym samym zniekształcenia warunków konkurencji. Ostatecznie w porozumieniach z 2003 i 2008 r. pozostawiono WPR jako politykę wspólnotową, w zamian za korzystniejsze z punktu widzenia bogatszych państw członkowskich określenie zasad modulacji (niższe tempo wzrostu modulacji i element progresywności) oraz odejście od kryterium kohezji przy podziale środków pochodzących z modulacji [Czyżewski, Stępień 2009, s. 451–452]. Wspólna polityka rolna UE po 2013 r. a interesy polskiego rolnictwa 11 W latach 2010–2011 kwestia kształtu wspólnej polityki rolnej rozpatrywana jest w aspekcie konstruowania budżetu UE na lata 2014–2020. W lipcu 2011 r., czyli na początku polskiej prezydencji w UE, unijny komisarz ds. rolnictwa, Dacian Cioloş, przedstawi legislacyjne propozycje reformy WPR (ich zarys pojawił się w listopadzie 2010 r.), a w 2012 r. Parlament Europejski uchwali końcowy kształt budżetu1. Polska jako jedno z większych państw członkowskich powinna aktywnie włączyć się w proces publicznej i politycznej debaty, która zadecyduje o przyszłych zmianach WPR. Wymaga to krytycznego podejścia do poszczególnych elementów polityki unijnej, jasnego określenia priorytetów oraz gotowości do zawierania kompromisu. Trzeba pamiętać, że przyszłe reformy WPR będą odbywały się w warunkach dostosowań do nowych ograniczeń wynikających z negocjacji rolnych w ramach WTO, wyzwań związanych ze zmianami w środowisku naturalnym i dążenia do ograniczania środków budżetowych UE przeznaczonych na wieś i rolnictwo pod presją części państw członkowskich i krytyki podatników. Kolejna perspektywa finansowa będzie zatem ustalana pod wpływem innych niż w przeszłości uwarunkowań wewnętrznych (rozszerzenie o nowe państwa członkowskie2) i zewnętrznych (szybko rosnąca konkurencja na światowym rynku). Potrzebna jest więc kompleksowa ocena dotychczas funkcjonujących mechanizmów wsparcia sektora rolnego pod kątem widzenia efektywności ekonomicznej, adekwatności społecznej oraz kryteriów zdrowotnych i ekologicznych. WPR będzie ewoluować w kierunku polityki coraz trudniejszej, a pozyskanie środków pieniężnych wiązać się będzie ze spełnieniem innych niż do tej pory kryteriów osiągania nowych celów, przy rezygnacji z oczekiwań i postulatów dotyczących zwiększenia budżetu unijnego na wsparcie sektora rolnego. O intensywności przygotowań do reformy WPR świadczy chociażby ostatni projekt rozporządzenia Parlamentu Europejskiego i Rady zmieniający zasady systemów wsparcia bezpośredniego dla rolników [Proposal for a Regulation… 2010]. Przewiduje on przyznanie Komisji Europejskiej uprawnień delegowanych i wykonawczych, dotyczących realizacji całego systemu płatności bezpośrednich, w tym zasad wzajemnej zgodności (cross compliance), co zdaniem autorów projektu ma służyć poprawie funkcjonowania mechanizmu wsparcia. Zgodnie z założeniami KE będzie miała wpływ na kształt aktów prawnych regulujących te elementy systemu dopłat, które traktuje się jako „inne niż istotne” (akty delegowane) lub tych, dla których potrzebne są jednolite warunki wykonywania prawnie wiążących aktów UE (akty wykonawcze). Obszar regulacji jest bardzo szeroki i zawiera m.in. tak kluczowe kwestie, jak: wykaz systemów wsparcia bezpośredniego i jego kontrola, przegląd rocznych pułapów finansowych dopłat, rozdział płatności bezpośrednich wśród rolników, zmniejszenie zakresu płatności w ra1 Zgodnie z Traktatem Lizbońskim od 1 grudnia 2009 r. Parlament Europejski uzyskał prawo do współdecydowania o kształcie Wspólnej Polityki Rolnej i prawo do zgłaszania weta. Wcześniej posiadał on jedynie funkcję doradczą. 2 Włączenie nowych państw członkowskich do UE spowodowało zwiększenie areału ziemi rolniczej o 41%, a liczby gospodarstw rolnych o 142%, przy wzroście produkcji zaledwie o 19%. 12 Andrzej Czyżewski, Sebastian Stępień mach modulacji i dyscypliny finansowej3, inne zmniejszenia i wykluczenia płatności, zmiany w odniesieniu do zasad wzajemnej zgodności, działanie systemu doradztwa rolniczego, przepisy dotyczące odsetka użytków zielonych oraz wiele innych. Oceniając przedstawione w projekcie propozycje zmian funkcjonowania WPR, można stwierdzić, że Komisja Europejska dąży do rozszerzenia swoich uprawnień w zakresie tworzenia reguł polityki rolnej, a obszarów, które podlegać mają regulacji na pewno nie można zaliczyć do „innych niż istotne”. Sprawa jest o tyle dyskusyjna, że chodzi o przyznanie Komisji prawa do wydawania aktów delegowanych w zakresie spraw, które pozostają obecnie w gestii państw członkowskich4, co podważa zasadę pomocniczości5. Trzeba przecież przyjąć, że każdy kraj najlepiej orientuje się w specyfice swojego sektora rolnego i efektywniej dostosowuje poszczególne instrumenty wsparcia. Poza tym często nie jest jasne, dlaczego pewne zagadnienia mają być regulowane za pomocą aktów delegowanych, a inne, zbliżone w drodze aktów wykonawczych [por. Stankiewicz, Grzelak 2010]. Kwestia ta pozostaje nadal otwarta, natomiast sam przypadek projektu uczy, jak ważna, szczególnie po przyjęciu Traktatu Lizbońskiego przez państwa UE, jest polityczna dyskusja poprzedzająca wprowadzenie rozporządzeń unijnych. Celem artykułu jest przedstawienie propozycji zmian wspólnej polityki rolnej w kontekście rozwoju polskiego rolnictwa. Szczególny nacisk kładzie się na kwestie związane z mechanizmem dopłat bezpośrednich, które w publicznej debacie zajmują najwięcej miejsca i których kształt nie został jeszcze do końca uzgodniony. Autorzy starają się przedstawić własne opinie na temat przyjętych uzgodnień, wypracowane w trakcie wielu konsultacji i seminariów nad kształtem przyszłej WPR. Jednocześnie opierają się na dokumentach rządowych, Parlamentu Europejskiego, Komisji Europejskiej oraz stanowiskach instytucji naukowych i odnoszą się do postulatów tam zawartych. Ponieważ zamierzeniem publikacji jest m.in. pokazanie propozycji zmian w mechanizmie wsparcia, to po części ma ona charakter przeglądowy. Takie podejście umożliwia pełniejsze zrozumienie ewolucji polityki rolnej UE i pozwala na dokonanie oceny przyszłych reform ze względu na racje polskiego rolnictwa. W pracy nie chodzi jednak o poddanie analizie i dyskusji każdej z wymienionych propozycji, gdyż 3 Dyscyplina finansowa to, obok modulacji, system redukowania skali dopłat bezpośrednich, uruchamiany w sytuacji przekroczenia „rocznego pułapu” wydatków na wspieranie rynków rolnych i na dopłaty bezpośrednie (obecnie nie jest stosowana w nowych krajach członkowskich). 4 Chodzi m.in. o kwestie związane z: określeniem przepisów dotyczących systemu SPS w zakresie regionalizacji płatności i w zakresie częściowego powiązania z produkcją, funkcjonowaniem systemu doradztwa rolniczego, kontrolą stosowania zasad współzależności i ochroną areału użytków zielonych oraz ze zmianami uprawnień dostępu rolnika do płatności w systemie płatności jednolitej. 5 Zasada pomocniczości (subsydiarności) UE oznacza, że na szczeblu wspólnotowym powinny być podejmowane tylko te działania, których przeniesienie na wyższy szczebel oznacza większą skuteczność i efektywność niż w przypadku pozostawienia tych działań w gestii rządów poszczególnych krajów członkowskich. Wspólna polityka rolna UE po 2013 r. a interesy polskiego rolnictwa 13 taki poziom szczegółowości wykluczyłby ocenę kompleksową i przekroczyłby ramy artykułu. Celowo więc punkt ciężkości został położony na aspekt aplikacyjny i wyjaśnienie kwestii proponowanych zmian i co ewentualnie mogą one oznaczać dla rolnictwa w Polsce. 1. Uzasadnienie dla interwencji w sektorze rolnym Zanim przejdziemy do przedstawienia proponowanych kierunków zmian WPR i ich oceny z punktu widzenia polskiego rolnictwa, warto zastanowić się, jakie skutki dla sektora rolnego miałaby rezygnacja z instrumentów WPR i przyjęcie liberalnej optyki funkcjonowania gospodarki. Opcja liberalna posługuje się operatem racjonalności mikroekonomicznej i zakłada, że interwencjonizm państwowy (tu: unijny) jest nieuzasadnionym przywilejem sektora żywnościowego i obciąża kosztami całe społeczeństwo. Liberalne podejście do sektora rolnego pomija przy tym efekty zewnętrze towarzyszące produkcji rolniczej, zarówno te negatywne, takie jak degradacja środowiska przyrodniczego, jak i te pozytywne, związane ze świadczeniem dóbr publicznych. Takie myślenie jest nieuzasadnione i wynika z osobliwości ziemi jako czynnika produkcji. Nie uwzględnia jego naturalnych właściwości (ograniczonej mobilności i podzielności) oraz niskiej elastyczności popytu (cenowej i dochodowej) na produkty żywnościowe w warunkach przymusu konsumpcji. Te uwarunkowania produkcji rolnej implikują nieefektywną, w sensie Pareto, alokację czynników produkcji, co prowadzi do ich odpływu w kierunku bardziej efektywnych sektorów [Czyżewski 2007, s. 16]. W długim okresie występuje więc „drenaż” wartości dodanej, od rolnictwa do przetwórcy, straty zaś z okresu dekoniunktury nie są rekompensowane rentami w fazie ożywienia. W ogólnym szacunku skalę tego drenażu można określić w Polsce średniorocznie na 7–8% realnej produkcji globalnej rolnictwa (z uwzględnieniem dopłat) w zamkniętym cyklu koniunkturalnym trwającym 10 lat6. Jak pisze J.S. Zegar, osobliwością rolnictwa jest to, „że na ogół rozwiązywaniu kwestii agrarnej w ujęciu ekonomicznym towarzyszy narastanie kwestii chłopskiej w ujęciu społecznym. (…) Powodowane jest to głównie przez działanie mechanizmu rynkowego, za którego pośrednictwem znaczna część nadwyżki ekonomicznej tworzonej w rolnictwie jest wyprowadzana poza rolnictwo” [Zegar 2010a]. Stąd, w celu utrzymania zdolności sektora rolnego do reprodukcji rozszerzonej, konieczna jest aktywna polityka państwa z nieautomatycznymi stabiliza6 Wynika tak z badań B. Czyżewskiego i A. Mrówczyńskiej-Kamińskiej. Zakładają oni, że rok 2000 był „najgorszym” dla rolnictwa rokiem cyklu 1995–2005, a rok 2005 rokiem „najlepszym”. W takim ujęciu saldo rent w kolejnych latach fazy kryzysu i ożywienia (np. 2004/1999, 2003/1998) było stałe i wynosiło ok. –4,2 mld zł, co przy produkcji globalnej na poziomie wahającym się od 52 do 63 mld zł w cenach z 1995 r. daje ten szacunek. Por. Czyżewski, Mrówczyńska-Kamińska [2010]. 14 Andrzej Czyżewski, Sebastian Stępień torami koniunktury, ponieważ sam mechanizm rynkowy tego problemu nie rozwiąże. Kluczowa staje się właściwa relacja pomiędzy polityką makroekonomiczną państwa w sferze kreacji pieniądza i wydatków budżetowych (polegająca na zrównoważeniu odchyleń od punktu równowagi polityki monetarnej i fiskalnej) a polityką rolną i jej efektami [Czyżewski, Kułyk 2010]. Przemienność opcji monetarnej i fiskalnej (restrykcyjnej i ekspansywnej) w polityce gospodarczej gwarantuje względne zrównoważenie otoczenia makroekonomicznego sektora rolnego i wpływa pozytywnie na sytuację dochodową gospodarstw rolnych [Czyżewski 2009]. Polityka ta jest szczególnie ważna w warunkach pogłębiania się procesów globalizacji, przejawiających się między innymi w koncentracji czynników wytwórczych i narastaniu nierówności w stosunkach podziału i deprecjacji rolnictwa. Globalizacja powoduje, że rynek ze zdwojoną siłą prze w kierunku efektywności mikroekonomicznej (dzisiaj korporacyjnej), a bazując na relacjach efektywnościowych nie rozwiązuje ani problemu żywnościowego, ani problemu dochodowego, a rodzi nowe wyzwania, ponieważ efekty zewnętrzne, głównie środowiskowe, przenoszone są na poziom globalny [Zegar 2010a]. Występuje więc potrzeba dostosowań do mechanizmów globalizacji, a jednocześnie stworzenia instrumentów koordynacji na poziomie ponadnarodowym. Taką próbę podejmuje od wielu lat Unia Europejska, tworząc instrumenty wspólnej polityki rolnej. Brak koordynacji tej polityki w UE, przy jednoczesnej redukcji wsparcia krajowego, mógłby doprowadzić do scenariusza, w którym państwa konkurowałyby wyłącznie za pośrednictwem cen światowych i efektywności mikroekonomicznej, przy założeniu globalnej standaryzacji jakości i konsumpcji. Zatem żywność byłaby produkowana tam i przez tych, którzy robią to najtaniej. Teoretycznie, ze względów np. politycznych (nie ekonomicznych!) można by wobec tego zrezygnować z interwencji wobec rolnictwa [Czyżewski, Kułyk 2010] i zrzec się samowystarczalności żywnościowej, wszak można potrzebne produkty nabyć na globalnym rynku. Doświadczenie ostatnich lat uczy jednak, że w okresach nieurodzaju państwa sięgają po instrumenty ograniczające sprzedaż surowca na zagraniczne rynki (np. w wyniku klęski nieurodzaju zbóż w 2010 r. Rosja wprowadziła zakaz ich eksportu). Ponadto, jak wynika z badań IERiGŻ PIB w Warszawie [Goraj 2009a], sama rezygnacja z dopłat bezpośrednich oznaczałaby konieczność podniesienia cen artykułów rolnych o 20% lub obniżenia kosztów wykorzystywanych czynników produkcji (bez nakładów własnych) o 33%, aby utrzymać obecny poziom i parytet dochodów rolniczych w Polsce. Odejście od przyjętego paradygmatu rozwoju rolnictwa nie wydaje się więc ani zasadne, ani możliwe. Zatem dalsze finansowanie polityki rolnej z budżetu unijnego ma sens dlatego, że wieś swoich problemów bez zewnętrznej pomocy nie rozwiąże. Potrzebne są odpowiednie instrumenty, które zmodernizują produkcję, poprawią infrastrukturę, stworzą warunki do powstania alternatywnych źródeł zarobkowania itp. Wartości dodanej w rolnictwie nie można rozpatrywać wyłącznie w wymiarze finansowym. Ma ona bowiem swoje źródło w realizacji nadrzędne- Wspólna polityka rolna UE po 2013 r. a interesy polskiego rolnictwa 15 go celu, jakim jest dążenie do stworzenia warunków, w których rolnictwo będzie wielofunkcyjne, rynkowo zrównoważone i będzie w stanie utrzymać obszary wiejskie, tj. chronić przyrodę oraz wnosić istotny wkład do witalności wiejskiego życia. W warunkach rynkowych rolnicy poddawani są ogromnej presji na zwiększanie produktywności, skali produkcji i specjalizację, co utrudnia pełnienie funkcji pozakomercyjnych. Jednocześnie rynek, kierując się zasadą wyrównywania kosztów krańcowych, sprzyja koncentracji produkcji rolnej w regionach do tego przystosowanych, a zaniku produkcji na obszarach o mniej korzystnych warunkach przyrodniczych i ekonomicznych. To sprawia, że deklaracje odnośnie do zrównoważenia i stworzenia europejskiego modelu rolnictwa często rozmijają się z realnymi procesami [Zegar 2010b, s. 14]. Stawia się tym samym hipotezę, że wdrożenie zasad wspólnej polityki rolnej koryguje zawodności mechanizmu rynkowego (część nadwyżki ekonomicznej, która w warunkach rynkowych „wycieka” do pozarolniczych sektorów, wraca do rolnictwa, głównie poprzez system podatkowy) i jest zasadne z punktu widzenia efektywności ekonomicznej, ale również ze względów społecznych i środowiskowych. Nieadekwatny do bieżącej sytuacji staje się paradygmat rozwoju rolnictwa głównie na drodze industrializacji, poprzez postęp techniczny i oderwanie od naturalnego ekosystemu Ziemi. Potrzebne są mechanizmy, które pchać będą działania w kierunku zwiększenia udziału organicznych metod wytwarzania żywności i poszukiwania postępu z poszanowaniem społeczności lokalnej i środowiska. 2. Propozycje zmian wspólnej polityki rolnej UE z punktu widzenia interesów polskiego rolnictwa W toczącej się dyskusji nad kształtem wspólnej polityki rolnej po 2013 r. pojawiają się trzy różne koncepcje. Pierwsza z nich to utrzymanie status quo, z ograniczonymi poprawkami w niektórych obszarach (np. bardziej sprawiedliwa dystrybucja płatności bezpośrednich pomiędzy kraje członkowskie). Propozycja druga to bardziej zrównoważone i ukierunkowane wsparcie, a zarazem bardziej zrozumiałe dla podatników UE, finansujących w coraz większym stopniu unijną politykę rolną (rys. 1). Trzeci pomysł to radykalne ograniczenie interwencji rynkowej i dopłat do dochodów, a skoncentrowanie się na celach środowiskowych i klimatycznych [Buckwell 2010]. Która z trzech opcji zostanie wybrana jako ostateczna, będzie zależeć od woli politycznej państw członkowskich i stanowisk różnych organizacji (np. organizacje rolnicze i COPA popierają koncepcję pierwszą, a ekolodzy opowiadają się za trzecim rozwiązaniem). Najbardziej prawdopodobna wydaje się propozycja pośrednia, wprowadzająca zmiany, które powinny zaowocować zwiększeniem intensywności „zielonego koloru” WPR, tj. roli dobrostanu środowiska naturalnego [Zegar 2010b, s. 13]. Pytanie tylko, czy leży ona w interesie polskiego rolnictwa. Poniżej zostaną przedstawione te 16 Andrzej Czyżewski, Sebastian Stępień kwestie, które zdaniem autorów są szczególnie ważne i muszą być brane pod uwagę podczas ustaleń kierunków reform wspólnej polityki rolnej. Ry s u n e k 1 Szacunkowa dystrybucja środków i kosztów WPR w latach 2000–2008 (mld euro) 2000 2002 2004 2006 2008 –80 –60 –40 –20 0 20 40 podatnicy właściciele ziemi konsumenci gospodarstwa rolne Źródło: Opracowanie własne na podstawie Moreddu [2010, s. 92]. Jedną z kluczowych spraw jest perspektywa renacjonalizacji polityki rolnej, czyli przerzucenia ciężaru wsparcia sektora rolnego ze środków unijnych na budżety krajowe, a pozostawienie na poziomie unijnym tylko elementu środowiskowego (trzecia z przedstawionych powyżej propozycji reform). Już debata polityczna w 2005 r. nad budżetem na lata 2007–2013 ujawniła dążenia niektórych państw do wprowadzenia ograniczeń w poziomie alokacji środków na finansowanie WPR. Taki scenariusz oznaczałby obniżkę całkowitego wsparcia rolnictwa, ponieważ zabrakłoby dodatkowych środków na zrekompensowanie dalszych redukcji interwencji cenowej. Doprowadziłoby to do utraty zdolności konkurowania biedniejszych państw z tymi, których stać byłoby na finansowanie płatności z budżetów krajowych. Propozycje te są zatem trudne do zaakceptowania przez część państw członkowskich, w tym Polskę, nie tylko dlatego, iż są one obecnie beneficjentem netto przepływów finansowych związanych z realizacją WPR, ale przede wszystkim z uwagi na niebezpieczeństwo nierównego wsparcia w ramach jednolitego rynku i tym samym zniekształcenia warunków konkurencji. Sektor rolny w UE jest ogromnie zróżnicowany, a jednolity rynek preferuje rolnictwo industrialne, o większej intensywności produkcji, koncentracji i specjalizacji. Taki typ rolnictwa występuje w większości krajów UE-15, które od 50 lat wspierane ze środków WPR wykształciły struktury konkurencyjne względem nowych państw członkowskich. Ograniczenie więc budżetu dla wszystkich krajów Unii z pewnością byłoby dla nich niekorzystne. 17 Wspólna polityka rolna UE po 2013 r. a interesy polskiego rolnictwa Ry s u n e k 2 % 0,70 70 0,60 60 0,50 50 0,40 40 0,30 30 0,20 20 10 0,10 0 0,00 Udział WPR w PKB UE % 80 1985 1986 1987 1988 1989 1990 1991 1992 1993 1994 1995 1996 1997 1998 1999 2000 2001 2002 2003 2004 2005 2006 2007 2008 Udział WPR w wydatkach UE Udział wydatków na WPR w łącznych wydatkach budżetu unijnego oraz w PKB UE Udział WPR w wydatkach UE Udział WPR w PKB UE Źródło: European Commission, DG Agri – Unit L. 1, Bruksela [2010]. Trzeba sobie poza tym zdać sprawę i mocno to podkreślać w uzasadnieniu kontynuacji obecnego poziomu wsparcia, że udział wydatków na realizację wspólnej polityki rolnej systematycznie spada od połowy lat osiemdziesiątych i stanowi dziś nieco ponad 40% łącznych wydatków budżetu unijnego7 (ponad 70% w latach 80.!) i zaledwie 0,45% PKB UE (rys. 2). Odbywa się to jednocześnie w warunkach dynamicznego wzrostu kosztów produkcji rolnej (o ponad 40% od 2000 r.), przy obniżeniu się średnich cen rolniczych (o 10% od 2000 r.) [Moreddu 2010]. Tymczasem od rolnictwa wymaga się coraz więcej, nie tylko gwarancji odpowiedniej podaży surowców rolnych, ale także spełnienia wielu funkcji pozaprodukcyjnych. Konsument europejski nie napotyka dzisiaj problemu niedoboru żywności (jak po II wojnie światowej), ale coraz większą wagę przywiązuje do możliwości korzystania z walorów krajobrazowych i kulturowych wsi. W rezultacie gospodarstwa rolne poszerzają zakres wykonywanych zadań o dostarczanie usług dla ogółu społeczeństwa, tzw. dóbr publicznych8. Wyrażają się one poprzez „produkcję” czystego powietrza (w wyniku fotosyntezy i sekwestracji 7 W roku 2009 łączne wydatki na WPR wynosiły 52 mld euro, z czego płatności bezpośrednie stanowiły 76%, interwencja rynkowa – 8%, a wydatki w ramach II filara – 16%. Por. Moreddu [2010]. 8 Według P. Samuelsona dobra publiczne to dobra, w przypadku których nikt nie jest wyłączony z korzyści wynikających z ich użytkowania (brak wyłączenia z konsumpcji), a powiększenie się liczby użytkowników nie eliminuje ani nie pomniejsza możliwości jednoczesnego korzy- 18 Andrzej Czyżewski, Sebastian Stępień węgla), ochronę wód gruntowych, użytków rolnych, zapewnienie bioróżnorodności i krajobrazu, tworzenie warunków do rekreacji, a także utrzymanie dziedzictwa kulturowego wsi [Baldock 2009]. Swego rodzaju dobrem publicznym będzie także tworzenie miejsc pracy na obszarach wiejskich. W przypadku polskiego rolnictwa funkcja ta jest szczególnie istotna, z uwagi na strukturę zatrudnienia9. Ponadto wprowadzenie zasad wzajemnej zgodności (cross-compliance) narzuciło obowiązek przestrzegania restrykcyjnych norm w procesie produkcji żywności, w wyniku czego unijne produkty rolne cechują się wysoką jakością i walorami smakowymi, a co najważniejsze, są bezpieczne dla konsumenta. O ile jednak za dostarczone produkty rolnik wynagradzany jest poprzez mechanizm rynkowy, o tyle w przypadku dóbr publicznych taka zapłata nie występuje10. Wobec powyższego wydatki w ramach WPR muszą stanowić swego rodzaju rekompensatę za świadczenie usług nieopłaconych przez rynek. Na problem wydatków na WPR należy spojrzeć jeszcze z innej perspektywy. Otóż trzeba sobie zdać sprawę, iż efektywność ekonomiczna nie może być jedynym kryterium oceny polityki rolnej UE ze względu na osobliwości czynnika ziemi. Należy wziąć pod uwagę, że ze względu na wydłużony okres zwrotu kapitału zainwestowanego w produkcję rolniczą, w warunkach przymusu konsumpcji, produkcja surowców rolnych nigdy nie będzie konkurencyjna wobec pozarolniczych alokacji nakładów inwestycyjnych. Mówiąc inaczej, istnieje konieczność wytwarzania produktów żywnościowych, jednak odbywa się to przy ograniczonej konkurencyjności względem innych zastosowań kapitału. Mechanizm rynkowy, który nie pozwala na wytworzenie i alokację nadwyżki ekonomicznej w sektorze rolnym, deprecjonuje jego pozycję w stosunku do bliższego i dalszego otoczenia. Krytyka polityki wsparcia unijnego rolnictwa, tak częsta w przekazach medialnych, wynika zatem z braku znajomości prawidłowości dotyczących właściwości (rent) czynnika ziemi. Reasumując, z punktu widzenia interesów rolnictwa UE, a tym bardziej polskiego, należy pozostawić wspólnotowy charakter WPR i dotychczasowy (przynajmniej) poziom jej finansowania. O konieczności dążenia do utrzymania na dotychczasowym poziomie wspólnotowego wsparcia unijnego dla rolnictwa niech świadczą korzyści, jakie do tej pory udało się uzyskać dla polskiego rolnictwa po akcesji do UE. Otóż Polska, stania z danego dobra przez innych użytkowników (nie są konkurencyjne w konsumpcji). Por. Samuelson [1954, s. 387–389]. 9 Na obszarach wiejskich w 2008 r., według metody BAEL, pracowało 6,1 mln osób (38,2% ogółu pracujących w Polsce). W samym rolnictwie liczba ta wynosiła 2,1 mln osób, co stanowi 13,1% ogółu pracujących w kraju. Por. Rocznik Statystyczny Rolnictwa 2009 [2010]. 10 Otwarte pozostaje pytanie, czy koszty poniesione w związku z przestrzeganiem zasad wzajemnej zgodności mogą być rekompensowane odpowiednio wyższą ceną produktów rolnych sprzedawanych przez rolnika. Wydaje się, że w wyniku liberalizacji handlu światowego i zmniejszenia barier celnych dla utrzymania konkurencyjności międzynarodowej konieczne jest stopniowe wyrównywanie cen do poziomu światowego. Dlatego w celu utrzymanie parytetu dochodów rolniczych niezbędne jest wsparcie gospodarstw rolnych. Taką funkcję pełnić mają przede wszystkim dopłaty bezpośrednie. Wspólna polityka rolna UE po 2013 r. a interesy polskiego rolnictwa 19 razem ze swoim rolnictwem i wsią, stała się beneficjentem netto budżetu unijnego (relacja wpływów w ramach WPR do składki Polski do budżetu UE wynosiła ponad 1,5). Do najważniejszych korzyści z integracji dla polskiego rolnictwa należy zaliczyć [Czyżewski 2010, s. 164–166; Wilkin 2010, s. 175–176]: 11 Włączenie polskich instytucji i gospodarstw rolnych w system WPR i innych polityk wspólnotowych, co przyczyniło się do zwiększenia poziomu wsparcia rolnictwa11. Wydatki budżetowe na sektor rolny po integracji Polski z UE wzrastały głównie dzięki współfinansowaniu programów unijnych oraz finansowaniu płatności obszarowych. Poziom tych wydatków systematycznie się zwiększał w latach 2004–2008. W stosunku do okresu przedakcesyjnego znacznie wzrósł też udział wydatków na sektor rolny w łącznych wydatkach budżetowych. Relacja ta w 2009 r., tj. po pięciu latach członkostwa była 2,7 razy wyższa niż w 2004 r. 11 Wzrost realnej wartości produkcji rolniczej i zwarcie nożyc cenowych na korzyść rolnictwa12, co skutkowało wydatnym zwiększeniem poziomu dochodów w polskim rolnictwie i obniżeniem dysparytetu pomiędzy dochodami rolniczymi a średnim wynagrodzeniem w gospodarce narodowej (tab. 1). Przez pierwsze pięć lat członkostwa dochody realne producentów rolnych wzrosły o ponad 110%, głównie za sprawą dopłat bezpośrednich, z których skorzystało ponad 80% rolników. 11 Ożywienie inwestycji w rolnictwie i modernizacja wyposażenia, co prowadzi do poprawy standardów produkcji i jakości produktów żywnościowych. 11 Uzyskanie dodatniego salda obrotów produktami rolno-żywnościowymi dzięki uzyskaniu pełnego dostępu do Jednolitego Rynku Europejskiego oraz stosowaniu tych samych instrumentów wspierania eksportu, które stosowały kraje UE-15. Wśród innych pozytywnych efektów integracji należy wymienić znaczny postęp w sferze edukacyjnej rolników, poprawę nastrojów mieszkańców wsi, a także zmianę nastawienia do tego sektora. Pośrednio rolnicy i mieszkańcy wsi wykorzystali efekt ożywienia gospodarczego, które rozpoczęło się w Polsce po 2004 r. i objawiło się m.in. zwiększeniem popytu wewnętrznego mieszkańców na żywność. Daje się zauważyć mnożnikowe efekty programów unijnych chociażby przy realizacji PROW. 11 Łączne wsparcie sektora rolnego po akcesji do UE (do 31 stycznia 2010 r.) kształtowało się na poziomie ponad 75 mld zł, z czego 46,9 mld zł (62,3%) stanowiły dopłaty bezpośrednie, środki z PROW na lata 2004–2006 wyniosły 10,9 mld zł (14,5%), środki z PROW na lata 2007–2013 to 12,0 mld zł (16,0%), a pieniądze w ramach SPO 2004–2006 stanowiły 5,4 mld zł (7,2%). Por. dane MRiRW [www.minrol.gov.pl]. 12 W latach 2004–2009 wartość realnej produkcji rolniczej wzrosła w porównaniu z okresem 1999–2003 o ponad 17% przy wzroście zużycia pośredniego o 13,5%. Z kolei indeks nożyc cen (relacja cen otrzymywanych przez rolników do cen produktów nabywanych) wyniósł w latach 2004–2008 98,5, wobec wartości 88,6 w okresie 2000–2003. Por. Poczta [2010], Seremak-Bulge, Rembeza [2009]. 20 Andrzej Czyżewski, Sebastian Stępień Ta b e l a 1 Znaczenie dopłat bezpośrednich z budżetu UE w dochodach rolniczych w Polsce w latach 2003–2008 Wyszczególnienie Dochód na osobę pełnozatrudnioną w rolnictwie (zł) Dopłaty na osobę pełnozatrudnioną (zł) Relacja dochodu rolniczego do średniego wynagrodzenia w gospodarce (%) Udział dopłat w dochodzie rolniczym (%) 2003 2004 2005 2006 2007 2008 4 259 10 290 8 252 9 984 12 690 10 609 402 4 009 3 882 5 198 5 352 4 772 24,2 56,2 43,3 50,3 58,8 45,5 9,4 39,0 47,0 52,1 42,2 45,0 Źródło: Opracowanie własne na podstawie prezentacji Goraj [2009b]. Wyżej wymienione argumenty stanowią dostateczny dowód na to, że rolnictwo polskie w ogromnym stopniu korzysta ze środków WPR i dalszy rozwój tego sektora wymaga utrzymania unijnego finansowania. Dlatego z zadowoleniem należy przyjąć stanowisko unijnego komisarza ds. rolnictwa Daciana Cioloşa, który deklaruje chęć utrzymania wysokiego udziału WPR w unijnym budżecie. Uzasadnia to koniecznością zapewnienia bezpieczeństwa żywnościowego w całej Europie13, a nie jedynie zagwarantowania rolnikom stabilnych dochodów. Utrzymanie wsparcia WPR na dotychczasowym poziomie umożliwi przeprowadzenie niezbędnych reform, m.in. w zakresie systemu dopłat bezpośrednich [Hearing with Mr Dacian Cioloş… 2010]. Z punktu widzenia interesów polskiego rolnictwa niezwykle istotna jest ewolucja systemu dopłat bezpośrednich w kierunku wyrównania poziomu wsparcia we wszystkich krajach UE i odejście od historycznych progów14, co spowoduje przesunięcie środków od „starych” do „nowych” państw unijnych. Zrównanie stawek płatności bezpośrednich uzasadnia się faktem, iż stosowanie różnych sys13 Rolnictwo UE powinno również uczestniczyć w rozwiązywaniu kwestii globalnego bezpieczeństwa żywnościowego, dysponuje bowiem większym potencjałem produkcyjnym i potrafi zapewnić wzrost podaży żywności przy zachowaniu standardów dotyczących ochrony środowiska, co jest szczególnie istotne w aspekcie zmian klimatycznych. 14 Przy obliczaniu poziomu wsparcia brano pod uwagę średnie plony z ha upraw i powierzchnię bazową dla danego kraju (regionu). Rzecz w tym, że w okresie, dla którego obliczano plony dla Polski (1994/95–1998/99), plony były relatywnie niskie – 3 tony/ha, przy średniej dla UE-15 prawie 5 ton/ha. Stąd różnice w poziomie wsparcia między „starymi” krajami UE a „nowymi”. Trzeba jednak pamiętać, że rolnictwo unijne było wspierane od lat 60., dzięki czemu kraje UE-15 osiągnęły wyższy poziom intensyfikacji produkcji. Kraje UE-12 takiego wsparcia nie otrzymały, stąd stosowanie tej samej metody do obliczania stawki dopłat wydaje się nieuzasadnione. Wspólna polityka rolna UE po 2013 r. a interesy polskiego rolnictwa 21 temów ustalania wysokości dopłat – jak to ma miejsce obecnie15 – powoduje powstanie dużych dysproporcji w wysokości stawek i zakłóca warunki konkurencji pomiędzy państwami (rys. 3). Poza tym możliwości wzrostu wartości dodanej poprzez zwiększenie płatności dla nowych państw członkowskich są dużo wyższe niż w przypadku krajów UE-15, gdzie takie możliwości były mocno ograniczone, a ponadto mamy tam często do czynienia z podtrzymywaniem dochodu bez motywacji do poprawy efektywności gospodarowania [Czyżewski, Stępień 2010, s. 58]. Do tej pory, w toku dyskusji nad przyszłym kształtem systemu dopłat bezpośrednich, wypracowano następujące koncepcje [Chmielewska-Gill i in. 2010, s. 11]: 11 Koncepcja kontraktowego systemu płatności (L.P. Mahe, J.Ch. Bureau) – zakłada wprowadzenie trójpoziomowego, opartego na kontraktach systemu płatności zastępującego I i II filar. Pierwszy poziom to podstawowa płatność na gospodarstwo, drugi obejmuje kompensację naturalnych utrudnień produkcji (dzisiejsze ONW), a trzeci to środki dla tzw. zielonych stref o wysokiej wartości przyrodniczej. Prawa do płatności są uzależnione od spełnienia przez gospodarstwo rolne odpowiednich funkcji w postaci dóbr publicznych. 11 Koncepcja bezpieczeństwa żywnościowego i środowiskowego [Buckwell 2009] – oznacza powrót do jednofilarowej WPR, na kształt dzisiejszego II filara. Płatności bezpośrednie mają mieć formę przejściową i stopniowo być ograniczane (poza produkcją zagrożoną wygaśnięciem). W zamian za to pieniądze byłyby kierowane do rolników gwarantujących dobra publiczne, na tworzenie instrumentów zarządzania ryzykiem czy też wsparcie obszarów cennych przyrodniczo. 11 Koncepcja filara dobra publiczne [Zahrnt 2009] – dotyczy zastąpienia obecnych filarów WPR dwoma nowymi, odmiennymi koncepcyjnie. Pierwszy filar to tzw. filar dóbr publicznych (środki za dostarczanie tych dóbr), drugi filar – uznaniowy – wspierałby dochody rolników i procesy modernizacyjne gospodarstw (dzisiejsze płatności bezpośrednie i instrumenty II filara). Uznaniowy charakter systemu polegałby na dowolności podziału środków przez kraje członkowskie ze względu na różne rodzaje wsparcia. Jednocześnie II filar miałby charakter przejściowy. 11 Koncepcja bardziej sprawiedliwej, ekologicznej i zrównoważonej WPR [Lyon 2010] – według tej koncepcji WPR pozostałaby polityką w pełni wspólnotową w jej dotychczasowym rozmiarze. W I filarze powinna istnieć podstawowa, bezpośrednia płatność obszarowa dla wszystkich rolników w UE, w celu zapewnienia bezpieczeństwa żywnościowego konsumentom europejskim i wysokiej jakości żywności. Powinna być ona obliczana według areału i oparta na obiektywnych kryteriach, takich jak współczynnik siły nabywczej (okres przejściowy dla tego systemu to 10 lat). Płatność obszarowa miałaby być uzupeł15 Warto przypomnieć, że model regionalny stosuje Malta i Słowenia, model mieszany (hybrydowy) występuje m.in. w Niemczech, Danii, Wielkiej Brytanii, model historyczny stosują m.in. Francja, Hiszpania, Włochy, a w nowych państwach członkowskich (m.in. w Polsce, Czechach, Węgrzech) działa system płatności obszarowej. 22 Andrzej Czyżewski, Sebastian Stępień niona o składnik związany z ochroną środowiska (tzw. greening component) i dodatkowe wsparcie dla obszarów specyficznych [The CAP towards 2020… 2010]. Z kolei w ramach II filara byłyby finansowane działania zapobiegające wyludnianiu się wsi, związane z modernizacją rolnictwa, działaniami ekologiczno-środowiskowymi oraz zapewniające rolnikom wynagrodzenie za dostarczanie dóbr publicznych. Ry s u n e k 3 Średnia wielkość dopłat bezpośrednich w krajach UE w 2008 r. Dopłaty bezpośrednie (euro/ha UR) 700 600 500 400 300 200 0 Rumunia Łotwa Estonia Bułgaria Litwa UE-12 Słowacja Polska Czechy Słowenia Węgry Cypt Malta Portugalia Hiszpania Wielka Brytania UE-27 Austria Szwecja Finlandia Luksemburg UE-15 Francja Włochy Irlandia Niemcy Dania Belgia Holandia Grecja 100 Źródło: European Commission, DG Agri – Unit L. 1, Bruksela 2010. Właśnie ta ostatnia propozycja znalazła się w przyjętym w lipcu 2010 r. przez Parlament Europejski projekcie dotyczącym kształtu WPR po 2013 r.16, tzw. Raporcie Lyona, który opowiada się za „sprawiedliwym podziałem płatności w ramach WPR” i stanowi, iż „płatności historyczne są nieuzasadnione, nieuczciwe i do 2020 r. powinny zniknąć” [Lyon 2010]. Koncepcja G. Lyona wprowadzająca we wszystkich państwach ten sam system, który wylicza wielkość dopłat na podstawie obszarów użytków rolnych i rozszerza zakres decoupligu17, jest w tym względzie bardziej niż dotychczas korzystna dla Polski, ponieważ zwiększa jej 16 Jest to dokument deklaracyjny, niczego nie przesądzający, ale mający duże znaczenie polityczne i ukierunkowujący dalszą debatę nad przyszłością WPR. Będzie on brany pod uwagę przy opracowywaniu ostatecznych rozwiązań w pracach Komisji Europejskiej. Komisja Europejska ma przedstawić propozycję dotyczącą nowej WPR po 2013 r. w lipcu 2011 r. i wówczas Parlament Europejski będzie miał współdecydujący z rządami głos w tej sprawie. 17 Decoupling, tj. oddzielenie płatności bezpośrednich od poziomu i struktury produkcji rolnej, został wprowadzony w trakcie reformy WPR z 2003 r., ale w wielu krajach nadal występuje możliwość częściowego uzależniania wsparcia od poziomu i struktury produkcji. Propozycja dalszego rozszerzenia decouplingu jest krokiem w dobrym kierunku. System, w którym o otrzymaniu dotacji decyduje wielkość plonów, ukierunkowuje rolnika na działalność najbardziej wspieraną finansowo, co w przeszłości prowadziło do powstania nadwyżek w tych dziedzinach Wspólna polityka rolna UE po 2013 r. a interesy polskiego rolnictwa 23 udział w rozdysponowaniu środków z I filara. Jednocześnie taki model jest prosty i tani w obsłudze, chociaż zarzuca mu się, że zbytnio uzależnia wsparcie od powierzchni posiadanej ziemi, co rodzi pokusę zakupu gruntu w celach spekulacyjnych, a poza tym ogranicza obrót ziemią rolniczą, utrudniając przemiany agrarne. Pozytywnie można także ocenić utrzymanie systemu dwufilarowego, a w ramach I filara pozostawienie krajom członkowskim prawa do pewnej elastyczności w rozdysponowaniu środków oraz możliwości wsparcia produkcji we wrażliwych sektorach albo na trudnych terenach górskich [Skulimowska 2010, s. 16–18]. Negatywnie natomiast należy odnieść się do tych części cytowanego raportu, które mówią o dochodzeniu do jednolitej płatności obszarowej we wszystkich państwach UE aż do 2020 r. Według autora tej propozycji taki czas (tzw. phasing-in) jest niezbędny na dostosowanie się tych krajów, które obecnie stosują płatności oparte na kryterium historycznym. Z punktu widzenia interesów polskiego rolnictwa trzeba negocjować skrócenie tego okresu, aby dopłaty bezpośrednie były wyrównywane, jeśli nie od 2014 r., to np. 2–3 lata później. Kwestią sporną jest ponadto zastosowanie kryterium siły nabywczej przy wyliczaniu stawki płatności obszarowej, co oznaczałoby mniejszą kwotę dla takich państw jak Polska. Tymczasem koszty produkcji rolnej (nawozów, pasz, usług itp.) są w Polsce coraz bardziej zbliżone do poziomu krajów UE-15. Oczekuje się zatem rzeczywistego wyrównania wsparcia. Jednocześnie nie można przy uzasadnieniu zróżnicowania stawek dopłat brać pod uwagę niższych kosztów pracy w polskim rolnictwie. Wynika to bowiem z dużo wyższego zatrudnienia i, tym samym, niższej wydajności pracy, co skutkuje niższymi dochodami na jednostkę siły roboczej. Wykorzystanie niższych dochodów (w rozumieniu kosztów pracy) dla różnicowania wsparcia jest działaniem wbrew idei spójności [Poczta 2010, s. 50]. Dlatego dla krajów takich jak Polska najkorzystniejszym rozwiązaniem byłoby wprowadzenie jednolitych zasad naliczania dopłat we wszystkich państwach UE (poprzez system SAPS). Ten model płatności, nazwany flat rate, w największym stopniu eliminuje zróżnicowanie stawek wynikające z historycznych wielkości plonów referencyjnych, a przy tym jest najprostszy i najtańszy w obsłudze. Ma również swoje uzasadnienie, jeśli uznamy, że rolnictwo jako dostawca dóbr publicznych czyni to głównie przez użytkowanie ziemi, czyli właśnie obszar użytków rolnych w poszczególnych krajach powinien być kryterium alokacji kopert płatności bezpośrednich [Poczta 2010, s. 46]. Z szacunków wynika, iż przy jego zastosowaniu udział Polski w rozdysponowaniu środków z I filara WPR zwiększyłby się z niecałych 7% do około 9%. Uwzględniając także dotychczasowy podział środków na obszary wiejskie, Polska mogłaby liczyć na ponad 10 mld euro rocznie z budżetu unijnego, co stanowi ponad 10% łącznych wydatków na rolnictwo UE (tab. 2). Jednakże ze względu na znaczne obniżenie wsparcia w krajach, które są największymi płatnikami netto, rozwiązanie to budzi ich zdecydowany sprzeciw. produkcji. Decoupling zmniejszy presję na podnoszenie produkcji i pozwoli rolnikom kierować się sygnałami płynącymi z rynku. 24 Andrzej Czyżewski, Sebastian Stępień Ta b e l a 2 Poziom wsparcia Polski i wybranych krajów UE w ramach WPR Poziom dopłat w 2013 r. (mln euro) Poziom dopłat wg systemu flat rate dla wielkości z 2013 r. (mln euro) Francja 8 521 7 263 15,93 8 183 14,0 Grecja 2 217 1 077 2,36 1 607 2,7 Hiszpania 5 139 6 591 14,46 7 622 13,0 Holandia 898 506 1,11 576 1,0 Niemcy 5 853 4 470 9,81 5 632 9,6 Polska 3 045 4 084 8,96 5 974 10,2 Portugalia 606 920 2,02 1 481 2,5 Czechy 909 931 2,04 1 333 2,3 Rumunia 1 620 3 627 7,96 4 773 8,1 Wielka Brytania 3 988 4 266 9,36 4 923 8,4 Włochy 4 370 3 366 7,39 4 551 7,8 Kraje Całkowity Udział kraju udział I filar flat rate w I filarze wsparcia + II filar wg systemu w wydatkach łącznie flat rate WPR (mln euro) (%) (%) Źródło: Poczta [2010, s. 47–49]. W stanowisku francusko-niemieckim w sprawie WPR po 2013 r. z września 2010 r. [Franco-German Position… 2010] znajdujemy zapis, iż „system flat rate nie jest sprawiedliwy i nie odzwierciedla sytuacji ekonomicznej w krajach UE. Stawka płatności powinna brać pod uwagę poziom rozwoju gospodarczego i udział danego państwa w budżecie unijnym”18. Być może pod naciskiem tych krajów w ostatniej propozycji reformy WPR komisarza Daciana Cioloşa, popieranej przez Komisję Europejską19, czytamy, iż nie ma logicznego uzasadnienia ani z punktu widzenia 18 Pozytywna zależność pomiędzy regionalnym poziomem płatności na hektar a poziomem lokalnego PKB per capita wymaga ostrożnej interpretacji. Argumentacja, jaką można tu przytoczyć, przedstawia się następująco. Relatywnie wyższy poziom PKB per capita można traktować jako miarę relatywnej zamożności danego regionu. W takim regionie producenci rolni będą musieli otrzymywać stosunkowo wysokie zwroty z użytkowanych czynników produkcji (ziemi, kapitału i pracy), gdyż w przeciwnym razie nie będą oni w stanie konkurować o nie z innymi sektorami gospodarki. W tym kontekście płatności w ramach WPR widzieć można jako czynnik pozwalający na utrzymanie zasobów w rolnictwie na poziomie wyższym aniżeli ten, który wskazałby rynek [Esposti 2007, s. 116–134]. Fakt ten powinien być brany pod uwagę zwłaszcza w kontekście rozważań na temat zachowania walorów przyrodniczych danych terenów czy też problemu wyludniania się obszarów wiejskich. 19 Projekt reformy WPR Komisja Europejska przyjęła 17 listopada 2010 r. Wspólna polityka rolna UE po 2013 r. a interesy polskiego rolnictwa 25 gospodarki, ani ochrony środowiska, aby wszyscy rolnicy dostawali równe dopłaty bezpośrednie. Podkreśla się, że producenci rolni zmagają się z różnymi gospodarczymi i naturalnymi uwarunkowaniami, co jest argumentem za sprawiedliwą, ale nie jednakową dystrybucją pomocy [Cioloş 2010]. Oznacza to, że chociaż dysproporcje w wysokości wsparcia mają zostać zmniejszone (np. w Niemczech dopłaty zostaną obniżone o około 30%), to nadal kraje UE-15, a przynajmniej większość z nich, będą otrzymywać wyższe płatności niż kraje UE-10. Interes Polski wymaga zatem, aby wynegocjować możliwie zbliżone kryteria przyznawania krajom członkowskim funduszy pomocowych i największe przybliżenie do równego poziomu finansowego wsparcia. Nie można bowiem rozpatrywać wysokości dopłat tylko w kontekście kosztów pracy i cen środków produkcji, ale trzeba także uwzględnić inne czynniki. W krajach „starej” Unii (UE-15) wymienione dwa składniki są na wyższym poziomie, ale zarówno wyższa wydajność sektora rolnego (osiągnięta dzięki wsparciu unijnemu na długo przed przystąpieniem nowych krajów członkowskich), jak i dostępność do rynków zewnętrznych bardzo istotnie rekompensują poniesione nakłady. Po uwzględnieniu wyższych dopłat bezpośrednich, jakie otrzymują tamtejsi rolnicy okazuje się, że dochodowość produkcji rolnej jest istotnie wyższa od uzyskiwanej przez rolników w takich krajach jak Polska. Trzeba też unaocznić oponentom w UE, jakie uzyskują efekty z kreacji i przesunięcia wspólnotowego rynku. To nie tylko dodatkowe obroty na rynku rolnym, ale również w pozostałych sektorach gospodarki, o czym często się zapomina. Bez względu na przyjęty system dopłat bezpośrednich płatności pozostaną głównym instrumentem wsparcia dochodów gospodarstw rolnych, a przy tym przyczynią się do osiągnięcia celów wykraczających znacząco poza sferę oddziaływania sektora rolnego. W przeciwieństwie bowiem do innych polityk unijnych, wydawanie tych funduszy nie jest niczym ograniczone. Pieniądze z płatności wydawane są przez gospodarstwa domowe, a w konsekwencji można zakładać, że ich przeznaczenie w pełni dopasowane jest do lokalnych potrzeb. Ponadto płatności bezpośrednie można traktować jako względnie stały i pewny element budżetu domowego. Ma to znaczenie nie tylko dla ewentualnych inwestycji realizowanych z własnych zasobów gospodarstwa, ale także dla możliwości inwestycyjnych finansowanych ze źródeł zewnętrznych. W tej drugiej sytuacji pozytywny efekt otrzymywania płatności przejawiałby się poprzez użycie przyszłego strumienia dochodów z płatności jako zabezpieczenia kredytu [Fałkowski, Wołek 2009, s. 9]. Dlatego często podnoszone zarzuty w stosunku do dopłat bezpośrednich, jakoby nie odgrywały one roli modernizacyjnej, są nieuzasadnione. Potwierdzają to badania Czubaka i Pawlak [Czubak, Pawlak 2008], z których wynika, iż 93% otrzymanych przez gospodarstwa rolne płatności obszarowych w latach 2004–2008 miało przeznaczenie produkcyjne. Usprawiedliwieniem dla dopłat bezpośrednich mogą być ponadto efekty mnożnikowe, jakie kreują płatności. Rolnicy należą bowiem na ogół do grupy społecznej o dużej krańcowej skłonności do konsumpcji, przez co ich dochody, zamienione w wydatki, wpływają w znacznym stopniu na poziom PKB. 26 Andrzej Czyżewski, Sebastian Stępień Na kształt płatności bezpośrednich trzeba spojrzeć również z perspektywy osiągania celów środowiskowych. Reforma z 2003 r. i kolejne ustalenia Health check, dotyczące mechanizmu decouplingu, doprowadziły do spadku areału zbóż i roślin oleistych oraz intensywności produkcji zwierzęcej i zwiększenia obszaru łąk i pastwisk [Moreddu 2010, s. 6]. W rezultacie zmniejszyło się zużycie nawozów i środków ochrony roślin, co przyczyniło się do poprawy warunków glebowych. Po roku 2013 zakres decouplingu ma zostać rozszerzony, można zatem oczekiwać dalszej ekstensyfikacji produkcji rolnej, co będzie pozytywnie oddziaływać na środowisko naturalne. W pewnym zakresie prośrodowiskowo działają również zasady wzajemnej zgodności (cross-compliance), chociaż w tym przypadku powinno rozważyć się propozycje uproszczenie procedur w celu redukcji niepotrzebnych kosztów administracyjnych. Na przykład rząd polski opowiada się za zniesieniem lub zmniejszeniem obowiązku przeprowadzenia ponownych kontroli gospodarstwa w sytuacji, gdy państwo członkowskie korzysta z zasady odstąpienia od karania rolnika za drobne naruszenia zasad cross-compliance lub gdy kwota ewentualnego potrącenia płatności bezpośrednich za takie naruszenie nie przekracza 100 euro [Ławniczak 2010, s. 6]. Reforma wspólnej polityki rolnej, poza kwestią dopłat bezpośrednich, będzie również dotyczyć innych obszarów wsparcia. Z punktu widzenia interesów Polski korzystnie należy ocenić propozycje dotyczące zwiększenia poziomu finansowania działań związanych z rozwojem obszarów wiejskich dzięki redukcji dopłat za pomocą mechanizmu obowiązkowej modulacji20. Modulacja, poza tym, że przesuwa część środków do II filara, zmniejsza dysproporcje między poziomem wsparcia dla największych i mniejszych gospodarstw21. Interes polskiego rolnictwa wymaga, aby środki uzyskane z tego źródła były rozdysponowane według kryterium kohezji, czyli trafiały do regionów najbiedniejszych. Zgodne jest to z jedną z trzech zasad funkcjonowania WPR – solidarności finansowej. Dotychczas nie udało się wypracować kompromisu między bogatymi a mniej zamożnymi krajami UE co do tego sposobu redystrybucji środków. Warto poruszyć tę kwestię w toku prac nad przyszłym kształtem unijnej polityki rolnej. Za przesunięciem części środków z I do II filara przemawia z kolei fakt, iż coraz większe znaczenie w tworzeniu dochodów gospodarstw rolnych odgrywają źródła pozarolnicze, a ich funkcjonowanie jest uzależnione nie od poziomu produkcji rolnej, lecz od warunków ekonomicznych, społecznych i środowiskowych obszarów wiejskich. Biorąc pod uwagę strukturę zatrudnienia w rolnictwie polskim, finansowanie rozwoju pozarolniczych rodzajów działalności na terenach wiejskich jest szczególnie istotne. Argumentem na rzecz wsparcia w ramach II fi20 Modulacja została wprowadzona w 2005 r. Oznacza ona zmniejszenie dopłat bezpośrednich dla gospodarstw, które otrzymują ich najwięcej. Podczas przeglądu średniookresowego budżetu UE ustalono, iż do 2012 r. redukcja dopłat będzie wynosić 10% dla gospodarstw otrzymujących ponad 5 tys. euro rocznie oraz 14% dla gospodarstw otrzymujących ponad 300 tys. euro rocznie. 21 W roku 2007 25% największych gospodarstw rolnych przechwyciło 74% płatności bezpośrednich. Wspólna polityka rolna UE po 2013 r. a interesy polskiego rolnictwa 27 laru jest także to, że fundusze wydawane są na ściśle określony cel, w przeciwieństwie do dopłat bezpośrednich, co ułatwia realizację określonej strategii rozwoju sektora rolnego i osiąganie nowych celów. W przypadku dopłat bezpośrednich powstaje problem alokacji wsparcia – pieniądze trafiają do właścicieli ziemi zamiast do jej faktycznych użytkowników – rolników. Problem ten jest szczególnie widoczny w krajach o dużym udziale ziem dzierżawionych. Może warto wobec tego zastanowić się nad zmianą przepisów, tak aby płatności trafiały faktycznie do producentów rolnych. Redystrybucja środków w kierunku wsparcia obszarów wiejskich jest rozwiązaniem bardziej akceptowanym przez podatników finansujących WPR, a krytykujących obecny kształt polityki rolnej. W ich odczuciu rolnictwo powinno pełnić funkcje gwarantujące walory krajobrazowe i kulturowe oraz różnorodność biologiczną [The Common Agriculture… 2010]. Aby otrzymać te „usługi”, należy rolnikom zapłacić, w przeciwnym razie zrezygnują oni z tej działalności i zaangażują się w produkcję surowców rolnych, których opłacalność będzie rosnąć zgodnie z popytem na żywność i cenami na rynku światowym. Odnosząc to do sytuacji polskich gospodarstw rolnych, można uznać, że „podaż” dóbr publicznych (np. czyste powietrze, krajobraz, bioróżnorodność, jakość żywności) jest relatywnie wysoka, co wynika z odmiennej struktury agrarnej rolnictwa. Polska wieś ma w końcu szansę wykorzystać „rentę zacofania”. Problemem do rozwiązania pozostaje natomiast sposób wynagradzania za tego typu usługi. Do tej pory przedstawiono m.in. następujące koncepcje [Koncepcja dóbr publicznych… 2009, s. 6]: 11 bezpośrednia wycena dostarczanych dóbr publicznych i zapłata za nie (np. za ha gruntów, gdzie zwalczono erozję, za każde stworzone miejsce pracy, za ilość związanego w glebie węgla); 11 zapłata za wykorzystanie praw własności do zasobów lub czynników produkcji w zakresie niezbędnym do dostarczania dóbr publicznych i za utracony dochód w przypadku dostarczania dóbr publicznych związanych ze środowiskiem naturalnym (np. zaniechanie użycia chemicznych środków produkcji w celach dochodowych); 11 pokrycie kosztów transakcyjnych lub usunięcie innych barier w realokacji zasobów potrzebnych do dostarczania dóbr publicznych. Nie są to jednak ostatecznie dopracowane metody kwantyfikacji dóbr publicznych i dyskusja nadal trwa. Polska powinna aktywnie włączyć się w tę debatę, aby wypracowany system w największym stopniu nagradzał za te dobra publiczne, które polscy rolnicy są w stanie zagwarantować. Warto w tym miejscu dodać, że w naszym kraju pojawiają się również opinie odmienne od formułowanej przez autorów tego artykułu, według których bardziej korzystne dla polskiej wsi byłoby wyłączenie polityki wiejskiej z II filara i włączenie jej do polityki spójności lub przesunięcie polityki środowiskowej (II oś PROW) do I filara (np. Poczta [2010, s. 48]). Skąd jednak bierze się przekonanie, że w takiej sytuacji Polska otrzyma więcej? Do tej pory polscy rolnicy byli największymi beneficjentami II filara, a zakładając, że przyszłe cele będą 28 Andrzej Czyżewski, Sebastian Stępień kontynuacją obecnej polityki rozwoju obszarów wiejskich, możemy liczyć na relatywnie duże fundusze. W przypadku przesunięcia części środków do I filara takiej pewności nie ma. Wszakże „stare” państwa członkowskie niechętne są do równego podziału dopłat bezpośrednich. Pytanie, jakie zostałyby zastosowane kryteria podziału środków na część środowiskową w ramach płatności bezpośrednich? Jak pisze Poczta [2010, s. 51], „uwzględnienie jednolitych kryteriów środowiskowych na bardzo rozległym obszarze całej Unii jest bardzo trudne, a prawdopodobnie niemożliwe, a to stwarzać będzie pokusę wyznaczania odpowiednich obszarów w sposób arbitralny w poszczególnych krajach członkowskich”. Można przez to rozumieć, że silne ekonomicznie i politycznie państwa UE będą miały istotny wpływ na kształtowanie wsparcia w ramach płatności środowiskowych. Trzecim obszarem reform WPR po 2013 r. będzie interwencja rynkowa. Począwszy od 1992 r. (tj. reformy MacSharry’ego) Unia próbuje ograniczyć zakres instrumentów zakłócających mechanizm rynkowy (w tym m.in. cen interwencyjnych, ceł, subwencji eksportowych, kwot produkcyjnych) na rzecz dopuszczalnego wsparcia finansowego mieszczącego się w ramach „zielonej skrzynki”. W rezultacie udział tych pierwszych w łącznych wydatkach WPR spadł z 92% w okresie 1986–1988 do 34% w okresie 2007–2009 (w 2012 r. ma obniżyć się do 27%), podczas gdy w tym samym czasie udział dopłat bezpośrednich niezwiązanych z produkcją wzrósł z 0% do 39% (i ma dojść do 46% w 2012 r.) [Moreddu 2010, s. 6]. Kolejne zmiany będą się wiązać z eliminacją niewykorzystywanych lub uruchamianych sporadycznie instrumentów interwencyjnych. Uzasadnieniem tych zmian jest fakt, że część narzędzi nie jest adekwatna do uwarunkowań funkcjonowania europejskiego rolnictwa i nie jest skuteczna w rozwiązywaniu współczesnych problemów, które stanowią wyzwania dla unijnych producentów rolnych [Communication from the Commission… 2007]. Jeszcze w trakcie przeglądu budżetu w latach 2007–2008 ustalono m.in.: 11 stopniowe wycofywanie kwot mlecznych (o jeden procent każdego roku od 2009/2010 do 2013/2014); 11 ograniczenie interwencyjnego skupu pszenicy (do 3 mln ton po cenie 101,31 euro/ /tonę; powyżej tej ilości zakupy będą dokonywane w ramach przetargu); 11 zniesienie interwencyjnego skupu wieprzowiny; 11 wycofanie obowiązkowego odłogowania. Dalsze reformy mają na celu zwiększenie zdolności producentów rolnych do reagowania na sygnały rynkowe. Jednocześnie zaoszczędzone pieniądze można przeznaczyć na realizację nowych wyzwań, związanych np. ze zmianami klimatycznymi lub energią odnawialną. Należy jednak pozostawić pewien zakres interwencji rynkowej na wypadek wystąpienia sytuacji kryzysowych. Trwałe odejście od prawnych możliwości wspierania i stabilizacji cen rolnych byłoby uzasadnione w sprzyjających warunkach rynkowych, tj. przy względnej stabilności dochodów rolniczych i równowadze podażowo-popytowej, a takich warunków trudno oczekiwać. Nowa „siatka bezpieczeństwa” powinna być jednak bardziej zorientowana rynkowo, chronić producentów przed stratami i być zaadresowana bezpośrednio do producenta. Rynkowe deregulacje nie zapewnią bowiem bezpieczeństwa żyw- Wspólna polityka rolna UE po 2013 r. a interesy polskiego rolnictwa 29 nościowego, a mogą spowodować jeszcze większy wzrost importu towarów rolnych do krajów Unii Europejskiej [Czyżewski, Stępień 2009, s. 442]. Zagrożeniem wynikającym z redukcji wsparcia rynkowego może być ponadto wyludnienie terenów mniej korzystnych dla produkcji rolnej. Potwierdzają to dotychczasowe obserwacje związane z reformą rynku cukru i mleka. W wyniku reform następuje koncentracja produkcji w tych sektorach i przesunięcie producentów tam, gdzie niższe są koszty produkcji. Częściowo problem ten rozwiązują same płatności obszarowe, niezwiązane z produkcją, chociaż zasadne wydaje się pozostawienie pewnego zakresu interwencji dla obszarów cennych z punktu widzenia tradycji lub walorów przyrodniczych (np. wypas owiec na terenach górskich). Dzisiaj taką rolę odgrywa II filar WPR. Na koniec warto wspomnieć, iż planowane zmiany unijnej polityki rolnej zmierzają w stronę opracowania nowych metod zarządzania ryzykiem w rolnictwie. Ten kierunek prac wynika z faktu, że ryzyko w rolnictwie stale rośnie, m.in. na skutek obserwowanych zmian klimatu22, liberalizacji handlu, rozwoju chorób zwierząt i roślin, a także wprowadzania ograniczeń i limitów w stosowaniu herbicydów i środków ochrony roślin. Wzrost ryzyka w produkcji rolniczej przenosi się na ryzyko cenowe i tym samym na niepewność co do efektów działalności. Uznać zatem należy, że w perspektywie najbliższych kilku lat instrumenty te trzeba będzie uzupełnić o nowe metody zarządzania ryzykiem, które powinny koncentrować się przede wszystkim na podejmowaniu działań służących jego zmniejszeniu oraz zapobieganiu wystąpieniu sytuacji kryzysowych. W tym kontekście celowe wydaje się wprowadzenie systemów ubezpieczeń produkcji rolnej, współfinansowanych z budżetu unijnego. Z perspektywy polskiego rolnictwa takie rozwiązanie jest o tyle ważne, że dotychczasowe zainteresowanie rolników ubezpieczeniami było niewielkie23, co narażało ich na straty w kolejnych latach. Jednocześnie Polski – jako kraju mniej zamożnego – nie stać na zaangażowanie własnych środków publicznych w system ubezpieczeń upraw i zwierząt, a prywatne instytucje nie są na ogół zainteresowane tym obszarem działalności. Dlatego unijne fundusze mogą pokonać barierę braku środków na stworzenie skutecznego systemu ubezpieczeniowego. Mając powyższe na uwadze, przy dalszych pracach w tym zakresie należy pamiętać, aby spełniony został warunek powszechności obowiązku ubezpieczenia, co gwarantowałoby odpowiednio niską składkę. W przypadku dobrowolności 22 Problem zmian klimatu jest szeroko dyskutowany w kontekście rosnących wydatków publicznych na ten cel. Najbardziej kontrowersyjną kwestią jest wpływ człowieka na zmiany klimatyczne. Ścierają się tu dwa stanowiska. Pierwsze z nich głosi, iż przyczyną wzrostu temperatur na świecie jest emisja dwutlenku węgla generowana przez człowieka. Stanowisko drugie podaje, że proces ocieplenia jest zjawiskiem naturalnym, występującym cyklicznie również w przeszłości. Natomiast dużo mniej wątpliwości budzi fakt, że w ostatnich kilkunastu latach nasiliły się niekorzystne zjawiska atmosferyczne, takie jak susze, powodzie, huragany itp., które wywołują negatywne konsekwencje dla produkcji rolnej, stąd uwzględnianie ich przy opracowywaniu nowych celów i kierunków rozwoju WPR wydaje się słuszne. 23 Na podstawie badań A. Sikorskiej dobrowolnym ubezpieczeniem było objętych w 2005 r. zaledwie 16,6% rolników, w tym 6% gospodarstw ubezpieczyło uprawy, a 4,8% – zwierzęta. Pozostała część dotyczyła głównie ubezpieczenia maszyn [Sikorska 2008, s. 25]. 30 Andrzej Czyżewski, Sebastian Stępień ubezpieczeń istnieje bowiem ryzyko, że zbyt mało producentów rolnych zdecyduje się partycypować w systemie ubezpieczeń, a środki przeznaczone na ten cel nie będą w pełni wykorzystane. Należy także ustalić udział rolnika w finansowaniu składki. Wydaje się, że dla Polski i innych krajów członkowskich z rozdrobnionym rolnictwem wskaźnik ten nie powinien przekraczać 50%. Dodatkowo należałoby go zróżnicować, uwzględniając dysproporcje w poziomie finansowego wsparcia w przeliczeniu per capita. W krajach, w których rolnicy, z uwagi na uwarunkowania historyczne, otrzymują większe wsparcie, wkład własny powinien być wyższy, a w krajach nowo przyjętych – niższy. Dopiero w warunkach wyrównywania się poziomu dopłat bezpośrednich w krajach członkowskich udziały producentów rolnych w systemie ubezpieczeń mogłyby zostać ujednolicone. Podsumowanie 1. Polityka rolna UE, początkowo skupiona na zwiększaniu produktywności i problemach strukturalnych w sektorze produkcji rolnej, w toku przeprowadzonych reform stała się polityką dotyczącą różnego znaczenia rolnictwa w społeczeństwie, a w szczególności wyzwań, które należy podjąć nie tylko w ekonomicznym, ale w szerszym, społecznym i środowiskowym kontekście obszarów wiejskich. Okazało się, iż efektywność ekonomiczna nie może być jedynym kryterium oceny wydatków budżetu UE na politykę rolną ze względu na osobliwości czynnika ziemi oraz rolę, jaką odgrywać mają obszary wiejskie dla ogółu społeczeństwa. Jednocześnie uzasadnienie kontynuacji WPR nie wynika tylko z dążenia do utrzymania na parytetowym poziomie dochodów rolniczych, przy stosunkowo niskim koszcie żywności oferowanej konsumentom, lecz przede wszystkim z potrzeby wytwarzania przez rolnictwo wartości dodanej oraz zrównoważenia rozwoju, pogłębiania spójności terytorialnej i utrzymania przestrzeni wiejskiej jako dobra publicznego dla całej społeczności UE [Wspólna polityka rolna... 2010, s. 10]. 2. Unia staje także przez dylematem wyżywienia rosnącej liczby ludności (w skali globalnej), przy kurczących się zasobach gleb, wód i energii. Dla osiągania nowych celów polityki rolnej należy utrzymać dotychczasowy poziom wsparcia, ale w warunkach dbania o przyrodę oraz konieczności zapewnienia bezpieczeństwa żywnościowego i dostarczania dóbr publicznych obywatelom Unii. Problem bezpieczeństwa żywnościowego musi być rozwiązany na drodze zrównoważonej intensyfikacji produkcji rolnej, bez pogłębiania degradacji środowiska naturalnego. Ochrona środowiska musi się stać imperatywem kategorycznym, który osłabi przymus wzrostu podaży i konkurencyjności. W przeciwnym razie szybki i niezrównoważony wzrost produkcji dzisiaj grozić będzie spadkiem produkcji w przyszłości [Zegar 2010a]. Na politykę Unii Europejskiej trzeba patrzeć szeroko, przez pryzmat ekonomii agrarnej, która uwzględnia korzyści społeczne i środowiskowe produkcji rolnej, a nie tylko Wspólna polityka rolna UE po 2013 r. a interesy polskiego rolnictwa 3. 4. 5. 6. 31 w sposób bliski myśli neoliberalnej – poprzez ekonomikę rolnictwa. Tylko w ten sposób można uzasadnić sens kontynuacji interwencji w sektorze rolnym UE. Przechodząc do racji stanu polskiego rolnictwa dotyczącej przekształceń wspólnej polityki rolnej i jego miejsca w gospodarce Unii Europejskiej, to po pierwsze kluczowe jest dążenie do wyrównywania poziomu dopłat bezpośrednich między krajami UE i gospodarstwami rolnymi dla zapewnienia ich konkurencyjności. Po drugie zasadne jest przesunięcie części środków pieniężnych z dopłat bezpośrednich na rozwój obszarów wiejskich i działania związane z produkcją dóbr publicznych, pozwalających pełniej wykorzystać potencjał polskiej wsi i rolnictwa. Ponadto należy wspierać, o ile to możliwe, redukcję instrumentów interwencji zakłócających rynek międzynarodowy, a uzyskane z tego tytułu środki przeznaczyć na działania związane z łagodzeniem negatywnych skutków zachodzących przemian globalnych [Czyżewski, Czyżewski 2010]. Jeśli chodzi o ocenę propozycji przyszłego kształtu wspólnej polityki rolnej po 2013 r., przedstawioną w listopadzie 2011 r. przez Komisję Europejską, z zadowoleniem należy przyjąć pojawiające się głosy za ujednoliceniem (chociaż nie zrównaniem) systemu dopłat, a także fakt, że coraz więcej wskazuje na to, iż będzie zwiększona redystrybucja środków na cele środowiskowe związane z ochroną środowiska naturalnego – czy to w ramach II filara wsparcia, czy też poprzez odpowiedni komponent dopłat bezpośrednich. Istotna jest sprawa okresu, w którym płatności mają zostać wyrównane. Z punktu widzenia interesów Polski płatności powinny być wyrównane możliwie szybko, w pierwszych latach nowej perspektywy budżetowej, a nie dopiero w 2020 r., jak chce tego część państw. Ważne, aby kryteria podziału środków w ramach dopłat bezpośrednich pozwalały na zmniejszanie dystansu w rozwoju polskiego rolnictwa do krajów UE-15. Zastosowanie parytetu siły nabywczej czy też kosztów produkcji nie będzie korzystne dla Polski. Należy preferować kryteria zasobowe związane przede wszystkim z obszarem i strukturą użytków rolnych. Postuluje się ponadto, aby zapewnić większą pomoc małym gospodarstwom rolnym i zaproponować ustalenie dla nich minimalnego poziomu dopłat (podobnie jak limitu dopłat dla gospodarstw największych), co jest krokiem w dobrym kierunku. W wielu przypadkach płatności stanowią dla tej grupy społecznej znaczący udział w budżecie domowym. Dodatkowo, jak wynika z badań [Czyżewski, Smędzik 2010, s. 65], gospodarstwa te działają w sposób relatywnie najbardziej zrównoważony, podtrzymując ład środowiskowy na obszarach wiejskich i niwelując negatywne oddziaływanie większych producentów. Za pełnione funkcje środowiskowe powinny być wynagradzane w postaci dopłat bezpośrednich. Trzeba też podkreślić konieczność pozostawienia tzw. siatki bezpieczeństwa w zakresie interwencji rynkowej i stworzenia systemów ubezpieczeń rolniczych współfinansowanych z budżetu UE. Ważne dla rozwoju polskiego sektora rol- 32 Andrzej Czyżewski, Sebastian Stępień nego jest także utrzymanie funduszy w ramach II filara, którego polscy rolnicy byli do tej pory największym beneficjentem. Jeżeli uda się to osiągnąć, to przy uzyskaniu dodatkowo bardziej równomiernego podziału w ramach dopłat bezpośrednich Polska wzmocni swój udział w dystrybucji środków z WPR. Kwestią do rozwiązania pozostaje ustalenie zasad wynagradzania rolników za dostarczanie dóbr publicznych. W tym zakresie można oczekiwać, że rolnictwo polskie uzyska korzyści komparatywne wynikające z „renty zacofania”. Trzeba jednak monitorować przebieg prac nad opracowywaniem metod szacowania i rachunku dóbr publicznych, aby interesy silnych ekonomicznie i politycznie państw nie przeważyły nad ekwiwalentnym podziałem środków unijnych. Tekst wpłynął 24 listopada 2010 r. Bibliografia Baldock D., Conceptual Framework on Public Goods Provided Through Agriculture in the EU. Working Document for the Meeting of the Technical Working Group ‘Public Goods’, European Network for Rural Development, 12.12.2009, http://www.enrd. ec.europa.eu Buckwell A., The Evolving CAP, prezentacja na seminarium naukowym w Ministerstwie Rolnictwa i Rozwoju Wsi w dniu 19 października 2010 r. Buckwell A., Workshop “The Future of CAP 2013” Elements of the Post 2013 CAP, European Parliament, Brussels 2009. Chmielewska-Gill W., Chlebicka A., Poślednik A., Pomianek I., Przyszłość WPR – najważniejsze głosy w dotychczasowej dyskusji, Fundacja Programów Pomocy dla Rolnictwa (FAPA), Warszawa 2010. Cioloş D., The CAP Towards 2020: Meeting the Food, Natural Resources & Territorial Challenges of the Future, European Commission, Brussels 2010. Communication from the Commission to the European Parliament and the Council: Preparing for the “Health Check” of the CAP Reform, Commission of the European Communities, Brussels 2007. Czubak W., Pawlak K., Rozdysponowanie środków finansowych wynikających z mechanizmów Wspólnej Polityki Rolnej Unii Europejskiej na rozwój modelu rolnictwa industrialnego i zrównoważonego w Polsce, w: Z badań nad rolnictwem społecznie zrównoważonym, IERiGŻ-PIB, Program Wieloletni 2005–2009, zeszyt 102, Warszawa 2008. Czyżewski A., Co dała integracja europejska polskiej wsi – w opinii ekonomisty, w: Polska wieś 2010. Raport o stanie wsi, red. J. Wilkin, I. Nurzyńska, Fundacja na rzecz Rozwoju Polskiego Rolnictwa, Warszawa 2010. Czyżewski A., Czyżewski B., The Myths of the UE Common Agriculture Policy, „Management” 2010, t. 14, nr 1. Czyżewski A., Kułyk P., Przegląd ważniejszych obszarów Wspólnej Polityki Rolnej UE; rekomendacje dla „Health Check” (maszynopis), Katedra Makroekonomii i Gospodarki Żywnościowej, Akademia Ekonomiczna w Poznaniu, Poznań 2008. Czyżewski A., Kułyk P., Relacje między otoczeniem makroekonomicznym a rolnictwem w krajach wysokorozwiniętych i w Polsce w latach 1991–2008, „Ekonomista” 2010, nr 2. Wspólna polityka rolna UE po 2013 r. a interesy polskiego rolnictwa 33 Czyżewski A., Makroekonomiczne uwarunkowania rozwoju sektora rolnego, w: Uniwersalia polityki rolnej w gospodarce rynkowej. Ujęcie makro- i mikroekonomiczne, red. A. Czyżewski, Akademia Ekonomiczna, Poznań 2007. Czyżewski A., Poczta-Wajda A., Stępień S., Oczekiwania Polski w zakresie przyszłego kształtu Wspólnej Polityki Rolnej Unii Europejskiej, w: Wieś i rolnictwo w procesie zmian – problemy transformacji rolnictwa europejskiego, red. S. Sokołowska, A. Bisaga, Uniwersytet Opolski, Opole 2010. Czyżewski A., Potrzeba badań makroekonomicznych w gospodarce żywnościowej, „Rocznik Nauk Rolniczych” 2009, t. 96, z. 2 Czyżewski A., Smędzik K., Efektywność techniczna i środowiskowa gospodarstw rolnych w Polsce według ich typów i klas wielkości w latach 2006–2008, „Roczniki Nauk Rolniczych” 2010, Seria G, t. 97, nr 3. Czyżewski A., Stępień S., Wspólna Polityka Rolna racją stanu Polski, „Biuletyn informacyjny ARR” 2010, nr 9–10. Czyżewski A., Stępień S., Zmiany mechanizmów Wspólnej Polityki Rolnej UE a oczekiwania Polski, „Ekonomista” 2009, nr 4. Czyżewski A., The Briefing Note in the Third Part of the Workshop “Market Regulation vs. Risk Management: How to Cope with the Instability on the Agricultural Markets?”, wystąpienie na sesji Komisji Budżetu i Rolnictwa Parlamentu Europejskiego (COBU), Bruksela, 12 czerwca 2008. Czyżewski B., Mrówczyńska-Kamińska A., Przepływy międzygałęziowe i podział rent w sektorze rolno-żywnościowym w Polsce w latach 1995–2005 (maszynopis), Uniwersytet Ekonomiczny, Poznań 2010. Esposti R., Regional Growth and Policies in the European Union: Does the Common Agricultural Policy Hale a Counter-Treatment Effect?, „American Journal of Agricultural Economics” 2007, nr 89(1). Fałkowski J., Wołek T., Polityka spójności i płatności bezpośrednie – zarys problemu, Fundacja Programów Pomocy dla Rolnictwa, Sekcja Analiz Ekonomicznych Polityki Rolnej, Warszawa 2009. Franco German Position for a Strong Common Agricultural Policy Beyond 2013 (14.09.2010), Bundesministerium für Ernahrung, Landwirtschaft und Verbraucherschutz, Ministere de L’Agriculture et de la Peche, Berlin–Paris 2010. Goraj L., Uzależnienie od płatności bezpośrednich w państwach członkowskich UE na podstawie wyników FADN, referat na ogólnopolskiej konferencji „Funkcje płatności bezpośrednich we Wspólnej Polityce Rolnej po 2013 r. – przegląd argumentów”, 23 września 2009 r., MRiRW, Warszawa 2009a. Goraj L., Wpływ Wspólnej Polityki Rolnej na dochody polskich gospodarstw rolnych, IERiGŻ, Warszawa 2009b. Hearing with Mr Dacian Cioloş, Commissioner-designate for Agriculture and Rural Development. Notice to Members, European Parliament, Strasburg 2010. Koncepcja dóbr publicznych w dyskusji o przyszłości wspólnej polityki rolnej – wersja wstępna, Fundacja Programów Pomocy dla Rolnictwa, Sekcja Analiz Ekonomicznych Polityki Rolnej, Warszawa 2009. Lyon G., Draft Report on the Future of the Common Agricultural Policy after 2013 (2009/2236(INI)), Committee on Agriculture and Rural Development, European Parliament, Strasburg 2010. Ławniczak A., Projekt stanowiska rządu przygotowany w związku z art. 6 ust. 1 pkt 2 ustawy z dnia 11 marca 2004 r. o współpracy Rady Ministrów z Sejmem i Senatem w sprawach 34 Andrzej Czyżewski, Sebastian Stępień związanych z członkostwem Rzeczypospolitej Polskiej w Unii Europejskiej, MRiRW, Warszawa 2010. Moreddu C., Evaluation of Agricultural Policy Reforms in the European Union: Draft Report, Organisation for Economic Co-operation and Development, Trade and Agriculture Directorate Committee for Agriculture, 2010. Poczta W., Wspólna polityka rolna UE po 2013 roku – uzasadnienie, funkcje, kierunki rozwoju w kontekście interesu polskiego rolnictwa, „Wieś i Rolnictwo” 2010, nr 3. Proposal for a Regulation of the European Parliament and the Council amending Council Regulation (EC) No 73/2009, COM (2010) 539, Brussels 2010. Samuelson P.A., The Pure Theory of Public Expenditure, „Review of Economics and Statistics” 1954, nr 36(4). Seremak-Bulge J., Rembeza J., Zmiany cen i marż cenowych na poszczególnych poziomach podstawowych rynków rolnych, Pułtusk 2009. Sikorska A., Ubezpieczenia w rolnictwie indywidualnym, IERiGŻ, Warszawa 2008. Skulimowska M., Sesja Parlamentu Europejskiego. Strasburg, 5–8 lipca 2010 r. Sprawozdanie nr 48/2010, Kancelaria Senatu – Przedstawiciel Kancelarii Senatu przy Unii Europejskiej, Strasburg 2010. Stankiewicz D., Grzelak A., Opinia merytoryczna i informacja prawna w sprawie wniosku dotyczącego projektu rozporządzenia Parlamentu Europejskiego i Rady zmieniającego rozporządzenie Rady (WE) nr 73/2009, Biuro Analiz Sejmowych, Warszawa 2010. The CAP Towards 2020: Meeting the Food, Natural Resource and Territorial Challenges of the Future, Communication from the Commission to the Council, the European Parliament, the European Economic and Social Committee and the Committee of the Regions, European Commission, Brussels 2010. The Common Agriculture Policy after 2013 – Public Debate, European Commission, Brussels 2010. Wilkin J., Skutki transformacji postsocjalistycznej i członkostwa Polski w Unii Europejskiej dla wsi i rolnictwa – próba podsumowania, w: Polska wieś 2010. Raport o stanie wsi, red. J. Wilkin, I. Nurzyńska, Fundacja na rzecz Rozwoju Polskiego Rolnictwa, Warszawa 2010. Wspólna polityka rolna po 2013 roku – propozycje zmian, Forum Inicjatyw Rozwojowych, „Wieś i Rolnictwo” 2010, nr 2. Zahrnt V., Public Money for Public Goods: Winners and Losers from CAP Reform, European Centre for International Political Economy, „ECIPE Working Paper” 2009, nr 8. Zegar J.S., Ekonomia wobec kwestii agrarnej, „Ekonomista” 2010a, nr 6. Zegar J.S., Wspólna Polityka Rolna po 2013 roku, „Wieś i Rolnictwo” 2010b, nr 3. Common Agricultural Policy of the EU After 2013 and the Interests of the Polish Agriculture Summary The paper presents some proposals as to the changes of the Common Agricultural Policy of the European Union (CAP) in the context of the development needs of Poland’s agriculture. The ultimate decisions of the European Commission on the subject Wspólna polityka rolna UE po 2013 r. a interesy polskiego rolnictwa 35 are to be taken in July 2011, just at the beginning of the Polish presidency in the EU. It is important that new regulations are conducive to the development of agriculture in Poland and in all the Europe. In the authors’ view, of crucial importance is to maintain the common character of the CAP in spite of the attempts to re-nationalise agricultural policies. If the CAP is discontinued and the related subsidies for agriculture are stopped for the sake of the liberal rules of the economy, it would imply a drainage of the value added from agriculture to other sectors of the economy. This would cause adverse external effects, weakening the competitiveness of the European agriculture, especially in the new EU member countries. The future CAP should correct market failure, protect the environment, and secure the interests of local communities. The intended reforms of the CAP will be implemented under the pressure of a rising competition in world markets, an increasing concern about the environment, and the demand of some states for the reduction of the EU budget. There is therefore a need for a complex re-assessment of the mechanism of the financial support for the agricultural sector in respect of its economic efficiency, social adequacy, and ecological standards. The authors point to the success of the CAP in promoting structural changes in the European agriculture and its adjustment to the requirements of a balanced growth. Referring to the proposed changes in the CAP, the authors specifically analyze such questions as the intended changes in direct subsidies, allocation of the financial support, and new demands for public goods supplied by the agricultural sector. The authors also present their own remarks and proposals as regards the future shape of the CAP. In particular, they propose to equalize the rules of the financial support for agriculture in all the EU countries (will special consideration of the needs of new member countries), to establish the minimum amounts of subsidies for small farms, and to maintain current funds earmarked for the development of rural areas, supplemented by adequate payments for the supply of public goods. Key words: Common Agricultural Policy 1 reform 1 direct payments 1 rural areas development 1 Poland’s agriculture Общая аграрная политика ЕС после 2013 г. и интересы польского сельского хозяйства Резюме В статье оговариваются предложения изменений в совместной аграрной политике ЕС (ОАП) в контексте развития польского сельского хозяйства. Окончательные решения по этому вопросу должны быть приняты в июле 2011 г. и совпадут с началом председательства Польши в ЕС. Речь идёт о том, чтобы эти решения как можно более широко служили интересам европейского сельского хозяйства, а также польского аграрного сектора. По мнении авторов, ключевым вопросом является сохранение общего характера ОАП и отклонение попыток её ренационализации, так как отказ от совместной аграрной политики и связанных с ней субсидий во имя либеральных принципов хозяйствования, означал бы дренаж добавленной стоимости из сельского хозяйства в другие секторы экономики и вызвал бы отрицательные внешние эффекты, приводя к ослаблению конкурентоспособности европейского сельского хозяйства, особенно в новых странах членах ЕС, усиливающегося под влиянием процессов глобализации. Будущая ОАП должна корректировать ненадёжность рынка, учитывая интересы локальных общественных групп и окружающей среды. 36 Andrzej Czyżewski, Sebastian Stępień Планируемые реформы аграрной политики ЕС будут происходить в условиях приспособления к растущей конкуренции на мировом рынке, вызовов связанных с изменениями в окружающей среде и стремления некоторых государств к ограничению бюджета ЕС. Поэтому необходима комплексная оценка ныне существующих механизмов финансовой поддержки аграрного сектора в аспекте экономической эффективности, социальной адекватности и экологических критериев. Авторы подчеркивают достижения проводимой ОАП в области структурных преобразований и адаптации сельского хозяйства и сельской местности к условиям уравновешенного развития. Обращаясь к предлагаемых некоторыми государствами и политическими группировками изменениям в аграрной политике ЕС, авторы рассматривают такие вопросы как изменение системы прямых доплат, аллокация средств в рамках второй оси, реориентация рыночной поддержки, а также реализация новых задач, связанных с генерированием публичных благ. Они представляют также свои выводы и постулаты по отношению к будущей аграрной политике ЕС. В частности, авторы предлагают отказаться от применения исторических порогов при определении прямых платежей и выравнивать уровень финансовой поддержки сельского хозяйства всех государств членов (с учётом особых нужд новых государств членов), установить минимальный порог доплат для малых хозяйств, а также сохранить фонды развития сельской местности, дополненные платежами за предоставление публичных благ. Ключевые слова: общая аграрная политики 1 реформа 1 прямые платежи 1 развитие сельской местности 1 интересы польского сельского хозяйства Eugeniusz Kwiatkowski* Kryzys globalny a rynek pracy w Polsce i innych krajach Grupy Wyszehradzkiej Wstęp Końcowe lata pierwszej dekady XXI w. zaznaczyły się wystąpieniem światowego kryzysu finansowego i gospodarczego. Zapoczątkowany załamaniem na rynku nieruchomości w Stanach Zjednoczonych w latach 2006–2007 kryzys dotknął także inne segmenty sektora finansowego gospodarki amerykańskiej, a następnie przeniósł się dosyć szybko do sektora realnego, powodując spadki absolutnego PKB w USA już w 2008 r. (o 0,2% w I kw. 2008 r. w porównaniu z kwartałem poprzednim, a także o 0,7% w III kw. i o 1,4% w IV kw.) [strona internetowa OECD]. Tendencjom tym towarzyszył dosyć szybki wzrost stopy bezrobocia (z 4,4% w ostatnim kw. 2006 r. do 4,8%, 7,0% i 10,0% w ostatnich kwartałach lat 2007–2009) [strona internetowa Eurostatu]. Negatywne impulsy koniunkturalne przeniosły się z gospodarki USA do innych krajów, w tym również krajów Unii Europejskiej (głównie za pośrednictwem handlu zagranicznego i przepływów kapitałów). Przedmiotem artykułu jest analiza tendencji występujących na rynku pracy w Polsce i pozostałych krajach Grupy Wyszehradzkiej w okresie globalnego kryzysu lat 2007–2009. W szczególności uwaga jest skierowana na zmiany wskaźników zatrudnienia i stóp bezrobocia. Dla celów porównawczych wskaźniki rynku pracy są konfrontowane z przeciętnymi wskaźnikami dla całej Unii Europejskiej (UE-27) i strefy euro (UE-16). Celem analizy jest określenie skali zmian stóp bezrobocia oraz poziomów i wskaźników zatrudnienia w reakcji na globalny kryzys w badanych krajach oraz próba objaśnienia zróżnicowanej reakcji rynku pracy w tych krajach. W podjętej próbie objaśnienia uwzględniono reakcję rozmiarów produkcji oraz * Prof. zw. dr hab. Eugeniusz Kwiatkowski – Katedra Makroekonomii, Uniwersytet Łódzki, e-mail: [email protected] 38 Eugeniusz Kwiatkowski elastyczność rynku pracy, w szczególności w odniesieniu do płac, zatrudnienia i czasu pracy. Artykuł rozpoczyna się od przedstawienia kwartalnych wskaźników stóp bezrobocia i stóp zatrudnienia w analizowanych krajach w latach 2007–2009 (część 2). W części 3 podjęte są rozważania teoretyczne na temat charakteru procesów przystosowawczych na rynku pracy w okresie kryzysu. Pokazują one, jak skala dostosowań ilościowych na rynku pracy, polegających na zmianach zatrudnienia i bezrobocia, zależy od takich czynników, jak elastyczność płac i czasu pracy oraz skłonność do „chomikowania” siły roboczej. Część 4 poświęcona jest ukazaniu uwarunkowań zmian zatrudnienia i bezrobocia w analizowanych krajach, co może objaśnić zróżnicowaną skalę zmian na rynku pracy w tych krajach w okresie kryzysu. Ważniejsze wnioski zawarte są w części 5. 1. Wskaźniki rynku pracy w latach 2007–2010 Podstawą analizy zmian na rynku pracy są dwa syntetyczne wskaźniki: stopa bezrobocia i stopa zatrudnienia, obserwowane kwartalnie w latach 2007–2010, przy czym dane o stopach bezrobocia kończą się na I kw. 2010 r., a o stopach zatrudnienia na IV kw. 2009 r. Kwartalna częstotliwość obserwacji tych wielkości stwarza możliwość uchwycenia ich reakcji koniunkturalnej. Uwzględnienie w analizie obydwu wymienionych wskaźników jest godne podkreślenia, gdyż o ile zmiany stóp zatrudnienia są uzależnione przede wszystkim od zmian popytu na pracę, to zmiany stóp bezrobocia odzwierciedlają nie tylko zmiany po popytowej stronie rynku pracy, lecz także zmiany po stronie podażowej, jak również niedopasowania strukturalne obu stron, tj. popytu i podaży pracy. Rysunek 1 przedstawia kształtowanie się kwartalnych stóp bezrobocia w krajach Grupy Wyszehradzkiej w okresie I kw. 2007 r. – I kw. 2010 r., a więc w okresie, kiedy powinny uwidocznić się skutki globalnego kryzysu gospodarczego. Wskaźniki te są uzupełnione o przeciętne wskaźniki dla strefy euro i całej Unii Europejskiej. Z rysunku 1 wynika, po pierwsze, że w analizowanych krajach nastąpiło odwrócenie kierunku zmian stopy bezrobocia: po okresie spadku wskaźników bezrobocia, w 2008 r. nastąpił we wszystkich krajach wzrost stóp bezrobocia. Tendencje wzrostu poziomu bezrobocia można traktować jako efekt globalnego kryzysu. Podobne kierunki zmian stopy bezrobocia są charakterystyczne dla strefy euro i całej Unii Europejskiej. Po drugie, warto zauważyć, że moment odwrócenia kierunku zmian stóp bezrobocia był w poszczególnych krajach niejednolity. Minimalna stopa bezrobocia (a więc jakby górny punkt zwrotny w cyklu) wystąpiła w IV kw. 2008 r. w Polsce i Słowacji, a w III kw. 2008 r. w Czechach. Natomiast na Węgrzech (podobnie jak w strefie euro) moment ten wystąpił znacznie wcześniej, bo już w I kw. 2008 r. Kryzys globalny a rynek pracy w Polsce i innych krajach Grupy Wyszehradzkiej 39 Warto ponadto zauważyć, że między badanymi krajami wystąpiły znaczące różnice w poziomach minimalnej stopy bezrobocia (4,3% w Czechach, 6,9% w Polsce, 7,6% na Węgrzech oraz 8,9% w Słowacji). Nasuwa się hipoteza o występowaniu różnic w poziomie stopy bezrobocia odpowiadającego stanowi równowagi między tymi krajami, choć oczywiście hipoteza ta wymagałaby weryfikacji. Ry s u n e k 1 Stopy bezrobocia w latach 2007–2010, przeciętne kwartalne (w %) 16 14 12 10 8 6 4 2 0 I II III 2007 Czechy Polska IV I II III 2008 Słowacja Węgry IV I II III 2009 UE-27 UE-16 IV I 2010 Źródło: Strona internetowa Eurostatu. Po trzecie, z rysunku 1 wynika, że skala wzrostu stopy bezrobocia po przekroczeniu „górnego punktu zwrotnego” była w analizowanych krajach zróżnicowana. W okresie czterech kolejnych kwartałów największy wzrost stopy bezrobocia wystąpił w Słowacji (5,1 pkt. proc.) i Czechach (o 3,0 pkt. proc.), a znacznie słabszy był na Węgrzech (1,6 pkt. proc.) i w Polsce (1,8 pkt. proc.). Podobnie niskie wskaźniki wzrostu stóp bezrobocia wystąpiły w strefie euro (o 1,6 pkt. proc.) i całej Unii Europejskiej (o 1,5 pkt. proc.). Można więc sądzić, że wrażliwość koniunkturalna stóp bezrobocia na globalny kryzys była stosunkowo niska w Polsce i na Węgrzech, natomiast znacznie wyższa w Słowacji i Czechach. Przyjrzyjmy się obecnie wskaźnikom statystycznym dotyczącym stóp zatrudnienia w badanych krajach, które przedstawiono na rysunku 2. Z rysunku 2 wynika, po pierwsze, że w analizowanym okresie 2007–2009 można zauważyć koniunkturalne efekty w odniesieniu do stóp zatrudnienia. Po okresie wzrostu stóp zatrudnienia wystąpił okres spadku tych stóp, zapoczątkowany w III bądź IV kw. 2008 r. Można właśnie uznać III bądź IV kw. 2008 r. jako punkt zwrotny zmian koniunktury na rynku pracy. 40 Eugeniusz Kwiatkowski Ry s u n e k 2 Stopy zatrudnienia w latach 2007–2009 (w % ludności w wieku 15–64 lata) 68 66 64 62 60 58 56 54 52 50 I II III 2007 IV Czechy Polska I II III 2008 Słowacja Węgry IV I II 2009 III IV UE-27 UE-16 Źródło: Strona internetowa Eurostatu. Po drugie, należy odnotować znaczące różnice między krajami pod względem poziomów stóp zatrudnienia. Gdyby wziąć pod uwagę okres drugiego półrocza 2008 r., a więc okres, w którym wskaźniki zatrudnienia osiągnęły maksimum, to należy stwierdzić, że jedynie w Czechach stopy zatrudnienia były równe bądź nawet wyższe od wszystkich wskaźników w strefie euro. W Polsce stopa zatrudnienia była niższa niż w Czechach i Słowacji, a na Węgrzech była jeszcze niższa niż w Polsce. Po trzecie, osłabienie koniunktury gospodarczej pociągnęło za sobą obniżkę stóp zatrudnienia we wszystkich analizowanych krajach, przy czym jej rozmiary były zróżnicowane. W okresie czterech kolejnych kwartałów po szczytowym okresie koniunktury (w III bądź IV kw. 2008 r.) wskaźniki stóp zatrudnienia spadły najsilniej w Słowacji (o 3,0 pkt. proc.) i na Węgrzech (1,8 pkt. proc.), nieco słabiej w Czechach (1,5 pkt. proc.), najsłabiej zaś w Polsce (jedynie o 0,6 pkt. proc.). Spadek tego wskaźnika był stosunkowo wysoki w strefie euro (1,8 pkt. proc.). Z przeprowadzonych analiz wynika, że rynki pracy w badanych krajach reagowały na globalny kryzys zmianami zarówno stóp zatrudnienia, jak i stóp bezrobocia. Zmiany tych wskaźników były najsilniejsze na Słowacji, najsłabsze zaś w Polsce. Nasuwa się pytanie, jak wytłumaczyć zróżnicowaną reakcję rynków pracy na globalny kryzys. Rozważmy tę kwestię najpierw od strony teoretycznej. Kryzys globalny a rynek pracy w Polsce i innych krajach Grupy Wyszehradzkiej 41 2. Procesy przystosowawcze na rynku pracy w okresie kryzysu Zapoczątkowany w Stanach Zjednoczonych kryzys finansowy wywarł swoje piętno na sektorze realnym, najpierw w gospodarce USA, a następnie w innych krajach, w tym również krajach Grupy Wyszehradzkiej. Znalazło to wyraz w dostosowaniach występujących w tych gospodarkach, w tym również na rynkach pracy. Przyjrzyjmy się bliżej mechanizmom tych dostosowań, ograniczając tutaj rozważania do ujęć teoretycznych ugruntowanych w głównych teoriach ekonomicznych. Załóżmy istnienie negatywnego szoku popytowego. Przyjęcie takiego założenia w odniesieniu do gospodarek krajów europejskich jest zupełnie uprawnione, gdyż ważnym kanałem transmisji negatywnych impulsów koniunkturalnych z gospodarki amerykańskiej do innych krajów jest handel zagraniczny. Jego osłabienie związane z globalnym kryzysem może właśnie powodować spadek eksportu netto i agregatowego popytu w gospodarkach europejskich. Rozważmy zatem możliwe konsekwencje negatywnego szoku popytowego, a w szczególności możliwe dostosowania po takim szoku występujące w gospodarce. Negatywny szok popytowy wywołuje przede wszystkim bezpośrednie dostosowania na rynku produktów (rys. 3). Naturalną konsekwencją spadku agregatowego popytu na produkty jest zmniejszenie rozmiarów produkcji w gospodarce. Tego rodzaju dostosowanie znajduje szerokie uzasadnienie na gruncie ekonomii keynesistowskiej, ale również inne teorie ekonomiczne dostrzegają ten związek. Warto jednak zauważyć, że mogą występować również inne dostosowania do negatywnego wstrząsu popytowego, a mianowicie: spadek cen towarów, wzrost rozmiarów zapasów towarów czy też zmiany okresu dostaw. Dostosowania te, zwłaszcza dotyczące zapasów towarów i okresu dostaw, mają jednakże ograniczone znaczenie. Gdy negatywny szok popytowy jest głęboki i trwa dość długo, to nieuniknione są także dostosowania w zakresie rozmiarów produkcji. W przypadku omawianego tutaj kryzysu globalnego istotnym źródłem negatywnego szoku popytowego był spadek eksportu netto. Dlatego można przyjąć, że skala reakcji produkcji na negatywny szok popytowy zależy w dużej mierze od stopnia otwartości gospodarki. Im gospodarka jest bardziej otwarta, tym silniejszej reakcji produkcji można oczekiwać w przypadku impulsu zewnętrznego. Spadek rozmiarów produkcji wywołany negatywnym szokiem popytowym nie pozostaje bez wpływu na rynek pracy, na którym również zachodzą procesy przystosowawcze (rys. 3). W literaturze zwraca się uwagę na kilka rodzajów dostosowań występujących na rynku pracy w okresie kryzysu, a mianowicie [Smith 2003, s. 47–73; Cahuc, Zylberberg 2004, s. 193–214; Bosworth, Dawkins, Stromback 1996, s. 124–127 i 194–196]: 11 spadek płac realnych, 11 zmniejszenie czasu pracy, 11 obniżenie intensywności i wydajności pracy, 11 zmniejszenie rozmiarów zatrudnienia. Rozważmy powyższe dostosowania nieco bliżej. 42 Eugeniusz Kwiatkowski Ry s u n e k 3 Dostosowania na rynku produktów i rynku pracy w przypadku negatywnego szoku popytowego Negatywny szok popytowy Dostosowania na rynku produktów: 1 spadek cen 1 wzrost rozmiarów zapasów 1 zmiana terminu dostaw 1 zmniejszenie rozmiarów produkcji Dostosowania na rynku pracy: 1 spadek płac realnych 1 zmniejszenie czasu pracy 1 zmniejszenie intensywności i produktywności pracy 1 zmniejszenie rozmiarów zatrudnienia Źródło: Opracowanie własne. Spadek płac realnych w sytuacji redukcji agregatowego popytu i produkcji jest procesem mocno eksponowanym w neoklasycznej teorii rynku pracy, w której zakłada się wysoką elastyczność płac. W przeprowadzonych niedawno analizach empirycznych udało się potwierdzić negatywną zależność między płacami realnymi a popytem na pracę, która zakłada pewną elastyczność płac realnych [Smith 2003, s. 46–47]. Zgodnie z neoklasycznym rozumieniem procesów gospodarczych, elastyczność płac realnych ma ważne znaczenie dla charakteru dostosowań na rynku pracy, gdyż wysoka elastyczność implikuje silniejsze dostosowania płacowe oraz odpowiednio mniejsze dostosowania ilościowe (w postaci zmian zatrudnienia), gdyby użyć terminologii Okuna. Można to uzasadnić, odwołując się do postępowania pracodawców, którzy w reakcji na spadek produkcji próbują obniżyć koszty pracy za pośrednictwem obniżek płac. Nasuwa się jednakże pytanie, czy we współczesnym świecie, w którym istnieją związki zawodowe, układy zbiorowe i ustawy o płacach minimalnych, płace są na tyle elastyczne, aby mogły zaabsorbować główną część dostosowań rynku pracy w okresie kryzysu? Twierdząca odpowiedź na to pytanie byłaby dosyć ryzykowna. Również w teorii kontraktów podkreśla się stabilność płac jako ważny wyznacznik postępowania pracowników w negocjacjach z pracodawcami (zob. Kwiatkowski [2006, s. 174–179]). W warunkach współczesnej gospodarki do opisu kształtowania się płac należy raczej przyjąć twierdzenie o lepkich płacach. Implikuje ono, że dostosowania pozapłacowe mają również miejsce w przypadku wystąpienia szoków zewnętrznych. Dostosowania rozmiarów zatrudnienia należą do głównych dostosowań pozapłacowych występujących w sytuacji szoków zewnętrznych. Tego rodzaju dostosowania są eksponowane w teorii keynesistowskiej, w której popyt na pracę traktuje się jako pochodny, zależny od popytu na produkty i poziomu produkcji. Zgodnie z tą teorią, spadek popytu i produkcji pociąga za sobą redukcję popytu na pracę i liczby pracujących. Trzeba jednak podkreślić, że dostosowania zatrudnienia do rozmiarów produkcji nie są w rzeczywistości natychmiastowe. Istnieją bowiem koszty przystosowań zatrudnienia, z którymi muszą się liczyć pracodawcy. Chodzi tutaj przede wszystkim o koszty zwolnień z pracy (w szczególności odprawy pieniężne), ale także o koszty przyjęć do pracy i koszty szkoleń nowo przyjętych pra- Kryzys globalny a rynek pracy w Polsce i innych krajach Grupy Wyszehradzkiej 43 cowników, które występują, gdy po okresie redukcji zatrudnienia przyjdzie poprawa koniunktury i konieczność zwiększenia liczby pracujących. Te właśnie koszty przystosowawcze zatrudnienia opóźniają szybkie dostosowanie liczby pracujących do rozmiarów produkcji. Gdy koszty te są stosunkowo wysokie, bardziej opłacalne dla pracodawców może być dokonanie alternatywnych dostosowań w postaci skrócenia czasu pracy oraz zwiększenia intensywności i wydajności pracy. Postępowanie pracodawców dotyczące wyboru rodzaju dostosowań w sytuacji zmniejszającej się produkcji zależy od relacji między kosztami przystosowawczymi zatrudnienia (tj. kosztami zwolnień, przyjęć i szkoleń) a kosztami wynagrodzeń (por. Cahuc, Zylberberg [2004, s. 196–197]). Gdy koszty przystosowawcze zatrudnienia są stosunkowo wysokie w porównaniu z kosztami wynagrodzeń, pracodawcom może się nie opłacać zmniejszać liczby pracowników wraz ze spadkiem produkcji. Korzystniejsze od redukcji zatrudnienia może być zredukowanie czasu pracy, które również wiąże się zazwyczaj ze zmniejszeniem łącznych kosztów pracy. Sytuacja taka oznacza spadek wydajności pracy na 1 zatrudnionego. Może ona również oznaczać spadek wydajności pracy na 1 roboczogodzinę, jeśli redukcja czasu pracy będzie niewystarczająca w porównaniu ze spadkiem produkcji. Występujące wówczas zjawisko chomikowania siły roboczej1 nie musi spotykać się z negacją pracodawców, jeśli koszty przystosowawcze zatrudnienia są stosunkowo wysokie. Kształtowanie się rozmiarów zatrudnienia i produkcji w cyklu koniunkturalnym przedstawiono na rysunku 4, na którym przebieg produkcji (Y) zaznaczono krzywą ciągłą, a zatrudnienia (Z) – linią przerywaną. Jak zaznaczono na rysunku, wahania zatrudnienia są łagodniejsze od wahań produkcji, a ponadto dokonują się z opóźnieniem (por. Smith [2003, s. 50 i nast.]). Warto zwrócić uwagę na przebieg obu zmiennych w okresie kryzysu, tj. między okresem t0 a t2. Początkowo między t0 a t1 zatrudnienie nie obniża się pomimo spadku produkcji. Przystosowania polegają wówczas na redukcji czasu pracy i wydajności pracy na 1 zatrudnionego. Mogą również wówczas wystąpić przystosowania polegające na redukcji wydajności na 1 roboczogodzinę, jeśli spadek produkcji jest silniejszy od redukcji czasu pracy. Następnie między t1 a t2, gdy spadek produkcji pogłębia się, następuje redukcja rozmiarów zatrudnienia. Redukcja ta zostaje zahamowana przez tendencje wzrostowe produkcji (między t2 a t3). Występującej wówczas poprawie koniunktury towarzyszy wzrost wydajności pracy. Dopiero po pewnym czasie, gdy wzrost produkcji zostaje ugruntowany (między t3 a t4), następuje wzrost rozmiarów zatrudnienia. Z przedstawionych uwag wynika, że skala spadku zatrudnienia, jaki następuje w okresie kryzysu, zależy od kilku co najmniej czynników (rys. 5). Po pierwsze, zależy od tego, jak głęboki jest spadek produkcji w gospodarce, przy czym im większy jest ten spadek, tym większa – ceteris paribus – redukcja zatrudnienia. Po drugie, skala spadku zatrudnienia zależy od rozmiarów spadku płac realnych, przy czym większy spadek płac realnych implikuje mniejszą redukcję zatrudnienia. Trzeba zaznaczyć, że twierdzenie to zakłada neoklasyczną interpretację de1 W literaturze polskiej zjawisko chomikowania siły roboczej opisują szeroko Strzelecki, Wyszyński, Saczuk [2009, s. 77–104]. 44 Eugeniusz Kwiatkowski terminantów zatrudnienia i niekoniecznie byłoby przyjęte przez keynesistów. Po trzecie, skala spadku zatrudnienia zależy od redukcji czasu pracy oraz stopnia spadku wydajności pracy. Występuje tutaj swoista wymienność. Im większe są spadki czasu pracy i wydajności pracy, tym mniejszej redukcji zatrudnienia można oczekiwać w okresie kryzysu. Ry s u n e k 4 Wahania produkcji (Y) i zatrudnienia (Z) w cyklu koniunkturalnym Y Z t0 t1 t2 t3 t4 t5 czas Źródło: Smith [2003, s. 50]. Ry s u n e k 5 Determinanty spadku zatrudnienia w okresie kryzysu Skala spadku zatrudnienia Skala spadku produkcji Elastyczność płac realnych Skala redukcji czasu pracy Stopień spadku intensywności i wydajności pracy Źródło: Opracowanie własne. 3. Determinanty i uwarunkowania zmian na rynkach pracy Z danych statystycznych przedstawionych w części 1 wynika, że w analizowanych krajach wystąpiły znaczące zmiany na rynkach pracy w latach 2007–2009, zwłaszcza począwszy od połowy 2008 r. Stosunkowo silny wzrost stopy bezrobocia wystąpił w Słowacji i Czechach, natomiast znacznie słabszy w Polsce i na Węgrzech. Wskaźniki zatrudnienia spadły znacząco w Słowacji i na Węgrzech, a nieznacznie w Polsce. Nasuwa się pytanie, jak kształtowały się w analizowanych krajach wielkości będące istotnymi determinantami zmian na rynku pracy, które zostały omówione 45 Kryzys globalny a rynek pracy w Polsce i innych krajach Grupy Wyszehradzkiej w części 2? Chodzi tutaj o kształtowanie się w latach 2007–2009 wskaźników PKB, płac realnych, czasu pracy i wydajności pracy. Przede wszystkim, czy zmiany tych wielkości miały rzeczywiście procykliczny charakter i czy mogą one objaśnić zróżnicowane w poszczególnych krajach zmiany wskaźników rynków pracy? Przed podjęciem analizy determinantów zmian na rynkach pracy przyjrzyjmy się najpierw tendencjom zmian liczby pracujących, a więc tej wielkości charakteryzującej rynek pracy, która podlega bezpośrednim oddziaływaniom wspomnianych determinantów. Odpowiednie dane statystyczne dotyczące dynamiki zmian poziomu zatrudnienia w ujęciu kwartalnym w czterech analizowanych krajach, uzupełnione o agregatowe indeksy dla strefy euro (UE‑16) i całej Unii Europejskiej (UE-27) zawiera rysunek 6, z którego wynika, że najsilniejszy spadek liczby pracujących w okresie I kw. 2007 r.–IV kw. 2009 r. wystąpił na Węgrzech (ponad 5%), przy czym spadkowa tendencja rozpoczęła się tam dosyć wcześnie, bo już w 2007 r. W pozostałych krajach spadek zatrudnienia rozpoczął się później, w zasadzie pod koniec 2008 r. Był on dosyć duży na Słowacji, nieco zaś słabszy w Czechach, UE-16 i UE-27. W Polsce spadkowe tendencje zatrudnienia wystąpiły w 2009 r. i były zdecydowanie najsłabsze wśród analizowanych krajów. Ry s u n e k 6 Indeksy zmian zatrudnienia w wybranych krajach w ujęciu kwartalnym w latach 2007–2009 (I kw. 2007 = 100) 108 106 104 102 100 98 96 64 92 90 88 I II III 2007 IV I II III 2008 IV I II III 2009 Czechy Słowacja UE-27 Polska Węgry UE-16 IV Źródło: Internetowa baza danych Eurostat. Zmiany rozmiarów produkcji uznawane są dosyć powszechnie za istotny czynnik determinujący zmiany zatrudnienia w gospodarce. Na rysunku 7 przedstawio- 46 Eugeniusz Kwiatkowski no kwartalne zmiany realnego PKB w analizowanych krajach w latach 2007–2009. Z rysunku wynika, że w badanym okresie w analizowanych krajach wystąpiły tendencje do procyklicznych zmian PKB, choć miały one różną siłę i zróżnicowany okres występowania. Najwcześniej tendencje spadkowe PKB wystąpiły na Węgrzech i w strefie euro (w połowie 2008 r.), nieco później w Czechach i Polsce (w końcu 2008 r.), a w Słowacji dopiero na początku 2009 r. Skala spadku PKB była największa na Węgrzech (o około 7% w okresie II kw. 2008 r.–IV kw. 2009 r.). Również w Czechach, a także w krajach strefy euro zanotowano znaczące spadki PKB, zwłaszcza w okresie III kw. 2008 r.–II kw. 2009 r. Na Słowacji wystąpiły dosyć silne wahania dynamiki PKB; początkowo nastąpił stosunkowo szybki wzrost w okresie I kw. 2007 r.–IV kw. 2008 r. (poziom PKB w całym tym okresie podniósł się o ponad 12%), a następnie gwałtowny spadek w I kw. 2009 r. (o 7,4% w porównaniu z poprzednim kwartałem). W Polsce natomiast występował prawie nieprzerwany, stosunkowo szybki wzrost PKB w analizowanym okresie (poziom PKB w całym okresie wzrósł około 11%). O procyklicznym charakterze zmian PKB w Polsce w okresie globalnego kryzysu świadczyć może jedynie nieznaczny spadek tej wielkości w IV kw. 2008 r. (0,3% w porównaniu z poprzednim kwartałem). Ry s u n e k 7 Indeksy zmian PKB w cenach stałych w wybranych krajach w ujęciu kwartalnym w latach 2007–2009 (I kw. 2007 = 100) 115 110 105 100 65 90 85 I II III 2007 IV Czechy Polska Źródło: Internetowa baza danych Eurostat. I II III 2008 Słowacja Węgry IV I II III 2009 UE-27 UE-16 IV Kryzys globalny a rynek pracy w Polsce i innych krajach Grupy Wyszehradzkiej 47 Warto odnotować stosunkowo korzystne zmiany PKB w Polsce w badanym okresie. Nie tylko wahania dynamiki PKB były w Polsce najsłabsze wśród analizowanych krajów, lecz także trzeba podkreślić największy relatywny przyrost PKB w Polsce pomiędzy I kw. 2007 r. a IV kw. 2009 r. Niewątpliwie trzeba stwierdzić, że negatywne skutki globalnego kryzysu dla kształtowania się PKB w Polsce były stosunkowo mało znaczące. Złożyło się na to niewątpliwie wiele przyczyn2. Można przypuszczać, że przyczyniły się do tego takie czynniki, jak: stosunkowo wysoka i stabilna konsumpcja, wysoka absorpcja funduszy UE, gwałtowna deprecjacja złotówki w okresie od sierpnia 2008 r. do kwietnia 2009 r., mniej restrykcyjna polityka pieniężna, redukcja stawek podatku dochodowego, redukcja składek rentowych, a także regulacje pakietu antykryzysowego. Konfrontując tendencje zmian PKB w analizowanych krajach z omówionymi wcześniej zmianami zatrudnienia, trzeba stwierdzić, że zmiany PKB tłumaczą w dużym stopniu zmiany zatrudnienia występujące w okresie globalnego kryzysu. Największy spośród badanych krajów spadek PKB na Węgrzech przełożył się na największy spadek liczby pracujących w tym kraju. Dosyć silne tendencje wzrostowe PKB w Polsce zaowocowały bardzo nieznacznym spadkiem liczby pracujących w 2009 r. Tendencje zmian obu wskaźników w Czechach oraz krajach UE-16 i UE-27 wykazały również dosyć wysoką korelację. Jedynie w Słowacji wystąpiły znaczące rozbieżności kierunków zmian obu wskaźników od drugiej połowy 2008 r. Porównując relatywne zmiany PKB z analogicznymi zmianami zatrudnienia, można obliczyć proste wskaźniki wrażliwości zatrudnienia na zmiany PKB. Odpowiednie dane dla analizowanych krajów zawiera tabela 1. Zamieszczone w niej wskaźniki są średniorocznymi wskaźnikami skalkulowanymi na podstawie wskaźników kwartalnych, bez uwzględnienia jakichkolwiek opóźnień. Szczególnie interesujące są wskaźniki dla lat 2008 i 2009, kiedy uwidoczniły się skutki globalnego kryzysu. Z tabeli wynika, po pierwsze, że w 2008 r. stosunkowo wysoką wrażliwość stanu zatrudnienia na zmiany wielkości produkcji zanotowano w Czechach i na Węgrzech (w Czechach wzrost PKB spowodował stosunkowo wysoki przyrost zatrudnienia, a na Węgrzech występujący wówczas spadek PKB wywołał dosyć silny spadek liczby pracujących), natomiast znacznie mniejszą wrażliwość zanotowano w Polsce i na Słowacji (na Słowacji zmiany PKB i zatrudnienia miały odmienny kierunek). Po drugie, w kryzysowym 2009 r. wysoka wrażliwość zatrudnienia wystąpiła również na Węgrzech i w Czechach (spadkom PKB towarzyszyły stosunkowo silne spadki zatrudnienia). W Polsce i Słowacji wskaźniki wrażliwości zatrudnienia w 2009 r. były dosyć niskie, ale trzeba podkreślić, że rosnącym wówczas poziomem PKB towarzyszył spadek liczby pracujących. 2 Problem podatności na kryzys w gospodarkach wschodzących podejmuje A. Wojtyna [2010, s. 39–43]. 48 Eugeniusz Kwiatkowski Ta b e l a 1 Wskaźniki wrażliwości zatrudnienia względem zmian PKB w latach 2007–2009 (wskaźniki średnioroczne) Rok Czechy Węgry Słowacja Polska 2007 0,713 3,094 0,198 0,580 2008 0,801 0,711 –0,063 0,177 2009 0,491 6,050 –0,147 –0,158 Źródło: Obliczenia własne na podstawie danych Eurostatu. Wrażliwość zatrudnienia na zmiany produkcji zależy od wielu czynników. Wśród tych czynników istotną rolę przypisuje się regulacjom dotyczącym prawnej ochrony zatrudnienia, a w szczególności związanym z procedurami przyjęć do pracy i zwolnień z pracy, wysokością odpraw pieniężnych przy zwolnieniach oraz rodzajem i okresem zawierania umów o pracę. Podstawowym argumentem za istnieniem prawnej ochrony zatrudnienia jest zagwarantowanie pracownikom bezpieczeństwa zatrudnienia. Z doświadczeń różnych krajów wynika jednakże również to, że zbyt restrykcyjne uregulowania prawnej ochrony zatrudnienia mają negatywny wpływ na zatrudnienie niektórych grup pracowników oraz przepływy siły roboczej na rynku pracy [Bassanini, Nunziata, Venn 2009, s. 349–402]. W tym kontekście warto zwrócić uwagę na fakt, że sumaryczny indeks prawnej ochrony zatrudnienia opracowany przez OECD kształtuje się w Polsce na najwyższym poziomie spośród krajów Grupy Wyszehradzkiej (2,41 w 2008 r.) i charakteryzował się największym przyrostem wśród krajów tej grupy w latach 1999–2008 [strona internetowa OECD]. Tendencje tego indeksu nie pozostają zapewne bez znaczenia dla przedstawionych wskaźników wrażliwości zatrudnienia. Na rysunku 8 przedstawiono kształtowanie się płac realnych w czterech analizowanych krajach, przy czym indeksy płac realnych ograniczone są do przemysłu, budownictwa i usług. Z rysunku widać odmienne kształtowanie się płac realnych w okresie globalnego kryzysu w Polsce i na Węgrzech z jednej strony, a w Słowacji i w Czechach, z drugiej. W przypadku Polski i Węgier można mówić o procyklicznych zmianach płac realnych w 2009 r., gdyż zanotowano wówczas ich wyraźny spadek. Natomiast na Słowacji i w Czechach płace realne wykazywały tendencje wzrostowe, także w 2009 r. Gdyby przyjąć neoklasyczną interpretację skutków zmian płac realnych, to można by stwierdzić, że w Polsce spadkowe tendencje płac realnych przyczyniły się do osłabienia spadku zatrudnienia, na Węgrzech zaś spadki płac realnych nie były w stanie zahamować silnych spadków zatrudnienia w okresie globalnego kryzysu. Natomiast w przypadku Słowacji i Czech wzrostowe tendencje płac realnych miały swój udział w występującym spadku zatrudnienia. 49 Kryzys globalny a rynek pracy w Polsce i innych krajach Grupy Wyszehradzkiej Ry s u n e k 8 Indeksy zmian płac realnych w wybranych krajach w ujęciu kwartalnym w latach 2007–2009 (I kw. 2007 = 100) 120 115 110 105 100 95 90 85 I II III 2007 IV I II III 2008 Czechy Słowacja Polska Węgry IV I II III 2009 IV Źródło: Internetowa baza danych Eurostat; internetowa baza danych OECD.Stat Extracts. W latach 2008–2009 we wszystkich analizowanych krajach występowały tendencje do spadku czasu pracy. Widać to wyraźnie na rysunku 9, który pokazuje zmiany tygodniowego czasu pracy w głównym miejscu pracy w analizowanych krajach. Spadkowe tendencje uwidoczniły się zwłaszcza w IV kw. 2008 r. i całym 2009 r. Przeciętna liczba godzin pracy w tygodniu zmieniała się więc w tym okresie procyklicznie. Można zatem stwierdzić, że we wszystkich badanych krajach zmniejszenie czasu pracy przyczyniało się do osłabienia spadku zatrudnienia w okresie globalnego kryzysu. Na zakończenie przyjrzyjmy się kształtowaniu się wydajności pracy na 1 pracującego. Indeksy zmian wydajności (skalkulowanej jako relacje PKB do liczby pracujących) przedstawiono na rysunku 10. Z wykresu wynika, że spadkowe tendencje wydajności pracy wystąpiły we wszystkich badanych krajach, choć z różną siłą i różnym okresem trwania. Były one znaczące na Węgrzech i w Czechach (od połowy 2008 r. do połowy 2009 r.); w Słowacji gwałtowny spadek wystąpił w I kw. 2009 r.; również w strefie euro zanotowano spadek wydajności pracy w 2008 r. i I kw. 2009 r. W Polsce spadek wydajności pracy wystąpił jedynie w I i IV kw. 2008 r. Należy więc stwierdzić, że występowały symptomy procyklicznego kształtowania się wydajności pracy, które łagodziły spadkowe tendencje zatrudnienia w okresie globalnego kryzysu. 50 Eugeniusz Kwiatkowski Ry s u n e k 9 Indeksy zmian przeciętnej liczby godzin pracy w tygodniu w wybranych krajach w ujęciu kwartalnym w latach 2007–2009 (I kw. 2007 = 100) 101,0 100,5 100,0 99,5 99,0 98,5 98,0 97,5 I II III 2007 IV I Czechy Polska II III 2008 IV I II 2009 III IV UE-27 UE-16 Słowacja Węgry Źródło: Internetowa baza danych Eurostat. Ry s u n e k 1 0 Indeksy zmian wydajności pracy na 1 zatrudnionego w wybranych krajach w ujęciu kwartalnym w latach 2007–2009 (I kw. 2007 = 100) 115 110 105 100 95 90 85 I II III 2007 IV I Czechy Polska Źródło: Internetowa baza danych Eurostat. II III 2008 Słowacja Węgry IV I II III 2009 UE-27 UE-16 IV Kryzys globalny a rynek pracy w Polsce i innych krajach Grupy Wyszehradzkiej 51 Zakończenie Z przeprowadzonej analizy wynika, że w okresie kryzysu globalnego lat 2007–2009 wystąpiły znaczące zmiany na rynkach pracy w krajach Grupy Wyszehradzkiej. Znalazły one wyraz we wzroście stóp bezrobocia oraz spadku poziomów i stóp zatrudnienia. Zmiany tych wskaźników były w Polsce stosunkowo łagodne, a znacznie silniejsze na Węgrzech, Słowacji i w Czechach. Również w strefie euro zmiany omawianych wskaźników były silniejsze niż w Polsce. Skala zmian zatrudnienia i bezrobocia w okresie kryzysu zależy od wielu czynników. Znaczącą rolę odgrywają wśród nich takie czynniki, jak zmiany wielkości produkcji, płac realnych, czasu pracy i wydajności pracy. Przystosowania rynku pracy do negatywnych szoków zewnętrznych nie polegają wyłącznie na spadku zatrudnienia i wzroście bezrobocia. Przystosowania rynku pracy mogą również polegać na obniżkach płac realnych, skróceniu czasu pracy i spadku wydajności pracy. Występować może tutaj swego rodzaju wymienność polegająca na tym, że większa elastyczność płac realnych i czasu pracy oraz większy spadek wydajności pracy implikują mniejsze zmiany zatrudnienia i bezrobocia. Analizy danych statystycznych w krajach Grupy Wyszehradzkiej dowodzą, że w latach 2007–2009 występowały tendencje do procyklicznego zachowania się takich wielkości makroekonomicznych, jak zatrudnienie, PKB, płace realne, czas pracy i wydajność pracy. W szczególności w drugiej połowie 2008 r. i w całym 2009 r. występowały tendencje do wzrostu bezrobocia oraz spadkowe tendencje zatrudnienia, PKB, płac realnych, czasu pracy i wydajności pracy. Skala zmian zatrudnienia i bezrobocia w tym okresie pozostawała więc pod wpływem pozostałych wymienionych zmiennych. Spadki zatrudnienia i przyrosty bezrobocia w Polsce w okresie kryzysu były stosunkowo nieduże. Było to związane w istotnej mierze z dosyć korzystnymi tendencjami wzrostowymi PKB, ale pewną rolę odegrały tutaj również spadkowe tendencje płac realnych i czasu pracy. Stosunkowo duży spadek zatrudnienia na Węgrzech tłumaczy się przede wszystkim silnymi tendencjami spadkowymi PKB, ale spadek ten byłyby prawdopodobnie jeszcze większy, gdyby nie obniżki czasu pracy, płac realnych i wydajności pracy. Znaczący spadek zatrudnienia w Słowacji i w Czechach był związany ze spadkiem PKB i wzrostem płac realnych. Spadkowe tendencje czasu pracy i wydajności pracy w tych krajach nie były w stanie odwrócić niekorzystnych tendencji zatrudnienia w okresie osłabienia koniunktury. Tekst wpłynął 17 listopada 2010 r. 52 Eugeniusz Kwiatkowski Bibliografia Bassanini A., Nunziata L., Venn D., Job Protection Legislation and Productivity Growth in OECD Countries, „Economic Policy” 2009, nr 58. Bosworth D., Dawkins P., Stromback T., The Economics of the Labour Market, Longman, Essex 1996. Cahuc P., Zylberberg A., Labour Economics, The MIT Press, Cambridge–London 2004. Kwiatkowski E., Bezrobocie. Podstawy teoretyczne, Wydawnictwo Naukowe PWN, Warszawa 2006. Smith S., Labour Economics, Routledge, London–New York 2003. Strona internetowa Eurostatu (http://epp.eurostat.ec.europa.eu/portal/page/portal/statistics/ search_database). Strona internetowa OECD (http://stats.oecd.org). Strzelecki P., Wyszyński R., Saczuk K., Zjawisko chomikowania pracy w polskich przedsiębiorstwach po okresie transformacji, „Bank i Kredyt” 2009, nr 40(6). Wojtyna A., Gospodarki wschodzące w obliczu kryzysu finansowego: duża odporność czy podatność? „Gospodarka Narodowa” 2010, nr 9. Global Crisis and Labour Market In Poland and Other Countries of the Vyshehrad Group Summary The paper analyses the changes that appeared in labour markets in Poland and in other countries of the Vyshehrad during the global crisis of 2007–2009. Special consideration is given to the evolution of employment and unemployment. The analysis tries to assess the impact of global crisis on employment and unemployment and to explain the different reation of labour markets in the individual countries to the crisis. The author analysies the impact of the crisis on output, employment and unemployment, work hours, and wages. The analysis shows that global crisis caused significant changes in labour markets of the analysed group of countries. The major change was the decrease of employment and the increase of unemployment, both as regards their absolute levels, as well as percentage rates. Changes in these variables were relatively small in Poland, but more pronounced in Hungary, Slovakia, and the Czech Republic. The reaction of employment and unemployment to the crisis depends on many factors. Significant is the scale of changes in the output volume, as well as changes observed in real wages, work hours, and productivity. In all the countries analysed procyclical behaviour was observed in the evolution of such macroeconomic variables as GDP, employment, real wages, working hours and labour productivity. The change in employment and unemployment levels in Poland was relatively small, due to relatively advantageous behaviour of output (some increase in real GDP), but also due to the decrease in real wages and working hours. Key words: labour market 1 unemployment 1 crisis Kryzys globalny a rynek pracy w Polsce i innych krajach Grupy Wyszehradzkiej 53 Глобальный кризис и рынок труда в Польше и в других странах Вишеградской группы Резюме Предметом статьи являются тенденции, имеющиеся на рынке труда в Польше и в остальных странах Вишеградской группы в период глобального кризиса 2007–2009 гг. В частности обращено внимание на изменения показателей занятости и норм безработицы. Целью анализа является определение масштаба изменений норм безработицы, а также уровней и показателей занятости в исследуемых странах как реакции на глобальный кризис, а также попытка объяснить дифференцированную реакцию рынка труда в этих странах. Авторами была учтена реакция в области объемов производства, гибкость рынка труда, в частности в отношении заработной платы, занятости и рабочего времени. Из проведенного анализа вытекает, что в период глобального кризиса 2007–2009 гг. произошли значительные изменения на рынках труда в странах Вишеградской группы. Они нашли своё проявление в повышении норм безработицы, а также понижении уровня и норм занятости. Изменения этих показателей были в Польше относительно невелики, особенно по сравнению с Венгрией, Словакией и в Чехией. Масштабы изменений занятости и безработицы в период кризиса зависят от ряда факторов. Значительную роль среди них играют изменения объемов производства, реальной заработной платы, рабочего времени и производительности труда. Анализ статистических данных показывает, что в 2007–2009 гг. в странах Вишеградской группы имелись тенденции проциклического поведения таких макроэкономических величин как занятость, ВВП, реальной заработной платы, рабочего времени и производительности труда. Понижение занятости и рост безработицы в Польше в период кризиса были относительно небольшими. Это было связано прежде всего с довольно благоприятными тенденциями роста ВВП, но некоторую роль сыграли также тенденции к понижению реальной заработной платы и рабочего времени. Ключевые слова: рынок труда 1 безработица 1 кризис Jan Fałkowski* Konkurencja między partiami politycznymi a polityka gospodarcza1 Wstęp Wraz z rosnącą popularnością nowej ekonomii instytucjonalnej przekonanie o znaczeniu otoczenia instytucjonalnego dla osiąganych wyników gospodarczych stało się punktem wyjścia licznych analiz ekonomicznych – teoretycznych i empirycznych [Hockuba 2001, s. 39–56]. W ostatnim dwudziestoleciu wysiłki ekonomistów koncentrowały się nie tyle na dowodzeniu prawdziwości twierdzenia, iż „instytucje mają znaczenie”, ile na próbach zidentyfikowania konkretnych czynników instytucjonalnych odpowiedzialnych za sukcesy gospodarcze. Wyrazem tych prób są m.in. poszukiwania badawcze podejmowane w ramach nowej ekonomii politycznej analizującej zależności pomiędzy poszczególnymi instytucjami politycznymi a kształtem i efektami polityki gospodarczej państwa [Wilkin 2004]. Jedno z kluczowych miejsc w debacie toczącej się obecnie w ramach tego nurtu na forum akademickim zajmują powiązania pomiędzy wynikami gospodarczymi a ustrojem politycznym. Rozważania prowadzone wokół tego zagadnienia zaowocowały wieloma pracami analizującymi zależność między demokratyzacją a wzrostem gospodarczym (zob. min. Barro [1996, s. 1–27]; Przeworski i in. [2000]; Rodrik, Wacziarg [2005, s. 50–55]; Papaioannou, Siourounis [2008, s. 1520–1551]; Acemoglu i in. [2008, s. 808–842])2. Naturalnym rozwinięciem tych zainteresowań były próby wskazania konkretnych rozwiązań instytucjonalnych, które decydują o rodzaju i efektach reform wdrażanych czy to w systemach demokratycznych (zob. m.in. Persson, Tabellini [2000; 2003]), czy też w systemach * Dr Jan Fałkowski – Wydział Nauk Ekonomicznych, Uniwersytet Warszawski, e-mail: [email protected] 1 Prace nad tym artykułem były w części finansowane ze środków Ministerstwa Nauki i Szkolnictwa Wyższego (grant nr N N112 118639). 2 Warto podkreślić, iż prace te w istotnym stopniu czerpią z wcześniejszych badań; zob. m.in. Lipset [1959, s. 69–105], Moore [1966]. 56 Jan Fałkowski autorytarnych [Besley, Kudamatsu 2008]. W ten sposób zainteresowanie ekonomistów objęło także problem konkurencji na scenie politycznej, który jest przedmiotem niniejszego opracowania. Ten artykuł ma służyć dwóm podstawowym celom. Po pierwsze, ma on za zadanie przedstawić najnowsze osiągnięcia teorii ekonomii, gdy chodzi o analizę powiązań między konkurencją polityczną a polityką gospodarczą i jej efektami. Po drugie, podejmuje on próbę krótkiego przeglądu najnowszej literatury empirycznej z tej dziedziny. W ten sposób niniejsze opracowanie może okazać się użyteczne jako wstęp do bardziej szczegółowej analizy rozstrzygnięć zapadających na styku polityki i gospodarki, czy to w Polsce, czy na świecie. W prezentowanym artykule konkurencja polityczna jest rozumiana jako konkurencja między partiami politycznymi3. Jej wpływ na politykę gospodarczą jest analizowany przez pryzmat gry, w której dochodzi do zawarcia transakcji między społeczeństwem a politykami. Grę tę przedstawić można następująco. Przedmiotem targu, w którym uczestniczą elity polityczne oraz społeczeństwo, są konkretne rozwiązania polityczne. Walutą, w jakiej dochodzi do rozliczenia tej transakcji, są głosy wyborców. Obie strony targu optymalizują swoje funkcje celu. Społeczeństwo dąży do maksymalizacji swojej funkcji użyteczności, która – w sposób pośredni lub bezpośredni – zależy od wdrażanej polityki. Politycy zaś dążą do zmaksymalizowania swoich szans na dojście do władzy lub, jeśli już ją sprawują, do pozostania przy niej przez następną kadencję. Przy najprostszym scenariuszu wynik tego targu będzie pochodną interakcji między preferencjami poszczególnych grup społecznych a rozwiązaniami instytucjonalnymi wpływającymi na poziom konkurencji politycznej4. Za przykład tych ostatnich mogą posłużyć zapisy definiujące powszechność praw wyborczych, czy też ordynacja wyborcza (proporcjonalna/większościowa). W zależności od różnych konfiguracji preferencji społecznych oraz rozwiązań instytucjonalnych ukształtuje się prawdopodobieństwo utraty władzy przez partię rządzącą (przejęcia władzy przez opozycję). Ono natomiast w istotnym stopniu wpływać będzie na obietnice oraz realne posunięcia partii politycznych, a co za tym idzie na politykę gospodarczą państwa. Następne części artykułu prezentują kolejno: rozważania teoretyczne zarysowujące podstawy dyskursu ekonomicznego poświęconego znaczeniu konkurencji politycznej dla polityki gospodarczej; najważniejsze prace empiryczne z tej dziedziny; oraz kilka uwag końcowych. 3 W literaturze czasem rozumie się przez to pojęcie także konkurencję wewnątrzpartyjną. Jednak z braku miejsca ta ostatnia nie będzie przedmiotem niniejszego artykułu. Więcej na ten temat znaleźć można m.in. w: Roemer [2001], Merlo [2005]. 4 Powyższe rozważania oparto na założeniu, iż politycy dbają wyłącznie o zwycięstwo w wyborach. Co za tym idzie, przyjęto, że przy wdrażaniu konkretnych rozwiązań kierują się oni czynnikami zwiększającymi ich szanse wyborcze, a niekoniecznie własnymi preferencjami względem realizowanych programów. Uchylenie tego założenia nakazywałoby uwzględnić w analizie, poza preferencjami społeczeństwa i rozwiązaniami instytucjonalnymi dotyczącymi konkurencji politycznej, również preferencje polityków oraz możliwość wystąpienia oportunistycznych zachowań z ich strony. Konkurencja między partiami politycznymi a polityka gospodarcza 57 1. Konkurencja polityczna w świetle teorii ekonomii Jak zauważono we wstępie, badania nad konkurencją polityczną prowadzone w ramach nowej ekonomii politycznej wzięły swój początek z rozważań na temat roli, jaką w rozwoju gospodarczym odgrywa proces demokratyzacji. Przeważająca większość ostatnich badań empirycznych dowodzi pozytywnej zależności pomiędzy demokratyzacją a wzrostem gospodarczym (zob. m.in. Rodrik i Wacziarg [2005]; Persson, Tabellini [2008])5. Rzeczywistość pokazuje jednak, iż pod względem wyników gospodarczych i poziomu rozwoju kraje demokratyczne są niezwykle silnie zróżnicowane (zob. m.in. Persson i Tabellini [2000; 2003]). Widać to praktycznie w każdym aspekcie życia gospodarczego, począwszy od poziomu PKB per capita i stopy wzrostu gospodarczego przez poziom bezrobocia do poziomu długu publicznego. Obserwacja ta stała się impulsem dla poszukiwań przyczyn tego zróżnicowania. W sposób naturalny wysiłki badaczy zostały skierowane na analizę szczegółowych czynników instytucjonalnych funkcjonujących w ramach systemów demokratycznych. Biorąc pod uwagę, iż podstawową instytucją6 w demokracji są wybory, nie powinno dziwić, iż zainteresowanie ekonomistów objęło procesy zachodzące na scenie politycznej. W nawiązaniu do dorobku mikroekonomii oraz organizacji rynku, jednym z kluczowych aspektów analizy stała się konkurencja między podmiotami politycznymi. 1.1. Definicja W literaturze ekonomicznej pojęcie konkurencji politycznej nie ma jednej obowiązującej definicji. Najbardziej powszechna z nich odwołuje się do kwestii rywalizacji pomiędzy partiami politycznymi [Roemer 2001]. W tym ujęciu konkurencja polityczna odnosi się do presji, jaką na partię rządzącą wywierają partie opozycyjne. Nieco inne spojrzenie proponują Acemoglu i Robinson [2006], którzy konkurencję polityczną definiują w odniesieniu do stopnia trudności/łatwości, z jaką 5 Twierdzenie, iż ekonomiści doszli w tym względzie do konsensusu, wydaje się być na wyrost. Co warte jednak podkreślenia, wniosek o pozytywnej zależności między demokracją a wzrostem gospodarczym płynie z ostatnich prac opartych na danych panelowych [Rodrik, Wacziarg 2005; Persson, Tabellini 2008]. Co się tyczy natomiast badań konkludujących o słabej zależności między demokracją i wzrostem gospodarczym lub jej braku, to większość z tych badań opiera się na danych przekrojowych (zob. np. przegląd literatury w: Przeworski, Limongi [1993]; Mulligan i in. [2004, s. 51–74]). Różnica ta jest o tyle istotna, że ekonometryczne techniki panelowe pozwalają w znacznie lepszym stopniu aniżeli techniki oparte na danych przekrojowych radzić sobie z wpływem czynników nieobserwowalnych. Co za tym idzie, wnioski płynące z modeli panelowych wydają się znacznie bardziej przekonywające. 6 W niniejszym opracowaniu przyjęto za Northem [1990], iż instytucje stanowią swoiste reguły gry. Należy je zatem postrzegać w kategorii wzorców i ograniczeń nałożonych na relacje międzyludzkie. 58 Jan Fałkowski społeczeństwo może dokonać wymiany elit aktualnie sprawujących władzę. W tym ujęciu wyższy poziom konkurencji politycznej będzie obniżał koszty związane z wymianą rządzących. Warto tu podkreślić, iż podejście to wiąże poziom konkurencji politycznej ze stopniem kontroli, jaką społeczeństwo posiada w stosunku do elit politycznych. Odmienne podejście proponują Mulligan i Tsui [2008], którzy definiują konkurencję polityczną w odniesieniu do barier wejścia na polityczny rynek, łącząc wyższy poziom konkurencji politycznej z niższymi barierami wejścia na rynek polityczny. W odróżnieniu od poprzednich ujęć, ta perspektywa podkreśla fakt, iż poziom konkurencji politycznej będzie decydować o wielkości nadzwyczajnego zysku realizowanego przez sprawujących władzę7. Będzie on malał wraz ze wzrostem konkurencji między partiami politycznymi. Jeszcze inna perspektywa patrzenia na problem konkurencji politycznej odsłania się, gdy za punkt wyjścia przyjmie się podejście Bardhana i Yanga [2004], którzy łączą konkurencję polityczną ze stopniem decentralizacji władzy. W tym ujęciu wyższa konkurencja polityczna oznacza większą liczbę osób/organizacji zaangażowanych w proces sprawowania władzy. Na koniec można również wspomnieć o podejściu Besleya i Case [2003], którzy postrzegają konkurencję polityczną przez pryzmat stopnia, w jakim zróżnicowane preferencje społeczne względem realizowanych polityk będą faktycznie odwzorowane na scenie politycznej. Jak widać z powyższego zestawienia, w literaturze ekonomicznej istnieje co najmniej kilka sposobów patrzenia na problem konkurencji politycznej. Fakt ten można z pewnością wiązać z tym, iż jest to problem niezwykle złożony i wielowymiarowy. Co jednak ważne, pomimo pewnych (czasem subtelnych) różnic wszystkie przedstawione wyżej podejścia mają jedną cechę wspólną. Wszystkie one przedstawiają konkurencję polityczną w kategoriach instytucjonalnych jako ograniczenie nałożone na elity polityczne. 1.2. Konkurencja polityczna a polityka gospodarcza – możliwe kanały oddziaływania Podobnie jak wiele jest spojrzeń na istotę problemu konkurencji politycznej, tak i wiele jest wyjaśnień tłumaczących powiązania między konkurencją polityczną a polityką gospodarczą. Intuicja podpowiada co najmniej cztery potencjalne kanały, poprzez które konkurencja polityczna może wpływać – pośrednio lub bezpośrednio – na politykę gospodarczą. Po pierwsze, poziom konkurencji politycznej bez wątpienia odciska swoje piętno na przedwyborczych zachowaniach polityków. Kształtuje on m.in. program, który partie polityczne przedstawiają swoim 7 Perspektywa ta odsłania się, gdy do analizy rynku politycznego zastosuje się standardowe narzędzia analizy ekonomicznej wskazujące na to, iż ograniczanie konkurencji na rynku będzie prowadzić do powstawania nadzwyczajnych zysków realizowanych przez podmioty, które na tym rynku funkcjonują. Konkurencja między partiami politycznymi a polityka gospodarcza 59 potencjalnym wyborcom [Levy 2004, s. 250–277; Morelli 2004, s. 829–853]. W ten sposób decyduje również w dużym stopniu o zakresie potencjalnych rozwiązań, które mogą być wdrażane w przypadku ewentualnego sukcesu w wyborach. Po drugie, można zakładać, że konkurencja polityczna wpływa na skład list wyborczych, a zatem także na to, kto w przypadku wyborczej wygranej będzie sprawował urząd [Carrillo, Mariotti 2001]8. Z punktu widzenia polityki gospodarczej ma to o tyle znaczenie, że to właśnie od indywidualnych cech wybranych kandydatów będzie zależeć, w jakim stopniu przedwyborcze obietnice pokryją się z preferencjami faktycznie rządzących, z jakim prawdopodobieństwem można się po nich spodziewać zachowań oportunistycznych oraz w jakim stopniu ich działania będą powodowane motywem pogoni za rentą polityczną (m.in. Merlo [2005]; Makris [2009, s. 151–153]). Po trzecie, konkurencja polityczna może kształtować politykę gospodarczą, wpływając na zachowania polityków aktualnie sprawujących władzę [Alesina, Spear 1988, s. 359–379; Harrington 1992, s. 107–121]. Zakładając, że będą oni chcieli pozostać na stanowisku przez następną kadencję, ich działania, a zatem i realizowana przez nich polityka, nie mogą abstrahować od rywalizacji, jaką będą musieli podjąć przy okazji kolejnej kampanii wyborczej. Po czwarte wreszcie, konkurencja polityczna może pośrednio kształtować politykę gospodarczą poprzez swój wpływ na strukturę rządu i ostateczny podział miejsc w parlamencie. Z jednej strony bowiem poziom konkurencji politycznej ma niewątpliwy wpływ na to, czy rząd sprawujący władzę jest rządem większościowym czy mniejszościowym, koalicyjnym czy jednopartyjnym, z drugiej zaś – decyduje on o sile przetargowej poszczególnych ugrupowań w parlamencie [Jackson, Moselle 2002, s. 49–87; Persson i in. 2007, s. 155–188]. Jest to o tyle ważne, że to struktura rządu i względna siła partii opozycyjnych będą decydować o możliwościach wdrażania danych rozwiązań – czy to na etapie przedstawiania ich pod obrady parlamentu, czy też na etapie głosowań nad konkretnymi ustawami. Poniżej podjęto próbę wskazania głównych podstaw teoretycznych, które pozwoliły wprowadzić powyższe rozważania do bieżącej debaty ekonomicznej. W pierwszej kolejności przedstawiono nurt związany ze szkołą z Chicago. Następnie omówiono model środkowego wyborcy (median voter), w dalszej kolejności natomiast przedstawiono najnowsze modele nowej ekonomii politycznej. 1.3. Konkurencja polityczna a konkurencja na rynku produktów Jednym z pierwszych, a zarazem bardziej wpływowych nurtów analizujących znaczenie konkurencji politycznej dla wyników gospodarczych był nurt związany ze szkołą z Chicago. Zapoczątkowany w latach 50. XX w. przez G. Beckera i G. Stiglera, za punkt wyjścia przyjmował zastosowanie do opisu zjawisk zachodzących 8 Ciekawą w tym kontekście wydaje się rywalizacja o kandydatów, jaka rozgrywa się między światem polityki a innymi dziedzinami życia (biznesem, nauką, publicystyką). Ze względu na ograniczoność miejsca wątek ten nie jest przedmiotem niniejszego artykułu. Za wstęp do rozważań na ten temat może posłużyć m.in. Merlo [2005]. 60 Jan Fałkowski na scenie politycznej standardowych pojęć i założeń wykorzystywanych przy opisie tradycyjnego rynku produktu. W konsekwencji, w ramach tego podejścia rozwiązania polityczne postrzegane są jako dobro rynkowe podlegające powszechnym prawom popytu i podaży oraz mające swoją cenę. Wyraża się ona poprzez liczbę głosów z poparciem, które wrzucane są każdorazowo do urny w czasie wyborów. Strona podażowa tego rynku reprezentowana jest przez polityków, natomiast strona popytowa przez wyborców. Stosując analogię do tego, co możemy zaobserwować na standardowym rynku produktu, przedstawiciele tego nurtu wywodzili, iż wyższy poziom konkurencji między partiami politycznymi będzie ograniczać skłonność polityków do pogoni za rentą polityczną i zmuszać ich do respektowania woli większości obywateli [Becker 1958, s. 105–109; Stigler 1972, s. 91–106; Wittman 1989, s. 1395–1424]. Rozumowanie to wygląda zatem bardzo podobnie do rozumowania przeprowadzanego w odniesieniu do rynku produktów, gdzie większa konkurencja między producentami, prowadząc do spadku cen i wzrostu (ilości i/lub różnorodności) produkcji, sprzyja ogółowi konsumentów. Powyższe podejście zdobyło sobie dużą popularność, choć nie ustrzegło się krytyki. Formułowano ją przede wszystkim w związku z całkowitym pominięciem w analizie czynników instytucjonalnych, które gwarantowałyby, iż przewidywany wyżej scenariusz rzeczywiście może mieć miejsce [Polo 1998; Svensson 1998]. Co warte również podkreślenia, w swoich późniejszych pracach przedstawiciele szkoły z Chicago (m.in. Becker [1983]; Peltzman [1987]; Mulligan i Tsui [2008]) wskazywali, że konkurencja polityczna nie musi mieć bezpośredniego przełożenia na politykę gospodarczą. Ta ostatnia jest bowiem wynikiem konkurencji między poszczególnymi grupami interesu. Konkurencja między partiami politycznymi może zatem co najwyżej służyć jako pas transmisyjny rywalizacji mającej miejsce między grupami interesu. 1.4. Model środkowego wyborcy Drugie podejście, które odegrało bardzo ważną rolę w kształtowaniu ekonomicznego myślenia o znaczeniu konkurencji politycznej dla polityki gospodarczej, wywodzi się z modelu sformułowanego przez Downsa [1957]. Dowodził on, iż w systemie dwupartyjnym, przy założeniu, że preferencje wyborców są jednowierzchołkowe, a wyłącznym celem partii politycznych jest wygrana w wyborach, wyższy poziom konkurencji politycznej będzie prowadził do forsowania rozwiązań skrojonych względem preferencji środkowego (dokładniej – „medianowego”) wyborcy. To zaś z tej przyczyny, że to właśnie te rozwiązania można określić mianem tzw. zwycięzcy Condorceta [Black 1987]9. Choć podejście to zdominowało na długi czas dyskusję na temat relacji między konkurencją polityczną a polityką gospodarczą, zwłaszcza w ostatnim czasie wskazano na jego 9 „Zwycięzcą Condorceta nazywamy alternatywę, która wygrywa ze wszystkimi pozostałymi alternatywami przy porównaniu parami metodą większościową” [Jakubowski 2005, s. 54]. Konkurencja między partiami politycznymi a polityka gospodarcza 61 istotne niedoskonałości (zob. m.in. Besley, Case [2003]). Krytyka dotyczy zwłaszcza trzech podstawowych kwestii. Po pierwsze, w wątpliwość poddaje się argumentację, na podstawie której partie polityczne mają faworyzować środkowego wyborcę. Krytycy modelu Downsa wskazują, że w przypadku rozwiązywania tak złożonych i różnorodnych problemów, jakimi są problemy polityki gospodarczej, zwycięzca w znaczeniu Condorceta może wcale nie istnieć. Po drugie, model Downsa zakłada, że politycy dbają wyłącznie o pozyskanie głosów wyborców. Co za tym idzie, są oni w stanie bez problemów dostosować się do pokładanych w nich oczekiwań. Problem polega na tym, że pomija się w tym miejscu fakt, iż politycy mogą mieć własne preferencje związane z kierunkiem i sposobem wdrażanych rozwiązań. W takiej sytuacji będą oni mieli pokusę, aby nie dotrzymywać przedwyborczych obietnic. W efekcie, choć zwycięstwo w wyborach może zależeć od utrafienia w gusta środkowego wyborcy, faktyczne reformy wcale nie muszą odpowiadać jego preferencjom (zob. m.in. Alesina [1988, s. 796–806]). Po trzecie wreszcie, model Downsa jest krytykowany na gruncie nowej ekonomii instytucjonalnej. To zaś z tego względu, iż abstrahuje on zupełnie od otoczenia instytucjonalnego, w jakim są przeprowadzane wybory. Dotyczy to przede wszystkim nieuwzględnienia w rozważaniach takich kwestii, jak wielkość okręgów wyborczych, powszechność praw wyborczych czy też różnic między głosowaniem proporcjonalnym a większościowym. To z kolei jest sprzeczne z wieloma pracami empirycznymi, które wskazują na to, iż wymienione wyżej czynniki instytucjonalne mają istotne znaczenie dla wdrażanych polityk (zob. m.in. Besley, Coate [1997, s. 85–114]; Persson, Tabellini [2000]). 1.5. Nowa ekonomia polityczna W odpowiedzi na powyższe zastrzeżenia, próby odmiennego spojrzenia na problem zależności między konkurencją polityczną a polityką gospodarczą podjęto w ostatnim czasie w ramach nowej ekonomii politycznej. W porównaniu z podejściami omówionymi wyżej modele rozwijane w ramach tego nurtu znacznie dokładniej biorą pod uwagę wiele aspektów dotyczących otoczenia instytucjonalnego, w jakim są dokonywane wybory na styku gospodarki i polityki. Dzięki temu rola konkurencji politycznej przy kształtowaniu polityki gospodarczej jest analizowana przy uwzględnieniu dodatkowych bodźców i motywacji występujących zarówno po stronie polityków, jak i wyborców. Za dobry przykład mogą tu posłużyć prace, które podnoszą problem zjednywania sobie elektoratu za pomocą przysłowiowej „kiełbasy wyborczej”. Nawiązując do zjawiska składania obietnic przedwyborczych, Lindbeck i Weibull [1987] oraz Dixit i Londregan [1998] pokazali, iż – wbrew temu co twierdzili przedstawiciele szkoły z Chicago – większa konkurencja polityczna wcale nie musi sprzyjać większości społeczeństwa. To zaś dlatego, że w sytuacji, gdy preferencje wyborców rozkładają się mniej więcej równo między kandydujące partie, wynik wyborów będzie zależał od ostatecznej decyzji podjętej przez wąską grupę wybor- 62 Jan Fałkowski ców niezdecydowanych10. W efekcie próby pozyskania ich głosów mogą skutkować rozwiązaniami ukierunkowanymi na stosunkowo wąskie grupy interesu. Podobne wnioski płyną z pracy Lizzeriego i Persico [2005, s. 225–239], którzy wskazują, w jaki sposób rosnąca liczba partii politycznych (większa konkurencja polityczna) zmniejsza liczbę zadeklarowanych zwolenników poszczególnych ugrupowań, czyniąc koniecznym zabieganie o głosy wyborców niezdecydowanych. Nieco inne spojrzenie na znaczenie konkurencji politycznej proponują prace podejmujące problem związany z „efektem wymiany” elit politycznych będących u władzy. W ramach tego podejścia wskazuje się, iż wysokie prawdopodobieństwo utraty stanowisk (silna konkurencja polityczna) może prowadzić do zachowań całkowicie nieefektywnych z punktu widzenia dobra ogółu (zob. m.in. Persson i in. [1997]). Posiadanie niewielkich szans na pozostanie u władzy może bowiem skutkować chęcią wykorzystania piastowanego urzędu do pogoni za rentą polityczną. Warto w tym miejscu podkreślić, że jest to stanowisko całkowicie odmienne od tego, które jest kojarzone ze szkołą z Chicago, gdzie konkurencja polityczna była postrzegana jako narzędzie dyscyplinujące aktualnie sprawujących urząd do wdrażania efektywnych rozwiązań [Stigler 1972]. Na nieco inny mechanizm, choć również związany z „efektem wymiany”, zwracają uwagę Acemoglu i Robinson [2006]. Autorzy ci wskazują, iż elity, których pozostanie u władzy jest zagrożone, mogą podjąć próby obrony status quo przeciwdziałając wprowadzaniu innowacji technologicznych czy instytucjonalnych. To zaś może negatywnie odbić się na perspektywach rozwoju gospodarczego. Co ciekawe, wpływ konkurencji politycznej na zachowania polityków nie jest tu monotoniczny. Próby blokowania innowacji (a w konsekwencji także rozwoju) będą następować przy umiarkowanym poziomie konkurencji politycznej. Nie powinno to natomiast nastąpić przy bardzo niskim bądź bardzo wysokim jej poziomie. Intuicję stojącą za tym rozumowaniem można przedstawić następująco. W przypadku niskiego poziomu konkurencji politycznej elity nie muszą się obawiać utraty władzy, co z kolei nie dostarcza im motywacji do przeciwdziałania wprowadzaniu innowacji. Tym bardziej, że przyczyniając się do wyższego wzrostu gospodarczego, innowacje powinny skutkować wyższymi korzyściami zarówno dla ogółu społeczeństwa, jak i dla samych elit. W przypadku wysokiego poziomu konkurencji politycznej natomiast próby powstrzymania innowacji i zablokowania wzrostu gospodarczego mogą bardzo łatwo obrócić się przeciw sprawującym władzę, prowadząc do odwołania ich z urzędu podczas wyborów. W efekcie także i przy tym scenariuszu elity nie mają motywacji do hamowania innowacji. Sytuacja wygląda inaczej w przypadku, gdy konkurencja polityczna osiąga umiarkowany poziom. To zaś z tego powodu, że w takiej sytuacji może zachodzić obawa, iż innowacje zdestabilizują obowiązujący system ekonomiczny i polityczny. Z punktu widzenia elit politycznych taki rozwój wypadków jest nie do zaakcep10 Przykładem tego typu rozstrzygnięć mogą być wybory prezydenckie w USA z 2000 r. czy też wybory parlamentarne we Włoszech z 2006 r. Listę przykładowych wyborów, które rozstrzygnęły się bardzo niewielką liczbą głosów podaje m.in. http://en.wikipedia.org/wiki/List_of_ close_election_results Konkurencja między partiami politycznymi a polityka gospodarcza 63 towania z dwóch przyczyn. Po pierwsze, ewentualna destabilizacja systemu ekonomicznego wpłynie na zmianę sposobu podziału rent politycznych i ekonomicznych. Po drugie, ewentualna destabilizacja systemu politycznego nie pozostanie bez wpływu na szanse elit sprawujących władzę na wygraną w kolejnych wyborach. W konsekwencji motywowane oboma tymi czynnikami elity polityczne będą dążyły do zachowania status quo, co jest równoznaczne z przeciwdziałaniem wprowadzaniu innowacji11. Na kolejny aspekt związany z wpływem konkurencji politycznej na politykę gospodarczą zwracają uwagę Bardhan i Yang [2004]. Opierając się na modelu Fernandez i Rodrika [1991, s. 1146–1155], dowodzą oni, iż konkurencja polityczna, poza pozytywnym wpływem na efektywność ekonomiczną, może prowadzić do ograniczenia zbioru potencjalnych rozwiązań wdrażanych przez elity sprawujące urząd. Fakt ten tłumaczyć można dwojako. Po pierwsze, może on wynikać z chęci skoncentrowania się przez rządzących na rozwiązaniach przynoszących krótkookresowe efekty (w ramach jednego cyklu wyborczego) i zaniechania realizacji rozwiązań długookresowych (gdzie koszty i korzyści konkretnych reform uwidaczniają się w dwóch różnych cyklach wyborczych). W ten sposób bowiem rządzący zabezpieczają się przed sytuacją, w której mogą oni zostać obciążeni przez wyborców kosztami wdrażanych reform, podczas gdy korzyści z zaproponowanych przez nich rozwiązań dyskontować będzie desygnowana do władzy w tym czasie opozycja. Po drugie, ograniczenie zbioru możliwych do wprowadzenia reform może wynikać z niepewności, która towarzyszy ostatecznemu podziałowi kosztów i korzyści wdrażanych rozwiązań między poszczególne grupy społeczne. Za ilustrację może tu posłużyć następujący przykład liczbowy. Przyjmijmy, że w wyniku planowanej przez rząd reformy 1/3 społeczeństwa zyska na pewno 30 zł per capita. Jeśli chodzi o pozostałe 2/3 społeczeństwa, to z prawdopodobieństwami ½ może ono albo zyskać 15 zł albo stracić 30 zł per capita. Zwróćmy uwagę, iż przy takim podziale korzyści reforma ta powinna być postrzegana jako korzystna dla ogółu społeczeństwa. Netto rzecz biorąc, przyniesie ona bowiem każdemu obywatelowi średnio 5 zł (1/3 # 30 zł + 1/3 # 15 zł – 1/3 # 30 zł = 5 zł). Co równie ciekawe, wyraźna większość społeczeństwa (2/3) zyska na tej reformie. Co ważne jednak, również dla 2/3 społeczeństwa proponowane rozwiązanie przyniesie negatywną wartość oczekiwaną (1/2 # 15 zł – 1/2 # 30 zł = –7,5 zł). Fakt, iż nie ma wiarygodnego mechanizmu zapewniającego dystrybucję korzyści z reformy w kierunku poszkodowanych, powoduje, że 2/3 społeczeństwa będzie przeciwko wprowadzeniu jej w życie. Podobną postawę przyjmą politycy chcący utrzymać się u władzy po nadchodzących wyborach. W rezultacie reformy postrzegane jako efektywne z ekonomicznego punktu widzenia mogą nie znaleźć odpowiedniego wsparcia politycznego. W obawie przed utratą władzy bowiem elity polityczne mogą nie chcieć podejmować ryzyka wdrażania rozwiązań, przy których 11 Nie istnieje bowiem żaden mechanizm, który ex post zapewniałby rekompensaty dla elit, których przywileje zostały nadwątlone w wyniku nowego podziału rent ekonomicznych i politycznych będącego pochodną wprowadzenia innowacji [Acemoglu 2003, s. 620–652]. 64 Jan Fałkowski ponad 50% społeczeństwa może (choć nie musi) znaleźć się wśród ewentualnych poszkodowanych. Niski odsetek faktycznie poszkodowanych oraz fakt, że reforma może przynieść korzyści netto całemu społeczeństwu mogą nie odgrywać tu specjalnej roli. Modele powstałe w ramach nowej ekonomii politycznej, które przedstawiono wyżej wyraźnie wskazują, że zjawisko konkurencji politycznej niekoniecznie musi prowadzić do efektów, które byłyby pożądane przez większość społeczeństwa. Warto w tym miejscu jednak wspomnieć o pracy Besleya i in. [2010], którzy zauważają, że konkurencja polityczna, jeśli osiągnie odpowiednio wysoki poziom, może sprzyjać wdrażaniu polityk ogólnie ocenianych jako „prowzrostowe”. Wniosek ten opiera się na założeniu, iż wyborcy niezdecydowani, których znaczenie dla wyniku wyborów jest kluczowe przy wysokim poziomie konkurencji politycznej, warunkują oddanie swojego głosu na dane ugrupowanie kwestiami ekonomicznymi12. Co za tym idzie, chęć sięgnięcia po władzę (lub pozostania przy niej) będzie motywowała elity polityczne do wdrażania rozwiązań prowzrostowych. W tym sensie przewidywania z modelu Besleya i in. [2010] są zbieżne z wcześniej przywołanymi predykcjami szkoły z Chicago oraz modelem Acemoglu i Robinsona [2006, s. 115–131]. Jeszcze inną perspektywę wpływu konkurencji politycznej na politykę gospodarczą można kreślić na podstawie pracy Perssona i in. [2007]. Wykorzystując model teoretyczny, autorzy ci wykazują, iż poziom wydatków rządowych będzie wyższy w przypadku rządów koalicyjnych aniżeli rządów jednopartyjnych. Biorąc pod uwagę fakt, że silna konkurencja polityczna powinna sprzyjać większej liczbie partii politycznych w parlamencie, a co za tym idzie większemu prawdopodobieństwu powołania rządu koalicyjnego, przywołany wniosek może wskazywać na pozytywną zależność między konkurencją polityczną a poziomem wydatków rządowych. Na koniec warto również wspomnieć o przywoływanej już wcześniej pracy Mulligana i Tsui [2008]. Autorzy ci, opierając się na modelu monopolistycznej konkurencji, spoglądają na problem konkurencji politycznej przez pryzmat barier wejścia na rynek polityczny. Według nich decyzje dotyczące wysokości podatków, poziomu wydatków rządowych czy regulacji gospodarczych nie są wypadkową ustroju politycznego, a co za tym idzie poziomu konkurencji politycznej, lecz są pochodną czynników demograficzno-ekonomicznych. W tym aspekcie pogląd ten jest zbieżny z postulatami formułowanymi przez Beckera [1983], łączącego politykę gospodarczą z działalnością grup interesów. Podobny wniosek wypływa z pracy Wintrobe’a [2000], który dowodzi, iż systemy demokratyczne (z relatywnie wysokim poziomem konkurencji politycznej) różnią się od systemów autorytarnych (brak konkurencji politycznej) nie tyle kierunkiem, co intensywnością wdrażanych polityk. Co za tym idzie, w systemach autorytarnych będziemy mieli do czynienia z tym samym kierunkiem redystrybucji co w systemach demokra12 Założeniu temu towarzyszy także inne, a mianowicie, że wyborcy kierujący się kwestiami ideologicznymi nie będą w ostatecznym rozrachunku wyborcami niezdecydowanymi, lecz opowiedzą się po tej czy innej stronie politycznego sporu. Konkurencja między partiami politycznymi a polityka gospodarcza 65 tycznych (od bogatych do biednych, od młodych do starych itd.) – tyle że wystąpi ona z większym natężeniem. 2. Konkurencja polityczna w praktyce Jak zauważono powyżej, wpływ konkurencji politycznej na politykę gospodarczą może realizować się poprzez różne kanały. Co więcej, teoria ekonomii nie daje jednoznacznej odpowiedzi na pytanie, czy wpływ ten będzie korzystny z punktu widzenia ogółu społeczeństwa, czy też nie. W efekcie można się spodziewać, że zależność między konkurencją polityczną a polityką gospodarczą będzie funkcją specyficznych uwarunkowań, na które złożą się preferencje i struktura społeczeństwa oraz istniejące rozwiązania instytucjonalne, kształtujące zarówno same wybory (np. ograniczenia dotyczące finansowania kampanii, obowiązkowego lub nieobowiązkowego udziału w głosowaniu), jak i poziom korzyści związanych ze sprawowaniem urzędu [Acemoglu, Robinson 2006]. Ciekawe wydaje się zatem, które z przedstawionych wcześniej hipotez znajdują potwierdzenie w rzeczywistości. W związku z tym w tej części artykułu dokonano krótkiego przeglądu empirycznych prac podejmujących tematykę konkurencji politycznej i polityki gospodarczej. Rozpoczyna się on zwięzłym opisem miar wykorzystywanych do analizy zjawiska konkurencji politycznej oraz zwróceniem uwagi na podstawowy problem, na jaki napotykamy w literaturze empirycznej badającej wpływ konkurencji politycznej na politykę gospodarczą. 2.1. Miary konkurencji politycznej Podobnie jak w literaturze teoretycznej istnieje wiele definicji opisujących pojęcie konkurencji politycznej, tak również literatura empiryczna posługuje się co najmniej kilkoma różnymi zmiennymi, które starają się przybliżyć to zjawisko. Stosunkowo najprostszą i zarazem najłatwiej dostępną jest liczba partii politycznych reprezentowanych w parlamencie lub też na scenie politycznej (zob. m.in. Milesi-Ferreti i in. [2002]). Najczęściej wykorzystuje się jednak miary oparte na udziale głosów lub miejsc w parlamencie, które poszczególne partie uzyskały w czasie ostatnich wyborów. Jedną z nich jest miara koncentracji rynku politycznego oparta na indeksie Herfindahla, przyjmującym wartości od 0 do 1 i będącym sumą kwadratów udziałów poszczególnych partii gdy chodzi o rozkład miejsc w parlamencie [Skilling, Zeckhauser 2003; Persson i in. 2007]13. Alternatywą dla tego podejścia są wszelkie 13 Najczęściej stosuje się zmienną = (1 – indeks Herfindahla), która rośnie wraz z poziomem konkurencji politycznej [Skilling, Zeckhauser 2002; Persson i in. 2007]. Zmienna ta dostępna jest m.in. w zbiorze danych Banku Światowego „Database on Political Institutions” [Keefer 2007]. Nieco inną miarę opartą na podziale miejsc w parlamencie stosują Besley i in. [2010]. Analizując kwestie związane z konkurencją polityczną w amerykańskim systemie dwu- 66 Jan Fałkowski indeksy oparte na informacjach opisujących polityczne otoczenie instytucjonalne w konkretnych krajach. Jedną z baz danych, która gromadzi tego typu informacje jest baza powstała w ramach projektu „PolityIV” [Marschall, Jaggers 2005]. Wśród wielu informacji na temat ustroju politycznego w danym państwie zawiera ona również zmienną opisującą poziom konkurencji politycznej. Zmienna ta uwzględnia m.in. charakterystykę procesu wyłaniania reprezentacji politycznej społeczeństwa, jak również stopień otwartości rynku politycznego na nowo powstające inicjatywy partyjne. Przyjmuje ona wartości od 1 do 10, przy czym wyższe wartości odpowiadają wyższemu poziomowi konkurencji politycznej. Podobną zmienną, tyle że koncentrującą się na konkurencji towarzyszącej wyborowi prezydenta, oferuje również baza danych Banku Światowego „Database on Political Institutions” [Keefer 2007]. 2.2. Podstawowe trudności w analizie empirycznej Empiryczna analiza powiązań konkurencji politycznej z polityką gospodarczą napotyka dwie podstawowe trudności. Po pierwsze, polityka gospodarcza może być kształtowana z zamiarem wpływania na poziom konkurencji (a zatem między tymi zjawiskami może zachodzić relacja zwrotna). Po drugie, zarówno poziom konkurencji politycznej, jak i decyzje odnośnie do polityki gospodarczej mogą być jednocześnie determinowane przez czynniki, których nie jesteśmy w stanie zaobserwować. Innymi słowy, w modelach empirycznych zmienne obrazujące poziom konkurencji politycznej wcale nie muszą być egzogeniczne. Fakt ten niesie za sobą poważne implikacje natury metodologicznej. Dzieje się tak z tej przyczyny, że w przypadku występowania problemu endogeniczności standardowe metody ekonometryczne wykorzystywane w analizie danych przekrojowych (choćby metoda najmniejszych kwadratów) mogą prowadzić do uzyskania obciążonych wyników, a co za tym idzie do wyciągnięcia mylnych wniosków14. W konsekwencji badanie dotyczące wpływu konkurencji politycznej na politykę gospodarczą powinno się opierać albo na danych panelowych, albo też na modelach wykorzystujących zmienne instrumentalne. Pierwsze z tych rozwiązań umożliwia szacowanie modeli z tzw. efektami stałymi, co pozwala na kontrolowanie czynników nieobserwowalnych, które nie są zmienne w czasie [Wooldridge 2002]15. Drugie natomiast opiera się na dwuetapowej estymacji wykorzystującej zmienną instrumentalną, która wpływa na endogeniczną zmienną objaśniającą, ale nie ma bezpośredniego wpływu na zmienną objaśnianą [Angrist, Krueger 2001, s. 69–85]. partyjnym, wykorzystują oni miarę równą (–|d – 1/2|), gdzie d oznacza odsetek miejsc w parlamencie zdobytych przez demokratów. Więcej na temat indeksów konkurencji politycznej można znaleźć m.in. w: Grofman, Selb [2009, s. 291–296]. 14 Omawianie tego problemu w sposób bardziej szczegółowy wykracza poza ramy tego artykułu. Więcej na ten temat można znaleźć np. w: Wooldridge [2002]. 15 Warto w tym miejscu jednak zaznaczyć, że uwzględnienie w analizie „efektów stałych” nie zawsze pozwoli rozwiązać problem endogeniczności. Problemem mogą bowiem pozostać czynniki nieobserwowalne, które są zmienne w czasie [Wooldridge 2002]. Konkurencja między partiami politycznymi a polityka gospodarcza 67 Zastosowanie każdego z tych rozwiązań warunkowane jest dostępem do odpowiednich danych (w pierwszym przypadku danych panelowych, w drugim wypadku danych uwzględniających informacje, które mogą posłużyć jako „instrument”), co w analizach dotyczących politycznego otoczenia instytucjonalnego stanowi relatywnie duże wyzwanie. Niemniej jednak można mieć nadzieję, że wraz z postępem, jaki dokonał się w kwestii gromadzenia danych ukierunkowanych na analizę zjawisk na styku polityki i gospodarki, problemy z tym związane uda się rozwiązać [Marschall, Jaggers 2005; Keefer 2007]. 2.3. Wyniki empiryczne W porównaniu z liczbą teorii ekonomicznych tłumaczących znaczenie konkurencji politycznej dla decyzji kształtujących politykę gospodarczą liczba empirycznych badań z tego zakresu jest stosunkowo niewielka. Wynika to w głównej mierze z przyczyn związanych z niedoskonałością miar konkurencji politycznej [Grofman, Selb 2009] oraz dostępnością danych, o których była mowa powyżej. Mimo to powstało kilka prac, których wyniki warto w tym miejscu przytoczyć. Z jednej strony bowiem pozwalają one na przynajmniej cząstkową weryfikację istniejących teorii. Z drugiej strony natomiast można je traktować jako impuls do dalszych poszukiwań empirycznych. Na uwagę zasługuje bez wątpienia praca Besleya i in. [2010]. Opierając się na danych dla Stanów Zjednoczonych, autorzy wykazali, że wysoki poziom konkurencji politycznej jest powiązany z rozwiązaniami gospodarczymi powszechnie postrzeganymi jako prowzrostowe. Przeprowadzona przez nich analiza ekonometryczna pozwala twierdzić, iż stany o niższym poziomie konkurencji politycznej charakteryzują się m.in. niższym udziałem wydatków inwestycyjnych w wydatkach rządowych ogółem oraz wyższym udziałem podatków w dochodach państwa. Dodatkowo, autorzy wskazują na pozytywną bezpośrednią zależność między poziomem konkurencji politycznej a samym wzrostem gospodarczym. W ten sposób wyniki te potwierdzają i rozszerzają rezultaty wcześniejszych badań prowadzonych przez Besleya i Case [2003], które również wskazywały na pozytywny wpływ konkurencji politycznej na efektywność ekonomiczną działań podejmowanych przez sprawujących władzę. Ciekawe wyniki płyną również z badań Skillinga i Zeckhausera [2002], którzy analizowali znaczenie konkurencji politycznej w państwach OECD. Według ich badań w krajach tych wyższy poziom konkurencji politycznej prowadzi do większej dyscypliny fiskalnej i niższego długu publicznego. To zaś ponownie wspiera hipotezę, iż konkurencja polityczna wymusza na politykach zachowania racjonalne z punktu widzenia ogółu społeczeństwa16. Do podobnych wniosków skłaniają 16 Do jednoznacznego zweryfikowania tej hipotezy potrzebne by były szczegółowe badania na temat struktury długu publicznego i polityki fiskalnej państwa przy uwzględnieniu aspektów analizy międzyokresowej i międzypokoleniowej. 68 Jan Fałkowski wyniki uzyskane przez Rodrika [1999]. Badania przeprowadzone na próbie krajów z całego świata wskazują na pozytywną zależność między poziomem konkurencji politycznej a ustawodawstwem rynku pracy korzystnym dla pracowników, skutkującym wyższym poziomem płac. Co równie ważne, praca ta zdaje się także wskazywać na to, iż znaczenie konkurencji politycznej może dominować nad znaczeniem innych czynników instytucjonalnych, w tym zasad rządów prawa czy też wolności obywatelskich. Ciekawy nurt badań wśród prac analizujących powiązania między konkurencją polityczną a polityką gospodarczą stanowią badania dotyczące poziomu protekcjonizmu handlowego. Za przykład mogą tu posłużyć prace Gawande i Hoekmana [2010] oraz Batesa i Blocka [2010], które analizują poziom wsparcia kierowanego do sektora rolnego. Gawande i Hoekman, po przebadaniu próby obejmującej różne kraje z całego świata, wskazują, że protekcjonizm handlowy w tym sektorze jest pozytywnie skorelowany ze stopniem konkurencji między kandydatami ubiegającymi się o urząd prezydencki. Jeśli chodzi natomiast o wpływ konkurencji między partiami politycznymi, to jest on niejednoznaczny. Niższy poziom konkurencji sprzyja subsydiowaniu eksportu, ale zmniejsza bariery handlowe dla produktów z importu. Bates i Block natomiast, koncentrując się na krajach Afryki subsaharyjskiej, nie znajdują potwierdzenia dla ogólnej zależności między konkurencją polityczną wśród kandydatów na urząd prezydenta a poziomem protekcjonizmu handlowego w sektorze rolnym. Zależność ta występuje jednak w krajach z dużą populacją wiejską. Posiłkując się teorią grup interesu Olsona, autorzy tłumaczą ten wynik tym, iż w sytuacji, gdy wiejska populacja stanowi większość społeczeństwa, wysoki poziom konkurencji politycznej pozwala zrównoważyć nieefektywność dużych grup społecznych, gdy chodzi o ich ewentualne działania lobbingowe. W kontekście prac analizujących poziom wsparcia kierowanego do konkretnych sektorów warto na koniec także wspomnieć o wynikach uzyskanych przez Milesi-Ferretiego i in. [2002]. Sugerują one bowiem pozytywną, choć nieistotną statystycznie zależność między liczbą partii politycznych a udziałem transferów w wydatkach rządowych ogółem. Tym samym mogą one posłużyć do sformułowania ogólnej hipotezy o pozytywnym wpływie konkurencji politycznej na poziom protekcjonizmu handlowego. Uwagi końcowe Artykuł zawiera przegląd podstawowych założeń i ustaleń teorii ekonomii dotyczących analizy konkurencji politycznej i jej znaczenia dla decyzji kształtujących politykę gospodarczą. Podsumowaniem był krótki przegląd empirycznych badań z tej dziedziny. Na pierwszy rzut oka mogłoby się wydawać, że problematyka związana z polityczną konkurencją powinna raczej stanowić domenę innych nauk niż ekono- Konkurencja między partiami politycznymi a polityka gospodarcza 69 mii. Nie ulega jednak wątpliwości, że uczynienie jej obiektem zainteresowań ekonomistów może w istotnym stopniu pomóc w odpowiedzi na wiele pytań dotyczących kierunku i tempa wdrażania konkretnych rozwiązań gospodarczych. Dowodem na to jest wiele teorii, które tłumaczą, w jaki sposób posunięcia gospodarcze sprawujących władzę mogą zależeć od prawdopodobieństwa wygranej w wyborach, stopnia kontroli, jaką nad elitami politycznymi sprawuje społeczeństwo, czy też wysokości i łatwości pozyskania renty politycznej. Biorąc pod uwagę fakt, iż w porównaniu z literaturą teoretyczną literatura empiryczna z tej dziedziny jest wciąż stosunkowo uboga, wydaje się, że tematyka ta może stanowić niezwykle ciekawy, a przy tym obiecujący kierunek badań ekonomistów. Tekst wpłynął 21 grudnia 2010 r. Bibliografia Angrist J.D., Krueger A.B., Instrumental Variables and the Search for Identification: From Supply and Demand to Natural Experiments, „Journal of Economic Perspectives” 2001, nr 15(4). Acemoglu D., Introduction to Modern Economic Growth, Princeton University Press, 2008. Acemoglu D., Johnson S., Robinson J.A., Yared P., Income and Democracy, „American Economic Review” 2008, t. 98. Acemoglu D., Robinson J., Economic Backwardness in Political Perspective, „American Political Science Review” 2006, nr 100(1). Acemoglu D., Why Not a Political Coase Theorem? „Journal of Comparative Economics” 2003, nr 31(4). Aidt T.S., Redistribution and Deadweight Cost: the Role of Political Competition, „European Journal of Political Economy” 2003, t. 19. Alesina A., Credibility and Policy Convergence in a Two-Party System with Rational Voters, „American Economic Review” 1988, nr 78(4). Alesina A., Spear S.E., An Overlapping Generations Model of Electoral Competition, „Journal of Public Economics” 1988, t. 37. Bardhan P., Yang T.T., Political Competition in Economic Perspective, „BREAD Working Paper” 2004, nr 078. Barro R.J., Democracy and Growth, „Journal of Economic Growth” 1996, nr 1(1). Bates R.H., Block S., Political Economy of Agricultural Trade Interventions in Africa, w: The Political Economy of Distortions to Agriculture, red. K. Anderson, World Bank, Washington 2010 (w druku). Becker G.S., A Theory of Competition Among Pressure Groups for Political Influence, „Quarterly Journal of Economics” 1983, nr 98. Becker G.S., Competition and Democracy, „Journal of Law and Economics” 1958, nr 1. Besley T., Case A., Political Institutions and Policy Choices: Evidence from the United States, „Journal of Economic Literature” 2003 nr 41(1). Besley T., Coate S., An Economic Model of Representative Democracy, „Quarterly Journal of Economics” 1997, nr 108(1). Besley T., Kudamatsu M., Making Autocracy Work, w: Institutions and Economic Performance, red. E. Helpman, Harvard University Press, Cambridge, Mass., 2008. 70 Jan Fałkowski Besley T., Persson T., Sturm D.M., Political Competition, Policy and Growth: Theory and Evidence from the United States, „Review of Economic Studies” 2010, nr 77(4). Black D., The Theory of Committees and Elections, Dordrecht and Lancaster: Kluwer Academic, Norwell, Mass., 1987. Carrillo J.D., Mariotti T., Electoral Competition and Political Turnover, „European Economic Review” 2001, nr 45. Dixit A., Londregan J., Ideology, Tactics, and Efficiency in Redistributive Politics, „Quarterly Journal of Economics” 1998, nr 113(2). Downs A., An Economic Theory of Democracy, Harper Collins 1957. Fernandez R., Rodrik D., Resistance to Reform: Status Quo Bias and the Presence of Individual Specific Uncertainty, „American Economic Review” 1991, t. 81. Gawande K., Hoekman B., Why Governments Tax or Subsidize Trade: Evidence From Agriculture, w: The Political Economy of Distortions to Agriculture, red. K. Anderson, World Bank, Washington 2010. Grofman B., Selb P., A Fully General Index of Political Competition, „Electoral Studies” 2009, nr 28. Harrington J.E. Jr., The Role of Party Reputation in the Formation of Policy, „Journal of Public Economics” 1992, t. 49. Hockuba Z., Nowa ekonomia instytucjonalna – czy zdominuje nasze myślenie w rozpoczynającym sie stuleciu? w: Czy ekonomia nadąża z wyjaśnianiem rzeczywistości, red. A. Wojtyna, PTE, Warszawa 2001. Jackson M.O., Moselle B., Coalition and Party Formation in a Legislative Voting Game, „Journal of Economic Theory” 2002, t. 103. Jakubowski M., Teoria wyboru społecznego, w: Teoria wyboru publicznego, red. J. Wilkin, Scholar, Warszawa 2005. Keefer P., DPI2006 Database of Political Institutions: Changes and Variable Definitions, Development Research Group, World Bank, Washington 2007. Levy G., A Model of Political Parties, „Journal of Economic Theory” 2004, t. 115. Lindbeck A., Weibull J., Balanced-Budget Redistribution as the Outcome of Political Competition, „Public Choice” 1987, nr 52. Lipset S.M., Some Social Requisites of Democracy: Economic Development and Political Legitimacy, „American Political Science Review” 1959, t. 53. Lizzeri A., Persico N., The Provision of Public Goods under Alternative Electoral Incentives, „American Economic Review” 2001, t. 91. Makris M., Endogenous Political Competition and Political Accountability, „Economics Letters” 2009, t. 104. Marshall M.G., Jaggers K., POLITY IV Project: Political Regime Characteristics and Transitions, 1800–2004, Center for Global Policy, George Mason University 2005. Merlo A., Whither Political Economy? Theories, Facts, and Issues, „PIER Working Paper” 2005, nr 05–033. Milesi-Ferretti G.M., Perotti R., Rostagno M., Electoral Systems and Public Spending, „Quarterly Journal of Economics” 2002, nr 117(2). Moore B., Social Origins of Dictatorship and Democracy, Beacon Press, Boston 1966. Morelli M., Party Formation and Policy Outcomes under Different Electoral Systems, „Review of Economic Studies” 2004, t. 71. Mulligan C.B., Gil R., Sala-i-Martin X., Do Democracies Have Different Public Policies than Non-democracies?, „Journal of Economic Perspective” 2004, nr 18(1). Konkurencja między partiami politycznymi a polityka gospodarcza 71 Mulligan C.B., Tsui K.K., Political Entry, Public Policies and the Economy, „NBER Working Paper” 2008, nr 13830. North D., Institutions, Institutional Change, and Economic Performance, Cambridge University Press, New York 1990. Papaioannou E., Siourounis G., Democratization and Growth, „The Economic Journal” 2008, t. 118. Peltzman S., Economic Conditions and Gubernatorial Elections, „American Economic Review” 1987, nr 77(2). Persson T., Roland G., Tabellini G., Electoral Rules and Government Spending in Parliamentary Democracies, „Quarterly Journal of Political Science” 2007, nr 2(2). Persson T., Roland G., Tabellini G., Separation of Powers and Political Accountability, „Quarterly Journal of Economics” 1997, nr 112(4). Persson T., Tabellini G., Political Economics – Explaining Economic Policy, MIT Press, Cambridge, Mass., 2000. Persson T., Tabellini G., The Economic Effects of Constitutions, MIT Press, Cambridge Mass., 2003. Persson T., Tabellini G., The Growth Effect of Democracy: Is It Heterogeneous and How Can It be Estimated? w: Institutions and Economic Performance, red. E. Helpman, Harvard University Press, Cambridge 2008. Polo M., Electoral Competition and Political Rents, Mimeo, IGIER, Bocconi University, „Working Papers” 1998, nr 144. Przeworski A., Alvarez M., Cheibub J., Limongi F., Democracy and Development: Political Institutions and Well-Being in the World 1950–1900, Cambridge University Press 2000. Przeworski A., Limongi F., Political Regimes and Economic Growth, „Journal of Economic Perspectives” 1993, nr 7. Rodrik D., Democracies Pay Higher Wages, „Quarterly Journal of Economics” 1999, nr 114(3). Rodrik D., Wacziarg R., Do Democratic Transitions Produce Bad Economic Outcomes? „American Economic Review” 2005, nr 95(2). Roemer J.E., Political Competition: Theory and Applications, Harvard University Press, Cambridge, Mass., 2001. Shepsle K., Weingast B., Structure Induced Equilibrium and Legislative Choice, „Public Choice” 1981, nr 37. Skilling D., Zeckhauser R.J., Political Competition and Debt Trajectories in Japan and the OECD, „Japan and the World Economy” 2002, t. 14. Stigler G.J., Economic Competition and Political Competition, „Public Choice” 1972, nr 13. Svensson J., Controlling Spending: Electoral Competition, Polarization, and Primary Elections, Mimeo, The World Bank, Washington 1998. Wilkin J., Ewolucja ekonomii politycznej i jej miejsce we współczesnej myśli ekonomicznej, w: Czym jest ekonomia polityczna dzisiaj? red. J. Wilkin, Wydawnictwa Uniwersytetu Warszawskiego, Warszawa 2004. Wintrobe R., The Political Economy of Dictatorship, Cambridge University Press, Cambridge, Mass., 2000. Wittman D., Why Democracies Produce Efficient Results, „Journal of Political Economy” 1989, nr 97(6). Wooldridge J.M., Econometric Analysis of Cross Section and Panel Data, MIT Press, Cambridge, Mass., 2002. http://en.wikipedia.org/wiki/List_of_close_election_results (dostęp 5.10.2010). 72 Jan Fałkowski Competition Between Political Parties and Economic Policy Summary The paper is an attempt to reconstruct and systemise the views of economists on the relationships between the intensity of competition between political parties and economic policy performed by the government. In the first part, in the context of concepts and findings of new institutional economics and new political economy, the author describes the reasons why political competition has become subject of interest for economists. The next part presents the most significant economic theories that explain the links between economic decisions taken by the government and various aspects of political competion. The discussion includes i.a. the model of median voter, questions related to political rent-seeking, and social control over political elites. The last part of the paper gives a brief review of empirical analyses related to the topic. Key words: political competition 1 economic competition 1 economic policy Конкуренция между политическими партиями и экономическая политика Резюме В статье делается попытка собрать и систематизировать взгляды экономистов на зависимость между уровнем конкуренции между политическими партиями и экономической политикой, В первой части, обращаясь к достижениям новой институциональной экономики, а также новой политэкономии, рассматриваются причины, по которым экономисты заинтересовались политической конкуренцией. В дальнейшей части сделана презентация наиболее влиятельных экономических теорий, объясняющих взаимосвязь между экономическими решениями властей и разными аспектами политической конкуренции. Автор обращается, в частности, к модели среднего избирателя, к вопросам связанных с погоней за политической рентой, а также общественного контроля за политическими элитами. Статью заканчивает краткий обзор эмпирических работ, посвященных этой проблематике. Ключевые слова: политическая конкуренция 1 экономическая конкуренция 1 эконо мическая политика M I S C E L L A N E A ANDRZEJ GRZEBIENIAK* Reasekuracja w ubezpieczeniach na życie w Polsce w latach 1991–2009 Wstęp Celem niniejszego artykułu jest próba oceny roli reasekuracji w ubezpieczeniach na życie na rynku polskim w latach 1991–2009 oraz wskazanie zauważalnych trendów i odmienności reasekuracji w okresie ostatnich dwóch dekadach istnienia wolnej gospodarki rynkowej. W artykule przyjęto hipotezę, iż reasekuracja zakładów ubezpieczeń na życie w Polsce stanowi niewielki element kontroli ryzyka związanego z ich działalnością. Jako metodę badawczą zastosowano analizę wybranych wskaźników funkcjonowania sektora ubezpieczeniowego. 1. Funkcje i cechy reasekuracji ubezpieczeń na życie Główną funkcją reasekuracji ubezpieczeń na życie jest zmniejszenie fluktuacji wyników ubezpieczyciela w związku z posiadanym portfelem ubezpieczeń życiowych oraz zapewnienie stabilizacji jego wyników finansowych netto w dłuższym okresie [Gerathewohl 1982, s. 480]. Ta funkcja reasekuracji pokrywa się z jedną z najważniejszych zasad prowadzenia działalności gospodarczej, polegającą na unikaniu dużych zmian w uzyskiwanych wynikach finansowych [Gastel 2004, s. 3]. Finansowa ocena zakładów ubezpieczeń na życie skupia się na dwóch kwestiach: wypłacalności i kondycji finansowej [Williams, Smith, Young 2002, s. 429], które muszą być rozpatrywane w dłuższym okresie ze względu na długotrwały charakter polis na życie. Kolejne funkcje reasekuracji ubezpieczeń na życie to dostosowanie skali i zakresu działalności ubezpieczeniowej zakładu ubezpieczeń do jego potencjału finansowego, m.in. poprzez częściowe finansowanie przez reasekuratora kosztów początkowych nowo zawieranych ubezpieczeń (szczególnie w fazie rozwijania działalności ubezpieczeniowej oraz w przypadku szybko rozwijającej się sprzedaży usług), umożliwienie zakładowi ubezpieczeń przyjmowania dużych ryzyk – czyli sum ubezpieczenia przekraczających wysokość udziału własnego – przez reasekurowanie nadwyżki, zapewnienie wymagań dotyczących wypłacalności w przypadku braku wystarczających kapitałów własnych w stosunku do przyjętych zobowiązań z tytułu posiadanego portfela ubezpieczeń. * Dr Andrzej Grzebieniak [email protected] – Uniwersytet Warmińsko-Mazurski w Olsztynie, e-mail: andrzej.grzebie- 74 Miscellanea Spośród cech charakterystycznych reasekuracji ubezpieczeń na życie należy wskazać przede wszystkim na ich długoterminowość z uwagi na długi okres trwania umów ubezpieczeniowych [Olearczuk 1996, s. 189]. Ponadto warunki ogólne oraz wysokość składek ubezpieczeniowych w ubezpieczeniach na życie są ustalane zazwyczaj z góry na cały okres obowiązywania umowy ubezpieczenia i nie podlegają one rewizji, dlatego też podobne zasady obowiązują w umowach reasekuracyjnych. Umowy ubezpieczeń na życie są zawierane zwykle na stałe sumy, nie występują też częściowe wypłaty, gdyż szkody są zawsze całkowite. To zaś razem sprawia, że możliwa do zastosowania jest reasekuracja nieproporcjonalna, w której przedmiotem jest szkoda lub szkodowość (a nie podział ryzyka, jak w reasekuracji proporcjonalnej). Reasekuracja nieproporcjonalna obejmować może na przykład ubezpieczenia rentowe, w formie tzw. renty życiowej, gdzie nieznany jest dokładny okres jej wypłacania. Rentą w ubezpieczeniach nazywa się ciąg kwot wypłacanych ubezpieczonemu w stałych okresach (np. co miesiąc, co kwartał lub nawet co rok) przez pewien przedział czasu, w związku z zajściem zdefiniowanego wypadku ubezpieczeniowego. Warunkiem otrzymania renty jest wcześniejsze wnoszenie regularnych wpłat w postaci składek ubezpieczeniowych w okresie ubezpieczenia [Stroiński 2003, s. 201]. W ubezpieczeniach na życie z funduszem kapitałowym (grupa 3 działu ubezpieczeń na życie) [Ustawa 2003, załącznik] gdzie składka za ubezpieczenie składa się z trzech wyraźnie od siebie oddzielonych części (składka na opłacenie kosztów administracyjnych, składka na opłacenie ryzyka ubezpieczeniowego, składka oszczędnościowa) – wartość polisy ubezpieczeniowej rośnie wraz z upływem okresu ubezpieczenia, gdyż rośnie wartość składki oszczędnościowej (która tworzy tzw. rezerwę matematyczną). Reasekuracji nie wymaga suma ubezpieczenia, a jedynie wielkość ryzyka, będąca różnicą między sumą ubezpieczenia a wielkością rezerwy matematycznej dla danej polisy. W reasekuracji ubezpieczeń na życie ustala się między cedentem (zakładem ubezpieczeń) a reasekuratorem, w czyjej gestii leży obowiązek przechowywania depozytów stanowiących pokrycie rezerw techniczno-ubezpieczeniowych oraz zasady udziału stron kontraktu w przychodach z inwestowania tych środków kapitałowych. Cechą charakterystyczną reasekuracji ubezpieczeń na życie jest też brak najczęściej występowania pośrednictwa brokerów reasekuracyjnych, gdyż reasekuratorzy sami nawiązują kontakty z ubezpieczycielami za pośrednictwem swoich komórek marketingowych. Wynika to też częściowo ze standaryzowanych sum ubezpieczenia polis życiowych, które są stosunkowo niewysokie i mało zróżnicowane w porównaniu z ubezpieczeniami majątkowymi. Zakłady ubezpieczeń reasekurują całość swych cesji u jednego reasekuratora, z którym współpracują przez wiele lat, bądź u kilku reasekuratorów, z których jeden odgrywa rolę lidera reasekuracji, a współpraca z nim ma zazwyczaj trwały charakter. 2. Reasekuracja bierna Reasekuracja bierna polega na odstępowaniu ryzyk (pełnych lub częściowych) innym zakładom ubezpieczeń lub zawodowym reasekuratorom. Reasekuracja czynna to przyjmowanie ryzyk od zakładów ubezpieczeń. Jej wartość w Polsce 1992–2005 kształtowała się w granicach 1,0–1,9% składki brutto ubezpieczycieli ogółem [Ciuman 2007, s. 87], a w latach 2002–2009 na poziomie średnim około 1,2% składki brutto ubezpieczycieli działu I (do 2001 r. reasekuracja czynna nie była prowadzona w tym dziale). Reasekuracja bierna ubezpieczeń na życie na polskim rynku ubezpieczeniowym jest stosowana w bardzo ograniczonym zakresie. W latach 1991–2000 średnio około 0,8% 75 Miscellanea składki przypisanej brutto z ubezpieczeń na życie zakłady przekazały reasekuratorom [Przegląd Dziesięciolecia 2000, s. 67]. W latach 1991 i 1992 wskaźnik retencji składek w ubezpieczeniach na życie osiągnął poziom 100%, czyli zakłady ubezpieczeń w tym czasie w ogóle nie stosowały reasekuracji biernej. W pierwszej dekadzie działalności zakładów ubezpieczeniowych na wolnym rynku ubezpieczeń w Polsce (lata 1990–1999) wskaźnik retencji osiągnął najniższą wartość w 1999 r. – 97,7%, a więc był niewiele niższy od wartości maksymalnej. W drugiej dekadzie, czyli w latach 2000–2009, najwyższa wartość wskaźnika retencji wystąpiła w 2006 r. – 99,0%, najniższa zaś w 2009 r. – 96,5%. Kształtowanie się wskaźnika retencji w poszczególnych latach dwóch ostatnich dekad przedstawiają rysunki 1 i 2. Można stwierdzić, iż reasekuracja bierna w dziale ubezpieczeń na życie ma niewielki wpływ na wyniki sektora ubezpieczeń. Podobnie jest też w przypadku reasekuracji czynnej. W przeszłości reasekuracja ubezpieczeń na życie odgrywała znacznie większą rolę. Wynikało to zarówno z potrzeb finansowych (konieczność spełniania wymogów kapitałowych narzucanych przez organy nadzoru w sytuacji, gdy zakłady ubezpieczeń nie posiadały wystarczających kapitałów własnych, szczególnie w chwili rozpoczynania działalności na danym rynku lub w danym rodzaju ubezpieczeń), jak i potrzeb informacji typu know-how, które szczególnie w zakresie statystyki ubezpieczeniowej były w znacznie szerszym stopniu w posiadaniu reasekuratorów. Innym powodem było wykorzystywanie reasekuracji do wprowadzania nowych produktów na rynek, wchodzenia na wybrany segment rynku lub nawet przejmowania jego części lub całości. Obecnie zakłady ubezpieczeń na życie korzystają z reasekuracji głównie w przypadku potrzeby zabezpieczenia się przed nadzwyczajną kumulacją ryzyk lub w celu wyrównania ryzyk w portfelu. Ry s u n e k 1 Wskaźnik retencji (zatrzymania) składek zakładów ubezpieczeń na życie (dział I) w latach 1991–1999 Wskaźnik (%) 100 99 98 97 1991 1992 1993 1994 1995 1996 1997 1998 1999 2000 Źródło: Opracowanie własne na podstawie: Przegląd Dziesięciolecia... [2000, s. 94]. Porównując wartość wskaźnika retencji składek zakładów ubezpieczeń na życie w Polsce, która w latach 2000–2009 wyniosła średnio 97,9%, do kształtowania się tego wskaźnika w krajach Unii Europejskiej i OECD, gdzie jego wartość kształtowała się na średnim poziomie odpowiednio 92,7% i 90,8% [Micyk 2010, s. 30], można stwierdzić, że w Polsce wskaźnik ten jest stosunkowo wysoki. Jednocześnie w takich krajach, jak 76 Miscellanea Ry s u n e k 2 Wskaźnik retencji (zatrzymania) składek zakładów ubezpieczeń na życie (dział I) w latach 2000–2009 100,0 Wskaźnik (%) 99,5 99,0 98,5 98,0 97,5 97,0 96,5 96,0 2000 2001 2002 2003 2004 2005 2006 2007 2008 2009 Źródło: Opracowanie własne na podstawie danych KNF [http://www.knf.gov.pl]. Szwajcaria czy Niemcy, czyli w krajach o najdłuższych doświadczeniach ubezpieczeniowych i reasekuracyjnych, wskaźnik retencji osiąga podobny poziom jak w Polsce, więc można stwierdzić, iż w Polsce utrzymuje się on na poziomie charakterystycznym dla krajów najbardziej rozwiniętych. Wynika to prawdopodobnie z dość dużej własnej bazy kapitałowej ubezpieczycieli działających na rynku polskim oraz z rodzaju oferowanych produktów ubezpieczeniowych. Na przykład produkty ubezpieczeniowe powiązane z inwestowaniem w walutach obcych i oferowane przez ubezpieczycieli z przeważającym kapitałem krajowym są z reguły reasekurowane w większym stopniu w związku z dużym ryzykiem kursowym. Na rysunku 3 został przedstawiony procent składki zatrzymanej według grup ustawowych działu I zakładów ubezpieczeń na życie w latach 2000–2009 (KNF nie udostępnia Ry s u n e k 3 Wskaźnik składki zatrzymanej według grup ustawowych (działu I) zakładów ubezpieczeń na życie w latach 2000–2009 100,0 Wskaźnik (%) 95,0 grupa 1 90,0 grupa 2 85,0 grupa 3 grupa 4 80,0 grupa 5 75,0 70,0 2000 2001 2002 2003 2004 2005 2006 2007 2008 Źródło: Opracowanie własne na podstawie danych KNF [http://www.knf.gov.pl]. 2009 77 Miscellanea niestety podobnych danych za lata 1991–1999). Jak wynika z rysunku, reasekuracji podlegała w największym stopniu grupa 4 ubezpieczeń, czyli ubezpieczenia rentowe. W grupie tej największa część składki była zatrzymana przez zakłady ubezpieczeń w 2000 r. – 99,7%, a najmniejsza w 2008 r. – 71,6%. W pozostałych grupach procent składki zatrzymanej był na podobnym poziomie i kształtował się w granicach 91,0%–99,6%. Wśród ubezpieczeń rentowych dominujące znaczenie mają renty życiowe, tj. renty wypłacane do końca życia. Właściwie tylko te renty traktuje się jako instrumenty ubezpieczeniowe (renty pewne są typowymi instrumentami bankowymi), gdyż nigdy nie wiadomo, jak długo ubezpieczony będzie żył i otrzymywał rentę oraz czy suma wypłaconych rent będzie wyższa czy też niższa od kwoty, jaką ubezpieczony uzyskałby, lokując wolne środki pieniężne np. w banku. Dlatego właśnie ubezpieczenia grupy 4 są przedmiotem największej reasekuracji. 3. Składki przekazane reasekuratorom oraz udział reasekuratorów w odszkodowaniach i świadczeniach Reasekuracja bierna ubezpieczycieli działu ubezpieczeń na życie była niewielka do 1995 r., gdyż przekazywali oni reasekuratorom ułamek procentu składek (rys. 4). Od 1996 r. nastąpił wyraźny wzrost zaangażowania reasekuratorów (z 0,02% w 1995 r. do 0,3% w 1996 r.), a w 1999 r. wskaźnik ten osiągnął najwyższą wartość w tej dekadzie – 2,3%. W drugiej dekadzie najmniejsze zaangażowanie reasekuratorów było w 2006 r. – 1,3%, a najwyższe w 2009 r. – 3,5% (rys. 5). Wraz ze wzrostem działalności ubezpieczeniowej, mierzonej sumą składek ubezpieczeniowych, następował też wzrost wypłacanych odszkodowań i świadczeń. W pierwszej dekadzie najwyższy udział reasekuratorów w odszkodowaniach i świadczeniach był w 1999 r. – 0,5% (rys. 6), a w drugiej dekadzie w 2009 r. – 3,5% (rys. 7). Ry s u n e k 4 Udział reasekuratorów w składce przypisanej brutto zakładów ubezpieczeń działu I w latach 1991–1999 Udział (%) 2,4 2,2 2,0 1,8 1,6 1,4 1,2 1,0 0,8 0,6 0,4 0,2 0,0 1991 1992 1993 1994 1995 1996 1997 Źródło: Opracowanie własne na podstawie danych KNF [http://www.knf.gov.pl]. 1998 1999 78 Miscellanea Ry s u n e k 5 Udział reasekuratorów w składce przypisanej brutto zakładów ubezpieczeń działu I w latach 2000–2009 4,0 3,5 Udział (%) 3,0 2,5 2,0 1,5 1,0 0,5 0,0 2000 2001 2002 2003 2004 2005 2006 2007 2008 2009 Źródło: Opracowanie własne na podstawie danych KNF [http://www.knf.gov.pl]. Ry s u n e k 6 0,6 Udział reasekuratorów w odszkodowaniach i świadczeniach zakładów ubezpieczeń działu I w latach 1991–1999 Udział (%) 0,5 0,4 0,3 0,2 0,1 0,0 1991 1992 1993 1994 1995 1996 1997 1998 1999 Źródło: Opracowanie własne na podstawie danych KNF [http://www.knf.gov.pl]. Ry s u n e k 7 Udział reasekuratorów w odszkodowaniach i świadczeniach zakładów ubezpieczeń działu I w latach 2000–2009 4,0 3,5 Udział (%) 3,0 2,5 2,0 1,5 1,0 0,5 0,0 2000 2001 2002 2003 2004 2005 2006 2007 Źródło: Opracowanie własne na podstawie danych KNF [http://www.knf.gov.pl]. 2008 2009 79 Miscellanea 4. Koszt reasekuracji, prowizje reasekuracyjne oraz udziały reasekuratorów w zyskach Koszt reasekuracji ocenia się na podstawia salda operacji reasekuracyjnych. W latach 1991–1999 (dokładniej w latach 1994–1999, gdyż w latach 1991–1992 reasekuracja bierna w dziale I nie występowała, a w roku 1993 była na minimalnym poziomie 0,2 mln zł) saldo to osiągnęło wartość ujemną w wysokości 152,3 mln zł (rys. 8), a w latach 2000– –2009 wartość ujemną równą 1449,1 mln zł (rys. 9). Oznaczało to wielką korzyść dla zagranicznych zakładów prowadzących reasekurację ubezpieczeń na życie. Ry s u n e k 8 Uproszczone saldo operacji reasekuracyjnych zakładów ubezpieczeń na życie (dział I) w latach 1994–1999 20,0 10,0 0,0 1994 1995 1996 1997 1998 1999 –10,0 –20,0 –30,0 Saldo (mln zł) –40,0 –50,0 –60,0 –70,0 –80,0 –90,0 –100,0 –110,0 –120,0 –130,0 –140,0 –150,0 Źródło: Opracowanie własne na podstawie danych KNF [http://www.knf.gov.pl]. W pierwszej dekadzie saldo operacji reasekuracyjnych osiągnęło szczególnie dużą wartość ujemną w 1999 r. – minus 136,2 mln zł, a w drugiej dekadzie w 2008 r. – minus 893,5 mln zł. W okresie prawie dwudziestu lat zakłady ubezpieczeń działające na rynku polskim wydały w sumie 1601,4 mln zł na ochronę reasekuracyjną rynku ubezpieczeń życiowych. Choć jest to tylko około 0,8% składki ubezpieczeniowej zebranej w tym okre- 80 Miscellanea Ry s u n e k 9 Uproszczone saldo operacji reasekuracyjnych zakładów ubezpieczeń na życie (dział I) w latach 2000–2009 0,0 –50,0 2000 2001 2002 2003 2004 2005 2006 2007 2008 2009 –100,0 –150,0 –200,0 –250,0 –300,0 –350,0 Saldo (mln zł) –400,0 –450,0 –500,0 –550,0 –600,0 –650,0 –700,0 –750,0 –800,0 –850,0 –900,0 –950,0 Źródło: Opracowanie własne na podstawie danych KNF [http://www.knf.gov.pl]. sie w Polsce, sama wielkość składki reasekuracyjnej stanowi dużą kwotę (ponad 500 mln USD). Składka ta trafia w 100% do zagranicznych reasekuratorów (gdyż nie ma już obecnie reasekuratorów polskich), w tym głównie do zagranicznych firm‑matek zakładów ubezpieczeń działających na rynku polskim. Z kosztem reasekuracji jest związany wskaźnik prowizji reasekuracyjnej i udziału w zyskach reasekuratorów. Wartość tego wskaźnika w poszczególnych latach dwóch dekad działalności zakładów ubezpieczeń na życie na rynku polskim został przedstawiony na rysunku 10 i 11. W latach 1996 i 1997 wskaźnik ten osiągnął wartość odpowiednio 170% i 148%, czyli zakłady ubezpieczeń na życie otrzymały znacznie większe kwoty aniżeli przekazały do reasekuratorów w formie składki reasekuracyjnej. Świadczy to o tym, że prowizja reasekuracyjna wraz z udziałem reasekuratorów w zyskach nie jest tylko bynajmniej zwrotem kosztów akwizycji poniesionych przez zakład ubezpieczeń, lecz odgrywa nieco inną rolę. Prawdopodobnie stanowi z jednej strony ekwiwalent kosz- 81 Miscellanea tów administracyjnych zakładu ubezpieczeń, z drugiej zaś specjalny składnik umowy zawartej między zakładem ubezpieczeń (cedentem) i reasekuratorem, który zachęca cedenta do współpracy z danym reasekuratorem w dłuższym okresie i gwarantuje, iż współpraca będzie kontynuowana nie tylko w czasach, gdy szkodowość jest mała, lecz także wtedy, gdy będzie ona znacznie większa niż założono. Ma to duże znaczenie dla zakładów ubezpieczeń, które powinny brać pod uwagę nie tylko możliwość uzyskania jak najtańszego rodzaju reasekuracji, ale także sposobność korzystania z usług reasekuratora również wówczas, gdy po kilku latach współpracy zakład ubezpieczeń będzie miał ujemne własne saldo reasekuracji, a reasekurator zechce dalej partycypować w reasekurowaniu ryzyk w takim samym stopniu jak dotychczas, oraz w sytuacji, gdy sam osiągnie ujemne saldo reasekuracji. Z punktu widzenia długofalowych stosunków między zakładem ubezpieczeń a reasekuratorem korzystna jest sytuacja oscylowania wartości wskaźnika rentowności reasekuracji biernej wokół 0%, co oznacza, że saldo operacji reasekuracyjnych powinno także kształtować się wokół 0 zł [Metodologia analizy finansowej... 2001, s. 112]. Ry s u n e k 1 0 Prowizja reasekuracyjna i udziały reasekuratorów w zyskach w % składki reasekuracyjnej zakładów ubezpieczeń na życie (dział I) w latach 1991–1999 % 200,0 150,0 100,0 50,0 0,0 1991 1992 1993 1994 1995 1996 1997 1998 1999 Źródło: Opracowanie własne na podstawie danych KNF [http://www.knf.gov.pl]. Ry s u n e k 1 1 Prowizja reasekuracyjna i udziały reasekuratorów w zyskach w % składki reasekuracyjnej zakładów ubezpieczeń na życie (dział I) w latach 2000–2009 % 45,0 40,0 35,0 30,0 25,0 20,0 15,0 10,0 5,0 0,0 2000 2001 2002 2003 2004 2005 2006 2007 Źródło: Opracowanie własne na podstawie danych KNF [http://www.knf.gov.pl]. 2008 2009 82 Miscellanea Biorąc pod uwagę tak znaczną wielkość salda operacji reasekuracyjnych na korzyść reasekuratorów w latach 1991–2009 (1601,4 mln zł), należy zadać pytanie, czy jest w ogóle możliwe kiedykolwiek osiągnięcie postulowanej wielkości salda reasekuracji na poziomie blisko 0 zł? Nie wydaje się to możliwe z kilku względów. Po pierwsze, wymagałoby to znacznych zmian w programach reasekuracyjnych stosowanych przez ubezpieczycieli i jednocześnie akceptacji ich przez reasekuratorów. Po drugie, większość zakładów ubezpieczeń reasekuruje swoje ryzyka – zarówno w ubezpieczeniach grup działu I, jak i II – najczęściej u swoich zagranicznych firm-matek, czyli właścicieli zakładów ubezpieczeń działających na rynku polskim, więc praktycznie szanse na zmianę warunków umów reasekuracyjnych są minimalne. Tym bardziej, że firmy‑matki są często zarejestrowane w tzw. rajach podatkowych, gdzie obciążenia podatkowe są kilkakrotnie niższe niż w Polsce. Jest to więc typowy sposób transferu zysków ze szkodą dla dochodów podatkowych państwa polskiego. W przypadku reasekuracji ryzyk z działu II (ubezpieczenia majątkowe i pozostałe osobowe) koszt reasekuracji za okres ostatnich dwudziestu lat wyniósł ok. 4500 mln zł. Razem więc zakłady ubezpieczeń wydały na ochronę reasekuracyjną polskiego rynku ubezpieczeniowego w ciągu ostatnich dwudziestu lat ponad 6 mld zł. Wobec braku prawdziwego, klasycznego rynku reasekuracyjnego aktualne pozostaje wciąż pytanie, dlaczego państwa polskie, a właściwie rząd polski, nie dba o interesy państwa i nie tworzy państwowego (publicznego) zakładu reasekuracji, który choćby częściowo przejął transferowane obecnie w 100% zyski z czynnej działalności reasekuracyjnej oferowanej przez zagranicznych reasekuratorów zakładom ubezpieczeń działających na rynku polskim. Takie publiczne zakłady reasekuracji zostały stworzone w wielu krajach (Korea Płd., Singapur, Tajwan, Australia itp.). Ich właścicielem jest państwo lub skarb państwa posiada znaczne udziały w tych zakładach. Również niektóre państwa europejskie (Francja, Holandia, Włochy) są w posiadaniu – bezpośrednio lub pośrednio – znaczących pakietów akcji w wielu spółkach reasekuracyjnych. Świadczy to wszystko o roli, jaką rządy tych państw nadają rozwojowi rynku ubezpieczeniowego i korzyściom z niego płynącym. Podsumowanie Reasekuracja bierna ubezpieczeń na życie przedstawia dość znaczący wydatek dla zakładów ubezpieczeń działających na rynku polskim. Choć jest on niewielki w wartościach procentowych zebranej składki oraz wielokrotnie mniejszy niż w ubezpieczeniach majątkowych i pozostałych osobowych, to jego rola w spełnianiu podstawowej funkcji, czyli zmniejszaniu fluktuacji wyników finansowych ubezpieczyciela oraz zapewnieniu stabilizacji tych wyników w dłuższym okresie, jest istotna. W krajach UE i OECD zakłady ubezpieczeń na życie w większym stopniu wykorzystują reasekurację, co może oznaczać, iż jej znaczenie na rynku polskim będzie wzrastać. Potwierdza to wartość wskaźnika retencji składek ubezpieczeniowych, która zmniejsza się stale od 2006 r., co oznacza, że zakres reasekuracji wzrasta. Cechą charakterystyczną polskiego rynku ubezpieczeń na życie są również dość wysokie prowizje reasekuracyjne i wysokie udziały w zyskach otrzymywane przez reasekuratorów. Nie stanowią one wyłącznie zwrotu kosztów akwizycji poniesionych przez zakłady ubezpieczeń, gdyż ze względu na obejmowanie przez reasekurację ubezpieczeń na życie tylko części ryzyk z polisy ubezpieczeniowej, odgrywają dodatkową rolę w postaci ekwiwalentu kosztów administracyjnych. Są też wynikiem specjalnych zapisów umowy zawieranej między ubezpieczycielem (cedentem) a reasekura- Miscellanea 83 torem, których zadaniem jest wzajemne wspieranie się finansowe w sytuacjach mniej lub bardziej trudnych w zakresie poziomu szkodowości. Przyjęta na wstępie hipoteza, iż reasekuracja zakładów ubezpieczeń na życie stanowi niewielki element ich funduszy, została potwierdzona, choć zakres reasekuracji w ostatnich latach dość wyraźnie się zwiększa. Tekst wpłynął 1 października 2010 r. Bibliografia Ciuman K., Reasekuracja jako czynnik rozwoju rynku ubezpieczeniowego w Polsce, Wyd. Akademii Ekonomicznej w Krakowie, Kraków 2007. Gastel R., Introduction to Reinsurance, w: Reinsurance. Fundamentals and New Challenges, red. R. Gastel, III, New York 2004. Gerathewohl K., Reinsurance. Principles and Practice, Verlag Versicherungswirtschaft e.V., Karlsruhe 1982. Metodologia analizy finansowej zakładów ubezpieczeń, PUNU, Warszawa 2001. Micyk R., Życiowy minimalizm, „Miesięcznik Ubezpieczeniowy” 2010, nr 9. Olearczuk A., Reasekuracja ubezpieczeń życiowych, w: Ubezpieczenia życiowe, red. O. Doan, Poltext, Warszawa 1996. Przegląd Dziesięciolecia. Rozwój ubezpieczeń w Polsce w gospodarce wolnorynkowej, PUNU, Warszawa 2000. Stroiński E., Ubezpieczenia na życie. Teoria i praktyka, Poltext, Warszawa 2003. Ustawa o działalności ubezpieczeniowej, 2003. Williams C.A. Jr., Smith M.L., Young P.C., Zarządzanie ryzykiem a ubezpieczenia, WN PWN, Warszawa 2002. http://www.knf.gov.pl (23.09.2010). Adam Zaremba* Przyczyny malejącej zyskowności funduszy kontraktów terminowych Wprowadzenie Fundusze kontraktów terminowych1 (managed futures) to określenie kategorii funduszy, które starają się pomnażać środki klientów za pomocą aktywnych inwestycji na rynkach terminowych. Ich domeną są automatyczne systemy transakcyjne oparte na analizie technicznej. Wprawdzie pierwsze wehikuły tego typu zaczęły powstawać już w latach 40. ubiegłego wieku, jednak dopiero ostatnie lata przyniosły znaczący wzrost ich popularności. W rezultacie aktywa pod zarządzaniem CTA na świecie wzrosły z 0,3 mld USD w 1980 r. do 247,8 mld USD w 2010 r. [BarclayHedge Alternative Investments Database], a pierwsze tej klasy podmioty zaczęły pojawiać się również na rynku polskim (MAN AHL, Superfund). Uwagę inwestorów przykuwają głównie trzy aspekty inwestycji w managed futures. Po pierwsze, fundusze kontraktów terminowych wypracowywały historycznie wysokie stopy zwrotu przy ograniczonym ryzyku. Indeks funduszy kontraktów terminowych CASAM CISDM CTA Asset Weighted przyniósł w okresie od grudnia 1979 r. do września 2010 r. skumulowaną stopę zwrotu na poziomie 3403%. Po drugie, inwestycje w fundusze kontraktów terminowych są nisko skorelowane z tradycyjnymi klasami aktywów (akcje, obligacje), przez co pozwalały historycznie zredukować ryzyko portfela inwestycyjnego. Po trzecie, fundusze kontraktów terminowych poprawiają wyniki portfela inwestycyjnego w warunkach, gdy rentowność tradycyjnych aktywów finansowych jest niska. Wszystkie trzy tezy znajdują solidne potwierdzenie w dotychczasowych badaniach empirycznych. W ostatnich latach widoczny jest jednak wyraźny spadek zyskowności funduszy kontraktów terminowych. Rysunek 1 przedstawia średnioroczne stopy zwrotu z indeksu CASAM CISDM, rolowane w okresach 5-letnich. * Mgr Adam Zaremba – Katedra Inwestycji i Rynków Kapitałowych, Uniwersytet Ekonomiczny w Poznaniu; e-mail: [email protected] 1 Termin managed futures funds traktuje się często jako tożsamy z Commodity Trading Advisors (CTA), choć znaczenie obu pojęć nie jest identyczne. Określenie managed futures odnosi się do modelu strategii inwestycyjnej, natomiast CTA – do formy prawnej w regulacjach amerykańskich. Zgodnie z materiałami informacyjnymi na stronie internetowej NFA w 2008 r. definicja brzmi: „CTA is an individual or organization which, for compensation or profit, advises others as to the value of or the advisability of buying or selling futures contracts or commodity options”. Źródło: http://www.nfa.futures.org 86 Miscellanea Ry s u n e k 1 Średnioroczne stopy zwrotu z funduszy kontraktów terminowych % 30 3 000 25 2 500 20 2 000 15 1 500 10 1 000 5 500 0 0 1987 1992 1997 2002 2007 Średnioroczna stopa zwrotu za ostatnie 5 lat (skala lewa) CASAM CISDM CTA Asset Weighted (skala prawa) Źródło: Obliczenia własne na podstawie http://www.bloomberg.com Średnioroczne stopy zwrotu systematycznie spadały z ponad 20% pod koniec lat 80. do stabilnego poziomu 7–8% w ciągu ostatnich 10 lat. Zmiany te były dostrzegalne przez różnych autorów już na początku obecnego wieku [Kidd, Brorsen 2004], jednak w literaturze trudno znaleźć jednoznaczne wytłumaczenie takiego stanu rzeczy. W opinii autora przyczyną spadku zyskowności funduszy kontraktów terminowych może być znaczący spadek skuteczności ich strategii inwestycyjnych. Celem niniejszego artykułu jest sprawdzenie powyższej hipotezy. W pierwszej części artykułu zostanie przedstawiony podział i charakterystyka systemów zarządzania wykorzystywanych przez fundusze kontraktów terminowych. Jest to o tyle istotne, że funkcjonują one na zasadzie „czarnych skrzynek” , a dokładne strategie inwestycyjne niemal nigdy nie są znane inwestorom. Następnie zostaną przedstawione teorie rynków finansowych uzasadniające funkcjonowanie managed futures. Celem części drugiej jest weryfikacja, czy wspomniane teorie mogą wyjaśnić spadek skuteczności funduszy kontraktów terminowych. W ostatniej części dokonany zostanie przegląd dotychczasowych badań empirycznych nad analizą techniczną na rynkach surowcowych, walutowych i akcyjnych w okresie od lat 70. do początku XX w. 1. Zarządzanie portfelami funduszy kontraktów terminowych Istnieje mnóstwo odrębnych strategii wykorzystywanych przez fundusze kontraktów terminowych. Ich najczęstszy podział odnosi się do procesu analitycznego, który prowadzi Miscellanea 87 do wygenerowania sygnałów transakcyjnych. Mowa tu o strategiach dyskrecjonalnych i systematycznych. Inwestorzy dyskrecjonalni monitorują fundamentalną i techniczną sytuację rynkową, a następnie na podstawie własnego osądu podejmują indywidualne decyzje dotyczące zawierania transakcji. Inwestorzy systematyczni z kolei wykorzystują zestaw z góry określonych precyzyjnych zasad, zwanych systemem transakcyjnym, który automatycznie generuje sygnały kupna, sprzedaży, zmiany pozycji itp. Systemy takie często nazywane są mianem black box, czyli czarnych skrzynek. W przeciwieństwie do inwestorów dyskrecjonalnych nie pozostaje tu wiele miejsca na indywidualne decyzje zarządzającego, którego funkcją w procesie inwestycyjnym jest z projektowanie, nadzór i modyfikacje automatycznego systemu inwestycyjnego. Wprawdzie istnieją fundusze stosujące zarówno strategie dyskrecjonalne, jak i systematyczne, jednak zdecydowanie dominującym modelem jest podejście systematyczne. Według danych BarclayHedge na koniec III kwatału 2010 r., 179,6 mld USD na świecie ulokowanych w funduszach managed futures zarządzanych było przez systemy automatyczne, a jedynie 14,3 mld USD w drodze decyzji dyskrecjonalnych [BarclayHedge Alternative Investments Database]. 1.1. Automatyczne systemy transakcyjne Systemy transakcyjne funkcjonują na podstawie automatycznych algorytmów komputerowych, stąd określa się je często mianem computer-based lub też model-based. Typowy system transakcyjny obejmuje zestaw ściśle określonych reguł wskazujących, kiedy sprzedać, a kiedy kupić kontrakt terminowy. Odstępstwa od tych reguł z założenia nie są dozwolone, z wyjątkiem sytuacji, gdy modyfikacji ulega cały system transakcyjny. Algorytmy opierają się na powtarzających się schematach rynkowych, które zostały odkryte na podstawie analizy notowań historycznych. Proces weryfikacji skuteczności określonych reguł i możliwości wykorzystania powtarzających się schematów określa się mianem back-testingu. Poszczególne fundusze managed futures wykorzystują zwykle ponad jeden system transakcyjny: w toku istnienia funduszu istniejące systemy podlegają różnym modyfikacjom, czasami dodaje się nowy model, czasami odrzuca jeden z dotychczasowych. Poszczególne systemy niekoniecznie muszą być oparte na zupełnie różnych zasadach, mogą np. dotyczyć różnego horyzontu czasowego. Na przykład fundusz może operować na dwóch systemach: długoterminowym i krótkoterminowym, a strategia inwestycyjna będzie opierać się na sygnałach generowanych przez oba systemy. Proces konstrukcji strategii transakcyjnej obejmuje zwykle wiele zagadnień. Wśród nich można wyróżnić [Till, Eagleeye 2004]: projektowanie systemu transakcyjnego, kalibrację i walidację systemu, konstrukcję portfela, zarządzanie ryzykiem i dźwignią finansową. Poszczególne elementy wraz z przykładami zostaną omówione w dalszej części tekstu. 1.2. Projektowanie systemu transakcyjnego Zdaniem Jaffariana [2009] funkcjonujące na rynku systemy transakcyjne można generalnie podzielić na trzy grupy: 1) systemy polegające na podążaniu za trendem (trend following), 2) systemy polegające na nie podążaniu za trendem rynkowym (non-trend following), 3) strategie wartości względnej (relative value). W ramach poszczególnych kategorii istnieją również dalsze podziały. Większość strategii podążania za trendem można zakwalifikować jako strategie średnich ruchomych 88 Miscellanea (moving average strategies) lub strategie wybicia z zakresu (break-out strategies), natomiast metody niepodążania za trendem dzielą się ogólnie na strategie odwrócenia (countertrend) oraz strategie oparte na formacjach (pattern recognition). Strategie podążania za trendem zdecydowanie dominują wśród wykorzystywanych przez CTA [Fung, Hsieh 1997]. Fundusze wykorzystujące te techniki starają się uchwycić trend i zarobić na nim, zawierając transakcje zgodnie z bieżącym ruchem cen na rynku. Gdy trend jest wzrostowy, fundusze tego typu będą dążyły do posiadania pozycji długiej, natomiast gdy jest spadkowy, będą się starały zająć pozycję krótką. Jak wskazuje nazwa, inwestorzy ci nie starają się prognozować przyszłych zmian cen, a jedynie podążają za dotychczasowymi zmianami, czekają na wykształcenie się trendu, a następnie zawierają stosowną transakcję. W celu identyfikacji trendu wszystkie systemy transakcyjne wykorzystują wskaźniki, które porównują bieżący poziom cen z poziomem historycznym. Strategie średniej ruchomej (moving average stratiegies) wykorzystują w tym celu wygładzony szereg cen historycznych. Gdy bieżące ceny lub średnia ruchoma znajdują się powyżej określonego poziomu, który może być również funkcją średnich ruchomych, zajmowana jest pozycja długa, a w odwrotnej sytuacji – krótka. Na innej zasadzie działają systemy wybicia z zasięgu (break-out strategies), które wypatrują wykrystalizowania się nowego trendu, obserwując zakres historycznych wahań cen. Gdy cena znacząco wzrośnie (spadnie) poza zakres historycznych ruchów cen, jest to postrzegane jako pojawienie się nowego trendu wzrostowego (spadkowego) i zajmowana jest pozycja długa (krótka). Strategie oparte na średnich ruchomych zdobyły znaczną popularność, gdyż średnie mają tę zaletę, że są dość dobrze zdefiniowane w statystyce, zrozumiałe i łatwe w zastosowaniu do testowania systemów transakcyjnych. W najprostszym ujęciu średnia arytmetyczna liczona jest jako równoważona średnia arytmetyczna według wzoru (1) [Lhabitant 2006]. k 1 / Pt, (1) N t = k-N+1 100 RSI = 100 , gdzie: Un 1 N – liczba okresów wykorzystywanych do kalkulacji średniej ruchomej, D k – względna pozycja bieżącego okresu w całkowitejn liczbie analizowanych okresów, Pt– cena instrumentu w momencie t. MA N = Średnia jest równoważona, więc każda historyczna cena zawarta w N ostatnich okresów będzie miała równe znaczenie w obliczeniach. Średnia ruchoma może być oparta na różnej długości okresach, jak choćby dniach, minutach czy pojedynczych tikach. Na przykład możemy mieć do czynienia z 20-dniową średnią ruchomą. W procesie kalkulacji wartości średniej każdego dnia będzie usuwana cena najstarsza – sprzed 21 sesji, a dodawana będzie nowa cena – z ostatniej sesji. Średnia ruchoma ma tę zaletę, że wygładza rynkowe szeregi czasowe. Jeżeli rynek generalnie charakteryzował się trendem wzrostowym, jednak od czasu do czasu zdarzały się niższe ceny, średnia ruchoma „wytłumi” szum i umożliwi analitykom technicznym rozpoznanie bieżącego trendu. Najpopularniejsze sygnały transakcyjne oparte na średnich obejmują [Jaffarian 2009] przecięcie od dołu przez ceny rynkowe średniej ruchomej lub szeregu średnich ruchomych (sygnał kupna) albo analogiczne przecięcie od góry (sygnał sprzedaży); przecięcie od dołu przez krótkoterminową średnią ruchomą długoter- Miscellanea 89 minowej średniej ruchomej (sygnał kupna) lub analogiczne przecięcie od góry (sygnał sprzedaży); ułożenie się szeregu średnich ruchomych w kierunku rosnącym (sygnał kupna) lub analogiczne ułożenie w kierunku spadkowym (sygnał sprzedaży). Strategie wybicia z zakresu (break-out strategies) wyrastają z nieco odmiennej filozofii, jednak również polegają na podążaniu za trendem. Systemy te „obserwują” zakres zmian cen na rynku, a następnie zawierają pozycje długie, gdy nastąpi wybicie z zakresu górą, lub krótkie, gdy wybicie nastąpi dołem. Prostym przykładem strategii wybicia z zakresu są systemy wsteczne (look back strategies). Systemy te obserwują 20 sesji wstecz, notując maksimum oraz minimum w tym okresie. Jeżeli bieżąca cena przekroczy maksymalne notowanie z 20 ostatnich sesji, uznaje się to za sygnał kupna, gdy z kolei cena spadnie poniżej minimum z 20 ostatnich sesji, jest to sygnał sprzedaży. Strategia podążania za trendem jako metoda podejmowania decyzji inwestycyjnych nie jest wolna od wad [Lhabitant 2008]. Po pierwsze, strategie tego typu są „powolne”, co dobrze ilustruje przykład średnich ruchomych. Ze względu na swoją naturę średnie ruchome generują sygnał zajęcia pozycji w jakiś czas po powstaniu trendu, a sygnał zamknięcia pozycji w jakiś czas po jego odwróceniu. Innymi słowy, inwestor musi być przygotowany, że za każdym razem będzie otwierał pozycję zbyt późno – tracąc część ruchu, a następnie zamykał również z opóźnieniem – oddając część wypracowanego wcześniej zysku. Drugie najistotniejsze ograniczenie wynika z natury strategii podążania za trendem, które do generowania zyskownych sygnałów transakcyjnych potrzebują trendów. Oznacza to, że stopy zwrotu nie mogą poruszać się zgodnie z procesem losowym, a muszą charakteryzować się dodatnią autokorelacją. Nie jest zaskakujące, że w warunkach braku autokorelacji stóp zwrotu systemy podążania za trendem – w tym opierające się na wskaźnikach opóźnionych – wypadają słabo i zamiast zysków generują jedynie fałszywe sygnały i koszty transakcyjne. Strategie niepodążania za trendem mają na celu odnalezienie możliwości wypracowania zysku na rynkach, na których nie są widoczne wyraźne trendy. W praktyce większość tej klasy systemów zalicza się do jednej z dwóch kategorii: technik opartych na formacjach (pattern recognition) lub strategii odwrócenia trendu (countertrend). Grupa pierwsza – strategie oparte na formacjach – stara się odszukać na wykresach klasycznych lub świecowych powtarzających się schematów, a następnie na ich podstawie zaprognozować przyszły ruch cen. Jedną z najbardziej rozpoznawalnych formacji technicznych jest głowa z ramionami (head and shoulders) [Murphy 1999]. Jest to formacja składająca się z trzech następujących po sobie szczytów, z których środkowy jest najwyższy. Linia łącząca ze sobą podstawy zarysowanych na wykresie wierzchołków nazywana jest „linią szyi”. Gdy na wykresie uformuje się już prawe, drugie ramię formacji, a następnie przebita zostanie linia szyi, zgodnie z prawidłami analizy technicznej jest to zwiastun nadchodzących spadków. Wysokość „głowy”, czyli odległość od wierzchołka najwyższego (środkowego) szczytu do linii szyi, określa jednocześnie minimalny zakres spadków. Druga grupa strategii niepodążania za trendem to strategie odwrócenia trendu. Systemy te wykorzystują różnego rodzaju wskaźniki, takie jak oscylatory w celu zidentyfikowania bieżącego zakresu ruchów cen na rynku, a następnie generują sygnały kupna, gdy ceny poruszają się w przy dnie zakresu, a sprzedaży, gdy notowania układają się w górnych partiach. Jednym z mniej skomplikowanych wskaźników typu countertrend jest wskaźnik siły relatywnej (Relative Strength Index – RSI) [Wilder 1978]. RSI jest obliczany według wzoru: 90 k Miscellanea 1 / P, N t = k-N+1 t 100 RSI = 100 , U 1- n Dn MA N = (2) gdzie: Un – średnia zmiana cen w okresach wzrostowych w ciągu ostatnich n okresów, Dn –średnia zmiana cen w okresach spadkowych w tym samym czasie. Wskaźnik ten może być liczony dla okresów o różnej długości (minuty, godziny, tygodnie) i dla różnej liczby okresów, jednak w praktyce najpopularniejszy jest wskaźnik w ujęciu 14-dniowym. Wskaźnik siły relatywnej jest oscylatorem, czyli jego wartości oscylują w ściśle określonej amplitudzie. Przedział, w którym może się poruszać RSI, to zakres od 0 do 100, z wartością 50 jako poziomem neutralnym. Górne zakresy w oscylatorach są interpretowane jako stan wykupienia rynku. Zgodnie z prawidłami analizy technicznej postrzega się je jako sytuację, gdy ceny urosły na tyle, że istnieje duże ryzyko spadku. Odwrotnie, dolne partie to stan wyprzedania, który może sygnalizować wzrosty. Dokładna granica, gdzie kończy się strefa neutralna, a rozpoczyna wyprzedanie bądź wykupienie, jest oczywiście umowna. W praktyce w przypadku RSI najczęściej przyjmuje się, że wyprzedanie to zakres od 0 do 30, strefa neutralna od 30 do 70, natomiast 70 do 100 to już strefa wykupienia. Sygnały transakcyjne odnoszą się najczęściej do przekroczenia przez wskaźnik granicy wyżej opisanych zakresów. Na przykład typowy system transakcyjny może wyglądać następująco: kupuj, gdy wskaźnik przebija granicę strefy wyprzedania od dołu i powraca do strefy neutralnej, a sprzedawaj, gdy wskaźnik przebija granicę strefy wykupienia od góry i również powraca do strefy neutralnej. Strategie wartości względnej (relative value strategies) starają się wykorzystać odchylenia od strukturalnych zależności i korelacji leżących u podstaw funkcjonowania różnych rynków finansowych. Strategie te zakładają, że notowania instrumentów w sposób nieefektywny reagują na publikowane informacje. Nieefektywności te można zidentyfikować za pomocą odstępstw od typowych korelacji pomiędzy instrumentami, a następnie wykorzystać do wypracowania zysku. Strategie te stanowią więc rodzaj quasi-arbitrażu. 1.3. Kalibracja i walidacja systemu Zanim określony system transakcyjny zostanie wykorzystany w praktyce do zarządzania pieniędzmi, jest on testowany na podstawie danych historycznych. Racjonalna przesłanka przemawiająca za takim postępowaniem jest taka, że jeżeli dana reguła inwestycyjna nie sprawdzała się w przeszłości, to szansa na to, że będzie pozwalała zarobić w przyszłości jest niska. Z tego też powodu backtesting jest sednem funkcjonowania branży managed futures. Fundusze nieustannie testują własne systemy inwestycyjne, na różnych danych, rynkach i indeksach czasowych. Testowanie właściwie nigdy się nie kończy, ponieważ z jednej strony z rynku wciąż napływają nowe dane, z drugiej zaś strony ciągłe zmiany w systemach transakcyjnych wymagają ciągłej walidacji. Co więcej, jeżeli rosnąca liczba funduszy będzie starała się wykorzystać podobny schemat na rynku, może on zupełnie przestać funkcjonować lub zacząć funkcjonować w innej formie. W rezultacie system, który był skuteczny przez minione 15 lat, przez kolejne 15 lat może przynosić straty. Stąd też walidacja i testowanie systemów trwa nieustannie. Z punktu wiedzenia inwestora warto pamiętać, że przetestowane na danych historycznych systemy transakcyjne, przedstawiane np. w materiałach marketingowych fundu- Miscellanea 91 szy i zarządzających, prezentują się zwykle bardzo korzystnie. W praktyce mogą one ukrywać wiele obciążeń, które zniekształcają wyniki testów historycznych, zawyżając stopy zwrotu i zaniżając ryzyko [Lhabitant 2008, s. 402–403]. Wśród tych obciążeń można wymienić przykładowo następujące: 11 Pretest bias. Reguły inwestycyjne, które stają się inspiracją dla systemów transakcyjnych, wynikają zwykle z obserwacji historii notowań i osobistych doświadczeń analityka. W sytuacji, gdy sformułowanie strategii odbywa się na skutek obserwacji notowań historycznych, jest wielce prawdopodobne, że system przetestowany na tych samych danych pokaże pozytywne rezultaty. Tymczasem fakt, że ceny charakteryzowały się akurat w obserwowanym okresie określonym wzorem, może być zbiegiem okoliczności. 11 Data mining (data snooping). W skrajnej formie analityk może przeglądać dziesiątki tysięcy reguł transakcyjnych i kalibrować je do danych rynkowych. Oczywiste jest, że w takiej sytuacji przynajmniej niektóre reguły wygenerują zyski, choć może to być dziełem zwykłego przypadku. Im więcej możliwości zostanie przetestowanych oraz im bardziej ekstensywna będzie kalibracja systemu, tym większe ryzyko przesadnego dopasowania do danych historycznych (overfitting). 11 Trading costs bias. Testując systemy transakcyjne, analitycy często przyjmują uproszczone założenia dotyczące kosztów transakcji, które ignorują np. spready pomiędzy ceną kupna i sprzedaży, wpływ płynności na rynku na koszty transakcji czy zmienną wielkość depozytów zabezpieczających. Może to zawyżyć znacząco zyski z systemu, w szczególności w przypadku strategii wymagających częstych transakcji i dotyczących silnie zmiennych lub mało płynnych rynków. 11 Slippage control. Wiele testów na danych historycznych dla uproszczenia przyjmuje, że transakcje są dokonywane po cenach zamknięcia. Nie jest to do końca prawdą, CTA muszą bowiem brać pod uwagę tzw. slippage costs, czyli różnicę pomiędzy ceną, przy jakiej zostanie złożone zlecenie, a ceną, po jakiej zostanie dokonana transakcja. Dotyczy to w szczególności zleceń rynkowych (czyli bez limitu ceny, market orders) oraz dużych funduszy, które składając zlecenia mogą wpływać na cenę. W praktyce należałoby przyjąć, że wysokość kosztów transakcyjnych jest wprost proporcjonalna do wielkości transakcji i wielkości aktywów pod zarządzaniem, a odwrotnie proporcjonalna do płynności na rynku. Interesujące rozważania na ten temat można znaleźć w pracach Perold i Salomon [1991], Korajczyk i Sadka [2004], Vangelisti [2006], Narang [2009, s. 67–78] oraz Serbin, Bull i Zhu [2009]. 11 Look ahead bias. Cześć systemów transakcyjnych w procesie walidacji opiera się na danych, które nie były jeszcze dostępne w momencie zawierania symulowanej transakcji, gdyż wprawdzie zostały opublikowane tego samego dnia, jednak dopiero po zamknięciu sesji. Opisane powyżej obciążenia mogą wpłynąć na powstanie nierzeczywistych wyników w procesie walidacji, które nie zostaną powtórzone w przyszłości. Dlatego też jest tak istotne, aby sprawdzić, czy system działa w różnych warunkach i w różnych okresach. Warto również pamiętać, że traderzy mają często naturalną tendencję do niedoszacowywania zmienności na rynku i przez to dostrzegania określonych wzorów i schematów tam, gdzie ich nie ma [Hirshleifer 2001]. Nawet jeżeli system transakcyjny został poprawnie zweryfikowany i przetestowane reguły wydają się dobrze rokować na przyszłość, należałoby wziąć jeszcze pod uwagę co najmniej dwie kwestie [Jaffarian 2009, s. 177]. Po pierwsze, należy się zastanowić, jak szybko inni inwestorzy są w stanie odkryć ten sam schemat rynkowy i zacząć go również wykorzystywać. Może to zwiększyć tempo, w jakim system transakcyjny będzie się stop- 92 Miscellanea niowo degradował w miarę upływu czasu. Po drugie, warto zauważyć, że większość systemów opiera się na wąskiej niszy rynkowej lub nieefektywności, która ma swoją pojemność. Po przekroczeniu określonego poziomu aktywów pod zarządzaniem, strategia może zacząć działać gorzej lub wręcz zupełnie przestać funkcjonować. Sławetną egzemplifikacją jest tu fundusz Amaranth, za którego wypadek była odpowiedzialna głównie skala zajętych przez niego pozycji [Gupta, Kazemi 2007; Till 2008]. 1.4. Konstrukcja portfela Wbrew pozorom większość CTA i funduszy kontraktów terminowych nie ogranicza się do jednego systemu transakcyjnego, ale stosuje wiele systemów transakcyjnych jednocześnie na wielu rynkach. Różnorodność systemów może polegać nie tylko na różnych horyzontach czasowych (systemy długoterminowe i krótkoterminowe), lecz także na różnych filozofiach inwestycyjnych (np. strategie niepodążania za trendem i podążania za trendem). W rezultacie zarządzający uzyskuje efekt dywersyfikacji między różnymi rynkami i różnymi strategiami, co pozwala zredukować ryzyko związane z pojedynczymi kontraktami. Zyski i straty z poszczególnych pozycji dzięki niskiej korelacji w dużej mierze uśredniają się na koniec każdej sesji [Till 2000]. Konstrukcja portfela odbywa się według pewnego zestawu reguł. Najprostsza reguła to portfel równoważony, gdzie na każdą pozycję jest przeznaczana równa wielkość kapitału. Wiąże się to z koniecznością okresowego rebalansowania, ponieważ notowania instrumentów bazowych będą rosły i spadały, zmieniając wartość zajętych pozycji. Bardziej zaawansowane podejście wykorzystuje pojęcie kapitału ryzyka (risk capital). Innymi słowy, udział pozycji w porfelu może zależeć także od jej zmienności. Zmienność pozycji może być też powiązana z położeniem zleceń stop-loss, które ograniczają maksymalną stratę. Wielkość zawieranych transakcji może również uwzględniać korelację nowej pozycji z dotychczasowym portfelem i jej wpływ na całkowite ryzyko [Lhabitant 2004, s. 315–319]. 1.5. Zarządzanie ryzykiem i dźwignią finansową Zarządzanie ryzykiem odbywa się na kilku płaszczyznach. Większość funduszy, wykorzystujących kilka strategii inwestycyjnych, kalkuluje kilka miar ryzyka dla poszczególnych strategii [Till, Eagleeye 2004, s. 285]: wartość narażona na ryzyko (VaR) według niedawnych zmienności i korelacji, największa strata w „typowych” warunkach, największa strata w określonych warunkach szczególnych, wkład do wartości narażonej na ryzyko całego portfela, wkład do straty portfela w warunkach szczególnych (event risk contribution). Bardzo ważne są dwie ostatnie miary, które wskazują, czy dana strategia inwestycyjna redukuje czy zwiększa ryzyko całego portfela. W ujęciu globalnym (całego portfela) ryzyko jest zwykle kalkulowane za pomocą następujących wskaźników: wartości narażonej na ryzyko (VaR) na podstawie niedawnych zmienności i korelacji, największej straty w „typowych” warunkach, największej straty w zdefiniowanych warunkach szczególnych. Każda z wspomnianych miar powinna być na bieżąco monitorowana i porównywana z limitem właściwym dla zdolności i skłonności do ryzyka ze strony inwestora. Na przykład, jeżeli inwestor nie może zaakceptować w żadnym momencie straty większej niż 10%, wówczas wszystkie trzy miary nie powinny przekraczać 10%. Kolejnym elementem monitorowania ryzyka jest zachowanie portfela w warunkach ekstremalnych, czyli stress testy. Till i Eagleeye [2004, s. 285] sugerują, że powinny one 93 Miscellanea obejmować przynajmniej następujące okresy: krach w październiku 1987 r., wojnę w Zatoce Perskiej w 1990 r., kryzys rosyjski w 1998 r. i atak na WTC we wrześniu 2001 r. Portfel, który zachowywał się kiepsko w powyższych okresach może nie być akceptowalny dla klientów, którzy szukają dywersyfikacji w inwestycjach alternatywnych. Trzecią kwestią, która jest szczególnie istotna w procesie zarządzania ryzykiem w branży managed futures, jest poziom dźwigni finansowej. Immanentną cechą kontraktów terminowych jest fakt, że wymagają one minimalnego zaangażowania kapitału w związku z niewielkimi wymogami depozytowymi. W rezultacie wielkość poszczególnych transakcji i pożądany udział poszczególnych klas aktywów jest wynikiem nie tyle ogólnej wielkości dostępnego kapitału, ile poziomu akceptowalnego ryzyka. Poziom przyjętej dźwigni finansowej jest elementem projektowania systemu transakcyjnego. Na rynku funkcjonują zarówno fundusze charakteryzujące się niewielkimi wahaniami, jak i takie, które potrafią przynosić w niektórych latach 40-procentowe straty, a w innych 100-procentowe zyski. Istotne jest, aby poziom dźwigni był dopasowany do oczekiwań inwestorów. Wiele funduszy proponuje klientom kilka wariantów jednakowego systemu transakcyjnego, ale z różnym poziomem dźwigni finansowej. Ponadto dźwignia finansowa jest o tyle ważna, że część badań wskazuje, iż bez jej wykorzystania zyski wypracowywane przez fundusze kontraktów terminowych są stosunkowo niskie. Dopiero znacząca dźwignia finansowa, która jest nawet wyższa niż w większości klas funduszy hedgingowych, tłumaczy wysokie stopy zwrotu [Till, Eagleeye 2004, s. 288]. Tabela 1 pokazuje stopy zwrotu z funduszy hedgingowych i funduszy kontraktów terminowych w latach 1997–2001 przed i po korekcie o poziom dźwigni finansowej. Tabela ujawnia kluczowy wpływ dźwigni na poziom wypracowanych wyników. Ta b e l a 1 Zlewarowane i odlewarowane stopy zwrotu z funduszy hedgingowych i funduszy kontraktów terminowych w latach 1997–2001 Strategia Średnia wylewarowana stopa zwrotu (%)* Średnia odlewarowana stopa zwrotu (%)* Short Biased 13,7 9,3 Global Macro 16,8 8,9 Emerging Markets 16,9 8,8 Event Driven 14,7 8,3 Merger Arbitrage 14,7 7,0 Long/Short Equity 14,0 6,3 Fixed Income 9,6 4,8 Convertible Arbitrage 10,6 4,2 Managed Futures 10,5 4,2 * Analiza dźwigni finansowej została wykonana za pomocą historycznych 5-letnich stóp zwrotu na podstawie informacji z baz danych Altvest, CSFB/Tremont, EACM, HFR, Institutional Inwestor i CMRA. Źródło: Till, Eagleye [2004, s. 288]. Znaczenie dźwigi finansowej dobrze oddają słowa B. Clendela z renomowanej firmy Campbell & Co. w USA, zawarte w wypowiedzi opublikowanej na łamach czasopisma „Risk Magazine” [Patel 2002]. B. Clendel jest jednym z pionierów funduszy kontraktów 94 Miscellanea terminowych w USA. Długoterminowa stopa zwrotu wypracowana przez fundusze Cambella w ciągu 31 lat wynosiła 17,6% po uwzględnieniu opłat. „Żaden rynek nie jest na tyle nieefektywny, aby jakakolwiek systematyczna strategia wygrywała przez tak długi czas i w takim stopniu. Nasza prawdziwa przewaga wynosi zaledwie około 4% w skali roku, ale dzięki 4- lub 5-krotnej dźwigni finansowej jesteśmy w stanie wygenerować bardziej atrakcyjne stopy zwrotu” – skomentował Clendel. 2. Teoretyczne podstawy analizy technicznej Analiza techniczna stanowił dość kontrowersyjną metodę analizy rynków finansowych [Irwin, Park 2007, 2008; Schneeweis, Kazemi, Spurgin 2008]. Istnieje ogromny rozdźwięk między dużą popularnością tej metody wśród praktyków rynkowych a sceptycyzmem społeczności akademickiej. Jako metoda badania rynków towarowych analiza techniczna ma bardzo długą historię. Na przykład „świece japońskie”, które wśród narzędzi zachodnich europejskich i amerykańskich inwestorów zagościły dopiero w latach 70. XX w., na Dalekim Wschodzie wykorzystywane były już 200 lat wcześniej [Nison 1996]. Obecnie na rynku księgarskim można spotkać dziesiątki książek poświeconych zastosowaniom analizy technicznej w systemach transakcyjnch (np. w przekładzie na j. polski [Lebeau, Lucas 1998; Bernsteinn 2002]) stosowanych na rynkach finansowych, a sama analiza techniczna cieszy się olbrzymią popularnością wśród inwestorów. Już w 1965 r., gdy w USA przeprowadzono pionierską ankietę wśród inwestorów indywidualnych na rynkach futures, okazało się, że 53% ankietowanych opierało się wyłącznie na analizie technicznej [Smidt 1965]. Nieco później, w 1985 r., The Group of Thirty [1985] zadała podobne pytanie instytucjonalnym uczestnikom rynku. W próbie złożonej z 40 banków i 15 domów maklerskich w 12 krajach aż 97% banków i 87% domów maklerskich uznało, że analiza techniczna ma znaczący wpływ na rynek. Metoda ta jest też popularna wśród dealerów giełdowych: według różnych badań kieruje się nią od 30% do 90% osób wykonujących ten zawód [Frankel, Froot 1990; Taylo, Allen 1992; Menkhoff 1997; Lui, Mole 1998; Cheung, Chinn, Marsh 2000]. Co więcej, analiza techniczna jest szczególnie ważna w branży CTA. Według Billingsley’a i Chance’a [1996] 60% wszystkich CTA w USA polega wyłącznie lub bardzo silnie na zautomatyzowanych, technicznych systemach transakcyjnych. W przeciwieństwie do inwestorów giełdowych, społeczność akademicka jest raczej wstrzemięźliwa w akceptacji analizy technicznej. Według Irwina i Parka [2008, s. 910] może to być związane z co najmniej dwiema kwestiami. Po pierwsze, z obficie cytowanymi kilkoma próbami weryfikacji analizy technicznej na rynku akcji, które zakończyły się odrzuceniem tezy o jej przydatności [Fama, Blume 1966; Van Horne, Parker 1967, 1968; Jensen, Benington 1970]. Po drugie, z szeroko akceptowaną hipotezą rynku efektywnego (Efficient Market Hypothesis – EMH). Zgodnie z EMH rynek jest efektywny, kiedy ceny zawsze w pełni odzwierciedlają wszystkie dostępne informacje [Fama 1970]. Jensen [1978] podzielił dodatkowo EMH ze względu na zakres informacji it brany pod uwagę na formę słabą, półsilną i silną: 1) forma słaba efektywności rynku oznacza, że zakres informacji it obejmuje wyłącznie historię cen na danym rynku do momentu t; 2) forma półsilna efektywności rynku oznacza, że zakres informacji it obejmuje wszystkie informacje publicznie dostępne w momencie t; 3) forma silna efektywności rynku oznacza, że zakres informacji it obejmuje wszystkie informacje publiczne i niepubliczne w momencie t. Miscellanea 95 Każdy kolejny zakres informacji zawiera w sobie poprzedni. Jednak warto zauważyć, że już gdy rynek jest efektywny w formie słabej, nie ma na nim miejsca na ponadprzeciętne zyski wypracowane dzięki analizie technicznej. Reasumując, warto zacytować Samuelsona [1965, s. 44], który na łamach jednej ze swoich prac stwierdził, że „(…) nie ma żadnego sposobu, żeby wypracować zysk, ekstrapolując przeszłe zmiany cen na rynkach futures, czytając wykresy lub korzystając z jakiegokolwiek innego ezoterycznego wynalazku magii matematyki. Notowania rynkowe odzwierciedlają same w sobie wszystko, co wiadomo o przyszłości, i w tym sensie dyskontują wszelkie przyszłe ewentualności, jakie tylko mogą ludziom przyjść do głowy.” Późniejsze modele rynków finansowych okazywały się zwykle łaskawsze dla analizy technicznej. W roku 1980 za sprawą słynnych publikacji Grossmana i Stiglitza [1976, 1980] sporą popularność zdobyły model szumu rynkowego (noisy rational expectations models). Autorzy ci zauważają charakterystyczny paradoks: jeżeli rynek jest efektywny, wówczas inwestorzy nie mają żadnej motywacji, aby gromadzić i przetwarzać nowe informacje, tym bardziej, że może się to wiązać ze znaczącymi kosztami. Mówiąc w uproszczeniu, część inwestorów może świadomie zdecydować się nie inwestować na podstawie informacji giełdowych, gdyż musieliby przeznaczyć na to własny czas i pieniądze, a skoro rynek jest efektywny, to nie odnieśliby z tego żadnej korzyści. W rezultacie, kiedy rynek jest w równowadze, część inwestorów to tzw. gracze nieracjonalni (noise traders), którzy nie kierują się informacjami rynkowymi. W sumie model Grossmana i Stiglitza dopuszcza nieefektywność rynku, gdyż nie wszystkim graczom opłaca się zbierać i analizować informacje. Nieefektywność może być tym wyższa, im wyższy jest koszt informacji. Wprawdzie w swojej najbardziej pierwotnej formie model szumu rynkowego nie dopuszcza analizy technicznej (Grossman i Stiglitz zakładają, że niedoinformowani inwestorzy mają racjonalne oczekiwania co do przyszłych cen), jednak lukę tę wypełniają późniejsze wariacje. Na przykład Blume, Easley i O’Hara [1994] dochodzą do wniosku, że informacje na temat „jakości” uczestników rynku może zawierać wolumen obrotu, który w połączeniu z obserwacją cen może zwiększyć skuteczność analizy technicznej. Kolejny typ modeli, które przychylniej spoglądają na analizę techniczną, to modele behawioralne. Typowy model behawioralny obejmuje zwykle dwie kategorie inwestorów: racjonalnych arbitrażystów, którzy kupują niedowartościowane i sprzedają przewartościowane instrumenty (sophisticated investors lub smart money traders), oraz inwestorów nieracjonalnych (noise traders) [Irwin, Park 2008]. Inwestorzy nieracjonalni opierają swoje decyzje na szumie rynkowym, jak gdyby był on wartościową informacją. Modele behawioralne są osadzone na dwóch podstawowych założeniach, które sprzyjają analizie technicznej. Z jednej strony, inwestorzy nieracjonalni kupują akcje, gdy ceny rosną, a sprzedają, gdy ceny spadają. Tym samym zwiększają w kluczowych momentach popyt bądź podaż i powodują powstawanie trendów. Z drugiej strony, inwestorzy racjonalni ze względu na wiele ograniczeń arbitrażu, nie zawsze mają wolę i możliwość przywrócić ceny do stanu fundamentalnej równowagi [Schleifer 1997]. Omawiając modele behawioralne, warto także wspomnieć pracę Kahnemana i Tverskiego [1974]. Para naukowców z uniwersytetu w Tel Avivie wskazuje, że na rynkach finansowych może funkcjonować efekt kotwiczenia (anchoring), zgodnie z którym inwestorzy zbyt silnie przywiązują się do bieżących cen rynkowych. W rezultacie gdy na rynek wpływa nowa informacja, ceny nie dyskontują jej natychmiast, tylko zmieniają się stopniowo, gdyż inwestorzy są zbyt silnie „zakotwiczeni” na cenach historycznych. Na możliwość powstawania trendów na skutek niepoprawnego przyswajania informacji wskazują również prace Shefrina i Statmana [1985]. Zauważają oni, że po spadku cen 96 Miscellanea inwestorzy nie są skłonni do sprzedaży posiadanego aktywu, aby nie „spieniężyć” straty, a jednocześnie po wzroście ceny gracze giełdowi są chętni do sprzedaży, aby zmaterializować zyski. W rezultacie po złych informacjach podaż na rynku może nie być dostateczna, aby doprowadzić ceny do nowej, niższej wartości godziwej, a po informacjach dobrych podaż będzie wręcz za duża, hamując wzrosty. W konsekwencji, i w jednym, i w drugim przypadku, powstają przesłanki, aby natychmiastowy skok cen został zastąpiony stopniową zmianą, czyli trendem. Ostatecznie należy również zwrócić uwagę na takie zjawiska, jak myślenie potwierdzeniowe i heurystyka reprezentatywności, które mogą sprawić, że inwestorzy, obserwując niedawne historyczne wzrosty cen, będą niesłusznie spodziewali się podobnych w najbliższej przyszłości [Wason 1960; Kahneman, Tversky 1974]. Modele stadne [Froot, Scharfstein, Stein 1992] wskazują, że racjonalni inwestorzy, którzy zauważą, że dany instrument jest niedowartościowany i zdecydują się na jego zakup, mogą na tej transakcji zarobić tylko wówczas, gdy później inni inwestorzy wygenerują dostateczny popyt, aby cena wróciła do stanu równowagi. Powstałe w ten sposób „efekty stadne” mogą być na tyle silne, że część inwestorów może próbować zarabiać, analizując wyłącznie zachowania cen, które nie są bezpośrednio związane z wartością wewnętrzną spółki. Dodatkowo, działając stadnie, inwestorzy techniczni mogą samodzielnie „popychać” ceny w oczekiwanym przez siebie kierunku, tworząc ze swoich oczekiwań samospełniającą się przepowiednię. Do efektów stadnych nawiązują również De Long i in. [1990], a także Bikhchandani, Hirshleifer i Welch [1992], którzy zauważają, że gdy ceny rosną, część inwestorów może pragnąć „przyłączyć się do pociągu, zanim ucieknie”. Zachowania takie zauważono również u uczestników funduszy inwestycyjnych, którzy mają tendencję do przenoszenia środków z kiepsko zachowujących się funduszy do radzących sobie lepiej. Następny zespół modeli związany jest z mikrostrukturą rynku. Przykładem mogą być strumienie zleceń (order flows) [Osler 2003]. Zlecenia typu stop-loss oraz take-profit koncentrują się zwykle w okolicach giełdowych dołków lub szczytów, a także okrągłych liczb. W rezultacie ich jednoczesna aktywacja może spowodować znaczący wzrost lub spadek ceny, co może stanowić uzasadnienie dla funkcjonowania np. krótkoterminowych systemów wybicia z zakresu. Niektórzy autorzy wskazują także, że za powstawanie trendów mogą być odpowiedzialne różnego rodzaju instytucje. Na przykład Silber [1994] obarcza po części winą banki centralne, które koncentrując się na swoich własnych celach, mogą czasami nie pozwalać na natychmiastowe i pełne zdyskontowanie informacji fundamentalnych na rynkach walutowych i w ten sposób doprowadzać do powstawania trendów. Z kolei Garleanu i Pedersen [2007] jednej z przyczyn powstawania trendów pozwala upatrywać we współczesnych metodach zarządzania ryzykiem. Na przykład VaR jest obliczany zwykle za pomocą historycznych notowań, w związku z czym, jeżeli nastąpią na rynku gwałtowne spadki cen wybranych instrumentów, instytucja finansowa posiadająca określony budżet ryzyka może być zmuszona sprzedać część analizowanych aktywów. Na skutek tego ceny mogą spaść jeszcze dalej, powodując powstanie trendu na rynku. Istnieje wiele innych teorii objaśniajacych funkcjonowanie rynków finansowych, które nie zdobyły jednak tak szerokiej popularności jak opisane powyżej. Można tu wymienić np. teorię chaosu [Clyde, Osler 1997] czy hipotezy premii za ryzyko dla analityków technicznych [Irwin, Park 2008, s. 940]. Część autorów jest wreszcie zdania, że skuteczność analizy technicznej może wynikać z okresowych nieefektywności rynku. W miarę jednak jak są one odkrywane i wykorzystywane przez uczestników rynku, zalety analizy technicznej stopniowo zanikają [Marquering, Nisser, Valla 2006]. Miscellanea 97 Przedstawione teorie upatrują źródeł skuteczności analizy technicznej w różnych kwestiach. Co warto zauważyć, przynajmniej część z nich może sugerować zanik lub spadek przydatności wspomnianej metody analizy w ostatnim czasie. Po pierwsze, w ostatnich kilkudziesięciu latach wyraźnie spadły koszty transakcyjne na rynkach finansowych. Po drugie, znacząco wzrosła dostępność danych rynkowych, a także łatwość i szybkość ich przetwarzania. Po trzecie, nastąpiła profesjonalizacja rynku i inwestorów. W latach 50. ubiegłego wieku niemal 90% wszystkich akcji notowanych na rynku amerykańskich było w posiadaniu inwestorów indywidualnych. Tymczasem w 2010 r. odsetek ten skurczył się do niecałych 30%, a prym przejęły fachowe instytucje finansowe [Authers 2010, s. 10]. Po czwarte, wzrosła rola funduszy kontraktów terminowych, których aktywa pod zarządzaniem zwiększyły się z 0,3 mld USD w 1980 r., do 247,8 mld USD w 2010 r. [BarclayHedge Alternative Investments Database]. Po piąte wreszcie, zmniejszyła się zmienność rynków finansowych, co według niektórych autorów jest również nie bez znaczenia [Kidd, Brorsen 2004], gdyż fundusze kontraktów terminowych są określane jako strategie długiej zmienności [Jaffarian 2009]. W rezultacie funkcjonujące teorie i modele rynków finansowych dostarczają przesłanek przemawiających za spadkiem skuteczności analizy technicznej. 3. Badania empiryczne nad analizą techniczną Spore kontrowersje i rozbieżności w ocenach analizy technicznej przez naukowców i praktyków miały jednak ten błogosławiony skutek, że zaowocowały mnóstwem badań, których celem było poznanie prawdy o skuteczności analizy technicznej. Analizy te dzieli się zwykle na dwa okresy: badania wczesne i badania współczesne. Obie kategorie różnią się przede wszystkim metodologią, która z obecnego punktu widzenia we wcześniejszym okresie mogła budzić wiele wątpliwości. Dokładna granica pierwszego okresu jest mglista, jednak za datę demarkacyjną wskazuje się zwykle rok 1988, kiedy to zostało opublikowane badanie Lukaca, Broersena i Irwina [1988]. Badanie to jako pierwsze zawierało szereg udoskonaleń metodologicznych, które korygowały kluczowe wady badań z okresu wczesnego. Zdecydowana większość przeprowadzonych analiz koncentruje się na automatycznych systemach transakcyjnych opartych na modelach podążania za trendem i odwrócenia trendu. Do rzadkości należą prace badające zdolności prognostyczne formacji giełdowych, choć i takie można znaleźć [Chang, Osler 1999; Osler 2000; Lo, Mamaysky, Wang 2000]. Pierwszym szeroko komentowanym opracowaniem dotyczącym skuteczności systemów transakcyjnych jest tekst z 1960 r. autorstwa Donchiana [1960], który do dziś uważany jest za ojca i guru systemów transakcyjnych [Covel 2009b, s. 85–89]. Donchian wziął pod lupę skuteczność systemu wybicia z zakresu, gdzie owy zakres był wyznaczany przez minimalne i maksymalne ceny z ostatnich dwóch tygodni. System ten przeanalizował na przykładzie notowań kontraktów terminowych na miedź w latach 1959–1960, zakładając koszty transakcyjne w kwocie 5,50 USD za kontrakt. System wygenerował zyski netto na 1000 USD depozytu zabezpieczającego na poziomie 3488 USD dla kontraktów wygasających w grudniu 1959 r. i 1390 USD dla kontraktów wygasających rok później. Badanie Donchiana trudno uznać za wyrafinowane pod względem metodologicznym, jednak dało ono impuls dla rozkwitu podobnych analiz. Do końca „okresu wczesnego” w 1988 r. powstało przeszło 40 prac weryfikujących skuteczność systemów średnich ruchomych oscylatorów, wybić z zakresu, a także różnego rodzaju filtrów i stop-lossów. 98 Miscellanea Za reprezentatywne dla okresu wczesnego można uznać badanie badanie Stevensona i Beara z 1970 r. [Irwin, Park 2008, s. 918]. Badacze przeanalizowali trzy systemy transakcyjne: filtry Alexandra, zlecenia „stop-loss” oraz kombinacje obu strategii. Filtry Alexandra [1961, s. 7–26] to prosta reguła, która nakazuje kupno instrumentu, gdy jego cena wzrośnie o ustalone x% od dołka, a sprzedaż, gdy spadnie o x% od szczytu. Z kolei zlecenia „stop-loss”, za których pomysłodawcę uznaje się Houthakkera [1961], nakazują zamknięcie otwartej pozycji, gdy cena zmieni się o określoną wielkość w kierunku przeciwnym od oczekiwań inwestora. Stevenson i Bear przetestowali filtry i stop‑lossy na poziomach 1,5%, 3% i 5% przy założeniu kosztów transakcyjnych w wysokości 0,5 centa na buszel. Analizowano rynki kukurydzy i soi w latach 1957–1968. Badanie przyniosło mieszane wyniki przy różnych kombinacjach, niemniej jednak systemy oparte na filtrach generowały wyższe zyski lub mniejsze straty niż odpowiadające im strategie typu „kup i trzymaj”. Najlepiej sprawdzały się systemy obejmujące 5-procentowe filtry. Analiza Stevensona i Beara dała zbliżone wyniki do badań Sweeny’ego [1986], który uznał że dla 10 kursów walutowych filtry generowały istotne statystycznie dodatnie zyski. Odwrotne wyniki z kolei uzyskali Fama i Blume [1966], którzy po przetestowaniu 30 różnych rynków akcji zauważyli, że systemy oparte na filtrach nie były w stanie wypracować lepszych wyników niż strategie „kup i trzymaj”. Ogólnie rzecz biorąc, wczesne badania wskazywały na większą efektywność rynków akcji niż kontraktów terminowych, gdyż nie przynosiły wiele dowodów na skuteczność analizy technicznej na tych pierwszych [Van Horne, Parker 1967; Jensen, Benington 1970], a sugerowały przydatność licznych systemów transakcyjnych na rynkach walutowych i surowcowych [Poole 1967; Cornell, Dietrich 1978; Irwin, Uhrig 1984]. Wczesne badania nad analizą techniczną miały wiele wad (por. Irwin, Park [2007]). Po pierwsze, w większości przypadków analizowano tylko jeden lub dwa systemy transakcyjne, które były popularne w danym czasie. Rodziło to duże ryzyko wystąpienia problemów typu pretest bias i data mining, opisanych we wcześniejszej części artykułu. Po drugie, niemal w żadnym wypadku nie brano po uwagę ryzyka systemów transakcyjnych, a jedynie zyski. Po trzecie, przeważająca większość badań nie zawierała formalnych testów statystycznych opartych na statystykach t lub Z. Nawet jeżeli je zawierały, to ich wartość poznawcza była ograniczona ze względu na wspomniane wcześniej ograniczenia [Lovell 1983; Denton 1985]. Po czwarte, wątpliwość mogą budzić procedury optymalizacyjne. Większość badań nie przyjmowała a priori jednego parametru do badania, tylko poszukiwała najbardziej optymalnego i zakładała, że będzie się on również sprawdzał się w przyszłości. Po piąte, badania korzystały z różnych punktów odniesienia, brak było jednak jednoznacznego konsensusu co do tego, jakiego wzoru należy używać. Po szóste, cześć badań jest trudna do interpretacji, gdyż prezentowała wyniki jako średnią ze wszystkich przeanalizowanych filtrów i reguł, a nie jako rezultaty dla poszczególnych strategii i rynków. Późniejsze badania w dużej mierze skorygowały wcześniejsze błędy. Dzięki rozwojowi mocy obliczeniowych możliwa była analiza znacznie większych zakresów rynków i strategii, a z drugiej strony wykorzystano nowocześniejsze metody badawcze, jak programowanie genetyczne czy bootstraping. Współczesne studia nad analizą techniczną otwiera praca Lukaca, Broersena i Irwina [1988], którzy przebadali 12 systemów transakcyjnych na rynkach surowcowych i finansowych kontraktów terminowych w latach 1975–1984. Systemy te obejmowały kanały cenowe, średnie ruchome, oscylatory, filtry i stop-lossy, a także kombinacje powyższych strategii. Autorzy wzięli pod uwagę koszty transakcyjne w wysokości od 50 do 100 USD na kontrakt. Parametry każdego z systemów były optymalizowane przez 3 lata, a następnie system składający się z najlepszych parametrów był testowany na danych z kolejnego roku. W efekcie systemy same się kalibrowały i były 99 Miscellanea weryfikowane na podstawie danych spoza badanej próby. Następnie autorzy przeprowadzili trzy testy statystyczne: dwustronny test t, w celu zweryfikowania, czy stopy zwrotu brutto są różne od zera, jednostronny test t w celu sprawdzenia, czy stopy zwrotu netto są wyższe od zera, a także obliczono alfę Jensena w celu zbadania, czy system generuje ponadprzeciętne stopy zwrotu z punktu widzenia modelu CAPM. Test t można uznać za właściwy ze względu na fakt, że przeprowadzone przez badaczy formalne testy nie pozwoliły odrzucić hipotezy o normalności rozkładu stóp zwrotu z wybranej strategii. Wyniki pokazały, że 7 z 12 systemów mogło pochwalić się istotnymi statycznie stopami zwrotu brutto, a z tego 4 wykazały dodatnie zyski netto odpowiadające średniorocznym stopom zwrotu od 3,8% do 5,6%. Odpowiadająca im strategia benchmarkowa wypracowała w tym samym czasie stratę w wysokości –2,31%. rocznie. Powyższe systemy okazały się również zyskowne po skorygowaniu o ryzyko, gdyż charakteryzowały się istotną statystycznie wartością alfy Jensena. Badanie Lukaca, Broersena i Irwina w dużej mierze potwierdzało skuteczność analizy technicznej na rynkach finansowych. Wzrost mocy obliczeniowej komputerów w latach 90. i na początku XXI w. pozwolił na jeszcze większe poszerzenie zakresu badań. Dla przykładu warto przytoczyć analizę Robertsa z 2005 r. Roberts wykorzystał dość skomplikowany algorytm genetyczny, aby uniknąć zarzutów o pretest bias i data mining. W pierwszym kroku autor wykorzystywał 20 000 losowych reguł inwestycyjnych, które następnie w toku 20-krotnych optymalizacji przechodziły przez dwuletni okres treningu i dwuletni okres selekcji (1980–83), a następnie były testowane na danych z okresu 1984–2000. Kryterium optymalizacji stanowiły zysk netto (po odjęciu kosztów transakcyjnych). Wyniki uzyskane przez Robertsa nie niosą wiele wsparcia dla zwolenników analizy technicznej. Wprawdzie na 24 testowane rynki w próbce out-of-sample aż na 15 udało się wypracować zyski, jednak zaledwie w dwóch przypadkach były one istotnie wyższe od 0. Ogólnie rzecz biorąc, duża część badań wykonanych po 1988 r. wydaje się potwierdzać skuteczność analizy technicznej, przynajmniej w okresach historycznych. Interesujące podsumowanie można znaleźć w prac Irwin i Park [2007], którzy dokonali przeglądu 92 badań nad analizą techniczną z lat 1988–2004. Syntezę zawiera tabela 2. Ta b e l a 2 Skuteczność analizy technicznej w świetle dotychczasowych badań Liczba badań/wynik Pozytywny Mieszany Razem Zyskowność netto Okres badań Negatywny Rynki akcji % 26 60% 5 12% 12 28% 43 1,10% 1968–88 Rynki walutowe % 25 66% 4 11% 9 24% 38 5–10% 1976–91 Rynki futures % 7 64% 1 9% 3 27% 11 4–6% 1976–86 Razem % 58 63% 10 11% 24 26% 92 Źródło: Opracowanie własne na podstawie Irwin, Park [2007]. Większość badań wziętych pod uwagę przesz Irwina i Parka zdaje się potwierdzać całkowicie lub częściowo skuteczność analizy technicznej. Najwyższe historycznie zyski 100 Miscellanea pozwalała ona generować na rynkach walutowych i surowcowych (kategoria futures obejmuje głównie rynki surowcowe) – średniorocznie odpowiednio 5–10% i 4–6%. Mniejsza była przydatność analizy technicznej na rynkach akcji. Co ciekawe, interesujące wzorce ukazują się, gdy przyjrzymy się zmianom skuteczności analizy technicznej w czasie. Sytuacja wygląda podobnie na większości rynków, choć pewnym wyjątkiem są rynki surowców. Dotychczasowe badania amerykańskiego rynku akcji wskazują, że dzięki wykorzystaniu analizy technicznej można było dobrze zarobić do końca lat 80. XX w., jednak w okresie późniejszym nie okazywała się ona już tak skuteczna [Bessembinder, Chan 1998, s. 5–17; Sullivan, Timmermann, White 1999; Ready 2002]. Przykładem niech będzie praca Sullivana, Timmermana i White’a [1999], którzy uznali, że krótkoterminowe systemy średnich ruchomych generowały zaledwie 2,8-procentowy średnioroczny zysk w latach 1987–96, który był na dodatek nieistotny statystycznie. Dodatkowo część badaczy bardziej wnikliwie przeanalizowała źródła zysku w strategiach terminowych. Lesmond, Schill i Zhou zauważyli, że zyskowność ze strategii opartych na momentum jest najwyższa dla spółek, dla których najwyższe są również koszty transakcyjne. Z kolei Hwang i Rubesam [2007] doszli do wniosku, że efekt momentum na rynkach akcji po 2000 r. zupełnie przestał istnieć. Spadek zyskowności strategii technicznych może być związany ze wzrostem efektywności rynku. Za takim tłumaczeniem przemawiałby także fakt, że na mniej efektywnych rynkach wschodzących strategie techniczne okazywały się zyskowne również po 1990 r. [Ito 1999; Ratner, Leal 1999]. W odniesieniu do rynków walutowych wydaje się, że okres skuteczności analizy technicznej był dłuższy [Silber 1994; Taylor 1994; Szakmary, Mathur 1997], jednak z czasem i tam zaczęła ona słabnąć, co zauważają Neely i Weller [2001] oraz Olson [2004]. Ten ostatni np. przebadał za pomocą systemów średnich kroczących 18 pojedynczych par walutowych oraz równoważony portfel złożony z tychże walut. Dla portfela średnioroczne korygowane o ryzyko stopy zwrotu spadły z około 3% w latach 70. i 80. do około zera pod koniec lat 90. Tendencję tę w późniejszych latach potwierdzają Levich i Pojarliew [2008] w swoim badaniu dotyczącym skuteczności profesjonalnego zarządzania na rynku walutowym. W opinii autorów zyskowność strategii opartych na modelu podążania za trendem znacząco spadła po 2000 r. i w latach 2001–2006 stopa zwrotu z tak interpretowanego czynnika ryzyka wyniosła zaledwie 0,05% w skali miesiąca. W opinii autora kurczące się zyski z rynków walutowych można również zinterpretować jako wzrost ich efektywności informacyjnej. Najbardziej obiecująco wyglądają rynki surowcowe, czego dowodzi chociażby wspomniane wcześniej badanie Lukaca, Broersena i Irwina. Zauważają to również Schneeweis, Kazemi i Spurgin [2008]. Co ciekawe, na rynkach surowcowych nawet najprostsze warianty analizy technicznej oparte na efecie momentum są ciągle skuteczne [Pirrong 2005]. Erb i Harvey [2006] analizują efekt momentum w odniesieniu do indeksu GSCI w latach 1969–2004. Badacze ci weryfikują banalnie prostą metodę, polegającą na otwieraniu pozycji długiej w kontraktach futures na indeks w miesiącu następującym po miesiącu, kiedy nastąpiły wzrosty, a pozycji krótkiej po miesiącu spadkowym. Średnioroczna stopa zwrotu z zajmowania pozycji długich w latach 1969–92 wyniosła 17,49%, natomiast pozycji krótkich – 9,89%. W okresie późniejszym zyski wprawdzie spadły, ale wciąż były znaczące. Wynosiły 11,34% i 4,07% odpowiednio dla pozycji długich i krótkich. Z kolei w badaniu Gorton, Hayashi i Rouwenhorst [2007] zyski ze strategii momentum opartej na kupowaniu surowców, które przez ostatnie 12 miesięcy wypracowały wysokie stopy zwrotu, a sprzedawaniu tych, które wypracowały niskie zwroty, przyniosła wręcz większe zyski w okresie 1990–2006 (15,36%) aniżeli w pełnym okresie badania 1969–2006 Miscellanea 101 (13,36%). Wszystkie stopy zwrotu okazały się statystycznie wyższe od zera. Kończąc komentarz do dotychczasowych badań prowadzonych na rynkach surowców, warto jeszcze wspomnieć pracę Miffre i Rallis [2007]. Autorzy dokumentują wyniki strategii momentum w odniesieniu do 31 surowcowych kontraktów futures w latach 1979–2004, która polegała na systematycznym kupowaniu kontraktów najsilniej rosnących i sprzedawaniu kontraktów najbardziej spadających we wcześniejszym okresie. Rozważane jest 16 wariantów strategii, w których okresy obserwacji historycznych stóp zwrotu i rotacji konstrukcji portfela wahają się od 1 do 12 miesięcy. Uzyskane wyniki pozwalają stwierdzić, że strategia momentum charakteryzowała się wskaźnikami średniorocznej stopy zwrotu do odchylenie standardowego na poziomie przeciętnie 0,5. Wskaźniki te utrzymywały się na stabilnym poziomie w każdym z kolejnych pięciu pięcioletnich podokresów z lat 1979–2004. Względna stabilność zysków osiąganych przy użyciu strategii technicznych nie powinna być jednak źródłem przesadnego optymizmu co do przyszłych stóp zwrotu z funduszy managed futures co najmniej z dwóch powodów. Po pierwsze, surowce są postrzegane na rynku kontraktów terminowych jako stosunkowo młoda klasa aktywów, za której symboliczne narodziny uważa się 2004 r., kiedy to ujrzała światło dzienne przełomowa praca Gortona i Rouwenhorsta [Rogers 2004, s. 211; Authers 2010, s. 104]. W związku z tym prawdziwy wzrost ich efektywności informacyjnej, a w rezultacie spadek użyteczności strategii technicznych, powinien przypadać na drugą połowę obecnej dekady. Na chwilę obecną brak jest szczegółowych badań analizujących skuteczność analizy technicznej w tym okresie. Po drugie, w miarę rozwoju rynku kontraktów finansowych futures, stopniowo malało znaczenie surowców w portfelach CTA. W latach 60. i 70. byli oni aktywni niemal wyłącznie na rynkach towarowych. Obecnie kontrakty terminowe oparte na surowcach stanowią jedynie niewielki odsetek portfela. Na przykład według statystyk BarclayHedge na koniec III kwartału 2010 r., zaledwie 0,5% wszystkich funduszy managed futures deklarowało się jako zorientowane wyłącznie na rynki rolne. To niemal 30-krotnie mniej niż w przypadku rynków walutowych. Wprawdzie największą kategorię zadeklarowaną przez podmioty z branży managed futures stanowiły fundusze zdywersyfikowane (132,6 mld USD), jednak również trudno sądzić, aby w ich portfelach przeważały rynki towarowe. Autor tego artykułu nie posiada niestety twardych danych pozwalających potwierdzić to przypuszczenie, jednak mogą na to wskazywać dwa czynniki. Z jednej strony, udział towarów jako instrumentów bazowych światowych rynków instrumentów pochodnych jest stosunkowo niewielki. W roku 2008 surowce stanowiły tylko około 10% rynków kontraktów futures i opcji notowanych na giełdach [Burghardt, Acworth 2009, s. 17]. W takich warunkach trudno też oczekiwać, aby dominowały one w portfelach inwestorów na rynkach kontraktów terminowych. Z drugiej strony, ukazujące się pojedyncze raporty na temat składu portfeli funduszy managed futures funkcjonujących na rynku zdają się sugerować raczej niewielką rolę kontraktów surowcowych w ich portfelach. Przykładem może być MAN AHL oferowany w Polsce przez fundusz Skarbiec Alternatywny, który na dzień 25 października 2010 r. posiadał ponad 70% portfela w finansowych i akcyjnych kontraktach futures [Skarbiec TFI S.A.]. Podsumowując rozważania na temat technicznych strategii transakcyjnych, dotychczasowa literatura w dużej mierze potwierdza ich skuteczność na różnych rynkach do końca lat 80. lub 90. W późniejszym okresie, zdolność analizy technicznej jako narzędzia do generowania ponadprzeciętnych zysków znacząco się skurczyła lub zupełnie zanikła. W szczególności dotyczy to rynków akcji i walut. Wyjątkiem od tej reguły okazały się póki co wybrane wschodzące rynki akcji oraz surowce. Niemniej jednak, z jednej strony rynki towarowe odgrywają obecnie drugorzędną rolę w portfelach managed futures (nie 102 Miscellanea wspominając już o rynkach wschodzących, które są właściwie nieobecne), z drugiej zaś istnieją przesłanki, aby przypuszczać, że także w odniesieniu do surowców skuteczność analizy technicznej może zanikać. Podsumowanie Celem niniejszego artykułu było zweryfikowanie, czy u źródeł malejącej zyskowności funduszy kontraktów terminowych może leżeć spadek skuteczności wykorzystywanych przez nie strategii inwestycyjnych. Większość branży managed futures podejmuje swoje decyzje przy użyciu automatycznych systemów transakcyjnych opartych na analizie technicznej. Skuteczność tej metody badania rynku nie jest wprawdzie zgodna z popularną koncepcją rynku efektywnego, jednak może być usankcjonowana przez nowsze teorie, np. teorię szumu rynkowego, teorie behawioralne, teorie chaosu czy różnych aspektów mikrostruktury rynku. Wydaje się, że na gruncie opisanych teorii zmiany, jakie dokonały się na rynkach finansowych w ciągu ostatnich kilkudziesięciu lat, mogą tłumaczyć spadek skuteczności analizy technicznej. Mowa tu przede wszystkim o spadku kosztów transakcyjnych, większej dostępności informacji, a także łatwości i szybkości ich przetwarzania, profesjonalizacji rynku czy wzroście znaczenia funduszy kontraktów terminowych. Spadek skuteczności strategii technicznych znajduje również potwierdzenie w badaniach empirycznych z ostatnich 50 lat. Przydatność analizy technicznej wydaje się znacząco spadać lub niemal zanikać na rynkach akcji na początku lat 90., a niedługo później również na rynkach walutowych. Wyjątkiem póki co są rynki surowcowe, które jednak odgrywają obecnie drugorzędną rolę w portfelach CTA. Podsumowując, przeprowadzone rozważania oraz przegląd literatury wydają się potwierdzać, że źródłem pogarszających się wyników funduszy kontraktów terminowych jest spadek skuteczności strategii technicznych. Niniejszy artykuł należy traktować jako przyczynek do dalszych badań na temat skuteczności strategii managed futures. Przyszłe analizy powinny skoncentrować się m.in. na dalszym poszukiwaniu przyczyn pogarszania się jakości analizy technicznej, weryfikacji, czy zmiany te mają charakter tymczasowy czy trwały, a także na badaniu skuteczności analizy technicznej w najnowszej historii rynków surowcowych. Tekst wpłynął 29 grudnia 2010 r. Bibliografia Alexander S.S., Price Movements in Speculative Markets: Trends or Random Walks, „Institutional Management Review”, 1961, nr 2. Authers J., The Fearful Rise of Markets: Global Bubbles, Synchronized Meltdowns, and How to Prevent Them in the Future, FT Press, N.J. 2010. BarclayHedge Alternative Investments Database, http://www.barclayhedge.com (27.12.2010). Bernstein J., Inwestor jednosesyjny. Day trading: systemy inwestycyjne, strategie, wskaźniki i metody analityczne, Oficyna Ekonomiczna, Wolters Kluwer Polska sp. z o.o., Warszawa 2002. Bessembinder H., Chan K., Market Efficiency and the Returns to Technical Analysis, „Financial Management” 1998, nr 27. Bikhchandani S., Hirshleifer D., Welch I., A Theory of Fads, Fashion, Custom, and Cultural Change as Informational Cascades, „Journal of Political Economy” 1992, t. 100, nr 5. Billingsley R.S., Chance D.M., Benefits and Limitations of Diversification among Commodity Trading Advisors, „Journal of Portfolio Management” 1996, nr 1. Miscellanea 103 Black F., Noise, „Journal of Finance” 1986, t. 41. Blume L., Easley D., O’Hara M., Market Statistics and Technical Analysis: The Role of Volume, „Journal of Finance” 1994, t. 49. Burghardt G., Acworth W., 2008: A Wild Ride, „Futures Industry Magazine” 2009, March/April. Center for International Securities and Derivatives Markets (CISDM), The Benefits of Managed Futures: 2006 Update, Isenberg School of Management, University of Massachusetts, Boston 2006. Chang P.H.K., Osler C.L., Methodical Madness: Technical Analysis and the Irrationality of Exchange-Rate Forecasts, „Economic Journal” 1999, t. 109. Cheung Y.W., Chinn M.D., Marsh I.W., How Do UK-Based Foreign Exchange Dealers Think Their Market Operates? „NBER Working Paper” 2000, nr 7524. Clyde W.C., Osler C.L., Charting: Chaos Theory in Disguise? „Journal of Futures Markets” 1997, t. 17. Cornell W.B., Dietrich J.K., The Efficiency of the Market for Foreign Exchange under Floating Exchange Rates, „Review of Economics and Statistics” 1978, t. 60. Covel M.W., Trend Following (Updated Edition): Learn to Make Millions in Up or Down Markets, FT Press, N.J. 2009. De Long J.B., Shleifer A., Summers L.H., Waldmann R.J, Positive Feedback Investment Strategies and Destabilizing Rational Speculation, „The Journal of Finance” 1990, t. 45, nr 2. Denton F.T., Data Mining as an Industry, „Review of Economics and Statistics” 1985, t. 67. Donchian R.D., High Finance in Copper, „Financial Analysts Journal” 1960. Erb C., Harvey C., The Strategic and Tactical Value of Commodity Futures, „Financial Analysts Journal” 2006, t. 62. Fama E.F., Blume M.E., Filter Rules and Stock Market Trading, „Journal of Business” 1966, nr 1. Fama E.F., Efficient Capital Markets: A Review of Theory and Empirical Work, „Journal of Finance” 1970, nr 2. Frankel J.A., Froot K.A., Chartist, Fundamentalists, and Trading in the Foreign Exchange Market, „American Economic Review” 1990, t. 80. Froot K.A., Scharfstein D.S., Stein J.C., Herd on the Street: Informational Inefficiencies in a Market with Short-Term Speculation, „Journal of Finance” 1992, t. 47. Fung W., Hsieh D.A., The Information Content of Performance Track Records: Investment Style and Survivorship Bias in the Historical Performance of Commodity Trading Advisors, „Journal of Portfolio Management” 1997, nr 1. Garleanu N., Pedersen L.H., Liquidity and Risk Management, „The American Economic Review 97”, 2007. Gorton G.B., Hayashi F., Rouwenhorst K.G., The Fundamentals of Commodity Futures Returns, Working Paper 2008, http://papers.ssrn.com/sol3/papers.cfm?abstract_id=996930 (13.02.2011). Gorton G.B., Rouwenhorst K.G., Facts and Fantasies about Commodity Futures, „Financial Analysts Journal” 2006, nr 2. Grossman S.J., Stiglitz J.E., Information and Competitive Price Systems, „American Economic Review” 1976, t. 66. Grossman S.J., Stiglitz J.E., On the Impossibility of Informationally Efficient Markets, „American Economic Review” 1980, t. 70. Group of Thirty, The Foreign Exchange Market in the 1980s, New York 1985. Gupta R., Kazemi H., Factor Exposures and Hedge Fund Operational Risk: The Case of Amaranth, CISDM Working Paper 2009, http://papers.ssrn.com/sol3/papers.cfm?abstract_id=1509769 (13.02.2011). Hirshleifer D.A., Investor Psychology and Asset Pricing, „Journal of Finance” 2001, nr 4. Houthakker H.S., Systematic and Random Elements in Short-Term Price Movements, „American Economic Review”, 1961, t. 51. Hwang S., Rubesam A., The Disappearance of Momentum, Working Paper 2007, http://papers.ssrn. com/sol3/papers.cfm?abstract_id=968176 (13.02.2011). Irwin S.H., Park C.H., The Profitability of Technical Analysis in Commodity Markets, w: The Handbook of Commodity Investing, red. F.J. Fabozzi, R. Fuss, D.G. Kaiser, John Wiley & Sons Inc., Hoboken, N.J. 2008. 104 Miscellanea Irwin S.H., Park C.H., What Do We Know About the Profitability of Technical Analysis? „Journal of Economic Surveys” 2007, nr 4. Irwin S.H., Uhrig J.W., Do Technical Analysts Have Holes in Their Shoes? „Review of Research in Futures Markets” 1984, nr 3. Ito A., Profits on Technical Trading Rules and Time-Varying Expected Returns: Evidence from Pacific-Basin Equity Markets, „Pacific-Basin Finance Journal” 1999, nr 3–4. Jaffarian E., Managed Futures, w: CAIA Level II. Advanced Core Topics In Alternative Investments, red. Ch. Wilkens, John Wiley & Sons Inc., Hoboken, N.J. 2009. Jensen M.C., Benington G.A., Random Walks and Technical Theories: Some Additional Evidence, „Journal of Finance” 1992, nr 2. Jensen M.C., Some Anomalous Evidence Regarding Market Efficiency, „Journal of Financial Economics” 1978, nr 2–3. Kahneman D., Tversky A., Judgment under Uncertainty: Heuristics and Biases, „Science” 1974, t. 185. Kidd W.V., Brorsen B.W., Why Have the Returns to Technical Analysis Decreased? „Journal of Economics and Business” 2004, nr 3. Korajczyk R., Sadka R., Are Momentum Profits Robust to Trading Costs? „Journal of Finance” 2004, nr 3. Lebeau C., Lucas D.W., Komputerowa analiza rynków terminowych, WIG-Press, Warszawa 1998. Lesmond D.A., Schill M.J., Zhou C., The Illusory Nature of Momentum Profits, „Journal of Financial Economics” 2004, nr 2. Levich R.M, Pojarliev M., Do Professional Currency Managers Beat the Benchmark? „Financial Analysts Journal” 2008, nr 5. Lhabitant F.S., Commodity Trading Strategies: Examples of Trading Rules and Signals from the CTA Sector, w: The Handbook of Commodity Investing, red. F.J. Fabozzi, R. Fuss, D.G. Kaiser, John Wiley & Sons, Hoboken, N.J. 2008. Lhabitant F.S., Hedge Funds: Quantitative Insights, John Wiley & Sons, London 2004. Lo A.W., Mamaysky H., Wang J., Foundations of Technical Analysis: Computational Algorithms, Statistical Inference, and Empirical Implementation, „Journal of Finance” 2000, nr 4. Lovell M.C., Data Mining, „Review of Economics and Statistics” 1983, t. 65. Lui Y.H., Mole D., The Use of Fundamental and Technical Analyses by Foreign Exchange Dealers: Hong Kong Evidence, „Journal of International Money and Finance” 1998, nr 17. Lukac L.P., Brorsen B.W., Irwin S.H., A Test of Futures Market Disequilibrium Using Twelve Different Technical Trading Systems, „Applied Economics” 1988, nr 20. Marquering W., Nisser J., Valla T., Disappearing Anomalies: A Dynamic Analysis of the Persistence of the Anomalies, „Applied Financial Economics” 2006, nr 4. Menkhoff L., Examining the Use of Technical Currency Analysis, „International Journal of Finance and Economics” 1997, nr 2. Miffre J., Rallis G., Momentum Strategies in Commodity Futures Markets, „Journal of Banking and Finance” 2007, nr 6. Murphy J.J., Analiza techniczna rynków finansowych, WIG-Press, Warszawa 1999. Narang R.K., Inside the Black Box, John Wiley & Sons Inc, Hoboken, N.J. 2009. National Futures Association, http://www.nfa.futures.org (28.12.2010). Neely C.J., Weller P.A., Technical Analysis and Central Bank Intervention, „Journal of International Money and Finance” 2001, t. 20. Nison S., Świece i inne japońskie techniki analizowania wykresów, WIG-Press, Warszawa 1996. Olson D., Have Trading Rule Profits in the Currency Markets Declined over Time? „Journal of Banking and Finance” 2004, t. 28. Osler C.L., Support for Resistance: Technical Analysis and Intraday Exchange Rates, Federal Reserve Bank of New York, „Economic Policy Review” 2000, nr 6. Patel N., It’s All in the Technique, „Risk Magazine” 2002, nr 49. Perold A., Salomon R., The Right Amount of Assets under Management, „Financial Analysts Journal” 1991, nr 3. Miscellanea 105 Pirrong S.C., Momentum in Futures Markets, Working Paper 2005, http://papers.ssrn.com/sol3/ papers.cfm?abstract_id=671841 (13.02.2011). Poole W., Speculative Prices as Random Walks – An Analysis of Ten Time Series of Flexible Exchange Rates, „Southern Economic Journal” 1967, t. 33. Ratner M., Leal R.P.C., Tests of Technical Trading Strategies in the Emerging Equity Markets of Latin America and Asia, „Journal of Banking & Finance” 1999, t. 23. Ready M.J., Profits from Technical Trading Rules, „Financial Management” 2002, t. 31. Roberts M.C., Technical Analysis and Genetic Programming: Construction and Testing a Commodity Portfolio, „Journal of Futures Markets” 2005, nr 7. Rogers J., Hot Commodities: How Anyone Can Invest Profitably in the World’s Best Market, Random House, New York 2004. Samuelson P.A., Proof That Properly Anticipated Prices Fluctuate Randomly, „Industrial Management Review” 1965, nr 2. Schleifer A., Vishny R., The Limits of Arbitrage, „Journal of Finance” 1997, nr 1. Schneeweis T., Kazemi H., Spurgin R., Momentum in Asset Returns: Are Commodity Returns a Special Case? „The Journal of Alternative Investments” 2008, nr 4. Serbin V., Bull P.M., Zhu H., The Capacity of Liquidity-Demanding Equity Strategies, „The Journal of Portfolio Management” 2009, nr 1. Shefrin H., Statman M., The Disposition to Sell Winners Too Early and Ride Losers Too Long: Theory and Evidence, „Journal of Finance” 1985, nr 3. Silber W.L., Technical Trading: When It Works and When It Doesn’t, „Journal of Derivatives” 1994, nr 1. Skarbiec TFI S.A., http://www.skarbiec.pl/karta_funduszu/55 (27.12.2010). Smidt S., Amateur Speculators. Graduate, School of Business and Public Administration, Cornell University, Ithaca, N.Y. 1965. Sullivan R.A., Timmermann A., White H., Data Snooping, Technical Trading Rule Performance, and the Bootstrap, „Journal of Finance” 1999, t. 54. Sweeny R.J., Beating the Foreign Exchange Market, „Journal of Finance”, 1986, t. 41. Szakmary A.C., Mathur I., Central Bank Intervention and Trading Rule Profits in Foreign Exchange Markets, „Journal of International Money and Finance” 1997, t. 16. Taylor M.P., Allen H., The Use of Technical Analysis in the Foreign Exchange Market, „Journal of International Money and Finance” 1992, nr 11. Taylor S.J., Trading Futures Using a Channel Rule: A Study of the Predictive Power of Technical Analysis with Currency Examples, „Journal of Futures Markets” 1994, t. 14. Till H., Amaranth Lessons Thus Far, „The Journal of Alternative Investments” 2008, nr 4. Till H., Eagleeye J., How to Design a Commodity Futures Trading Program, w: Commodity Trading Advisors. Risk, Perforamance Analysis and Selection, red. G.N. Gregoriou, V.N. Karavas, F.S. Lhabitant, F. Rouah, John Wiley & Sons, Hoboken, N.J. 2004. Till H., Passive Strategies in the Commodity Futures Markets, „Derivatives Quaterly”, jesień 2000. Vangelisti M., The Capacity of an Equity Strategy, „Journal of Portfolio Management” 2006, nr 2. Van Horne J.C., Parker G.G.C., Technical Trading Rules: A Comment, „Financial Analysts Journal” 1968, nr 4. Van Horne J.C., Parker G.G.C., The Random-Walk Theory: An Empirical Test, „Financial Analysts Journal” 1967, nr 6. Wason P.C., On the Failure to Eliminate Hypotheses in a Conceptual Task, „The Quarterly Journal of Experimental Psychology” 1960, nr 12. Wilder J.W. Jr., Concepts in Technical Trading Systems, Hunter Publishing Co., Greensboro 1978. http://www.bloomberg.com e s e j e Michał Gabriel Woźniak* Przyszłość może być lepsza. Refleksje na marginesie książki Grzegorza W. Kołodki Świat na wyciągnięcie myśli1 Bezprecedensowe w historii ludzkości i pełne dramaturgii przyspieszenie modernizacji we wszystkich wymiarach bytu ludzkiego, obserwowane od końca lat 60., wiąże się z koincydencją wielu współzależnych procesów egzo- i endogenicznych. Wyrastają one z rewolucji technologii informacyjnych, niesprawności reguł kapitalizmu i prób poprawiania środowiska jego funkcjonowania poprzez pogłębianie i upowszechnianie liberalizacji, deregulację, restrukturyzację, minimalizację funkcji państwa. Społeczne podłoże tych procesów modernizacyjnych jest ukorzenione w rozkwicie różnorodnych ruchów kulturowo-społecznych, wśród których uwagę zwracają: libertarianizm, ruch praw człowieka, feminizm, ruch na rzecz ochrony środowiska naturalnego, alterglobalizm. W tyglu tych procesów rodzi się nowy świat, nowa epoka w dziejach ludzkości naznaczona rozmaitymi paradoksami rozwoju społeczno-ekonomicznego, wynikającymi z nich napięciami i nierównowagami oraz obawami o narastanie ryzyka kryzysogennych procesów. Wielki wstrząs intelektualny wśród przedstawicieli głównego nurtu ekonomii wywołał dopiero upadek Lehman Brothers 15 września 2008 r., chociaż kryzys zaczął się w 2007 r. od załamania rynku substandardowych kredytów hipotecznych w USA. Jednakże fundamentalnymi problemami „wędrującego świata”, wchodzącego w epokę informacjonizmu2, ponowoczesności, netokracji i usieciowionej opartej na wiedzy gospodarki, zajmowało się od lat 70. XX w. wielu najwybitniejszych intelektualistów i naukowców na świecie i w Polsce. Szczególną uwagę zwracają tu tłumaczone na język polski, a ukazujące się od przełomu wieków diagnozy, prognozy ostrzegawcze, wizje i propozycje usprawnień M. Castellsa [1996, 1997, 1998]3, A. Toflera [2003], J. Naisbitta, N. Naisbitt i D. Philipsa [2003], J.K. Galbraitha [2004], I. Wallersteina [2004], J. Mandle’a [2005], A. Barda, J. Soderqvist [2006], U. Becka [2005], M. Alberta [2007]. Z. Baumana [2007], M. Bookchina [2009], J.E. Stiglitza [2007 i 2010], J. Sachsa [2009], J.C. Bogle’a [2009], * Prof. dr hab. Michał Gabriel Woźniak – Katedra Ekonomii Stosowanej, Uniwersytet Ekonomiczny w Krakowie; e-mail: [email protected] 1 Grzegorz W. Kołodko, Świat na wyciągnięcie myśli, Prószyński i S-ka, Warszawa 2010, s. 318. 2 Termin wprowadzony przez M. Castellsa na określenie sposobu funkcjonowania społeczeństwa informacyjnego i gospodarki sieci. 3 Mam tu na myśli trzytomową trylogię M. Castellsa [1996, 1997, 1998] The Information Age: Economy, Society, and Culture, Blackwell Publishing Ltd. Oxford, opublikowaną również przez PWN (tom 1: Społeczeństwo sieci [2008], tom 2: Siła tożsamości [2008], tom 3: Koniec tysiąclecia [2009]). 108 Eseje B.R. Barbera [2009]. W polskiej literaturze ekonomicznej wśród wielu publikacji o tej tematyce oryginalny wkład do interdyscyplinarnej debaty nad zagrożeniami globalnymi ludzkości, wynikającymi z neoliberalnych reguł myślenia i działania i wywiedzionego z ich krytyki nowego podejścia do roli państwa w gospodarce i sposobów uprawiania polityki gospodarczej i społecznej, wnosi m.in. G.W. Kołodko w licznych publikacjach4. Najnowsza jego książka Świat na wyciągnięcie myśli opublikowana w 2010 r., jest kontynuacją refleksji autora wokół postawionych pytań w głośnym w kraju i za granicą jego bestsellerze Wędrujący świat, który ukazał się w 2008 r. jeszcze przed upadkiem Lehman Brothers5. Książka składa się z dwóch części poprzedzonych rozdziałem wprowadzającym o oryginalnym tytule „Wędrówka w czasie i przestrzeni”, a całość zamyka indeks. W sensie formalnym książka jest nie tyle dziełem naukowym, ile literackim dziełem ekonomicznym, „ekonomią dla niewtajemniczonych”, uwolnioną od uświęconych tradycją metodologii ekonomii procedur postępowania naukowego, w której nie ma przypisów, założeń opartych na redukcjonizmie i indywidualizmie metodologicznym i wywiedzionych z nich modeli, teorii i prognoz. Jest to raczej próba wydobywania czytelnika z wieży Babel, mozolnie budowanej nie tyle przez „świątynię nauk ekonomicznych”, ile raczej targowisko interesów”, którego bohaterowie w opinii autora sprzeniewierzyli się przeznaczeniu nauki, porzuciwszy misję głoszenia prawdy bez względu na okoliczności oraz ideę poszukiwania innego lepszego świata. Autor posługuje się z upodobaniem i pasją zadawania fundamentalnych dla przyszłości pytań, dyskursem z czytelnikami, kroniką bieżących wydarzeń analizowanych z literackim talentem, szerokim spojrzeniem wykraczającym poza opłotki podwórka jednej dyscypliny naukowej czy jednego tylko systemu wartości, polemiczną pasją i darem przekonywania płynącym z troski o lepszą jakość życia każdego człowieka, z dbałością o logikę wywodu i spójność argumentacji. W rozdziale wprowadzającym autor zwraca uwagę, że pogłębiona analiza biegu dziejów jako intelektualna „wędrówka w czasie i przestrzeni” jest warunkiem poprawnej teorii, która ma pokazać, na jakich zasadach, przy jakich ograniczeniach, w jakich warunkach i z jakimi skutkami działają obiektywne mechanizmy. Teoria o walorach aplikacyjnych wymaga łączenia interdyscyplinarnego podejścia deskryptywnego i postulatywnego, a tym samym zerwania z redukcjonizmem i uniwersalizmem, z którego wyrosło neoliberalne podejście do mechanizmów rozwoju, fałszywie postulujące wyrównywanie się różnic w poziomie produkcji i konsumpcji. Uwolnione od nadmiernego redukcjonizmu statystyki dowodzą, że narasta zróżnicowanie w obrębie całej populacji ziemskiej, gdyż zwiększają się różnice wewnątrz poszczególnych społeczeństw, także pod wpływem globalizacji. W zaścianku ortodoksyjnej ekonomii nie ma miejsca na wiele skomplikowanych uwarunkowań procesów rozwojowych. Trzeba się otworzyć na wielopłaszczyznowe intelektualne współdziałanie z innymi naukami. Drogą do tego jest teoria koincydencji rozwoju i nowy pragmatyzm. Wędrujący i podtrzymywany przez kilka filarów (USA, UE, Chiny, Indie, Brazylia, Rosja) świat wymaga nowej instytucjonalizacji respektującej szeroko ujmowane uwarunkowania kulturowe (jakość kapitału ludzkiego i społecznego, system wyznawanych wartości, w tym religię). Trzeba odpowiedzieć na pytanie, jak zapewnić globalną koordynację i co ma być jej przedmiotem. 4 Przywołanie najważniejszych osiągnięć tego autora wraz z odesłaniami do wcześniejszych publikacji jest zawarte w: Kołodko [2008]. Zob. też. Wykaz publikacji na: http://www.kolodko.net. Zakładka książki. 5 Należy podkreślić, że Wędrujący świat został już przetłumaczony na dziesięć języków, w tym na angielski nakładem Columbia University Press. Dzięki oryginalnym i przepojonym troską o losy świata pomysłom G.W. Kołodki zawartym w tym dziele polska myśl społeczno-ekonomiczna staje się ponownie głośna w świecie, podobnie jak w latach 60. dzieła O. Langego i M. Kaleckiego. Eseje 109 Część pierwsza książki jest ujęta jako postscriptum w stosunku do poprzedniej książki. G.W. Kołodko nawiązuje tu do licznych wątków poruszanych w tamtej książce: metodologii ekonomii, kryzysu strukturalnego kapitalizmu z uwzględnieniem doświadczeń z lat 2007–2010, zagrożeń globalnych i ich konsekwencji dla Polski, społecznej gospodarki rynkowej. Poszukuje również strategii dla Polski i odpowiedzi na pytanie, dokąd zmierza ludzkość i jaka jest przyszłość Europy i świata, nawiązując przy tym do pytań i refleksji jego czytelników. Niedokończone refleksje wokół tematyki poruszanej w poprzedniej książce są tu ujmowane jako lekcje z doświadczeń najbliższej, ale również dalszej przeszłości, choć są często pełne gorzkiej krytyki, niekiedy skrajnej i osadzonej w jednoznacznie ukierunkowanej aksjologii, jednak przesycone nadzieją, że „świat może być inny”, jeśli nauczymy się zintegrowanego myślenia, ukierunkowanego na refleksję zewnętrzną i wewnętrzną. Nowa książka G.W. Kołodki jest swoistego rodzaju przewodnikiem, który ma modernizować w tym kierunku refleksję naukową i każdego jej czytelnika. W dyskursie o metodologii nauk ekonomicznych autor zredukował ekonomię do tworzenia wiedzy opartej na obserwowaniu i wychwytywaniu obiektywnych prawidłowości, wiązek praw służących budowaniu poprawnej teorii, przydatnej w uprawianiu skutecznej polityki rozwoju. Jego zdaniem dotychczasowy paradygmat nadmiernie ogranicza perspektywę rozwoju myśli ekonomicznej. Trzeba zbudować nową i szerszą miarę postępu kulturowo-ekonomicznego, wykorzystać wyniki badań ekonomii opisowej do wnioskowania normatywnego. W tym dyskursie autor ogranicza się jednak do dzielenia się własnymi doświadczeniami w zakresie pozyskiwania warsztatu badawczego. Porównywanie jest dla niego podstawową metodą badawczą. Podkreśla zatem znaczenie uczenia się poprzez działanie, zwłaszcza zaś dochodzenia do prawdy w osobistych debatach z autorytetami naukowymi, doświadczeń z obserwacji sposobów uprawiania polityki i funkcjonowania grup eksperckich, reguł myślenia i działania także zwykłych ludzi. Tworzenie wiedzy wiąże z odwagą w interdyscyplinarnym myśleniu umiejętnościami w selekcji szumu informacyjnego bezwartościowej czy niewiele wartej literatury. Autor przeciwstawia się dominacji formy nad treścią, doktrynerstwu, ideologizacji i podporządkowaniu logiki wywodów naukowych interesom mocodawców – właścicieli wielkiego kapitału. Nie odnosi się jednak do misji nauki w kontekście problemów związanych z funkcjonowaniem demokratycznej areny politycznej i różnorodnych mediokratycznych grup lobbingowych czy nawet zawodowych i obywatelskich. G.W. Kołodko wyznaje, że hetorodoksja i komparatystyka, interdyscyplinarność i kompleksowość, sceptycyzm i formalna logika, intelektualna niezależność i ciekawość, upór w dochodzeniu do sedna i niepoprawność polityczna oraz nonkonformizm są kanonami jego metodologii badań naukowych. W ten sposób Autor próbuje wyzwolić tworzoną wiedzę ekonomiczną z opóźnienia eksploracyjnego, nie odnosząc się jednak do fundamentalnych problemów przyspieszonego procesu starzenia się teorii. Można wprawdzie skłonić polityków, aby wyszli poza „rady ekonomistów poprzedniego pokolenia”, nie można jednak wyzwolić ekonomii z opóźnienia. Dynamika zmienności i różnorodności zjawisk i procesów społeczno-ekonomicznych epoki informacjonizmu, zdominowanej przez technotroniczną kulturę i podporządkowanej konkurencji nowego typu, opartej na redukowaniu kosztów poprzez szeroko rozumiane innowacje i komercjalizację wszystkich sfer bytu ludzkiego, generuje również rynek aksjologiczny, konstytuujący relatywizm moralny ponowoczesnego społeczeństwa. Stąd efektywność predykcji dokonanej poprzez łączenie choćby najbardziej solidnego podejścia deskryptywnego z normatywnym nie tylko obniża się dramatycznie, lecz również nabiera charakteru względnego. Aksjologia postępu, która leży u podstaw identyfikacji słusznych celów, niewiele tu wyjaśnia. Trzeba bowiem ustalić efektywne miary tego postępu. 110 Eseje Postulowany przez G.W. Kołodkę zintegrowany indeks pomyślności jest dopiero in statu nascendi, a jeśli się upowszechni, choć odzwierciedli kompleksowo percepcję skutków owego postępu, będzie obarczony wadami podobnymi jak inne syntetyczne miary. Nie pozostaje zatem inna droga niż identyfikacja właściwych dla poszczególnych sfer bytu ludzkiego kryteriów wyboru, procedur, narzędzi, instytucji i mechanizmów służących ich realizacji oraz poszukiwania sprzężeń międzysferycznych i ich konsekwencji dla harmonizowania rozwoju wszystkich sfer bytu ludzkiego w ujęciu intertemporalnym. Zintegrowany rozwój to coś więcej niż rozwój trwale zrównoważony, nie wyczerpuje go strategia spójności społeczno-ekonomicznej czy też koncepcja ekorozwoju. Nie pozostaje zatem inna droga w dochodzeniu do podejścia zintegrowanego niż falsyfikacja ortodoksyjnych teorii przy założeniu, że mogą one zawierać adekwatny opis jakiejś składowej badanego systemu. Absolutna pewność swych racji, zbyt kategoryczne sądy wobec opozycyjnych teorii, choć mogą wypływać ze szlachetnych pobudek i dobrze pojętej misji nauki nie sprzyjają odkrywaniu prawdy. Rodzą urazy, sprzyjają arogancji oponentów, świątynię mądrości zamieniają w wieżę Babel, która płynie niczym Titanic, na którym ciągle jeszcze gra jakaś orkiestra, a inni uprawiają chocholi taniec. Nauka szuka prawdy ale jej nie tworzy6. Sprzeniewierzanie się tej oczywistej prawdzie jest manierą ponowoczesności. Arogancja wobec odkryć powoli staje się normą. W nauce potrzebny jest przyjazny, wolny od emocji krytycyzm, a nade wszystko umiejętności i gotowość do falsyfikacji. Trzeba zatem pamiętać, że choć rzetelne uprawianie nauki jest ciągle drogą do prawdy, uchylaniem kurtyny niewiedzy, a niezbywalną kondycją ludzką są ograniczenia poznawcze, informacyjne i emocjonalne, siła idei płynie z przyjaznego, wolnego od emocji krytycyzmu, osadzonego w rzetelnym naukowym warsztacie analitycznym, w którym doceniane są wyrafinowane analizy ilościowe tam, gdzie to jest możliwe i efektywne, ale także rzetelne studia przypadków. Autor słusznie zauważa, że eksperymentowanie z teoriami w oderwaniu od specyficznych czasoprzestrzennych koincydencji z różnych sfer bytu ludzkiego jest nonszalancją pozbawioną poczucia społecznej odpowiedzialności nauki. Skutki podanych przez niego przykładów, konsensusu waszyngtońskiego, „szokowej terapii” w Polsce, przyjmowania sztywnego lub płynnego kursu złotego w oderwaniu od uwarunkowań czasoprzestrzennych są wymowną ilustracją tej nonszalancji. Dla jej przezwyciężenia autor postuluje antycypowane już w ekonomii, choć jeszcze niedostatecznie spopularyzowane kontekstowe podejście, respektujące kontekst instytucjonalny, historyczny i konkretny system wartości. Negatywne skutki nierespektowania podejścia kontekstowego są bliżej ukazane w refleksji wokół „wielkiej transformacji”. Jest tu przedstawiona krytyczna ocena drogi do gospodarki rynkowej, demokracji politycznej, państwa prawa i społeczeństwa obywatelskiego narzuconej krajom posocjalistycznym na zasadzie eksperymentu opartego na zuniwersalizowanych, neoliberalnych regułach sprawności systemu ekonomicznego, który pomijał istotne dla przebiegu procesów rozwojowych lokalne uwarunkowania. Ocena 20 lat doświadczeń wielkiej transformacji skłania autora książki do wątpliwości, czy jest to proces zakończony i czy słuszne są jednoznacznie pozytywne oceny jej konsekwencji. Wniosek taki formułuje na podstawie diagnozy jakościowego zaawansowania kultury rynkowej sensu largo, efektywnego działania mechanizmów tworzenia i alokacji kapitału oraz podziału wytworzonego produktu, zwłaszcza zaś zdolności do konkurencji na skalę globalną i do harmonijnego rozwoju. Skumulowany wzrost PKB zaledwie o 30% dla wszystkich europejskich krajów posocjalistycznych wraz z Rosją (1,3% średnio rocznie) nie byłby, jego zdaniem, akceptowany przez nikogo u zarania procesu transformacyjnego, wobec wzrostu 6 Takie przesłanie skierował Jan Paweł II podczas spotkania z członkami Konferencji Rektorów Akademickich Szkół Polskich, Castel Gandolfo, 30 sierpnia 2001. Eseje 111 o 420% w tym samym czasie gospodarki Chin, które poszły własną drogą stopniowych reform rynkowych. Pomimo wielu wspólnych cech jakościowo zróżnicowane instytucje, odmienna polityka, zróżnicowany poziom rozwoju, a także istotne różnice geograficzne, kulturowe i polityczne krajów posocjalistycznych, pozwalają sądzić, że zmiany systemowej nie oparto w tej części świata na żadnej dojrzałej i zwartej teorii ekonomicznej. Autor nie jest tu jednak konsekwentny w stosowaniu podejścia kontekstowego. Nie wspomina w swej diagnozie transformacji o tym, iż teorii przejścia do rynku nie było, chociaż o tym wiedzieć musi i jest świadomy tego, że wyrok historii był nieuchronny. Pominięte są tu problemy wynikające z wyłaniania się gospodarki sieci i społeczeństwa informacyjnego, które były i pozostają nadal fundamentem „wielkiej transformacji” i „wielkiego wstrząsu”, oraz niezwykłej dynamiki turbulencji otoczenia nie tylko na obszarze Europy Środkowo‑Wschodniej. Kryzys gospodarki centralnie planowanej z jej systemową niezdolnością dostosowawczą do wyzwań epoki informacjonizmu i konkurencji nowego typu [zob. Porter 1998] oraz mikroekonomicznej efektywności był potwierdzony empirycznie i teoretycznie. Słusznie jednak autor zauważa, że systemowa transformacja oparta na neoliberalnych programach dostosowawczych mogła być i została potraktowana jako dziejowa okazja do robienia interesów, w tym spekulacji dla bogatej części świata, której podmioty lepiej wiedziały, jak wykorzystywać okazje nadarzające się w przestrzeni bez chronionego przez państwo porządku konkurencyjnego i bez sprecyzowanych społecznych celów rozwoju. Przytacza tu również wielokrotnie powtarzane we wcześniejszych publikacjach błędy konstrukcyjne planu stabilizacji i liberalizacji gospodarki przyjętego w Polsce oraz błędy w sposobach jego wdrażania, które zaważyły na skali kosztów transformacji: nadmierną skalę dewaluacji złotego, zbyt długie utrzymywanie sztywnego kursu, nadmiernie restrykcyjne tłumienie wzrostu wynagrodzeń, za daleko posuniętą liberalizację handlu zagranicznego, zbyt restrykcyjną politykę monetarną i opieszałe jej korygowanie, dyskryminacyjną politykę wobec przedsiębiorstw państwowych. W tej diagnozie ex post, w znacznym stopniu słusznej, autor pomija jednak istniejącą wówczas powszechnie awersję do gospodarki centralnie planowanej, wynikającą z obserwowanych w praktyce jej ułomności strukturalnych i polityki rządów. Nie było natomiast krytycyzmu wobec znanych jedynie teoretykom ekonomii błędów rynku. Te ograniczenia emocjonalne i braki wiedzy o niesprawnościach gospodarki rynkowej, a także brak elementarnej wiedzy o mechanizmach działania rynków u polityków i działaczy związkowych, uniemożliwiały racjonalne szacunki ryzyka politycznego, ekonomicznego i społecznego jakiegokolwiek wariantu urynkowienia gospodarki oraz polityki budżetowej i monetarnej. Należy również zauważyć nawarstwiające się skutki mikroekonomicznej nieefektywności i ogromne koszty transakcyjne państwa etatystycznego oraz nieudolnej polityki z lat 70. XX w. W rezultacie w gospodarce Polski nie było przestrzeni do uprawiania roztropnej polityki keynesowskiej, której zwolennikiem był wówczas G.W. Kołodko. Polska skazana była na eksperyment zmian systemowych, który nie mógł być osadzony ani w teorii, ani też oparty na solidnych podstawach prognostycznych. Chociaż neoinstytucjonalizm mógł się poszczycić swoimi osiągnięciami, to jednak nie dotyczyły one jeszcze problemu efektywnej zmiany instytucjonalnej w przejściu do rynku. Receptą na niespójności instytucjonalne była przede wszystkim deregulacja. Budowa zinstytucjonalizowanego porządku konkurencyjnego wymagała natomiast czasu. Nie było też odpowiedniej wiedzy, a tym bardziej narzędzi badawczych do analizy destrukcyjnych skutków zderzenia się wartości rynkowych z wartościami tradycyjnymi. W powiązaniu ze wspomnianymi wyżej ograniczeniami emocjonalnymi powodowało to niesłusznie niedocenianie czynnika kulturowego i upadku kapitału społecznego w procesach wzrostu i rozwoju gospodarczego oraz kosztów transformacji wyłaniających się na tle niespójności instytucjonalnej. 112 Eseje Wiarygodnych szacunków pełnych kosztów alternatywnych systemowej zmiany instytucjonalnej nie można wykonać również obecnie nie tylko z uwagi na problemy pomiaru, lecz także z powodu ogromnej złożoności tej kategorii, zwłaszcza jeśli odnosić ją do zintegrowanego rozwoju, którego nie potrafimy jeszcze zmierzyć. Możemy jednak wskazać na niespójności instytucjonalne względem zakładanych celów i poszukiwać takich instytucji oraz całych ich kompleksów, które aktywizują wysiłki ludzi w ich osiąganiu. Jest to fundamentalne wyzwanie pod adresem dalszych reform, zwłaszcza reform usprawniających funkcjonowanie sektora publicznego, sfery polityki, ale również rynków krajowych i gospodarki globalnej. Co do drugiej fazy neoliberalnej polityki z lat 1998–2001, określanej przez autora „przechłodzeniem” bez potrzeby, która zaowocowała w tym okresie tendencjami recesyjnymi, oraz sposobu porównywania tych dwóch faz z sukcesami według autora „strategii dla Polski” oraz programem naprawy finansów publicznych zainicjowanym w 2002 r., autor ma rację, że ambicje trzeba mieć i trzeba umieć oprzyrządować je skutecznym instrumentarium, co w obu jego programach miało miejsce. Bywają jednak okoliczności, w których ważą czynniki egzogeniczne, niepozostawiające wiele przestrzeni dla polityki pobudzania koniunktury. Na przebieg procesów realnych w gospodarce w latach 1994–1997 pozytywny wpływ miała nie tylko „strategia dla Polski”, ale również dostosowania mikroekonomiczne przedsiębiorstw, wynikające z nabytego doświadczenia w zakresie funkcjonowania w warunkach konkurencji, oraz czynniki koniunkturalne. Jeśli chodzi o lata 1998–2001, to zaistniałe wówczas tendencje recesyjne miały złożone uwarunkowania, wykraczające poza błędy polityki gospodarczej popełnione w tym okresie. Niskie oszczędności i niedostateczna zdolność absorpcji kapitału zagranicznego oraz niedostateczny w stosunku do uruchamianych przez „strategię dla Polski” potrzeb rozwojowych gospodarki eksport doprowadziły do grożącego kryzysem deficytu obrotów bieżących. Nadmierny deficyt narastał siłą rozpędu gospodarki od 1997 r. a w I kw. 2000 r. osiągnął poziom 8,3% PKB. Sugerowało to przegrzanie koniunktury w warunkach ogólnoświatowych tendencji recesyjnych. Jego przyczyną była wysoka importochłonność popytu inwestycyjnego i konsumpcyjnego przy braku możliwości jej ograniczenia środkami polityki handlowej z racji głębokiego deficytu budżetowego i podjętych przez Polskę zobowiązań wynikających z członkostwa w WTO oraz starań o członkostwo w UE. Przy deficycie budżetowym wynoszącym ponad 5% w stosunku do PKB jakiekolwiek liczące się wspieranie eksportu za pomocą polityki budżetowej państwa nie było możliwe. Realizowany program reform społecznych, odkładanych przecież przez poprzednie ekipy rządowe (reformy służby zdrowia i ubezpieczeń społecznych, reformy samorządów i administracji publicznej), uniemożliwiał równocześnie ograniczanie wydatków publicznych. Z kolei brak dostatecznie restrykcyjnej polityki fiskalnej spowodował, że główny ciężar chłodzenia koniunktury został przeniesiony na politykę monetarną. Przestrzeń manewru w zakresie polityki fiskalnej ograniczyła przede wszystkim kontynuacja polityki przegrzania koniunktury z końcowej fazy programu „strategii dla Polski”, m.in. w wyniku realizacji zainicjowanych wówczas kosztownych reform społecznych, nierespektowania w działaniach stabilizacyjnych zbyt powolnych dostosowań mikroekonomicznych przedsiębiorstw do impulsów kryzysowych płynących z gospodarki światowej oraz bezradności rządu w poszukiwaniu możliwej do zaakceptowania polityki stabilizacyjnej. Stąd „przechłodzenie koniunktury” zostało niejako wymuszone. Z tego doświadczenia płynie wniosek na przyszłość, iż pobudzanie popytu dla osiągania wyśrubowanych wskaźników wzrostu kończy się wcześniej czy później brakiem pola manewru w polityce fiskalnej. Eseje 113 Ambicje trzeba mieć, lecz nie zawsze można im sprostać keynesowskimi metodami pobudzania wzrostu gospodarczego. Condicio sine qua non powodzenia terapii stabilizacyjnej za pomocą tych metod jest znalezienie takich źródeł popytu, które nie wpychają gospodarki w kryzys zadłużenia wobec zagranicy, ze strony państwa lub sektora prywatnego. Do tego trzeba jednak przygotować gospodarkę poprzez systematycznie uprawianą roztropną politykę stabilizacji wzrostu gospodarczego, sprzyjającą nie tylko harmonizowaniu wzrostu różnych składników popytu globalnego, ale również podażowych źródeł wzrostu gospodarczego. Co do tych ostatnich, liberalne koncepcje polityki gospodarczej mają przecież wiele do powiedzenia nie tylko w kontekście stylizowanych faktów, ale pod warunkiem uwolnienia decydentów od skłonności do manipulowania teoriami ekonomicznymi dla uwiarygodnienia wśród wyborców realizowanych przez nich interesów politycznych i uwolnienia sceny politycznej od asymetrycznej gry interesów. W kolejnym rozdziale swojej książki pt. „Neoliberalizm i współczesny kryzys gospodarczy” G.W. Kołodko otwiera przestrzeń do refleksji nad endogenicznymi przyczynami współczesnego kryzysu związanymi z interesownie uprawianym doktrynerstwem w polityce gospodarczej oraz systemowym ich podłożem. Autor słusznie podkreśla, że niedopuszczalne jest utożsamianie współczesnego kryzysu z recesją, co sugeruje jego przejściowy charakter. Uzasadnia to twierdzenie następującymi argumentami: 11 niebywałym zróżnicowaniem jego przebiegu w międzynarodowych porównaniach zmian dynamiki gospodarczej, zwłaszcza między krajami o różnym poziomie rozwoju gospodarczego i zróżnicowanej podatności na globalizację i liberalizację; 11 bardziej redystrybucyjnymi niż produkcyjnymi jego źródłami i skutkami; 11 irracjonalnymi spekulacjami na rynkach finansowych, odrywającymi je od sfery realnej gospodarki; 11 chaotycznymi spadkami zatrudnienia, dotykającymi niektórych sektorów szczególnie dotkliwie, przy jednoczesnym niebywałym wzroście bezrobocia, które w skali światowej osiągnęło w 2009 i 2010 r. poziom około 80 mln, a w USA wraz z częściowo zatrudnionymi ponad 16%; 11 systemowymi przyczynami kryzysu współczesnej formy kapitalizmu. Wobec endogenicznych źródeł kryzysu autor zastanawia się, czy można było go uniknąć. Przyjmując przypadkową chronologię, twierdzi, że w perspektywie ostatnich trzech lat nie było to możliwe z uwagi na stan zaawansowania nierównowagi w gospodarce światowej. Nie podaje jednak uzasadnienia tego twierdzenia. W perspektywie kilkunastoletniej dostrzega taką możliwość. Wiązałaby się ona z nieuleganiem w polityce gospodarczej i reformach systemowych neoliberalnej doktrynie, która wzięła górę w konfrontacji z neokeynesizmem w postaci konsensusu waszyngtońskiego. „Lot ćmy do ognia nie został jednak zatrzymany”, pomimo okresowych prób nieortodoksyjnych działań podejmowanych w niektórych krajach. Zdaniem autora tezę tę uzasadnia fakt wskazujący, że w krajach, w których górę wzięła neoliberalna doktryna lansująca liberalizację i prywatyzację, niedoceniająca konieczności spójnych dostosowań instytucjonalnych i uwzględnienia społecznych aspektów gospodarowania, kryzys okazał się bardziej dotkliwy niż tam, gdzie odparto neoliberalne natarcie, jak np. w Chinach, Indii, Rosji czy niektórych krajach Ameryki Łacińskiej. Trzydzieści lat temu istniała alternatywa wyboru modelu społecznej gospodarki rynkowej, charakteryzującego się imperatywem spójności społecznej, instytucjonalizacją ukierunkowaną na przedsiębiorczość, dbałością państwa o zrównoważony podział efektów wzrostu wydajności pracy i podnoszenia efektywności kapitału oraz o jakość środowiska naturalnego. Słabości na arenie międzynarodowej krajów cieszących się funkcjo- 114 Eseje nującą społeczną gospodarką rynkową oraz naiwność części elit intelektualnych i politycznych w krajach „wschodzących”, reformujących system polityczny i społeczno-ekonomiczny, sprawiły jednak, że świat powędrował w stronę neoliberalnego modelu. Neoliberalizm posługuje się nośnymi społecznie ideami wolności politycznej i gospodarczej, demokracji, prywatnej własności, przedsiębiorczości, konkurencji, jednakże są one często eksploatowane na korzyść mniejszości kosztem większości społeczeństwa. Doktryna neoliberalna myli też środki z celami, sprzyja „gospodarce kasyna”, irracjonalnemu przerzucaniu odpowiedzialności, destrukcyjnej deregulacji, sukcesywnemu osłabianiu instytucji państwa. Z powodów strukturalnych kryzys neoliberalnego kapitalizmu przetoczyć się musi przez pięć kolejnych faz: finansową, gospodarczą, produkcji, społeczną, polityczną i sferę wartości. Chociaż doraźny interwencjonizm monetarny i reakcje polityki fiskalnej na kryzys finansowy autor ocenia pozytywnie, traktuje je jako receptę na przejawy, a nie skutki. Trwałe usunięcie przyczyn kryzysu autor wiąże z przebudową systemu wartości, instytucji i sposobów uprawiania polityki oraz umiejętnym poruszaniem się w obszarze trójkąta rozwoju zrównoważonego społecznie, ekologicznie i gospodarczo. Metodologiczną podstawą budowania i wykorzystania tych umiejętności ma być przestrzeganie zasad koincydencji teorii rozwoju i nowego pragmatyzmu. Te pierwsze wymagają odejścia od dogmatyzmu, bezrefleksyjnej ideologizacji, mądrości konwencjonalnej i prawdy konsensualnej oraz uniwersalizmu na rzecz interdyscyplinarnego myślenia, socjoekonomicznych analiz porównawczych w wielowymiarowej przestrzeni historycznej, geograficznej, kulturowej, instytucjonalnej, politycznej, społecznej i problemowej, odróżniania celów od środków i elastyczności instrumentalnej. Nowy pragmatyzm ma zaś polegać na inteligentnym manewrowaniu rozpoznanymi uwarunkowaniami, zwłaszcza zaś na nowoczesnym interwencjonizmie instytucjonalnym. W ogólnych zarysach przedstawiona diagnoza kryzysu i podejścia do jego przezwyciężenia dotyka istotnych kwestii i jest spójna logicznie. Są to jednak refleksje zbyt ogólne, pomijające wiele ważnych kwestii, a te, które są poruszone, nie zostały sfalsyfikowane. Nie został nakreślony mechanizm narastania zjawisk kryzysowych; choć wskazane zostały przez autora krytycznie jego przyczyny, pominięte zostały czynniki egzogeniczne i bezpośrednie przyczyny. Przede wszystkim zaś autor nie odniósł się do strukturalnych przyczyn związanych z government failures. Ograniczenia poznawcze, informacyjne i emocjonalne dotyczą przecież nie w mniejszym stopniu polityków, ich ekspertów i tych, którzy na nich głosują, co świata biznesu i niewątpliwie są umocowane w innych interesach. Na pewno należy szukać zmian instytucjonalnych równoważących interesy, na pewno należy docenić podejście zintegrowane do procesów rozwojowych. Należy przede wszystkim budować konsensus społeczny dla przeciwdziałania kryzysowi i na rzecz zintegrowanego rozwoju. Z tych samych przesłanek teoretycznych i w podobnej konwencji jest rozpatrywana w kolejnym rozdziale problematyka konsekwencji globalnych perturbacji spowodowanych neoliberalną polityką w odniesieniu do Polski. Jest tu bardziej skonkretyzowana analiza przesłanek kryzysu związanych z polityką gospodarczą. Zawarte są tu również realistyczne, trafne i pouczające propozycje działań antykryzysowych. Autor podkreśla, że wzrost wydajności pracy również w Polsce nie był opłacany ekwiwalentnym wzrostem płac realnych, trzeci próg podatkowy zniesiono jeszcze przed wybuchem kryzysu, co wzmocniło presję na import luksusowych dóbr konsumpcyjnych. Przesłanki do spadku dynamiki gospodarczej tworzyła tradycyjnie niedostateczna dywersyfikacja geograficzna polskiego eksportu. Po wybuchu kryzysu rząd przyjął pasywną politykę typu wait and see. Oznaczało to złe wykorzystanie czasu kryzysowego. Eseje 115 Autor identyfikuje pięć kanałów transferu światowego kryzysu do Polski, upatrując je w: 11 przenoszeniu się recesji od partnerów handlowych i poprzez globalne przepływy finansowe; 11 spekulacjach finansowych, które umożliwiał płynny kurs walutowy (zwłaszcza na opcjach walutowych), szacowanych w latach 2008–2010 na około 3,2–3,3 % PKB; 11 masowej migracji zarobkowej, która objęła 1,8 mln osób – przeważnie młodych, przedsiębiorczych i dobrze wykształconych; 11 pesymistycznych oczekiwaniach różnych grup podmiotów gospodarczych. Na dogmatyczną, obliczoną na przeczekanie liberalną politykę rządu G.W. Kołodko zareagował listem otwartym do premiera, w którym domagał się: bezinflacyjnego zwiększenia deficytu (o ok. 6–7 mld zł), interwencji na rynku walutowym stabilizującej kurs euro wokół 4 zł, wzmocnienia potencjału wzrostowego rodzimych instytucji finansowych poprzez dokapitalizowanie BGK, PKO BP i Korporacji Ubezpieczeń Społecznych (2,5 mld zł), aportu w postaci akcji spółek skarbu państwa (1 mld zł), wzmocnienia KUKE dla zwiększenia ekspansji eksportowej na wschodzące rynki oraz wykorzystania narzędzi polityki mikroekonomicznej, w szczególności zaś podwyższenia odpisów amortyzacyjnych dla przedsiębiorstw. Proponował też przekształcenie nowo powołanego Komitetu Stabilności Finansowej z forum dyskusyjnego w operatywne ciało zarządzania kryzysowego. Autor ubolewa, że mit braku alternatywy i propaganda sukcesu gospodarczego Polski na tle Europy wzięła górę, gdyż doktryna neoliberalna wyklucza światły interwencjonizm. PKB wzrósł w 2009 r. o ok. 1,8%, lecz skala spadku jego dynamiki była podobna jak w krajach, gdzie wystąpiła recesja. Zdaniem autora nie jest to bynajmniej sukces ani rezultat polityki rządu. Ten mizerny wzrost umożliwiła siła rozpędu i ogromna deprecjacja złotego. W opinii autora możliwy był niemal dwukrotnie wyższy wzrost, niższe bezrobocie, mniejszy margines wykluczenia społecznego, mniejszy deficyt budżetowy, lecz zwyciężyło doktrynerstwo i krótkowzroczna wiara w ozdrowieńcze skutki samoregulujących właściwości neoliberalnego porządku spontanicznego. Polski nie ominął kryzys, gdyż niewykorzystanie mocy produkcyjnych utrzymuje się poniżej długookresowego trendu i nadal spada, bezrobocie rośnie i zaostrza się kryzys finansów publicznych, warunki przedsiębiorczości pogarszają się, polityka zaś sprowadza się do walki o władzę i jej utrzymania w obliczu nieustannej kampanii wyborczej. Koncentracja refleksji wokół neoliberalnego podłoża narastających współcześnie nierówności w dochodach rodzi pytanie, czy istnieje sprawdzona w praktyce alternatywa systemowa. G.W. Kołodko doszukuje się tej alternatywy w modelu społecznej gospodarki rynkowej. Autor podkreśla, że ten model rynku zawiera wpisany (normatywny) imperatyw sprawiedliwości dostępnej dla wszystkich i ogólnego dobrobytu. W tym sensie społeczna gospodarka rynkowa ma charakter uniwersalny, gdyż jest imperatywem aksjologicznym, wymagającym troski o harmonizowanie efektywności ekonomicznej ze sprawiedliwością społeczną przy zachowaniu równowagi. Efektywność ekonomiczną ma zapewnić mechanizm rynkowy, państwo zaś powinno zapewnić spójność społeczną. Do tego jednak potrzebny jest określony system wartości, którego nie może zagwarantować konstytucja, gdyż jest on zakorzeniony w ludzkich chęciach i przekonaniach. Z tego powodu społeczna gospodarka rynkowa nie może powstać na zasadzie zabiegu politycznego, lecz jej tworzenie jest procesem wymagającym odpowiedniego otoczenia kulturowego. Nie można jej zatem zbudować przez okres jednej kadencji parlamentarnej, gdyż jest to proces pokoleniowy, wymagający wysokiej klasy kapitału społecznego i ludzkiego, aby chcieć i umieć powszechnie łączyć dbałość o efektywność ekonomiczną, równowagę społeczną i autentyczną troskę o sprawiedliwość. 116 Eseje Populizm lewicowy czy prawicowy, a nawet państwo opiekuńcze niewiele mają wspólnego z ideą społercznej gospodarki rynkowej. Nie ma z nią związku polska hybryda neoliberalizmu z posocjalistycznym dziedzictwem populistycznym. Taki twór okazał się niespójny, niekompatybilny i niekompleksowy. Model społecznej gospodarki rynkowej wymaga bezwzględnie holistycznego, interdyscyplinarnego podejścia, a zarazem nieortodoksyjnego myślenia. Choć obecna faza globalizacji ma znamiona bardziej neoliberalne niż społeczne, a do idealnego świata dojść nie można, ale zmierzać warto. Przyszłość społecznej gospodarki rynkowej leży zatem w nieustannej trosce o taką modernizację instytucjonalną, która sprzyjałaby nie tylko sprawiedliwości społecznej i umacnianiu spójności, ale również wzmacnianiu przedsiębiorczości i konkurencyjności. W Polsce hasło społecznej gospodarki rynkowej pozostało przede wszystkim w sferze intencjonalnej jako deklaracja zapisana w konstytucji RP z 1997 r. w art. 20. W praktyce jej zasady są obecne o tyle, o ile zostały one wchłonięte przez acquise commonautaire UE, który tworzy normatywną przestrzeń funkcjonowania rynków i polityki społeczno-ekonomicznej państw członkowskich tego ugrupowania integracyjnego. Autor nie podejmuje tu jednak fenomenu kryzysu idei społecznej gospodarki rynkowej od lat 80. Nie dostrzega bardziej imitacyjnego niż innowacyjnego charakteru rozwoju generowanego w uwarunkowaniach systemowych modelu społecznej gospodarki rynkowej i jego hybrydowych wersji realizowanych w niektórych krajach UE, różnic i podobieństw w stosunku do kapitalizmu neoliberalnego [Lewis 2005] oraz systemowych przyczyn skłonności do niższej aktywności zawodowej w porównaniu z anglosaskim modelem rynku. Przekonywająca intelektualna negacja neoliberalizmu nie prowadzi jeszcze w kierunku społecznej gospodarki rynkowej, gdyż ta ostatnia nie wytrzymała nacisku technotronicznej kultury i poszukiwania bardziej przewag konkurencyjnych niż porządku konkurencyjnego respektującego sprawiedliwe nierówności społeczne. Należałoby w tym kontekście wyjaśnić, że nacisk ze strony zaostrzającej się asymetrycznej konkurencji transnarodowych korporacji w warunkach globalizacji i liberalizacji, wywiedzionej z neoliberalnych reguł myślenia i działania, stwarzał nieprzyjazne środowisko dla respektowania powinności wynikających z obowiązku zapewnienia godnych warunków życia wszystkim obywatelom, postulowanych w pryncypiach społecznej gospodarki rynkowej. Przedsiębiorstwa obarczone kosztami wynikającymi z tych obowiązków coraz częściej były narażane na utratę przewagi konkurencyjnej, a tym samym nie były już w stanie zagwarantować odpowiednio wysokiego wzrostu PKB dla realizowania przez państwo powinności społecznych, wynikających z wynegocjowanych ze społeczeństwem programów polityki społeczno-ekonomicznej. Pojawiające się w związku z tym problemy stawiały pod znakiem zapytania przydatność reguł społecznej gospodarki rynkowej do specyfiki wyzwań kapitalizmu globalnego. Istnieje też inny problem. Społeczna gospodarka rynkowa okazała się z czasem podatna na lewicowy populizm, z uwagi na słabości demokratycznych procedur politycznych, z czego zdawali sobie sprawę jej twórcy. Sprawujące władzę lewicowe elity polityczne nie były jednak skłonne do przeciwstawienia się nawałnicy populistycznej. W kontekście polityki antykryzysowej należy również podkreślić, że koncepcja społecznej gospodarki rynkowej postuluje korektę ex ante funkcjonalną z logiką rynku za pomocą ładu instytucjonalnego zorientowanego na dobrobyt materialny – w przeciwieństwie do koncepcji welfare state, w której państwo wykorzystuje ex post narzędzia polityki gospodarczej7. 7 Dla właściwego zrozumienia istoty modelu społecznej gospodarki rynkowej warto zwrócić uwagę na wypowiedzi na ten temat jej twórców, a zarazem wybitnych ekonomistów i polityków w osobach L. Erharda, W. Eukena, W. Röpkke, A. Rüstowa i H.F Wünschego. Zob. Społeczna gospodarka... [2009]. Eseje 117 Sprawna gospodarka rynkowa jest warunkiem koniecznym, lecz niewystarczającym rozwoju i postępu. Z powodu ułomności „niewidzialnej ręki rynku” i bez długofalowej strategii, która – zdaniem autora książki – została wyparta w Polsce przez koncepcję „nadwiślańskiego neoliberalizmu” i zastąpiona koncepcją małego państwa z niskimi wydatkami i małymi dochodami przynoszącymi duże straty, niemożliwe jest rozwiązywanie wielu problemów strategicznych zrównoważonego rozwoju społeczno-gospodarczego opartego na wysokim poziomie wewnętrznych oszczędności i inwestycji z wykorzystaniem przede wszystkim krajowych zasobów. Autor nie wskazuje jednak, jak zagwarantować ten poziom oszczędności i niezbędną dynamikę innowacyjności gospodarki dla skutecznej ekspansji proeksportowej, która miałaby być zalecaną przez niego siłą napędową wzrostu gospodarczego w warunkach istniejącej przecież ciągle luki technologicznej [zob. Kubielas 2010]. Ekspansja eksportu oparta na postulowanym przez niego osłabieniu złotego i bezinflacyjnym stymulowaniu zagregowanego popytu wszystkich składników popytu krajowego jest zwodniczo atrakcyjna i ryzykowna, trudna do realizacji i wymaga szczególnego zbiegu okoliczności gwarantujących dobrą koniunkturę gospodarczą. Strategia ta w warunkach konkurencji opartej na innowacjach nie może być skuteczna w długim okresie. Chociaż byłaby realizowana w warunkach gospodarki rynkowej, jest prawdopodobne, że nie przyniosłaby efektów podobnych jak w Chinach, raczej spotkałby ją podobny los jak te, które praktykowano w gospodarce centralnie planowanej. Polska nie posiada tak dużego rynku krajowego i nie może zagwarantować niezbędnej skali oszczędności krajowych dla uruchomienia odpowiednich procesów modernizacyjnych do realizowania w długim okresie postulowanego przez autora wzrostu PKB co najmniej 5% średniorocznie. Do tego potrzebny jest również przyjazny dla kapitału zagranicznego klimat inwestycyjny. Fundamentalnie słuszny jest postulat oparcia długookresowej strategii na szybkim wzroście i sprawiedliwym podziale – społecznie akceptowalnym i niedestabilizującym sytuacji politycznej oraz konsekwentnie zmniejszającym zakres wykluczenia społecznego poprzez progresywne opodatkowanie dochodów, przy większej dbałości o kapitał społeczny, skutecznym funkcjonowaniu państwa i korzystnej integracji. Autor słusznie upatruje też skuteczności państwa w budowaniu instytucji sprzyjających rozwojowi konkurencyjnej przedsiębiorczości i umacnianiu społecznej spójności. Przyjęte przez autora kryterium sprawiedliwego podziału jest jednak zbyt ogólne. Jego operacjonalizacja wymaga rozwiązania kwestii rozumienia i mierzenia sprawiedliwych nierówności społeczno-ekonomicznych oraz ustalenia dostosowanych do tego narzędzi i procedur w celu zapewnienia właściwego nagradzania wysiłku, poświęcenia i wkładu wnoszonego do zintegrowanego rozwoju. Z historycznej analizy procesów demograficznych i wzrostu gospodarczego autor wnioskuje, że mechaniczne ekstrapolowanie wzrostu i rozwoju gospodarczego prowadzi na manowce, gdyż nie są to procesy liniowe. Przebieg tych procesów determinuje koincydencja postępu technicznego, krytycyzmu, wiedzy ekonomicznej, determinacji władz i otwarcia gospodarki. Kryterium racjonalności indywidualistycznej, zdefiniowanej jako działanie na własną korzyść, jest zdaniem autora zawodne, a nawet szkodliwe w warunkach szumu informacyjnego i asymetrii informacji. Rozwiązania należy szukać w holistycznym i multidyscyplinarnym ujmowaniu racjonalności. Wartości, instytucje i polityka są przez autora traktowane jako zróżnicowane w czasie i przestrzeni warunki rozwoju społeczno-gospodarczego. Brak zrozumienia, a nawet lekceważenie tempa i struktury zmian tych „miękkich” czynników rozwoju na gruncie tradycyjnej teorii ekonomii uniemożliwia wyjaśnienie istoty obecnego kryzysu. Autor wywodzi stąd konieczność holistycznego i eklektycznego traktowania rozwoju 118 Eseje oraz umiejętnego sięgania przez ekonomistów do socjologii, nauk politycznych, psychologii społecznej, historii gospodarczej, ekologii, antropologii, kulturoznawstwa, historii gospodarczej, filozofii, a nawet biologii, nauki o sieci czy studiów nad przyszłością. Kluczowym zagadnieniem stojącym przed ekonomią rozwoju i polityką gospodarczą jest pokojowe przyhamowanie ilościowego rozwoju i odrzucenie przyspieszania rozwoju poprzez globalizację z uwzględnieniem kwestii ubóstwa. Świat nie wytrzyma amerykanizacji rozwoju ze względu na napięcia kulturowe, szybko rosnącą nierównowagę, wyczerpywanie się zasobów i dewastację środowiska. Uniknięcie wysokich kosztów żywiołowego i chaotycznego dostosowania się do tych zagrożeń wymaga świadomego i kontrolowanego planowania opartego na postulowanej przez autora teorii rozwoju i na zasadach nowego pragmatyzmu. Pomimo postępu technicznego zmniejszającego energochłonność i surowcochłonność gospodarki świat zbliża się nieuchronnie do twardej ściany wyczerpywania się nieodnawialnych zasobów. Reformując nieodwracalny proces globalizacji, należy podjąć starania o nadanie jej społecznego sensu, co wymaga konsekwentnej walki z jej neoliberalną odsłoną i reinstytucjonalizacji gospodarki. Patrząc w przyszłość Europy i świata w perspektywie 2050 r., trzeba rozumieć współistnienie dwóch megatrendów: globalizacji i regionalizacji. Perspektywa kilkunastu wielkich regionalnych ugrupowań integracyjnych stwarza nadzieję na głębszą i bardziej skuteczną koordynację polityki gospodarczej poszczególnych państw. Coraz mniejsza ilość narodowych walut i coraz więcej ponadnarodowych instytucji oraz ponadnarodowej koordynacji polityki zmniejszą niebezpieczeństwo kryzysów finansowych. Kryzysowe katharsis może przyspieszyć ten proces. UE ma więcej do zaproponowania dla pokojowej i prorozwojowej globalizacji wymuszającej racjonalne zachowania. Autor oczekuje od niej inicjatywy w sprawie wprowadzenia ponadnarodowego, progresywnego podatku ekologicznego. Postuluje też hamowanie dążeń do powrotu do przedkryzysowego tempa wzrostu w bogatych krajach Zachodu. W postulowanej przez autora strategii przeciw kryzysowi i zagrożeniom trwale zrównoważonego rozwoju zabrakło miejsca na teoretyczny i empiryczny kontekst government failures w gospodarce postindustrialnej. Ułomności kierowania przez państwo procesami rozwojowymi oraz warunki ich przezwyciężania były i są nadal szeroko podejmowane w literaturze głównego nurtu. Są one doktrynersko wykorzystywane i eksponowane nie tylko w podejściach neoliberalnych. Upowszechniane w tej kwestii neoliberalne lub keynesowskie podejścia, wypaczając relacje między błędami rynku i kierowania przez państwo, wymagają takiej debaty. Bez tej debaty grozi nam odchylenie w kierunku nieroztropnego interwencjonizmu. W warunkach słabych instytucji społeczeństwa obywatelskiego, źle funkcjonującego państwa i mediokratycznego szumu informacyjnego na elitach intelektualnych – nie tylko ekonomicznych – ciąży obowiązek inicjowania, mobilizowania i uzbrajania edukacyjnego wszystkich grup społecznych do partnerskiego dialogu przeciw kryzysowi i przeciw zagrożeniom zintegrowanego rozwoju. Neoliberalna ideologia dyskredytująca państwo jako grabieżcę przyszłości na rzecz teraźniejszości i skoncentrowanego wokół bezproduktywnych na ogół i mało efektywnych społecznie celów, jest drogą do niedoskonałej konkurencji i ubezwłasnowolnionego państwa pozbawionego mocy, narzędzi i materialnych środków do sprawnego wypełniania funkcji, dla których jest powołane. Państwo jest za duże nie tylko z powodu immanentnych właściwości regulacji nierynkowej. Demokracja jest przecież rynkiem politycznym i podobnie jak rynki ekonomiczne podlega asymetrycznej konkurencji i asymetrycznej informacji, a ludzie funkcjonujący na rynku politycznym, podobnie jak ludzie biznesu, są skłonni do maksymalizowania wła- Eseje 119 snych korzyści i przerzucania odpowiedzialności za nieroztropne decyzje na innych uczestników tych rynków, oczywiście słabszych, mniejszych, uboższych. Błędne definiowanie problemów, w tym przypadku funkcji państwa, w świecie asymetrycznej konkurencji, depopulacji, autonomizacji rynków finansowych, wysokiego i rosnącego wciąż bezrobocia, rozszerzającej się sfery ubóstwa, kryzysu finansów publicznych, słabej kreatywności i wielu innych mniejszej rangi problemów nigdy nie służy poszukiwaniu konstruktywnych rozwiązań. Dla zaradzenia tym problemom nie mogą być skuteczne recepty polegające na minimalizowaniu funkcji państwa lub jego powiększaniu. Muszą one być przecież wpisane w kontekst formowania się nowych ośrodków władzy i przeciwładzy [Beck 2005] w wyniku globalizacji, rozwoju gospodarki sieci i społeczeństwa informacyjnego oraz naporu globalnych i lokalnych zagrożeń rozwojowych. W przypadku Polski recesja, a tym bardziej kryzys nakazują rozstrzygnąć, czy możliwe jest skuteczne egzekwowanie obowiązków i odpowiedzialności informacyjnej, zmiana struktury obciążeń podatkowych wzmacniająca przedsiębiorczość i popyt na produkcję krajową bez naruszania ratyfikowanych międzynarodowych regulacji. W uzupełnieniu do postulatów autora książki możliwa wydaje się inteligentna i sprawiedliwa polityka prorodzinna, możliwe jest w jej kontekście łączne opodatkowanie nie tylko dorosłych członów rodziny, możliwe są podwyższone progi podatku dochodowego od osób fizycznych najwyżej uposażonych, powiązane z ulgami z tytułu przedsiębiorczych działań, ograniczających bezrobocie. W powiązaniu z taką zmianą możliwy jest dodatkowy, niższy próg podatkowy dla podatników z dochodami poniżej minimum socjalnego lub zwolnieniami od podatku w takich przypadkach. Jeśli zauważyć, że dochody najuboższych warstw, w tym rodzin wielodzietnych są silniej powiązane z wydatkami na produkcję krajową niż popyt rynkowy zgłaszany przez najbogatsze warstwy społeczne, takie rozwiązanie byłoby pożądane z uwagi na prawdopodobną przewagę jego dodatnich efektów mnożnikowych, a w ostatecznym rezultacie zahamowanie tendencji do pogłębiania się nierówności dochodowych, leżących przecież u źródeł współczesnego kryzysu. Można byłoby wskazać także inne przykłady roztropnych rozwiązań fiskalnych, związanych z redukcją podatków bezpośrednich, powiązanych z rekompensatą ubytków dochodów budżetowych za pomocą wzrostu podatków pośrednich od dóbr luksusowych, zwłaszcza zaś podatku akcyzowego od dóbr, których konsumpcja jest społecznie niepożądana. Redukcja podatków może też być rekompensowana za pomocą instytucji ukierunkowanych na wyrugowanie rent seeking, a dosadnie rzecz ujmując – wyeliminowanie korupcji, biurokracji, przerzucania odpowiedzialności na osoby trzecie itp. Potrzebna jest do tego wola polityczna, której nie sposób wykrzesać w otoczeniu ekspertów nierespektujących specyficznych uwarunkowań epoki informacjonizmu i rynku politycznego posocjalistycznego państwa mediokratycznego, nieposiadającego należytego umocowania w społeczeństwie obywatelskim. Poszukującym odpowiedzi na pytanie, ile ma być państwa w gospodarce i jakie funkcje ma ono do wypełnienia wobec zagrożeń płynących ze strukturalnych uwarunkowań współczesnego, wielofazowego, chronicznego kryzysu w zmieniających się uwarunkowaniach czasoprzestrzennych epoki informacjonizmu, polecam falsyfikację własnych przekonań ideologicznych, do czego niezwykle pożyteczny może się okazać, pomimo jego eseistycznej formy Świat na wyciągnięcie myśli G.W. Kołodki. Kategoryczne wypowiedzi często formułowane w postaci atrakcyjnych literackich metafor, oryginalne zestawienia informacji statystycznych, porównań w czasie i przestrzeni, posługiwanie się siłą idei, talentem polemicznym i literackim, choć obciążone brakiem skłonności do falsyfikacji własnych poglądów, pewną nieufnością wobec konwencjonalnych procedur naukowego postępowania badawczego i nadmiarem aksjomatów, zmuszają do refleksji podążającej wytyczoną przez autora 120 Eseje metodologią poszukiwania koincydencji w wielowymiarowej przestrzeni zjawisk i procesów. W tym znaczeniu nowa książka G.W. Kołodki staje się narzędziem modernizacji refleksyjnej [Beck, Giddens, Lash 2005], której musimy się nauczyć, aby nie błądzić w świecie szumu idei, antywartości, bezwartościowych informacji, partykularnych interesów, obarczonych grzechem nadmiernego redukcjonizmu diagnoz i terapii. Epoka informacjonizmu i ponowoczesności tego od nas wymagają (zob. Kaufman [2004]). Tekst wpłynął 29 listopada 2010 r. Bibliografia Albert M., Ekonomia uczestnicząca. Życie po kapitalizmie, Wyd. Bractwa Trojka, Poznań 2007. Barber B.R., Skonsumowani. Jak rynek psuje dzieci, infantylizuje dorosłych i połyka obywateli, Warszawskie Wydawnictwo Literackie Muza SA, Warszawa 2009. Bard A., Soderqvist J., Netokracja. Nowa elita władzy i życie po kapitalizmie, Wydawnictwa Akademickie i Profesjonalne, Warszawa 2006. Bauman Z., Płynne życie, Wydawnictwo Literackie, Kraków 2007. Beck U., Władza i przeciwwładza w epoce globalizacji. Nowa ekonomia polityki globalizacji, WN PWN, Warszawa 2005. Beck U., Giddens A., Lash S., Modernizacja refleksyjna, WN PWN, Warszawa 2005. Bogle J.C., Dość. Prawdziwe miary bogactwa, biznesu i życia, PTE, Warszawa 2009. Bookchin M., Przebudowa społeczeństwa, Oficyna Wydawnicza Bractwa „Trojka”, Poznań 2009. Castells M., End of Millenium. The Information Age: Economy, Society and Culture, t. III, Blackwell, Oxford, Cambridge, Mass., 1998. Castells M., The Power of Indetity. The Information Age: Economy, Society and Culture, t. II, Blackwell, Oxford, Cambridge, Mass., 1997. Castells M., The Rise of the Network Society, The Information Age: Economy, Society and Culture, t. I, Blackwell, Oxford, Cambridge, Mass., 1996. Freefall, America, Free Markets, and the Sinking of the World Economy, W.W. Norton & Company, New York 2010. Galbraith J.K., Gospodarka niewinnego oszustwa. Prawda naszych czasów, Wydawnictwo MT Biznes, Warszawa 2004. Kaufman J.-C., Egosocjologia jednostki. Inna wizja człowieka i konstrukcji podmiotu, Oficyna Naukowa, Warszawa 2004. Kołodko G.W., Wędrujący Świat, Pruszyński i S-ka, Warszawa 2008. Kubielas S., Innowacje i luka technologiczna w gospodarce globalnej opartej na wiedzy. Strukturalne i makroekonomiczne uwarunkowania, Uniwersytet Warszawski, Warszawa 2010. Lewis W.W., Potęga wydajności, CeDeWu, Warszawa 2005. Mandle J., Globalna sprawiedliwość, Wydawnictwo Sic!, Warszawa 2005. Michael A., Ekonomia uczestnicząca. Życie po kapitalizmie, Oficyna Wydawnicza Bractwa „Trojka”, Poznań 2007. Naisbitt J., Naisbitt N., Philips D., High Tech high touch. Technologia a poszukiwanie sensu, Wydawnictwo Zysk i S-ka, Warszawa 2003. Porter M., Porter o konkurencji, PTE, Warszawa 2001. Sachs J., Nasze wspólne bogactwo. Ekonomia przeludnionej planety, WN PWN, Warszawa 2009. Społeczna gospodarka rynkowa, red. E. Mączyńska, P. Pysz, PTE, Warszawa 2009. Stiglitz J.E., Freefall America. Free Markets, and the Sinking of the World Economy, W.W. Norton & Company Inn., New York 2010. Stiglitz J.E., Wizja sprawiedliwej globalizacji, Propozycje usprawnień, WN PWN, Warszawa 2007. Tofler A., Zmiana bogactwa – Wiedza, bogactwo i przemoc u progu XXI stulecia, Poznań 2003. Wallerstein I., Koniec świata jaki znamy, Wydawnictwo Naukowe SCHOLAR, Warszawa 2004. l a u r e a c i n a g r o d y n o b l a Dominik Buttler* Józef Orczyk** Jan Szambelańczyk*** Procesy poszukiwań i dopasowań na rynku pracy. Laureaci Nagrody Nobla z ekonomii w 2010 r. Wstęp Nagrody im. Alfreda Nobla wywołują żywe zainteresowanie przede wszystkim w środowiskach bezpośrednio zainteresowanych dokonaniami, które stanowiły podstawę do wyboru laureata lub laureatów1. W warunkach jednego z największych kryzysów w globalnej gospodarce, gdy media są pełne krytycznych ocen ekonomistów, a jednocześnie popularyzowane są pesymistyczne scenariusze dla krajów najmocniej dotkniętych jego konsekwencjami, kwestia dokonań laureatów stanowiących uzasadnienie wyboru nabrała większego niż zwykle znaczenia. Obok złożonej procedury zgłoszeń i wyboru nagrodzonych istotne znaczenie ma także społeczny przekaz związany z nagrodzonymi osiągnięciami. Jak zauważył profesor E. Gleaser w felietonie dla New York Timesa: „W niewielu przypadkach Komitet przyznawał nagrodę w tak odpowiednim momencie” [Gleaser 2010]. W sytuacji, gdy świat ciągle walczy z przejawami kryzysu ekonomicznego, a liczba ludzi bez pracy pozostaje relatywnie bardzo wysoka, badania wyjaśniające naturę bezrobocia zasługują na szczególną uwagę. Jednak podobnie jak w latach minionych, także ten ostatni werdykt wywołuje pewne kontrowersje2. Jest zrozumiałe, że Nagrody Nobla w dziedzinie nauk ekonomicznych mają * Dr Dominik Buttler – Katedra Pracy i Polityki Społecznej, Uniwersytet Ekonomiczny w Poznaniu; e-mail: [email protected] ** Prof. dr hab. Józef Orczyk – Katedra Pracy i Polityki Społecznej, Uniwersytet Ekonomiczny w Poznaniu; e-mail: [email protected] *** Prof. dr hab. Jan Szambelańczyk – Katedra Pracy i Polityki Społecznej, Uniwersytet Ekonomiczny w Poznaniu; e-mail: [email protected] 1 Nagroda Szwedzkiej Królewskiej Akademii Nauk w naukach ekonomicznych, pamięci Alfreda Nobla, została ufundowana przez Sveriges Riksbank, bank centralny Szwecji, w 1968 r. z okazji jego 300‑lecia. Od tamtej pory 42 razy nagrodzono nią 67 laureatów (22 nagrody miały charakter indywidualny, 15 razy laureatów było dwóch lub dwoje, a 5 razy nagrodzono zespoły trzyosobowe). Siedem nagród przyznano za osiągnięcia w dyscyplinie makroekonomii, co wyróżnia ten obszar nauk ekonomicznych. Najbardziej utytułowaną instytucją z punktu widzenia afiliacji laureatów jest Wydział Ekonomii Uniwersytetu w Chicago. Por. http://en.wikipedia.org/Wiki/List_of_Nobel_laureates_in_Economics 2 [Por. http://profilefacts.blogspot.com/2010/nobel-in-economics.html]. Tegoroczny werdykt w naukach ekonomicznych wywołuje niejednolite opinie. P. Krugman pisze o osiągnięciach P. Diamonda: „Głęboko znacząca praca. A nawiasem mówiąc, dla tych z nas, którzy zajmują się modelowaniem, praca Petera Diamonda zapiera dech w piersiach swą elegancją – nikt nie potrafi przedstawić złożoności z takim wdziękiem” [http://krugman.blogs.nytimes.com/2010/10/11/what-we-learn-from-search-models/]. Jeśli chodzi 122 Laureaci Nagrody Nobla sporą dozę subiektywizmu jurorów, gdyż nie sposób bezwzględnie porównać zasług osób nominowanych, zwłaszcza w kontekście społecznej użyteczności wyników ich badań czy wkładu w rozwój tej dość rozległej dziedziny nauki. Charakterystyczne, że wiek laureatów w naukach ekonomicznych jest stosunkowo zaawansowany, co może sugerować, że kapituła Nagrody Nobla w tej dziedzinie preferuje całokształt dorobku naukowego, starając się unikać (choć nie zawsze to się udaje) koniunkturalności w swych werdyktach3. W dobie osiągnięć technologii komunikacyjnych, wpływających niemal na wszystkie sfery aktywności człowieka, gdy w mgnieniu oka przeprowadzane są m.in. transakcje finansowe na kwoty i odległości, których przeciętny człowiek nie widzi w całym życiu, gdy coraz powszechniej występują przeglądarki internetowe pozwalające porównywać oferty różnych dóbr i usług, często występują sytuacje, w których sprzedający nie znajdują kupujących, a zwłaszcza wielu bezrobotnych bezskutecznie zabiega o zatrudnienie, podczas gdy pracodawcy w tym samym czasie usiłują pozyskać pracowników. Dzieje się tak m.in. dlatego, że procesy poszukiwań wymagają nakładów, w tym nakładów czasu. Skala tych nakładów zwiększa się wraz z rozeznaniem wpływu coraz większej liczby zmiennych, które wywołują frykcje na rynku. Tegoroczną Nagrodę Nobla w ekonomii przyznano za fundamentalny wkład w rozwój teorii poszukiwań i dopasowań (search and matching theory), która jest stosowana na wielu obszarach badawczych. Szczególnie znane przykłady to rynek nieruchomości, polityka pieniężna, ekonomia publiczna, finanse, ekonomia regionalna czy ekonomika rodziny. Trzej wyróżnieni nią laureaci otrzymali ją za swój wkład w rozwój zastosowań tej teorii w analizie rynków pracy i w objaśnianiu przyczyn bezrobocia. Teoria ta stwarza podstawy do badania frykcji towarzyszących transakcjom rynkowym, jakie odbywają się w praktyce i pozwala na lepsze poznanie funkcjonowania rynków, zwłaszcza zaś poznanie, w jaki sposób regulacje administracyjne i polityka ekonomiczna wpływają na rozmiary bezrobocia, liczbę wolnych miejsc pracy oraz wysokość płac. Ma także bezpośrednie odniesienie do rozwiązań w zakresie poziomu świadczeń dla bezrobotnych czy zasad przyjęć oraz zwolnień z pracy, wskazując, że wyższe świadczenia dla bezrobotnych stymulują wyższy poziom bezrobocia i wydłużają okres poszukiwań pracy. Nagrodę Nobla z zakresu nauk ekonomicznych w 2010 r. otrzymali profesorowie: Peter A. Diamond (MIT – USA, lat 70), Dale Mortensen (Northwestern University – USA, lat 71) i Chistopher Pissarides (London School of Economics – Wielka Brytania, lat 62) w uznaniu osiągnięć „za ich analizy frykcji4 w poszukiwaniach rynkowych”5. o środowisko polskich ekonomistów, M. Kabaj jest zadowolony że tegoroczny Nobel w dziedzinie ekonomii przypadł osobom zajmującym się analizami dotyczącymi bezrobocia. Wiceprezes Business Centre Club – Z. Żurek chwali decyzję Komitetu, choć przyznaje, że była ona pewnym zaskoczeniem. W. Wojciechowski ocenia, że jest „to teoria, która w nowatorski sposób zobrazowała działanie rynku pracy i opisała wpływ poszczególnych regulacji na poziom bezrobocia […]. Wzmocniła aparat analityczny, który musi być podstawą do formułowania polityki gospodarczej”. Por. http://www.money.pl/gospodarka/wiadomości/artykuł/ eksperci;o;ekonomicznym;noblu;bezrobocie;to;dzuma,82,0690770.html. Natomiast J. Winiecki wypowiada się o osiągnięciach laureatów dość sceptycznie, sytuując je w sferze metod, a nie teorii lub ich weryfikacji, przy czym nie wprost sugeruje, iż nagrodzone badania „przynoszą rezultaty oczywiste i przed badaniami”. Por. http://www.money.pl/archiwum/winiecki;czas;banalnych;nobli;z;ekonomii,205,0,694221,html. W mediach można znaleźć wiele opinii, które eksponują pominięcie ekonomistów zajmujących się kryzysem. 3 Ocena sformułowana na podstawie informacji o wieku laureatów dostępnych na: http:/en.wikipedia. org/Wiki/List_of_Nobel_laureates_in_Economics (04.12.2010). 4 Angielski termin friction oznacza m.in. tarcie, konflikt, niezgodę, a w polskiej literaturze występuje w transkrypcji „frykcje”. Ekonomiczny sens terminu frykcje można wyjaśnić, odwołując się do rynku, na którym popyt i podaż nie dostosowują się harmonijnie do siebie natychmiast, lecz proces ten zachodzi w czasie, przy czym część popytu nie zostaje zaspokojona przez część dostępnej podaży. 5 http://nobel_prizes/economics/laureates/2010/Press.html (03.12.2010). L.J. Jasiński sentencję uzasadnienia Nagrody tłumaczy jako „rynek z frykcjami wymagającymi przezwyciężenia lub rynek z frykcjami Laureaci Nagrody Nobla 123 W uzasadnieniu Komitet Noblowski wskazuje, że nagrodę przyznano trzem laureatom za ściśle powiązany wkład w analizy dyspersji cen i efektywności poszukiwań oraz prawidłowości zachowań ekonomicznych w warunkach frykcji, a w szczególności za rozwój koncepcji znanej współcześnie jako teoria poszukiwań i dopasowań bezrobocia. Zagadnienie czynników zakłócających prawidłowości zachowań podmiotów działających na rynku od dawna przyciągało uwagę ekonomistów. Miało to miejsce szczególnie w okresie wielkiego kryzysu gospodarczego [Chamberlin 1933; Robinson 1969; 1991]6. Krytyczne analizy modeli równowagi zapoczątkowane w latach 30. stały się w latach 60. przedmiotem badań z wykorzystaniem modeli matematycznych, w których poszukiwano najlepszych sposobów, dzięki którym kupujący może znaleźć dobro w akceptowalnej cenie. Dowiedziono, że nawet niewielkie koszty związane z poszukiwaniami rynkowymi wywołują radykalnie odmienny wynik w porównaniu z klasyczną równowagą w warunkach konkurencji. Stwierdzono, że ceny równowagi odpowiadają wtedy cenie równowagi, jaką monopolista może ustalać na swoim rynku bez ponoszenia kosztów poszukiwań. Wyniki te wzbudziły duże zainteresowanie i zainicjowały intensywne badania dotyczące poszukiwań rynkowych. Rozwój modeli równowagi z uwzględnieniem poszukiwań i dopasowań rozpoczął się w zasadzie na początku lat 70. i stopniowo stawał się popularny w licznych publikacjach (por. Markets with Search Frictions [2010]). W artykule A Model of Price Adjustment amerykański ekonomista P.A. Diamond [1971] przeanalizował sposób kształtowania się cen na rynku, na którym kupujący poszukują najkorzystniejszej ceny, a sprzedający równolegle dostosowują swoje najlepsze ceny, z uwzględnieniem poszukiwań nabywców. To właśnie Diamond – jeden z ubiegłorocznych laureatów, jest twórcą modelu, który pozwala wyjaśnić, dlaczego pracodawcy nie mogą szybko znaleźć odpowiednich pracowników, a producenci (sprzedający) – odbiorców swych produktów, pomimo, że obie strony operują na rynku i poszukują się wzajemnie. Inny Amerykanin – D. Mortensen i Ch. Pissarides – Brytyjczyk urodzony w Nikozji rozwinęli koncepcję Diamonda i zweryfikowali ją przy użyciu danych empirycznych, zwłaszcza danych dotyczących rynku pracy. W swym uzasadnieniu kapituła Nagrody Nobla wskazała, że badania laureatów są przydatne w wyjaśnianiu, w jaki sposób regulacje rynku i polityka ekonomiczna poszczególnych państw – może wpływać na poziom bezrobocia. Akcentowanie kwestii bezrobocia w dorobku laureatów, obok innych zasług dla nauk ekonomicznych, dość powszechnie wiąże się z kontekstem sytuacyjnym zaistniałym w następstwie globalnego kryzysu finansowego, który wpłynął na znaczne zwiększenie poziomu bezrobocia, na rynkach pracy krajów dotkniętych kryzysem, bezpośrednio lub pośrednio obarczonych jego konsekwencjami. 1. Charakterystyka laureatów Trójka laureatów tegorocznej Nagrody Nobla w dziedzinie ekonomii ma bogate życiorysy naukowe i pokrewne zainteresowania, choć niewiele jest łatwych do zidentyfikowania zmuszającymi do prowadzenia poszukiwań”. L.J.Jasiński, Nobel 2010, czyli badania rynku z frykcjami. (http://www.pte.pl/pliki/2/12/Jasinski-1.pdf 03.12.2010). 6 Bezrobocie frykcyjne jako przejaw niedopasowania popytu i podaży znalazło wyraz w pracy J. Robinson [1937] oraz późniejszych pracach A.M. Okuna [1975; 1991; Bailey i Okun 1965]. W opracowaniach tych zwracano jednak głównie uwagę na przyczyny bezrobocia frykcyjnego związane z sytuacją pracowników (koszty alokacji i uzyskania nowych kwalifikacji), a także na czynniki kształtujące koszty redystrybucji dochodu od bogatych do biednych. 124 Laureaci Nagrody Nobla dowodów na bezpośrednią między nimi współpracę. Analiza ich dorobku naukowego wskazuje zaś, co dostrzegł Komitet Nagrody Nobla, że przyczynili się oni walnie do rozwoju teorii dopasowywania się i jej wykorzystania – głównie do potrzeb analizy rynku pracy. Peter A. Diamond, urodzony 29 kwietnia 1940 r., ukończył studia matematyczne (B.A.) z tytułem summa cum laude w Yale University w 1960 r., a stopień doktora ekonomii uzyskał w 1963 r. w Massachusetts Institute of Technology (MIT). W latach 1963–1966 pracował w University of California w Berkeley, a od 1966 r. pracuje w MIT. Wielokrotnie odwiedzał zagraniczne ośrodki naukowe od Cambridge i Oxford, przez Jerozolimę i Nairobi, do Florencji i Sieny. Działał także aktywnie w instytucjach naukowych i agendach rządowych czy publicznych, głównie w USA. Był m.in. prezydentem Towarzystwa Ekonometrycznego, Amerykańskiego Stowarzyszenia Ekonomicznego, członkiem amerykańskiej Narodowej Akademii Nauk, a także członkiem założycielem Narodowej Akademii Zabezpieczenia Społecznego. Główne obszary jego zainteresowań naukowych to ekonomia polityczna, ekonomia dobrobytu i ekonomia behawioralna. Wiele jego prac dotyczyło ekonomii spraw publicznych i zabezpieczenia społecznego. P.A. Diamond wniósł duży wkład do badań nad takimi zagadnieniami, jak dług publiczny, akumulacja kapitału, rynki kapitałowe i dywersyfikacja ryzyka, optymalizacja podatków, poszukiwania i dopasowania na rynku pracy, a także zabezpieczenie społeczne7. Laureat jest autorem prawie dwustu publikacji, w tym 11 książek [np. A Search Equilibrium Approach to Micro Fundations of Macro-economics [Diamond 1984]; Behavioral Economics and its Applications [Diamond, Vartiainen 2007], około 140 artykułów oraz kilkunastu innych opracowań (np. Externalities and Efficiency in a Model of Stochastic Job Matching (współautor E. Maskin); Ranking, Unemployment Duration and Training Costs (współautor O. Blanchard)) i raportów (np. Pension Reform in China: Issues, Options and Recommendations (współautor N. Barr)) [http://econ-www.mit.edu/files/5411]. W związku z uzyskaną Nagrodą Nobla na szczególne wyróżnienie zasługują dwie publikacje artykułów Mobility Costs, Frictional Unemployment, and Efficiency [Diamond 1981] oraz Aggregate Demand Management in Search Equilibrium [Diamond 1982]. Warte podkreślenia jest, że to przede wszystkim P.A. Diamond jest autorem modelu ekonomicznego opracowanego w 1982 r., a nazywanego niekiedy modelem orzecha kokosowego. Nazwa modelu pochodzi od przykładu wymyślonego przez autora 8. Diamond wykorzystuje w nim ciągle aktualną ekonomię poszukiwań (search economy), zgodnie z którą handlujący (kupujący i sprzedający) nie mogą łatwo znaleźć partnerów transakcji. Głównym przesłaniem tego modelu jest to, że oczekiwania ludzi odnośnie do zagregowanego poziomu aktywności odgrywają główną rolę w wyznaczaniu rzeczywistego pozio7 Osiągnięcia P.A. Diamonda okazały się wystarczające, aby został laureatem Nagrody Nobla, to jednak w sierpniu 2010 r. Senat USA wstrzymał jego kandydaturę do FED, zgłoszoną przez prezydenta B. Obamę, który ponowił swój wniosek w listopadzie 2010 r. [http://www.nytimes.com/2010/10/12/opinion/12tue4. html?_r=1&ref=peter_a_diamond]. 8 P.A. Diamond wymyślił wyspę (odzwierciedlającą gospodarkę zamkniętą) zamieszkałą tylko przez jednostki żywiące się orzechami kokosowymi. Orzechy są pozyskiwane przez zrywanie z palm kokosowych rosnących na wybrzeżu (produkowane). Z powodu szczególnego tabu panującego na wyspie osoba, która zerwie orzech, nie może skonsumować jej sama, lecz musi znaleźć drugą posiadająca kokos. Wtedy te dwie jednostki mogą wymienić się swoimi kokosami, a następnie je zjeść. Istotą kwestii zawartej w tej przypowieści jest to, że jednostka, która znajdzie palmę kokosową, będzie skłonna wspinać się na nią po orzechy, a wspinanie jest związane z wysiłkiem (jest kosztowne), który opłaca się ponieść tylko wtedy, gdy istnieje odpowiednio duża liczba innych jednostek skłonnych podjąć takie działanie. Jeżeli nikt inny nie pozyskuje kokosów, wtedy nie będzie potencjalnych partnerów do transakcji i wspinanie się nie będzie warte wysiłku. W ten mniej więcej sposób przekonania jednostek o działaniach innych determinują kształtowanie ogólnych wyników ich działalności. Por. Diamond [1982]. Laureaci Nagrody Nobla 125 mu działalności ekonomicznej. Częsta interpretacja tego wniosku w odniesieniu do rynku pracy sugeruje, że tzw. naturalna stopa bezrobocia może nie mieć unikalnego charakteru (w gruncie rzeczy może występować całe spectrum takich naturalnych stóp), a gdy nawet ma ona taki unikalny, jednostkowy charakter, może nie być efektywna. Model ten należy do klasy, w którym zakłada się prawdopodobieństwo zawodności koordynacji (coordination failure). Dale Thomas Mortensen, urodzony 2 lutego 1939 r. w Enterprise (Oregon, USA), studiował ekonomię na Willamette University, gdzie zdobył stopień B.A. w 1961 r., a doktorat uzyskał na Carnegie Mellon University w 1967 r. Od roku 1965 pracuje w Northwestern University, a od 1980 r. jest profesorem ekonomii menedżerskiej i nauki decyzji w Kellogg School of Management. W latach 2006–2010 D.T. Mortensen pracował także w School of Economics and Management, University of Aarhus (Dania). Jego aktywność naukowa wiązała się z licznymi kontaktami akademickimi. Mortensen wykładał m.in. na uniwersytetach: Hebrew (1979 i 1985), Cornell (1984), New York (1985), Essen (1993), Queens (2002), Copenhagen (2000), Humboldt (2002), Pennsylvania (2004), California Institute of Technology (1994), Australian National University (1996), a ponadto w Centralnym Instytucie Matematyczno-Ekonomicznym Akademii Nauk ZSRR w Moskwie (1989), Instytucie Studiów Pracy (Bonn – od 2001 r.) i w Narodowym Biurze Badań Ekonomicznych (Cambridge, Mass. – 2005 r.) [http://sites.google.com/site/ dalemortensensite/home/cv]. D.T. Mortensen jest aktywnym członkiem towarzystw naukowych (m.in. American Economics Association, Econometric Society, Society of Economic Dynamics, Society of Labor Economics), rad programowych czasopism (np. „American Economic Review”) i redaktorem czasopism („Review of Economic Dynamics”) oraz innych organizacji (np. Advisory Board of the Tinbergen Institute) [http://sites.google.com/site/dalemortensensite/home/cv]. Badania laureata koncentrują się na ekonomice pracy, makroekonomii i teorii ekonomii. Jednak szczególnie znany jest za pionierskie prace nad teorią poszukiwań i dopasowań dotyczącą bezrobocia frykcyjnego. Mortensen wniósł istotny wkład w poznanie procesów ruchu zatrudnienia i mobilności pracowników, badań i rozwoju oraz stosunków personalnych [http://en.wikipedia.org/wiki/Dale_T._Mortensen#References]. Jego koncepcja, zgodnie z którą frykcje są odpowiednikiem losowego doboru partnerów transakcji, stała się wiodącą metodą analizy rynku pracy i efektów polityki rynku pracy. Rozwój dynamicznych modeli równowagi dotyczących pomiaru dyspersji wynagrodzeń, analiza szeregów czasowych zatrudnienia i rola mobilności pracowniczej w kształtowaniu wzrostu produkcji wydajności pracy to najważniejsze zagadnienia jego aktualnych prac badawczych. Publikacje D.T. Mortensena liczą około 60 pozycji. Jest wśród nich monografia: Wage Dispersion: Why are Similar People Paid Differently [Mortensen 2003]9 około 20 rozdziałów w pracach zbiorowych i materiałach konferencyjnych oraz ponad 30 artykułów w czasopismach. Do szczególnie znaczących można zaliczyć następujące opublikowane prace: More on Unemployment and Vacancy Fluctuations [Mortensen, Nagypál 2007], Wage Differentials, Employer Size, and Unemployment [Burdett, Mortensen 1998, s. 257–273], Job Creation and Job Destruction in the Theory of Unemployment [Mortensen, Pissarides 1994], Job Search and Labor Market Analysis [Mortensen 1986], Property Rights and Efficiency of Mating, Racing, and Related Games [Mortensen 1982], The Matching Process as 9 Cztery kolejne są w druku, w tym książka Search, Matching, Wage Dispersion and Unemployment (Oxford University Press) napisana wspólnie z Ch.A. Pissaridesem. 126 Laureaci Nagrody Nobla a Non-cooperative/Bargaining Game [Mortensen 1982], A Theory of Wage and Employment Dynamics [Mortensen 1972]. Christopher Antoniou Pissarides urodził się 20 lutego 1948 r. w Nikozji na Cyprze. Studiował w uczelniach brytyjskich. Z wyróżnieniem ukończył University of Essex (B.A. – w 1970 r.), a w 1973 r. uzyskał stopień doktora ekonomii w London School of Economics na podstawie rozprawy pt. Individual Behaviour in Markets with Imperfect Information. Karierę naukową rozpoczął w University of Southampton, a później podjął pracę w London School of Economics, gdzie pracuje do dzisiaj. W trakcie kariery zawodowej łączył pracę naukową z działalnością w praktyce gospodarczej; pracował m.in. w Banku Centralnym Cypru, Banku Anglii, Reserve Bank of Australia, Banku Światowym, agendach Komisji Europejskiej. Prof. Ch.A. Pissarides bardzo często wykładał za granicą – niemal na wszystkich kontynentach. Był profesorem wizytującym na Cyprze, a także w Hongkongu, wykładał w Bergamo, Bonn, Madrycie, Montevideo, Montrealu, Oxfordzie, Rio de Janeiro, Syros, Seulu, wielu amerykańskich uniwersytetach (w tym California, Harvard, Princeton i Yale), a ponadto w Institute of Advanced Studies w Wiedniu oraz w European University Institute we Florencji. Laureat jest prezydentem elektem European Economic Association oraz członkiem wielu organizacji i stowarzyszeń naukowych. Ch.A. Pissarides specjalizuje się w ekonomice bezrobocia, polityce rynku pracy, a ostatnio także w problematyce wzrostu i zmian strukturalnych. W dorobku laureata znajdują się m.in. trzy samodzielne monografie (w tym: Equilibrium Unemployment Theory [Pissarides 2000]10, Labour Market Adjustment: Microeconomic Foundations of Short-Run Neoclassical and Keynesian Dynamice [Pissarides 1976], współautorstwo trzech innych książek [w tym: Women at Work: An Economic Perspective [Pissarides 2005], ponad 60 artykułów w czasopismach, a także kilkanaście rozdziałów w monografiach zbiorowych oraz wiele innych opracowań [http://personal.lse.ac.uk/pissarid/CV.pdf]. 2. Podejście do badania rynku W ujęciu neoklasycznym kupujący i sprzedający w zasadzie zawierają transakcję kupna-sprzedaży na rynku w jednej chwili, a zawarcie tej transakcji nie pociąga za sobą żadnych kosztów transakcyjnych. W mechanizmie rynkowym oznacza to, że ceny ustalają się jakby automatycznie w taki sposób, że podaż równa jest popytowi, a na rynku nie występuje niedobór lub nadmiar dóbr czy usług. W praktyce taka sytuacja występuje stosunkowo rzadko i dotyczy dość specyficznych segmentów rynku (np. rynków nisko przetworzonych i jednorodnych produktów żywnościowych). Rzeczywistość jest częściej dużo bardziej skomplikowana. Podmioty operujące na rynku ponoszą zwykle znaczne nakłady związane z poszukiwaniem partnerów do transakcji, a jeżeli nawet obie strony skomunikują się ze sobą, nie muszą natychmiast dojść do porozumienia co do warunków transakcji, w tym zwłaszcza ceny. Procesy rynkowe zachodzące w warunkach, gdy kupujący czy sprzedający nie natrafiają na siebie automatycznie, a więc występują pewne frykcje związane z poszukiwaniami (search frictions), były przedmiotem badań prowadzonych przez P.A. Diamonda, D.T. Mortensena i Ch.A. Pissaridesa. Zastosowania modelu rynku, na którym występują frykcje, są bardzo szerokie. Ramy teoretyczne stworzone przez trzech ekonomistów wyróżnionych są wykorzystywane m.in. 10 Praca ta stanowi kanon w literaturze z zakresu ekonomiki bezrobocia. Laureaci Nagrody Nobla 127 do analiz zachowania podmiotów na rynkach nieruchomości, rynku finansowym czy w procesach dopasowań matrymonialnych (tzw. family economics). Stosowane są również w planowaniu przestrzennym, pozwalając na modelowanie rozmieszczenia ludności. Nazwiska Diamonda, Mortensena i Pissaridesa pojawiają się jednak najczęściej w kontekście badań nad rynkiem pracy, co wobec wyzwań społecznych nawet w krajach wysoko rozwiniętych stanowi ważne uzasadnienie werdyktu Komitetu Nagrody Nobla. Procesy rynkowe, w których występują frykcje, związane są z koniecznością poszukiwania odpowiednich stron transakcji. W istotny sposób różnią się one od sposobu funkcjonowania mechanizmu rynkowego w ujęciu neoklasycznym. Jak wykazał Diamond [1971], w sytuacji gdy poszukiwanie kontrahentów jest kosztowne, cena równowagi będzie bliższa cenie monopolistycznej niż wolnokonkurencyjnej. Sprzedawcy będą bowiem podnosić ceny dóbr wiedząc, że klienci nie mogą znaleźć atrakcyjniejszej oferty bez ponoszenia kosztów. Późniejsze analizy opierające się na koncepcji Diamonda pozwoliły ponadto na teoretyczne ujęcie zjawiska zróżnicowania cen. Na „rynku neoklasycznym” w punkcie równowagi ustala się jedna cena. Na rynku z frykcjami, ze względu na koszty poszukiwań i niedoskonałą informację, dobra o takich samych właściwościach mogą mieć różne ceny. Na rynku z frykcjami występują również specyficzne efekty zewnętrzne, które nie są brane pod uwagę w modelu neoklasycznym. Zwiększenie intensywności poszukiwań przez dany podmiot wpływa bowiem na efektywność poszukiwań pozostałych graczy na rynku. Jeśli np. osoba bezrobotna zaczyna intensywniej szukać zatrudnienia, szanse innych bezrobotnych na znalezienie pracy spadają. Efekty zewnętrzne mogą prowadzić do problemu zawodności koordynacji na rynku, na którym możliwe jest występowanie wielu stanów równowagi, a osiągnięcie stanu najkorzystniejszego może wymagać interwencji z zewnątrz (np. państwa). 3. Analizy dostosowań na rynku pracy w modelu DMP Na rynku z frykcjami wymiana nie dokonuje się automatycznie. Gracze rynkowi spotykają się i negocjują cenę, a po jej ustaleniu decydują o przeprowadzeniu transakcji bądź poszukiwaniu transakcji atrakcyjniejszej. Model uwzględniający frykcje w bardziej naturalny sposób niż model neoklasyczny odzwierciedla zjawiska występujące na rynku pracy: współistnienie bezrobocia i wolnych miejsc pracy, zróżnicowanie wynagrodzeń osób o takich samych cechach czy długotrwałe utrzymywanie się wysokiej stopy bezrobocia. Nazwiska ubiegłorocznych noblistów w ekonomii cytowane są więc najczęściej w badaniach rynku pracy. Najbardziej znany model, powstały na bazie prac Diamonda, Mortensena i Pissaridesa (tzw. model DMP) [http://www.kva.se/Documents/Priser/Ekonomi/2010/ pop_ek_en_10.pdf], opisuje przepływy siły roboczej na rynku pracy, zachowania pracowników i pracodawców oraz negocjacje płacowe. W równaniu przepływów siły roboczej istotnym elementem jest funkcja dopasowania (matching function), w której strumień nowo obsadzonych miejsc pracy zależy od liczby wakatów i liczby osób poszukujących zatrudnienia. Funkcja dopasowania odzwierciedla tarcia na rynku pracy. Tarcia te sprawiają, że w danym momencie tylko część bezrobotnych znajduje pracę i tylko część pracodawców wypełnia wakujące stanowiska pracy. Wielkości te zależą m.in. od tego, jak chłonny (ciasny) jest rynek pracy (labor market tightness). Im rynek jest bardziej chłonny, tzn. im wyższy jest stosunek liczby wakatów do liczby bezrobotnych, tym trudniej firmom znaleźć odpowiedniego pracownika. W punkcie równowagi przepływy siły roboczej od stanu bezrobocia do stanu zatrudnienia są 128 Laureaci Nagrody Nobla równoważone przez przepływy w odwrotnym kierunku. Stopa bezrobocia utrzymuje się więc na stałym poziomie. Równanie opisujące przepływy siły roboczej na rynku pracy odzwierciedla opisaną w latach 40. przez W. Beveridge’a ujemną korelację między liczbą wakatów i stopą bezrobocia w gospodarce. Wzrost stopnia dopasowania na rynku pracy (matching efficiency), odzwierciedlany przez przesunięcie krzywej Beveridge’a do wewnątrz (do początku układu współrzędnych), prowadzi do spadku stopy bezrobocia równowagi (zwiększenie liczby wakatów wiąże się z szybszym ograniczeniem bezrobocia). Badanie relacji między liczbą wakatów a stopą bezrobocia może być źródłem cennych informacji dla polityków i decydentów. Ruchy wzdłuż krzywej Beveridge’a mogą odzwierciedlać krótkoterminowe czy cykliczne zmiany podaży i popytu na pracę. Jednoczesny wzrost liczby wakatów i stopy bezrobocia jest dużo bardziej niepokojący. Przesunięcie krzywej Beveridge’a na zewnątrz (od początku układu współrzędnych) może bowiem sygnalizować wzrost długookresowej stopy bezrobocia. Za ten wzrost może odpowiadać np. spadek jakości dopasowania cech pracowników i wymagań stanowisk pracy (pracodawców). Drugi element modelu DMP charakteryzuje zachowania osób poszukujących zatrudnienia. O tym, czy bezrobotny rozpocznie pracę, decyduje racjonalna kalkulacja korzyści wynikających z obu stanów, tzn. bycia bezrobotnym lub zatrudnionym. Na dyskontowaną wartość pozostawania bezrobotnym składa się m.in. wysokość zasiłku powiększona o pewną oczekiwaną premię z tytułu podjęcia pracy (premia będzie tym wyższa, im wyższy będzie stosunek liczby wakatów do liczby bezrobotnych)11. Na bieżącą wartość stanu zatrudnienia składa się możliwa do uzyskania płaca pomniejszona o potencjalną stratę związaną z ryzykiem utraty pracy. Wartości stanu zatrudnienia i bezrobocia zależą więc od wysokości zasiłku dla bezrobotnych (ewentualnie powiększonego o subiektywną wartość czasu wolnego lub prac domowych, wykonywanych samodzielnie), wysokości możliwego do uzyskania wynagrodzenia z tytułu podjęcia pracy, stopy dyskontowej oraz prawdopodobieństwa znalezienia pracy (związanego z tym, jak chłonny jest rynek pracy) i ryzyka utraty zatrudnienia (w modelu podstawowym jest to wielkość egzogeniczna). Analogicznie do bezrobotnych, również pracodawcy podejmują decyzję o zatrudnieniu na podstawie porównania dyskontowanej wartości wakatu z bieżącą wartością obsadzonego stanowiska pracy. Na pierwszą wielkość składa się oczekiwana premia, którą pracodawca uzyska zatrudniając pracownika (będzie ona tym wyższa, im mniej chłonny jest rynek pracy), pomniejszona o koszty generowane przez wakujące stanowisko. Z kolei wartość obsadzonego stanowiska określa nadwyżka wartości wytworzonej przez pracownika nad jego wynagrodzeniem, pomniejszona o potencjalną stratę ponoszoną przez przedsiębiorstwa w przypadku rozwiązania umowy o pracę. Przy założeniu, że w warunkach równowagi wartość wakującego stanowiska wynosi zero (firmy będą otwierały nowe stanowiska pracy dopóki to będzie opłacalne), za pomocą równania można wyznaczyć teoretycznie determinanty tworzenia nowych miejsc pracy. Przedsiębiorstwa będą tym chętniej tworzyć wakaty, im łatwiejsze będzie znalezienie odpowiedniego pracownika (większa efektywność dopasowania). Z kolei do czynników ograniczających liczbę ofert pracy należą wysokie koszty tworzenia miejsc pracy i wysoki poziom ryzyka rozwiązania kontraktu z pracownikiem. Ponadto opłacalność tworzenia nowych miejsc pracy będzie spadała wraz ze wzrostem stopy procentowej. W przeciwieństwie do ujęcia neoklasycznego, w modelu DMP wysokość wynagrodzenia jest ustalana poprzez negocjacje pracodawcy i osoby bezrobotnej. Ze względu na to, 11 Innymi słowy, im ciaśniejszy będzie rynek pracy. Laureaci Nagrody Nobla 129 że na rynku pracy występują tarcia (znalezienie odpowiedniego pracownika oraz odpowiedniego stanowiska pracy wymaga poniesienia nakładów), negocjacje zakończone powodzeniem generują rentę, która dzielona jest między pracownika i pracodawcę. Proporcje podziału tej renty zależą od siły negocjacyjnej stron. Negocjowana stawka będzie wzrastała wraz z wartością pozostawania bezrobotnym i wydajnością pracownika. Ponadto wynagrodzenie będzie tym wyższe, im trudniej będzie znaleźć pracownika (im chłonniejszy jest rynek pracy). Scharakteryzowane zależności, które w literaturze są przestawiane także w postaci formuł matematycznych, stanowią ramy analizy makroekonomicznej, dzięki którym możliwe jest pełniejsze odzwierciedlenie prawidłowości występujących na rynku pracy. W przeciwieństwie do podejścia makro, ujęcie mikroekonomiczne często odzwierciedla tylko stan równowagi cząstkowej (analizując np. determinanty bezrobocia od strony podażowej, a czynniki popytowe uznając za dane). Natomiast model DMP bierze pod uwagę interakcję czynników podażowych i popytowych. Mortensen zauważa np., że „zdaniem wielu autorów wypłacane zasiłki wydłużają okres pozostawania bez pracy, ponieważ zmniejszają motywację bezrobotnych do poszukiwania zatrudnienia. Modele z funkcją dopasowania sugerują również interpretację, w której podniesienie zasiłku dla bezrobotnych wywołuje presję na wzrost płac, co zmniejsza liczbę oferowanych miejsc pracy” [Mortensen 1994b, s. 192]. Na bazie statycznego modelu DMP został skonstruowany dynamiczny model równowagi ogólnej, który znacznie wzbogacił dorobek ekonomii w zakresie badań nad cyklami koniunkturalnymi. W modelu dynamicznym głównym wskaźnikiem jest poziom bezrobocia. Model przewiduje szybką reakcję gospodarki na negatywne szoki, czego przejawem jest gwałtowny spadek zatrudnienia. Zmniejszanie poziomu bezrobocia w wyniku poprawy koniunktury następuje wolniej, m.in. dlatego, że proces rekrutacji i selekcji pracowników jest czasochłonny (por. Markets with Serach Frictions [2010]). 4. Dorobek laureatów a polityka rynku pracy Model DMP stosuje się szeroko w analizach efektywności instrumentów rynku pracy. Badania z wykorzystaniem ram analitycznych Diamonda, Pissaridesa i Mortensena wskazują na pozytywną zależność między wysokością świadczeń dla bezrobotnych a stopą bezrobocia. Jak wyjaśniono wcześniej, zwiększenie zasiłku dla bezrobotnych wpływa zarówno na stronę podaży (słabnie motywacja bezrobotnych do poszukiwania pracy), jak i popytu (konieczność zaoferowania wyżej stawki wynagrodzenia) na rynku pracy. Ramy analityczne stworzone przez tegorocznych laureatów nie wykluczają jednak przydatności zasiłków dla poprawy efektywności rynku pracy. Jeżeli warunkiem otrzymania zasiłku jest faktyczne i aktywne poszukiwanie pracy, to świadczenia dla bezrobotnych, poprzez poprawę jakości dopasowania pracowników i pracodawców mogę zwiększyć ogólny dobrobyt. Badania opierające się na modelu DMP wskazują zwykle na ograniczoną skuteczność różnych form ochrony pracowników przed zwolnieniem. Instrumenty te bez wątpienia zmniejszają skłonność do zwalniania pracowników, ograniczając strumień przepływów od stanu zatrudnienia do stanu bezrobocia. Jednocześnie zwiększają koszty zatrudnienia i ograniczają popyt na pracę. Jeśli ten drugi efekt jest dominujący, zwiększenie poziomu ochrony zatrudnienia może doprowadzić do wzrostu stopy bezrobocia. Analizy z wykorzystaniem narzędzi zaproponowanych przez nowo uhonorowanych noblistów prowadzą do pozytywnej oceny efektywności instrumentów aktywnej polity- 130 Laureaci Nagrody Nobla ki rynku pracy w walce z bezrobociem. W modelu DMP subsydia dla firm zatrudniających nowych pracowników istotnie zmniejszają liczbę bezrobotnych, pomimo występowania niepożądanych efektów wywołanych stosowaniem subsydiów: większej skłonności pracodawców do zwalniania pracowników oraz ograniczenia liczby wakatów na skutek zwiększonego opodatkowania pracy (nakładanego w celu sfinansowania wypłaty subsydiów). Ponadto model DMP uzasadnia interwencję państwa poprawiającą jakość dopasowania pracowników i pracodawców. Biorąc pod uwagę nie tylko wnioski wynikające z teorii, lecz również obecny poziom bezrobocia w poszczególnych krajach, pozytywnie ocenia się te instrumenty polityki rynku pracy, które prowadzą do zmniejszenie frykcji na rynku. Podkreśla się np. wysoką skuteczność rozwiązań polegających na dokładnym monitorowaniu aktywności bezrobotnych w poszukiwaniu zatrudnienia oraz kierowaniu osób pozostających bez pracy na kursy doszkalające (np. Dania, Holandia) [por. Bezrobocie w Europie… 2010]. Na jakość dopasowania pracowników do stanowisk pracy istotny wpływ ma system edukacji. W tym kontekście na uwagę zasługuje tzw. dualny system edukacji zawodowej. W ramach tego systemu kształcenie odbywa się częściowo w szkole, ale przede wszystkim w formie praktyki u pracodawców. W okresie stażu uczniowie zdobywają praktyczne umiejętności zawodowe, a pracodawcy mają możliwość oceny efektywności ich pracy. W krajach, gdzie występuje model dualny (np. Niemcy, Austria, Szwajcaria), stopa bezrobocia osób młodych kształtuje się na stosunkowo niskim poziomie, zarówno w ujęciu bezwzględnym, jak i w relacji do stopy bezrobocia osób w wieku produkcyjnym. Mimo wysokiego poziomu ochrony zatrudnienia w tych krajach pracodawcy nie obawiają się zatrudniać absolwentów, ponieważ mają dobrą wiedzę o ich przydatności do pracy [Butler 2010]. Ponadto liczba ofert stażowych w określonych branżach i na danych stanowiskach stanowi ważny sygnał informujący o strukturze popytu na pracę, co poprawia efektywność alokacji siły roboczej na rynku pracy. Stosunkowo dobrze funkcjonują również rynki pracy tam, gdzie system edukacji jest nastawiony wprawdzie na kształcenie ogólne, jednak niski poziom ochrony zatrudnienia nie zniechęca pracodawców do zatrudniania absolwentów (np. Stany Zjednoczone). Wbrew często powtarzanym opiniom, do zmniejszenia poziomu frykcji na rynku pracy może przyczynić się działalność związków zawodowych. Znaczenie ma jednak poziom uzwiązkowienia. Silne, scentralizowane związki zawodowe, których przedstawiciele rozumieją mechanizmy rządzące rynkiem pracy, mogą stworzyć odpowiedni klimat dla reform. Podobny konsensus będzie trudny do osiągnięcia, jeśli związki są rozdrobnione i reprezentują interesy wąskiej grupy pracowników. Uwagi końcowe Teoretyczne podstawy badań, które zostały nagrodzone ostatnią Nagrodą Nobla w dziedzinie ekonomii, zostały przede wszystkim sformułowane przez P.A. Diamonda, a następnie rozwinięte i wykorzystane w badaniach empirycznych prowadzonych wspólnie przez D.T. Mortensena i Ch.A. Pissaridesa. Poza innymi obszarami zastosowań dowodzą one, że bezrobocie frykcyjne jest związane głównie z mobilnością przestrzenną, w następstwie niedopasowania kwalifikacji kandydatów do zatrudnienia i potrzeb pracodawców. Teoria laureatów wyjaśnia także wpływ polityki państwa na skalę bezrobocia frykcyjnego oraz identyfikuje możliwości łagodzenia nierównowagi i ograniczania jej kosztów społecznych oraz indywidualnych przez odpowiednie wykorzystanie instrumentów polityki rynku pracy czy polityki społecznej. Laureaci Nagrody Nobla 131 Osiągnięcia poznawcze laureatów, wywodzące się z ujęć mikroekonomicznych w badaniu procesów bezrobocia, mogą być szeroko wykorzystywane w praktyce społecznej, zwłaszcza w doskonaleniu procesów dopasowania możliwości i oczekiwań kandydatów do zatrudnienia z jednej strony oraz potrzeb i ofert pracodawców pracy z drugiej. Według laureatów okres dopasowywania możliwości i oczekiwań poszukujących pracy i oferujących miejsca pracy jest funkcją dostępu do informacji, których brak istotnie wpływa na jego wydłużanie, a ponadto generuje koszty i ryzyko. Ustalenia laureatów pozwalają na dokładniejsze szacowanie kosztów i efektów stosowania instrumentów polityki społecznej, w tym instrumentów zabezpieczenia społecznego, w szczególności zaś zasiłków dla bezrobotnych, a także promowanie choćby krótkookresowego zatrudnienia, przeciwdziałającego utracie zdolności do zatrudniania, czyli „zatrudnialności” (employability). Reasumując, dokonania laureatów, mające znacznie szersze możliwości zastosowania, potwierdzenie swej wartości zyskały w odniesieniu do rynku pracy. Wyraża się to wskazaniem, że wielkość bezrobocia frykcyjnego, zależna od rozrzutu ofert pracy i kosztów dla pracowników o podobnych kwalifikacjach, ma nie tylko rozliczne i zindywidualizowane uwarunkowania, lecz także konsekwencje gospodarcze. Swoiste stany równowagi osiągane są na bardzo zmiennym poziomie. Kształtuje go nie tylko wielkość podażu i popytu na pracę oraz ich struktura, ale i warunki panujące tak w skali regionalnej, jak i globalnej. Uzupełnienie osiągnięć laureatów o koncepcje francuskich ekonomistów Oliviera Blancharda i Jeana Tirolea [2004, 2008], twierdzących, że poważne problemy na rynku pracy powstają, gdy dochodzi do szoków kryzysowych (np. część przedsiębiorstw, a nawet całe gałęzie gospodarki ulegają likwidacji lub bankrutują, a ich pracownicy tracą pracę), pozwala odnosić je do współczesnej praktyki. Chodzi głównie o wykorzystanie dyrektyw płynących z nagrodzonych osiągnięć w aktualnej strukturze gospodarczej wielu krajów, w tym krajów Unii Europejskiej. Powstaje pytanie, czy ich zastosowanie pozwoliłoby ograniczyć bezrobocie, gdyby kraje zreformowały swe rynki pracy, szczególnie od strony regulacyjnej. Dotyczy to także kwestii przekwalifikowania lub mobilności tracących pracę, zwłaszcza zaś poszukiwania przez nich pracy w ośrodkach czy regionach, które charakteryzuje rozwój lub gdzie występują wolne miejsca pracy, ale konieczna jest migracja. Nie podlega dyskusji, że brak elastyczności rynku pracy – w aspekcie elastyczności zasobowej, funkcjonalnej czy motywacyjnej – rodzi niebezpieczeństwo przekształcania bezrobocia frykcyjnego w bezrobocie strukturalne, które w relatywnie dłuższym okresie powoduje spadek motywacji do poszukiwań pracy, czyli pierwotnie skłonności, a później także zdolności do zatrudnienia. Jednak coraz aktualniejsze jest pytanie o granice tej elastyczności w stosunku do historycznie ukształtowanych standardów oraz warunków pracy i płacy, chodzi także o granice mobilności przestrzennej, biorąc pod uwagę daleko niehomogeniczny charakter rynków pracy, nie tylko w przekroju poszczególnych państw, ale wręcz kontynentów. Kontekstem systemowym, który może mieć znaczenie dla skuteczności recept płynących z badań laureatów, jest m.in. to, że współcześnie gospodarka globalna zmienia się o wiele szybciej niż to było w przeszłości, szybciej powstają i są wdrażane do praktyki nowe technologie, relatywnie dynamiczniej zmienia się struktura branżowa, rynki stają się bardziej otwarte, a gra rynkowa bardziej skomplikowana niż kilkadziesiąt lat temu. Rozwój systemu oświaty i popularyzacja koncepcji kształcenia przez całe życie (long life education) sprawiają, że coraz więcej ludzi szkoli się i stosunkowo szybko dostosowuje kwalifikacje do potrzeb rynku, nawet w krajach traktowanych do niedawna jako peryferyjne czy kraje trzeciego świata. Stąd m.in. szoki wywoływane zastosowaniem nowych technologii oraz – co szczególnie ważne – przenoszeniem ośrodków produkcji lub usług 132 Laureaci Nagrody Nobla już nie tylko między miastami czy regionami, ale kontynentami, powiązane z „horrendalnymi” wręcz korzyściami w zakresie kosztów pracy, ograniczają znaczenie tarć na rynkach krajowych czy regionalnych jako czynnika kształtowania poziomu bezrobocia. Tekst wpłynął 7 grudnia 2010 r. Bibliografia Baily M.N., Okun A.M., The Battle Against Unemployment and Inflation: Problems of Modern Economy, W.W. Norton & Co, New York 1965. Bezrobocie w Europie nie będzie już maleć (wywiad Jędrzeja Bieleckiego z Raymondem Torresem), „Dziennik Gazeta Prawna”, 15.10.2010, nr 202. Blanchard O.J., Diamond P.A., Ranking, Unemployment Duration and Wages, „Review of Economic Studies” 1984, nr 61(3). Blanchard O.J., Tirole J., The Joint Design of Unemployment, Insurance and Employment Protection: A First Pass, „Journal of the European Economic Association” 2008, nr 2. Blanchard O.J., Tirole J., The Optimal Design of Unemployment, Insurance and Employment Protection: A First Pass, National Bureau of Economic Research, „Working Papers” 2004, nr 10443. Burdett K., Mortensen D., Wage Differentials, Employer Size, and Unemployment, „International Economic Review” 1998, t. 39. Buttler D., Pozycja absolwentów na rynku pracy. Znaczenie komunikacji między szkołami a pracodawcami, „Zeszyty Naukowe Uniwersytetu Ekonomicznego w Poznaniu”, nr 120, Poznań 2010. Chamberlin E.H., The Theory of Monopolistic Competition, Harvard University Press, Cambridge, Mass., 1933. Diamond P.A., Aggregate Demand Management in Search Equilibrium, „Journal of Political Economy” 1982, nr 90(5). Diamond P.A., A Model of Price Adjustment, „Journal of Economic Theory” 1971, nr 3. Diamond P.A., A Search Equilibrium Approach to Micro Foundations of Macro-economics, MIT Press, Cambridge, Mass., 1984. Diamond P.A., Barr N., Pension Reform: A Short Guide, Oxford University Press, Oxford 2010. Diamond P.A., Barr N., Reforming Pensions: Principles, Analytical Errors, and Policy Directions, „International Social Security Review” 2009, t. 62. Diamond P.A., Maskin E., An Equilibrium Analysis of Search and Breach of Contract, I: Steady States, „Bell Journal of Economics” 1979, nr 10. Diamond P.A., Maskin E., An Equilibrium Analysis of Search and Breach of Contract, II: A Non ‑Steady State Example, „Journal of Economic Theory” 1981, nr 25. Diamond P.A., Mobility Costs, Frictional Unemployment, and Efficiency, „Journal of Political Economy” 1981, nr 89(4). Diamond P.A., Vartiainen H., Behavioral Economics and its Applications, Princeton University Press, Princeton 2007. Gleaser E., The Work Behind the Nobel Prize, http://www.economix.blogs.nytimes.com/2010/10/11thework-behind-the-nobel-prize/ Jasiński L.J., Nobel 2010, czyli badania rynku z frykcjami, http://www.pte.pl/pliki/2/12/Jasinski-1.pdf (03.12.2010). Markets with Search Frictions, Scientific Background on the Sveriges Riksbank Prize in Economic Sciences in Memory of Alfred Nobel, Stockholm, 11.10.2010. Mortensen D.T., A Theory of Wage and Employment Dynamics, w: Microeconomic Foundations of Employment and Inflation Theory, red. E. Phelps et al., Norton, New York 1972. Mortensen D.T., Job Search and Labor Market Analysis, Chapter 15 of Handbook of Labor Economics, t. 2, red. O. Ashenfelter, R. Layard, North-Holland, Amsterdam 1986. Laureaci Nagrody Nobla 133 Mortensen D.T., Nagypál E., More on Unemployment and Vacancy Fluctuations, „Review of Economic Dynamics”, 2007 nr 10 (3). Mortensen D.T., Pissarides Ch.A., Job Creation and Job Destruction in the Theory of Unemployment, „Review of Economic Studies” 1994, t. 61. Mortensen D.T., Pissarides Ch.A., Search, Matching, Wage Dispersion and Unemployment, Oxford University Press, Oxford 2011 (w druku). Mortensen D.T., Property Rights and Efficiency of Mating, Racing, and Related Games, „American Economic Review” 1982, nr 72(5). Mortensen D.T., Reducing Supply-side Disincentives to Job Creation, w: Reducing Unemployment: Current Issues and Policy Options, Federal Reserve Bank of Kansas City, Kansas City 1994b. Mortensen D.T., The Cyclical Behavior of Job and Worker Flows, „Journal of Economic Dynamics and Control” 1994a, t. 18. Mortensen D.T., The Matching Process as a Non-cooperative/Bargaining Game, w: The Economics of Information and Uncertainty, red. J. McCall, NBER 1982. Mortensen D.T., Wage Dispersion: Why are Similar People Paid Differently, MIT Press, Cambridge 2003. Okun A.M., Ceny i ilość: Analiza makroekonomiczna, WN PWN, Warszawa 1991. Okun A.M., Equality and Efficiency, the Big Trade Off, Brookings Institution, Washington, D.C. 1975. Pissarides Ch.A., Equilibrium Unemployment Theory, wyd. 2, MIT Press, Cambridge, Mass., 2000 (reprint 2007). Pissarides Ch.A., Labour Market Adjustment: Microeconomic Foundations of Short-Run Neoclassical and Keynesian Dynamics, University Press, Cambridge 1976 (re-issued in paperback, 2009). Pissarides Ch.A., Women at Work: An Economic Perspective, red. T. Boeri, D. del Boca and Ch. Pissarides, A Report for the Fondazione Rodolfo Debenedetti, Oxford University Press, 2005. Robinson J., Introduction to the Theory of Employment, Macmillan, London 1937. Robinson J., The Economics of Imperfect Competition, Macmillan, London 1933 (2d ed., 1969). Robinson J., Walka z bezrobociem: wstęp do teorii zatrudnienia, Delfin, Lublin 1991. The Prize in Economics 2010 – Scientific Background, Nobelprize.org, 8 Dec 2010, http://nobelprize. org/nobel_prizes/economics/laureates/2010/sci.html (07.12.2010). Netografia http://econ-www.mit.edu/files/5411 (03.12.2010). http://en.wikipedia.org/wiki/Dale_T._Mortensen#References http://en.wikipedia.org/Wiki/List_of_Nobel_laureates_in_Economics (04.12.2010). http://krugman.blogs.nytimes.com/2010/10/11/what-we-learn-from-search-models/ (03.12.2010). http://www.kva.se/Documents/Priser/Ekonomi/2010/pop_ek_en_10.pdf (07.12.2010). http://www.kva.se/Documents/Priser/Ekonomi/2010/sciback_ek_10.pdf (30.11.2010). http://www.money.pl/gospodarka/wiadomości/artykuł/eksperci;o;ekonomicznym;noblu;bezrobocie; to;dzuma,82,0690770.html (03.12.2010). http://www.money.pl/archiwum/winiecki;czas;banalnych;nobli;z;ekonomii,205,0,694221l.html (03.12.2010). http://www.nytimes.com/2010/10/12/opinion/12tue4.html?_r=1&ref=peter_a_diamond (07.12.2010). http://nobel_prizes/economics/laureates/2010/Press.html (03.12.2010). http://personal.lse.ac.uk/pissarid/CV.pdf (01.12.2010). http://profilefacts.blogspot.com/2010/nobel-in-economics.html (06.12.2010). http://www.riksbank.se/templates/Pages.aspx?id=20286 (07.12.2010). http://sites.google.com/site/dalemortensensite/home/cv http://static.nobelprize.org/nobel_prizes/economics/laureates/2010/ecoadv10.pdf (11.10.2010). Krzysztof Nowak* Problem bezrobocia strukturalnego: czego uczy nas teoria poszukiwań i dopasowań na rynku pracy? Jak stwierdził na swoim blogu Paul Krugman, 11 października 2010 r. okazał się „szczęśliwym dniem dla teorii ekonomii”. Skąd ten entuzjazm? Tego dnia Komitet Królewskiej Szwedzkiej Akademii Nauk przyznający coroczną nagrodę Banku Szwecji w dziedzinie nauk ekonomicznych im. Alfreda Nobla docenił badania trzech ekonomistów nad „rynkami charakteryzującymi się tarciami związanymi z poszukiwaniem odpowiednich rozwiązań ekonomicznych”. Peter Diamond, Dale Mortensen i Christopher Pissarides – według zgodnej opinii środowiska ekonomicznego – otrzymali w pełni zasłużone wyróżnienie. Jednakże, o ile nie poddaje się w wątpliwość samej hipotezy badawczej i towarzyszących jej empirycznych obserwacji, o tyle problematyczne stają się implikacje tych ustaleń w zakresie polityki gospodarczej i socjalnej. W dokonaniach naukowych tegorocznych laureatów Nagrody Nobla jest wiele elementów całkowicie nowych, ale także wiele zapożyczeń i nawiązań do teorii wcześniejszych. Powtarzają oni mikroekonomiczny argument J. Stiglitza, M. Spence i G. Akerlofa, iż transakcje ekonomiczne z uwagi na problem „asymetrii informacji” zawierają „różne formy utrudnień aktu wymiany lub różne formy tarcia”. Te ostatnie „mogą przyjmować wiele form i pochodzić z takich źródeł jak zróżnicowanie pracowników i firm, czy wynikać z niedoskonałości wiedzy i informacji”. Jakie są implikacje takiego mikroekonomicznego spostrzeżenia dla funkcjonowania rynku pracy? Mianowicie takie, że niektórzy chętni i gotowi podjąć pracę nie są w stanie znaleźć wolnych i istniejących miejsc pracy lub też ich kandydatury zostaną odrzucone na rzecz innych, niekoniecznie „wydajniejszych” pracowników. Jednocześnie interpretują oni w nowy sposób i rozwijają stworzoną przez G. Stiglera mikroekonomiczną teorię poszukiwań na rynku pracy (w sensie teorii podejmowania decyzji), podkreślającą efekty zewnętrzne decyzji podejmowanych przez szukających pracy pracowników i szukających pracowników pracodawców. Podejmują także drugi wątek analiz Stiglera dotyczący ekonomii regulacji i wpływu ustawodawstwa na gospodarkę. Wygląda na to, że paradygmat doskonałej konkurencji na kompletnym rynku płynnie przeprowadzanych transakcji ekonomicznych, sformalizowany pod koniec XIX w. przez francuskiego ekonomistę Leona Walrasa, odchodzi powoli do lamusa. Odsyłają go tam nie tyle jego zagorzali „bezwolni krytycy, planiści i wieczni etatyści” (zmora prof. Balcerowicza), ani też „wolny rynek idei ekonomicznych” (zmora Karola Marksa), ile Komitet * Dr Krzysztof Nowak – adiunkt w Instytucie Filozofii UAM, e-mail: [email protected] 136 Laureaci Nagrody Nobla przyznający Nagrodę Banku Szwecji w dziedzinie nauk ekonomicznych im. Alfreda Nobla swoją kolejną kolektywną decyzją. Czyżby zdrowy rozsądek powoli wracał do teorii ekonomii? Każdy, kto kiedykolwiek szukał zatrudnienia, zmieniał miejsce pracy, rekrutował pracowników, zwalniał ich, próbował kupić nowe mieszkanie, intuicyjnie powinien uchwycić przesłankę leżącą u podstaw nagrodzonej w tym roku teorii – znalezienie odpowiedniego miejsca pracy, odpowiedniego mieszkania czy odpowiedniego pracownika wymaga poświęcenia czasu i włożenia sporego wysiłku. Nie trzeba być ekspertem w zakresie ekonomiki pracy, aby zrozumieć, że na rynku pracy to właśnie czas, wiedza, postawa względem ryzyka i wielkość dochodu, jakimi rozporządzamy, stanowią zasoby rzadkie w sensie ekonomicznym. Co z tego, że odpowiednie dla naszych kwalifikacji miejsce (stanowisko) pracy gdzieś tam na nas czeka, skoro my nic o jego istnieniu nie wiemy bądź nie jesteśmy w stanie zdobyć informacji o nim. Czy sytuację tę może rozwiązać „niewidzialna ręka” rynku pracy i kolejne jego uelastycznienie? Okazuje się, że nie do końca. Wygląda na to, że niewidzialna ręka rynku jest często rzeczywiście niewidzialna, zwłaszcza na rynku pracy, ponieważ w wielu przypadkach po prostu nie istnieje, przynajmniej w formie nadanej jej przez zwolenników elastyczności i efektywności rynku, twierdzących, jakoby „w długim okresie rynek dostosowywał do siebie wielkość popytu i podaży za pomocą mechanizmu cenowego”. Rynek doskonały, homo economicus i niezakłócona (płynna) transakcja ekonomiczna mogą okazać się tylko kolejnym przykładem tego, co S. Bowles nazwał „fikcją walrasowską”, będącą produktem „ekonomii nieistniejącego świata”. W świecie rzeczywistym bowiem cechą charakterystyczną mechanizmu rynkowego nie jest jego niezawodność, kompletność i szybkość, lecz częsta zawodność, niekompletność i względna „opieszałość”. Między innymi to miał na myśli Keynes, wypowiadając swą słynną polemiczną formułę, iż „w długim okresie wszyscy będziemy martwi”. Zapomniał jednak dodać – na co zresztą zwróciła mu uwagę Joan Robinson – iż „nie wszyscy w tym samym czasie” (podkreślając tym samym wagę nierównego podziału dochodów). Przynajmniej o tyle posunęły nasze rozumienie gospodarki ustalenia m.in. J.M. Keynesa, J. Robinson czy J. Stiglitza. Nie przekreśla to jednak w żaden sposób dobrze rozpoznanych i podkreślanych korzyści płynących z mechanizmu rynkowego (innowacja, motywacja itp.). Czy wobec tego wspomnianą sytuację wyjściową może rozwiązać „widzialna ręka” państwowych regulacji rynku pracy i interwencji? Okazuje się, że również nie do końca. Wygląda na to, że „widzialna ręka” administracyjnych regulacji rynku pracy nie musi wcale sprzyjać jego „uzdrowieniu”. Niezbędna staje się zatem zmiana perspektywy. W związku z tym niedoskonałości rynku nie należy utożsamiać z jego wadami, podobnie jak niedoskonałości państwa nie należy zrównywać z jego usterkami. W świecie „wiedzy niedoskonałej” nie ma przecież mechanizmów doskonałych. Wygląda więc na to, że sama idea rynku, jak również idea regulacji państwowych wymaga gruntownego przekonstruowania, a nie tylko kolejnego odświeżenia. Jaki to ma związek z tegoroczną Nagrodą Nobla? Już śpieszę z wyjaśnieniem. W ramach ekonomii walrasowskiej dominował paradygmat efektywnego dopasowywania popytu na pracę i podaży pracy, w którym odpowiedni ruch cen (płac), pojmowanych jako „daty ekonomiczne”, w górę bądź dół zapewniał, iż każdy, kto chciał dokonać zakupu (biorca cen) bez większych problemów mógł znaleźć kogoś, kto chciał dokonać sprzedaży (biorca cen) i vice versa. Jednakże, jak ustalili P.A. Diamond, D.T. Mortensen i Ch.A. Pissarides, problemem jest nie tylko efektywność poszukiwań najlepszych rozwiązań (rezultat podjętych decyzji, preferencji i stanu wiedzy), ale także sama efektywność dopasowywania wzajemnych propozycji i oczekiwań. Jest to niezwykle istotna uwaga, Laureaci Nagrody Nobla 137 ponieważ na rynku pracy, na którym różnorodni sprzedawcy (potencjalni pracownicy) spotykają się z różnorodnymi nabywcami (potencjalni pracodawcy), znalezienie takiego właściwego dopasowania wymaga zarówno czasu, jak i wysiłku. Różnorodność zainteresowanych stron może dotyczyć umiejętności posiadanych przez kandydatów i umiejętności wymaganych przez pracodawców, nierównego rozkładu i różnego dostępu do informacji dotyczących charakteru danego miejsca pracy, różnej lokalizacji miejsca pracy i pracownika czy też kwestii skoordynowania przypadków tworzenia miejsc pracy w różnych lokalizacjach geograficznych. W takim środowisku jedyną pewną rzeczą jest niepewność co do tworzenia odpowiednich miejsc pracy dla poszukujących kandydatów czy też przyporządkowania odpowiedniego pracownika do poszukującej go firmy. W związku z tym przedsiębiorstwa i pracownicy muszą zdecydować, czy akceptują dostępne rozwiązania, czy też czekają na lepsze okazje. Muszą także zdecydować się, czy chcą wpłynąć na proces „przyporządkowania”, poświęcając określone środki na pozyskanie informacji, przeszkolenie zatrudnionych już pracowników, czy też przenieść się do innego miejsca. W przypadku akceptacji następuje „dopasowanie” pracownika i miejsca pracy, przy czym może ono mieć charakter dopasowania o wysokiej bądź niskiej efektywności. W pierwszym przypadku dochodzi do kontynuowania zatrudnienia, w drugim może dojść do „rozstania”. Tego typu strumienie zasilają nieustannie zasób bezrobocia, a wynika to ze specyficznych dla danego miejsca pracy „szoków”: po pierwsze, spowodowanych strukturalnymi zmianami popytu, które zmieniają względne ceny dóbr produkowanych w ramach tego miejsca pracy; po drugie, spowodowanych zmianami wydajności, które zmieniają jednostkowe koszty produkcji. Pod wpływem tych „szoków” następuje proces likwidacji miejsc pracy. Pojawiają się też efekty zewnętrzne procesu poszukiwania i dopasowywania na rynku pracy, które powodują nieefektywność rynku. Dlatego też w stanie „pełnego zatrudnienia” nie występuje zerowa stopa bezrobocia. I tutaj pojawia się problem: czy można ową stopę bezrobocia analitycznie sprowadzić do „naturalnej stopy bezrobocia” i jej wielkość zrzucić na karb dobrowolnego wyboru, demotywujących konsekwencji zasiłków socjalnych i wprowadzenia płacy minimalnej (jak czynią to m.in. M. Friedman i E. Phelps), czy też należy jej wielkość wiązać raczej z bezrobociem przymusowym (jak robi to m.in. J.M. Keynes, J.E. Stiglitz). Sposób, w jaki rozwiązują ten problem Diamond, Mortensen i Pissarides, jest związany, po pierwsze, z ich interpretacją mikroekonomicznej teorii poszukiwań na rynku pracy (zapoczątkowanej w 1962 r. artykułem G. Stiglera Information in the Labor Market [Stigler 1962]); po drugie, ze sformułowaniem makroekonomicznej teorii dopasowywania na rynku pracy; po trzecie, ze sformułowaniem teorii nieefektywności bezrobocia w stanie równowagi. Okazuje się, że w przypadku poszukiwania, odnajdywania i dopasowywania rynek pracy nie zawsze jest w stanie przyjść podmiotom gospodarującym z dostateczną pomocą. Oznacza to, że nie zawsze działa on tak, jakbyśmy sobie tego życzyli. Ponieważ nabywcy (np. pracodawcy) i sprzedawcy (np. pracownicy) napotykają liczne trudności (w sensie psychologicznym, czasowym i finansowym) w procesie lokalizowania siebie nawzajem („poszukiwanie”) i w procesie spełniania wzajemnych oczekiwań, kiedy już skontaktują się ze sobą („dostosowywanie się”, „kojarzenie”), rynek (w tym rynek np. pracy) wcale nie musi „oczyszczać się” nawet w dłuższym okresie. Nie trzeba chyba przypominać, że takie ustalenia kłócą się ze standardową wykładnią walrasowskiej teorii ekonomii, według której dostęp do rynku i do informacji dla dużej liczby podmiotów gospodarujących odbywa się bez ponoszenia zbędnych kosztów. W przeciwieństwie do powyższego modele Diamonda, Mortensena i Pissaridesa pozwalają jednocześnie analizować m.in. sposób, w jaki przedsiębiorstwa i pracownicy 138 Laureaci Nagrody Nobla wspólnie decydują o tym, czy dopasować się, czy kontynuować swoje poszukiwania, a w przypadku dopasowania sposób, w jaki korzyści z nawiązania stosunku pracy są rozdzielane na płacę dla pracownika i zysk dla firmy, decyzje przedsiębiorstw o tworzeniu nowych miejsc pracy oraz sposób, w jaki kształtuje się w czasie dopasowanie pracownika i firmy. Dzięki takim modelom można analizować także wpływ określonych rozwiązań w zakresie polityki gospodarczej i socjalnej dotyczących kosztów zatrudniania i zwalniania, ustawy o płacy minimalnej, opodatkowania, czy zasiłków z tytułu bezrobocia na wielkość i zmianę stopy bezrobocia oraz dobrobyt ekonomiczny. Czy istnieją instrumenty polityki gospodarczej, które mogą wyeliminować nieefektywności rynkowe powstałe w wyniku działania efektów zewnętrznych procesu poszukiwania i dopasowywania? Odpowiedź brzmi: tak. Chodzi tutaj o manipulowanie częścią podatku od wynagrodzeń płaconą przez pracownika, subsydiowanie zatrudnienia, subsydiowanie tworzenia nowych miejsc pracy, podatek chroniący miejsca pracy w przypadku wprowadzenia płacy minimalnej oraz zasiłek dla bezrobotnych. Odpowiednia kombinacja instrumentów fiskalnych wpływa na wskaźnik tworzenia i likwidacji miejsc pracy. Odpowiednia polityka strukturalna państwa wpływa na stopień intensywności poszukiwania miejsca pracy i szybsze dopasowanie. Polityka w zakresie zasiłków dla bezrobotnych może z kolei wpłynąć na poziom akceptowanej wydajności pracy. A zatem najlepszym wyjściem dla uzdrowienia rynku pracy i jedną z odpowiedzi na efekty zewnętrzne procesu poszukiwania na rynku pracy jest kombinacja polityki strukturalnej w zakresie instytucji rynku pracy, zmierzającej do polepszenia kontaktu pracownika z przedsiębiorstwem oraz polityki socjalnej w zakresie zasiłków dla bezrobotnych, zmierzającej do podniesienia standardu akceptowalnej wydajności. Wydaje się, że nauką płynącą z ustaleń trzech wyróżnionych ekonomistów jest usprawnienie funkcjonowania instytucji rynku pracy pośredniczących w nawiązywaniu kontaktów między pracodawcami i pracownikami, rozwój sieci owych instytucji, ułatwienie dostępu do informacji o istniejących miejscach pracy, wyprzedzające informowanie pracowników o zmieniających się tendencjach na rynku pracy dotyczących kwalifikacji, wyprzedzające zdobywanie i upublicznianie informacji dotyczących nastrojów i oczekiwań pracodawców. Reasumując, wspomniani ekonomiści podjęli się próby odpowiedzi na następujące pytania: Dlaczego tak wielu ludzi pozostaje bezrobotnych, skoro w tym samym czasie istnieje wiele wolnych miejsc pracy? W jaki sposób polityka gospodarcza oddziałuje na bezrobocie? Czy występujące bezrobocie ma charakter strukturalny, czy cykliczny? Innymi słowy, czy występujące obecnie w wielu krajach (np. w Polsce) wysokie bezrobocie jest rezultatem ciągłych przemian strukturalnych gospodarki powodujących niedopasowanie kwalifikacji osób poszukujących pracy do wymagań nowo tworzonych miejsc pracy, czy też raczej jest funkcją słabego popytu na dobra i usługi i nastrojów pracodawców stroniących od podjęcia ryzyka? Opowiedzenie się za jedną ze wspomnianych opcji w diagnozowaniu przyczyn bezrobocia wiąże się z opowiedzeniem się za innym typem rozwiązań w zakresie polityki gospodarczej. W tej złożonej sytuacji, w której wydaje się, że nie ma prostych recept, w odniesieniu do sytuacji istniejącej na polskim rynku pracy formułowane są różne opinie. Na przykład jeszcze nie tak dawno jeden z głównych ekonomistów Forum Obywatelskiego Rozwoju podsumowywał swoje analizy wnioskiem, iż główną przyczyną bezrobocia w Polsce jest duże niedopasowanie popytu i podaży pracy pod względem rodzaju posiadanych i wymaganych kwalifikacji. Wzrost zatrudnienia i towarzyszący mu spadek bezrobocia są dodatkowo ograniczane przez wysokie pozapłacowe koszty pracy, świadczenia społeczne osłabiające bodźce bezrobotnych do podejmowania pracy, niski stopień swobody gospodarczej oraz niesprzyjające wzrostowi zatrudnienia otoczenie instytucjonalne rynku pracy [Wojciechowski 2008]. Laureaci Nagrody Nobla 139 Na pierwszy rzut oka wydaje się, że autor powtarza ogólny argument teorii poszukiwań i dopasowania. Jest to jednak tylko pierwsze wrażenie. Wbrew temu co twierdzi autor tej opinii, nie chodzi tutaj bowiem o wybór pomiędzy aktywnymi i pasywnymi instrumentami polityki państwa w zakresie rynku pracy, lecz o odpowiednią ich kombinację, dopasowaną do kulturowych i ekonomicznych osobliwości danego segmentu rynku pracy. Należy też pamiętać, że jeśli uznamy, iż jedną z przyczyn niedopasowania na rynku pracy jest kiepska jakość pośrednictwa pracy, to dotyczy to w równej mierze pośrednictwa państwowego, jak i prywatnego. To samo dotyczy programu szkoleń zawodowych. Otoczenie instytucjonalne to nie tylko „regulacje prawne określające warunki konkurencji rynkowej, swobodę prowadzenia działalności gospodarczej i system egzekwowania prawa”. Otoczenie instytucjonalne to także (a może przede wszystkim) kultura wraz z normami i dyrektywami respektowanymi w danej społeczności. Zresztą już K. Arrow (a przed nim A. Smith w swej Teorii uczuć moralnych) uznał zaufanie i kapitał społeczny za niezbędne dla przezwyciężenia niektórych zawodności rynku. Należy jednak pamiętać, że kultura, podobnie jak rynek i państwo, również może zawodzić. Ponadto wbrew jednostronnym analizom FOR, co pokazał Pissarides, można stwierdzić, że podatki mają co prawda wpływ na decyzje dotyczące alokacji godzin pracy, lecz ich pełny wpływ można zrozumieć wyłącznie rozumiejąc sposób, w jaki są wydawane przychody z podatków oraz uwzględniając rodzaj pracy zarobkowej, która podlega opodatkowaniu. W szczególności podatki będą miały większy wpływ na aktywność rynkową, jeśli ta aktywność ma jakąś niepodlegającą opodatkowaniu alternatywę. Będą również miały większy wpływ na decyzję poszczególnej jednostki o wielkości podaży czasu pracy zarobkowej, jeśli ta jednostka ma do dyspozycji alternatywne sposoby wykorzystania czasu, które dostarczają jej w przybliżeniu taką samą użyteczność jak czas poświęcony pracy zarobkowej [Pissarides, Ngai 2008]. Wychodząc z takiego założenia Pissarides pokazał, na przykładzie trzech modeli państwa dobrobytu (anglosaski, kontynentalny i skandynawski), w jaki sposób dostępność bliskich substytutów w rodzaju produkcji (pracy) domowej zwiększa wpływ opodatkowania na wielkość oferowanej pracy zarobkowej. Wnioski, do jakich doszedł, mówią, iż podatki (w tym koszty pracy) bardziej oddziałują na decyzje o podjęciu pracy zarobkowej w sektorach, które mają bliskie substytuty w postaci produkcji domowej, np. praca socjalna, usługi niewymagające dużych kwalifikacji, a mniej np. w sektorze wytwórczym. Każda jednostronna diagnoza problemu zatrudnienia i bezrobocia ukazuje, jak bardzo paradygmat walrasowski nadal krępuje myślenie. Ostatni kryzys finansowy i ekonomiczny spowodował nową falę bezrobocia przede wszystkim w gospodarkach, które charakteryzowały się przychylniejszym otoczeniem instytucjonalnym rynku pracy (np. Irlandia, Wielka Brytania, Hiszpania, USA) i mniejszymi pozapłacowymi kosztami pracy. Jak widać, przyczyny problemu bezrobocia muszą leżeć głębiej, a jego rozwiązanie jest bardziej złożone, aniżeli wyobrażali to sobie L. Walras, M. Friedman i FOR. Wydaje się, iż w przypadku utrzymującego się dużego bezrobocia mamy najczęściej do czynienia z wypadkową dwóch wspomnianych ekonomicznych tendencji. Przedsiębiorstwa nie tworzą nowych miejsc pracy, ponieważ z jednej strony nie mogą sprzedać swoich produktów (bezrobocie cykliczne, w którym przeważa dynamika likwidacji miejsc pracy i nad tworzeniem nowych), a z drugiej strony, nie są w stanie znaleźć odpowiednich kandydatów (bezrobocie strukturalne, w którym nieustanne przemiany w strukturze gospodarki – niekoniecznie związane wyłącznie z transformacją systemową, ale też z nieustanną „twórczą destrukcją” – powodują mniej więcej taką samą dynamikę tworzenia i likwidacji miejsc pracy). Potencjalni pracownicy, pomimo najszczerszych chęci i odpowiednich kwalifikacji, nie mogą znaleźć pracy, ponieważ znalezienie odpowiedniego sta- 140 Laureaci Nagrody Nobla nowiska powoduje różnego rodzaju koszty. W takich okolicznościach – rynek podobnie jak państwo – zawsze się spóźnia. Kiedy znajdzie już rozwiązanie, okazuje się, że okoliczności się zmieniły. I tak w kółko. Przyszłość pokaże, na ile ustalenia Diamonda, Mortensena i Pissaridesa pozwolą przezwyciężyć trudności w lepszym zrozumieniu i rozwiązywaniu nękającego współczesne gospodarki problemu bezrobocia. Na razie wypada nam cieszyć się z decyzji komitetu przyznającego nagrodę Banku Szwecji w dziedzinie nauk ekonomicznych. Chociaż nie wszyscy pewnie są z niej do końca zadowoleni. Tekst wpłynął 8 grudnia 2010 r. Bibliografia Blanchard O.J., Diamond P., The Beveridge Curve, „Brookings Papers on Economic Activity” 1989, nr 1. Gadomski W., Nobel za badanie bezrobocia, „Gazeta Wyborcza”, 11.10.2010. Mortensen D.T., Pissarides Ch.A., Job Creation and Job Destruction in the Theory of Unemployment, „Review of Economic Studies” 1994, nr 61(3). Pissarides Ch.A., Equilibrium Unemployment Theory, The MIT Press, Cambridge, Mass., London 2000. Pissarides Ch.A., Ngai L.R., Employment Outcomes in the Welfare State, „Revue Economique” 2008, t. 59. Scientific Background on the Sveriges Riksbank Prize in Economic Sciences in Memory of Alfred Nobel 2010. Stiler G., Information in the Labor Market, „Journal of Political Economy” 1962, nr 70(5). Wojciechowski W., Skąd się bierze bezrobocie? „Zeszyty FOR”, Warszawa 2008. http://krugman.blogs.nytimes.com/2010/10/11/what-we-learn-from-search-models/ (15.11.2010). Od Redakcji Czytelników zainteresowanych problematyką rynku pracy, zatrudnienia i bezrobocia informujemy, że Polskie Towarzystwo Ekonomiczne zamierza wydać jeszcze w tym roku polski przekład dwóch książek autorstwa ubiegłorocznych laureatów Nagrody Nobla: 1. Ch.A. Pissarides, Equilibrium Unemployment Theory, 2nd ed., MIT Press, Cambridge, Mass. 2000 (reprint 2007). 2. D. Mortensen, Wage Dispersion: Why Are Similar People Paid Differently? MIT Press, Cambridge, Mass., 2003. R E C E N Z J E I O M Ó W I E N I A Stanisław Kubielas, Innowacje i luka technologiczna w gospodarce globalnej opartej na wiedzy. Strukturalne i makroekonomiczne uwarunkowania, Wydawnictwa Uniwersytetu Warszawskiego, Seria: Badania ekonomiczne, Warszawa 2009, s. 398 Recenzowana książka podejmuje problematykę, która nie doczekała się jak dotąd systematycznego ujęcia w polskiej literaturze przedmiotu, choć ma już niezwykle obszerną literaturę zagraniczną, zarówno o charakterze teoretycznym, jak i empirycznym. Można z pełnym przekonaniem powiedzieć, że w polskiej literaturze przedmiotu monografia S. Kubielasa ma charakter pionierski. Wypełnia ona pewną lukę, tak w wymiarze teoretycznym, jak i empirycznym, jeśli chodzi o badania nad istotą, dynamiką, mechanizmami pokonywania i makroekonomicznymi uwarunkowaniami luki technologicznej, z uwzględnieniem istniejących w tym zakresie zróżnicowań sektorowych (gałęziowych) w kraju technologicznie opóźnionym (na przykładzie Polski). Recenzowana książka składa się z trzech części: I. Luka technologiczna w gospodarce globalnej, II. Dyfuzja technologii i zmiany produktywności, III. Dynamika luki technologicznej a makroekonomiczna absorpcja. Nie będę z braku miejsca opisywać dokładnie zawartości pracy ani formułował szczegółowych uwag do poszczególnych jej rozdziałów (które miałem już sposobność przekazać autorowi inną drogą). Skupię tutaj uwagę na ogólnej ocenie recenzowanej książki. Praca S. Kubielasa jest dowodem imponującej, rzadko spotykanej erudycji i kompetencji autora w zakresie literatury bezpośrednio i pośrednio związanej z treścią monografii. Co więcej, praca zawiera wiele twórczych przyczynków do teoretycznego rozpoznania prawidłowości charakteryzujących procesy rozpowszechniania (dyfuzji) innowacji w kontekście konwergencji technologicznej między krajami oraz wpływu dyfuzji innowacji (transferu technologii) na konkurencyjność poszczególnych przemysłów w krajach „doganiających” kraje wyżej rozwinięte. Obok bardzo gruntownej prezentacji stanu dociekań teoretycznych w trzech wyróżnionych w pracy obszarach (zawierającej często elementy krytycznej analizy i syntezy), w każdej z tych części występują rozdziały empiryczne, przedstawiające wyniki oryginalnych badań autora nad luką technologiczną w gospodarce polskiej (w części pierwszej także w wybranych innych krajach Europy Środkowo-Wschodniej), dyfuzją innowacji w gospodarce i makroekonomicznymi uwarunkowaniami tej dyfuzji. Badania te ściśle nawiązują do przedstawianych w każdej z trzech części pracy twierdzeń i hipotez teoretycznych. Praca opiera się na kilku explicite bądź implicite sformułowanych ogólnych tezach, które wydają się dobrze odzwierciedlać zarówno kierunek dociekań teoretycznych, jak i studiów empirycznych nad luką technologiczną w międzynarodowej literaturze przedmiotu. Teza podstawowa dotyczy współzależności globalizacji – zwłaszcza w wymiarze handlowym – i technologii we współczesnym świecie. Druga teza dotyczy sektorowego (gałęziowego) zróżnicowania luki technologicznej, z czym z kolei wiąże autor słusznie niezbędność powiązania dynamiki luki technologicznej z makroekonomicznymi mecha- 142 Recenzje i omówienia nizmami absorpcji innowacji, z uwzględnieniem jednak różnic w mikroekonomicznych mechanizmach innowacji i dyfuzji technologii. Nie towarzyszy temu jednak poświęcenie większej uwagi owym różnicom mikroekonomicznym (bezpośrednio traktuje o tym jedynie niewielki objętościowo punkt 3.2; „Dyfuzja w skali mikroekonomicznej” (s. 254– –259), przy uwypukleniu natomiast kwestii związanych z makroekonomicznymi uwarunkowaniami absorpcji (niemal cała część III, „Dynamika luki technologicznej a makroekonomiczna absorpcja”, s. 307–368). Na tle tych dwóch ogólnych (raczej implicite sformułowanych) tez należy postrzegać główną, bardziej już szczegółową i explicite sformułowaną tezę pracy (s. 12), „że dynamika luki technologicznej w gospodarce globalnej nie jest procesem liniowym przebiegającym podobnie jak konwergencja warunkowa w neoklasycznych modelach wzrostu. Dynamika luki technologicznej zależy w sposób istotny od struktury gospodarki”. S. Kubielas wiąże z tym słusznie fakt sektorowego zróżnicowania mechanizmów, ścieżek i dynamiki zamykania luki technologicznej i tempa konwergencji (w rozumieniu zmniejszania różnic produktywności) oraz wzrostu konkurencyjności poszczególnych sektorów w handlu międzynarodowym. Z tezą tą wiążą się logicznie główne hipotezy badawcze przyjęte przez autora: 1) hipoteza o odrzuceniu liniowej wersji hipotezy Gerschenkorna i zastąpieniu jej alternatywnymi modelami luki technologicznej; 2) hipoteza o występowaniu istotnego wzajemnego oddziaływania czynników absorpcji makroekonomicznej oraz popytowych i podażowych czynników innowacji i dyfuzji, przy istnieniu istotnych różnic występujących w tym oddziaływaniu między krajami zaawansowanymi a opóźnionymi technologicznie. Powyższe hipotezy zostały należycie „umocowane” przez autora w teoretycznej literaturze przedmiotu, odwołują się do stanu dotychczasowego rozpoznania odnośnych zjawisk empirycznych w tej literaturze i są oryginalne, a zarazem nietrywialne. W pełni więc spełniają standardowe kryteria, jakie w ogólnej metodologii nauki formułuje się w odniesieniu do hipotez badawczych. Nie budzi też zastrzeżeń sposób sformułowania głównego celu pracy („wkład w dopracowanie mikro- i makroekonomicznych podstaw teorii luki technologicznej i ich weryfikacja na podstawie dostępnego materiału empirycznego”; s. 13) oraz sposób konstrukcji i ogólny układ pracy. Jest on bowiem ściśle podporządkowany wskazanym powyżej głównym hipotezom badawczym. Autor formułuje również pojęcie „pytań badawczych” (s. 13) w odniesieniu do teoretycznych i empirycznych rozważań w każdej z trzech części pracy: 1) czy konwergencja i dynamika luki technologicznej jest sektorowo symetryczna czy asymetryczna? 2) z czego wynika asymetryczność luki? 3) czy asymetria ta dotyczy również oddziaływania czynników makroekonomicznych? Pytania te można ująć jako uzasadniony, istotny w sensie poznawczym sposób uszczegółowienia celu głównego. O wysokiej ocenie pracy S. Kubielasa decyduje przede wszystkim wskazany już fakt, że jest to pierwsze – i znakomite zarazem – w polskim piśmiennictwie ekonomicznym monograficzne opracowanie zajmujące się kategorią luki technologicznej, jej istotą, pomiarem, ścieżkami zamykania tej luki i jej makroekonomicznymi uwarunkowaniami. Autor przyjmuje przy tym założenie o sektorowym zróżnicowaniu luki technologicznej (a więc i w konsekwencji takim samym zróżnicowaniu wielkości luki, szybkości jej zamykania i uwarunkowań makroekonomicznych) i (często) jej charakterze nieliniowym (np. względem poszczególnych zmiennych makroekonomicznych podażowych i popytowych). Praca zawiera krytyczną analizę i syntezę, z próbami licznych własnych uogólnień autora, Recenzje i omówienia 143 teorii luki technologicznej, przedstawionej na tle i w powiązaniu z bardziej ogólnymi teoriami innowacji, teorii wzrostu – a w tym teorii konwergencji, a także teorii handlu międzynarodowego. Książka zawiera przemyślane refleksje krytyczne nad stanem badań empirycznych, nad weryfikacją podstawowych hipotez i uogólnień teoretycznych istotnych w kontekście kategorii luki technologicznej. Na wysoką ocenę zasługuje również bardzo wartościowa w sensie poznawczym autorska część empiryczna, obejmująca rozdział 4 w części I („Dynamika luki technologicznej: specjalizacja i konwergencja”), rozdział 4 w części II („Dyfuzja technologii w polskim przemyśle przetwórczym”) oraz rozdział 3 w części III („Badanie empiryczne makroekonomicznych uwarunkowań innowacji i luki technologicznej”). Część III jako całość jest zupełnie nowatorska w krajowej literaturze przedmiotu, nawiązująca do dorobku nauki światowej, a także do studiów empirycznych poświęconych innym krajom lub ich grupom. Analiza przeprowadzona przez autora zwraca uwagę na zasadnicze odmienności makroekonomicznych mechanizmów absorpcji i dyfuzji innowacji między krajami technologicznie opóźnionymi (na przykładzie Polski) a krajami zaawansowanymi technologicznie. Oczywiście wartość poznawczą recenzowanej monografii w wymiarze empirycznym ogranicza jej zakres czasowy i zwłaszcza przedmiotowy. Chodzi w szczególności o fakt, iż badanie luki technologicznej w polskiej gospodarce dotyczy wyłącznie przemysłu przetwórczego, a ponadto ogranicza się do innowacji „ucieleśnionych” (odpowiada zatem kategorii embodied technological change, używając angielskiego określenia z teorii wzrostu). Nie jest to zarzut po adresem autora, tym bardziej że to ograniczenie jest dobrze w pracy objaśnione z punktu widzenia dostępności i porównywalności odpowiednich danych statystycznych. Należy jednak być ostrożnym z uogólnianiem wyników badań empirycznych uzyskanych w recenzowanej pracy w odniesieniu do przemysłu przetwórczego na całą gospodarkę Polski czy na inne jej sektory, np. sektor usług. W przypadku tego ostatniego zapewne znacznie większe znaczenie z punktu widzenia rozmiarów luki technologicznej i dynamiki jej zamykania mają innowacje nieucieleśnione, a ponadto procesy typu learning by doing i learning by schooling, nieuwzględnione w recenzowanej pracy. Po drugie, wartość poznawczą pracy ogranicza fakt całkowitego niemal pominięcia – zarówno przy formułowaniu odpowiednich modeli empirycznych, jak i w interpretacji otrzymanych wyników – wpływu szeroko rozumianych instytucji czy otoczenia instytucjonalnego na lukę technologiczną, tempo jej zamykania i na innowacyjność gospodarki. Chodzi przykładowo o takie „zmienne instytucjonalne”, jak prawa własności, organizacja rynku czy zaufanie społeczne (kapitał społeczny). Jak przekonująco dowodzi nowa ekonomia instytucjonalna, czynniki te wywierają znaczący wpływ na dynamikę zmian ekonomicznych i technologicznych w gospodarce rynkowej. Ponadto nie budzi dziś poważniejszych problemów formalnych konstrukcja modeli ekonometrycznych (np. modele probitowe) pozwalających na uwzględnianie tego typu zmiennych w badaniach empirycznych. Zresztą i w modelach „tradycyjnych” można je włączać jako zmienne binarne (zero-jedynkowe). Podobnie jak w przypadku zastrzeżenia poprzedniego, nie chodzi mi tu o krytykę empirycznej analizy przeprowadzonej przez S. Kubielasa w odniesieniu do luki technologicznej w gospodarce polskiej, lecz jedynie o zwrócenie uwagi na potrzebę pewnej relatywizacji otrzymanych wyników tej analizy ze względu na fakt nieuwzględnienia czynników instytucjonalnych. W zakończeniu tej recenzji muszę też zwrócić uwagę na kilka jej niedostatków techniczno-warsztatowych: 1. W książce mamy do czynienia z licznymi usterkami stylistyczno-językowymi. W głównej mierze wynikają one z dosłownego przenoszenia do języka polskiego terminów 144 Recenzje i omówienia i określeń anglojęzycznych bądź składni językowej właściwej dla języka angielskiego. 2. Autor w sposób bardzo kompetentny i w wielu wypadkach twórczy wykorzystuje w swej pracy zagraniczną (w zasadzie anglojęzyczną) literaturę przedmiotu. Niestety pominięto w niej liczne opracowania autorów polskich, np. prace K. Tokarskiego, V. Nowak, a także piszącego tę recenzję. 3. Warstwa własnych badań empirycznych autora jest w pracy obszerna i poznawczo bardzo wartościowa. Pewnym jej niedostatkiem jest jednak to, że w omawianiu i interpretacji jakościowej otrzymanych wyników (skądinąd utrzymanej na merytorycznie wysokim poziomie) brak często próby sformułowania sądów i wniosków o bardziej ogólnym, syntetycznym charakterze. 4. Uwaga ostatnia dotyczy również kwestii interpretacji jakościowej wyników własnych badań empirycznych autora. W tej interpretacji są często wysuwane sądy o charakterze przypuszczającym, mające charakter wstępnych hipotez badawczych mogących być punktem wyjścia dalszych badań. Jest to metodologicznie poprawne i wzbogaca poznawczo pracę. Szkoda jednak, że formułując tego rodzaju sądy, autor nie podejmuje prób tzw. analizy eksploracyjnej, polegającej na przytoczeniu „przykładów ilustracyjnych” bądź pewnych danych faktograficznych o charakterze statystycznym, które mogłyby tego rodzaju hipotezy w jakiś wstępny sposób uprawdopodobnić. Bogusław Fiedor Idee ordo i społeczna gospodarka rynkowa, praca zbiorowa pod red. Elżbiety Mączyńskiej i Piotra Pysza, Polskie Towarzystwo Ekonomiczne, Warszawa 2010. s. 234 Książka została wydana w 2010 r. przez Polskie Towarzystwo Ekonomiczne w ramach serii Biblioteka Myśli Ekonomicznej. Jej zawartość została podzielona na trzy grupy tematyczne: 1) Klasycy ordoliberalizmu i społecznej gospodarki rynkowej; 2) Społeczna gospodarka rynkowa – dyskusja i kontrowersje; 3) Społeczna gospodarka rynkowa a współczesność. Przy jej przygotowaniu redaktorzy uznali z jednej strony potrzebę wniesienia wkładu do dyskusji toczącej się wokół relacji między sprawiedliwością a efektywnością, a z drugiej strony – wysokie zapotrzebowanie społeczne na koncepcję ładu gospodarczego i polityki jego kształtowania. W eseju „Czemu służy ekonomia polityczna” W. Eucken przyznaje nauce ekonomii politycznej możliwość kształtowania rzeczywistości. To powinno zobowiązywać i nobilitować jej twórców. Skoro, jak pokazuje historia, nie jest możliwa gospodarka w pełni rynkowa, to działania podejmowane przez władzę państwową powinny opierać się na dobrej teorii. Uprawianie polityki oznacza bowiem nie tylko podejmowanie trudnych, ale też odpowiedzialnych decyzji i zadań, realizowanych w obliczu wielu celów i dylematów. W. Ropke w eseju „Główne kierunki liberalnego programu polityki gospodarczej” stawia pytanie o uzasadnione granice sektora publicznego i odpowiedzialności władzy państwowej za przebieg procesów gospodarczych. Zwraca uwagę na konieczność wyraź- Recenzje i omówienia 145 nego rozróżnienia między kapitalizmem, z jakim mieliśmy i mamy do czynienia, a gospodarką rynkową ze sprawnie funkcjonującym mechanizmem konkurencji. W prawdziwym ładzie konkurencyjnym nie ma miejsca dla monopoli, a jego budowa wymaga wypracowania odpowiednich reguł gry opartych na dojrzałym rozumieniu kwestii ogólnogospodarczych oraz istnieniu silnego i bezstronnego aparatu administracyjnego. Gospodarka rynkowa wymaga ponadto, w jego opinii, mocnej bazy antropologiczno-socjologicznej. Rozważania A. Rustowa zawarte w tekście „Liberalny interwencjonizm państwowy” są podporządkowane tezie o rozstrzygającym dla gospodarki i losu narodów znaczeniu państwa. Powszechną słabością państwa jest bowiem, w jego ocenie, niezdolność do obrony przed naporem chciwych grup interesu. Budowanie koncepcji i implementacja polityki państwa powinny zaczynać się od wypracowania sposobu osłabienia pozycji tych grup. L. Erhard w swoim odczycie wygłoszonym w 1954 r. nadał opisywanemu modelowi gospodarki miano społecznej gospodarki rynkowej. Jej fundamentem jest uznanie godności jednostki ludzkiej i indywidualnej wolności realizowanej w warunkach wolnej i uczciwej konkurencji. W swojej koncepcji polityki gospodarczej wielką wagę przywiązuje do precyzyjnej i konsekwentnej samokontroli państwa w zakresie aktywności i ingerencji w proces gospodarowania. Aktywność ta nie może być zbyt duża, aby nie dochodziło do sytuacji, w której jednostki nie będą czuły się odpowiedzialne za swój los i przerzucą tę odpowiedzialność na władzę państwową. Będzie to sprzyjać negatywnym ocenom funkcjonowania państwa przez obywateli. Podstawowym zadaniem państwa, przy uwzględnieniu powyższych ograniczeń, jest utrzymanie dynamiki gospodarczej, co będzie służyć dobru narodu. Próba wyeksponowania pewnej komplementarności i syntezy koncepcji polityki gospodarczej W. Euckena i L. Erharda jest głównym zamierzeniem eseju napisanego przez P. Pysza. Jej poszukiwanie jest podyktowane możliwością wykorzystania idei tych autorów do ukierunkowania polityki gospodarczej współczesnych państw. Dopiero po pozytywnym rozstrzygnięciu tej kwestii można dążyć do wypracowania narzędzi aplikacyjnych i oceny ich adekwatności w obliczu kryzysu światowego, w tym kryzysu wartości, etyki, odpowiedzialności. Różnice poglądów wskazanych autorów wynikają z odmiennego podejścia do gospodarującej jednostki ludzkiej. Dla Euckena jest ona integralną częścią systemu mikroekonomicznych podmiotów rynkowych, a jej potrzeby stają się nadrzędnymi celami gospodarki (dostęp do dóbr materialnych i realizacja poczucia wolności, sprawiedliwości i równości). W. Eucken nie przypisuje jednostce ludzkiej roli samodzielnego podmiotu podejmującego decyzje w sferze gospodarczej. Natomiast L. Erhard traktuje jednostkę ludzką w roli podmiotu decyzji gospodarczych, przez co staje się ona punktem wyjścia oraz celem działań gospodarczych. Jej wolność rozpatruje łącznie z odpowiedzialnością za siebie i społeczeństwo (wolność i odpowiedzialność dla wszystkich). Wspólną cechą ich koncepcji polityki gospodarczej jest określenie ram ładu gospodarczego, dla którego kluczowe są zasady kompleksowości, spójności i długiego horyzontu czasu. P. Pysz podkreśla, że twórcy ordoliberalizmu z niejednakową siłą akcentowali ważność tych zasad. Nowym elementem w gospodarce współczesnej jest znaczenie sfery finansowej w kształtowaniu (i burzeniu) ładu gospodarczego. Powszechna tendencja do internacjonalizacji działalności gospodarczej, połączonej z przepływami czynników produkcji, przesuwa uwagę władzy gospodarczej nastawionej na osłabianie tempa koncentracji produkcji i własności z rynków krajowych na płaszczyznę międzynarodową. W ramach podsumowania swoich rozważań autor wymienia zasady kształtowania ładu gospodarczego w podziale na trzy poziomy analizy: makroekonomiczny, mikroeko- 146 Recenzje i omówienia nomiczny, jednostek ludzkich. Przegląd głównych nurtów w ekonomii politycznej pozwala mu na wskazanie idei ordo i koncepcji społecznej gospodarki rynkowej jako najbardziej odpowiedniej teorii dla polityki gospodarczej doby współczesnej. Aby nadać swoim rozważaniom cechy aplikacyjne, autor wskazuje kilka obszarów i działań, na których należałoby skoncentrować się w najbliższej przyszłości. A. Czech skupił się na poszukiwaniu w sposobie rozważań Rudolfa Euckena, słynnego filozofa i laureata Nagrody Nobla z 1908 r., przesłanek koncepcji jego syna Waltera. W opinii R. Euckena dla nauki ważne jest to, aby fundamentem analizy bytu człowieka była moralność i religia, a warunkiem powodzenia jednostki możliwość dania innym czegoś dla nich wartościowego. Obdarzenie jednostek wolnością i swobodą wyboru miejsca i rodzaju aktywności pozwala na czerpanie przez nie zadowolenia i poczucie spełnienia, a zysk pojawia się, w pewnym sensie, przy okazji. Wolność gospodarcza została przezeń potraktowana jako pewna filozofia kultury duchowego rozwoju przywództwa. Bezpośredni wyraz wpływu filozofii R. Euckena na sposób myślenia W. Euckena ujawnia się także w zdefiniowaniu celów własnej pracy badawczej na obszarze gospodarczym: ograniczenie skali problemu rzadkości dóbr, aby ulżyć trudom materialnej egzystencji człowieka, oraz stworzenie człowiekowi warunków do wolnego i godnego życia – przy poszanowaniu zasad etyki. H.F. Wunsche podejmuje próbę interpretacji stosunku L. Erharda do koncepcji polityki J.M. Keynesa. Jako główne założenie swojej polityki – wobec sytuacji kryzysowych i działań innych państw pobudzających koniunkturę – Erhard przyjął potrzebę wypracowania i realizacji polityki stabilizacyjnej. Włączył w nią autorytety intelektualne i osoby cieszące się zaufaniem społecznym poprzez powołanie Rady Ekspertów ds. Oceny Rozwoju Gospodarki. Jej prace i wysiłki Erharda nie spotkały się jednak z wystarczająco wysokim i konsekwentnym poparciem społecznym. Kreowanie dodatkowego popytu nie rozwiązuje bowiem napięcia kryzysowego i recesji, ponieważ recesja jest powodowana głównie przez błędne oczekiwania i nadmierne inwestycje w fazie koniunktury. Skuteczność polityki pobudzania koniunktury zależy od konkretnych uwarunkowań i okoliczności towarzyszących. E. Mączyńska i P. Pysz postawili sobie ambitne zadanie pogłębionej interpretacji istoty społecznej gospodarki rynkowej, posiłkując się w tym celu m.in. wypowiedziami H.F. Wuensche udzielonymi im w trakcie wywiadu. W jego opinii kluczową zasługą Erharda było wyjaśnienie, jak w wolnym społeczeństwie powinna być traktowana władza gospodarcza. Jej bazą jest społeczna akceptacja i koncepcja ładu gospodarczego, a ustrój gospodarki rynkowej jest kształtowany na gruncie ekonomicznym, społeczno-etycznym i społeczno-psychologicznym. G.W. Kołodko poddaje ocenie realizację konstytucyjnej zasady społecznej gospodarki rynkowej w Polsce. Interpretacja istoty społecznej gospodarki rynkowej wymaga podejścia holistycznego, interdyscyplinarnego i dalekiego od ortodoksji. Odwołania do niemieckiego ordoliberalizmu, w nawiązaniu do jego sukcesów, nie mogą powodować próby wdrożenia ich w życie, ponieważ był on umiejscowiony w konkretnym czasie i przestrzeni, w warunkach których już nie ma. Społeczna gospodarka rynkowa kojarzy się nie z realizacją państwa opiekuńczego, lecz tworzeniem warunków do rozkwitu przedsiębiorczości opartej głównie na własności prywatnej przy podziale jej owoców, spełniającej wymóg wolnej konkurencji rynkowej i akceptacji społecznej. Ekipy rządowe w Polsce okresu transformacji, z wyjątkiem jednej rządzącej w latach 90. przyjmowały politykę opartą bardziej na ideologii neoliberalnej, hasłach populistycznych i monetaryzmie niż na zasadach ładu gospodarczego społecznej gospodarki rynkowej. Nie można wobec takiego biegu zdarzeń oczekiwać zbliżania się kraju do gospodarek skandynawskich, w praktyce realizujących idee społecz- Recenzje i omówienia 147 nej gospodarki rynkowej i zajmujących czołowe pozycje w rankingach wielu organizacji międzynarodowych. Jako ważną przyczynę niepowodzenia w budowaniu takiej gospodarki w Polsce autor uznaje przewagę siły partykularnych grupowych interesów ekonomicznych nad ogólnospołeczną konsekwencją w urzeczywistnianiu wizji społecznej gospodarki rynkowej. Nie sprzyjała też temu sytuacja w krajach wysoko rozwiniętych, zmuszająca je do skoncentrowania uwagi na własnych bieżących problemach, a nie na pomaganiu krajom przechodzącym transformację. Autor stawia pytanie poniekąd retoryczne – czy współczesną, poddaną globalizacji gospodarkę można nasycić większą troską o spójność społeczną, o sprawiedliwość, o bardziej równomierny podział dochodów i osiągnięć? I dalej próbuje na nie odpowiedzieć, stwierdzając, że „dążenie do społecznej gospodarki rynkowej – efektywnej i sprawiedliwej – jest wizją, a nie iluzją” (s. 147). W. Giza wskazuje, że słabością mechanizmu rynkowego pozostaje jego funkcjonowanie w sferze dystrybucji dóbr i usług. Pyta, czy można rozwiązać kwestie społeczne w ramach gospodarki rynkowej, nie wykorzystując w tym celu redystrybucji dochodów? Odpowiada, że jest to możliwe przy stosowaniu polityki ładu gospodarczego. Każda władza, która chce reprezentować interesy społeczne i zapobiegać powstawaniu problemów społecznych musi koncentrować się na kształtowaniu ładu w gospodarce jako całości. Rolą państwa jest kreowanie konkurencyjnego ładu gospodarczego koniecznego dla zapewnienia wszystkim członkom społeczeństwa warunków osiągania dobrobytu materialnego. Nie jest nią korygowanie podziału rynkowego. Z. Sadowski wypowiada się odnośnie do roli państwa w gospodarce, a czyni to przez pryzmat współczesnego liberalizmu. Wrażliwym obszarem aktywności państwa pozostaje polityka społeczna. Wspomaganie mechanizmu rynkowego przez państwo skupia się na czterech podstawowych obszarach. Cechą współczesnej doktryny neoliberalnej jest uznanie procesów rynkowych za najbardziej właściwą formę funkcjonowania gospodarki i społeczeństwa. Neoliberalne zasady nie są konsekwencją rozwoju nauki, ale raczej skutkiem upowszechnienia określonej ideologii. Jednakże współczesny liberalizm nie może być utożsamiany z neoliberalizmem, ponieważ dostrzega potrzebę aktywnego oddziaływania państwa w gospodarce, pod warunkiem, że pozostaje ono demokratycznym państwem prawa, wspomaganym wysoką aktywnością obywateli. Zachowana zostaje w nim główna idea liberalizmu, jaką jest nacisk na swobody obywatelskie i prawa człowieka. Znajduje to odzwierciedlenie w programach ograniczania ubóstwa, przeciwdziałania wykluczeniu społecznemu i ekonomicznemu, polityce spójności. W. Wilczyński skupia się w swoich rozważaniach na określeniu misji polskiej ekonomii. Wielce wymowne jest stwierdzenie, że „ekonomia nigdy nie miała szczęścia do polskiej inteligencji”. Zdecydowana większość rozważań ekonomistów ma charakter teoretyczny, modelowy, wycinkowy, o niewielkich możliwościach aplikacyjnych. Dorobek ekonomii nie wspomaga procesów decyzyjnych władzy państwowej. Misją ekonomii jest rozszyfrowanie realiów, istoty popełnianych błędów. Konieczne jest zwiększenie zainteresowania procesem tworzenia, a nie tylko podziału bogactwa. Wymaga to skoncentrowania uwagi na podstawowych kwestiach ustrojowych, polityce gospodarczej i społecznej. Być może pomoże to ustrzec się przed rosnącą presją silnych grup interesu i skupić wysiłek na formułowaniu warunków sukcesu rozwojowego. E. Mączyńska podjęła wysiłek interpretacji ordo jako ustroju równowagi. Jako taki ustrój rozumiany jest porządek, w którym rozwój jednej dziedziny życia społeczno-gospodarczego nie zagraża innej i nie generuje zjawisk patologicznych. Bez wątpienia, współczesny świat znajduje się w stanie wyraźnie naruszonej równowagi i dotyczy to w zasadzie wszystkich jego sfer i obszarów. Mamy do czynienia z kryzysem fundamentalnym, ustrojowym, kryzysem wartości i ideologii. Szczególnie widoczny jest kryzys ideologii neoliberalnej 148 Recenzje i omówienia i to w skali gospodarki światowej. Poszukiwanie optymalnego ustroju jest podyktowane nakładaniem się wielu tendencji i zjawisk o ogromnym spektrum oddziaływań. Chodzi tu głównie o kryzys globalny, przełom cywilizacyjny, zachwianie równowagi w gospodarce światowej, kryzys dominującej w wielu krajach ideologii neoliberalnej. Taki model równowagi został już wypracowany w teorii i w praktyce i przyjął charakter ładu społecznej gospodarki rynkowej. Nawet, jeśli nie jest to propozycja idealna, to, zdaniem autorki, chyba najlepsza z możliwych i dostępnych. Daje bowiem szansę na budowanie trwałych podstaw spójności społecznej i gospodarczej, trwałości oraz zrównoważenia procesu rozwoju społecznego, gospodarczego i środowiskowego. Konieczne jest jednak dostosowanie ordoliberalnej koncepcji gospodarki rynkowej do współczesnych trendów. Dyskusyjne i wymagające pogłębionych studiów na poziomie narodowym i ponadnarodowym pozostaje wprowadzenie tej koncepcji do praktyki poszczególnych krajów i regionów. A. Szplit zastanawia się, czy społeczna gospodarka rynkowa posiada cechy bytu realnego, czy jest tylko ideą daleką od rzeczywistości. Rozważania, jakie przeprowadza, wskazują na ewolucję idei ordo realizowanej w praktyce gospodarczej i na zmienność jej znaczenia jako podstawy polityki gospodarczej. Współcześnie idee ordo należałoby zaadaptować do potrzeb globalizującej się gospodarki światowej i polityki ponadkrajowej, a nawet międzynarodowej. Otwarte pozostaje pytanie o szanse na ożywienie dyskusji polityków wokół wyboru modelu ustrojowego. M. Miszewski w swoim opracowaniu wskazuje na dokonujący się proces integracji europejskiej jako pewną szansę na urzeczywistnianie modelu społecznej gospodarki rynkowej. Duże utrudnienie w zastosowaniu modelu społecznej gospodarki rynkowej do gospodarki Polski i innych krajów postsocjalistycznych stanowi względnie wysoka niestabilność procesów gospodarczych. Towarzyszy jej kryzys idei i praktyki państwa opiekuńczego oraz wizja gospodarki wiedzy. Czy poszczególne kraje dojrzały do tworzenia warunków nieskrępowanej kreatywności jednostek, pozwalającej na rozkwit ich wyobraźni, na urzeczywistnianie gospodarki wiedzy? Warunkiem dostosowania systemu do potrzeb rozwoju kreatywności ludzi i zaspokajania popytu na pracę jest jego decentralizacja i dekoncentracja. Współczesną społeczną gospodarkę rynkową autor widzi jako gospodarkę opartą w możliwie największym stopniu na rynkowym mechanizmie alokacji zasobów gospodarczych, wspieranym przez ład gospodarczy ustanowiony i strzeżony przez organy władzy politycznej. Odnotowuje, że ochrona równości przyjmuje współcześnie zupełnie inny wymiar, bo dotyczy zapobiegania niekorzystnym działaniom i decyzjom potężnych graczy światowych, w tym koncernów. Bardzo poważnym ograniczeniem prostej adaptacji idei ordo do współczesności jest skala umiędzynarodowienia działalności gospodarczej i aktywności ludzi w ogóle. Autor stoi na stanowisku, że mimo ograniczeń i trudności w skali Unii Europejskiej jako ugrupowania znacznie łatwiej można realizować idee społecznej gospodarki rynkowej niż na poziomie poszczególnych krajów. J. Czech-Rogosz podejmuje próbę oceny niemieckiej polityki gospodarczej z punktu widzenia implementacji społecznej gospodarki rynkowej. Politykę obecnej dekady cechuje głównie krótki horyzont czasu i nastawienie na problemy bieżące. Czy można ocenić ją negatywnie? Zdaniem autora, należy zachować ostrożność w jednoznacznej ocenie i krytyce. Uwarunkowania zewnętrzne są dość złożone i zmienne, a trudności wewnętrzne ogromnej wagi, aby wykazać się odwagą podjęcia próby wskrzeszenia polityki ordo. Autor pisze o potrzebie przeprowadzenia głębokich reform strukturalnych i systemowych gospodarki niemieckiej, w tym przede wszystkim odejścia od praktyki państwa opiekuńczego, wzmocnienia mechanizmu wolnej i uczciwej konkurencji, zaniechania przez państwo aktywności w sferze procesów gospodarczych na rzecz tworzenia ładu konkurencyjnego. Jak sugerują rozważania poprzedniego autora, podjęcie wysiłku i ry- Recenzje i omówienia 149 zyka tworzenia nowych ram systemowych w jednym kraju ma mniejszy sens niż w ramach ugrupowania funkcjonującego na podstawie spójnych regulacji prawnych. Zamierzenie redaktorów opracowania wkomponowuje się bardzo trafnie w ożywioną dyskusję wokół charakteru ustroju społeczno-gospodarczego, który mógłby spełniać zarówno wymogi efektywności, jak i sprawiedliwości, łączyć funkcjonowanie w gospodarce otwartej z realizowaniem oczekiwań społeczności międzynarodowej i poszczególnych krajów. Konfrontowanie ustroju opartego na mechanizmie rynkowym z ustrojem silnie związanym z aktywnością państwa, rozbudowanym sektorem publicznym i znaczącą regulacją centralną ogranicza pole wyboru i usztywnia dyskusję, w dużym stopniu ze względów doktrynalnych, a w pewnym sensie ideologicznych. Ani system państwa opiekuńczego, ani gospodarka wolnego rynku wystawiona na konkurencję ze strony bardziej rozwiniętych uczestników wymiany międzynarodowej nie gromadzą wokół siebie wystarczającej argumentacji i w konsekwencji dostatecznej liczby zdecydownych zwolenników. Wobec tego jako alternatywa pojawia się idea ustroju opartego na społecznej gospodarce rynkowej. Powrót do idei ordoliberalizmu jest możliwy z kilku powodów. Jako dwa istotne można wskazać pozytywne doświadczenia realizacji tego ustroju w Niemczech po II wojnie światowej oraz osiągnięcia i pozycję międzynarodową krajów skandynawskich, których system społeczno-gospodarczy jest najbliższy założeniom tej właśnie koncepcji. Ponadto – dzięki aktywności zwolenników tego systemu – idea ordo jest wzbogacana o nowe wątki, pogłębioną interpretację oraz próbę adaptacji do nowych warunków. Przykładem jest m. in. recenzowana książka, a także liczne konferencje, seminaria oraz opracowania zarówno autorów krajowych, jak i zagranicznych. Recenzowaną książkę warto polecić wszystkim osobom zaangażowanym naukowo, zawodowo i emocjonalnie w kształtowanie koncepcji nowego, sprawnie działającego ustroju społeczno-gospodarczego, w którym wolność i odpowiedzialność jednostek łączy się z legitymizacją władzy państwowej i poszanowaniem godności osoby ludzkiej. Anna Chmielak Konwergencja modeli ekonomicznych: Polska i Ukraina, praca zbiorowa pod red. Michała G. Woźniaka, Viktora I. Chuzhykova, Dmytro G. Łukjanenki, Fundacja Uniwersytetu Ekonomicznego w Krakowie, Kraków 2009, s. 716 Recenzowana publikacja składa się ze wstępu, czterech zasadniczych rozdziałów oraz zakończenia. Zawiera ponadto bibliografię, spis tablic, spis wykresów, spis rysunków, spis aneksów, wykaz skrótów, indeks nazwisk oraz notę o autorach. Publikacja ta jest wynikiem współpracy pomiędzy Kijowskim Narodowym Uniwersytetem Ekonomicznym na Ukrainie oraz Uniwersytetem Ekonomicznym w Krakowie. To wspólne opracowanie, a z czasem – jak można domniemywać – następne, mogą się przyczynić do rozwoju polsko-ukraińskiej współpracy naukowej, a także współpracy na wielu innych płaszczyznach, zwłaszcza na obszarze gospodarki. Jej obecny poziom – pomimo bliskiego sąsiedztwa obu krajów oraz łączących ich więzi społeczno-kulturowych – jest bowiem relatywnie bardzo niski. Zespół pod kierunkiem M.G. Woźniaka, V.I. Chuzhykova oraz D.G. Łukjanenki postawił sobie bardzo ambitne cele badawcze oraz przyjął określone hipotezy robocze 150 Recenzje i omówienia (s. 18–19). Dążąc do osiągnięcia tych celów oraz zweryfikowania postawionych hipotez, przygotował tę obszerną publikację, liczącą ponad 700 stron. Opracowanie to stanowi kompendium wiedzy nie tylko o konwergencji gospodarczej między Polską i Ukrainą. Zawiera ponadto wiele informacji na temat różnych teorii ekonomicznych (w większym lub mniejszym stopniu związanych z problematyką konwergencji), transformacji systemowej w tych krajach, prowadzonej tam polityki makroekonomicznej, wyników gospodarczych itd. W pracy zawarto wiele danych statystycznych dotyczących Polski i Ukrainy, a także – w celu dokonania porównań międzynarodowych – krajów Unii Europejskiej i państw byłego Związku Radzieckiego. Pokazują one m.in. poziom i tempo wzrostu PKB, zróżnicowanie dochodów, wielkość i stopę bezrobocia, stopę inflacji itd. Dane te zostały przedstawione w 110 tablicach, 51 wykresach, 20 rysunkach i 4 aneksach. Źródłem powyższych danych były urzędy statystyczne Polski, Ukrainy, Unii Europejskiej, a także organizacje międzynarodowe. W pracy przedstawiono również opracowane przez różne międzynarodowe instytucje rankingi wolności gospodarczej, poziomu konkurencyjności, innowacyjności, warunków prowadzenia biznesu itp. Jest to obszerny zbiór informacji na temat gospodarek Polski i Ukrainy pokazany na tle gospodarki europejskiej i światowej. Na podkreślenie zasługuje również ogromna bibliografia zawierająca publikacje zwarte, ciągłe, raporty oraz inne opracowania, zarówno polskie, ukraińskie, jak i anglojęzyczne. Warto także wspomnieć o poprawnej formalnej stronie opracowania. Odnosi się to zarówno do poprawności językowej (wiele rozdziałów było tłumaczonych z języka ukraińskiego na polski), jak i strony technicznej (ujednolicony zapis tekstu). Z tego względu można wyrazić słowa uznania dla redaktorów naukowych recenzowanej publikacji. Takie podejście do przedstawienia konwergencji gospodarczej Polski i Ukrainy ma jednak swoje minusy. Nie jest to zwarta monografia naukowa. A ponieważ zamieszczono w niej prace wielu autorów (30), nie unikniono powtórzeń. Dotyczą one takich kwestii, jak: tempo wzrostu PKB, poziom zróżnicowania dochodów (wskaźnik Giniego), wyniki międzynarodowych rankingów dotyczących postępu transformacji, poziomu wolności gospodarczej, konkurencyjności itp. Dane te są wielokrotnie przytaczane przez poszczególnych autorów kolejnych rozdziałów. Byłoby to dopuszczalne, gdyby publikacja była zbiorem różnych artykułów na temat gospodarek Polski i Ukrainy. Potraktowanie jej jako monografii zobowiązywało jednak do zapewnienia pracy większej zwartości (np. stworzenie jednego aneksu statystycznego, do którego odwoływaliby się wszyscy autorzy). Jeżeli tego nie zrobiono, to przy tej liczbie autorów zajmujących się różnorodną problematyką uniknięcie powtórzeń było trudne do osiągnięcia. Ponadto poszczególne rozdziały są w różnym stopniu związane z nurtem przewodnim określonym w tytule książki. Niektóre podrozdziały mają całkowicie odmienny charakter, a ich umieszczenie wynikało raczej z zainteresowań badawczych poszczególnych autorów, a nie z celu pracy. Dyskusyjny dla mnie jest tytuł publikacji. Czy możemy mówić o konwergencji modeli ekonomicznych Polski i Ukrainy? Moim zdaniem nie jest to uprawnione. Możemy mówić o konwergencji gospodarek tych krajów, zarówno w sferze realnej, jak i regulacyjnej. Nie powinniśmy używać określenia „model ekonomiczny” Polski (Ukrainy), lecz po prostu „gospodarka” lub „system gospodarczy”. Dlaczego? System gospodarczy Polski, a zwłaszcza Ukrainy, ciągle ewoluuje. Nie został na tyle określony i nie posiada własnych cech specyficznych, żeby mówić o modelu ekonomicznym. Jest to może dopuszczalne w przypadku krajów o ustabilizowanej gospodarce rynkowej. Systemy gospodarcze tych krajów są często utożsamiane z konkretnymi modelami: Niemcy – model społecznej gospodarki rynkowej, Szwecja – model państwa dobrobytu czy Wielka Brytania – model neoliberalny. Jednak i w tym przypadku jest to pewne uproszczenie (np. mówi się o odchodzeniu gospodarki niemieckiej od modelu społecznej gospodarki rynkowej). W przypadku Polski i Ukrainy Recenzje i omówienia 151 można co najwyżej mówić o docelowym modelu gospodarczym. Te kwestie są z pewnością dyskusyjne. Pojęcie modelu ekonomicznego – o czym piszą również w recenzowanej książce autorzy tego opracowania – jest bowiem różnorodnie interpretowane. Rozdział I ma charakter wprowadzający i zawiera omówienie różnych teorii ekonomicznych związanych – w mniejszym lub większym stopniu – z konwergencją. Jest on niezbędny w tego typu opracowaniu. Wątpliwości można mieć jedynie do ilości przedstawionych teorii oraz przytaczanych analiz empirycznych. Moim zdaniem, w jednym i drugim przypadku, jest ich za dużo. Niektóre rozważania lepiej pasowałyby do kolejnych rozdziałów. Przykładem tego może być punkt 1.4, w którym zawarto ogólną ocenę reform gospodarczych w krajach Europy Środkowej i Wschodniej (są one omawiane dopiero w rozdziale II i III). Również szczegółowy, nie pasujący do tego rozdziału, jest punkt 1.6, zawierający analizę zbieżności gospodarki polskiej i ukraińskiej według zmian produktywności pracy. Rozdział II nosi tytuł „Ewolucja modelu gospodarczego w Polsce”. Zgodnie z tym co pisałem wcześniej, jego tytuł – podobnie jak tytuł całej książki – powinien być inny. Ponadto rozdział ten jest poświęcony głównie polskiej transformacji gospodarczej i słowo „transformacja” powinno być w tytule. Już pierwszy punkt poświecony jest transformacji systemu ekonomicznego w ogóle. Jej przebieg w Polsce jest bardzo dobrze omówiony w punktach 2–4, poświeconych deregulacji, demonopolizacji i prywatyzacji. Są to bez wątpienia trzy najważniejsze elementy procesu transformacji gospodarczej w Polsce. W latach 80. i 90. XX w. mieliśmy z nimi do czynienia również w krajach o ukształtowanej gospodarce rynkowej. Autor tych rozdziałów bardzo drobiazgowo omawia zmiany systemowe zachodzące w Polsce, poczynając od Planu Balcerowicza (przełom lat 1989/1990) aż do lat 2007–2008. W tych punktach brakuje mi ustosunkowania się do kwestii końca transformacji. Czy zmiany systemowe, które następują w ostatnich latach, to nadal transformacja? Czy pewne działania, które były podejmowane w Polsce, zwłaszcza na przełomie wieków, to był wynik transformacji czy postępującego procesu globalizacji, a zwłaszcza integracji z UE? Jaka była zależność miedzy tymi procesami? Z tego względu rozdział ten może budzić pewien niedosyt. Punkt 2.5 jest poświęcony ewolucji polityki makroekonomicznej – szkoda, że tylko polityki stabilizacyjnej. Z kolei punkt 2.6 – niewątpliwie interesujący – dotyczy procesu, który występuje w gospodarce w ogóle i nie musi być związany z transformacją (restrukturyzacja gospodarki). Pomimo tych uwag rozdział ten oceniam bardzo wysoko. Rozdział III ma podobny tytuł – z tym że dotyczy Ukrainy. Również mam zastrzeżenie co do nazwy rozdziału. Rozdział ten nie jest jednak tak zwarty i nie tworzy logicznej całości jak poprzedni. Dominuje w nim problematyka wzrostu gospodarczego oraz omówienie pozycji Ukrainy w gospodarce światowej. Na temat transformacji systemowej na Ukrainie jest bardzo mało informacji. O liberalizacji jest mowa, ale tylko w handlu zagranicznym. Z pewnością jest to bardzo ciekawy rozdział, zwłaszcza patrząc z punktu widzenia polskiego czytelnika. Nie można mieć zastrzeżeń do poszczególnych punktów rozdziału. Nie są one jednak kompatybilne ze wcześniejszym rozdziałem. Zastanawiające jest to, że Ukraińcy niezbyt chętnie piszą o transformacji gospodarczej w swoim kraju. Wniosek ten wynika – co należy podkreślić – nie tylko z treści tej publikacji. Rozdział IV jest – z punktu widzenia tematu książki – najważniejszy. Zawiera aż 15 punktów (264 strony), w których zamieszczono różnorodne rozważania na temat mechanizmów i instrumentów konwergencji gospodarek Polski i Ukrainy. Każdy z nich jest napisany poprawnie i interesujący. Dyskusyjny może być jednak ich związek z tematem badawczym czy ich kolejność. Pierwszy punkt (Polska – Ukraina: możliwości współpracy w świetle procesów realnych) ma charakter wprowadzający. Kolejne dwa punkty nawiązują do wcześniejszych rozważań i w pewnym stopniu są ich kontynuacją. Ich autorzy piszą 152 Recenzje i omówienia o ukraińsko-polskim partnerstwie strategicznym oraz bilateralnych stosunkach gospodarczych, a następnie o sektorowych priorytetach konwergencji społeczno-gospodarczej. Jeżeli chodzi o czwarty punkt to informacje o Acquise Communautaire w tym miejscu są zbędne; wystarczyłyby rozważania na temat Strategii Lizbońskiej. Duże wątpliwości budzi punkt piąty (Instrumenty polityki handlowej). Mówienie o polskiej polityce handlowej (po przystąpieniu do UE) ma charakter historyczny. Nie ma już takiej polityki i nie możemy porównywać instrumentów polskiej i ukraińskiej polityki handlowej, co najwyżej – unijnej i ukraińskiej. Co do ukraińskiej polityki handlowej, to była omówiona już w punkcie 3.5 i to szerzej, a mianowicie w kontekście członkostwa w WTO. Rozważania na temat dyplomacji handlowej także nie pasują do całości. Niewątpliwie zbieżne z tytułem rozdziału są dwa następne punkty, które oceniam wysoko. Dotyczą one konwergencji w sferze regulacyjnej. Ich autorzy piszą o mechanizmach i instrumentach finansowych oraz instrumentach polityki fiskalnej. Również bardzo dobry jest kolejny punkt, w którym podjęto bardzo ważne zagadnienia z punktu widzenia rozwoju gospodarczego Polski i Ukrainy (mechanizmy i instrumenty rozwoju kapitału ludzkiego i innowacyjności). Nie można tego powiedzieć o kolejnym punkcie (4.10), który – pomimo dostosowania jego tytułu do tytułu całej publikacji (Informacyjne determinanty konwergencji gospodarek Ukrainy i Polski) – nie jest w tym opracowaniu potrzebny. Z kolei następny punkt (4.11) o współczesnych problemach reform edukacyjnych, chociaż silniej związany z tematem badawczym, jest napisany bez nawiązania do niego. Kolejne dwa punkty są interesujące, ale również bez ścisłego związku z tematem książki. W pierwszym z nich zajęto się współpracą euroregionalną, a w drugim – turystyką. Kluczową częścią rozdziału jest bez wątpienia przedostatni punkt (4.14) pod tytułem: Konwergencja gospodarcza Polski i Ukrainy w świetle procesów realnych i regulacyjnych. Zawarto w nim to, co jest najistotniejsze dla tego tematu i wokół tych zagadnień należało się skupić w tym rozdziale. Również wysoko należy ocenić ostatni punkt tego rozdziału (4.15), choć można mieć wątpliwości, czy powinien znajdować się w tym miejscu. Autor pisze tutaj o transformacyjnym ożywieniu wzrostu gospodarczego. Jak widać, poziom poszczególnych podrozdziałów jest zróżnicowany, a ich przydatność – z punktu widzenia celów badawczych i postawionych hipotez – większa lub mniejsza. Ostatnią część pracy oceniam pozytywnie. Wykracza ona poza tradycyjne podsumowanie, stąd może taki tytuł („Zamiast podsumowania”). Myśli i uwagi tam zawarte na pewno są trafne i cenne. Ukraina z pewnością może uczyć się z polskich doświadczeń i wybrać z polskiej transformacji to, co było korzystne dla naszej gospodarki oraz nie popełniać naszych błędów. Pomimo przedstawionych uwag krytycznych moja ogólna ocena tej książki jest jak najbardziej pozytywna. Poczynione uwagi mają w większości charakter dyskusyjny. Autorzy znaleźliby z pewnością wiele argumentów przemawiających za takim, a nie innym tytułem publikacji, zastosowanym podziałem książki, jej zawartością itd. Opublikowanie tej książki w Polsce uważam za bardzo trafane. Na naszym rynku nie ma wielu pozycji książkowych na temat transformacji gospodarczej na Ukrainie, jej doświadczeń w tym zakresie, a tym bardziej publikacji dotyczących konwergencji systemowej między Polską i Ukrainą. Recenzowana książka przybliża polskiemu czytelnikowi powyższe zagadnienia. Z tego względu jest to niezwykle cenna pozycja. Chociaż przeczytanie całej publikacji jest czasochłonne, to z pewnością wielu czytelników znajdzie w niej interesujące rozdziały. Sądzę, że książka ta może się również spotkać z dużym zainteresowaniem na Ukrainie. Kraj ten może skorzystać z polskich doświadczeń transformacyjnych. Stanisław Swadźba WSKAZÓWKI DLA AUTORÓW 1.Redakcja przyjmuje do oceny i publikacji niepublikowane wcześniej teksty o charakterze naukowym, poświęcone problematyce ekonomicznej. 2.Redakcja prosi o składanie tekstów w formie elektronicznej (dokument MS Word na CD, dyskietce lub e-mailem) oraz 2 egzemplarzy wydruku komputerowego. Wydruk powinien być wykonany na papierze A4 z podwójnym odstępem między wierszami, zawierającymi nie więcej niż 60 znaków w wierszu oraz 30 wierszy na stronie, w objętości (łącznie z tabelami statystycznymi, rysunkami i literaturą) do 30 stron. Opracowania podzielone na części powinny zawierać śródtytuły. 3.Wraz z tekstem należy dostarczyć do Redakcji Oświadczenie Autora. Wzór oświadczenia dostępny jest na stronie www.ekonomista.info.pl 4.Do tekstu należy dołączyć streszczenie (200 słów) składające się z uzasadnienia podjętego tematu, opisu metody oraz uzyskanych wyników. Streszczenie powinno zawierać słowa kluczowe (w języku polskim, rosyjskim i angielskim). 5.Przypisy wyjaśniające tekst należy zamieszczać na dole strony, a dane bibliograficzne w tekście – przez podawanie nazwisk autorów i roku wydania dzieła, na końcu zdania w nawiasie. W bibliografii zamieszczonej na końcu tekstu (ułożonej w porządku alfabetycznym) należy podawać: –– w odniesieniu do pozycji książkowych – nazwisko, imię (lub inicjały imion) autora, tytuł dzieła, wydawcę, miejsce i rok wydania; –– w przypadku prac zbiorowych nazwisko redaktora naukowego podaje się po tytule dzieła; –– w odniesieniu do artykułów z czasopism – nazwisko, imię (lub inicjały imion) autora, tytuł artykułu, nazwę czasopisma ujętą w cudzysłów, rok wydania i kolejny numer czasopisma; –– w przypadku korzystania z internetu należy podać adres i datę dostępu; –– powołując dane liczbowe należy podawać ich źrodło pochodzenia (łącznie z numerem strony). 6.W przypadku gdy artykuł jest oparty na wynikach badań finansowanych w ramach programów badawczych, autorzy są proszeni o podanie źródła środków. 7.Warunkiem przyjęcia tekstu do oceny i dalszej pracy jest podanie przez autora pełnych danych adresowych wraz z numerem telefonicznym i adresem e-mail. Autorzy artykułów są również proszeni o podanie danych do notatki afiliacyjnej: tytuł naukowy oraz nazwa uczelni albo innej jednostki (tylko jedna jednostka). Dane afiliacyjne są zamieszczane w opublikowanych tekstach. 8.Opracowanie zakwalifikowane przez Komitet Redakcyjny do opublikowania na łamach „EKONOMISTY”, lecz przygotowane przez autora w sposób niezgodny z powyższymi wskazówkami, będzie odesłane z prośbą o dostosowanie jego formy do wymagań Redakcji. 9. Materiały zamieszczone w „EKONOMIŚCIE” są chronione prawem autorskim. Przedruk tekstu może nastąpić tylko za zgodą Redakcji. 10.Redakcja nie zwraca tekstów i nie wypłaca honorariów autorskich. WYBRANE TYTUŁY WYDAWNICZE POLSKIEGO TOWARZYSTWA EKONOMICZNEGO Joseph E. Stiglitz, Freefall. Jazda bez trzymanki. Ameryka, wolne rynki i tonięcie gospodarki światowej, Warszawa 2010 John Kenneth Galbraith, Idee ordo i społeczna gospodarka rynkowa, Warszawa 2011 John Kenneth Galbraith, Pieniądz. Pochodzenie i losy, Warszawa 2011 John C. Bogle, Dość. Prawdziwe miary bogactwa, biznesu i życia, Warszawa 2009 Pełna oferta wydawnicza dostępna jest w księgarni internetowej Polskiego Towarzystwa Ekonomicznego www.ksiazkiekonomiczne.pl Książki można zamówić internetowo, nabyć w księgarniach naukowych lub w siedzibie Polskiego Towarzystwa Ekonomicznego ul. Nowy Świat 49, 00-042 Warszawa, tel. (22) 55 15 401, e-mail: [email protected] EKONOMISTA EKONOMISTA Tylko prenumerata zapewni regularne otrzymywanie czasopisma Warunki prenumeraty 11 Wydawnictwo Key Text Wpłaty na prenumeratę przyjmowane są na okres nieprzekraczający jednego roku. Prenumerata rozpoczyna się od naj bliższego numeru po dokonaniu wpłaty na rachunek bankowy nr: 64 1160 2202 0000 0001 1046 1312 Wydawnictwo Key Text spółka z o.o., ul. Górczewska 8, 01-180 Warszawa. Cena jednego numeru w prenumeracie krajowej w 2011 r. wynosi 50,40 PLN; ze zleceniem dostawy za granicę równa będzie cenie prenumeraty krajowej plus rzeczywiste koszty wysyłki. Cena prenumeraty za okres obejmujący kilka numerów jest wielokrotnością tej sumy. Cena prenumeraty krajowej na 2011 r. wynosi 302,40 zł (w tym 5% VAT). 11 „RUCH” S.A. Prenumerata krajowa Wpłaty na prenumeratę przyjmują jednostki kolportażowe „RUCH” S.A. właściwe dla miejsca zamieszkania. Termin przyj mowania wpłat na prenumeratę krajową do 5-go dnia każdego miesiąca poprzedzającego okres rozpoczęcia prenumeraty. infolinia 0-804-200-600; www.ruch.com.pl Prenumerata zagraniczna Informacji o warunkach prenumeraty i sposobie zamawiania udziela „RUCH” S.A. Oddział Krajowej Dystrybucji Prasy, 01-248 Warszawa, ul. Jana Kazimierza 31/33, telefony 0-22 53-28-731 – prenumerata płatna w walucie obcej; telefony 022 53-28-816, 022 53-28-734, 022 53-28-819 – prenumerata płatna w PLN. infolinia 0-804-200-600 Prenumerata opłacana w PLN Przelewem na konto w banku: PEKAO S.A. IV O/Warszawa, 68 1240 1053 1111 0000 0443 0494 lub w kasie Oddziału. Dokonując wpłaty za prenumeratę w banku czy też w Urzędzie Pocztowym należy podać: nazwę naszej firmy, nazwę banku, numer konta, czytelny, pełny adres odbiorcy za granicą, zamawiany tytuł, okres prenumeraty, rodzaj wysyłki (pocztą priory tetową czy ekonomiczną). Warunkiem r ozpoczęcia w ysyłki prenumeraty jest dokonanie wpłaty na nasze konto. Prenumerata opłacana w dewizach przez odbiorcę z zagranicy –– przelew na nasze konto w banku: SWIFT banku: PKOPPLPWXXX w USD PEKAO S.A. IV O/W-wa IBAN PL54124010531787000004430508 w EUR PEKAO S.A. IV O/W-wa IBAN PL46124010531978000004430511 Po dokonaniu przelewu prosimy o przesłanie kserokopii polecenia przelewu z podaniem adresu i tytułu pod nr faxu +48 022 532-87-31. –– czek wystawiony na firmę „RUCH SA OKDP” i przesłany razem z zamówieniem listem poleconym na nasz adres. –– karty kredytowe VISA i MASTERCARD płatność przez http://www.ruch.pol.pl. EKONOMISTA CZASOPISMO POŚWIĘCONE NAUCE I POTRZEBOM ŻYCIA ZAŁOŻONE W ROKU 1900 2011 1 2011 1 W numerze Andrzej Czyżewski, Sebastian Stępień Wspólna polityka rolna UE po 2013 r. a interesy polskiego rolnictwa Eugeniusz Kwiatkowski Kryzys globalny a rynek pracy w Polsce i innych krajach Grupy Wyszehradzkiej Jan Fałkowski Konkurencja między partiami politycznymi a polityka gospodarcza 11 „Kolporter” S.A. ul. Strycharska 6, 25-659 Kielce 11 „Garmond Press” S.A. ul. Sienna 5, 31-041 Kraków 11 Wersja elektroniczna (również numery archiwalne) do nabycia: http://www.ekonomista.info.pl Ekonomista 2011, nr 1, s. 1–152 Cena 50,40 PLN Wydawnictwo KEY TEXT WARSZAWA Indeks 357030 ISSN 0013-3205 Cena 50,40 zł (w tym 5% VAT)