EKONOMISTA

Transkrypt

EKONOMISTA
EKONOMISTA
EKONOMISTA
Tylko prenumerata zapewni
regularne otrzymywanie
czasopisma
Warunki prenumeraty
11 Wy­daw­nic­two Key Text
Wpła­ty na pre­nu­me­ra­tę przyj­mo­wa­ne są na okres nie­prze­kra­cza­ją­cy jed­ne­go ro­ku. Pre­nu­me­ra­ta roz­po­czy­na się od naj­
bliż­sze­go nu­me­ru po do­ko­na­niu wpła­ty na ra­chu­nek ban­ko­wy nr:
64 1160 2202 0000 0001 1046 1312
Wy­daw­nic­two Key Text spół­ka z o.o., ul. Gór­czew­ska 8, 01-180 War­sza­wa.
Ce­na jed­ne­go nu­me­ru w pre­nu­me­ra­cie krajowej w 2011 r. wy­no­si 50,40 PLN; ze zle­ce­niem do­sta­wy za gra­ni­cę rów­na
będzie ce­nie pre­nu­me­ra­ty kra­jo­wej plus rze­czy­wi­ste kosz­ty wy­sył­ki.
Ce­na pre­nu­me­ra­ty za okres obej­mu­jący kil­ka nu­me­rów jest wie­lo­krot­no­ścią tej su­my.
Ce­na pre­nu­me­ra­ty kra­jo­wej na 2011 r. wy­no­si 302,40 zł (w tym 5% VAT).
11 „RUCH” S.A.
Prenumerata krajowa
Wpła­ty na pre­nu­me­ra­tę przyj­mu­ją jed­nost­ki kol­por­ta­żo­we „RUCH” S.A. wła­ści­we dla miej­sca za­miesz­ka­nia. Ter­min przyj­
mo­wa­nia wpłat na pre­nu­me­ra­tę kra­jo­wą do 5-go dnia każde­go mie­sią­ca po­prze­dza­ją­ce­go okres roz­po­częcia pre­nu­me­ra­ty.
in­fo­li­nia 0-804-200-600; www.ruch.com.pl
Pre­nu­me­ra­ta zagraniczna
In­for­ma­cji o wa­run­kach pre­nu­me­ra­ty i spo­so­bie za­ma­wia­nia udzie­la „RUCH” S.A. Od­dział Kra­jo­wej Dys­try­bu­cji Pra­sy,
01-248 War­sza­wa, ul. Ja­na Ka­zi­mie­rza 31/33, te­le­fo­ny 0-22 53-28-731 – pre­nu­me­ra­ta płat­na w wa­lu­cie ob­cej;
te­le­fo­ny 022 53-28-816, 022 53-28-734, 022 53-28-819 – pre­nu­me­rata płat­na w PLN.
in­fo­li­nia 0-804-200-600
Pre­nu­me­ra­ta opła­ca­na w PLN
Prze­le­wem na kon­to w ban­ku: PEKAO S.A. IV O/War­sza­wa, 68 1240 1053 1111 0000 0443 0494 lub w ka­sie Od­dzia­łu.
Do­ko­nu­jąc wpła­ty za pre­nu­me­ra­tę w ban­ku czy też w Urzę­dzie Pocz­to­wym na­le­ży po­dać: na­zwę na­szej fir­my, na­zwę ban­ku,
nu­mer kon­ta, czy­tel­ny, peł­ny ad­res od­bior­cy za gra­ni­cą, za­mawia­ny ty­tuł, okres prenumeraty, ro­dzaj wy­sył­ki (pocz­tą prio­ry­
te­to­wą czy eko­no­micz­ną). Wa­run­kiem r­ ozpoczęcia w
­ ysyłki pre­nu­me­ra­ty jest do­ko­na­nie wpła­ty na na­sze kon­to.
Prenumerata opłacana w de­wi­zach przez od­bior­cę z za­gra­ni­cy
–– prze­lew na na­sze kon­to w ban­ku: SWIFT ban­ku: PKOPPLPWXXX
w USD PEKAO S.A. IV O/W-wa IBAN PL54124010531787000004430508
w EUR PEKAO S.A. IV O/W-wa IBAN PL46124010531978000004430511
Po dokonaniu przelewu prosimy o przesłanie kserokopii polecenia przelewu z podaniem adresu i tytułu pod nr faxu
+48 022 532-87-31.
–– czek wystawiony na firmę „RUCH SA OKDP” i przesłany razem z zamówieniem listem poleconym na nasz adres.
–– karty kredytowe VISA i MASTERCARD płatność przez http://www.ruch.pol.pl.
EKONOMISTA
CZASOPISMO POŚWIĘCONE NAUCE I POTRZEBOM ŻYCIA
ZAŁOŻONE W ROKU 1900
2011
1
2011
1
W numerze
Andrzej Czyżewski, Sebastian Stępień
Wspólna polityka rolna UE po 2013 r.
a interesy polskiego rolnictwa
Eugeniusz Kwiatkowski
Kryzys globalny a rynek pracy w Polsce
i innych krajach Grupy Wyszehradzkiej
Jan Fałkowski
Konkurencja między partiami politycznymi
a polityka gospodarcza
11 „Kol­por­ter” S.A.
ul. Stry­char­ska 6, 25-659 Kiel­ce
11 „Gar­mond Press” S.A.
ul. Sien­na 5, 31-041 Kra­ków
11 Wersja elektroniczna (również numery archiwalne) do nabycia: http://www.ekonomista.info.pl
Eko­no­mi­sta 2011, nr 1, s. 1–152
Ce­na 50,40 PLN
Wydawnictwo KEY TEXT
WARSZAWA
Indeks 357030
ISSN 0013-3205
Cena 50,40 zł
(w tym 5% VAT)
WSKAZÓWKI DLA AUTORÓW
1.Redakcja przyjmuje do oceny i publikacji niepublikowane wcześniej teksty o charakterze naukowym, poświęcone problematyce ekonomicznej.
2.Redakcja prosi o składanie tekstów w formie elektronicznej (dokument MS Word
na CD, dyskietce lub e-mailem) oraz 2 egzemplarzy wydruku komputerowego.
Wydruk powinien być wykonany na papierze A4 z podwójnym odstępem między
wierszami, zawierającymi nie więcej niż 60 znaków w wierszu oraz 30 wierszy na
stronie, w objętości (łącznie z tabelami statystycznymi, rysunkami i literaturą) do
30 stron. Opracowania podzielone na części powinny zawierać śródtytuły.
3.Wraz z tekstem należy dostarczyć do Redakcji Oświadczenie Autora. Wzór
oświadczenia dostępny jest na stronie www.ekonomista.info.pl
4.Do tekstu należy dołączyć streszczenie (200 słów) składające się z uzasadnienia
podjętego tematu, opisu metody oraz uzyskanych wyników. Streszczenie powinno zawierać słowa kluczowe (w języku polskim, rosyjskim i angielskim).
5.Przypisy wyjaśniające tekst należy zamieszczać na dole strony, a dane bibliograficzne w tekście – przez podawanie nazwisk autorów i roku wydania dzieła, na
końcu zdania w nawiasie. W bibliografii zamieszczonej na końcu tekstu (ułożonej w porządku alfabetycznym) należy podawać:
–– w odniesieniu do pozycji książkowych – nazwisko, imię (lub inicjały imion) autora, tytuł dzieła, wydawcę, miejsce i rok wydania;
–– w przypadku prac zbiorowych nazwisko redaktora naukowego podaje się po
tytule dzieła;
–– w odniesieniu do artykułów z czasopism – nazwisko, imię (lub inicjały imion)
autora, tytuł artykułu, nazwę czasopisma ujętą w cudzysłów, rok wydania i kolejny numer czasopisma;
–– w przypadku korzystania z internetu należy podać adres i datę dostępu;
–– powołując dane liczbowe należy podawać ich źrodło pochodzenia (łącznie
z numerem strony).
6.W przypadku gdy artykuł jest oparty na wynikach badań finansowanych w ramach
programów badawczych, autorzy są proszeni o podanie źródła środków.
7.Warunkiem przyjęcia tekstu do oceny i dalszej pracy jest podanie przez autora
pełnych danych adresowych wraz z numerem telefonicznym i adresem e-mail.
Autorzy artykułów są również proszeni o podanie danych do notatki afiliacyjnej:
tytuł naukowy oraz nazwa uczelni albo innej jednostki (tylko jedna jednostka).
Dane afiliacyjne są zamieszczane w opublikowanych tekstach.
8.Opracowanie zakwalifikowane przez Komitet Redakcyjny do opublikowania na
łamach „EKONOMISTY”, lecz przygotowane przez autora w sposób niezgodny
z powyższymi wskazówkami, będzie odesłane z prośbą o dostosowanie jego formy do wymagań Redakcji.
9. Materiały zamieszczone w „EKONOMIŚCIE” są chronione prawem autorskim.
Przedruk tekstu może nastąpić tylko za zgodą Redakcji.
10.Redakcja nie zwraca tekstów i nie wypłaca honorariów autorskich.
WYBRANE TYTUŁY WYDAWNICZE
POLSKIEGO TOWARZYSTWA EKONOMICZNEGO
Joseph E. Stiglitz,
Freefall. Jazda bez trzymanki.
Ameryka, wolne rynki i tonięcie
gospodarki światowej,
Warszawa 2010
John Kenneth Galbraith,
Idee ordo i społeczna gospodarka
rynkowa,
Warszawa 2011
John Kenneth Galbraith,
Pieniądz. Pochodzenie i losy,
Warszawa 2011
John C. Bogle,
Dość. Prawdziwe miary bogactwa,
biznesu i życia,
Warszawa 2009
Pełna oferta wydawnicza dostępna jest w księgarni internetowej Polskiego Towarzystwa Ekonomicznego
www.ksiazkiekonomiczne.pl
Książki można zamówić internetowo, nabyć w księgarniach naukowych
lub w siedzibie Polskiego Towarzystwa Ekonomicznego
ul. Nowy Świat 49, 00-042 Warszawa, tel. (22) 55 15 401, e-mail: [email protected]
EKONOMISTA
CZASOPISMO
POŚWIĘCONE NAUCE I POTRZEBOM ŻYCIA
ZAŁOŻONE W ROKU 1900
2011
1
WARSZAWA
Wydawca
KOMITET NAUK EKONOMICZNYCH POLSKIEJ AKADEMII NAUK
i Polskie Towarzystwo Ekonomiczne
Rada Programowa
Marek Belka, Adam Budnikowski, Zbigniew Czerwiński, Krzysztof Jajuga, Wacław Jarmołowicz,
Mieczysław Kabaj, Eugeniusz Kwiatkowski, Jan Lipiński, Aleksander Łukaszewicz, Wojciech
Maciejewski, Jerzy Osiatyński, Stanisław Owsiak, Emil Panek, Urszula Płowiec, Krzysztof
Porwit, Antoni Rajkiewicz, Andrzej Sławiński, Andrzej Wernik, Jerzy Wilkin (przewodniczący
Rady) Michał G. Woźniak
Komitet Redakcyjny
Marek Bednarski, Bogusław Fiedor, Marian Gorynia, Brunon Górecki, Joanna Kotowicz-Jawor,
Barbara Liberska, Adam Lipowski (zastępca redaktora naczelnego), Zbigniew Matkowski
(sekretarz redakcji), Elżbieta Mączyńska, Adam Noga, Marek Ratajczak, Eugeniusz Rychlewski,
Zdzisław Sadowski (redaktor naczelny), Tadeusz Smuga, Jan Solarz, Andrzej Wojtyna
Wydanie publikacji dofinansowane przez Ministra Nauki i Szkolnictwa Wyższego
Adres Redakcji: 00-042 Warszawa, Nowy Świat 49, tel. 022 55 15 416 oraz 417
http://www.ekonomista.info.pl
[email protected]
Polecamy wersję elektroniczną czasopisma
http://www.ekonomista.info.pl
Realizacja wydawnicza
Wydawnictwo Key Text sp. z o.o.
01-180 Warszawa, ul. Górczewska 8
tel. 022 632 11 39; 022 632 11 36, fax wew. 212
www.keytext.com.pl
[email protected]
Nakład 500 egz., ark. wyd. 14
Spis treści
Artykuły
Andrzej C Z Y Ż E W S K I, Sebastian S T Ę P I E Ń: Wspólna polityka rolna UE
po 2013 r. a interesy polskiego rolnictwa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Eugeniusz K W I A T K O W S K I: Kryzys globalny a rynek pracy w Polsce i innych
krajach Grupy Wyszehradzkiej . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Jan FA Ł K O W S K I: Konkurencja między partiami politycznymi a polityka
gospodarcza. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
37
55
Mi­scel­la­nea
Andrzej G R Z E B I E N I A K: Reasekuracja w ubezpieczeniach na życie w Polsce
w latach 1991–2009. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Adam Z A R E M B A: Przyczyny malejącej zyskowności funduszy kontraktów terminowych. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
85
Eseje
Michał G. W O Ź N I A K: Przyszłość może być lepsza. Refleksje na marginesie
książki Grzegorza W. Kołodko Świat na wyciągnięcie myśli. . . . . . . . . . . . . . . . . 107
Laureaci Nagrody Nobla
Dominik B U T T L E R, Józef O R C Z Y K, Jan S Z A M B E L A Ń C Z Y K:
Procesy poszukiwań i dopasowań na rynku pracy. Laureaci Nagrody Nobla
z ekonomii w 2010 r. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Krzysztof N O W A K: Problem bezrobocia strukturalnego: czego uczy nas teoria
poszukiwań i dopasowań na rynku pracy? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121
135
Recenzje i omówienia
Stanisław K U B I E L A S: Innowacje i luka technologiczna w gospodarce globalnej opartej na wiedzy. Strukturalne i makroekonomiczne uwarunkowania
(rec. Bogusław Fiedor) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Idee ordo i społeczna gospodarka rynkowa, praca zbiorowa pod red. Elżbiety
Mączyńskiej i Piotra Pysza (rec. Anna Chmielak) . . . . . . . . . . . . . . . . . . . . . . . . .
Konwergencja modeli ekonomicznych: Polska i Ukraina, praca zbiorowa pod
red. Michała G. Woźniaka, Viktora I. Chuzhykova, Dmytro G. Łukjanenki
(rec. Stanisław Swadźba). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
141
144
149
*
Każ­dy ar­ty­kuł za­wie­ra stresz­cze­nie w ję­zy­ku an­giel­skim i ro­syj­skim.
An­giel­sko­ję­zycz­ne stresz­cze­nia ar­ty­ku­łów za­miesz­cza­nych w „Eko­no­mi­ście” są re­je­strowane w serwisie:
International Bibliography of the Social Sciences (IBSS): http://www.ibss.ac.uk oraz „The Central European
Journal of Social Sciences and Humanities”: http://cejsh.icm.edu.pl (LISTA FILADELFIJSKA)
Con­tents
Ar­tic­les
Andrzej C Z Y Ż E W S K I, Sebastian S T Ę P I E Ń: Common Agricultural Policy
of the EU After 2013 and the Interests of the Polish Agriculture. . . . . . . . . . . Eugeniusz K W I A T K O W S K I: Global Crisis and Labour Market in Poland and
Other Countries of the Vyshehrad Group . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Jan FA Ł K O W S K I: Competition Between Political Parties and Economic
Policy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
37
55
Mi­scel­la­nea
Andrzej G R Z E B I E N I A K: Reinsurance in Life Insurance Contracts in Poland, 1991–2009. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Adam Z A R E M B A: Causes of the Falling Profitability of Managed Futures. . . Essays
Michał G. W O Ź N I A K: Future May Be Better. Reflections on the Book by Grzegorz W. Kołodko Świat na wyciągnięcie myśli (The World in Thought’s Reach)
73
85
107
Nobel Prize Laureates
Dominik B U T L E R, Józef O R C Z Y K, Jan S Z A M B E L A Ń C Z Y K:
Search and Matching Processes in the Labour Market. Nobel Prizes in Economics 2010 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Krzysztof N O W A K: The Problem of Structural Unemployment: What Can Be
Learnt from the Theory of Search and Matching in the Labour Market . . . . . 121
135
Book Reviews
Stanisław K U B I E L A S: Innowacje i luka technologiczna w gospodarce globalnej opartej na wiedzy. Strukturalne i makroekonomiczne uwarunkowania (Innovation and Technological Gap in the Global Knowledge – Based Economy:
Structural and Macroeconomic Determinants) (by Bogusław Fiedor). . . . . . . . Idee ordo i społeczna gospodarka rynkowa (Ordo Ideas and Market Economy),
eds. Elżbieta Mączyńska, Piotr Pysz (by Anna Chmielak). . . . . . . . . . . . . . . . . . Konwergencja modeli ekonomicznych: Polska i Ukraina (Convergence of Economic
Models: Poland and Ukraine), eds. Michał G. Woźniak, Viktor I. Chuzhykov,
Dmytro G. Łukjanenko (by Stanisław Swadźba) . . . . . . . . . . . . . . . . . . . . . . . . . . . 141
144
149
*
Each ar­tic­le is fol­lo­wed by a sum­ma­ry in En­glish and Rus­sian.
Abstracts of „Ekonomista” are reproduced in the International Bibliography of the Social Sciences (IBSS):
http://www.ibss.ac.uk and „The Central European Journal of Social Sciences and Humanities”: http://
cejsh.icm.edu.pl
Содержание
Статьи
Анджей Ч И Ж Е В С К И, Себастьян С Т Е М П Е Н Ь: Общая аграрная политика
ЕС после 2013 г. и интересы польского сельского хозяйства. . . . . . . . . . . . . . . Эугениуш К В Я Т К О В С К И: Глобальный кризис и рынок труда в Польше
и в других странах Вишеградской группы . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Ян ФАЛКОВСКИ: Конкуренция между политическими партиями и экономическая политика. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
37
55
Разное
Анджей Г Ж Е Б Е Н Я К: Перестрахование страхования жизни в Польше в 1991–
–2009 гг.. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Адам З А Р Е М Б А: Причины уменьшающейся прибыльности фондов срочных
контрактов. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
85
Эссе
Михал Г. В О З Н Я К: Будущее может быть лучше – рассуждения на полях книги
Гжегожа В. Колодко До мира – мыслью подать. . . . . . . . . . . . . . . . . . . . . . . . . . . .
107
Лауреаты Нобелевской Премии
Доминик Б У Т Л Е Р, Юзеф О Р Ч И К, Ян Ш А М Б Е Л Я Н Ь Ч И К: Процессы
поиска и адаптации на рынке труда. Лауреаты Нобелевской премии по экономике
2010 года. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Кжиштоф Н О В А К: Проблема структурной безработицы: чему нас учит теория
поиска и адаптации на рынке труда?. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
121
135
Рецензии и обсуждения
Станислав КУБЕЛЯС: Инновации и технологический разрыв в глобальной экономике,
основанной на знаниях. Структурные и макроэкономические обусловленности
(рец. Богуслав Федор) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Идеи Ордо и социальная рыночная экономика, kоллективный труд под ред. Эльжбеты
Мончинской и Петра Пыша (рец. Анна Хмеляк). . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Конвергенция экономических моделей: Польша и Украина, kоллективный труд
под ред. Михала Г. Возняка, Виктора И. Хужикова, Дмытро Г. Лукьяненко
(рец. Станислав Свадзьба) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141
144
149
*
Каждая статья сопровождается резюме на английском и руском языках.
Содержание и резюме статей, помещаемых в „Экономисте”, регистрируютсяв библиографическом сервисе International Bibliography of the Social Sciences (IBSS): http://www.ibss.ac.uk a также
в „The Central European Journal of Social Sciences and Humanities”: http://cejsh.icm.edu.pl
A
R
T
Y
K
U
Ł
Y
Andrzej Czyżewski*
Sebastian Stępień**
Wspólna polityka rolna UE po 2013 r.
a interesy polskiego rolnictwa
Wprowadzenie
Wspólna polityka rolna (WPR), od chwili jej powstania ponad pół wieku temu,
systematycznie podlega przeobrażeniom. W ostatnich latach istotne zmiany dokonały się pod wpływem reformy luksemburskiej z 2003 r. oraz przeglądu średniookresowego Health Check z 2008 r. Przyjęte rozwiązania miały na celu przede
wszystkim ograniczenie zakresu interwencji rynkowej, zmianę systemu płatności
bezpośrednich poprzez zmniejszenie stopnia powiązania dopłat z produkcją
i wprowadzenie obowiązkowej modulacji, zwiększenie nakładów finansowych na
wsparcie rozwoju obszarów wiejskich, ochronę zasobów przyrodniczych oraz zarządzanie ryzykiem w rolnictwie. Należy podkreślić, że uzgodnienia te miały charakter zarówno ekonomiczny, jak i polityczny. W pierwszym przypadku kierunki
zmian były następujące:
11 historyczny system płatności bezpośrednich, wiążący wsparcie z wielkością
i strukturą produkcji, okazał się nieefektywny, gdyż prowadził do powstania
nadwyżek żywności w tych sektorach, które otrzymywały wsparcie. System
oparty na zasadzie decouplingu (tj. oderwania płatności od produkcji) w mniejszym stopniu zniekształca warunki konkurencyjne zarówno w skali globalnej,
jak i w skali UE, a rolnik sam decyduje o tym, co i w jakiej ilości produkować,
kierując się sygnałami płynącymi z rynku;
11 wprowadzenie modulacji (redukcji płatności bezpośrednich) dla największych
gospodarstw podyktowane było faktem, iż większość wsparcia trafiała do go* Prof. dr hab. Andrzej Czyżewski – Katedra Makroekonomii i Gospodarki Żywnościowej
(KMiGŻ), Uniwersytet Ekonomiczny w Poznaniu, e-mail: [email protected]
** Dr Sebastian Stępień – Katedra Makroekonomii i Gospodarki Żywnościowej (KMiGŻ),
Uniwersytet Ekonomiczny w Poznaniu, e-mail: [email protected]
10
Andrzej Czyżewski, Sebastian Stępień
spodarstw, w których możliwości dalszego wzrostu produktywności były mocno ograniczone, gdzie podtrzymywano dochody bez motywacji dla poprawy
efektywności gospodarowania [Czyżewski, Kułyk 2008]. Prowadziło to do
działań dostosowawczych polegających na usprawnieniu absorpcji środków
unijnych, a nie poprawy wydajności i dotyczyło głównie państw UE-15, bowiem w przypadku nowych krajów członkowskich, takich jak Polska, wciąż
występują obszary, gdzie możliwy jest wzrost wartości dodanej poprzez rozwój
funkcji czysto rolniczych;
11 ograniczenie interwencji rynkowej, poza presją ze strony WTO, było wynikiem niewykorzystania części instrumentów, co generowało koszty administracyjne. Utrzymano jednak pewien zakres wsparcia rynkowego, które
powinno odgrywać rolę „siatki bezpieczeństwa” na wypadek pogorszenia
koniunktury w rolnictwie. Całkowite zniesienie mechanizmów wsparcia
w tym zakresie byłoby nieodwracalne i naraziłoby producentów rolnych na
nieuzasadnione ryzyko spadku dochodów [Czyżewski, Poczta-Wajda, Stępień 2010, s. 28];
11 wzmocniono finansowanie rozwoju obszarów wiejskich (II filar WPR), które
odgrywa istotną rolę modernizacyjną i prorozwojową, zwiększając konkurencyjność sektora rolno-żywnościowego. Ponadto takie rozwiązanie wychodzi
naprzeciw oczekiwaniom społecznym, które przejawiają się w żądaniach polityki rolnej harmonijnie połączonej z polityką na rzecz obszarów wiejskich
i uwzględniającą kwestie związane z jakością i zdrowotnością żywności oraz
bioróżnorodnością krajobrazu przyrodniczego;
11 w warunkach coraz większej zmienności koniunktury celowe było wprowadzenie nowych instrumentów zarządzania ryzykiem w celu stabilizacji dochodów
producentów rolnych.
Z kolei polityczny charakter tych porozumień można rozpatrywać z punktu
widzenia takich zagrożeń, jak renacjonalizacja finansowania WPR po 2013 r., za
którą opowiada się część bogatszych krajów UE (przede wszystkim Wielka Brytania i Szwecja). Zamrożenie, a tym bardziej ewentualne zmniejszenie wspólnotowego budżetu na WPR oznaczałoby, że po 2013 r. biedniejsze państwa Unii nie
byłyby w stanie zrekompensować prawdopodobnych dalszych redukcji cen rolnych, co doprowadziłoby do utraty zdolności konkurowania z tymi, których stać
byłoby na finansowanie płatności z budżetów krajowych. Propozycje takie były
zatem trudne do zaakceptowania przez biedniejsze państwa członkowskie UE,
nie tylko dlatego, iż są one obecnie beneficjentem netto przepływów finansowych
związanych z WPR, ale przede wszystkim z uwagi na niebezpieczeństwo zróżnicowania poziomu wsparcia sektora rolnego w ramach jednolitego rynku i tym
samym zniekształcenia warunków konkurencji. Ostatecznie w porozumieniach
z 2003 i 2008 r. pozostawiono WPR jako politykę wspólnotową, w zamian za korzystniejsze z punktu widzenia bogatszych państw członkowskich określenie zasad modulacji (niższe tempo wzrostu modulacji i element progresywności) oraz
odejście od kryterium kohezji przy podziale środków pochodzących z modulacji
[Czyżewski, Stępień 2009, s. 451–452].
Wspólna polityka rolna UE po 2013 r. a interesy polskiego rolnictwa
11
W latach 2010–2011 kwestia kształtu wspólnej polityki rolnej rozpatrywana
jest w aspekcie konstruowania budżetu UE na lata 2014–2020. W lipcu 2011 r.,
czyli na początku polskiej prezydencji w UE, unijny komisarz ds. rolnictwa, Dacian Cioloş, przedstawi legislacyjne propozycje reformy WPR (ich zarys pojawił
się w listopadzie 2010 r.), a w 2012 r. Parlament Europejski uchwali końcowy
kształt budżetu1. Polska jako jedno z większych państw członkowskich powinna
aktywnie włączyć się w proces publicznej i politycznej debaty, która zadecyduje
o przyszłych zmianach WPR. Wymaga to krytycznego podejścia do poszczególnych elementów polityki unijnej, jasnego określenia priorytetów oraz gotowości
do zawierania kompromisu. Trzeba pamiętać, że przyszłe reformy WPR będą
odbywały się w warunkach dostosowań do nowych ograniczeń wynikających z negocjacji rolnych w ramach WTO, wyzwań związanych ze zmianami w środowisku
naturalnym i dążenia do ograniczania środków budżetowych UE przeznaczonych
na wieś i rolnictwo pod presją części państw członkowskich i krytyki podatników.
Kolejna perspektywa finansowa będzie zatem ustalana pod wpływem innych niż
w przeszłości uwarunkowań wewnętrznych (rozszerzenie o nowe państwa członkowskie2) i zewnętrznych (szybko rosnąca konkurencja na światowym rynku).
Potrzebna jest więc kompleksowa ocena dotychczas funkcjonujących mechanizmów wsparcia sektora rolnego pod kątem widzenia efektywności ekonomicznej,
adekwatności społecznej oraz kryteriów zdrowotnych i ekologicznych. WPR będzie ewoluować w kierunku polityki coraz trudniejszej, a pozyskanie środków
pieniężnych wiązać się będzie ze spełnieniem innych niż do tej pory kryteriów
osiągania nowych celów, przy rezygnacji z oczekiwań i postulatów dotyczących
zwiększenia budżetu unijnego na wsparcie sektora rolnego.
O intensywności przygotowań do reformy WPR świadczy chociażby ostatni
projekt rozporządzenia Parlamentu Europejskiego i Rady zmieniający zasady
systemów wsparcia bezpośredniego dla rolników [Proposal for a Regulation…
2010]. Przewiduje on przyznanie Komisji Europejskiej uprawnień delegowanych
i wykonawczych, dotyczących realizacji całego systemu płatności bezpośrednich,
w tym zasad wzajemnej zgodności (cross compliance), co zdaniem autorów projektu ma służyć poprawie funkcjonowania mechanizmu wsparcia. Zgodnie z założeniami KE będzie miała wpływ na kształt aktów prawnych regulujących te
elementy systemu dopłat, które traktuje się jako „inne niż istotne” (akty delegowane) lub tych, dla których potrzebne są jednolite warunki wykonywania prawnie
wiążących aktów UE (akty wykonawcze). Obszar regulacji jest bardzo szeroki
i zawiera m.in. tak kluczowe kwestie, jak: wykaz systemów wsparcia bezpośredniego i jego kontrola, przegląd rocznych pułapów finansowych dopłat, rozdział
płatności bezpośrednich wśród rolników, zmniejszenie zakresu płatności w ra1 Zgodnie
z Traktatem Lizbońskim od 1 grudnia 2009 r. Parlament Europejski uzyskał
prawo do współdecydowania o kształcie Wspólnej Polityki Rolnej i prawo do zgłaszania weta.
Wcześniej posiadał on jedynie funkcję doradczą.
2 Włączenie nowych państw członkowskich do UE spowodowało zwiększenie areału ziemi
rolniczej o 41%, a liczby gospodarstw rolnych o 142%, przy wzroście produkcji zaledwie
o 19%.
12
Andrzej Czyżewski, Sebastian Stępień
mach modulacji i dyscypliny finansowej3, inne zmniejszenia i wykluczenia płatności, zmiany w odniesieniu do zasad wzajemnej zgodności, działanie systemu doradztwa rolniczego, przepisy dotyczące odsetka użytków zielonych oraz wiele
innych.
Oceniając przedstawione w projekcie propozycje zmian funkcjonowania WPR,
można stwierdzić, że Komisja Europejska dąży do rozszerzenia swoich uprawnień
w zakresie tworzenia reguł polityki rolnej, a obszarów, które podlegać mają regulacji na pewno nie można zaliczyć do „innych niż istotne”. Sprawa jest o tyle dyskusyjna, że chodzi o przyznanie Komisji prawa do wydawania aktów delegowanych w zakresie spraw, które pozostają obecnie w gestii państw członkowskich4,
co podważa zasadę pomocniczości5. Trzeba przecież przyjąć, że każdy kraj najlepiej orientuje się w specyfice swojego sektora rolnego i efektywniej dostosowuje
poszczególne instrumenty wsparcia. Poza tym często nie jest jasne, dlaczego pewne zagadnienia mają być regulowane za pomocą aktów delegowanych, a inne,
zbliżone w drodze aktów wykonawczych [por. Stankiewicz, Grzelak 2010]. Kwestia ta pozostaje nadal otwarta, natomiast sam przypadek projektu uczy, jak ważna, szczególnie po przyjęciu Traktatu Lizbońskiego przez państwa UE, jest polityczna dyskusja poprzedzająca wprowadzenie rozporządzeń unijnych.
Celem artykułu jest przedstawienie propozycji zmian wspólnej polityki rolnej w kontekście rozwoju polskiego rolnictwa. Szczególny nacisk kładzie się na
kwestie związane z mechanizmem dopłat bezpośrednich, które w publicznej
debacie zajmują najwięcej miejsca i których kształt nie został jeszcze do końca
uzgodniony. Autorzy starają się przedstawić własne opinie na temat przyjętych
uzgodnień, wypracowane w trakcie wielu konsultacji i seminariów nad kształtem przyszłej WPR. Jednocześnie opierają się na dokumentach rządowych,
Parlamentu Europejskiego, Komisji Europejskiej oraz stanowiskach instytucji
naukowych i odnoszą się do postulatów tam zawartych. Ponieważ zamierzeniem publikacji jest m.in. pokazanie propozycji zmian w mechanizmie wsparcia, to po części ma ona charakter przeglądowy. Takie podejście umożliwia pełniejsze zrozumienie ewolucji polityki rolnej UE i pozwala na dokonanie oceny
przyszłych reform ze względu na racje polskiego rolnictwa. W pracy nie chodzi
jednak o poddanie analizie i dyskusji każdej z wymienionych propozycji, gdyż
3 Dyscyplina
finansowa to, obok modulacji, system redukowania skali dopłat bezpośrednich, uruchamiany w sytuacji przekroczenia „rocznego pułapu” wydatków na wspieranie rynków rolnych i na dopłaty bezpośrednie (obecnie nie jest stosowana w nowych krajach członkowskich).
4 Chodzi m.in. o kwestie związane z: określeniem przepisów dotyczących systemu SPS
w zakresie regionalizacji płatności i w zakresie częściowego powiązania z produkcją, funkcjonowaniem systemu doradztwa rolniczego, kontrolą stosowania zasad współzależności i ochroną
areału użytków zielonych oraz ze zmianami uprawnień dostępu rolnika do płatności w systemie
płatności jednolitej.
5 Zasada pomocniczości (subsydiarności) UE oznacza, że na szczeblu wspólnotowym
powinny być podejmowane tylko te działania, których przeniesienie na wyższy szczebel oznacza
większą skuteczność i efektywność niż w przypadku pozostawienia tych działań w gestii rządów
poszczególnych krajów członkowskich.
Wspólna polityka rolna UE po 2013 r. a interesy polskiego rolnictwa
13
taki poziom szczegółowości wykluczyłby ocenę kompleksową i przekroczyłby
ramy artykułu. Celowo więc punkt ciężkości został położony na aspekt aplikacyjny i wyjaśnienie kwestii proponowanych zmian i co ewentualnie mogą one
oznaczać dla rolnictwa w Polsce.
1. Uzasadnienie dla interwencji w sektorze rolnym
Zanim przejdziemy do przedstawienia proponowanych kierunków zmian WPR
i ich oceny z punktu widzenia polskiego rolnictwa, warto zastanowić się, jakie
skutki dla sektora rolnego miałaby rezygnacja z instrumentów WPR i przyjęcie
liberalnej optyki funkcjonowania gospodarki. Opcja liberalna posługuje się
operatem racjonalności mikroekonomicznej i zakłada, że interwencjonizm
państwowy (tu: unijny) jest nieuzasadnionym przywilejem sektora żywnościowego i obciąża kosztami całe społeczeństwo. Liberalne podejście do sektora
rolnego pomija przy tym efekty zewnętrze towarzyszące produkcji rolniczej,
zarówno te negatywne, takie jak degradacja środowiska przyrodniczego, jak
i te pozytywne, związane ze świadczeniem dóbr publicznych. Takie myślenie
jest nieuzasadnione i wynika z osobliwości ziemi jako czynnika produkcji. Nie
uwzględnia jego naturalnych właściwości (ograniczonej mobilności i podzielności) oraz niskiej elastyczności popytu (cenowej i dochodowej) na produkty
żywnościowe w warunkach przymusu konsumpcji. Te uwarunkowania produkcji rolnej implikują nieefektywną, w sensie Pareto, alokację czynników produkcji, co prowadzi do ich odpływu w kierunku bardziej efektywnych sektorów
[Czyżewski 2007, s. 16]. W długim okresie występuje więc „drenaż” wartości
dodanej, od rolnictwa do przetwórcy, straty zaś z okresu dekoniunktury nie są
rekompensowane rentami w fazie ożywienia. W ogólnym szacunku skalę tego
drenażu można określić w Polsce średniorocznie na 7–8% realnej produkcji
globalnej rolnictwa (z uwzględnieniem dopłat) w zamkniętym cyklu koniunkturalnym trwającym 10 lat6.
Jak pisze J.S. Zegar, osobliwością rolnictwa jest to, „że na ogół rozwiązywaniu
kwestii agrarnej w ujęciu ekonomicznym towarzyszy narastanie kwestii chłopskiej
w ujęciu społecznym. (…) Powodowane jest to głównie przez działanie mechanizmu rynkowego, za którego pośrednictwem znaczna część nadwyżki ekonomicznej tworzonej w rolnictwie jest wyprowadzana poza rolnictwo” [Zegar
2010a]. Stąd, w celu utrzymania zdolności sektora rolnego do reprodukcji rozszerzonej, konieczna jest aktywna polityka państwa z nieautomatycznymi stabiliza6 Wynika tak z badań B. Czyżewskiego i A. Mrówczyńskiej-Kamińskiej. Zakładają oni, że
rok 2000 był „najgorszym” dla rolnictwa rokiem cyklu 1995–2005, a rok 2005 rokiem „najlepszym”. W takim ujęciu saldo rent w kolejnych latach fazy kryzysu i ożywienia (np. 2004/1999,
2003/1998) było stałe i wynosiło ok. –4,2 mld zł, co przy produkcji globalnej na poziomie wahającym się od 52 do 63 mld zł w cenach z 1995 r. daje ten szacunek. Por. Czyżewski, Mrówczyńska-Kamińska [2010].
14
Andrzej Czyżewski, Sebastian Stępień
torami koniunktury, ponieważ sam mechanizm rynkowy tego problemu nie rozwiąże. Kluczowa staje się właściwa relacja pomiędzy polityką makroekonomiczną
państwa w sferze kreacji pieniądza i wydatków budżetowych (polegająca na zrównoważeniu odchyleń od punktu równowagi polityki monetarnej i fiskalnej) a polityką rolną i jej efektami [Czyżewski, Kułyk 2010]. Przemienność opcji monetarnej i fiskalnej (restrykcyjnej i ekspansywnej) w polityce gospodarczej gwarantuje
względne zrównoważenie otoczenia makroekonomicznego sektora rolnego
i wpływa pozytywnie na sytuację dochodową gospodarstw rolnych [Czyżewski
2009].
Polityka ta jest szczególnie ważna w warunkach pogłębiania się procesów globalizacji, przejawiających się między innymi w koncentracji czynników wytwórczych i narastaniu nierówności w stosunkach podziału i deprecjacji rolnictwa.
Globalizacja powoduje, że rynek ze zdwojoną siłą prze w kierunku efektywności
mikroekonomicznej (dzisiaj korporacyjnej), a bazując na relacjach efektywnościowych nie rozwiązuje ani problemu żywnościowego, ani problemu dochodowego, a rodzi nowe wyzwania, ponieważ efekty zewnętrzne, głównie środowiskowe, przenoszone są na poziom globalny [Zegar 2010a]. Występuje więc potrzeba
dostosowań do mechanizmów globalizacji, a jednocześnie stworzenia instrumentów koordynacji na poziomie ponadnarodowym. Taką próbę podejmuje od wielu
lat Unia Europejska, tworząc instrumenty wspólnej polityki rolnej. Brak koordynacji tej polityki w UE, przy jednoczesnej redukcji wsparcia krajowego, mógłby
doprowadzić do scenariusza, w którym państwa konkurowałyby wyłącznie za pośrednictwem cen światowych i efektywności mikroekonomicznej, przy założeniu
globalnej standaryzacji jakości i konsumpcji. Zatem żywność byłaby produkowana tam i przez tych, którzy robią to najtaniej.
Teoretycznie, ze względów np. politycznych (nie ekonomicznych!) można by
wobec tego zrezygnować z interwencji wobec rolnictwa [Czyżewski, Kułyk 2010]
i zrzec się samowystarczalności żywnościowej, wszak można potrzebne produkty
nabyć na globalnym rynku. Doświadczenie ostatnich lat uczy jednak, że w okresach nieurodzaju państwa sięgają po instrumenty ograniczające sprzedaż surowca
na zagraniczne rynki (np. w wyniku klęski nieurodzaju zbóż w 2010 r. Rosja
wprowadziła zakaz ich eksportu). Ponadto, jak wynika z badań IERiGŻ PIB
w Warszawie [Goraj 2009a], sama rezygnacja z dopłat bezpośrednich oznaczałaby konieczność podniesienia cen artykułów rolnych o 20% lub obniżenia kosztów
wykorzystywanych czynników produkcji (bez nakładów własnych) o 33%, aby
utrzymać obecny poziom i parytet dochodów rolniczych w Polsce. Odejście od
przyjętego paradygmatu rozwoju rolnictwa nie wydaje się więc ani zasadne, ani
możliwe.
Zatem dalsze finansowanie polityki rolnej z budżetu unijnego ma sens dlatego, że wieś swoich problemów bez zewnętrznej pomocy nie rozwiąże. Potrzebne są odpowiednie instrumenty, które zmodernizują produkcję, poprawią
infrastrukturę, stworzą warunki do powstania alternatywnych źródeł zarobkowania itp. Wartości dodanej w rolnictwie nie można rozpatrywać wyłącznie
w wymiarze finansowym. Ma ona bowiem swoje źródło w realizacji nadrzędne-
Wspólna polityka rolna UE po 2013 r. a interesy polskiego rolnictwa
15
go celu, jakim jest dążenie do stworzenia warunków, w których rolnictwo będzie wielofunkcyjne, rynkowo zrównoważone i będzie w stanie utrzymać obszary wiejskie, tj. chronić przyrodę oraz wnosić istotny wkład do witalności wiejskiego życia. W warunkach rynkowych rolnicy poddawani są ogromnej presji na
zwiększanie produktywności, skali produkcji i specjalizację, co utrudnia pełnienie funkcji pozakomercyjnych. Jednocześnie rynek, kierując się zasadą wyrównywania kosztów krańcowych, sprzyja koncentracji produkcji rolnej w regionach do tego przystosowanych, a zaniku produkcji na obszarach o mniej korzystnych warunkach przyrodniczych i ekonomicznych. To sprawia, że
deklaracje odnośnie do zrównoważenia i stworzenia europejskiego modelu rolnictwa często rozmijają się z realnymi procesami [Zegar 2010b, s. 14]. Stawia
się tym samym hipotezę, że wdrożenie zasad wspólnej polityki rolnej koryguje
zawodności mechanizmu rynkowego (część nadwyżki ekonomicznej, która
w warunkach rynkowych „wycieka” do pozarolniczych sektorów, wraca do rolnictwa, głównie poprzez system podatkowy) i jest zasadne z punktu widzenia
efektywności ekonomicznej, ale również ze względów społecznych i środowiskowych. Nieadekwatny do bieżącej sytuacji staje się paradygmat rozwoju rolnictwa głównie na drodze industrializacji, poprzez postęp techniczny i oderwanie od naturalnego ekosystemu Ziemi. Potrzebne są mechanizmy, które pchać
będą działania w kierunku zwiększenia udziału organicznych metod wytwarzania żywności i poszukiwania postępu z poszanowaniem społeczności lokalnej
i środowiska.
2. Propozycje zmian wspólnej polityki rolnej UE
z punktu widzenia interesów polskiego rolnictwa
W toczącej się dyskusji nad kształtem wspólnej polityki rolnej po 2013 r. pojawiają się trzy różne koncepcje. Pierwsza z nich to utrzymanie status quo, z ograniczonymi poprawkami w niektórych obszarach (np. bardziej sprawiedliwa dystrybucja płatności bezpośrednich pomiędzy kraje członkowskie). Propozycja
druga to bardziej zrównoważone i ukierunkowane wsparcie, a zarazem bardziej
zrozumiałe dla podatników UE, finansujących w coraz większym stopniu unijną
politykę rolną (rys. 1). Trzeci pomysł to radykalne ograniczenie interwencji rynkowej i dopłat do dochodów, a skoncentrowanie się na celach środowiskowych
i klimatycznych [Buckwell 2010]. Która z trzech opcji zostanie wybrana jako
ostateczna, będzie zależeć od woli politycznej państw członkowskich i stanowisk różnych organizacji (np. organizacje rolnicze i COPA popierają koncepcję
pierwszą, a ekolodzy opowiadają się za trzecim rozwiązaniem). Najbardziej
prawdopodobna wydaje się propozycja pośrednia, wprowadzająca zmiany, które powinny zaowocować zwiększeniem intensywności „zielonego koloru” WPR,
tj. roli dobrostanu środowiska naturalnego [Zegar 2010b, s. 13]. Pytanie tylko,
czy leży ona w interesie polskiego rolnictwa. Poniżej zostaną przedstawione te
16
Andrzej Czyżewski, Sebastian Stępień
kwestie, które zdaniem autorów są szczególnie ważne i muszą być brane pod
uwagę podczas ustaleń kierunków reform wspólnej polityki rolnej.
Ry s u n e k 1
Szacunkowa dystrybucja środków i kosztów WPR w latach 2000–2008 (mld euro)
2000
2002
2004
2006
2008
–80
–60
–40
–20
0
20
40
podatnicy
właściciele ziemi
konsumenci
gospodarstwa rolne
Źródło: Opracowanie własne na podstawie Moreddu [2010, s. 92].
Jedną z kluczowych spraw jest perspektywa renacjonalizacji polityki rolnej,
czyli przerzucenia ciężaru wsparcia sektora rolnego ze środków unijnych na budżety krajowe, a pozostawienie na poziomie unijnym tylko elementu środowiskowego (trzecia z przedstawionych powyżej propozycji reform). Już debata polityczna w 2005 r. nad budżetem na lata 2007–2013 ujawniła dążenia niektórych
państw do wprowadzenia ograniczeń w poziomie alokacji środków na finansowanie WPR. Taki scenariusz oznaczałby obniżkę całkowitego wsparcia rolnictwa,
ponieważ zabrakłoby dodatkowych środków na zrekompensowanie dalszych redukcji interwencji cenowej. Doprowadziłoby to do utraty zdolności konkurowania biedniejszych państw z tymi, których stać byłoby na finansowanie płatności
z budżetów krajowych. Propozycje te są zatem trudne do zaakceptowania przez
część państw członkowskich, w tym Polskę, nie tylko dlatego, iż są one obecnie
beneficjentem netto przepływów finansowych związanych z realizacją WPR, ale
przede wszystkim z uwagi na niebezpieczeństwo nierównego wsparcia w ramach
jednolitego rynku i tym samym zniekształcenia warunków konkurencji. Sektor
rolny w UE jest ogromnie zróżnicowany, a jednolity rynek preferuje rolnictwo
industrialne, o większej intensywności produkcji, koncentracji i specjalizacji. Taki
typ rolnictwa występuje w większości krajów UE-15, które od 50 lat wspierane ze
środków WPR wykształciły struktury konkurencyjne względem nowych państw
członkowskich. Ograniczenie więc budżetu dla wszystkich krajów Unii z pewnością byłoby dla nich niekorzystne.
17
Wspólna polityka rolna UE po 2013 r. a interesy polskiego rolnictwa
Ry s u n e k 2
%
0,70
70
0,60
60
0,50
50
0,40
40
0,30
30
0,20
20
10
0,10
0
0,00
Udział WPR w PKB UE
%
80
1985
1986
1987
1988
1989
1990
1991
1992
1993
1994
1995
1996
1997
1998
1999
2000
2001
2002
2003
2004
2005
2006
2007
2008
Udział WPR w wydatkach UE
Udział wydatków na WPR w łącznych wydatkach budżetu unijnego oraz w PKB UE
Udział WPR w wydatkach UE
Udział WPR w PKB UE
Źródło: European Commission, DG Agri – Unit L. 1, Bruksela [2010].
Trzeba sobie poza tym zdać sprawę i mocno to podkreślać w uzasadnieniu
kontynuacji obecnego poziomu wsparcia, że udział wydatków na realizację wspólnej polityki rolnej systematycznie spada od połowy lat osiemdziesiątych i stanowi
dziś nieco ponad 40% łącznych wydatków budżetu unijnego7 (ponad 70% w latach 80.!) i zaledwie 0,45% PKB UE (rys. 2). Odbywa się to jednocześnie w warunkach dynamicznego wzrostu kosztów produkcji rolnej (o ponad 40% od
2000 r.), przy obniżeniu się średnich cen rolniczych (o 10% od 2000 r.) [Moreddu 2010].
Tymczasem od rolnictwa wymaga się coraz więcej, nie tylko gwarancji odpowiedniej podaży surowców rolnych, ale także spełnienia wielu funkcji pozaprodukcyjnych. Konsument europejski nie napotyka dzisiaj problemu niedoboru
żywności (jak po II wojnie światowej), ale coraz większą wagę przywiązuje do
możliwości korzystania z walorów krajobrazowych i kulturowych wsi. W rezultacie gospodarstwa rolne poszerzają zakres wykonywanych zadań o dostarczanie usług dla ogółu społeczeństwa, tzw. dóbr publicznych8. Wyrażają się one
poprzez „produkcję” czystego powietrza (w wyniku fotosyntezy i sekwestracji
7 W roku
2009 łączne wydatki na WPR wynosiły 52 mld euro, z czego płatności bezpośrednie stanowiły 76%, interwencja rynkowa – 8%, a wydatki w ramach II filara – 16%. Por.
Moreddu [2010].
8 Według P. Samuelsona dobra publiczne to dobra, w przypadku których nikt nie jest wyłączony z korzyści wynikających z ich użytkowania (brak wyłączenia z konsumpcji), a powiększenie się liczby użytkowników nie eliminuje ani nie pomniejsza możliwości jednoczesnego korzy-
18
Andrzej Czyżewski, Sebastian Stępień
węgla), ochronę wód gruntowych, użytków rolnych, zapewnienie bioróżnorodności i krajobrazu, tworzenie warunków do rekreacji, a także utrzymanie dziedzictwa kulturowego wsi [Baldock 2009]. Swego rodzaju dobrem publicznym
będzie także tworzenie miejsc pracy na obszarach wiejskich. W przypadku polskiego rolnictwa funkcja ta jest szczególnie istotna, z uwagi na strukturę zatrudnienia9. Ponadto wprowadzenie zasad wzajemnej zgodności (cross-compliance) narzuciło obowiązek przestrzegania restrykcyjnych norm w procesie
produkcji żywności, w wyniku czego unijne produkty rolne cechują się wysoką
jakością i walorami smakowymi, a co najważniejsze, są bezpieczne dla konsumenta. O ile jednak za dostarczone produkty rolnik wynagradzany jest poprzez mechanizm rynkowy, o tyle w przypadku dóbr publicznych taka zapłata
nie występuje10. Wobec powyższego wydatki w ramach WPR muszą stanowić
swego rodzaju rekompensatę za świadczenie usług nieopłaconych przez rynek.
Na problem wydatków na WPR należy spojrzeć jeszcze z innej perspektywy.
Otóż trzeba sobie zdać sprawę, iż efektywność ekonomiczna nie może być jedynym kryterium oceny polityki rolnej UE ze względu na osobliwości czynnika ziemi. Należy wziąć pod uwagę, że ze względu na wydłużony okres zwrotu kapitału
zainwestowanego w produkcję rolniczą, w warunkach przymusu konsumpcji, produkcja surowców rolnych nigdy nie będzie konkurencyjna wobec pozarolniczych
alokacji nakładów inwestycyjnych. Mówiąc inaczej, istnieje konieczność wytwarzania produktów żywnościowych, jednak odbywa się to przy ograniczonej konkurencyjności względem innych zastosowań kapitału. Mechanizm rynkowy, który
nie pozwala na wytworzenie i alokację nadwyżki ekonomicznej w sektorze rolnym, deprecjonuje jego pozycję w stosunku do bliższego i dalszego otoczenia.
Krytyka polityki wsparcia unijnego rolnictwa, tak częsta w przekazach medialnych, wynika zatem z braku znajomości prawidłowości dotyczących właściwości
(rent) czynnika ziemi. Reasumując, z punktu widzenia interesów rolnictwa UE,
a tym bardziej polskiego, należy pozostawić wspólnotowy charakter WPR i dotychczasowy (przynajmniej) poziom jej finansowania.
O konieczności dążenia do utrzymania na dotychczasowym poziomie wspólnotowego wsparcia unijnego dla rolnictwa niech świadczą korzyści, jakie do tej
pory udało się uzyskać dla polskiego rolnictwa po akcesji do UE. Otóż Polska,
stania z danego dobra przez innych użytkowników (nie są konkurencyjne w konsumpcji). Por.
Samuelson [1954, s. 387–389].
9 Na obszarach wiejskich w 2008 r., według metody BAEL, pracowało 6,1 mln osób (38,2%
ogółu pracujących w Polsce). W samym rolnictwie liczba ta wynosiła 2,1 mln osób, co stanowi
13,1% ogółu pracujących w kraju. Por. Rocznik Statystyczny Rolnictwa 2009 [2010].
10 Otwarte pozostaje pytanie, czy koszty poniesione w związku z przestrzeganiem zasad wzajemnej zgodności mogą być rekompensowane odpowiednio wyższą ceną produktów rolnych
sprzedawanych przez rolnika. Wydaje się, że w wyniku liberalizacji handlu światowego i zmniejszenia barier celnych dla utrzymania konkurencyjności międzynarodowej konieczne jest stopniowe wyrównywanie cen do poziomu światowego. Dlatego w celu utrzymanie parytetu dochodów rolniczych niezbędne jest wsparcie gospodarstw rolnych. Taką funkcję pełnić mają przede
wszystkim dopłaty bezpośrednie.
Wspólna polityka rolna UE po 2013 r. a interesy polskiego rolnictwa
19
razem ze swoim rolnictwem i wsią, stała się beneficjentem netto budżetu unijnego (relacja wpływów w ramach WPR do składki Polski do budżetu UE wynosiła ponad 1,5). Do najważniejszych korzyści z integracji dla polskiego rolnictwa należy zaliczyć [Czyżewski 2010, s. 164–166; Wilkin 2010, s. 175–176]:
11 Włączenie polskich instytucji i gospodarstw rolnych w system WPR i innych
polityk wspólnotowych, co przyczyniło się do zwiększenia poziomu wsparcia
rolnictwa11. Wydatki budżetowe na sektor rolny po integracji Polski z UE
wzrastały głównie dzięki współfinansowaniu programów unijnych oraz finansowaniu płatności obszarowych. Poziom tych wydatków systematycznie się
zwiększał w latach 2004–2008. W stosunku do okresu przedakcesyjnego znacznie wzrósł też udział wydatków na sektor rolny w łącznych wydatkach budżetowych. Relacja ta w 2009 r., tj. po pięciu latach członkostwa była 2,7 razy
wyższa niż w 2004 r.
11 Wzrost realnej wartości produkcji rolniczej i zwarcie nożyc cenowych na korzyść rolnictwa12, co skutkowało wydatnym zwiększeniem poziomu dochodów
w polskim rolnictwie i obniżeniem dysparytetu pomiędzy dochodami rolniczymi a średnim wynagrodzeniem w gospodarce narodowej (tab. 1). Przez pierwsze pięć lat członkostwa dochody realne producentów rolnych wzrosły o ponad 110%, głównie za sprawą dopłat bezpośrednich, z których skorzystało
ponad 80% rolników.
11 Ożywienie inwestycji w rolnictwie i modernizacja wyposażenia, co prowadzi
do poprawy standardów produkcji i jakości produktów żywnościowych.
11 Uzyskanie dodatniego salda obrotów produktami rolno-żywnościowymi dzięki uzyskaniu pełnego dostępu do Jednolitego Rynku Europejskiego oraz stosowaniu tych samych instrumentów wspierania eksportu, które stosowały
kraje UE-15.
Wśród innych pozytywnych efektów integracji należy wymienić znaczny postęp w sferze edukacyjnej rolników, poprawę nastrojów mieszkańców wsi, a także
zmianę nastawienia do tego sektora. Pośrednio rolnicy i mieszkańcy wsi wykorzystali efekt ożywienia gospodarczego, które rozpoczęło się w Polsce po 2004 r.
i objawiło się m.in. zwiększeniem popytu wewnętrznego mieszkańców na żywność. Daje się zauważyć mnożnikowe efekty programów unijnych chociażby przy
realizacji PROW.
11 Łączne wsparcie sektora rolnego po akcesji do UE (do 31 stycznia 2010 r.) kształtowało
się na poziomie ponad 75 mld zł, z czego 46,9 mld zł (62,3%) stanowiły dopłaty bezpośrednie,
środki z PROW na lata 2004–2006 wyniosły 10,9 mld zł (14,5%), środki z PROW na lata
2007–2013 to 12,0 mld zł (16,0%), a pieniądze w ramach SPO 2004–2006 stanowiły 5,4 mld zł
(7,2%). Por. dane MRiRW [www.minrol.gov.pl].
12 W latach 2004–2009 wartość realnej produkcji rolniczej wzrosła w porównaniu z okresem
1999–2003 o ponad 17% przy wzroście zużycia pośredniego o 13,5%. Z kolei indeks nożyc cen
(relacja cen otrzymywanych przez rolników do cen produktów nabywanych) wyniósł w latach
2004–2008 98,5, wobec wartości 88,6 w okresie 2000–2003. Por. Poczta [2010], Seremak-Bulge,
Rembeza [2009].
20
Andrzej Czyżewski, Sebastian Stępień
Ta b e l a 1
Znaczenie dopłat bezpośrednich z budżetu UE w dochodach rolniczych w Polsce
w latach 2003–2008
Wyszczególnienie
Dochód na osobę
pełnozatrudnioną
w rolnictwie (zł)
Dopłaty na osobę
pełnozatrudnioną (zł)
Relacja dochodu rolniczego
do średniego wynagrodzenia
w gospodarce (%)
Udział dopłat w dochodzie
rolniczym (%)
2003
2004
2005
2006
2007
2008
4 259
10 290
8 252
9 984
12 690
10 609
402
4 009
3 882
5 198
5 352
4 772
24,2
56,2
43,3
50,3
58,8
45,5
9,4
39,0
47,0
52,1
42,2
45,0
Źródło: Opracowanie własne na podstawie prezentacji Goraj [2009b].
Wyżej wymienione argumenty stanowią dostateczny dowód na to, że rolnictwo polskie w ogromnym stopniu korzysta ze środków WPR i dalszy rozwój tego
sektora wymaga utrzymania unijnego finansowania. Dlatego z zadowoleniem należy przyjąć stanowisko unijnego komisarza ds. rolnictwa Daciana Cioloşa, który
deklaruje chęć utrzymania wysokiego udziału WPR w unijnym budżecie. Uzasadnia to koniecznością zapewnienia bezpieczeństwa żywnościowego w całej Europie13, a nie jedynie zagwarantowania rolnikom stabilnych dochodów. Utrzymanie
wsparcia WPR na dotychczasowym poziomie umożliwi przeprowadzenie niezbędnych reform, m.in. w zakresie systemu dopłat bezpośrednich [Hearing with
Mr Dacian Cioloş… 2010].
Z punktu widzenia interesów polskiego rolnictwa niezwykle istotna jest ewolucja systemu dopłat bezpośrednich w kierunku wyrównania poziomu wsparcia
we wszystkich krajach UE i odejście od historycznych progów14, co spowoduje
przesunięcie środków od „starych” do „nowych” państw unijnych. Zrównanie
stawek płatności bezpośrednich uzasadnia się faktem, iż stosowanie różnych sys13 Rolnictwo
UE powinno również uczestniczyć w rozwiązywaniu kwestii globalnego bezpieczeństwa żywnościowego, dysponuje bowiem większym potencjałem produkcyjnym i potrafi
zapewnić wzrost podaży żywności przy zachowaniu standardów dotyczących ochrony środowiska, co jest szczególnie istotne w aspekcie zmian klimatycznych.
14 Przy obliczaniu poziomu wsparcia brano pod uwagę średnie plony z ha upraw i powierzchnię bazową dla danego kraju (regionu). Rzecz w tym, że w okresie, dla którego obliczano plony
dla Polski (1994/95–1998/99), plony były relatywnie niskie – 3 tony/ha, przy średniej dla UE-15
prawie 5 ton/ha. Stąd różnice w poziomie wsparcia między „starymi” krajami UE a „nowymi”.
Trzeba jednak pamiętać, że rolnictwo unijne było wspierane od lat 60., dzięki czemu kraje
UE-15 osiągnęły wyższy poziom intensyfikacji produkcji. Kraje UE-12 takiego wsparcia nie
otrzymały, stąd stosowanie tej samej metody do obliczania stawki dopłat wydaje się nieuzasadnione.
Wspólna polityka rolna UE po 2013 r. a interesy polskiego rolnictwa
21
temów ustalania wysokości dopłat – jak to ma miejsce obecnie15 – powoduje
powstanie dużych dysproporcji w wysokości stawek i zakłóca warunki konkurencji pomiędzy państwami (rys. 3). Poza tym możliwości wzrostu wartości dodanej
poprzez zwiększenie płatności dla nowych państw członkowskich są dużo wyższe
niż w przypadku krajów UE-15, gdzie takie możliwości były mocno ograniczone,
a ponadto mamy tam często do czynienia z podtrzymywaniem dochodu bez motywacji do poprawy efektywności gospodarowania [Czyżewski, Stępień 2010,
s. 58]. Do tej pory, w toku dyskusji nad przyszłym kształtem systemu dopłat bezpośrednich, wypracowano następujące koncepcje [Chmielewska-Gill i in. 2010,
s. 11]:
11 Koncepcja kontraktowego systemu płatności (L.P. Mahe, J.Ch. Bureau) – zakłada wprowadzenie trójpoziomowego, opartego na kontraktach systemu
płatności zastępującego I i II filar. Pierwszy poziom to podstawowa płatność
na gospodarstwo, drugi obejmuje kompensację naturalnych utrudnień produkcji (dzisiejsze ONW), a trzeci to środki dla tzw. zielonych stref o wysokiej
wartości przyrodniczej. Prawa do płatności są uzależnione od spełnienia przez
gospodarstwo rolne odpowiednich funkcji w postaci dóbr publicznych.
11 Koncepcja bezpieczeństwa żywnościowego i środowiskowego [Buckwell 2009]
– oznacza powrót do jednofilarowej WPR, na kształt dzisiejszego II filara.
Płatności bezpośrednie mają mieć formę przejściową i stopniowo być ograniczane (poza produkcją zagrożoną wygaśnięciem). W zamian za to pieniądze
byłyby kierowane do rolników gwarantujących dobra publiczne, na tworzenie
instrumentów zarządzania ryzykiem czy też wsparcie obszarów cennych przyrodniczo.
11 Koncepcja filara dobra publiczne [Zahrnt 2009] – dotyczy zastąpienia obecnych filarów WPR dwoma nowymi, odmiennymi koncepcyjnie. Pierwszy filar
to tzw. filar dóbr publicznych (środki za dostarczanie tych dóbr), drugi filar
– uznaniowy – wspierałby dochody rolników i procesy modernizacyjne gospodarstw (dzisiejsze płatności bezpośrednie i instrumenty II filara). Uznaniowy
charakter systemu polegałby na dowolności podziału środków przez kraje
członkowskie ze względu na różne rodzaje wsparcia. Jednocześnie II filar
miałby charakter przejściowy.
11 Koncepcja bardziej sprawiedliwej, ekologicznej i zrównoważonej WPR [Lyon
2010] – według tej koncepcji WPR pozostałaby polityką w pełni wspólnotową
w jej dotychczasowym rozmiarze. W I filarze powinna istnieć podstawowa,
bezpośrednia płatność obszarowa dla wszystkich rolników w UE, w celu zapewnienia bezpieczeństwa żywnościowego konsumentom europejskim i wysokiej jakości żywności. Powinna być ona obliczana według areału i oparta na
obiektywnych kryteriach, takich jak współczynnik siły nabywczej (okres przejściowy dla tego systemu to 10 lat). Płatność obszarowa miałaby być uzupeł15 Warto przypomnieć, że model regionalny stosuje Malta i Słowenia, model mieszany (hybrydowy) występuje m.in. w Niemczech, Danii, Wielkiej Brytanii, model historyczny stosują m.in.
Francja, Hiszpania, Włochy, a w nowych państwach członkowskich (m.in. w Polsce, Czechach,
Węgrzech) działa system płatności obszarowej.
22
Andrzej Czyżewski, Sebastian Stępień
niona o składnik związany z ochroną środowiska (tzw. greening component)
i dodatkowe wsparcie dla obszarów specyficznych [The CAP towards 2020…
2010]. Z kolei w ramach II filara byłyby finansowane działania zapobiegające
wyludnianiu się wsi, związane z modernizacją rolnictwa, działaniami ekologiczno-środowiskowymi oraz zapewniające rolnikom wynagrodzenie za dostarczanie dóbr publicznych.
Ry s u n e k 3
Średnia wielkość dopłat bezpośrednich w krajach UE w 2008 r.
Dopłaty bezpośrednie
(euro/ha UR)
700
600
500
400
300
200
0
Rumunia
Łotwa
Estonia
Bułgaria
Litwa
UE-12
Słowacja
Polska
Czechy
Słowenia
Węgry
Cypt
Malta
Portugalia
Hiszpania
Wielka Brytania
UE-27
Austria
Szwecja
Finlandia
Luksemburg
UE-15
Francja
Włochy
Irlandia
Niemcy
Dania
Belgia
Holandia
Grecja
100
Źródło: European Commission, DG Agri – Unit L. 1, Bruksela 2010.
Właśnie ta ostatnia propozycja znalazła się w przyjętym w lipcu 2010 r. przez
Parlament Europejski projekcie dotyczącym kształtu WPR po 2013 r.16, tzw. Raporcie Lyona, który opowiada się za „sprawiedliwym podziałem płatności w ramach WPR” i stanowi, iż „płatności historyczne są nieuzasadnione, nieuczciwe
i do 2020 r. powinny zniknąć” [Lyon 2010]. Koncepcja G. Lyona wprowadzająca
we wszystkich państwach ten sam system, który wylicza wielkość dopłat na podstawie obszarów użytków rolnych i rozszerza zakres decoupligu17, jest w tym
względzie bardziej niż dotychczas korzystna dla Polski, ponieważ zwiększa jej
16 Jest to dokument deklaracyjny, niczego nie przesądzający, ale mający duże znaczenie
polityczne i ukierunkowujący dalszą debatę nad przyszłością WPR. Będzie on brany pod uwagę
przy opracowywaniu ostatecznych rozwiązań w pracach Komisji Europejskiej. Komisja
Europejska ma przedstawić propozycję dotyczącą nowej WPR po 2013 r. w lipcu 2011 r. i wówczas Parlament Europejski będzie miał współdecydujący z rządami głos w tej sprawie.
17 Decoupling, tj. oddzielenie płatności bezpośrednich od poziomu i struktury produkcji
rolnej, został wprowadzony w trakcie reformy WPR z 2003 r., ale w wielu krajach nadal występuje możliwość częściowego uzależniania wsparcia od poziomu i struktury produkcji. Propozycja
dalszego rozszerzenia decouplingu jest krokiem w dobrym kierunku. System, w którym o otrzymaniu dotacji decyduje wielkość plonów, ukierunkowuje rolnika na działalność najbardziej
wspieraną finansowo, co w przeszłości prowadziło do powstania nadwyżek w tych dziedzinach
Wspólna polityka rolna UE po 2013 r. a interesy polskiego rolnictwa
23
udział w rozdysponowaniu środków z I filara. Jednocześnie taki model jest prosty i tani w obsłudze, chociaż zarzuca mu się, że zbytnio uzależnia wsparcie od
powierzchni posiadanej ziemi, co rodzi pokusę zakupu gruntu w celach spekulacyjnych, a poza tym ogranicza obrót ziemią rolniczą, utrudniając przemiany
agrarne.
Pozytywnie można także ocenić utrzymanie systemu dwufilarowego, a w ramach
I filara pozostawienie krajom członkowskim prawa do pewnej elastyczności w rozdysponowaniu środków oraz możliwości wsparcia produkcji we wrażliwych sektorach albo na trudnych terenach górskich [Skulimowska 2010, s. 16–18]. Negatywnie
natomiast należy odnieść się do tych części cytowanego raportu, które mówią o dochodzeniu do jednolitej płatności obszarowej we wszystkich państwach UE aż do
2020 r. Według autora tej propozycji taki czas (tzw. phasing-in) jest niezbędny na
dostosowanie się tych krajów, które obecnie stosują płatności oparte na kryterium
historycznym. Z punktu widzenia interesów polskiego rolnictwa trzeba negocjować
skrócenie tego okresu, aby dopłaty bezpośrednie były wyrównywane, jeśli nie od
2014 r., to np. 2–3 lata później. Kwestią sporną jest ponadto zastosowanie kryterium siły nabywczej przy wyliczaniu stawki płatności obszarowej, co oznaczałoby
mniejszą kwotę dla takich państw jak Polska. Tymczasem koszty produkcji rolnej
(nawozów, pasz, usług itp.) są w Polsce coraz bardziej zbliżone do poziomu krajów
UE-15. Oczekuje się zatem rzeczywistego wyrównania wsparcia. Jednocześnie nie
można przy uzasadnieniu zróżnicowania stawek dopłat brać pod uwagę niższych
kosztów pracy w polskim rolnictwie. Wynika to bowiem z dużo wyższego zatrudnienia i, tym samym, niższej wydajności pracy, co skutkuje niższymi dochodami na
jednostkę siły roboczej. Wykorzystanie niższych dochodów (w rozumieniu kosztów
pracy) dla różnicowania wsparcia jest działaniem wbrew idei spójności [Poczta
2010, s. 50].
Dlatego dla krajów takich jak Polska najkorzystniejszym rozwiązaniem byłoby
wprowadzenie jednolitych zasad naliczania dopłat we wszystkich państwach UE
(poprzez system SAPS). Ten model płatności, nazwany flat rate, w największym
stopniu eliminuje zróżnicowanie stawek wynikające z historycznych wielkości plonów referencyjnych, a przy tym jest najprostszy i najtańszy w obsłudze. Ma również
swoje uzasadnienie, jeśli uznamy, że rolnictwo jako dostawca dóbr publicznych
czyni to głównie przez użytkowanie ziemi, czyli właśnie obszar użytków rolnych
w poszczególnych krajach powinien być kryterium alokacji kopert płatności bezpośrednich [Poczta 2010, s. 46]. Z szacunków wynika, iż przy jego zastosowaniu udział
Polski w rozdysponowaniu środków z I filara WPR zwiększyłby się z niecałych 7%
do około 9%. Uwzględniając także dotychczasowy podział środków na obszary
wiejskie, Polska mogłaby liczyć na ponad 10 mld euro rocznie z budżetu unijnego,
co stanowi ponad 10% łącznych wydatków na rolnictwo UE (tab. 2). Jednakże ze
względu na znaczne obniżenie wsparcia w krajach, które są największymi płatnikami netto, rozwiązanie to budzi ich zdecydowany sprzeciw.
produkcji. Decoupling zmniejszy presję na podnoszenie produkcji i pozwoli rolnikom kierować
się sygnałami płynącymi z rynku.
24
Andrzej Czyżewski, Sebastian Stępień
Ta b e l a 2
Poziom wsparcia Polski i wybranych krajów UE w ramach WPR
Poziom
dopłat
w 2013 r.
(mln euro)
Poziom
dopłat
wg systemu
flat rate
dla wielkości
z 2013 r.
(mln euro)
Francja
8 521
7 263
15,93
8 183
14,0
Grecja
2 217
1 077
2,36
1 607
2,7
Hiszpania
5 139
6 591
14,46
7 622
13,0
Holandia
898
506
1,11
576
1,0
Niemcy
5 853
4 470
9,81
5 632
9,6
Polska
3 045
4 084
8,96
5 974
10,2
Portugalia
606
920
2,02
1 481
2,5
Czechy
909
931
2,04
1 333
2,3
Rumunia
1 620
3 627
7,96
4 773
8,1
Wielka Brytania
3 988
4 266
9,36
4 923
8,4
Włochy
4 370
3 366
7,39
4 551
7,8
Kraje
Całkowity
Udział kraju
udział
I filar flat rate
w I filarze
wsparcia
+ II filar
wg systemu
w wydatkach
łącznie
flat rate
WPR
(mln euro)
(%)
(%)
Źródło: Poczta [2010, s. 47–49].
W stanowisku francusko-niemieckim w sprawie WPR po 2013 r. z września
2010 r. [Franco-German Position… 2010] znajdujemy zapis, iż „system flat rate nie
jest sprawiedliwy i nie odzwierciedla sytuacji ekonomicznej w krajach UE. Stawka
płatności powinna brać pod uwagę poziom rozwoju gospodarczego i udział danego
państwa w budżecie unijnym”18. Być może pod naciskiem tych krajów w ostatniej
propozycji reformy WPR komisarza Daciana Cioloşa, popieranej przez Komisję
Europejską19, czytamy, iż nie ma logicznego uzasadnienia ani z punktu widzenia
18 Pozytywna zależność pomiędzy regionalnym poziomem płatności na hektar a poziomem
lokalnego PKB per capita wymaga ostrożnej interpretacji. Argumentacja, jaką można tu przytoczyć, przedstawia się następująco. Relatywnie wyższy poziom PKB per capita można traktować jako miarę relatywnej zamożności danego regionu. W takim regionie producenci rolni będą
musieli otrzymywać stosunkowo wysokie zwroty z użytkowanych czynników produkcji (ziemi,
kapitału i pracy), gdyż w przeciwnym razie nie będą oni w stanie konkurować o nie z innymi
sektorami gospodarki. W tym kontekście płatności w ramach WPR widzieć można jako czynnik
pozwalający na utrzymanie zasobów w rolnictwie na poziomie wyższym aniżeli ten, który wskazałby rynek [Esposti 2007, s. 116–134]. Fakt ten powinien być brany pod uwagę zwłaszcza
w kontekście rozważań na temat zachowania walorów przyrodniczych danych terenów czy też
problemu wyludniania się obszarów wiejskich.
19 Projekt reformy WPR Komisja Europejska przyjęła 17 listopada 2010 r.
Wspólna polityka rolna UE po 2013 r. a interesy polskiego rolnictwa
25
gospodarki, ani ochrony środowiska, aby wszyscy rolnicy dostawali równe dopłaty
bezpośrednie. Podkreśla się, że producenci rolni zmagają się z różnymi gospodarczymi i naturalnymi uwarunkowaniami, co jest argumentem za sprawiedliwą, ale
nie jednakową dystrybucją pomocy [Cioloş 2010]. Oznacza to, że chociaż dysproporcje w wysokości wsparcia mają zostać zmniejszone (np. w Niemczech dopłaty
zostaną obniżone o około 30%), to nadal kraje UE-15, a przynajmniej większość
z nich, będą otrzymywać wyższe płatności niż kraje UE-10.
Interes Polski wymaga zatem, aby wynegocjować możliwie zbliżone kryteria
przyznawania krajom członkowskim funduszy pomocowych i największe przybliżenie do równego poziomu finansowego wsparcia. Nie można bowiem rozpatrywać wysokości dopłat tylko w kontekście kosztów pracy i cen środków produkcji,
ale trzeba także uwzględnić inne czynniki. W krajach „starej” Unii (UE-15) wymienione dwa składniki są na wyższym poziomie, ale zarówno wyższa wydajność
sektora rolnego (osiągnięta dzięki wsparciu unijnemu na długo przed przystąpieniem nowych krajów członkowskich), jak i dostępność do rynków zewnętrznych
bardzo istotnie rekompensują poniesione nakłady. Po uwzględnieniu wyższych
dopłat bezpośrednich, jakie otrzymują tamtejsi rolnicy okazuje się, że dochodowość produkcji rolnej jest istotnie wyższa od uzyskiwanej przez rolników w takich
krajach jak Polska. Trzeba też unaocznić oponentom w UE, jakie uzyskują efekty
z kreacji i przesunięcia wspólnotowego rynku. To nie tylko dodatkowe obroty na
rynku rolnym, ale również w pozostałych sektorach gospodarki, o czym często się
zapomina.
Bez względu na przyjęty system dopłat bezpośrednich płatności pozostaną
głównym instrumentem wsparcia dochodów gospodarstw rolnych, a przy tym
przyczynią się do osiągnięcia celów wykraczających znacząco poza sferę oddziaływania sektora rolnego. W przeciwieństwie bowiem do innych polityk unijnych,
wydawanie tych funduszy nie jest niczym ograniczone. Pieniądze z płatności wydawane są przez gospodarstwa domowe, a w konsekwencji można zakładać, że
ich przeznaczenie w pełni dopasowane jest do lokalnych potrzeb. Ponadto płatności bezpośrednie można traktować jako względnie stały i pewny element budżetu domowego. Ma to znaczenie nie tylko dla ewentualnych inwestycji realizowanych z własnych zasobów gospodarstwa, ale także dla możliwości inwestycyjnych finansowanych ze źródeł zewnętrznych. W tej drugiej sytuacji pozytywny
efekt otrzymywania płatności przejawiałby się poprzez użycie przyszłego strumienia dochodów z płatności jako zabezpieczenia kredytu [Fałkowski, Wołek
2009, s. 9]. Dlatego często podnoszone zarzuty w stosunku do dopłat bezpośrednich, jakoby nie odgrywały one roli modernizacyjnej, są nieuzasadnione. Potwierdzają to badania Czubaka i Pawlak [Czubak, Pawlak 2008], z których wynika, iż 93% otrzymanych przez gospodarstwa rolne płatności obszarowych w latach 2004–2008 miało przeznaczenie produkcyjne. Usprawiedliwieniem dla
dopłat bezpośrednich mogą być ponadto efekty mnożnikowe, jakie kreują płatności. Rolnicy należą bowiem na ogół do grupy społecznej o dużej krańcowej
skłonności do konsumpcji, przez co ich dochody, zamienione w wydatki, wpływają w znacznym stopniu na poziom PKB.
26
Andrzej Czyżewski, Sebastian Stępień
Na kształt płatności bezpośrednich trzeba spojrzeć również z perspektywy
osiągania celów środowiskowych. Reforma z 2003 r. i kolejne ustalenia Health
check, dotyczące mechanizmu decouplingu, doprowadziły do spadku areału zbóż
i roślin oleistych oraz intensywności produkcji zwierzęcej i zwiększenia obszaru
łąk i pastwisk [Moreddu 2010, s. 6]. W rezultacie zmniejszyło się zużycie nawozów i środków ochrony roślin, co przyczyniło się do poprawy warunków glebowych. Po roku 2013 zakres decouplingu ma zostać rozszerzony, można zatem
oczekiwać dalszej ekstensyfikacji produkcji rolnej, co będzie pozytywnie oddziaływać na środowisko naturalne. W pewnym zakresie prośrodowiskowo działają
również zasady wzajemnej zgodności (cross-compliance), chociaż w tym przypadku powinno rozważyć się propozycje uproszczenie procedur w celu redukcji niepotrzebnych kosztów administracyjnych. Na przykład rząd polski opowiada się za
zniesieniem lub zmniejszeniem obowiązku przeprowadzenia ponownych kontroli gospodarstwa w sytuacji, gdy państwo członkowskie korzysta z zasady odstąpienia od karania rolnika za drobne naruszenia zasad cross-compliance lub gdy kwota ewentualnego potrącenia płatności bezpośrednich za takie naruszenie nie
przekracza 100 euro [Ławniczak 2010, s. 6].
Reforma wspólnej polityki rolnej, poza kwestią dopłat bezpośrednich, będzie
również dotyczyć innych obszarów wsparcia. Z punktu widzenia interesów Polski
korzystnie należy ocenić propozycje dotyczące zwiększenia poziomu finansowania działań związanych z rozwojem obszarów wiejskich dzięki redukcji dopłat za
pomocą mechanizmu obowiązkowej modulacji20. Modulacja, poza tym, że przesuwa część środków do II filara, zmniejsza dysproporcje między poziomem
wsparcia dla największych i mniejszych gospodarstw21. Interes polskiego rolnictwa wymaga, aby środki uzyskane z tego źródła były rozdysponowane według
kryterium kohezji, czyli trafiały do regionów najbiedniejszych. Zgodne jest to
z jedną z trzech zasad funkcjonowania WPR – solidarności finansowej. Dotychczas nie udało się wypracować kompromisu między bogatymi a mniej zamożnymi
krajami UE co do tego sposobu redystrybucji środków. Warto poruszyć tę kwestię w toku prac nad przyszłym kształtem unijnej polityki rolnej.
Za przesunięciem części środków z I do II filara przemawia z kolei fakt, iż
coraz większe znaczenie w tworzeniu dochodów gospodarstw rolnych odgrywają
źródła pozarolnicze, a ich funkcjonowanie jest uzależnione nie od poziomu produkcji rolnej, lecz od warunków ekonomicznych, społecznych i środowiskowych
obszarów wiejskich. Biorąc pod uwagę strukturę zatrudnienia w rolnictwie polskim, finansowanie rozwoju pozarolniczych rodzajów działalności na terenach
wiejskich jest szczególnie istotne. Argumentem na rzecz wsparcia w ramach II fi20 Modulacja
została wprowadzona w 2005 r. Oznacza ona zmniejszenie dopłat bezpośrednich dla gospodarstw, które otrzymują ich najwięcej. Podczas przeglądu średniookresowego
budżetu UE ustalono, iż do 2012 r. redukcja dopłat będzie wynosić 10% dla gospodarstw otrzymujących ponad 5 tys. euro rocznie oraz 14% dla gospodarstw otrzymujących ponad 300 tys.
euro rocznie.
21 W roku 2007 25% największych gospodarstw rolnych przechwyciło 74% płatności bezpośrednich.
Wspólna polityka rolna UE po 2013 r. a interesy polskiego rolnictwa
27
laru jest także to, że fundusze wydawane są na ściśle określony cel, w przeciwieństwie do dopłat bezpośrednich, co ułatwia realizację określonej strategii rozwoju
sektora rolnego i osiąganie nowych celów. W przypadku dopłat bezpośrednich
powstaje problem alokacji wsparcia – pieniądze trafiają do właścicieli ziemi zamiast do jej faktycznych użytkowników – rolników. Problem ten jest szczególnie
widoczny w krajach o dużym udziale ziem dzierżawionych. Może warto wobec
tego zastanowić się nad zmianą przepisów, tak aby płatności trafiały faktycznie
do producentów rolnych.
Redystrybucja środków w kierunku wsparcia obszarów wiejskich jest rozwiązaniem bardziej akceptowanym przez podatników finansujących WPR, a krytykujących obecny kształt polityki rolnej. W ich odczuciu rolnictwo powinno pełnić funkcje gwarantujące walory krajobrazowe i kulturowe oraz różnorodność
biologiczną [The Common Agriculture… 2010]. Aby otrzymać te „usługi”, należy
rolnikom zapłacić, w przeciwnym razie zrezygnują oni z tej działalności i zaangażują się w produkcję surowców rolnych, których opłacalność będzie rosnąć
zgodnie z popytem na żywność i cenami na rynku światowym. Odnosząc to do
sytuacji polskich gospodarstw rolnych, można uznać, że „podaż” dóbr publicznych (np. czyste powietrze, krajobraz, bioróżnorodność, jakość żywności) jest
relatywnie wysoka, co wynika z odmiennej struktury agrarnej rolnictwa. Polska
wieś ma w końcu szansę wykorzystać „rentę zacofania”. Problemem do rozwiązania pozostaje natomiast sposób wynagradzania za tego typu usługi. Do tej
pory przedstawiono m.in. następujące koncepcje [Koncepcja dóbr publicznych…
2009, s. 6]:
11 bezpośrednia wycena dostarczanych dóbr publicznych i zapłata za nie (np. za
ha gruntów, gdzie zwalczono erozję, za każde stworzone miejsce pracy, za
ilość związanego w glebie węgla);
11 zapłata za wykorzystanie praw własności do zasobów lub czynników produkcji
w zakresie niezbędnym do dostarczania dóbr publicznych i za utracony dochód w przypadku dostarczania dóbr publicznych związanych ze środowiskiem
naturalnym (np. zaniechanie użycia chemicznych środków produkcji w celach
dochodowych);
11 pokrycie kosztów transakcyjnych lub usunięcie innych barier w realokacji zasobów potrzebnych do dostarczania dóbr publicznych.
Nie są to jednak ostatecznie dopracowane metody kwantyfikacji dóbr publicznych i dyskusja nadal trwa. Polska powinna aktywnie włączyć się w tę debatę, aby
wypracowany system w największym stopniu nagradzał za te dobra publiczne,
które polscy rolnicy są w stanie zagwarantować.
Warto w tym miejscu dodać, że w naszym kraju pojawiają się również opinie
odmienne od formułowanej przez autorów tego artykułu, według których bardziej korzystne dla polskiej wsi byłoby wyłączenie polityki wiejskiej z II filara
i włączenie jej do polityki spójności lub przesunięcie polityki środowiskowej
(II oś PROW) do I filara (np. Poczta [2010, s. 48]). Skąd jednak bierze się przekonanie, że w takiej sytuacji Polska otrzyma więcej? Do tej pory polscy rolnicy
byli największymi beneficjentami II filara, a zakładając, że przyszłe cele będą
28
Andrzej Czyżewski, Sebastian Stępień
kontynuacją obecnej polityki rozwoju obszarów wiejskich, możemy liczyć na relatywnie duże fundusze. W przypadku przesunięcia części środków do I filara
takiej pewności nie ma. Wszakże „stare” państwa członkowskie niechętne są do
równego podziału dopłat bezpośrednich. Pytanie, jakie zostałyby zastosowane
kryteria podziału środków na część środowiskową w ramach płatności bezpośrednich? Jak pisze Poczta [2010, s. 51], „uwzględnienie jednolitych kryteriów środowiskowych na bardzo rozległym obszarze całej Unii jest bardzo trudne, a prawdopodobnie niemożliwe, a to stwarzać będzie pokusę wyznaczania odpowiednich
obszarów w sposób arbitralny w poszczególnych krajach członkowskich”. Można
przez to rozumieć, że silne ekonomicznie i politycznie państwa UE będą miały
istotny wpływ na kształtowanie wsparcia w ramach płatności środowiskowych.
Trzecim obszarem reform WPR po 2013 r. będzie interwencja rynkowa. Począwszy od 1992 r. (tj. reformy MacSharry’ego) Unia próbuje ograniczyć zakres
instrumentów zakłócających mechanizm rynkowy (w tym m.in. cen interwencyjnych, ceł, subwencji eksportowych, kwot produkcyjnych) na rzecz dopuszczalnego wsparcia finansowego mieszczącego się w ramach „zielonej skrzynki”. W rezultacie udział tych pierwszych w łącznych wydatkach WPR spadł z 92% w okresie 1986–1988 do 34% w okresie 2007–2009 (w 2012 r. ma obniżyć się do 27%),
podczas gdy w tym samym czasie udział dopłat bezpośrednich niezwiązanych
z produkcją wzrósł z 0% do 39% (i ma dojść do 46% w 2012 r.) [Moreddu 2010,
s. 6]. Kolejne zmiany będą się wiązać z eliminacją niewykorzystywanych lub uruchamianych sporadycznie instrumentów interwencyjnych. Uzasadnieniem tych
zmian jest fakt, że część narzędzi nie jest adekwatna do uwarunkowań funkcjonowania europejskiego rolnictwa i nie jest skuteczna w rozwiązywaniu współczesnych problemów, które stanowią wyzwania dla unijnych producentów rolnych
[Communication from the Commission… 2007]. Jeszcze w trakcie przeglądu budżetu w latach 2007–2008 ustalono m.in.:
11 stopniowe wycofywanie kwot mlecznych (o jeden procent każdego roku od
2009/2010 do 2013/2014);
11 ograniczenie interwencyjnego skupu pszenicy (do 3 mln ton po cenie 101,31 euro/
/tonę; powyżej tej ilości zakupy będą dokonywane w ramach przetargu);
11 zniesienie interwencyjnego skupu wieprzowiny;
11 wycofanie obowiązkowego odłogowania.
Dalsze reformy mają na celu zwiększenie zdolności producentów rolnych do
reagowania na sygnały rynkowe. Jednocześnie zaoszczędzone pieniądze można
przeznaczyć na realizację nowych wyzwań, związanych np. ze zmianami klimatycznymi lub energią odnawialną. Należy jednak pozostawić pewien zakres interwencji rynkowej na wypadek wystąpienia sytuacji kryzysowych. Trwałe odejście
od prawnych możliwości wspierania i stabilizacji cen rolnych byłoby uzasadnione
w sprzyjających warunkach rynkowych, tj. przy względnej stabilności dochodów
rolniczych i równowadze podażowo-popytowej, a takich warunków trudno oczekiwać. Nowa „siatka bezpieczeństwa” powinna być jednak bardziej zorientowana
rynkowo, chronić producentów przed stratami i być zaadresowana bezpośrednio
do producenta. Rynkowe deregulacje nie zapewnią bowiem bezpieczeństwa żyw-
Wspólna polityka rolna UE po 2013 r. a interesy polskiego rolnictwa
29
nościowego, a mogą spowodować jeszcze większy wzrost importu towarów rolnych do krajów Unii Europejskiej [Czyżewski, Stępień 2009, s. 442]. Zagrożeniem wynikającym z redukcji wsparcia rynkowego może być ponadto wyludnienie
terenów mniej korzystnych dla produkcji rolnej. Potwierdzają to dotychczasowe
obserwacje związane z reformą rynku cukru i mleka. W wyniku reform następuje
koncentracja produkcji w tych sektorach i przesunięcie producentów tam, gdzie
niższe są koszty produkcji. Częściowo problem ten rozwiązują same płatności
obszarowe, niezwiązane z produkcją, chociaż zasadne wydaje się pozostawienie
pewnego zakresu interwencji dla obszarów cennych z punktu widzenia tradycji
lub walorów przyrodniczych (np. wypas owiec na terenach górskich). Dzisiaj taką
rolę odgrywa II filar WPR.
Na koniec warto wspomnieć, iż planowane zmiany unijnej polityki rolnej zmierzają w stronę opracowania nowych metod zarządzania ryzykiem w rolnictwie. Ten
kierunek prac wynika z faktu, że ryzyko w rolnictwie stale rośnie, m.in. na skutek
obserwowanych zmian klimatu22, liberalizacji handlu, rozwoju chorób zwierząt i roślin, a także wprowadzania ograniczeń i limitów w stosowaniu herbicydów i środków
ochrony roślin. Wzrost ryzyka w produkcji rolniczej przenosi się na ryzyko cenowe
i tym samym na niepewność co do efektów działalności. Uznać zatem należy, że
w perspektywie najbliższych kilku lat instrumenty te trzeba będzie uzupełnić o nowe
metody zarządzania ryzykiem, które powinny koncentrować się przede wszystkim
na podejmowaniu działań służących jego zmniejszeniu oraz zapobieganiu wystąpieniu sytuacji kryzysowych. W tym kontekście celowe wydaje się wprowadzenie systemów ubezpieczeń produkcji rolnej, współfinansowanych z budżetu unijnego. Z perspektywy polskiego rolnictwa takie rozwiązanie jest o tyle ważne, że dotychczasowe
zainteresowanie rolników ubezpieczeniami było niewielkie23, co narażało ich na
straty w kolejnych latach. Jednocześnie Polski – jako kraju mniej zamożnego – nie
stać na zaangażowanie własnych środków publicznych w system ubezpieczeń upraw
i zwierząt, a prywatne instytucje nie są na ogół zainteresowane tym obszarem działalności. Dlatego unijne fundusze mogą pokonać barierę braku środków na stworzenie skutecznego systemu ubezpieczeniowego.
Mając powyższe na uwadze, przy dalszych pracach w tym zakresie należy pamiętać, aby spełniony został warunek powszechności obowiązku ubezpieczenia,
co gwarantowałoby odpowiednio niską składkę. W przypadku dobrowolności
22 Problem
zmian klimatu jest szeroko dyskutowany w kontekście rosnących wydatków
publicznych na ten cel. Najbardziej kontrowersyjną kwestią jest wpływ człowieka na zmiany
klimatyczne. Ścierają się tu dwa stanowiska. Pierwsze z nich głosi, iż przyczyną wzrostu temperatur na świecie jest emisja dwutlenku węgla generowana przez człowieka. Stanowisko drugie
podaje, że proces ocieplenia jest zjawiskiem naturalnym, występującym cyklicznie również
w przeszłości. Natomiast dużo mniej wątpliwości budzi fakt, że w ostatnich kilkunastu latach
nasiliły się niekorzystne zjawiska atmosferyczne, takie jak susze, powodzie, huragany itp., które
wywołują negatywne konsekwencje dla produkcji rolnej, stąd uwzględnianie ich przy opracowywaniu nowych celów i kierunków rozwoju WPR wydaje się słuszne.
23 Na podstawie badań A. Sikorskiej dobrowolnym ubezpieczeniem było objętych w 2005 r.
zaledwie 16,6% rolników, w tym 6% gospodarstw ubezpieczyło uprawy, a 4,8% – zwierzęta.
Pozostała część dotyczyła głównie ubezpieczenia maszyn [Sikorska 2008, s. 25].
30
Andrzej Czyżewski, Sebastian Stępień
ubezpieczeń istnieje bowiem ryzyko, że zbyt mało producentów rolnych zdecyduje się partycypować w systemie ubezpieczeń, a środki przeznaczone na ten cel nie
będą w pełni wykorzystane. Należy także ustalić udział rolnika w finansowaniu
składki. Wydaje się, że dla Polski i innych krajów członkowskich z rozdrobnionym rolnictwem wskaźnik ten nie powinien przekraczać 50%. Dodatkowo należałoby go zróżnicować, uwzględniając dysproporcje w poziomie finansowego
wsparcia w przeliczeniu per capita. W krajach, w których rolnicy, z uwagi na uwarunkowania historyczne, otrzymują większe wsparcie, wkład własny powinien być
wyższy, a w krajach nowo przyjętych – niższy. Dopiero w warunkach wyrównywania się poziomu dopłat bezpośrednich w krajach członkowskich udziały producentów rolnych w systemie ubezpieczeń mogłyby zostać ujednolicone.
Podsumowanie
1. Polityka rolna UE, początkowo skupiona na zwiększaniu produktywności
i problemach strukturalnych w sektorze produkcji rolnej, w toku przeprowadzonych reform stała się polityką dotyczącą różnego znaczenia rolnictwa
w społeczeństwie, a w szczególności wyzwań, które należy podjąć nie tylko
w ekonomicznym, ale w szerszym, społecznym i środowiskowym kontekście
obszarów wiejskich. Okazało się, iż efektywność ekonomiczna nie może być
jedynym kryterium oceny wydatków budżetu UE na politykę rolną ze względu
na osobliwości czynnika ziemi oraz rolę, jaką odgrywać mają obszary wiejskie
dla ogółu społeczeństwa. Jednocześnie uzasadnienie kontynuacji WPR nie
wynika tylko z dążenia do utrzymania na parytetowym poziomie dochodów
rolniczych, przy stosunkowo niskim koszcie żywności oferowanej konsumentom, lecz przede wszystkim z potrzeby wytwarzania przez rolnictwo wartości
dodanej oraz zrównoważenia rozwoju, pogłębiania spójności terytorialnej
i utrzymania przestrzeni wiejskiej jako dobra publicznego dla całej społeczności UE [Wspólna polityka rolna... 2010, s. 10].
2. Unia staje także przez dylematem wyżywienia rosnącej liczby ludności (w skali globalnej), przy kurczących się zasobach gleb, wód i energii. Dla osiągania
nowych celów polityki rolnej należy utrzymać dotychczasowy poziom wsparcia, ale w warunkach dbania o przyrodę oraz konieczności zapewnienia bezpieczeństwa żywnościowego i dostarczania dóbr publicznych obywatelom
Unii. Problem bezpieczeństwa żywnościowego musi być rozwiązany na drodze
zrównoważonej intensyfikacji produkcji rolnej, bez pogłębiania degradacji
środowiska naturalnego. Ochrona środowiska musi się stać imperatywem kategorycznym, który osłabi przymus wzrostu podaży i konkurencyjności.
W przeciwnym razie szybki i niezrównoważony wzrost produkcji dzisiaj grozić
będzie spadkiem produkcji w przyszłości [Zegar 2010a]. Na politykę Unii
Europejskiej trzeba patrzeć szeroko, przez pryzmat ekonomii agrarnej, która
uwzględnia korzyści społeczne i środowiskowe produkcji rolnej, a nie tylko
Wspólna polityka rolna UE po 2013 r. a interesy polskiego rolnictwa
3.
4.
5.
6.
31
w sposób bliski myśli neoliberalnej – poprzez ekonomikę rolnictwa. Tylko
w ten sposób można uzasadnić sens kontynuacji interwencji w sektorze rolnym UE.
Przechodząc do racji stanu polskiego rolnictwa dotyczącej przekształceń
wspólnej polityki rolnej i jego miejsca w gospodarce Unii Europejskiej, to po
pierwsze kluczowe jest dążenie do wyrównywania poziomu dopłat bezpośrednich między krajami UE i gospodarstwami rolnymi dla zapewnienia ich konkurencyjności. Po drugie zasadne jest przesunięcie części środków pieniężnych z dopłat bezpośrednich na rozwój obszarów wiejskich i działania związane z produkcją dóbr publicznych, pozwalających pełniej wykorzystać
potencjał polskiej wsi i rolnictwa. Ponadto należy wspierać, o ile to możliwe,
redukcję instrumentów interwencji zakłócających rynek międzynarodowy,
a uzyskane z tego tytułu środki przeznaczyć na działania związane z łagodzeniem negatywnych skutków zachodzących przemian globalnych [Czyżewski,
Czyżewski 2010].
Jeśli chodzi o ocenę propozycji przyszłego kształtu wspólnej polityki rolnej
po 2013 r., przedstawioną w listopadzie 2011 r. przez Komisję Europejską,
z zadowoleniem należy przyjąć pojawiające się głosy za ujednoliceniem (chociaż nie zrównaniem) systemu dopłat, a także fakt, że coraz więcej wskazuje
na to, iż będzie zwiększona redystrybucja środków na cele środowiskowe
związane z ochroną środowiska naturalnego – czy to w ramach II filara
wsparcia, czy też poprzez odpowiedni komponent dopłat bezpośrednich.
Istotna jest sprawa okresu, w którym płatności mają zostać wyrównane.
Z punktu widzenia interesów Polski płatności powinny być wyrównane możliwie szybko, w pierwszych latach nowej perspektywy budżetowej, a nie dopiero w 2020 r., jak chce tego część państw. Ważne, aby kryteria podziału
środków w ramach dopłat bezpośrednich pozwalały na zmniejszanie dystansu w rozwoju polskiego rolnictwa do krajów UE-15. Zastosowanie parytetu
siły nabywczej czy też kosztów produkcji nie będzie korzystne dla Polski.
Należy preferować kryteria zasobowe związane przede wszystkim z obszarem
i strukturą użytków rolnych.
Postuluje się ponadto, aby zapewnić większą pomoc małym gospodarstwom
rolnym i zaproponować ustalenie dla nich minimalnego poziomu dopłat (podobnie jak limitu dopłat dla gospodarstw największych), co jest krokiem
w dobrym kierunku. W wielu przypadkach płatności stanowią dla tej grupy
społecznej znaczący udział w budżecie domowym. Dodatkowo, jak wynika
z badań [Czyżewski, Smędzik 2010, s. 65], gospodarstwa te działają w sposób
relatywnie najbardziej zrównoważony, podtrzymując ład środowiskowy na obszarach wiejskich i niwelując negatywne oddziaływanie większych producentów. Za pełnione funkcje środowiskowe powinny być wynagradzane w postaci dopłat bezpośrednich.
Trzeba też podkreślić konieczność pozostawienia tzw. siatki bezpieczeństwa
w zakresie interwencji rynkowej i stworzenia systemów ubezpieczeń rolniczych
współfinansowanych z budżetu UE. Ważne dla rozwoju polskiego sektora rol-
32
Andrzej Czyżewski, Sebastian Stępień
nego jest także utrzymanie funduszy w ramach II filara, którego polscy rolnicy
byli do tej pory największym beneficjentem. Jeżeli uda się to osiągnąć, to przy
uzyskaniu dodatkowo bardziej równomiernego podziału w ramach dopłat bezpośrednich Polska wzmocni swój udział w dystrybucji środków z WPR. Kwestią
do rozwiązania pozostaje ustalenie zasad wynagradzania rolników za dostarczanie dóbr publicznych. W tym zakresie można oczekiwać, że rolnictwo polskie
uzyska korzyści komparatywne wynikające z „renty zacofania”. Trzeba jednak
monitorować przebieg prac nad opracowywaniem metod szacowania i rachunku dóbr publicznych, aby interesy silnych ekonomicznie i politycznie państw nie
przeważyły nad ekwiwalentnym podziałem środków unijnych.
Tekst wpłynął 24 listopada 2010 r.
Bibliografia
Baldock D., Conceptual Framework on Public Goods Provided Through Agriculture in
the EU. Working Document for the Meeting of the Technical Working Group ‘Public
Goods’, European Network for Rural Development, 12.12.2009, http://www.enrd.
ec.europa.eu
Buckwell A., The Evolving CAP, prezentacja na seminarium naukowym w Ministerstwie
Rolnictwa i Rozwoju Wsi w dniu 19 października 2010 r.
Buckwell A., Workshop “The Future of CAP 2013” Elements of the Post 2013 CAP, European Parliament, Brussels 2009.
Chmielewska-Gill W., Chlebicka A., Poślednik A., Pomianek I., Przyszłość WPR – najważniejsze głosy w dotychczasowej dyskusji, Fundacja Programów Pomocy dla Rolnictwa (FAPA), Warszawa 2010.
Cioloş D., The CAP Towards 2020: Meeting the Food, Natural Resources & Territorial
Challenges of the Future, European Commission, Brussels 2010.
Communication from the Commission to the European Parliament and the Council: Preparing for the “Health Check” of the CAP Reform, Commission of the European Communities, Brussels 2007.
Czubak W., Pawlak K., Rozdysponowanie środków finansowych wynikających z mechanizmów Wspólnej Polityki Rolnej Unii Europejskiej na rozwój modelu rolnictwa industrialnego i zrównoważonego w Polsce, w: Z badań nad rolnictwem społecznie zrównoważonym, IERiGŻ-PIB, Program Wieloletni 2005–2009, zeszyt 102, Warszawa 2008.
Czyżewski A., Co dała integracja europejska polskiej wsi – w opinii ekonomisty, w: Polska
wieś 2010. Raport o stanie wsi, red. J. Wilkin, I. Nurzyńska, Fundacja na rzecz Rozwoju Polskiego Rolnictwa, Warszawa 2010.
Czyżewski A., Czyżewski B., The Myths of the UE Common Agriculture Policy, „Management” 2010, t. 14, nr 1.
Czyżewski A., Kułyk P., Przegląd ważniejszych obszarów Wspólnej Polityki Rolnej UE; rekomendacje dla „Health Check” (maszynopis), Katedra Makroekonomii i Gospodarki
Żywnościowej, Akademia Ekonomiczna w Poznaniu, Poznań 2008.
Czyżewski A., Kułyk P., Relacje między otoczeniem makroekonomicznym a rolnictwem w krajach wysokorozwiniętych i w Polsce w latach 1991–2008, „Ekonomista” 2010, nr 2.
Wspólna polityka rolna UE po 2013 r. a interesy polskiego rolnictwa
33
Czyżewski A., Makroekonomiczne uwarunkowania rozwoju sektora rolnego, w: Uniwersalia polityki rolnej w gospodarce rynkowej. Ujęcie makro- i mikroekonomiczne, red.
A. Czyżewski, Akademia Ekonomiczna, Poznań 2007.
Czyżewski A., Poczta-Wajda A., Stępień S., Oczekiwania Polski w zakresie przyszłego
kształtu Wspólnej Polityki Rolnej Unii Europejskiej, w: Wieś i rolnictwo w procesie zmian
– problemy transformacji rolnictwa europejskiego, red. S. Sokołowska, A. Bisaga, Uniwersytet Opolski, Opole 2010.
Czyżewski A., Potrzeba badań makroekonomicznych w gospodarce żywnościowej, „Rocznik
Nauk Rolniczych” 2009, t. 96, z. 2
Czyżewski A., Smędzik K., Efektywność techniczna i środowiskowa gospodarstw rolnych
w Polsce według ich typów i klas wielkości w latach 2006–2008, „Roczniki Nauk Rolniczych” 2010, Seria G, t. 97, nr 3.
Czyżewski A., Stępień S., Wspólna Polityka Rolna racją stanu Polski, „Biuletyn informacyjny ARR” 2010, nr 9–10.
Czyżewski A., Stępień S., Zmiany mechanizmów Wspólnej Polityki Rolnej UE a oczekiwania Polski, „Ekonomista” 2009, nr 4.
Czyżewski A., The Briefing Note in the Third Part of the Workshop “Market Regulation vs.
Risk Management: How to Cope with the Instability on the Agricultural Markets?”,
wystąpienie na sesji Komisji Budżetu i Rolnictwa Parlamentu Europejskiego (COBU),
Bruksela, 12 czerwca 2008.
Czyżewski B., Mrówczyńska-Kamińska A., Przepływy międzygałęziowe i podział rent w sektorze rolno-żywnościowym w Polsce w latach 1995–2005 (maszynopis), Uniwersytet
Ekonomiczny, Poznań 2010.
Esposti R., Regional Growth and Policies in the European Union: Does the Common
Agricultural Policy Hale a Counter-Treatment Effect?, „American Journal of Agricultural Economics” 2007, nr 89(1).
Fałkowski J., Wołek T., Polityka spójności i płatności bezpośrednie – zarys problemu, Fundacja Programów Pomocy dla Rolnictwa, Sekcja Analiz Ekonomicznych Polityki Rolnej, Warszawa 2009.
Franco German Position for a Strong Common Agricultural Policy Beyond 2013 (14.09.2010),
Bundesministerium für Ernahrung, Landwirtschaft und Verbraucherschutz, Ministere de L’Agriculture et de la Peche, Berlin–Paris 2010.
Goraj L., Uzależnienie od płatności bezpośrednich w państwach członkowskich UE na podstawie wyników FADN, referat na ogólnopolskiej konferencji „Funkcje płatności bezpośrednich we Wspólnej Polityce Rolnej po 2013 r. – przegląd argumentów”, 23 września 2009 r., MRiRW, Warszawa 2009a.
Goraj L., Wpływ Wspólnej Polityki Rolnej na dochody polskich gospodarstw rolnych,
IERiGŻ, Warszawa 2009b.
Hearing with Mr Dacian Cioloş, Commissioner-designate for Agriculture and Rural Development. Notice to Members, European Parliament, Strasburg 2010.
Koncepcja dóbr publicznych w dyskusji o przyszłości wspólnej polityki rolnej – wersja
wstępna, Fundacja Programów Pomocy dla Rolnictwa, Sekcja Analiz Ekonomicznych
Polityki Rolnej, Warszawa 2009.
Lyon G., Draft Report on the Future of the Common Agricultural Policy after 2013
(2009/2236(INI)), Committee on Agriculture and Rural Development, European
Parliament, Strasburg 2010.
Ławniczak A., Projekt stanowiska rządu przygotowany w związku z art. 6 ust. 1 pkt 2 ustawy
z dnia 11 marca 2004 r. o współpracy Rady Ministrów z Sejmem i Senatem w sprawach
34
Andrzej Czyżewski, Sebastian Stępień
związanych z członkostwem Rzeczypospolitej Polskiej w Unii Europejskiej, MRiRW,
Warszawa 2010.
Moreddu C., Evaluation of Agricultural Policy Reforms in the European Union: Draft
Report, Organisation for Economic Co-operation and Development, Trade and Agriculture Directorate Committee for Agriculture, 2010.
Poczta W., Wspólna polityka rolna UE po 2013 roku – uzasadnienie, funkcje, kierunki
rozwoju w kontekście interesu polskiego rolnictwa, „Wieś i Rolnictwo” 2010, nr 3.
Proposal for a Regulation of the European Parliament and the Council amending Council
Regulation (EC) No 73/2009, COM (2010) 539, Brussels 2010.
Samuelson P.A., The Pure Theory of Public Expenditure, „Review of Economics and Statistics” 1954, nr 36(4).
Seremak-Bulge J., Rembeza J., Zmiany cen i marż cenowych na poszczególnych poziomach podstawowych rynków rolnych, Pułtusk 2009.
Sikorska A., Ubezpieczenia w rolnictwie indywidualnym, IERiGŻ, Warszawa 2008.
Skulimowska M., Sesja Parlamentu Europejskiego. Strasburg, 5–8 lipca 2010 r. Sprawozdanie nr 48/2010, Kancelaria Senatu – Przedstawiciel Kancelarii Senatu przy Unii
Europejskiej, Strasburg 2010.
Stankiewicz D., Grzelak A., Opinia merytoryczna i informacja prawna w sprawie wniosku
dotyczącego projektu rozporządzenia Parlamentu Europejskiego i Rady zmieniającego
rozporządzenie Rady (WE) nr 73/2009, Biuro Analiz Sejmowych, Warszawa 2010.
The CAP Towards 2020: Meeting the Food, Natural Resource and Territorial Challenges of
the Future, Communication from the Commission to the Council, the European Parliament, the European Economic and Social Committee and the Committee of the
Regions, European Commission, Brussels 2010.
The Common Agriculture Policy after 2013 – Public Debate, European Commission, Brussels 2010.
Wilkin J., Skutki transformacji postsocjalistycznej i członkostwa Polski w Unii Europejskiej
dla wsi i rolnictwa – próba podsumowania, w: Polska wieś 2010. Raport o stanie wsi,
red. J. Wilkin, I. Nurzyńska, Fundacja na rzecz Rozwoju Polskiego Rolnictwa, Warszawa 2010.
Wspólna polityka rolna po 2013 roku – propozycje zmian, Forum Inicjatyw Rozwojowych,
„Wieś i Rolnictwo” 2010, nr 2.
Zahrnt V., Public Money for Public Goods: Winners and Losers from CAP Reform, European Centre for International Political Economy, „ECIPE Working Paper” 2009,
nr 8.
Zegar J.S., Ekonomia wobec kwestii agrarnej, „Ekonomista” 2010a, nr 6.
Zegar J.S., Wspólna Polityka Rolna po 2013 roku, „Wieś i Rolnictwo” 2010b, nr 3.
Common Agricultural Policy of the EU After 2013
and the Interests of the Polish Agriculture
Summary
The paper presents some proposals as to the changes of the Common Agricultural
Policy of the European Union (CAP) in the context of the development needs of
Poland’s agriculture. The ultimate decisions of the European Commission on the subject
Wspólna polityka rolna UE po 2013 r. a interesy polskiego rolnictwa
35
are to be taken in July 2011, just at the beginning of the Polish presidency in the EU. It
is important that new regulations are conducive to the development of agriculture in
Poland and in all the Europe.
In the authors’ view, of crucial importance is to maintain the common character of
the CAP in spite of the attempts to re-nationalise agricultural policies. If the CAP is
discontinued and the related subsidies for agriculture are stopped for the sake of the
liberal rules of the economy, it would imply a drainage of the value added from
agriculture to other sectors of the economy. This would cause adverse external effects,
weakening the competitiveness of the European agriculture, especially in the new EU
member countries. The future CAP should correct market failure, protect the
environment, and secure the interests of local communities.
The intended reforms of the CAP will be implemented under the pressure of a rising
competition in world markets, an increasing concern about the environment, and the
demand of some states for the reduction of the EU budget. There is therefore a need
for a complex re-assessment of the mechanism of the financial support for the agricultural
sector in respect of its economic efficiency, social adequacy, and ecological standards.
The authors point to the success of the CAP in promoting structural changes in the
European agriculture and its adjustment to the requirements of a balanced growth.
Referring to the proposed changes in the CAP, the authors specifically analyze such
questions as the intended changes in direct subsidies, allocation of the financial support,
and new demands for public goods supplied by the agricultural sector. The authors also
present their own remarks and proposals as regards the future shape of the CAP. In
particular, they propose to equalize the rules of the financial support for agriculture in
all the EU countries (will special consideration of the needs of new member countries),
to establish the minimum amounts of subsidies for small farms, and to maintain current
funds earmarked for the development of rural areas, supplemented by adequate
payments for the supply of public goods.
Key words: Common Agricultural Policy 1 reform 1 direct payments 1 rural areas
development 1 Poland’s agriculture
Общая аграрная политика ЕС после 2013 г.
и интересы польского сельского хозяйства
Резюме
В статье оговариваются предложения изменений в совместной аграрной политике ЕС
(ОАП) в контексте развития польского сельского хозяйства. Окончательные решения по
этому вопросу должны быть приняты в июле 2011 г. и совпадут с началом председательства Польши в ЕС. Речь идёт о том, чтобы эти решения как можно более широко служили
интересам европейского сельского хозяйства, а также польского аграрного сектора.
По мнении авторов, ключевым вопросом является сохранение общего характера ОАП
и отклонение попыток её ренационализации, так как отказ от совместной аграрной политики
и связанных с ней субсидий во имя либеральных принципов хозяйствования, означал бы
дренаж добавленной стоимости из сельского хозяйства в другие секторы экономики и вызвал
бы отрицательные внешние эффекты, приводя к ослаблению конкурентоспособности европейского сельского хозяйства, особенно в новых странах членах ЕС, усиливающегося под
влиянием процессов глобализации. Будущая ОАП должна корректировать ненадёжность
рынка, учитывая интересы локальных общественных групп и окружающей среды.
36
Andrzej Czyżewski, Sebastian Stępień
Планируемые реформы аграрной политики ЕС будут происходить в условиях приспособления к растущей конкуренции на мировом рынке, вызовов связанных с изменениями в окружающей среде и стремления некоторых государств к ограничению бюджета
ЕС. Поэтому необходима комплексная оценка ныне существующих механизмов финансовой поддержки аграрного сектора в аспекте экономической эффективности, социальной
адекватности и экологических критериев. Авторы подчеркивают достижения проводимой
ОАП в области структурных преобразований и адаптации сельского хозяйства и сельской
местности к условиям уравновешенного развития. Обращаясь к предлагаемых некоторыми
государствами и политическими группировками изменениям в аграрной политике ЕС,
авторы рассматривают такие вопросы как изменение системы прямых доплат, аллокация
средств в рамках второй оси, реориентация рыночной поддержки, а также реализация
новых задач, связанных с генерированием публичных благ. Они представляют также свои
выводы и постулаты по отношению к будущей аграрной политике ЕС. В частности,
авторы предлагают отказаться от применения исторических порогов при определении прямых платежей и выравнивать уровень финансовой поддержки сельского хозяйства всех
государств членов (с учётом особых нужд новых государств членов), установить минимальный порог доплат для малых хозяйств, а также сохранить фонды развития сельской
местности, дополненные платежами за предоставление публичных благ.
Ключевые слова: общая аграрная политики 1 реформа 1 прямые платежи 1 развитие
сельской местности 1 интересы польского сельского хозяйства
Eugeniusz Kwiatkowski*
Kryzys globalny a rynek pracy w Polsce
i innych krajach Grupy Wyszehradzkiej
Wstęp
Końcowe lata pierwszej dekady XXI w. zaznaczyły się wystąpieniem światowego
kryzysu finansowego i gospodarczego. Zapoczątkowany załamaniem na rynku
nieruchomości w Stanach Zjednoczonych w latach 2006–2007 kryzys dotknął także inne segmenty sektora finansowego gospodarki amerykańskiej, a następnie
przeniósł się dosyć szybko do sektora realnego, powodując spadki absolutnego
PKB w USA już w 2008 r. (o 0,2% w I kw. 2008 r. w porównaniu z kwartałem poprzednim, a także o 0,7% w III kw. i o 1,4% w IV kw.) [strona internetowa
OECD]. Tendencjom tym towarzyszył dosyć szybki wzrost stopy bezrobocia
(z 4,4% w ostatnim kw. 2006 r. do 4,8%, 7,0% i 10,0% w ostatnich kwartałach lat
2007–2009) [strona internetowa Eurostatu]. Negatywne impulsy koniunkturalne
przeniosły się z gospodarki USA do innych krajów, w tym również krajów Unii
Europejskiej (głównie za pośrednictwem handlu zagranicznego i przepływów kapitałów).
Przedmiotem artykułu jest analiza tendencji występujących na rynku pracy
w Polsce i pozostałych krajach Grupy Wyszehradzkiej w okresie globalnego kryzysu lat 2007–2009. W szczególności uwaga jest skierowana na zmiany wskaźników zatrudnienia i stóp bezrobocia. Dla celów porównawczych wskaźniki rynku
pracy są konfrontowane z przeciętnymi wskaźnikami dla całej Unii Europejskiej
(UE-27) i strefy euro (UE-16).
Celem analizy jest określenie skali zmian stóp bezrobocia oraz poziomów
i wskaźników zatrudnienia w reakcji na globalny kryzys w badanych krajach
oraz próba objaśnienia zróżnicowanej reakcji rynku pracy w tych krajach.
W podjętej próbie objaśnienia uwzględniono reakcję rozmiarów produkcji oraz
* Prof.
zw. dr hab. Eugeniusz Kwiatkowski – Katedra Makroekonomii, Uniwersytet Łódzki,
e-mail: [email protected]
38
Eugeniusz Kwiatkowski
elastyczność rynku pracy, w szczególności w odniesieniu do płac, zatrudnienia
i czasu pracy.
Artykuł rozpoczyna się od przedstawienia kwartalnych wskaźników stóp
bezrobocia i stóp zatrudnienia w analizowanych krajach w latach 2007–2009
(część 2). W części 3 podjęte są rozważania teoretyczne na temat charakteru
procesów przystosowawczych na rynku pracy w okresie kryzysu. Pokazują one,
jak skala dostosowań ilościowych na rynku pracy, polegających na zmianach
zatrudnienia i bezrobocia, zależy od takich czynników, jak elastyczność płac
i czasu pracy oraz skłonność do „chomikowania” siły roboczej. Część 4 poświęcona jest ukazaniu uwarunkowań zmian zatrudnienia i bezrobocia w analizowanych krajach, co może objaśnić zróżnicowaną skalę zmian na rynku
pracy w tych krajach w okresie kryzysu. Ważniejsze wnioski zawarte są w części 5.
1. Wskaźniki rynku pracy w latach 2007–2010
Podstawą analizy zmian na rynku pracy są dwa syntetyczne wskaźniki: stopa bezrobocia i stopa zatrudnienia, obserwowane kwartalnie w latach 2007–2010, przy
czym dane o stopach bezrobocia kończą się na I kw. 2010 r., a o stopach zatrudnienia na IV kw. 2009 r. Kwartalna częstotliwość obserwacji tych wielkości stwarza możliwość uchwycenia ich reakcji koniunkturalnej. Uwzględnienie w analizie
obydwu wymienionych wskaźników jest godne podkreślenia, gdyż o ile zmiany
stóp zatrudnienia są uzależnione przede wszystkim od zmian popytu na pracę, to
zmiany stóp bezrobocia odzwierciedlają nie tylko zmiany po popytowej stronie
rynku pracy, lecz także zmiany po stronie podażowej, jak również niedopasowania strukturalne obu stron, tj. popytu i podaży pracy.
Rysunek 1 przedstawia kształtowanie się kwartalnych stóp bezrobocia w krajach Grupy Wyszehradzkiej w okresie I kw. 2007 r. – I kw. 2010 r., a więc w okresie, kiedy powinny uwidocznić się skutki globalnego kryzysu gospodarczego.
Wskaźniki te są uzupełnione o przeciętne wskaźniki dla strefy euro i całej Unii
Europejskiej.
Z rysunku 1 wynika, po pierwsze, że w analizowanych krajach nastąpiło odwrócenie kierunku zmian stopy bezrobocia: po okresie spadku wskaźników bezrobocia, w 2008 r. nastąpił we wszystkich krajach wzrost stóp bezrobocia. Tendencje wzrostu poziomu bezrobocia można traktować jako efekt globalnego kryzysu. Podobne kierunki zmian stopy bezrobocia są charakterystyczne dla strefy
euro i całej Unii Europejskiej.
Po drugie, warto zauważyć, że moment odwrócenia kierunku zmian stóp bezrobocia był w poszczególnych krajach niejednolity. Minimalna stopa bezrobocia
(a więc jakby górny punkt zwrotny w cyklu) wystąpiła w IV kw. 2008 r. w Polsce
i Słowacji, a w III kw. 2008 r. w Czechach. Natomiast na Węgrzech (podobnie jak
w strefie euro) moment ten wystąpił znacznie wcześniej, bo już w I kw. 2008 r.
Kryzys globalny a rynek pracy w Polsce i innych krajach Grupy Wyszehradzkiej
39
Warto ponadto zauważyć, że między badanymi krajami wystąpiły znaczące różnice w poziomach minimalnej stopy bezrobocia (4,3% w Czechach, 6,9% w Polsce,
7,6% na Węgrzech oraz 8,9% w Słowacji). Nasuwa się hipoteza o występowaniu
różnic w poziomie stopy bezrobocia odpowiadającego stanowi równowagi między
tymi krajami, choć oczywiście hipoteza ta wymagałaby weryfikacji.
Ry s u n e k 1
Stopy bezrobocia w latach 2007–2010, przeciętne kwartalne (w %)
16
14
12
10
8
6
4
2
0
I
II
III
2007
Czechy
Polska
IV
I
II
III
2008
Słowacja
Węgry
IV
I
II
III
2009
UE-27
UE-16
IV
I
2010
Źródło: Strona internetowa Eurostatu.
Po trzecie, z rysunku 1 wynika, że skala wzrostu stopy bezrobocia po przekroczeniu „górnego punktu zwrotnego” była w analizowanych krajach zróżnicowana.
W okresie czterech kolejnych kwartałów największy wzrost stopy bezrobocia wystąpił w Słowacji (5,1 pkt. proc.) i Czechach (o 3,0 pkt. proc.), a znacznie słabszy
był na Węgrzech (1,6 pkt. proc.) i w Polsce (1,8 pkt. proc.). Podobnie niskie
wskaźniki wzrostu stóp bezrobocia wystąpiły w strefie euro (o 1,6 pkt. proc.) i całej Unii Europejskiej (o 1,5 pkt. proc.). Można więc sądzić, że wrażliwość koniunkturalna stóp bezrobocia na globalny kryzys była stosunkowo niska w Polsce
i na Węgrzech, natomiast znacznie wyższa w Słowacji i Czechach.
Przyjrzyjmy się obecnie wskaźnikom statystycznym dotyczącym stóp zatrudnienia w badanych krajach, które przedstawiono na rysunku 2.
Z rysunku 2 wynika, po pierwsze, że w analizowanym okresie 2007–2009 można zauważyć koniunkturalne efekty w odniesieniu do stóp zatrudnienia. Po okresie wzrostu stóp zatrudnienia wystąpił okres spadku tych stóp, zapoczątkowany
w III bądź IV kw. 2008 r. Można właśnie uznać III bądź IV kw. 2008 r. jako
punkt zwrotny zmian koniunktury na rynku pracy.
40
Eugeniusz Kwiatkowski
Ry s u n e k 2
Stopy zatrudnienia w latach 2007–2009 (w % ludności w wieku 15–64 lata)
68
66
64
62
60
58
56
54
52
50
I
II
III
2007
IV
Czechy
Polska
I
II
III
2008
Słowacja
Węgry
IV
I
II
2009
III
IV
UE-27
UE-16
Źródło: Strona internetowa Eurostatu.
Po drugie, należy odnotować znaczące różnice między krajami pod względem
poziomów stóp zatrudnienia. Gdyby wziąć pod uwagę okres drugiego półrocza
2008 r., a więc okres, w którym wskaźniki zatrudnienia osiągnęły maksimum, to
należy stwierdzić, że jedynie w Czechach stopy zatrudnienia były równe bądź nawet wyższe od wszystkich wskaźników w strefie euro. W Polsce stopa zatrudnienia była niższa niż w Czechach i Słowacji, a na Węgrzech była jeszcze niższa niż
w Polsce.
Po trzecie, osłabienie koniunktury gospodarczej pociągnęło za sobą obniżkę
stóp zatrudnienia we wszystkich analizowanych krajach, przy czym jej rozmiary
były zróżnicowane. W okresie czterech kolejnych kwartałów po szczytowym
okresie koniunktury (w III bądź IV kw. 2008 r.) wskaźniki stóp zatrudnienia
spadły najsilniej w Słowacji (o 3,0 pkt. proc.) i na Węgrzech (1,8 pkt. proc.),
nieco słabiej w Czechach (1,5 pkt. proc.), najsłabiej zaś w Polsce (jedynie
o 0,6 pkt. proc.). Spadek tego wskaźnika był stosunkowo wysoki w strefie euro
(1,8 pkt. proc.).
Z przeprowadzonych analiz wynika, że rynki pracy w badanych krajach reagowały na globalny kryzys zmianami zarówno stóp zatrudnienia, jak i stóp
bezrobocia. Zmiany tych wskaźników były najsilniejsze na Słowacji, najsłabsze
zaś w Polsce. Nasuwa się pytanie, jak wytłumaczyć zróżnicowaną reakcję rynków pracy na globalny kryzys. Rozważmy tę kwestię najpierw od strony teoretycznej.
Kryzys globalny a rynek pracy w Polsce i innych krajach Grupy Wyszehradzkiej
41
2. Procesy przystosowawcze na rynku pracy w okresie kryzysu
Zapoczątkowany w Stanach Zjednoczonych kryzys finansowy wywarł swoje piętno
na sektorze realnym, najpierw w gospodarce USA, a następnie w innych krajach,
w tym również krajach Grupy Wyszehradzkiej. Znalazło to wyraz w dostosowaniach występujących w tych gospodarkach, w tym również na rynkach pracy. Przyjrzyjmy się bliżej mechanizmom tych dostosowań, ograniczając tutaj rozważania do
ujęć teoretycznych ugruntowanych w głównych teoriach ekonomicznych.
Załóżmy istnienie negatywnego szoku popytowego. Przyjęcie takiego założenia w odniesieniu do gospodarek krajów europejskich jest zupełnie uprawnione,
gdyż ważnym kanałem transmisji negatywnych impulsów koniunkturalnych z gospodarki amerykańskiej do innych krajów jest handel zagraniczny. Jego osłabienie związane z globalnym kryzysem może właśnie powodować spadek eksportu
netto i agregatowego popytu w gospodarkach europejskich. Rozważmy zatem
możliwe konsekwencje negatywnego szoku popytowego, a w szczególności możliwe dostosowania po takim szoku występujące w gospodarce.
Negatywny szok popytowy wywołuje przede wszystkim bezpośrednie dostosowania na rynku produktów (rys. 3). Naturalną konsekwencją spadku agregatowego
popytu na produkty jest zmniejszenie rozmiarów produkcji w gospodarce. Tego
rodzaju dostosowanie znajduje szerokie uzasadnienie na gruncie ekonomii keynesistowskiej, ale również inne teorie ekonomiczne dostrzegają ten związek. Warto
jednak zauważyć, że mogą występować również inne dostosowania do negatywnego
wstrząsu popytowego, a mianowicie: spadek cen towarów, wzrost rozmiarów zapasów towarów czy też zmiany okresu dostaw. Dostosowania te, zwłaszcza dotyczące
zapasów towarów i okresu dostaw, mają jednakże ograniczone znaczenie. Gdy negatywny szok popytowy jest głęboki i trwa dość długo, to nieuniknione są także
dostosowania w zakresie rozmiarów produkcji. W przypadku omawianego tutaj
kryzysu globalnego istotnym źródłem negatywnego szoku popytowego był spadek
eksportu netto. Dlatego można przyjąć, że skala reakcji produkcji na negatywny
szok popytowy zależy w dużej mierze od stopnia otwartości gospodarki. Im gospodarka jest bardziej otwarta, tym silniejszej reakcji produkcji można oczekiwać
w przypadku impulsu zewnętrznego.
Spadek rozmiarów produkcji wywołany negatywnym szokiem popytowym nie
pozostaje bez wpływu na rynek pracy, na którym również zachodzą procesy przystosowawcze (rys. 3). W literaturze zwraca się uwagę na kilka rodzajów dostosowań występujących na rynku pracy w okresie kryzysu, a mianowicie [Smith 2003,
s. 47–73; Cahuc, Zylberberg 2004, s. 193–214; Bosworth, Dawkins, Stromback
1996, s. 124–127 i 194–196]:
11 spadek płac realnych,
11 zmniejszenie czasu pracy,
11 obniżenie intensywności i wydajności pracy,
11 zmniejszenie rozmiarów zatrudnienia.
Rozważmy powyższe dostosowania nieco bliżej.
42
Eugeniusz Kwiatkowski
Ry s u n e k 3
Dostosowania na rynku produktów i rynku pracy
w przypadku negatywnego szoku popytowego
Negatywny
szok
popytowy
Dostosowania na rynku
produktów:
1 spadek cen
1 wzrost rozmiarów
zapasów
1 zmiana terminu dostaw
1 zmniejszenie rozmiarów
produkcji
Dostosowania na rynku pracy:
1 spadek płac realnych
1 zmniejszenie czasu pracy
1 zmniejszenie intensywności
i produktywności pracy
1 zmniejszenie rozmiarów
zatrudnienia
Źródło: Opracowanie własne.
Spadek płac realnych w sytuacji redukcji agregatowego popytu i produkcji jest
procesem mocno eksponowanym w neoklasycznej teorii rynku pracy, w której zakłada się wysoką elastyczność płac. W przeprowadzonych niedawno analizach empirycznych udało się potwierdzić negatywną zależność między płacami realnymi
a popytem na pracę, która zakłada pewną elastyczność płac realnych [Smith 2003,
s. 46–47]. Zgodnie z neoklasycznym rozumieniem procesów gospodarczych, elastyczność płac realnych ma ważne znaczenie dla charakteru dostosowań na rynku
pracy, gdyż wysoka elastyczność implikuje silniejsze dostosowania płacowe oraz
odpowiednio mniejsze dostosowania ilościowe (w postaci zmian zatrudnienia),
gdyby użyć terminologii Okuna. Można to uzasadnić, odwołując się do postępowania pracodawców, którzy w reakcji na spadek produkcji próbują obniżyć koszty
pracy za pośrednictwem obniżek płac. Nasuwa się jednakże pytanie, czy we współczesnym świecie, w którym istnieją związki zawodowe, układy zbiorowe i ustawy
o płacach minimalnych, płace są na tyle elastyczne, aby mogły zaabsorbować główną część dostosowań rynku pracy w okresie kryzysu? Twierdząca odpowiedź na to
pytanie byłaby dosyć ryzykowna. Również w teorii kontraktów podkreśla się stabilność płac jako ważny wyznacznik postępowania pracowników w negocjacjach z pracodawcami (zob. Kwiatkowski [2006, s. 174–179]). W warunkach współczesnej gospodarki do opisu kształtowania się płac należy raczej przyjąć twierdzenie o lepkich
płacach. Implikuje ono, że dostosowania pozapłacowe mają również miejsce
w przypadku wystąpienia szoków zewnętrznych.
Dostosowania rozmiarów zatrudnienia należą do głównych dostosowań pozapłacowych występujących w sytuacji szoków zewnętrznych. Tego rodzaju dostosowania są eksponowane w teorii keynesistowskiej, w której popyt na pracę traktuje
się jako pochodny, zależny od popytu na produkty i poziomu produkcji. Zgodnie
z tą teorią, spadek popytu i produkcji pociąga za sobą redukcję popytu na pracę
i liczby pracujących. Trzeba jednak podkreślić, że dostosowania zatrudnienia do
rozmiarów produkcji nie są w rzeczywistości natychmiastowe. Istnieją bowiem
koszty przystosowań zatrudnienia, z którymi muszą się liczyć pracodawcy. Chodzi
tutaj przede wszystkim o koszty zwolnień z pracy (w szczególności odprawy pieniężne), ale także o koszty przyjęć do pracy i koszty szkoleń nowo przyjętych pra-
Kryzys globalny a rynek pracy w Polsce i innych krajach Grupy Wyszehradzkiej
43
cowników, które występują, gdy po okresie redukcji zatrudnienia przyjdzie poprawa koniunktury i konieczność zwiększenia liczby pracujących. Te właśnie koszty
przystosowawcze zatrudnienia opóźniają szybkie dostosowanie liczby pracujących
do rozmiarów produkcji. Gdy koszty te są stosunkowo wysokie, bardziej opłacalne
dla pracodawców może być dokonanie alternatywnych dostosowań w postaci skrócenia czasu pracy oraz zwiększenia intensywności i wydajności pracy.
Postępowanie pracodawców dotyczące wyboru rodzaju dostosowań w sytuacji
zmniejszającej się produkcji zależy od relacji między kosztami przystosowawczymi
zatrudnienia (tj. kosztami zwolnień, przyjęć i szkoleń) a kosztami wynagrodzeń (por.
Cahuc, Zylberberg [2004, s. 196–197]). Gdy koszty przystosowawcze zatrudnienia są
stosunkowo wysokie w porównaniu z kosztami wynagrodzeń, pracodawcom może się
nie opłacać zmniejszać liczby pracowników wraz ze spadkiem produkcji. Korzystniejsze od redukcji zatrudnienia może być zredukowanie czasu pracy, które również
wiąże się zazwyczaj ze zmniejszeniem łącznych kosztów pracy. Sytuacja taka oznacza
spadek wydajności pracy na 1 zatrudnionego. Może ona również oznaczać spadek
wydajności pracy na 1 roboczogodzinę, jeśli redukcja czasu pracy będzie niewystarczająca w porównaniu ze spadkiem produkcji. Występujące wówczas zjawisko chomikowania siły roboczej1 nie musi spotykać się z negacją pracodawców, jeśli koszty
przystosowawcze zatrudnienia są stosunkowo wysokie.
Kształtowanie się rozmiarów zatrudnienia i produkcji w cyklu koniunkturalnym
przedstawiono na rysunku 4, na którym przebieg produkcji (Y) zaznaczono krzywą
ciągłą, a zatrudnienia (Z) – linią przerywaną. Jak zaznaczono na rysunku, wahania
zatrudnienia są łagodniejsze od wahań produkcji, a ponadto dokonują się z opóźnieniem (por. Smith [2003, s. 50 i nast.]). Warto zwrócić uwagę na przebieg obu
zmiennych w okresie kryzysu, tj. między okresem t0 a t2. Początkowo między t0 a t1
zatrudnienie nie obniża się pomimo spadku produkcji. Przystosowania polegają
wówczas na redukcji czasu pracy i wydajności pracy na 1 zatrudnionego. Mogą również wówczas wystąpić przystosowania polegające na redukcji wydajności na 1 roboczogodzinę, jeśli spadek produkcji jest silniejszy od redukcji czasu pracy. Następnie
między t1 a t2, gdy spadek produkcji pogłębia się, następuje redukcja rozmiarów
zatrudnienia. Redukcja ta zostaje zahamowana przez tendencje wzrostowe produkcji (między t2 a t3). Występującej wówczas poprawie koniunktury towarzyszy wzrost
wydajności pracy. Dopiero po pewnym czasie, gdy wzrost produkcji zostaje ugruntowany (między t3 a t4), następuje wzrost rozmiarów zatrudnienia.
Z przedstawionych uwag wynika, że skala spadku zatrudnienia, jaki następuje
w okresie kryzysu, zależy od kilku co najmniej czynników (rys. 5). Po pierwsze,
zależy od tego, jak głęboki jest spadek produkcji w gospodarce, przy czym im
większy jest ten spadek, tym większa – ceteris paribus – redukcja zatrudnienia. Po
drugie, skala spadku zatrudnienia zależy od rozmiarów spadku płac realnych,
przy czym większy spadek płac realnych implikuje mniejszą redukcję zatrudnienia. Trzeba zaznaczyć, że twierdzenie to zakłada neoklasyczną interpretację de1 W literaturze
polskiej zjawisko chomikowania siły roboczej opisują szeroko Strzelecki,
Wyszyński, Saczuk [2009, s. 77–104].
44
Eugeniusz Kwiatkowski
terminantów zatrudnienia i niekoniecznie byłoby przyjęte przez keynesistów. Po
trzecie, skala spadku zatrudnienia zależy od redukcji czasu pracy oraz stopnia
spadku wydajności pracy. Występuje tutaj swoista wymienność. Im większe są
spadki czasu pracy i wydajności pracy, tym mniejszej redukcji zatrudnienia można oczekiwać w okresie kryzysu.
Ry s u n e k 4
Wahania produkcji (Y) i zatrudnienia (Z) w cyklu koniunkturalnym
Y
Z
t0
t1
t2
t3
t4
t5
czas
Źródło: Smith [2003, s. 50].
Ry s u n e k 5
Determinanty spadku zatrudnienia w okresie kryzysu
Skala spadku zatrudnienia
Skala
spadku
produkcji
Elastyczność
płac
realnych
Skala
redukcji
czasu pracy
Stopień spadku
intensywności
i wydajności pracy
Źródło: Opracowanie własne.
3. Determinanty i uwarunkowania zmian na rynkach pracy
Z danych statystycznych przedstawionych w części 1 wynika, że w analizowanych
krajach wystąpiły znaczące zmiany na rynkach pracy w latach 2007–2009, zwłaszcza
począwszy od połowy 2008 r. Stosunkowo silny wzrost stopy bezrobocia wystąpił
w Słowacji i Czechach, natomiast znacznie słabszy w Polsce i na Węgrzech. Wskaźniki zatrudnienia spadły znacząco w Słowacji i na Węgrzech, a nieznacznie w Polsce. Nasuwa się pytanie, jak kształtowały się w analizowanych krajach wielkości
będące istotnymi determinantami zmian na rynku pracy, które zostały omówione
45
Kryzys globalny a rynek pracy w Polsce i innych krajach Grupy Wyszehradzkiej
w części 2? Chodzi tutaj o kształtowanie się w latach 2007–2009 wskaźników PKB,
płac realnych, czasu pracy i wydajności pracy. Przede wszystkim, czy zmiany tych
wielkości miały rzeczywiście procykliczny charakter i czy mogą one objaśnić zróżnicowane w poszczególnych krajach zmiany wskaźników rynków pracy?
Przed podjęciem analizy determinantów zmian na rynkach pracy przyjrzyjmy
się najpierw tendencjom zmian liczby pracujących, a więc tej wielkości charakteryzującej rynek pracy, która podlega bezpośrednim oddziaływaniom wspomnianych determinantów. Odpowiednie dane statystyczne dotyczące dynamiki zmian
poziomu zatrudnienia w ujęciu kwartalnym w czterech analizowanych krajach,
uzupełnione o agregatowe indeksy dla strefy euro (UE‑16) i całej Unii Europejskiej (UE-27) zawiera rysunek 6, z którego wynika, że najsilniejszy spadek liczby
pracujących w okresie I kw. 2007 r.–IV kw. 2009 r. wystąpił na Węgrzech (ponad
5%), przy czym spadkowa tendencja rozpoczęła się tam dosyć wcześnie, bo już
w 2007 r. W pozostałych krajach spadek zatrudnienia rozpoczął się później, w zasadzie pod koniec 2008 r. Był on dosyć duży na Słowacji, nieco zaś słabszy w Czechach, UE-16 i UE-27. W Polsce spadkowe tendencje zatrudnienia wystąpiły
w 2009 r. i były zdecydowanie najsłabsze wśród analizowanych krajów.
Ry s u n e k 6
Indeksy zmian zatrudnienia w wybranych krajach
w ujęciu kwartalnym w latach 2007–2009 (I kw. 2007 = 100)
108
106
104
102
100
98
96
64
92
90
88
I
II
III
2007
IV
I
II
III
2008
IV
I
II
III
2009
Czechy
Słowacja
UE-27
Polska
Węgry
UE-16
IV
Źródło: Internetowa baza danych Eurostat.
Zmiany rozmiarów produkcji uznawane są dosyć powszechnie za istotny czynnik determinujący zmiany zatrudnienia w gospodarce. Na rysunku 7 przedstawio-
46
Eugeniusz Kwiatkowski
no kwartalne zmiany realnego PKB w analizowanych krajach w latach 2007–2009.
Z rysunku wynika, że w badanym okresie w analizowanych krajach wystąpiły tendencje do procyklicznych zmian PKB, choć miały one różną siłę i zróżnicowany
okres występowania. Najwcześniej tendencje spadkowe PKB wystąpiły na Węgrzech i w strefie euro (w połowie 2008 r.), nieco później w Czechach i Polsce
(w końcu 2008 r.), a w Słowacji dopiero na początku 2009 r. Skala spadku PKB
była największa na Węgrzech (o około 7% w okresie II kw. 2008 r.–IV kw.
2009 r.). Również w Czechach, a także w krajach strefy euro zanotowano znaczące spadki PKB, zwłaszcza w okresie III kw. 2008 r.–II kw. 2009 r. Na Słowacji
wystąpiły dosyć silne wahania dynamiki PKB; początkowo nastąpił stosunkowo
szybki wzrost w okresie I kw. 2007 r.–IV kw. 2008 r. (poziom PKB w całym tym
okresie podniósł się o ponad 12%), a następnie gwałtowny spadek w I kw. 2009 r.
(o 7,4% w porównaniu z poprzednim kwartałem). W Polsce natomiast występował prawie nieprzerwany, stosunkowo szybki wzrost PKB w analizowanym okresie (poziom PKB w całym okresie wzrósł około 11%). O procyklicznym charakterze zmian PKB w Polsce w okresie globalnego kryzysu świadczyć może jedynie
nieznaczny spadek tej wielkości w IV kw. 2008 r. (0,3% w porównaniu z poprzednim kwartałem).
Ry s u n e k 7
Indeksy zmian PKB w cenach stałych w wybranych krajach
w ujęciu kwartalnym w latach 2007–2009 (I kw. 2007 = 100)
115
110
105
100
65
90
85
I
II
III
2007
IV
Czechy
Polska
Źródło: Internetowa baza danych Eurostat.
I
II
III
2008
Słowacja
Węgry
IV
I
II
III
2009
UE-27
UE-16
IV
Kryzys globalny a rynek pracy w Polsce i innych krajach Grupy Wyszehradzkiej
47
Warto odnotować stosunkowo korzystne zmiany PKB w Polsce w badanym
okresie. Nie tylko wahania dynamiki PKB były w Polsce najsłabsze wśród analizowanych krajów, lecz także trzeba podkreślić największy relatywny przyrost
PKB w Polsce pomiędzy I kw. 2007 r. a IV kw. 2009 r. Niewątpliwie trzeba
stwierdzić, że negatywne skutki globalnego kryzysu dla kształtowania się PKB
w Polsce były stosunkowo mało znaczące. Złożyło się na to niewątpliwie wiele
przyczyn2. Można przypuszczać, że przyczyniły się do tego takie czynniki, jak:
stosunkowo wysoka i stabilna konsumpcja, wysoka absorpcja funduszy UE,
gwałtowna deprecjacja złotówki w okresie od sierpnia 2008 r. do kwietnia
2009 r., mniej restrykcyjna polityka pieniężna, redukcja stawek podatku dochodowego, redukcja składek rentowych, a także regulacje pakietu antykryzysowego.
Konfrontując tendencje zmian PKB w analizowanych krajach z omówionymi
wcześniej zmianami zatrudnienia, trzeba stwierdzić, że zmiany PKB tłumaczą
w dużym stopniu zmiany zatrudnienia występujące w okresie globalnego kryzysu. Największy spośród badanych krajów spadek PKB na Węgrzech przełożył
się na największy spadek liczby pracujących w tym kraju. Dosyć silne tendencje
wzrostowe PKB w Polsce zaowocowały bardzo nieznacznym spadkiem liczby
pracujących w 2009 r. Tendencje zmian obu wskaźników w Czechach oraz krajach UE-16 i UE-27 wykazały również dosyć wysoką korelację. Jedynie w Słowacji wystąpiły znaczące rozbieżności kierunków zmian obu wskaźników od
drugiej połowy 2008 r.
Porównując relatywne zmiany PKB z analogicznymi zmianami zatrudnienia,
można obliczyć proste wskaźniki wrażliwości zatrudnienia na zmiany PKB. Odpowiednie dane dla analizowanych krajów zawiera tabela 1. Zamieszczone
w niej wskaźniki są średniorocznymi wskaźnikami skalkulowanymi na podstawie wskaźników kwartalnych, bez uwzględnienia jakichkolwiek opóźnień.
Szczególnie interesujące są wskaźniki dla lat 2008 i 2009, kiedy uwidoczniły się
skutki globalnego kryzysu. Z tabeli wynika, po pierwsze, że w 2008 r. stosunkowo wysoką wrażliwość stanu zatrudnienia na zmiany wielkości produkcji zanotowano w Czechach i na Węgrzech (w Czechach wzrost PKB spowodował stosunkowo wysoki przyrost zatrudnienia, a na Węgrzech występujący wówczas
spadek PKB wywołał dosyć silny spadek liczby pracujących), natomiast znacznie mniejszą wrażliwość zanotowano w Polsce i na Słowacji (na Słowacji zmiany
PKB i zatrudnienia miały odmienny kierunek). Po drugie, w kryzysowym 2009 r.
wysoka wrażliwość zatrudnienia wystąpiła również na Węgrzech i w Czechach
(spadkom PKB towarzyszyły stosunkowo silne spadki zatrudnienia). W Polsce
i Słowacji wskaźniki wrażliwości zatrudnienia w 2009 r. były dosyć niskie, ale
trzeba podkreślić, że rosnącym wówczas poziomem PKB towarzyszył spadek
liczby pracujących.
2 Problem podatności na kryzys w gospodarkach wschodzących podejmuje A. Wojtyna
[2010, s. 39–43].
48
Eugeniusz Kwiatkowski
Ta b e l a 1
Wskaźniki wrażliwości zatrudnienia względem zmian PKB w latach 2007–2009
(wskaźniki średnioroczne)
Rok
Czechy
Węgry
Słowacja
Polska
2007
0,713
3,094
0,198
0,580
2008
0,801
0,711
–0,063
0,177
2009
0,491
6,050
–0,147
–0,158
Źródło: Obliczenia własne na podstawie danych Eurostatu.
Wrażliwość zatrudnienia na zmiany produkcji zależy od wielu czynników.
Wśród tych czynników istotną rolę przypisuje się regulacjom dotyczącym prawnej ochrony zatrudnienia, a w szczególności związanym z procedurami przyjęć
do pracy i zwolnień z pracy, wysokością odpraw pieniężnych przy zwolnieniach
oraz rodzajem i okresem zawierania umów o pracę. Podstawowym argumentem
za istnieniem prawnej ochrony zatrudnienia jest zagwarantowanie pracownikom bezpieczeństwa zatrudnienia. Z doświadczeń różnych krajów wynika jednakże również to, że zbyt restrykcyjne uregulowania prawnej ochrony zatrudnienia mają negatywny wpływ na zatrudnienie niektórych grup pracowników
oraz przepływy siły roboczej na rynku pracy [Bassanini, Nunziata, Venn 2009,
s. 349–402]. W tym kontekście warto zwrócić uwagę na fakt, że sumaryczny
indeks prawnej ochrony zatrudnienia opracowany przez OECD kształtuje się
w Polsce na najwyższym poziomie spośród krajów Grupy Wyszehradzkiej (2,41
w 2008 r.) i charakteryzował się największym przyrostem wśród krajów tej grupy w latach 1999–2008 [strona internetowa OECD]. Tendencje tego indeksu
nie pozostają zapewne bez znaczenia dla przedstawionych wskaźników wrażliwości zatrudnienia.
Na rysunku 8 przedstawiono kształtowanie się płac realnych w czterech analizowanych krajach, przy czym indeksy płac realnych ograniczone są do przemysłu, budownictwa i usług. Z rysunku widać odmienne kształtowanie się płac realnych w okresie globalnego kryzysu w Polsce i na Węgrzech z jednej strony,
a w Słowacji i w Czechach, z drugiej. W przypadku Polski i Węgier można mówić
o procyklicznych zmianach płac realnych w 2009 r., gdyż zanotowano wówczas
ich wyraźny spadek. Natomiast na Słowacji i w Czechach płace realne wykazywały tendencje wzrostowe, także w 2009 r. Gdyby przyjąć neoklasyczną interpretację skutków zmian płac realnych, to można by stwierdzić, że w Polsce spadkowe
tendencje płac realnych przyczyniły się do osłabienia spadku zatrudnienia, na
Węgrzech zaś spadki płac realnych nie były w stanie zahamować silnych spadków
zatrudnienia w okresie globalnego kryzysu. Natomiast w przypadku Słowacji
i Czech wzrostowe tendencje płac realnych miały swój udział w występującym
spadku zatrudnienia.
49
Kryzys globalny a rynek pracy w Polsce i innych krajach Grupy Wyszehradzkiej
Ry s u n e k 8
Indeksy zmian płac realnych w wybranych krajach
w ujęciu kwartalnym w latach 2007–2009 (I kw. 2007 = 100)
120
115
110
105
100
95
90
85
I
II
III
2007
IV
I
II
III
2008
Czechy
Słowacja
Polska
Węgry
IV
I
II
III
2009
IV
Źródło: Internetowa baza danych Eurostat; internetowa baza danych OECD.Stat Extracts.
W latach 2008–2009 we wszystkich analizowanych krajach występowały tendencje do spadku czasu pracy. Widać to wyraźnie na rysunku 9, który pokazuje
zmiany tygodniowego czasu pracy w głównym miejscu pracy w analizowanych
krajach. Spadkowe tendencje uwidoczniły się zwłaszcza w IV kw. 2008 r. i całym
2009 r. Przeciętna liczba godzin pracy w tygodniu zmieniała się więc w tym okresie procyklicznie. Można zatem stwierdzić, że we wszystkich badanych krajach
zmniejszenie czasu pracy przyczyniało się do osłabienia spadku zatrudnienia
w okresie globalnego kryzysu.
Na zakończenie przyjrzyjmy się kształtowaniu się wydajności pracy na 1 pracującego. Indeksy zmian wydajności (skalkulowanej jako relacje PKB do liczby
pracujących) przedstawiono na rysunku 10. Z wykresu wynika, że spadkowe tendencje wydajności pracy wystąpiły we wszystkich badanych krajach, choć z różną
siłą i różnym okresem trwania. Były one znaczące na Węgrzech i w Czechach (od
połowy 2008 r. do połowy 2009 r.); w Słowacji gwałtowny spadek wystąpił w I kw.
2009 r.; również w strefie euro zanotowano spadek wydajności pracy w 2008 r.
i I kw. 2009 r. W Polsce spadek wydajności pracy wystąpił jedynie w I i IV kw.
2008 r. Należy więc stwierdzić, że występowały symptomy procyklicznego kształtowania się wydajności pracy, które łagodziły spadkowe tendencje zatrudnienia
w okresie globalnego kryzysu.
50
Eugeniusz Kwiatkowski
Ry s u n e k 9
Indeksy zmian przeciętnej liczby godzin pracy w tygodniu w wybranych krajach
w ujęciu kwartalnym w latach 2007–2009 (I kw. 2007 = 100)
101,0
100,5
100,0
99,5
99,0
98,5
98,0
97,5
I
II
III
2007
IV
I
Czechy
Polska
II
III
2008
IV
I
II
2009
III
IV
UE-27
UE-16
Słowacja
Węgry
Źródło: Internetowa baza danych Eurostat.
Ry s u n e k 1 0
Indeksy zmian wydajności pracy na 1 zatrudnionego w wybranych krajach
w ujęciu kwartalnym w latach 2007–2009 (I kw. 2007 = 100)
115
110
105
100
95
90
85
I
II
III
2007
IV
I
Czechy
Polska
Źródło: Internetowa baza danych Eurostat.
II
III
2008
Słowacja
Węgry
IV
I
II
III
2009
UE-27
UE-16
IV
Kryzys globalny a rynek pracy w Polsce i innych krajach Grupy Wyszehradzkiej
51
Zakończenie
Z przeprowadzonej analizy wynika, że w okresie kryzysu globalnego lat 2007–2009
wystąpiły znaczące zmiany na rynkach pracy w krajach Grupy Wyszehradzkiej.
Znalazły one wyraz we wzroście stóp bezrobocia oraz spadku poziomów i stóp
zatrudnienia. Zmiany tych wskaźników były w Polsce stosunkowo łagodne, a znacznie silniejsze na Węgrzech, Słowacji i w Czechach. Również w strefie euro zmiany
omawianych wskaźników były silniejsze niż w Polsce.
Skala zmian zatrudnienia i bezrobocia w okresie kryzysu zależy od wielu
czynników. Znaczącą rolę odgrywają wśród nich takie czynniki, jak zmiany
wielkości produkcji, płac realnych, czasu pracy i wydajności pracy. Przystosowania rynku pracy do negatywnych szoków zewnętrznych nie polegają wyłącznie na spadku zatrudnienia i wzroście bezrobocia. Przystosowania rynku pracy
mogą również polegać na obniżkach płac realnych, skróceniu czasu pracy
i spadku wydajności pracy. Występować może tutaj swego rodzaju wymienność
polegająca na tym, że większa elastyczność płac realnych i czasu pracy oraz
większy spadek wydajności pracy implikują mniejsze zmiany zatrudnienia i bezrobocia.
Analizy danych statystycznych w krajach Grupy Wyszehradzkiej dowodzą, że
w latach 2007–2009 występowały tendencje do procyklicznego zachowania się
takich wielkości makroekonomicznych, jak zatrudnienie, PKB, płace realne, czas
pracy i wydajność pracy. W szczególności w drugiej połowie 2008 r. i w całym
2009 r. występowały tendencje do wzrostu bezrobocia oraz spadkowe tendencje
zatrudnienia, PKB, płac realnych, czasu pracy i wydajności pracy. Skala zmian
zatrudnienia i bezrobocia w tym okresie pozostawała więc pod wpływem pozostałych wymienionych zmiennych.
Spadki zatrudnienia i przyrosty bezrobocia w Polsce w okresie kryzysu były
stosunkowo nieduże. Było to związane w istotnej mierze z dosyć korzystnymi tendencjami wzrostowymi PKB, ale pewną rolę odegrały tutaj również spadkowe
tendencje płac realnych i czasu pracy.
Stosunkowo duży spadek zatrudnienia na Węgrzech tłumaczy się przede
wszystkim silnymi tendencjami spadkowymi PKB, ale spadek ten byłyby prawdopodobnie jeszcze większy, gdyby nie obniżki czasu pracy, płac realnych i wydajności pracy.
Znaczący spadek zatrudnienia w Słowacji i w Czechach był związany ze spadkiem PKB i wzrostem płac realnych. Spadkowe tendencje czasu pracy i wydajności pracy w tych krajach nie były w stanie odwrócić niekorzystnych tendencji zatrudnienia w okresie osłabienia koniunktury.
Tekst wpłynął 17 listopada 2010 r.
52
Eugeniusz Kwiatkowski
Bibliografia
Bassanini A., Nunziata L., Venn D., Job Protection Legislation and Productivity Growth
in OECD Countries, „Economic Policy” 2009, nr 58.
Bosworth D., Dawkins P., Stromback T., The Economics of the Labour Market, Longman,
Essex 1996.
Cahuc P., Zylberberg A., Labour Economics, The MIT Press, Cambridge–London
2004.
Kwiatkowski E., Bezrobocie. Podstawy teoretyczne, Wydawnictwo Naukowe PWN,
Warszawa 2006.
Smith S., Labour Economics, Routledge, London–New York 2003.
Strona internetowa Eurostatu (http://epp.eurostat.ec.europa.eu/portal/page/portal/statistics/
search_database).
Strona internetowa OECD (http://stats.oecd.org).
Strzelecki P., Wyszyński R., Saczuk K., Zjawisko chomikowania pracy w polskich
przedsiębiorstwach po okresie transformacji, „Bank i Kredyt” 2009, nr 40(6).
Wojtyna A., Gospodarki wschodzące w obliczu kryzysu finansowego: duża odporność czy
podatność? „Gospodarka Narodowa” 2010, nr 9.
Global Crisis and Labour Market In Poland
and Other Countries of the Vyshehrad Group
Summary
The paper analyses the changes that appeared in labour markets in Poland and in
other countries of the Vyshehrad during the global crisis of 2007–2009. Special
consideration is given to the evolution of employment and unemployment. The analysis
tries to assess the impact of global crisis on employment and unemployment and to
explain the different reation of labour markets in the individual countries to the crisis.
The author analysies the impact of the crisis on output, employment and unemployment,
work hours, and wages.
The analysis shows that global crisis caused significant changes in labour markets of
the analysed group of countries. The major change was the decrease of employment and
the increase of unemployment, both as regards their absolute levels, as well as percentage
rates. Changes in these variables were relatively small in Poland, but more pronounced
in Hungary, Slovakia, and the Czech Republic.
The reaction of employment and unemployment to the crisis depends on many
factors. Significant is the scale of changes in the output volume, as well as changes
observed in real wages, work hours, and productivity. In all the countries analysed
procyclical behaviour was observed in the evolution of such macroeconomic variables as
GDP, employment, real wages, working hours and labour productivity. The change in
employment and unemployment levels in Poland was relatively small, due to relatively
advantageous behaviour of output (some increase in real GDP), but also due to the
decrease in real wages and working hours.
Key words: labour market 1 unemployment 1 crisis
Kryzys globalny a rynek pracy w Polsce i innych krajach Grupy Wyszehradzkiej
53
Глобальный кризис и рынок труда в Польше
и в других странах Вишеградской группы
Резюме
Предметом статьи являются тенденции, имеющиеся на рынке труда в Польше
и в остальных странах Вишеградской группы в период глобального кризиса 2007–2009 гг.
В частности обращено внимание на изменения показателей занятости и норм безработицы.
Целью анализа является определение масштаба изменений норм безработицы, а также
уровней и показателей занятости в исследуемых странах как реакции на глобальный кризис, а также попытка объяснить дифференцированную реакцию рынка труда в этих странах. Авторами была учтена реакция в области объемов производства, гибкость рынка
труда, в частности в отношении заработной платы, занятости и рабочего времени.
Из проведенного анализа вытекает, что в период глобального кризиса 2007–2009 гг.
произошли значительные изменения на рынках труда в странах Вишеградской группы.
Они нашли своё проявление в повышении норм безработицы, а также понижении уровня
и норм занятости. Изменения этих показателей были в Польше относительно невелики,
особенно по сравнению с Венгрией, Словакией и в Чехией.
Масштабы изменений занятости и безработицы в период кризиса зависят от ряда факторов. Значительную роль среди них играют изменения объемов производства, реальной
заработной платы, рабочего времени и производительности труда.
Анализ статистических данных показывает, что в 2007–2009 гг. в странах Вишеградской
группы имелись тенденции проциклического поведения таких макроэкономических величин как занятость, ВВП, реальной заработной платы, рабочего времени и производительности труда.
Понижение занятости и рост безработицы в Польше в период кризиса были относительно небольшими. Это было связано прежде всего с довольно благоприятными тенденциями роста ВВП, но некоторую роль сыграли также тенденции к понижению реальной
заработной платы и рабочего времени.
Ключевые слова: рынок труда 1 безработица 1 кризис
Jan Fałkowski*
Konkurencja między partiami politycznymi
a polityka gospodarcza1
Wstęp
Wraz z rosnącą popularnością nowej ekonomii instytucjonalnej przekonanie
o znaczeniu otoczenia instytucjonalnego dla osiąganych wyników gospodarczych
stało się punktem wyjścia licznych analiz ekonomicznych – teoretycznych i empirycznych [Hockuba 2001, s. 39–56]. W ostatnim dwudziestoleciu wysiłki ekonomistów koncentrowały się nie tyle na dowodzeniu prawdziwości twierdzenia, iż „instytucje mają znaczenie”, ile na próbach zidentyfikowania konkretnych czynników
instytucjonalnych odpowiedzialnych za sukcesy gospodarcze. Wyrazem tych prób
są m.in. poszukiwania badawcze podejmowane w ramach nowej ekonomii politycznej analizującej zależności pomiędzy poszczególnymi instytucjami politycznymi a kształtem i efektami polityki gospodarczej państwa [Wilkin 2004].
Jedno z kluczowych miejsc w debacie toczącej się obecnie w ramach tego nurtu na forum akademickim zajmują powiązania pomiędzy wynikami gospodarczymi a ustrojem politycznym. Rozważania prowadzone wokół tego zagadnienia
zaowocowały wieloma pracami analizującymi zależność między demokratyzacją
a wzrostem gospodarczym (zob. min. Barro [1996, s. 1–27]; Przeworski i in.
[2000]; Rodrik, Wacziarg [2005, s. 50–55]; Papaioannou, Siourounis [2008,
s. 1520–1551]; Acemoglu i in. [2008, s. 808–842])2. Naturalnym rozwinięciem tych
zainteresowań były próby wskazania konkretnych rozwiązań instytucjonalnych,
które decydują o rodzaju i efektach reform wdrażanych czy to w systemach demokratycznych (zob. m.in. Persson, Tabellini [2000; 2003]), czy też w systemach
* Dr
Jan Fałkowski – Wydział Nauk Ekonomicznych, Uniwersytet Warszawski, e-mail:
[email protected]
1 Prace nad tym artykułem były w części finansowane ze środków Ministerstwa Nauki
i Szkolnictwa Wyższego (grant nr N N112 118639).
2 Warto podkreślić, iż prace te w istotnym stopniu czerpią z wcześniejszych badań; zob.
m.in. Lipset [1959, s. 69–105], Moore [1966].
56
Jan Fałkowski
autorytarnych [Besley, Kudamatsu 2008]. W ten sposób zainteresowanie ekonomistów objęło także problem konkurencji na scenie politycznej, który jest przedmiotem niniejszego opracowania.
Ten artykuł ma służyć dwóm podstawowym celom. Po pierwsze, ma on za
zadanie przedstawić najnowsze osiągnięcia teorii ekonomii, gdy chodzi o analizę
powiązań między konkurencją polityczną a polityką gospodarczą i jej efektami.
Po drugie, podejmuje on próbę krótkiego przeglądu najnowszej literatury empirycznej z tej dziedziny. W ten sposób niniejsze opracowanie może okazać się
użyteczne jako wstęp do bardziej szczegółowej analizy rozstrzygnięć zapadających na styku polityki i gospodarki, czy to w Polsce, czy na świecie.
W prezentowanym artykule konkurencja polityczna jest rozumiana jako
konkurencja między partiami politycznymi3. Jej wpływ na politykę gospodarczą
jest analizowany przez pryzmat gry, w której dochodzi do zawarcia transakcji
między społeczeństwem a politykami. Grę tę przedstawić można następująco.
Przedmiotem targu, w którym uczestniczą elity polityczne oraz społeczeństwo,
są konkretne rozwiązania polityczne. Walutą, w jakiej dochodzi do rozliczenia
tej transakcji, są głosy wyborców. Obie strony targu optymalizują swoje funkcje
celu. Społeczeństwo dąży do maksymalizacji swojej funkcji użyteczności, która
– w sposób pośredni lub bezpośredni – zależy od wdrażanej polityki. Politycy
zaś dążą do zmaksymalizowania swoich szans na dojście do władzy lub, jeśli już
ją sprawują, do pozostania przy niej przez następną kadencję. Przy najprostszym scenariuszu wynik tego targu będzie pochodną interakcji między preferencjami poszczególnych grup społecznych a rozwiązaniami instytucjonalnymi
wpływającymi na poziom konkurencji politycznej4. Za przykład tych ostatnich
mogą posłużyć zapisy definiujące powszechność praw wyborczych, czy też ordynacja wyborcza (proporcjonalna/większościowa). W zależności od różnych konfiguracji preferencji społecznych oraz rozwiązań instytucjonalnych ukształtuje
się prawdopodobieństwo utraty władzy przez partię rządzącą (przejęcia władzy
przez opozycję). Ono natomiast w istotnym stopniu wpływać będzie na obietnice oraz realne posunięcia partii politycznych, a co za tym idzie na politykę gospodarczą państwa.
Następne części artykułu prezentują kolejno: rozważania teoretyczne zarysowujące podstawy dyskursu ekonomicznego poświęconego znaczeniu konkurencji
politycznej dla polityki gospodarczej; najważniejsze prace empiryczne z tej dziedziny; oraz kilka uwag końcowych.
3 W literaturze czasem rozumie się przez to pojęcie także konkurencję wewnątrzpartyjną.
Jednak z braku miejsca ta ostatnia nie będzie przedmiotem niniejszego artykułu. Więcej na ten
temat znaleźć można m.in. w: Roemer [2001], Merlo [2005].
4 Powyższe rozważania oparto na założeniu, iż politycy dbają wyłącznie o zwycięstwo
w wyborach. Co za tym idzie, przyjęto, że przy wdrażaniu konkretnych rozwiązań kierują się oni
czynnikami zwiększającymi ich szanse wyborcze, a niekoniecznie własnymi preferencjami względem realizowanych programów. Uchylenie tego założenia nakazywałoby uwzględnić w analizie,
poza preferencjami społeczeństwa i rozwiązaniami instytucjonalnymi dotyczącymi konkurencji
politycznej, również preferencje polityków oraz możliwość wystąpienia oportunistycznych
zachowań z ich strony.
Konkurencja między partiami politycznymi a polityka gospodarcza
57
1. Konkurencja polityczna w świetle teorii ekonomii
Jak zauważono we wstępie, badania nad konkurencją polityczną prowadzone
w ramach nowej ekonomii politycznej wzięły swój początek z rozważań na temat
roli, jaką w rozwoju gospodarczym odgrywa proces demokratyzacji. Przeważająca
większość ostatnich badań empirycznych dowodzi pozytywnej zależności pomiędzy demokratyzacją a wzrostem gospodarczym (zob. m.in. Rodrik i Wacziarg
[2005]; Persson, Tabellini [2008])5. Rzeczywistość pokazuje jednak, iż pod względem wyników gospodarczych i poziomu rozwoju kraje demokratyczne są niezwykle silnie zróżnicowane (zob. m.in. Persson i Tabellini [2000; 2003]). Widać to
praktycznie w każdym aspekcie życia gospodarczego, począwszy od poziomu
PKB per capita i stopy wzrostu gospodarczego przez poziom bezrobocia do poziomu długu publicznego. Obserwacja ta stała się impulsem dla poszukiwań przyczyn tego zróżnicowania. W sposób naturalny wysiłki badaczy zostały skierowane
na analizę szczegółowych czynników instytucjonalnych funkcjonujących w ramach systemów demokratycznych. Biorąc pod uwagę, iż podstawową instytucją6
w demokracji są wybory, nie powinno dziwić, iż zainteresowanie ekonomistów
objęło procesy zachodzące na scenie politycznej. W nawiązaniu do dorobku mikroekonomii oraz organizacji rynku, jednym z kluczowych aspektów analizy stała
się konkurencja między podmiotami politycznymi.
1.1. Definicja
W literaturze ekonomicznej pojęcie konkurencji politycznej nie ma jednej obowiązującej definicji. Najbardziej powszechna z nich odwołuje się do kwestii rywalizacji pomiędzy partiami politycznymi [Roemer 2001]. W tym ujęciu konkurencja polityczna odnosi się do presji, jaką na partię rządzącą wywierają partie opozycyjne.
Nieco inne spojrzenie proponują Acemoglu i Robinson [2006], którzy konkurencję polityczną definiują w odniesieniu do stopnia trudności/łatwości, z jaką
5 Twierdzenie, iż ekonomiści doszli w tym względzie do konsensusu, wydaje się być na
wyrost. Co warte jednak podkreślenia, wniosek o pozytywnej zależności między demokracją
a wzrostem gospodarczym płynie z ostatnich prac opartych na danych panelowych [Rodrik,
Wacziarg 2005; Persson, Tabellini 2008]. Co się tyczy natomiast badań konkludujących o słabej
zależności między demokracją i wzrostem gospodarczym lub jej braku, to większość z tych
badań opiera się na danych przekrojowych (zob. np. przegląd literatury w: Przeworski, Limongi
[1993]; Mulligan i in. [2004, s. 51–74]). Różnica ta jest o tyle istotna, że ekonometryczne techniki panelowe pozwalają w znacznie lepszym stopniu aniżeli techniki oparte na danych przekrojowych radzić sobie z wpływem czynników nieobserwowalnych. Co za tym idzie, wnioski płynące
z modeli panelowych wydają się znacznie bardziej przekonywające.
6 W niniejszym opracowaniu przyjęto za Northem [1990], iż instytucje stanowią swoiste
reguły gry. Należy je zatem postrzegać w kategorii wzorców i ograniczeń nałożonych na relacje
międzyludzkie.
58
Jan Fałkowski
społeczeństwo może dokonać wymiany elit aktualnie sprawujących władzę.
W tym ujęciu wyższy poziom konkurencji politycznej będzie obniżał koszty związane z wymianą rządzących. Warto tu podkreślić, iż podejście to wiąże poziom
konkurencji politycznej ze stopniem kontroli, jaką społeczeństwo posiada w stosunku do elit politycznych.
Odmienne podejście proponują Mulligan i Tsui [2008], którzy definiują konkurencję polityczną w odniesieniu do barier wejścia na polityczny rynek, łącząc
wyższy poziom konkurencji politycznej z niższymi barierami wejścia na rynek polityczny. W odróżnieniu od poprzednich ujęć, ta perspektywa podkreśla fakt, iż
poziom konkurencji politycznej będzie decydować o wielkości nadzwyczajnego
zysku realizowanego przez sprawujących władzę7. Będzie on malał wraz ze wzrostem konkurencji między partiami politycznymi.
Jeszcze inna perspektywa patrzenia na problem konkurencji politycznej odsłania się, gdy za punkt wyjścia przyjmie się podejście Bardhana i Yanga [2004],
którzy łączą konkurencję polityczną ze stopniem decentralizacji władzy. W tym
ujęciu wyższa konkurencja polityczna oznacza większą liczbę osób/organizacji
zaangażowanych w proces sprawowania władzy.
Na koniec można również wspomnieć o podejściu Besleya i Case [2003], którzy postrzegają konkurencję polityczną przez pryzmat stopnia, w jakim zróżnicowane preferencje społeczne względem realizowanych polityk będą faktycznie
odwzorowane na scenie politycznej.
Jak widać z powyższego zestawienia, w literaturze ekonomicznej istnieje co
najmniej kilka sposobów patrzenia na problem konkurencji politycznej. Fakt ten
można z pewnością wiązać z tym, iż jest to problem niezwykle złożony i wielowymiarowy. Co jednak ważne, pomimo pewnych (czasem subtelnych) różnic wszystkie przedstawione wyżej podejścia mają jedną cechę wspólną. Wszystkie one
przedstawiają konkurencję polityczną w kategoriach instytucjonalnych jako ograniczenie nałożone na elity polityczne.
1.2. Konkurencja polityczna a polityka gospodarcza
– możliwe kanały oddziaływania
Podobnie jak wiele jest spojrzeń na istotę problemu konkurencji politycznej, tak
i wiele jest wyjaśnień tłumaczących powiązania między konkurencją polityczną
a polityką gospodarczą. Intuicja podpowiada co najmniej cztery potencjalne kanały, poprzez które konkurencja polityczna może wpływać – pośrednio lub bezpośrednio – na politykę gospodarczą. Po pierwsze, poziom konkurencji politycznej bez wątpienia odciska swoje piętno na przedwyborczych zachowaniach polityków. Kształtuje on m.in. program, który partie polityczne przedstawiają swoim
7 Perspektywa
ta odsłania się, gdy do analizy rynku politycznego zastosuje się standardowe
narzędzia analizy ekonomicznej wskazujące na to, iż ograniczanie konkurencji na rynku będzie
prowadzić do powstawania nadzwyczajnych zysków realizowanych przez podmioty, które na
tym rynku funkcjonują.
Konkurencja między partiami politycznymi a polityka gospodarcza
59
potencjalnym wyborcom [Levy 2004, s. 250–277; Morelli 2004, s. 829–853]. W ten
sposób decyduje również w dużym stopniu o zakresie potencjalnych rozwiązań,
które mogą być wdrażane w przypadku ewentualnego sukcesu w wyborach. Po
drugie, można zakładać, że konkurencja polityczna wpływa na skład list wyborczych, a zatem także na to, kto w przypadku wyborczej wygranej będzie sprawował urząd [Carrillo, Mariotti 2001]8. Z punktu widzenia polityki gospodarczej ma
to o tyle znaczenie, że to właśnie od indywidualnych cech wybranych kandydatów
będzie zależeć, w jakim stopniu przedwyborcze obietnice pokryją się z preferencjami faktycznie rządzących, z jakim prawdopodobieństwem można się po nich
spodziewać zachowań oportunistycznych oraz w jakim stopniu ich działania będą
powodowane motywem pogoni za rentą polityczną (m.in. Merlo [2005]; Makris
[2009, s. 151–153]). Po trzecie, konkurencja polityczna może kształtować politykę
gospodarczą, wpływając na zachowania polityków aktualnie sprawujących władzę
[Alesina, Spear 1988, s. 359–379; Harrington 1992, s. 107–121]. Zakładając, że
będą oni chcieli pozostać na stanowisku przez następną kadencję, ich działania,
a zatem i realizowana przez nich polityka, nie mogą abstrahować od rywalizacji,
jaką będą musieli podjąć przy okazji kolejnej kampanii wyborczej. Po czwarte
wreszcie, konkurencja polityczna może pośrednio kształtować politykę gospodarczą poprzez swój wpływ na strukturę rządu i ostateczny podział miejsc w parlamencie. Z jednej strony bowiem poziom konkurencji politycznej ma niewątpliwy
wpływ na to, czy rząd sprawujący władzę jest rządem większościowym czy mniejszościowym, koalicyjnym czy jednopartyjnym, z drugiej zaś – decyduje on o sile
przetargowej poszczególnych ugrupowań w parlamencie [Jackson, Moselle 2002,
s. 49–87; Persson i in. 2007, s. 155–188]. Jest to o tyle ważne, że to struktura rządu i względna siła partii opozycyjnych będą decydować o możliwościach wdrażania danych rozwiązań – czy to na etapie przedstawiania ich pod obrady parlamentu, czy też na etapie głosowań nad konkretnymi ustawami.
Poniżej podjęto próbę wskazania głównych podstaw teoretycznych, które pozwoliły wprowadzić powyższe rozważania do bieżącej debaty ekonomicznej.
W pierwszej kolejności przedstawiono nurt związany ze szkołą z Chicago. Następnie omówiono model środkowego wyborcy (median voter), w dalszej kolejności natomiast przedstawiono najnowsze modele nowej ekonomii politycznej.
1.3. Konkurencja polityczna a konkurencja na rynku produktów
Jednym z pierwszych, a zarazem bardziej wpływowych nurtów analizujących znaczenie konkurencji politycznej dla wyników gospodarczych był nurt związany ze
szkołą z Chicago. Zapoczątkowany w latach 50. XX w. przez G. Beckera i G. Stiglera, za punkt wyjścia przyjmował zastosowanie do opisu zjawisk zachodzących
8 Ciekawą
w tym kontekście wydaje się rywalizacja o kandydatów, jaka rozgrywa się między
światem polityki a innymi dziedzinami życia (biznesem, nauką, publicystyką). Ze względu na
ograniczoność miejsca wątek ten nie jest przedmiotem niniejszego artykułu. Za wstęp do rozważań na ten temat może posłużyć m.in. Merlo [2005].
60
Jan Fałkowski
na scenie politycznej standardowych pojęć i założeń wykorzystywanych przy opisie tradycyjnego rynku produktu. W konsekwencji, w ramach tego podejścia rozwiązania polityczne postrzegane są jako dobro rynkowe podlegające powszechnym prawom popytu i podaży oraz mające swoją cenę. Wyraża się ona poprzez
liczbę głosów z poparciem, które wrzucane są każdorazowo do urny w czasie
wyborów. Strona podażowa tego rynku reprezentowana jest przez polityków, natomiast strona popytowa przez wyborców. Stosując analogię do tego, co możemy
zaobserwować na standardowym rynku produktu, przedstawiciele tego nurtu wywodzili, iż wyższy poziom konkurencji między partiami politycznymi będzie ograniczać skłonność polityków do pogoni za rentą polityczną i zmuszać ich do respektowania woli większości obywateli [Becker 1958, s. 105–109; Stigler 1972,
s. 91–106; Wittman 1989, s. 1395–1424]. Rozumowanie to wygląda zatem bardzo
podobnie do rozumowania przeprowadzanego w odniesieniu do rynku produktów, gdzie większa konkurencja między producentami, prowadząc do spadku cen
i wzrostu (ilości i/lub różnorodności) produkcji, sprzyja ogółowi konsumentów.
Powyższe podejście zdobyło sobie dużą popularność, choć nie ustrzegło się
krytyki. Formułowano ją przede wszystkim w związku z całkowitym pominięciem
w analizie czynników instytucjonalnych, które gwarantowałyby, iż przewidywany
wyżej scenariusz rzeczywiście może mieć miejsce [Polo 1998; Svensson 1998].
Co warte również podkreślenia, w swoich późniejszych pracach przedstawiciele
szkoły z Chicago (m.in. Becker [1983]; Peltzman [1987]; Mulligan i Tsui [2008])
wskazywali, że konkurencja polityczna nie musi mieć bezpośredniego przełożenia
na politykę gospodarczą. Ta ostatnia jest bowiem wynikiem konkurencji między
poszczególnymi grupami interesu. Konkurencja między partiami politycznymi
może zatem co najwyżej służyć jako pas transmisyjny rywalizacji mającej miejsce
między grupami interesu.
1.4. Model środkowego wyborcy
Drugie podejście, które odegrało bardzo ważną rolę w kształtowaniu ekonomicznego myślenia o znaczeniu konkurencji politycznej dla polityki gospodarczej, wywodzi się z modelu sformułowanego przez Downsa [1957]. Dowodził
on, iż w systemie dwupartyjnym, przy założeniu, że preferencje wyborców są
jednowierzchołkowe, a wyłącznym celem partii politycznych jest wygrana w wyborach, wyższy poziom konkurencji politycznej będzie prowadził do forsowania
rozwiązań skrojonych względem preferencji środkowego (dokładniej – „medianowego”) wyborcy. To zaś z tej przyczyny, że to właśnie te rozwiązania można
określić mianem tzw. zwycięzcy Condorceta [Black 1987]9. Choć podejście to
zdominowało na długi czas dyskusję na temat relacji między konkurencją polityczną a polityką gospodarczą, zwłaszcza w ostatnim czasie wskazano na jego
9 „Zwycięzcą
Condorceta nazywamy alternatywę, która wygrywa ze wszystkimi pozostałymi
alternatywami przy porównaniu parami metodą większościową” [Jakubowski 2005, s. 54].
Konkurencja między partiami politycznymi a polityka gospodarcza
61
istotne niedoskonałości (zob. m.in. Besley, Case [2003]). Krytyka dotyczy
zwłaszcza trzech podstawowych kwestii. Po pierwsze, w wątpliwość poddaje się
argumentację, na podstawie której partie polityczne mają faworyzować środkowego wyborcę. Krytycy modelu Downsa wskazują, że w przypadku rozwiązywania tak złożonych i różnorodnych problemów, jakimi są problemy polityki gospodarczej, zwycięzca w znaczeniu Condorceta może wcale nie istnieć. Po drugie, model Downsa zakłada, że politycy dbają wyłącznie o pozyskanie głosów
wyborców. Co za tym idzie, są oni w stanie bez problemów dostosować się do
pokładanych w nich oczekiwań. Problem polega na tym, że pomija się w tym
miejscu fakt, iż politycy mogą mieć własne preferencje związane z kierunkiem
i sposobem wdrażanych rozwiązań. W takiej sytuacji będą oni mieli pokusę, aby
nie dotrzymywać przedwyborczych obietnic. W efekcie, choć zwycięstwo w wyborach może zależeć od utrafienia w gusta środkowego wyborcy, faktyczne reformy wcale nie muszą odpowiadać jego preferencjom (zob. m.in. Alesina
[1988, s. 796–806]). Po trzecie wreszcie, model Downsa jest krytykowany na
gruncie nowej ekonomii instytucjonalnej. To zaś z tego względu, iż abstrahuje
on zupełnie od otoczenia instytucjonalnego, w jakim są przeprowadzane wybory. Dotyczy to przede wszystkim nieuwzględnienia w rozważaniach takich kwestii, jak wielkość okręgów wyborczych, powszechność praw wyborczych czy też
różnic między głosowaniem proporcjonalnym a większościowym. To z kolei jest
sprzeczne z wieloma pracami empirycznymi, które wskazują na to, iż wymienione wyżej czynniki instytucjonalne mają istotne znaczenie dla wdrażanych polityk (zob. m.in. Besley, Coate [1997, s. 85–114]; Persson, Tabellini [2000]).
1.5. Nowa ekonomia polityczna
W odpowiedzi na powyższe zastrzeżenia, próby odmiennego spojrzenia na problem zależności między konkurencją polityczną a polityką gospodarczą podjęto
w ostatnim czasie w ramach nowej ekonomii politycznej. W porównaniu z podejściami omówionymi wyżej modele rozwijane w ramach tego nurtu znacznie dokładniej biorą pod uwagę wiele aspektów dotyczących otoczenia instytucjonalnego, w jakim są dokonywane wybory na styku gospodarki i polityki. Dzięki temu
rola konkurencji politycznej przy kształtowaniu polityki gospodarczej jest analizowana przy uwzględnieniu dodatkowych bodźców i motywacji występujących
zarówno po stronie polityków, jak i wyborców.
Za dobry przykład mogą tu posłużyć prace, które podnoszą problem zjednywania sobie elektoratu za pomocą przysłowiowej „kiełbasy wyborczej”. Nawiązując do zjawiska składania obietnic przedwyborczych, Lindbeck i Weibull [1987]
oraz Dixit i Londregan [1998] pokazali, iż – wbrew temu co twierdzili przedstawiciele szkoły z Chicago – większa konkurencja polityczna wcale nie musi sprzyjać większości społeczeństwa. To zaś dlatego, że w sytuacji, gdy preferencje wyborców rozkładają się mniej więcej równo między kandydujące partie, wynik
wyborów będzie zależał od ostatecznej decyzji podjętej przez wąską grupę wybor-
62
Jan Fałkowski
ców niezdecydowanych10. W efekcie próby pozyskania ich głosów mogą skutkować rozwiązaniami ukierunkowanymi na stosunkowo wąskie grupy interesu. Podobne wnioski płyną z pracy Lizzeriego i Persico [2005, s. 225–239], którzy wskazują, w jaki sposób rosnąca liczba partii politycznych (większa konkurencja
polityczna) zmniejsza liczbę zadeklarowanych zwolenników poszczególnych ugrupowań, czyniąc koniecznym zabieganie o głosy wyborców niezdecydowanych.
Nieco inne spojrzenie na znaczenie konkurencji politycznej proponują prace
podejmujące problem związany z „efektem wymiany” elit politycznych będących
u władzy. W ramach tego podejścia wskazuje się, iż wysokie prawdopodobieństwo utraty stanowisk (silna konkurencja polityczna) może prowadzić do zachowań całkowicie nieefektywnych z punktu widzenia dobra ogółu (zob. m.in. Persson i in. [1997]). Posiadanie niewielkich szans na pozostanie u władzy może bowiem skutkować chęcią wykorzystania piastowanego urzędu do pogoni za rentą
polityczną. Warto w tym miejscu podkreślić, że jest to stanowisko całkowicie odmienne od tego, które jest kojarzone ze szkołą z Chicago, gdzie konkurencja
polityczna była postrzegana jako narzędzie dyscyplinujące aktualnie sprawujących urząd do wdrażania efektywnych rozwiązań [Stigler 1972].
Na nieco inny mechanizm, choć również związany z „efektem wymiany”,
zwracają uwagę Acemoglu i Robinson [2006]. Autorzy ci wskazują, iż elity, których pozostanie u władzy jest zagrożone, mogą podjąć próby obrony status quo
przeciwdziałając wprowadzaniu innowacji technologicznych czy instytucjonalnych. To zaś może negatywnie odbić się na perspektywach rozwoju gospodarczego. Co ciekawe, wpływ konkurencji politycznej na zachowania polityków nie jest
tu monotoniczny. Próby blokowania innowacji (a w konsekwencji także rozwoju)
będą następować przy umiarkowanym poziomie konkurencji politycznej. Nie powinno to natomiast nastąpić przy bardzo niskim bądź bardzo wysokim jej poziomie. Intuicję stojącą za tym rozumowaniem można przedstawić następująco.
W przypadku niskiego poziomu konkurencji politycznej elity nie muszą się obawiać utraty władzy, co z kolei nie dostarcza im motywacji do przeciwdziałania
wprowadzaniu innowacji. Tym bardziej, że przyczyniając się do wyższego wzrostu
gospodarczego, innowacje powinny skutkować wyższymi korzyściami zarówno
dla ogółu społeczeństwa, jak i dla samych elit. W przypadku wysokiego poziomu
konkurencji politycznej natomiast próby powstrzymania innowacji i zablokowania wzrostu gospodarczego mogą bardzo łatwo obrócić się przeciw sprawującym
władzę, prowadząc do odwołania ich z urzędu podczas wyborów. W efekcie także
i przy tym scenariuszu elity nie mają motywacji do hamowania innowacji. Sytuacja wygląda inaczej w przypadku, gdy konkurencja polityczna osiąga umiarkowany poziom. To zaś z tego powodu, że w takiej sytuacji może zachodzić obawa,
iż innowacje zdestabilizują obowiązujący system ekonomiczny i polityczny.
Z punktu widzenia elit politycznych taki rozwój wypadków jest nie do zaakcep10 Przykładem tego typu rozstrzygnięć mogą być wybory prezydenckie w USA z 2000 r. czy
też wybory parlamentarne we Włoszech z 2006 r. Listę przykładowych wyborów, które rozstrzygnęły się bardzo niewielką liczbą głosów podaje m.in. http://en.wikipedia.org/wiki/List_of_
close_election_results
Konkurencja między partiami politycznymi a polityka gospodarcza
63
towania z dwóch przyczyn. Po pierwsze, ewentualna destabilizacja systemu ekonomicznego wpłynie na zmianę sposobu podziału rent politycznych i ekonomicznych. Po drugie, ewentualna destabilizacja systemu politycznego nie pozostanie
bez wpływu na szanse elit sprawujących władzę na wygraną w kolejnych wyborach. W konsekwencji motywowane oboma tymi czynnikami elity polityczne będą
dążyły do zachowania status quo, co jest równoznaczne z przeciwdziałaniem
wprowadzaniu innowacji11.
Na kolejny aspekt związany z wpływem konkurencji politycznej na politykę
gospodarczą zwracają uwagę Bardhan i Yang [2004]. Opierając się na modelu
Fernandez i Rodrika [1991, s. 1146–1155], dowodzą oni, iż konkurencja polityczna, poza pozytywnym wpływem na efektywność ekonomiczną, może prowadzić do ograniczenia zbioru potencjalnych rozwiązań wdrażanych przez elity
sprawujące urząd. Fakt ten tłumaczyć można dwojako. Po pierwsze, może on
wynikać z chęci skoncentrowania się przez rządzących na rozwiązaniach przynoszących krótkookresowe efekty (w ramach jednego cyklu wyborczego) i zaniechania realizacji rozwiązań długookresowych (gdzie koszty i korzyści konkretnych reform uwidaczniają się w dwóch różnych cyklach wyborczych). W ten
sposób bowiem rządzący zabezpieczają się przed sytuacją, w której mogą oni
zostać obciążeni przez wyborców kosztami wdrażanych reform, podczas gdy
korzyści z zaproponowanych przez nich rozwiązań dyskontować będzie desygnowana do władzy w tym czasie opozycja. Po drugie, ograniczenie zbioru możliwych do wprowadzenia reform może wynikać z niepewności, która towarzyszy
ostatecznemu podziałowi kosztów i korzyści wdrażanych rozwiązań między poszczególne grupy społeczne.
Za ilustrację może tu posłużyć następujący przykład liczbowy. Przyjmijmy, że
w wyniku planowanej przez rząd reformy 1/3 społeczeństwa zyska na pewno 30 zł
per capita. Jeśli chodzi o pozostałe 2/3 społeczeństwa, to z prawdopodobieństwami ½ może ono albo zyskać 15 zł albo stracić 30 zł per capita. Zwróćmy uwagę, iż
przy takim podziale korzyści reforma ta powinna być postrzegana jako korzystna
dla ogółu społeczeństwa. Netto rzecz biorąc, przyniesie ona bowiem każdemu
obywatelowi średnio 5 zł (1/3 # 30 zł + 1/3 # 15 zł – 1/3 # 30 zł = 5 zł). Co
równie ciekawe, wyraźna większość społeczeństwa (2/3) zyska na tej reformie. Co
ważne jednak, również dla 2/3 społeczeństwa proponowane rozwiązanie przyniesie negatywną wartość oczekiwaną (1/2 # 15 zł – 1/2 # 30 zł = –7,5 zł). Fakt, iż
nie ma wiarygodnego mechanizmu zapewniającego dystrybucję korzyści z reformy w kierunku poszkodowanych, powoduje, że 2/3 społeczeństwa będzie przeciwko wprowadzeniu jej w życie. Podobną postawę przyjmą politycy chcący utrzymać się u władzy po nadchodzących wyborach. W rezultacie reformy postrzegane
jako efektywne z ekonomicznego punktu widzenia mogą nie znaleźć odpowiedniego wsparcia politycznego. W obawie przed utratą władzy bowiem elity polityczne mogą nie chcieć podejmować ryzyka wdrażania rozwiązań, przy których
11 Nie
istnieje bowiem żaden mechanizm, który ex post zapewniałby rekompensaty dla elit,
których przywileje zostały nadwątlone w wyniku nowego podziału rent ekonomicznych i politycznych będącego pochodną wprowadzenia innowacji [Acemoglu 2003, s. 620–652].
64
Jan Fałkowski
ponad 50% społeczeństwa może (choć nie musi) znaleźć się wśród ewentualnych
poszkodowanych. Niski odsetek faktycznie poszkodowanych oraz fakt, że reforma może przynieść korzyści netto całemu społeczeństwu mogą nie odgrywać tu
specjalnej roli.
Modele powstałe w ramach nowej ekonomii politycznej, które przedstawiono
wyżej wyraźnie wskazują, że zjawisko konkurencji politycznej niekoniecznie musi
prowadzić do efektów, które byłyby pożądane przez większość społeczeństwa. Warto w tym miejscu jednak wspomnieć o pracy Besleya i in. [2010], którzy zauważają,
że konkurencja polityczna, jeśli osiągnie odpowiednio wysoki poziom, może sprzyjać wdrażaniu polityk ogólnie ocenianych jako „prowzrostowe”. Wniosek ten opiera się na założeniu, iż wyborcy niezdecydowani, których znaczenie dla wyniku wyborów jest kluczowe przy wysokim poziomie konkurencji politycznej, warunkują
oddanie swojego głosu na dane ugrupowanie kwestiami ekonomicznymi12. Co za
tym idzie, chęć sięgnięcia po władzę (lub pozostania przy niej) będzie motywowała
elity polityczne do wdrażania rozwiązań prowzrostowych. W tym sensie przewidywania z modelu Besleya i in. [2010] są zbieżne z wcześniej przywołanymi predykcjami szkoły z Chicago oraz modelem Acemoglu i Robinsona [2006, s. 115–131].
Jeszcze inną perspektywę wpływu konkurencji politycznej na politykę gospodarczą można kreślić na podstawie pracy Perssona i in. [2007]. Wykorzystując
model teoretyczny, autorzy ci wykazują, iż poziom wydatków rządowych będzie
wyższy w przypadku rządów koalicyjnych aniżeli rządów jednopartyjnych. Biorąc
pod uwagę fakt, że silna konkurencja polityczna powinna sprzyjać większej liczbie partii politycznych w parlamencie, a co za tym idzie większemu prawdopodobieństwu powołania rządu koalicyjnego, przywołany wniosek może wskazywać na
pozytywną zależność między konkurencją polityczną a poziomem wydatków rządowych.
Na koniec warto również wspomnieć o przywoływanej już wcześniej pracy
Mulligana i Tsui [2008]. Autorzy ci, opierając się na modelu monopolistycznej
konkurencji, spoglądają na problem konkurencji politycznej przez pryzmat barier
wejścia na rynek polityczny. Według nich decyzje dotyczące wysokości podatków,
poziomu wydatków rządowych czy regulacji gospodarczych nie są wypadkową
ustroju politycznego, a co za tym idzie poziomu konkurencji politycznej, lecz są
pochodną czynników demograficzno-ekonomicznych. W tym aspekcie pogląd ten
jest zbieżny z postulatami formułowanymi przez Beckera [1983], łączącego politykę gospodarczą z działalnością grup interesów. Podobny wniosek wypływa
z pracy Wintrobe’a [2000], który dowodzi, iż systemy demokratyczne (z relatywnie wysokim poziomem konkurencji politycznej) różnią się od systemów autorytarnych (brak konkurencji politycznej) nie tyle kierunkiem, co intensywnością
wdrażanych polityk. Co za tym idzie, w systemach autorytarnych będziemy mieli
do czynienia z tym samym kierunkiem redystrybucji co w systemach demokra12 Założeniu temu towarzyszy także inne, a mianowicie, że wyborcy kierujący się kwestiami
ideologicznymi nie będą w ostatecznym rozrachunku wyborcami niezdecydowanymi, lecz opowiedzą się po tej czy innej stronie politycznego sporu.
Konkurencja między partiami politycznymi a polityka gospodarcza
65
tycznych (od bogatych do biednych, od młodych do starych itd.) – tyle że wystąpi
ona z większym natężeniem.
2. Konkurencja polityczna w praktyce
Jak zauważono powyżej, wpływ konkurencji politycznej na politykę gospodarczą
może realizować się poprzez różne kanały. Co więcej, teoria ekonomii nie daje
jednoznacznej odpowiedzi na pytanie, czy wpływ ten będzie korzystny z punktu
widzenia ogółu społeczeństwa, czy też nie. W efekcie można się spodziewać, że
zależność między konkurencją polityczną a polityką gospodarczą będzie funkcją
specyficznych uwarunkowań, na które złożą się preferencje i struktura społeczeństwa oraz istniejące rozwiązania instytucjonalne, kształtujące zarówno same wybory (np. ograniczenia dotyczące finansowania kampanii, obowiązkowego lub
nieobowiązkowego udziału w głosowaniu), jak i poziom korzyści związanych ze
sprawowaniem urzędu [Acemoglu, Robinson 2006]. Ciekawe wydaje się zatem,
które z przedstawionych wcześniej hipotez znajdują potwierdzenie w rzeczywistości. W związku z tym w tej części artykułu dokonano krótkiego przeglądu empirycznych prac podejmujących tematykę konkurencji politycznej i polityki gospodarczej. Rozpoczyna się on zwięzłym opisem miar wykorzystywanych do analizy
zjawiska konkurencji politycznej oraz zwróceniem uwagi na podstawowy problem, na jaki napotykamy w literaturze empirycznej badającej wpływ konkurencji
politycznej na politykę gospodarczą.
2.1. Miary konkurencji politycznej
Podobnie jak w literaturze teoretycznej istnieje wiele definicji opisujących pojęcie
konkurencji politycznej, tak również literatura empiryczna posługuje się co najmniej
kilkoma różnymi zmiennymi, które starają się przybliżyć to zjawisko. Stosunkowo
najprostszą i zarazem najłatwiej dostępną jest liczba partii politycznych reprezentowanych w parlamencie lub też na scenie politycznej (zob. m.in. Milesi-Ferreti i in. [2002]). Najczęściej wykorzystuje się jednak miary oparte na udziale
głosów lub miejsc w parlamencie, które poszczególne partie uzyskały w czasie ostatnich wyborów. Jedną z nich jest miara koncentracji rynku politycznego oparta na
indeksie Herfindahla, przyjmującym wartości od 0 do 1 i będącym sumą kwadratów
udziałów poszczególnych partii gdy chodzi o rozkład miejsc w parlamencie [Skilling,
Zeckhauser 2003; Persson i in. 2007]13. Alternatywą dla tego podejścia są wszelkie
13 Najczęściej
stosuje się zmienną = (1 – indeks Herfindahla), która rośnie wraz z poziomem konkurencji politycznej [Skilling, Zeckhauser 2002; Persson i in. 2007]. Zmienna ta
dostępna jest m.in. w zbiorze danych Banku Światowego „Database on Political Institutions”
[Keefer 2007]. Nieco inną miarę opartą na podziale miejsc w parlamencie stosują Besley i in.
[2010]. Analizując kwestie związane z konkurencją polityczną w amerykańskim systemie dwu-
66
Jan Fałkowski
indeksy oparte na informacjach opisujących polityczne otoczenie instytucjonalne
w konkretnych krajach. Jedną z baz danych, która gromadzi tego typu informacje
jest baza powstała w ramach projektu „PolityIV” [Marschall, Jaggers 2005]. Wśród
wielu informacji na temat ustroju politycznego w danym państwie zawiera ona również zmienną opisującą poziom konkurencji politycznej. Zmienna ta uwzględnia
m.in. charakterystykę procesu wyłaniania reprezentacji politycznej społeczeństwa,
jak również stopień otwartości rynku politycznego na nowo powstające inicjatywy
partyjne. Przyjmuje ona wartości od 1 do 10, przy czym wyższe wartości odpowiadają wyższemu poziomowi konkurencji politycznej. Podobną zmienną, tyle że koncentrującą się na konkurencji towarzyszącej wyborowi prezydenta, oferuje również baza
danych Banku Światowego „Database on Political Institutions” [Keefer 2007].
2.2. Podstawowe trudności w analizie empirycznej
Empiryczna analiza powiązań konkurencji politycznej z polityką gospodarczą napotyka dwie podstawowe trudności. Po pierwsze, polityka gospodarcza może być
kształtowana z zamiarem wpływania na poziom konkurencji (a zatem między
tymi zjawiskami może zachodzić relacja zwrotna). Po drugie, zarówno poziom
konkurencji politycznej, jak i decyzje odnośnie do polityki gospodarczej mogą
być jednocześnie determinowane przez czynniki, których nie jesteśmy w stanie
zaobserwować. Innymi słowy, w modelach empirycznych zmienne obrazujące poziom konkurencji politycznej wcale nie muszą być egzogeniczne. Fakt ten niesie
za sobą poważne implikacje natury metodologicznej. Dzieje się tak z tej przyczyny, że w przypadku występowania problemu endogeniczności standardowe metody ekonometryczne wykorzystywane w analizie danych przekrojowych (choćby
metoda najmniejszych kwadratów) mogą prowadzić do uzyskania obciążonych
wyników, a co za tym idzie do wyciągnięcia mylnych wniosków14. W konsekwencji badanie dotyczące wpływu konkurencji politycznej na politykę gospodarczą
powinno się opierać albo na danych panelowych, albo też na modelach wykorzystujących zmienne instrumentalne. Pierwsze z tych rozwiązań umożliwia szacowanie modeli z tzw. efektami stałymi, co pozwala na kontrolowanie czynników
nieobserwowalnych, które nie są zmienne w czasie [Wooldridge 2002]15. Drugie
natomiast opiera się na dwuetapowej estymacji wykorzystującej zmienną instrumentalną, która wpływa na endogeniczną zmienną objaśniającą, ale nie ma bezpośredniego wpływu na zmienną objaśnianą [Angrist, Krueger 2001, s. 69–85].
partyjnym, wykorzystują oni miarę równą (–|d – 1/2|), gdzie d oznacza odsetek miejsc w parlamencie zdobytych przez demokratów. Więcej na temat indeksów konkurencji politycznej można
znaleźć m.in. w: Grofman, Selb [2009, s. 291–296].
14 Omawianie tego problemu w sposób bardziej szczegółowy wykracza poza ramy tego artykułu. Więcej na ten temat można znaleźć np. w: Wooldridge [2002].
15 Warto w tym miejscu jednak zaznaczyć, że uwzględnienie w analizie „efektów stałych”
nie zawsze pozwoli rozwiązać problem endogeniczności. Problemem mogą bowiem pozostać
czynniki nieobserwowalne, które są zmienne w czasie [Wooldridge 2002].
Konkurencja między partiami politycznymi a polityka gospodarcza
67
Zastosowanie każdego z tych rozwiązań warunkowane jest dostępem do odpowiednich danych (w pierwszym przypadku danych panelowych, w drugim wypadku danych uwzględniających informacje, które mogą posłużyć jako „instrument”),
co w analizach dotyczących politycznego otoczenia instytucjonalnego stanowi relatywnie duże wyzwanie. Niemniej jednak można mieć nadzieję, że wraz z postępem, jaki dokonał się w kwestii gromadzenia danych ukierunkowanych na analizę zjawisk na styku polityki i gospodarki, problemy z tym związane uda się rozwiązać [Marschall, Jaggers 2005; Keefer 2007].
2.3. Wyniki empiryczne
W porównaniu z liczbą teorii ekonomicznych tłumaczących znaczenie konkurencji politycznej dla decyzji kształtujących politykę gospodarczą liczba empirycznych badań z tego zakresu jest stosunkowo niewielka. Wynika to w głównej mierze z przyczyn związanych z niedoskonałością miar konkurencji politycznej
[Grofman, Selb 2009] oraz dostępnością danych, o których była mowa powyżej.
Mimo to powstało kilka prac, których wyniki warto w tym miejscu przytoczyć.
Z jednej strony bowiem pozwalają one na przynajmniej cząstkową weryfikację
istniejących teorii. Z drugiej strony natomiast można je traktować jako impuls do
dalszych poszukiwań empirycznych.
Na uwagę zasługuje bez wątpienia praca Besleya i in. [2010]. Opierając się na
danych dla Stanów Zjednoczonych, autorzy wykazali, że wysoki poziom konkurencji politycznej jest powiązany z rozwiązaniami gospodarczymi powszechnie
postrzeganymi jako prowzrostowe. Przeprowadzona przez nich analiza ekonometryczna pozwala twierdzić, iż stany o niższym poziomie konkurencji politycznej
charakteryzują się m.in. niższym udziałem wydatków inwestycyjnych w wydatkach
rządowych ogółem oraz wyższym udziałem podatków w dochodach państwa. Dodatkowo, autorzy wskazują na pozytywną bezpośrednią zależność między poziomem konkurencji politycznej a samym wzrostem gospodarczym. W ten sposób
wyniki te potwierdzają i rozszerzają rezultaty wcześniejszych badań prowadzonych przez Besleya i Case [2003], które również wskazywały na pozytywny wpływ
konkurencji politycznej na efektywność ekonomiczną działań podejmowanych
przez sprawujących władzę.
Ciekawe wyniki płyną również z badań Skillinga i Zeckhausera [2002], którzy
analizowali znaczenie konkurencji politycznej w państwach OECD. Według ich
badań w krajach tych wyższy poziom konkurencji politycznej prowadzi do większej dyscypliny fiskalnej i niższego długu publicznego. To zaś ponownie wspiera
hipotezę, iż konkurencja polityczna wymusza na politykach zachowania racjonalne z punktu widzenia ogółu społeczeństwa16. Do podobnych wniosków skłaniają
16 Do jednoznacznego zweryfikowania tej hipotezy potrzebne by były szczegółowe badania
na temat struktury długu publicznego i polityki fiskalnej państwa przy uwzględnieniu aspektów
analizy międzyokresowej i międzypokoleniowej.
68
Jan Fałkowski
wyniki uzyskane przez Rodrika [1999]. Badania przeprowadzone na próbie krajów z całego świata wskazują na pozytywną zależność między poziomem konkurencji politycznej a ustawodawstwem rynku pracy korzystnym dla pracowników,
skutkującym wyższym poziomem płac. Co równie ważne, praca ta zdaje się także
wskazywać na to, iż znaczenie konkurencji politycznej może dominować nad znaczeniem innych czynników instytucjonalnych, w tym zasad rządów prawa czy też
wolności obywatelskich.
Ciekawy nurt badań wśród prac analizujących powiązania między konkurencją polityczną a polityką gospodarczą stanowią badania dotyczące poziomu protekcjonizmu handlowego. Za przykład mogą tu posłużyć prace Gawande i Hoekmana [2010] oraz Batesa i Blocka [2010], które analizują poziom wsparcia kierowanego do sektora rolnego. Gawande i Hoekman, po przebadaniu próby
obejmującej różne kraje z całego świata, wskazują, że protekcjonizm handlowy
w tym sektorze jest pozytywnie skorelowany ze stopniem konkurencji między
kandydatami ubiegającymi się o urząd prezydencki. Jeśli chodzi natomiast
o wpływ konkurencji między partiami politycznymi, to jest on niejednoznaczny.
Niższy poziom konkurencji sprzyja subsydiowaniu eksportu, ale zmniejsza bariery handlowe dla produktów z importu. Bates i Block natomiast, koncentrując się
na krajach Afryki subsaharyjskiej, nie znajdują potwierdzenia dla ogólnej zależności między konkurencją polityczną wśród kandydatów na urząd prezydenta
a poziomem protekcjonizmu handlowego w sektorze rolnym. Zależność ta występuje jednak w krajach z dużą populacją wiejską. Posiłkując się teorią grup interesu Olsona, autorzy tłumaczą ten wynik tym, iż w sytuacji, gdy wiejska populacja
stanowi większość społeczeństwa, wysoki poziom konkurencji politycznej pozwala zrównoważyć nieefektywność dużych grup społecznych, gdy chodzi o ich ewentualne działania lobbingowe.
W kontekście prac analizujących poziom wsparcia kierowanego do konkretnych sektorów warto na koniec także wspomnieć o wynikach uzyskanych przez
Milesi-Ferretiego i in. [2002]. Sugerują one bowiem pozytywną, choć nieistotną
statystycznie zależność między liczbą partii politycznych a udziałem transferów
w wydatkach rządowych ogółem. Tym samym mogą one posłużyć do sformułowania ogólnej hipotezy o pozytywnym wpływie konkurencji politycznej na poziom
protekcjonizmu handlowego.
Uwagi końcowe
Artykuł zawiera przegląd podstawowych założeń i ustaleń teorii ekonomii dotyczących analizy konkurencji politycznej i jej znaczenia dla decyzji kształtujących
politykę gospodarczą. Podsumowaniem był krótki przegląd empirycznych badań
z tej dziedziny.
Na pierwszy rzut oka mogłoby się wydawać, że problematyka związana z polityczną konkurencją powinna raczej stanowić domenę innych nauk niż ekono-
Konkurencja między partiami politycznymi a polityka gospodarcza
69
mii. Nie ulega jednak wątpliwości, że uczynienie jej obiektem zainteresowań
ekonomistów może w istotnym stopniu pomóc w odpowiedzi na wiele pytań dotyczących kierunku i tempa wdrażania konkretnych rozwiązań gospodarczych.
Dowodem na to jest wiele teorii, które tłumaczą, w jaki sposób posunięcia gospodarcze sprawujących władzę mogą zależeć od prawdopodobieństwa wygranej
w wyborach, stopnia kontroli, jaką nad elitami politycznymi sprawuje społeczeństwo, czy też wysokości i łatwości pozyskania renty politycznej. Biorąc pod uwagę fakt, iż w porównaniu z literaturą teoretyczną literatura empiryczna z tej
dziedziny jest wciąż stosunkowo uboga, wydaje się, że tematyka ta może stanowić niezwykle ciekawy, a przy tym obiecujący kierunek badań ekonomistów.
Tekst wpłynął 21 grudnia 2010 r.
Bibliografia
Angrist J.D., Krueger A.B., Instrumental Variables and the Search for Identification: From
Supply and Demand to Natural Experiments, „Journal of Economic Perspectives”
2001, nr 15(4).
Acemoglu D., Introduction to Modern Economic Growth, Princeton University Press, 2008.
Acemoglu D., Johnson S., Robinson J.A., Yared P., Income and Democracy, „American
Economic Review” 2008, t. 98.
Acemoglu D., Robinson J., Economic Backwardness in Political Perspective, „American
Political Science Review” 2006, nr 100(1).
Acemoglu D., Why Not a Political Coase Theorem? „Journal of Comparative Economics”
2003, nr 31(4).
Aidt T.S., Redistribution and Deadweight Cost: the Role of Political Competition, „European
Journal of Political Economy” 2003, t. 19.
Alesina A., Credibility and Policy Convergence in a Two-Party System with Rational Voters,
„American Economic Review” 1988, nr 78(4).
Alesina A., Spear S.E., An Overlapping Generations Model of Electoral Competition,
„Journal of Public Economics” 1988, t. 37.
Bardhan P., Yang T.T., Political Competition in Economic Perspective, „BREAD Working
Paper” 2004, nr 078.
Barro R.J., Democracy and Growth, „Journal of Economic Growth” 1996, nr 1(1).
Bates R.H., Block S., Political Economy of Agricultural Trade Interventions in Africa,
w: The Political Economy of Distortions to Agriculture, red. K. Anderson, World Bank,
Washington 2010 (w druku).
Becker G.S., A Theory of Competition Among Pressure Groups for Political Influence,
„Quarterly Journal of Economics” 1983, nr 98.
Becker G.S., Competition and Democracy, „Journal of Law and Economics” 1958, nr 1.
Besley T., Case A., Political Institutions and Policy Choices: Evidence from the United
States, „Journal of Economic Literature” 2003 nr 41(1).
Besley T., Coate S., An Economic Model of Representative Democracy, „Quarterly Journal
of Economics” 1997, nr 108(1).
Besley T., Kudamatsu M., Making Autocracy Work, w: Institutions and Economic
Performance, red. E. Helpman, Harvard University Press, Cambridge, Mass., 2008.
70
Jan Fałkowski
Besley T., Persson T., Sturm D.M., Political Competition, Policy and Growth: Theory and
Evidence from the United States, „Review of Economic Studies” 2010, nr 77(4).
Black D., The Theory of Committees and Elections, Dordrecht and Lancaster: Kluwer
Academic, Norwell, Mass., 1987.
Carrillo J.D., Mariotti T., Electoral Competition and Political Turnover, „European
Economic Review” 2001, nr 45.
Dixit A., Londregan J., Ideology, Tactics, and Efficiency in Redistributive Politics, „Quarterly
Journal of Economics” 1998, nr 113(2).
Downs A., An Economic Theory of Democracy, Harper Collins 1957.
Fernandez R., Rodrik D., Resistance to Reform: Status Quo Bias and the Presence of
Individual Specific Uncertainty, „American Economic Review” 1991, t. 81.
Gawande K., Hoekman B., Why Governments Tax or Subsidize Trade: Evidence From
Agriculture, w: The Political Economy of Distortions to Agriculture, red. K. Anderson,
World Bank, Washington 2010.
Grofman B., Selb P., A Fully General Index of Political Competition, „Electoral Studies”
2009, nr 28.
Harrington J.E. Jr., The Role of Party Reputation in the Formation of Policy, „Journal of
Public Economics” 1992, t. 49.
Hockuba Z., Nowa ekonomia instytucjonalna – czy zdominuje nasze myślenie w rozpoczynającym sie stuleciu? w: Czy ekonomia nadąża z wyjaśnianiem rzeczywistości, red.
A. Wojtyna, PTE, Warszawa 2001.
Jackson M.O., Moselle B., Coalition and Party Formation in a Legislative Voting Game,
„Journal of Economic Theory” 2002, t. 103.
Jakubowski M., Teoria wyboru społecznego, w: Teoria wyboru publicznego, red. J. Wilkin,
Scholar, Warszawa 2005.
Keefer P., DPI2006 Database of Political Institutions: Changes and Variable Definitions,
Development Research Group, World Bank, Washington 2007.
Levy G., A Model of Political Parties, „Journal of Economic Theory” 2004, t. 115.
Lindbeck A., Weibull J., Balanced-Budget Redistribution as the Outcome of Political
Competition, „Public Choice” 1987, nr 52.
Lipset S.M., Some Social Requisites of Democracy: Economic Development and Political
Legitimacy, „American Political Science Review” 1959, t. 53.
Lizzeri A., Persico N., The Provision of Public Goods under Alternative Electoral Incentives,
„American Economic Review” 2001, t. 91.
Makris M., Endogenous Political Competition and Political Accountability, „Economics
Letters” 2009, t. 104.
Marshall M.G., Jaggers K., POLITY IV Project: Political Regime Characteristics and
Transitions, 1800–2004, Center for Global Policy, George Mason University
2005.
Merlo A., Whither Political Economy? Theories, Facts, and Issues, „PIER Working Paper”
2005, nr 05–033.
Milesi-Ferretti G.M., Perotti R., Rostagno M., Electoral Systems and Public Spending,
„Quarterly Journal of Economics” 2002, nr 117(2).
Moore B., Social Origins of Dictatorship and Democracy, Beacon Press, Boston 1966.
Morelli M., Party Formation and Policy Outcomes under Different Electoral Systems,
„Review of Economic Studies” 2004, t. 71.
Mulligan C.B., Gil R., Sala-i-Martin X., Do Democracies Have Different Public Policies
than Non-democracies?, „Journal of Economic Perspective” 2004, nr 18(1).
Konkurencja między partiami politycznymi a polityka gospodarcza
71
Mulligan C.B., Tsui K.K., Political Entry, Public Policies and the Economy, „NBER
Working Paper” 2008, nr 13830.
North D., Institutions, Institutional Change, and Economic Performance, Cambridge
University Press, New York 1990.
Papaioannou E., Siourounis G., Democratization and Growth, „The Economic Journal”
2008, t. 118.
Peltzman S., Economic Conditions and Gubernatorial Elections, „American Economic
Review” 1987, nr 77(2).
Persson T., Roland G., Tabellini G., Electoral Rules and Government Spending in
Parliamentary Democracies, „Quarterly Journal of Political Science” 2007, nr 2(2).
Persson T., Roland G., Tabellini G., Separation of Powers and Political Accountability,
„Quarterly Journal of Economics” 1997, nr 112(4).
Persson T., Tabellini G., Political Economics – Explaining Economic Policy, MIT Press,
Cambridge, Mass., 2000.
Persson T., Tabellini G., The Economic Effects of Constitutions, MIT Press, Cambridge
Mass., 2003.
Persson T., Tabellini G., The Growth Effect of Democracy: Is It Heterogeneous and How
Can It be Estimated? w: Institutions and Economic Performance, red. E. Helpman,
Harvard University Press, Cambridge 2008.
Polo M., Electoral Competition and Political Rents, Mimeo, IGIER, Bocconi University,
„Working Papers” 1998, nr 144.
Przeworski A., Alvarez M., Cheibub J., Limongi F., Democracy and Development: Political
Institutions and Well-Being in the World 1950–1900, Cambridge University Press 2000.
Przeworski A., Limongi F., Political Regimes and Economic Growth, „Journal of Economic
Perspectives” 1993, nr 7.
Rodrik D., Democracies Pay Higher Wages, „Quarterly Journal of Economics” 1999,
nr 114(3).
Rodrik D., Wacziarg R., Do Democratic Transitions Produce Bad Economic Outcomes?
„American Economic Review” 2005, nr 95(2).
Roemer J.E., Political Competition: Theory and Applications, Harvard University Press,
Cambridge, Mass., 2001.
Shepsle K., Weingast B., Structure Induced Equilibrium and Legislative Choice, „Public
Choice” 1981, nr 37.
Skilling D., Zeckhauser R.J., Political Competition and Debt Trajectories in Japan and the OECD,
„Japan and the World Economy” 2002, t. 14.
Stigler G.J., Economic Competition and Political Competition, „Public Choice” 1972, nr 13.
Svensson J., Controlling Spending: Electoral Competition, Polarization, and Primary
Elections, Mimeo, The World Bank, Washington 1998.
Wilkin J., Ewolucja ekonomii politycznej i jej miejsce we współczesnej myśli ekonomicznej,
w: Czym jest ekonomia polityczna dzisiaj? red. J. Wilkin, Wydawnictwa Uniwersytetu
Warszawskiego, Warszawa 2004.
Wintrobe R., The Political Economy of Dictatorship, Cambridge University Press, Cambridge,
Mass., 2000.
Wittman D., Why Democracies Produce Efficient Results, „Journal of Political Economy”
1989, nr 97(6).
Wooldridge J.M., Econometric Analysis of Cross Section and Panel Data, MIT Press,
Cambridge, Mass., 2002.
http://en.wikipedia.org/wiki/List_of_close_election_results (dostęp 5.10.2010).
72
Jan Fałkowski
Competition Between Political Parties
and Economic Policy
Summary
The paper is an attempt to reconstruct and systemise the views of economists on the
relationships between the intensity of competition between political parties and economic
policy performed by the government. In the first part, in the context of concepts and
findings of new institutional economics and new political economy, the author describes
the reasons why political competition has become subject of interest for economists.
The next part presents the most significant economic theories that explain the links
between economic decisions taken by the government and various aspects of political
competion. The discussion includes i.a. the model of median voter, questions related to
political rent-seeking, and social control over political elites. The last part of the paper
gives a brief review of empirical analyses related to the topic.
Key words: political competition 1 economic competition 1 economic policy
Конкуренция между политическими партиями
и экономическая политика
Резюме
В статье делается попытка собрать и систематизировать взгляды экономистов на зависимость между уровнем конкуренции между политическими партиями и экономической
политикой, В первой части, обращаясь к достижениям новой институциональной экономики, а также новой политэкономии, рассматриваются причины, по которым экономисты
заинтересовались политической конкуренцией. В дальнейшей части сделана презентация
наиболее влиятельных экономических теорий, объясняющих взаимосвязь между экономическими решениями властей и разными аспектами политической конкуренции. Автор
обращается, в частности, к модели среднего избирателя, к вопросам связанных с погоней
за политической рентой, а также общественного контроля за политическими элитами.
Статью заканчивает краткий обзор эмпирических работ, посвященных этой проблематике.
Ключевые слова: политическая конкуренция 1 экономическая конкуренция 1 эконо
мическая политика
M
I
S
C
E
L
L
A
N
E
A
ANDRZEJ GRZEBIENIAK*
Reasekuracja w ubezpieczeniach na życie w Polsce
w latach 1991–2009
Wstęp
Celem niniejszego artykułu jest próba oceny roli reasekuracji w ubezpieczeniach na życie
na rynku polskim w latach 1991–2009 oraz wskazanie zauważalnych trendów
i odmienności reasekuracji w okresie ostatnich dwóch dekadach istnienia wolnej gospodarki rynkowej. W artykule przyjęto hipotezę, iż reasekuracja zakładów ubezpieczeń na
życie w Polsce stanowi niewielki element kontroli ryzyka związanego z ich działalnością.
Jako metodę badawczą zastosowano analizę wybranych wskaźników funkcjonowania
sektora ubezpieczeniowego.
1. Funkcje i cechy reasekuracji ubezpieczeń na życie
Główną funkcją reasekuracji ubezpieczeń na życie jest zmniejszenie fluktuacji wyników
ubezpieczyciela w związku z posiadanym portfelem ubezpieczeń życiowych oraz zapewnienie stabilizacji jego wyników finansowych netto w dłuższym okresie [Gerathewohl
1982, s. 480]. Ta funkcja reasekuracji pokrywa się z jedną z najważniejszych zasad prowadzenia działalności gospodarczej, polegającą na unikaniu dużych zmian w uzyskiwanych
wynikach finansowych [Gastel 2004, s. 3]. Finansowa ocena zakładów ubezpieczeń na
życie skupia się na dwóch kwestiach: wypłacalności i kondycji finansowej [Williams,
Smith, Young 2002, s. 429], które muszą być rozpatrywane w dłuższym okresie ze względu na długotrwały charakter polis na życie.
Kolejne funkcje reasekuracji ubezpieczeń na życie to dostosowanie skali i zakresu
działalności ubezpieczeniowej zakładu ubezpieczeń do jego potencjału finansowego,
m.in. poprzez częściowe finansowanie przez reasekuratora kosztów początkowych nowo
zawieranych ubezpieczeń (szczególnie w fazie rozwijania działalności ubezpieczeniowej
oraz w przypadku szybko rozwijającej się sprzedaży usług), umożliwienie zakładowi
ubezpieczeń przyjmowania dużych ryzyk – czyli sum ubezpieczenia przekraczających wysokość udziału własnego – przez reasekurowanie nadwyżki, zapewnienie wymagań dotyczących wypłacalności w przypadku braku wystarczających kapitałów własnych w stosunku do przyjętych zobowiązań z tytułu posiadanego portfela ubezpieczeń.
* Dr Andrzej Grzebieniak
[email protected]
– Uniwersytet Warmińsko-Mazurski w Olsztynie, e-mail: andrzej.grzebie-
74
Miscellanea
Spośród cech charakterystycznych reasekuracji ubezpieczeń na życie należy wskazać przede wszystkim na ich długoterminowość z uwagi na długi okres trwania umów
ubezpieczeniowych [Olearczuk 1996, s. 189]. Ponadto warunki ogólne oraz wysokość
składek ubezpieczeniowych w ubezpieczeniach na życie są ustalane zazwyczaj z góry na
cały okres obowiązywania umowy ubezpieczenia i nie podlegają one rewizji, dlatego
też podobne zasady obowiązują w umowach reasekuracyjnych. Umowy ubezpieczeń na
życie są zawierane zwykle na stałe sumy, nie występują też częściowe wypłaty, gdyż
szkody są zawsze całkowite. To zaś razem sprawia, że możliwa do zastosowania jest
reasekuracja nieproporcjonalna, w której przedmiotem jest szkoda lub szkodowość
(a nie podział ryzyka, jak w reasekuracji proporcjonalnej). Reasekuracja nieproporcjonalna obejmować może na przykład ubezpieczenia rentowe, w formie tzw. renty życiowej, gdzie nieznany jest dokładny okres jej wypłacania. Rentą w ubezpieczeniach nazywa się ciąg kwot wypłacanych ubezpieczonemu w stałych okresach (np. co miesiąc,
co kwartał lub nawet co rok) przez pewien przedział czasu, w związku z zajściem zdefiniowanego wypadku ubezpieczeniowego. Warunkiem otrzymania renty jest wcześniejsze wnoszenie regularnych wpłat w postaci składek ubezpieczeniowych w okresie ubezpieczenia [Stroiński 2003, s. 201]. W ubezpieczeniach na życie z funduszem kapitałowym (grupa 3 działu ubezpieczeń na życie) [Ustawa 2003, załącznik] gdzie składka za
ubezpieczenie składa się z trzech wyraźnie od siebie oddzielonych części (składka na
opłacenie kosztów administracyjnych, składka na opłacenie ryzyka ubezpieczeniowego,
składka oszczędnościowa) – wartość polisy ubezpieczeniowej rośnie wraz z upływem
okresu ubezpieczenia, gdyż rośnie wartość składki oszczędnościowej (która tworzy tzw.
rezerwę matematyczną). Reasekuracji nie wymaga suma ubezpieczenia, a jedynie wielkość ryzyka, będąca różnicą między sumą ubezpieczenia a wielkością rezerwy matematycznej dla danej polisy. W reasekuracji ubezpieczeń na życie ustala się między cedentem (zakładem ubezpieczeń) a reasekuratorem, w czyjej gestii leży obowiązek przechowywania depozytów stanowiących pokrycie rezerw techniczno-ubezpieczeniowych oraz
zasady udziału stron kontraktu w przychodach z inwestowania tych środków kapitałowych. Cechą charakterystyczną reasekuracji ubezpieczeń na życie jest też brak najczęściej występowania pośrednictwa brokerów reasekuracyjnych, gdyż reasekuratorzy sami
nawiązują kontakty z ubezpieczycielami za pośrednictwem swoich komórek marketingowych. Wynika to też częściowo ze standaryzowanych sum ubezpieczenia polis życiowych, które są stosunkowo niewysokie i mało zróżnicowane w porównaniu z ubezpieczeniami majątkowymi. Zakłady ubezpieczeń reasekurują całość swych cesji u jednego
reasekuratora, z którym współpracują przez wiele lat, bądź u kilku reasekuratorów,
z których jeden odgrywa rolę lidera reasekuracji, a współpraca z nim ma zazwyczaj
trwały charakter.
2. Reasekuracja bierna
Reasekuracja bierna polega na odstępowaniu ryzyk (pełnych lub częściowych) innym
zakładom ubezpieczeń lub zawodowym reasekuratorom. Reasekuracja czynna to przyjmowanie ryzyk od zakładów ubezpieczeń. Jej wartość w Polsce 1992–2005 kształtowała
się w granicach 1,0–1,9% składki brutto ubezpieczycieli ogółem [Ciuman 2007, s. 87],
a w latach 2002–2009 na poziomie średnim około 1,2% składki brutto ubezpieczycieli
działu I (do 2001 r. reasekuracja czynna nie była prowadzona w tym dziale).
Reasekuracja bierna ubezpieczeń na życie na polskim rynku ubezpieczeniowym jest
stosowana w bardzo ograniczonym zakresie. W latach 1991–2000 średnio około 0,8%
75
Miscellanea
składki przypisanej brutto z ubezpieczeń na życie zakłady przekazały reasekuratorom
[Przegląd Dziesięciolecia 2000, s. 67]. W latach 1991 i 1992 wskaźnik retencji składek
w ubezpieczeniach na życie osiągnął poziom 100%, czyli zakłady ubezpieczeń w tym
czasie w ogóle nie stosowały reasekuracji biernej. W pierwszej dekadzie działalności
zakładów ubezpieczeniowych na wolnym rynku ubezpieczeń w Polsce (lata 1990–1999)
wskaźnik retencji osiągnął najniższą wartość w 1999 r. – 97,7%, a więc był niewiele
niższy od wartości maksymalnej. W drugiej dekadzie, czyli w latach 2000–2009, najwyższa wartość wskaźnika retencji wystąpiła w 2006 r. – 99,0%, najniższa zaś w 2009 r. –
96,5%.
Kształtowanie się wskaźnika retencji w poszczególnych latach dwóch ostatnich dekad przedstawiają rysunki 1 i 2. Można stwierdzić, iż reasekuracja bierna w dziale
ubezpieczeń na życie ma niewielki wpływ na wyniki sektora ubezpieczeń. Podobnie
jest też w przypadku reasekuracji czynnej. W przeszłości reasekuracja ubezpieczeń na
życie odgrywała znacznie większą rolę. Wynikało to zarówno z potrzeb finansowych
(konieczność spełniania wymogów kapitałowych narzucanych przez organy nadzoru w sytuacji, gdy zakłady ubezpieczeń nie posiadały wystarczających kapitałów własnych, szczególnie w chwili rozpoczynania działalności na danym rynku lub w danym
rodzaju ubezpieczeń), jak i potrzeb informacji typu know-how, które szczególnie w zakresie statystyki ubezpieczeniowej były w znacznie szerszym stopniu w posiadaniu reasekuratorów. Innym powodem było wykorzystywanie reasekuracji do wprowadzania
nowych produktów na rynek, wchodzenia na wybrany segment rynku lub nawet przejmowania jego części lub całości. Obecnie zakłady ubezpieczeń na życie korzystają
z reasekuracji głównie w przypadku potrzeby zabezpieczenia się przed nadzwyczajną
kumulacją ryzyk lub w celu wyrównania ryzyk w portfelu.
Ry s u n e k 1
Wskaźnik retencji (zatrzymania) składek zakładów ubezpieczeń na życie (dział I)
w latach 1991–1999
Wskaźnik (%)
100
99
98
97
1991
1992
1993
1994
1995
1996
1997
1998
1999
2000
Źródło: Opracowanie własne na podstawie: Przegląd Dziesięciolecia... [2000, s. 94].
Porównując wartość wskaźnika retencji składek zakładów ubezpieczeń na życie
w Polsce, która w latach 2000–2009 wyniosła średnio 97,9%, do kształtowania się tego
wskaźnika w krajach Unii Europejskiej i OECD, gdzie jego wartość kształtowała się na
średnim poziomie odpowiednio 92,7% i 90,8% [Micyk 2010, s. 30], można stwierdzić, że
w Polsce wskaźnik ten jest stosunkowo wysoki. Jednocześnie w takich krajach, jak
76
Miscellanea
Ry s u n e k 2
Wskaźnik retencji (zatrzymania) składek zakładów ubezpieczeń na życie (dział I)
w latach 2000–2009
100,0
Wskaźnik (%)
99,5
99,0
98,5
98,0
97,5
97,0
96,5
96,0
2000
2001
2002
2003
2004
2005
2006
2007
2008
2009
Źródło: Opracowanie własne na podstawie danych KNF [http://www.knf.gov.pl].
Szwajcaria czy Niemcy, czyli w krajach o najdłuższych doświadczeniach ubezpieczeniowych i reasekuracyjnych, wskaźnik retencji osiąga podobny poziom jak w Polsce, więc
można stwierdzić, iż w Polsce utrzymuje się on na poziomie charakterystycznym dla krajów najbardziej rozwiniętych. Wynika to prawdopodobnie z dość dużej własnej bazy kapitałowej ubezpieczycieli działających na rynku polskim oraz z rodzaju oferowanych
produktów ubezpieczeniowych. Na przykład produkty ubezpieczeniowe powiązane
z inwestowaniem w walutach obcych i oferowane przez ubezpieczycieli z przeważającym
kapitałem krajowym są z reguły reasekurowane w większym stopniu w związku z dużym
ryzykiem kursowym.
Na rysunku 3 został przedstawiony procent składki zatrzymanej według grup ustawowych działu I zakładów ubezpieczeń na życie w latach 2000–2009 (KNF nie udostępnia
Ry s u n e k 3
Wskaźnik składki zatrzymanej według grup ustawowych (działu I)
zakładów ubezpieczeń na życie w latach 2000–2009
100,0
Wskaźnik (%)
95,0
grupa 1
90,0
grupa 2
85,0
grupa 3
grupa 4
80,0
grupa 5
75,0
70,0
2000
2001
2002
2003
2004
2005
2006
2007
2008
Źródło: Opracowanie własne na podstawie danych KNF [http://www.knf.gov.pl].
2009
77
Miscellanea
niestety podobnych danych za lata 1991–1999). Jak wynika z rysunku, reasekuracji podlegała w największym stopniu grupa 4 ubezpieczeń, czyli ubezpieczenia rentowe. W grupie tej największa część składki była zatrzymana przez zakłady ubezpieczeń w 2000 r. –
99,7%, a najmniejsza w 2008 r. – 71,6%. W pozostałych grupach procent składki zatrzymanej był na podobnym poziomie i kształtował się w granicach 91,0%–99,6%. Wśród
ubezpieczeń rentowych dominujące znaczenie mają renty życiowe, tj. renty wypłacane do
końca życia. Właściwie tylko te renty traktuje się jako instrumenty ubezpieczeniowe
(renty pewne są typowymi instrumentami bankowymi), gdyż nigdy nie wiadomo, jak długo ubezpieczony będzie żył i otrzymywał rentę oraz czy suma wypłaconych rent będzie
wyższa czy też niższa od kwoty, jaką ubezpieczony uzyskałby, lokując wolne środki pieniężne np. w banku. Dlatego właśnie ubezpieczenia grupy 4 są przedmiotem największej
reasekuracji.
3. Składki przekazane reasekuratorom oraz udział reasekuratorów
w odszkodowaniach i świadczeniach
Reasekuracja bierna ubezpieczycieli działu ubezpieczeń na życie była niewielka do
1995 r., gdyż przekazywali oni reasekuratorom ułamek procentu składek (rys. 4). Od
1996 r. nastąpił wyraźny wzrost zaangażowania reasekuratorów (z 0,02% w 1995 r. do
0,3% w 1996 r.), a w 1999 r. wskaźnik ten osiągnął najwyższą wartość w tej dekadzie –
2,3%. W drugiej dekadzie najmniejsze zaangażowanie reasekuratorów było w 2006 r. –
1,3%, a najwyższe w 2009 r. – 3,5% (rys. 5). Wraz ze wzrostem działalności ubezpieczeniowej, mierzonej sumą składek ubezpieczeniowych, następował też wzrost wypłacanych
odszkodowań i świadczeń. W pierwszej dekadzie najwyższy udział reasekuratorów w odszkodowaniach i świadczeniach był w 1999 r. – 0,5% (rys. 6), a w drugiej dekadzie
w 2009 r. – 3,5% (rys. 7).
Ry s u n e k 4
Udział reasekuratorów w składce przypisanej brutto
zakładów ubezpieczeń działu I w latach 1991–1999
Udział (%)
2,4
2,2
2,0
1,8
1,6
1,4
1,2
1,0
0,8
0,6
0,4
0,2
0,0
1991
1992
1993
1994
1995
1996
1997
Źródło: Opracowanie własne na podstawie danych KNF [http://www.knf.gov.pl].
1998
1999
78
Miscellanea
Ry s u n e k 5
Udział reasekuratorów w składce przypisanej brutto
zakładów ubezpieczeń działu I w latach 2000–2009
4,0
3,5
Udział (%)
3,0
2,5
2,0
1,5
1,0
0,5
0,0
2000
2001
2002
2003
2004
2005
2006
2007
2008
2009
Źródło: Opracowanie własne na podstawie danych KNF [http://www.knf.gov.pl].
Ry s u n e k 6
0,6
Udział reasekuratorów w odszkodowaniach i świadczeniach
zakładów ubezpieczeń działu I w latach 1991–1999
Udział (%)
0,5
0,4
0,3
0,2
0,1
0,0
1991
1992
1993
1994
1995
1996
1997
1998
1999
Źródło: Opracowanie własne na podstawie danych KNF [http://www.knf.gov.pl].
Ry s u n e k 7
Udział reasekuratorów w odszkodowaniach i świadczeniach
zakładów ubezpieczeń działu I w latach 2000–2009
4,0
3,5
Udział (%)
3,0
2,5
2,0
1,5
1,0
0,5
0,0
2000
2001
2002
2003
2004
2005
2006
2007
Źródło: Opracowanie własne na podstawie danych KNF [http://www.knf.gov.pl].
2008
2009
79
Miscellanea
4. Koszt reasekuracji, prowizje reasekuracyjne
oraz udziały reasekuratorów w zyskach
Koszt reasekuracji ocenia się na podstawia salda operacji reasekuracyjnych. W latach
1991–1999 (dokładniej w latach 1994–1999, gdyż w latach 1991–1992 reasekuracja bierna
w dziale I nie występowała, a w roku 1993 była na minimalnym poziomie 0,2 mln zł)
saldo to osiągnęło wartość ujemną w wysokości 152,3 mln zł (rys. 8), a w latach 2000–
–2009 wartość ujemną równą 1449,1 mln zł (rys. 9). Oznaczało to wielką korzyść dla zagranicznych zakładów prowadzących reasekurację ubezpieczeń na życie.
Ry s u n e k 8
Uproszczone saldo operacji reasekuracyjnych zakładów ubezpieczeń na życie (dział I)
w latach 1994–1999
20,0
10,0
0,0
1994
1995
1996
1997
1998
1999
–10,0
–20,0
–30,0
Saldo (mln zł)
–40,0
–50,0
–60,0
–70,0
–80,0
–90,0
–100,0
–110,0
–120,0
–130,0
–140,0
–150,0
Źródło: Opracowanie własne na podstawie danych KNF [http://www.knf.gov.pl].
W pierwszej dekadzie saldo operacji reasekuracyjnych osiągnęło szczególnie dużą
wartość ujemną w 1999 r. – minus 136,2 mln zł, a w drugiej dekadzie w 2008 r. – minus
893,5 mln zł. W okresie prawie dwudziestu lat zakłady ubezpieczeń działające na rynku
polskim wydały w sumie 1601,4 mln zł na ochronę reasekuracyjną rynku ubezpieczeń
życiowych. Choć jest to tylko około 0,8% składki ubezpieczeniowej zebranej w tym okre-
80
Miscellanea
Ry s u n e k 9
Uproszczone saldo operacji reasekuracyjnych zakładów ubezpieczeń na życie (dział I)
w latach 2000–2009
0,0
–50,0
2000
2001
2002
2003
2004
2005
2006
2007
2008
2009
–100,0
–150,0
–200,0
–250,0
–300,0
–350,0
Saldo (mln zł)
–400,0
–450,0
–500,0
–550,0
–600,0
–650,0
–700,0
–750,0
–800,0
–850,0
–900,0
–950,0
Źródło: Opracowanie własne na podstawie danych KNF [http://www.knf.gov.pl].
sie w Polsce, sama wielkość składki reasekuracyjnej stanowi dużą kwotę (ponad 500
mln USD). Składka ta trafia w 100% do zagranicznych reasekuratorów (gdyż nie ma już
obecnie reasekuratorów polskich), w tym głównie do zagranicznych firm­‑matek zakładów ubezpieczeń działających na rynku polskim.
Z kosztem reasekuracji jest związany wskaźnik prowizji reasekuracyjnej i udziału
w zyskach reasekuratorów. Wartość tego wskaźnika w poszczególnych latach dwóch dekad działalności zakładów ubezpieczeń na życie na rynku polskim został przedstawiony
na rysunku 10 i 11. W latach 1996 i 1997 wskaźnik ten osiągnął wartość odpowiednio
170% i 148%, czyli zakłady ubezpieczeń na życie otrzymały znacznie większe kwoty
aniżeli przekazały do reasekuratorów w formie składki reasekuracyjnej. Świadczy to
o tym, że prowizja reasekuracyjna wraz z udziałem reasekuratorów w zyskach nie jest
tylko bynajmniej zwrotem kosztów akwizycji poniesionych przez zakład ubezpieczeń,
lecz odgrywa nieco inną rolę. Prawdopodobnie stanowi z jednej strony ekwiwalent kosz-
81
Miscellanea
tów administracyjnych zakładu ubezpieczeń, z drugiej zaś specjalny składnik umowy zawartej między zakładem ubezpieczeń (cedentem) i reasekuratorem, który zachęca cedenta do współpracy z danym reasekuratorem w dłuższym okresie i gwarantuje, iż współpraca będzie kontynuowana nie tylko w czasach, gdy szkodowość jest mała, lecz także wtedy,
gdy będzie ona znacznie większa niż założono. Ma to duże znaczenie dla zakładów ubezpieczeń, które powinny brać pod uwagę nie tylko możliwość uzyskania jak najtańszego
rodzaju reasekuracji, ale także sposobność korzystania z usług reasekuratora również
wówczas, gdy po kilku latach współpracy zakład ubezpieczeń będzie miał ujemne własne
saldo reasekuracji, a reasekurator zechce dalej partycypować w reasekurowaniu ryzyk
w takim samym stopniu jak dotychczas, oraz w sytuacji, gdy sam osiągnie ujemne saldo
reasekuracji. Z punktu widzenia długofalowych stosunków między zakładem ubezpieczeń
a reasekuratorem korzystna jest sytuacja oscylowania wartości wskaźnika rentowności reasekuracji biernej wokół 0%, co oznacza, że saldo operacji reasekuracyjnych powinno
także kształtować się wokół 0 zł [Metodologia analizy finansowej... 2001, s. 112].
Ry s u n e k 1 0
Prowizja reasekuracyjna i udziały reasekuratorów w zyskach w % składki reasekuracyjnej
zakładów ubezpieczeń na życie (dział I) w latach 1991–1999
%
200,0
150,0
100,0
50,0
0,0
1991
1992
1993
1994
1995
1996
1997
1998
1999
Źródło: Opracowanie własne na podstawie danych KNF [http://www.knf.gov.pl].
Ry s u n e k 1 1
Prowizja reasekuracyjna i udziały reasekuratorów w zyskach w % składki reasekuracyjnej
zakładów ubezpieczeń na życie (dział I) w latach 2000–2009
%
45,0
40,0
35,0
30,0
25,0
20,0
15,0
10,0
5,0
0,0
2000
2001
2002
2003
2004
2005
2006
2007
Źródło: Opracowanie własne na podstawie danych KNF [http://www.knf.gov.pl].
2008
2009
82
Miscellanea
Biorąc pod uwagę tak znaczną wielkość salda operacji reasekuracyjnych na korzyść
reasekuratorów w latach 1991–2009 (1601,4 mln zł), należy zadać pytanie, czy jest w ogóle możliwe kiedykolwiek osiągnięcie postulowanej wielkości salda reasekuracji na poziomie blisko 0 zł? Nie wydaje się to możliwe z kilku względów. Po pierwsze, wymagałoby
to znacznych zmian w programach reasekuracyjnych stosowanych przez ubezpieczycieli
i jednocześnie akceptacji ich przez reasekuratorów. Po drugie, większość zakładów ubezpieczeń reasekuruje swoje ryzyka – zarówno w ubezpieczeniach grup działu I, jak i II –
najczęściej u swoich zagranicznych firm-matek, czyli właścicieli zakładów ubezpieczeń
działających na rynku polskim, więc praktycznie szanse na zmianę warunków umów reasekuracyjnych są minimalne. Tym bardziej, że firmy­‑matki są często zarejestrowane
w tzw. rajach podatkowych, gdzie obciążenia podatkowe są kilkakrotnie niższe niż
w Polsce. Jest to więc typowy sposób transferu zysków ze szkodą dla dochodów podatkowych państwa polskiego.
W przypadku reasekuracji ryzyk z działu II (ubezpieczenia majątkowe i pozostałe
osobowe) koszt reasekuracji za okres ostatnich dwudziestu lat wyniósł ok. 4500 mln zł.
Razem więc zakłady ubezpieczeń wydały na ochronę reasekuracyjną polskiego rynku
ubezpieczeniowego w ciągu ostatnich dwudziestu lat ponad 6 mld zł. Wobec braku prawdziwego, klasycznego rynku reasekuracyjnego aktualne pozostaje wciąż pytanie, dlaczego
państwa polskie, a właściwie rząd polski, nie dba o interesy państwa i nie tworzy państwowego (publicznego) zakładu reasekuracji, który choćby częściowo przejął transferowane obecnie w 100% zyski z czynnej działalności reasekuracyjnej oferowanej przez zagranicznych reasekuratorów zakładom ubezpieczeń działających na rynku polskim. Takie
publiczne zakłady reasekuracji zostały stworzone w wielu krajach (Korea Płd., Singapur,
Tajwan, Australia itp.). Ich właścicielem jest państwo lub skarb państwa posiada znaczne
udziały w tych zakładach. Również niektóre państwa europejskie (Francja, Holandia,
Włochy) są w posiadaniu – bezpośrednio lub pośrednio – znaczących pakietów akcji
w wielu spółkach reasekuracyjnych. Świadczy to wszystko o roli, jaką rządy tych państw
nadają rozwojowi rynku ubezpieczeniowego i korzyściom z niego płynącym.
Podsumowanie
Reasekuracja bierna ubezpieczeń na życie przedstawia dość znaczący wydatek dla zakładów ubezpieczeń działających na rynku polskim. Choć jest on niewielki w wartościach
procentowych zebranej składki oraz wielokrotnie mniejszy niż w ubezpieczeniach majątkowych i pozostałych osobowych, to jego rola w spełnianiu podstawowej funkcji, czyli
zmniejszaniu fluktuacji wyników finansowych ubezpieczyciela oraz zapewnieniu stabilizacji tych wyników w dłuższym okresie, jest istotna. W krajach UE i OECD zakłady
ubezpieczeń na życie w większym stopniu wykorzystują reasekurację, co może oznaczać,
iż jej znaczenie na rynku polskim będzie wzrastać. Potwierdza to wartość wskaźnika retencji składek ubezpieczeniowych, która zmniejsza się stale od 2006 r., co oznacza, że
zakres reasekuracji wzrasta. Cechą charakterystyczną polskiego rynku ubezpieczeń na
życie są również dość wysokie prowizje reasekuracyjne i wysokie udziały w zyskach otrzymywane przez reasekuratorów. Nie stanowią one wyłącznie zwrotu kosztów akwizycji
poniesionych przez zakłady ubezpieczeń, gdyż ze względu na obejmowanie przez reasekurację ubezpieczeń na życie tylko części ryzyk z polisy ubezpieczeniowej, odgrywają
dodatkową rolę w postaci ekwiwalentu kosztów administracyjnych. Są też wynikiem specjalnych zapisów umowy zawieranej między ubezpieczycielem (cedentem) a reasekura-
Miscellanea
83
torem, których zadaniem jest wzajemne wspieranie się finansowe w sytuacjach mniej lub
bardziej trudnych w zakresie poziomu szkodowości.
Przyjęta na wstępie hipoteza, iż reasekuracja zakładów ubezpieczeń na życie stanowi
niewielki element ich funduszy, została potwierdzona, choć zakres reasekuracji w ostatnich latach dość wyraźnie się zwiększa.
Tekst wpłynął 1 października 2010 r.
Bibliografia
Ciuman K., Reasekuracja jako czynnik rozwoju rynku ubezpieczeniowego w Polsce, Wyd. Akademii
Ekonomicznej w Krakowie, Kraków 2007.
Gastel R., Introduction to Reinsurance, w: Reinsurance. Fundamentals and New Challenges, red.
R. Gastel, III, New York 2004.
Gerathewohl K., Reinsurance. Principles and Practice, Verlag Versicherungswirtschaft e.V., Karlsruhe
1982.
Metodologia analizy finansowej zakładów ubezpieczeń, PUNU, Warszawa 2001.
Micyk R., Życiowy minimalizm, „Miesięcznik Ubezpieczeniowy” 2010, nr 9.
Olearczuk A., Reasekuracja ubezpieczeń życiowych, w: Ubezpieczenia życiowe, red. O. Doan, Poltext,
Warszawa 1996.
Przegląd Dziesięciolecia. Rozwój ubezpieczeń w Polsce w gospodarce wolnorynkowej, PUNU, Warszawa
2000.
Stroiński E., Ubezpieczenia na życie. Teoria i praktyka, Poltext, Warszawa 2003.
Ustawa o działalności ubezpieczeniowej, 2003.
Williams C.A. Jr., Smith M.L., Young P.C., Zarządzanie ryzykiem a ubezpieczenia, WN PWN,
Warszawa 2002.
http://www.knf.gov.pl (23.09.2010).
Adam Zaremba*
Przyczyny malejącej zyskowności
funduszy kontraktów terminowych
Wprowadzenie
Fundusze kontraktów terminowych1 (managed futures) to określenie kategorii funduszy,
które starają się pomnażać środki klientów za pomocą aktywnych inwestycji na rynkach
terminowych. Ich domeną są automatyczne systemy transakcyjne oparte na analizie technicznej. Wprawdzie pierwsze wehikuły tego typu zaczęły powstawać już w latach 40.
ubiegłego wieku, jednak dopiero ostatnie lata przyniosły znaczący wzrost ich popularności. W rezultacie aktywa pod zarządzaniem CTA na świecie wzrosły z 0,3 mld USD
w 1980 r. do 247,8 mld USD w 2010 r. [BarclayHedge Alternative Investments Database], a pierwsze tej klasy podmioty zaczęły pojawiać się również na rynku polskim (MAN
AHL, Superfund).
Uwagę inwestorów przykuwają głównie trzy aspekty inwestycji w managed futures.
Po pierwsze, fundusze kontraktów terminowych wypracowywały historycznie wysokie
stopy zwrotu przy ograniczonym ryzyku. Indeks funduszy kontraktów terminowych
CASAM CISDM CTA Asset Weighted przyniósł w okresie od grudnia 1979 r. do września 2010 r. skumulowaną stopę zwrotu na poziomie 3403%. Po drugie, inwestycje
w fundusze kontraktów terminowych są nisko skorelowane z tradycyjnymi klasami aktywów (akcje, obligacje), przez co pozwalały historycznie zredukować ryzyko portfela
inwestycyjnego. Po trzecie, fundusze kontraktów terminowych poprawiają wyniki portfela inwestycyjnego w warunkach, gdy rentowność tradycyjnych aktywów finansowych
jest niska. Wszystkie trzy tezy znajdują solidne potwierdzenie w dotychczasowych badaniach empirycznych.
W ostatnich latach widoczny jest jednak wyraźny spadek zyskowności funduszy kontraktów terminowych. Rysunek 1 przedstawia średnioroczne stopy zwrotu z indeksu
CASAM CISDM, rolowane w okresach 5-letnich.
* Mgr Adam Zaremba – Katedra Inwestycji i Rynków Kapitałowych, Uniwersytet Ekonomiczny
w Poznaniu; e-mail: [email protected]
1 Termin managed futures funds traktuje się często jako tożsamy z Commodity Trading Advisors (CTA),
choć znaczenie obu pojęć nie jest identyczne. Określenie managed futures odnosi się do modelu strategii
inwestycyjnej, natomiast CTA – do formy prawnej w regulacjach amerykańskich. Zgodnie z materiałami
informacyjnymi na stronie internetowej NFA w 2008 r. definicja brzmi: „CTA is an individual or organization
which, for compensation or profit, advises others as to the value of or the advisability of buying or selling futures contracts or commodity options”. Źródło: http://www.nfa.futures.org
86
Miscellanea
Ry s u n e k 1
Średnioroczne stopy zwrotu z funduszy kontraktów terminowych
%
30
3 000
25
2 500
20
2 000
15
1 500
10
1 000
5
500
0
0
1987
1992
1997
2002
2007
Średnioroczna stopa zwrotu za ostatnie 5 lat (skala lewa)
CASAM CISDM CTA Asset Weighted (skala prawa)
Źródło: Obliczenia własne na podstawie http://www.bloomberg.com
Średnioroczne stopy zwrotu systematycznie spadały z ponad 20% pod koniec lat 80.
do stabilnego poziomu 7–8% w ciągu ostatnich 10 lat. Zmiany te były dostrzegalne przez
różnych autorów już na początku obecnego wieku [Kidd, Brorsen 2004], jednak w literaturze trudno znaleźć jednoznaczne wytłumaczenie takiego stanu rzeczy. W opinii autora
przyczyną spadku zyskowności funduszy kontraktów terminowych może być znaczący
spadek skuteczności ich strategii inwestycyjnych. Celem niniejszego artykułu jest sprawdzenie powyższej hipotezy.
W pierwszej części artykułu zostanie przedstawiony podział i charakterystyka systemów zarządzania wykorzystywanych przez fundusze kontraktów terminowych. Jest to
o tyle istotne, że funkcjonują one na zasadzie „czarnych skrzynek” , a dokładne strategie
inwestycyjne niemal nigdy nie są znane inwestorom. Następnie zostaną przedstawione
teorie rynków finansowych uzasadniające funkcjonowanie managed futures. Celem części
drugiej jest weryfikacja, czy wspomniane teorie mogą wyjaśnić spadek skuteczności funduszy kontraktów terminowych. W ostatniej części dokonany zostanie przegląd dotychczasowych badań empirycznych nad analizą techniczną na rynkach surowcowych, walutowych i akcyjnych w okresie od lat 70. do początku XX w.
1. Zarządzanie portfelami funduszy kontraktów terminowych
Istnieje mnóstwo odrębnych strategii wykorzystywanych przez fundusze kontraktów terminowych. Ich najczęstszy podział odnosi się do procesu analitycznego, który prowadzi
Miscellanea
87
do wygenerowania sygnałów transakcyjnych. Mowa tu o strategiach dyskrecjonalnych
i systematycznych. Inwestorzy dyskrecjonalni monitorują fundamentalną i techniczną
sytuację rynkową, a następnie na podstawie własnego osądu podejmują indywidualne
decyzje dotyczące zawierania transakcji. Inwestorzy systematyczni z kolei wykorzystują
zestaw z góry określonych precyzyjnych zasad, zwanych systemem transakcyjnym, który
automatycznie generuje sygnały kupna, sprzedaży, zmiany pozycji itp. Systemy takie często nazywane są mianem black box, czyli czarnych skrzynek. W przeciwieństwie do inwestorów dyskrecjonalnych nie pozostaje tu wiele miejsca na indywidualne decyzje zarządzającego, którego funkcją w procesie inwestycyjnym jest z projektowanie, nadzór i modyfikacje automatycznego systemu inwestycyjnego. Wprawdzie istnieją fundusze
stosujące zarówno strategie dyskrecjonalne, jak i systematyczne, jednak zdecydowanie
dominującym modelem jest podejście systematyczne. Według danych BarclayHedge na
koniec III kwatału 2010 r., 179,6 mld USD na świecie ulokowanych w funduszach managed futures zarządzanych było przez systemy automatyczne, a jedynie 14,3 mld USD
w drodze decyzji dyskrecjonalnych [BarclayHedge Alternative Investments Database].
1.1. Automatyczne systemy transakcyjne
Systemy transakcyjne funkcjonują na podstawie automatycznych algorytmów komputerowych, stąd określa się je często mianem computer-based lub też model-based. Typowy
system transakcyjny obejmuje zestaw ściśle określonych reguł wskazujących, kiedy sprzedać, a kiedy kupić kontrakt terminowy. Odstępstwa od tych reguł z założenia nie są dozwolone, z wyjątkiem sytuacji, gdy modyfikacji ulega cały system transakcyjny. Algorytmy
opierają się na powtarzających się schematach rynkowych, które zostały odkryte na podstawie analizy notowań historycznych. Proces weryfikacji skuteczności określonych reguł
i możliwości wykorzystania powtarzających się schematów określa się mianem back-testingu.
Poszczególne fundusze managed futures wykorzystują zwykle ponad jeden system
transakcyjny: w toku istnienia funduszu istniejące systemy podlegają różnym modyfikacjom, czasami dodaje się nowy model, czasami odrzuca jeden z dotychczasowych.
Poszczególne systemy niekoniecznie muszą być oparte na zupełnie różnych zasadach,
mogą np. dotyczyć różnego horyzontu czasowego. Na przykład fundusz może operować
na dwóch systemach: długoterminowym i krótkoterminowym, a strategia inwestycyjna
będzie opierać się na sygnałach generowanych przez oba systemy.
Proces konstrukcji strategii transakcyjnej obejmuje zwykle wiele zagadnień. Wśród
nich można wyróżnić [Till, Eagleeye 2004]: projektowanie systemu transakcyjnego, kalibrację i walidację systemu, konstrukcję portfela, zarządzanie ryzykiem i dźwignią finansową. Poszczególne elementy wraz z przykładami zostaną omówione w dalszej części
tekstu.
1.2. Projektowanie systemu transakcyjnego
Zdaniem Jaffariana [2009] funkcjonujące na rynku systemy transakcyjne można generalnie podzielić na trzy grupy:
1) systemy polegające na podążaniu za trendem (trend following),
2) systemy polegające na nie podążaniu za trendem rynkowym (non-trend following),
3) strategie wartości względnej (relative value­­).
W ramach poszczególnych kategorii istnieją również dalsze podziały. Większość strategii podążania za trendem można zakwalifikować jako strategie średnich ruchomych
88
Miscellanea
(moving average strategies) lub strategie wybicia z zakresu (break-out strategies), natomiast
metody niepodążania za trendem dzielą się ogólnie na strategie odwrócenia (countertrend) oraz strategie oparte na formacjach (pattern recognition).
Strategie podążania za trendem zdecydowanie dominują wśród wykorzystywanych
przez CTA [Fung, Hsieh 1997]. Fundusze wykorzystujące te techniki starają się uchwycić
trend i zarobić na nim, zawierając transakcje zgodnie z bieżącym ruchem cen na rynku.
Gdy trend jest wzrostowy, fundusze tego typu będą dążyły do posiadania pozycji długiej,
natomiast gdy jest spadkowy, będą się starały zająć pozycję krótką. Jak wskazuje nazwa,
inwestorzy ci nie starają się prognozować przyszłych zmian cen, a jedynie podążają za
dotychczasowymi zmianami, czekają na wykształcenie się trendu, a następnie zawierają
stosowną transakcję.
W celu identyfikacji trendu wszystkie systemy transakcyjne wykorzystują wskaźniki,
które porównują bieżący poziom cen z poziomem historycznym. Strategie średniej ruchomej (moving average stratiegies) wykorzystują w tym celu wygładzony szereg cen historycznych. Gdy bieżące ceny lub średnia ruchoma znajdują się powyżej określonego poziomu, który może być również funkcją średnich ruchomych, zajmowana jest pozycja
długa, a w odwrotnej sytuacji – krótka. Na innej zasadzie działają systemy wybicia z zasięgu (break-out strategies), które wypatrują wykrystalizowania się nowego trendu, obserwując zakres historycznych wahań cen. Gdy cena znacząco wzrośnie (spadnie) poza zakres historycznych ruchów cen, jest to postrzegane jako pojawienie się nowego trendu
wzrostowego (spadkowego) i zajmowana jest pozycja długa (krótka).
Strategie oparte na średnich ruchomych zdobyły znaczną popularność, gdyż średnie
mają tę zaletę, że są dość dobrze zdefiniowane w statystyce, zrozumiałe i łatwe w zastosowaniu do testowania systemów transakcyjnych. W najprostszym ujęciu średnia arytmetyczna liczona jest jako równoważona średnia arytmetyczna według wzoru (1) [Lhabitant
2006].
k
1
/ Pt, (1)
N t = k-N+1
100
RSI = 100 ,
gdzie:
Un
1
N – liczba okresów wykorzystywanych do kalkulacji średniej ruchomej,
D
k – względna pozycja bieżącego okresu w całkowitejn liczbie analizowanych okresów,
Pt– cena instrumentu w momencie t.
MA N =
Średnia jest równoważona, więc każda historyczna cena zawarta w N ostatnich okresów będzie miała równe znaczenie w obliczeniach. Średnia ruchoma może być oparta na
różnej długości okresach, jak choćby dniach, minutach czy pojedynczych tikach. Na przykład możemy mieć do czynienia z 20-dniową średnią ruchomą. W procesie kalkulacji
wartości średniej każdego dnia będzie usuwana cena najstarsza – sprzed 21 sesji, a dodawana będzie nowa cena – z ostatniej sesji.
Średnia ruchoma ma tę zaletę, że wygładza rynkowe szeregi czasowe. Jeżeli rynek
generalnie charakteryzował się trendem wzrostowym, jednak od czasu do czasu zdarzały
się niższe ceny, średnia ruchoma „wytłumi” szum i umożliwi analitykom technicznym
rozpoznanie bieżącego trendu. Najpopularniejsze sygnały transakcyjne oparte na średnich obejmują [Jaffarian 2009] przecięcie od dołu przez ceny rynkowe średniej ruchomej
lub szeregu średnich ruchomych (sygnał kupna) albo analogiczne przecięcie od góry (sygnał sprzedaży); przecięcie od dołu przez krótkoterminową średnią ruchomą długoter-
Miscellanea
89
minowej średniej ruchomej (sygnał kupna) lub analogiczne przecięcie od góry (sygnał
sprzedaży); ułożenie się szeregu średnich ruchomych w kierunku rosnącym (sygnał kupna) lub analogiczne ułożenie w kierunku spadkowym (sygnał sprzedaży).
Strategie wybicia z zakresu (break-out strategies) wyrastają z nieco odmiennej filozofii, jednak również polegają na podążaniu za trendem. Systemy te „obserwują” zakres
zmian cen na rynku, a następnie zawierają pozycje długie, gdy nastąpi wybicie z zakresu
górą, lub krótkie, gdy wybicie nastąpi dołem. Prostym przykładem strategii wybicia z zakresu są systemy wsteczne (look back strategies). Systemy te obserwują 20 sesji wstecz,
notując maksimum oraz minimum w tym okresie. Jeżeli bieżąca cena przekroczy maksymalne notowanie z 20 ostatnich sesji, uznaje się to za sygnał kupna, gdy z kolei cena
spadnie poniżej minimum z 20 ostatnich sesji, jest to sygnał sprzedaży.
Strategia podążania za trendem jako metoda podejmowania decyzji inwestycyjnych
nie jest wolna od wad [Lhabitant 2008]. Po pierwsze, strategie tego typu są „powolne”,
co dobrze ilustruje przykład średnich ruchomych. Ze względu na swoją naturę średnie
ruchome generują sygnał zajęcia pozycji w jakiś czas po powstaniu trendu, a sygnał zamknięcia pozycji w jakiś czas po jego odwróceniu. Innymi słowy, inwestor musi być przygotowany, że za każdym razem będzie otwierał pozycję zbyt późno – tracąc część ruchu,
a następnie zamykał również z opóźnieniem – oddając część wypracowanego wcześniej
zysku. Drugie najistotniejsze ograniczenie wynika z natury strategii podążania za trendem, które do generowania zyskownych sygnałów transakcyjnych potrzebują trendów.
Oznacza to, że stopy zwrotu nie mogą poruszać się zgodnie z procesem losowym, a muszą charakteryzować się dodatnią autokorelacją. Nie jest zaskakujące, że w warunkach
braku autokorelacji stóp zwrotu systemy podążania za trendem – w tym opierające się na
wskaźnikach opóźnionych – wypadają słabo i zamiast zysków generują jedynie fałszywe
sygnały i koszty transakcyjne.
Strategie niepodążania za trendem mają na celu odnalezienie możliwości wypracowania zysku na rynkach, na których nie są widoczne wyraźne trendy. W praktyce większość tej klasy systemów zalicza się do jednej z dwóch kategorii: technik opartych na
formacjach (pattern recognition) lub strategii odwrócenia trendu (countertrend).
Grupa pierwsza – strategie oparte na formacjach – stara się odszukać na wykresach
klasycznych lub świecowych powtarzających się schematów, a następnie na ich podstawie zaprognozować przyszły ruch cen. Jedną z najbardziej rozpoznawalnych formacji
technicznych jest głowa z ramionami (head and shoulders) [Murphy 1999]. Jest to formacja składająca się z trzech następujących po sobie szczytów, z których środkowy jest
najwyższy. Linia łącząca ze sobą podstawy zarysowanych na wykresie wierzchołków nazywana jest „linią szyi”. Gdy na wykresie uformuje się już prawe, drugie ramię formacji,
a następnie przebita zostanie linia szyi, zgodnie z prawidłami analizy technicznej jest to
zwiastun nadchodzących spadków. Wysokość „głowy”, czyli odległość od wierzchołka
najwyższego (środkowego) szczytu do linii szyi, określa jednocześnie minimalny zakres
spadków.
Druga grupa strategii niepodążania za trendem to strategie odwrócenia trendu.
Systemy te wykorzystują różnego rodzaju wskaźniki, takie jak oscylatory w celu zidentyfikowania bieżącego zakresu ruchów cen na rynku, a następnie generują sygnały kupna,
gdy ceny poruszają się w przy dnie zakresu, a sprzedaży, gdy notowania układają się
w górnych partiach.
Jednym z mniej skomplikowanych wskaźników typu countertrend jest wskaźnik siły
relatywnej (Relative Strength Index – RSI) [Wilder 1978]. RSI jest obliczany według
wzoru:
90
k
Miscellanea
1
/ P,
N t = k-N+1 t
100
RSI = 100 ,
U
1- n
Dn
MA N =
(2)
gdzie:
Un – średnia zmiana cen w okresach wzrostowych w ciągu ostatnich n okresów,
Dn –średnia zmiana cen w okresach spadkowych w tym samym czasie.
Wskaźnik ten może być liczony dla okresów o różnej długości (minuty, godziny, tygodnie) i dla różnej liczby okresów, jednak w praktyce najpopularniejszy jest wskaźnik
w ujęciu 14-dniowym. Wskaźnik siły relatywnej jest oscylatorem, czyli jego wartości oscylują w ściśle określonej amplitudzie. Przedział, w którym może się poruszać RSI, to zakres od 0 do 100, z wartością 50 jako poziomem neutralnym. Górne zakresy w oscylatorach są interpretowane jako stan wykupienia rynku. Zgodnie z prawidłami analizy technicznej postrzega się je jako sytuację, gdy ceny urosły na tyle, że istnieje duże ryzyko
spadku. Odwrotnie, dolne partie to stan wyprzedania, który może sygnalizować wzrosty.
Dokładna granica, gdzie kończy się strefa neutralna, a rozpoczyna wyprzedanie bądź
wykupienie, jest oczywiście umowna. W praktyce w przypadku RSI najczęściej przyjmuje się, że wyprzedanie to zakres od 0 do 30, strefa neutralna od 30 do 70, natomiast 70
do 100 to już strefa wykupienia. Sygnały transakcyjne odnoszą się najczęściej do przekroczenia przez wskaźnik granicy wyżej opisanych zakresów. Na przykład typowy system
transakcyjny może wyglądać następująco: kupuj, gdy wskaźnik przebija granicę strefy
wyprzedania od dołu i powraca do strefy neutralnej, a sprzedawaj, gdy wskaźnik przebija granicę strefy wykupienia od góry i również powraca do strefy neutralnej.
Strategie wartości względnej (relative value strategies) starają się wykorzystać odchylenia od strukturalnych zależności i korelacji leżących u podstaw funkcjonowania różnych rynków finansowych. Strategie te zakładają, że notowania instrumentów w sposób
nieefektywny reagują na publikowane informacje. Nieefektywności te można zidentyfikować za pomocą odstępstw od typowych korelacji pomiędzy instrumentami, a następnie wykorzystać do wypracowania zysku. Strategie te stanowią więc rodzaj quasi-arbitrażu.
1.3. Kalibracja i walidacja systemu
Zanim określony system transakcyjny zostanie wykorzystany w praktyce do zarządzania
pieniędzmi, jest on testowany na podstawie danych historycznych. Racjonalna przesłanka przemawiająca za takim postępowaniem jest taka, że jeżeli dana reguła inwestycyjna
nie sprawdzała się w przeszłości, to szansa na to, że będzie pozwalała zarobić w przyszłości jest niska. Z tego też powodu backtesting jest sednem funkcjonowania branży managed futures. Fundusze nieustannie testują własne systemy inwestycyjne, na różnych danych, rynkach i indeksach czasowych. Testowanie właściwie nigdy się nie kończy, ponieważ z jednej strony z rynku wciąż napływają nowe dane, z drugiej zaś strony ciągłe
zmiany w systemach transakcyjnych wymagają ciągłej walidacji. Co więcej, jeżeli rosnąca
liczba funduszy będzie starała się wykorzystać podobny schemat na rynku, może on zupełnie przestać funkcjonować lub zacząć funkcjonować w innej formie. W rezultacie system, który był skuteczny przez minione 15 lat, przez kolejne 15 lat może przynosić straty.
Stąd też walidacja i testowanie systemów trwa nieustannie.
Z punktu wiedzenia inwestora warto pamiętać, że przetestowane na danych historycznych systemy transakcyjne, przedstawiane np. w materiałach marketingowych fundu-
Miscellanea
91
szy i zarządzających, prezentują się zwykle bardzo korzystnie. W praktyce mogą one
ukrywać wiele obciążeń, które zniekształcają wyniki testów historycznych, zawyżając stopy zwrotu i zaniżając ryzyko [Lhabitant 2008, s. 402–403]. Wśród tych obciążeń można
wymienić przykładowo następujące:
11 Pretest bias. Reguły inwestycyjne, które stają się inspiracją dla systemów transakcyjnych, wynikają zwykle z obserwacji historii notowań i osobistych doświadczeń analityka. W sytuacji, gdy sformułowanie strategii odbywa się na skutek obserwacji notowań historycznych, jest wielce prawdopodobne, że system przetestowany na tych
samych danych pokaże pozytywne rezultaty. Tymczasem fakt, że ceny charakteryzowały się akurat w obserwowanym okresie określonym wzorem, może być zbiegiem
okoliczności.
11 Data mining (data snooping). W skrajnej formie analityk może przeglądać dziesiątki
tysięcy reguł transakcyjnych i kalibrować je do danych rynkowych. Oczywiste jest, że
w takiej sytuacji przynajmniej niektóre reguły wygenerują zyski, choć może to być
dziełem zwykłego przypadku. Im więcej możliwości zostanie przetestowanych oraz
im bardziej ekstensywna będzie kalibracja systemu, tym większe ryzyko przesadnego
dopasowania do danych historycznych (overfitting).
11 Trading costs bias. Testując systemy transakcyjne, analitycy często przyjmują uproszczone założenia dotyczące kosztów transakcji, które ignorują np. spready pomiędzy
ceną kupna i sprzedaży, wpływ płynności na rynku na koszty transakcji czy zmienną
wielkość depozytów zabezpieczających. Może to zawyżyć znacząco zyski z systemu,
w szczególności w przypadku strategii wymagających częstych transakcji i dotyczących
silnie zmiennych lub mało płynnych rynków.
11 Slippage control. Wiele testów na danych historycznych dla uproszczenia przyjmuje,
że transakcje są dokonywane po cenach zamknięcia. Nie jest to do końca prawdą,
CTA muszą bowiem brać pod uwagę tzw. slippage costs, czyli różnicę pomiędzy ceną,
przy jakiej zostanie złożone zlecenie, a ceną, po jakiej zostanie dokonana transakcja.
Dotyczy to w szczególności zleceń rynkowych (czyli bez limitu ceny, market orders)
oraz dużych funduszy, które składając zlecenia mogą wpływać na cenę. W praktyce
należałoby przyjąć, że wysokość kosztów transakcyjnych jest wprost proporcjonalna
do wielkości transakcji i wielkości aktywów pod zarządzaniem, a odwrotnie proporcjonalna do płynności na rynku. Interesujące rozważania na ten temat można znaleźć
w pracach Perold i Salomon [1991], Korajczyk i Sadka [2004], Vangelisti [2006], Narang [2009, s. 67–78] oraz Serbin, Bull i Zhu [2009].
11 Look ahead bias. Cześć systemów transakcyjnych w procesie walidacji opiera się na
danych, które nie były jeszcze dostępne w momencie zawierania symulowanej transakcji, gdyż wprawdzie zostały opublikowane tego samego dnia, jednak dopiero po
zamknięciu sesji.
Opisane powyżej obciążenia mogą wpłynąć na powstanie nierzeczywistych wyników
w procesie walidacji, które nie zostaną powtórzone w przyszłości. Dlatego też jest tak
istotne, aby sprawdzić, czy system działa w różnych warunkach i w różnych okresach.
Warto również pamiętać, że traderzy mają często naturalną tendencję do niedoszacowywania zmienności na rynku i przez to dostrzegania określonych wzorów i schematów
tam, gdzie ich nie ma [Hirshleifer 2001].
Nawet jeżeli system transakcyjny został poprawnie zweryfikowany i przetestowane
reguły wydają się dobrze rokować na przyszłość, należałoby wziąć jeszcze pod uwagę co
najmniej dwie kwestie [Jaffarian 2009, s. 177]. Po pierwsze, należy się zastanowić, jak
szybko inni inwestorzy są w stanie odkryć ten sam schemat rynkowy i zacząć go również
wykorzystywać. Może to zwiększyć tempo, w jakim system transakcyjny będzie się stop-
92
Miscellanea
niowo degradował w miarę upływu czasu. Po drugie, warto zauważyć, że większość systemów opiera się na wąskiej niszy rynkowej lub nieefektywności, która ma swoją pojemność. Po przekroczeniu określonego poziomu aktywów pod zarządzaniem, strategia
może zacząć działać gorzej lub wręcz zupełnie przestać funkcjonować. Sławetną egzemplifikacją jest tu fundusz Amaranth, za którego wypadek była odpowiedzialna głównie
skala zajętych przez niego pozycji [Gupta, Kazemi 2007; Till 2008].
1.4. Konstrukcja portfela
Wbrew pozorom większość CTA i funduszy kontraktów terminowych nie ogranicza się
do jednego systemu transakcyjnego, ale stosuje wiele systemów transakcyjnych jednocześnie na wielu rynkach. Różnorodność systemów może polegać nie tylko na różnych horyzontach czasowych (systemy długoterminowe i krótkoterminowe), lecz także na różnych filozofiach inwestycyjnych (np. strategie niepodążania za trendem i podążania za
trendem). W rezultacie zarządzający uzyskuje efekt dywersyfikacji między różnymi rynkami i różnymi strategiami, co pozwala zredukować ryzyko związane z pojedynczymi
kontraktami. Zyski i straty z poszczególnych pozycji dzięki niskiej korelacji w dużej mierze uśredniają się na koniec każdej sesji [Till 2000].
Konstrukcja portfela odbywa się według pewnego zestawu reguł. Najprostsza reguła
to portfel równoważony, gdzie na każdą pozycję jest przeznaczana równa wielkość kapitału. Wiąże się to z koniecznością okresowego rebalansowania, ponieważ notowania instrumentów bazowych będą rosły i spadały, zmieniając wartość zajętych pozycji. Bardziej
zaawansowane podejście wykorzystuje pojęcie kapitału ryzyka (risk capital). Innymi słowy, udział pozycji w porfelu może zależeć także od jej zmienności. Zmienność pozycji
może być też powiązana z położeniem zleceń stop-loss, które ograniczają maksymalną
stratę. Wielkość zawieranych transakcji może również uwzględniać korelację nowej pozycji z dotychczasowym portfelem i jej wpływ na całkowite ryzyko [Lhabitant 2004,
s. 315–319].
1.5. Zarządzanie ryzykiem i dźwignią finansową
Zarządzanie ryzykiem odbywa się na kilku płaszczyznach. Większość funduszy, wykorzystujących kilka strategii inwestycyjnych, kalkuluje kilka miar ryzyka dla poszczególnych
strategii [Till, Eagleeye 2004, s. 285]: wartość narażona na ryzyko (VaR) według niedawnych zmienności i korelacji, największa strata w „typowych” warunkach, największa strata w określonych warunkach szczególnych, wkład do wartości narażonej na ryzyko całego
portfela, wkład do straty portfela w warunkach szczególnych (event risk contribution).
Bardzo ważne są dwie ostatnie miary, które wskazują, czy dana strategia inwestycyjna
redukuje czy zwiększa ryzyko całego portfela.
W ujęciu globalnym (całego portfela) ryzyko jest zwykle kalkulowane za pomocą
następujących wskaźników: wartości narażonej na ryzyko (VaR) na podstawie niedawnych zmienności i korelacji, największej straty w „typowych” warunkach, największej
straty w zdefiniowanych warunkach szczególnych. Każda z wspomnianych miar powinna
być na bieżąco monitorowana i porównywana z limitem właściwym dla zdolności i skłonności do ryzyka ze strony inwestora. Na przykład, jeżeli inwestor nie może zaakceptować
w żadnym momencie straty większej niż 10%, wówczas wszystkie trzy miary nie powinny
przekraczać 10%.
Kolejnym elementem monitorowania ryzyka jest zachowanie portfela w warunkach
ekstremalnych, czyli stress testy. Till i Eagleeye [2004, s. 285] sugerują, że powinny one
93
Miscellanea
obejmować przynajmniej następujące okresy: krach w październiku 1987 r., wojnę
w Zatoce Perskiej w 1990 r., kryzys rosyjski w 1998 r. i atak na WTC we wrześniu 2001 r.
Portfel, który zachowywał się kiepsko w powyższych okresach może nie być akceptowalny dla klientów, którzy szukają dywersyfikacji w inwestycjach alternatywnych.
Trzecią kwestią, która jest szczególnie istotna w procesie zarządzania ryzykiem
w branży managed futures, jest poziom dźwigni finansowej. Immanentną cechą kontraktów terminowych jest fakt, że wymagają one minimalnego zaangażowania kapitału
w związku z niewielkimi wymogami depozytowymi. W rezultacie wielkość poszczególnych transakcji i pożądany udział poszczególnych klas aktywów jest wynikiem nie tyle
ogólnej wielkości dostępnego kapitału, ile poziomu akceptowalnego ryzyka.
Poziom przyjętej dźwigni finansowej jest elementem projektowania systemu transakcyjnego. Na rynku funkcjonują zarówno fundusze charakteryzujące się niewielkimi wahaniami, jak i takie, które potrafią przynosić w niektórych latach 40-procentowe straty,
a w innych 100-procentowe zyski. Istotne jest, aby poziom dźwigni był dopasowany do
oczekiwań inwestorów. Wiele funduszy proponuje klientom kilka wariantów jednakowego systemu transakcyjnego, ale z różnym poziomem dźwigni finansowej. Ponadto dźwignia finansowa jest o tyle ważna, że część badań wskazuje, iż bez jej wykorzystania zyski
wypracowywane przez fundusze kontraktów terminowych są stosunkowo niskie. Dopiero
znacząca dźwignia finansowa, która jest nawet wyższa niż w większości klas funduszy
hedgingowych, tłumaczy wysokie stopy zwrotu [Till, Eagleeye 2004, s. 288].
Tabela 1 pokazuje stopy zwrotu z funduszy hedgingowych i funduszy kontraktów terminowych w latach 1997–2001 przed i po korekcie o poziom dźwigni finansowej. Tabela
ujawnia kluczowy wpływ dźwigni na poziom wypracowanych wyników.
Ta b e l a 1
Zlewarowane i odlewarowane stopy zwrotu z funduszy hedgingowych
i funduszy kontraktów terminowych w latach 1997–2001
Strategia
Średnia wylewarowana
stopa zwrotu (%)*
Średnia odlewarowana
stopa zwrotu (%)*
Short Biased
13,7
9,3
Global Macro
16,8
8,9
Emerging Markets
16,9
8,8
Event Driven
14,7
8,3
Merger Arbitrage
14,7
7,0
Long/Short Equity
14,0
6,3
Fixed Income
9,6
4,8
Convertible Arbitrage
10,6
4,2
Managed Futures
10,5
4,2
*
Analiza dźwigni finansowej została wykonana za pomocą historycznych 5-letnich stóp zwrotu na podstawie
informacji z baz danych Altvest, CSFB/Tremont, EACM, HFR, Institutional Inwestor i CMRA.
Źródło: Till, Eagleye [2004, s. 288].
Znaczenie dźwigi finansowej dobrze oddają słowa B. Clendela z renomowanej firmy
Campbell & Co. w USA, zawarte w wypowiedzi opublikowanej na łamach czasopisma
„Risk Magazine” [Patel 2002]. B. Clendel jest jednym z pionierów funduszy kontraktów
94
Miscellanea
terminowych w USA. Długoterminowa stopa zwrotu wypracowana przez fundusze
Cambella w ciągu 31 lat wynosiła 17,6% po uwzględnieniu opłat. „Żaden rynek nie jest
na tyle nieefektywny, aby jakakolwiek systematyczna strategia wygrywała przez tak długi
czas i w takim stopniu. Nasza prawdziwa przewaga wynosi zaledwie około 4% w skali
roku, ale dzięki 4- lub 5-krotnej dźwigni finansowej jesteśmy w stanie wygenerować bardziej atrakcyjne stopy zwrotu” – skomentował Clendel.
2. Teoretyczne podstawy analizy technicznej
Analiza techniczna stanowił dość kontrowersyjną metodę analizy rynków finansowych
[Irwin, Park 2007, 2008; Schneeweis, Kazemi, Spurgin 2008]. Istnieje ogromny rozdźwięk
między dużą popularnością tej metody wśród praktyków rynkowych a sceptycyzmem społeczności akademickiej.
Jako metoda badania rynków towarowych analiza techniczna ma bardzo długą historię. Na przykład „świece japońskie”, które wśród narzędzi zachodnich europejskich
i amerykańskich inwestorów zagościły dopiero w latach 70. XX w., na Dalekim Wschodzie
wykorzystywane były już 200 lat wcześniej [Nison 1996]. Obecnie na rynku księgarskim
można spotkać dziesiątki książek poświeconych zastosowaniom analizy technicznej w systemach transakcyjnch (np. w przekładzie na j. polski [Lebeau, Lucas 1998; Bernsteinn
2002]) stosowanych na rynkach finansowych, a sama analiza techniczna cieszy się olbrzymią popularnością wśród inwestorów. Już w 1965 r., gdy w USA przeprowadzono pionierską ankietę wśród inwestorów indywidualnych na rynkach futures, okazało się, że
53% ankietowanych opierało się wyłącznie na analizie technicznej [Smidt 1965]. Nieco
później, w 1985 r., The Group of Thirty [1985] zadała podobne pytanie instytucjonalnym
uczestnikom rynku. W próbie złożonej z 40 banków i 15 domów maklerskich w 12 krajach aż 97% banków i 87% domów maklerskich uznało, że analiza techniczna ma znaczący wpływ na rynek. Metoda ta jest też popularna wśród dealerów giełdowych: według
różnych badań kieruje się nią od 30% do 90% osób wykonujących ten zawód [Frankel,
Froot 1990; Taylo, Allen 1992; Menkhoff 1997; Lui, Mole 1998; Cheung, Chinn, Marsh
2000]. Co więcej, analiza techniczna jest szczególnie ważna w branży CTA. Według
Billingsley’a i Chance’a [1996] 60% wszystkich CTA w USA polega wyłącznie lub bardzo
silnie na zautomatyzowanych, technicznych systemach transakcyjnych.
W przeciwieństwie do inwestorów giełdowych, społeczność akademicka jest raczej
wstrzemięźliwa w akceptacji analizy technicznej. Według Irwina i Parka [2008, s. 910]
może to być związane z co najmniej dwiema kwestiami. Po pierwsze, z obficie cytowanymi kilkoma próbami weryfikacji analizy technicznej na rynku akcji, które zakończyły się
odrzuceniem tezy o jej przydatności [Fama, Blume 1966; Van Horne, Parker 1967, 1968;
Jensen, Benington 1970]. Po drugie, z szeroko akceptowaną hipotezą rynku efektywnego
(Efficient Market Hypothesis – EMH). Zgodnie z EMH rynek jest efektywny, kiedy ceny
zawsze w pełni odzwierciedlają wszystkie dostępne informacje [Fama 1970]. Jensen
[1978] podzielił dodatkowo EMH ze względu na zakres informacji it brany pod uwagę
na formę słabą, półsilną i silną:
1) forma słaba efektywności rynku oznacza, że zakres informacji it obejmuje wyłącznie
historię cen na danym rynku do momentu t;
2) forma półsilna efektywności rynku oznacza, że zakres informacji it obejmuje wszystkie informacje publicznie dostępne w momencie t;
3) forma silna efektywności rynku oznacza, że zakres informacji it obejmuje wszystkie
informacje publiczne i niepubliczne w momencie t.
Miscellanea
95
Każdy kolejny zakres informacji zawiera w sobie poprzedni. Jednak warto zauważyć,
że już gdy rynek jest efektywny w formie słabej, nie ma na nim miejsca na ponadprzeciętne zyski wypracowane dzięki analizie technicznej. Reasumując, warto zacytować
Samuelsona [1965, s. 44], który na łamach jednej ze swoich prac stwierdził, że „(…) nie
ma żadnego sposobu, żeby wypracować zysk, ekstrapolując przeszłe zmiany cen na rynkach futures, czytając wykresy lub korzystając z jakiegokolwiek innego ezoterycznego
wynalazku magii matematyki. Notowania rynkowe odzwierciedlają same w sobie wszystko, co wiadomo o przyszłości, i w tym sensie dyskontują wszelkie przyszłe ewentualności,
jakie tylko mogą ludziom przyjść do głowy.”
Późniejsze modele rynków finansowych okazywały się zwykle łaskawsze dla analizy
technicznej. W roku 1980 za sprawą słynnych publikacji Grossmana i Stiglitza [1976,
1980] sporą popularność zdobyły model szumu rynkowego (noisy rational expectations
models). Autorzy ci zauważają charakterystyczny paradoks: jeżeli rynek jest efektywny,
wówczas inwestorzy nie mają żadnej motywacji, aby gromadzić i przetwarzać nowe informacje, tym bardziej, że może się to wiązać ze znaczącymi kosztami. Mówiąc
w uproszczeniu, część inwestorów może świadomie zdecydować się nie inwestować na
podstawie informacji giełdowych, gdyż musieliby przeznaczyć na to własny czas i pieniądze, a skoro rynek jest efektywny, to nie odnieśliby z tego żadnej korzyści. W rezultacie, kiedy rynek jest w równowadze, część inwestorów to tzw. gracze nieracjonalni
(noise traders), którzy nie kierują się informacjami rynkowymi. W sumie model
Grossmana i Stiglitza dopuszcza nieefektywność rynku, gdyż nie wszystkim graczom
opłaca się zbierać i analizować informacje. Nieefektywność może być tym wyższa, im
wyższy jest koszt informacji. Wprawdzie w swojej najbardziej pierwotnej formie model
szumu rynkowego nie dopuszcza analizy technicznej (Grossman i Stiglitz zakładają, że
niedoinformowani inwestorzy mają racjonalne oczekiwania co do przyszłych cen), jednak lukę tę wypełniają późniejsze wariacje. Na przykład Blume, Easley i O’Hara [1994]
dochodzą do wniosku, że informacje na temat „jakości” uczestników rynku może zawierać wolumen obrotu, który w połączeniu z obserwacją cen może zwiększyć skuteczność analizy technicznej.
Kolejny typ modeli, które przychylniej spoglądają na analizę techniczną, to modele
behawioralne. Typowy model behawioralny obejmuje zwykle dwie kategorie inwestorów:
racjonalnych arbitrażystów, którzy kupują niedowartościowane i sprzedają przewartościowane instrumenty (sophisticated investors lub smart money traders), oraz inwestorów
nieracjonalnych (noise traders) [Irwin, Park 2008]. Inwestorzy nieracjonalni opierają swoje decyzje na szumie rynkowym, jak gdyby był on wartościową informacją. Modele behawioralne są osadzone na dwóch podstawowych założeniach, które sprzyjają analizie technicznej. Z jednej strony, inwestorzy nieracjonalni kupują akcje, gdy ceny rosną, a sprzedają, gdy ceny spadają. Tym samym zwiększają w kluczowych momentach popyt bądź
podaż i powodują powstawanie trendów. Z drugiej strony, inwestorzy racjonalni ze
względu na wiele ograniczeń arbitrażu, nie zawsze mają wolę i możliwość przywrócić
ceny do stanu fundamentalnej równowagi [Schleifer 1997].
Omawiając modele behawioralne, warto także wspomnieć pracę Kahnemana
i Tverskiego [1974]. Para naukowców z uniwersytetu w Tel Avivie wskazuje, że na rynkach finansowych może funkcjonować efekt kotwiczenia (anchoring), zgodnie z którym
inwestorzy zbyt silnie przywiązują się do bieżących cen rynkowych. W rezultacie gdy na
rynek wpływa nowa informacja, ceny nie dyskontują jej natychmiast, tylko zmieniają się
stopniowo, gdyż inwestorzy są zbyt silnie „zakotwiczeni” na cenach historycznych. Na
możliwość powstawania trendów na skutek niepoprawnego przyswajania informacji
wskazują również prace Shefrina i Statmana [1985]. Zauważają oni, że po spadku cen
96
Miscellanea
inwestorzy nie są skłonni do sprzedaży posiadanego aktywu, aby nie „spieniężyć” straty,
a jednocześnie po wzroście ceny gracze giełdowi są chętni do sprzedaży, aby zmaterializować zyski. W rezultacie po złych informacjach podaż na rynku może nie być dostateczna, aby doprowadzić ceny do nowej, niższej wartości godziwej, a po informacjach dobrych podaż będzie wręcz za duża, hamując wzrosty. W konsekwencji, i w jednym,
i w drugim przypadku, powstają przesłanki, aby natychmiastowy skok cen został zastąpiony stopniową zmianą, czyli trendem. Ostatecznie należy również zwrócić uwagę na
takie zjawiska, jak myślenie potwierdzeniowe i heurystyka reprezentatywności, które
mogą sprawić, że inwestorzy, obserwując niedawne historyczne wzrosty cen, będą niesłusznie spodziewali się podobnych w najbliższej przyszłości [Wason 1960; Kahneman,
Tversky 1974].
Modele stadne [Froot, Scharfstein, Stein 1992] wskazują, że racjonalni inwestorzy,
którzy zauważą, że dany instrument jest niedowartościowany i zdecydują się na jego zakup, mogą na tej transakcji zarobić tylko wówczas, gdy później inni inwestorzy wygenerują dostateczny popyt, aby cena wróciła do stanu równowagi. Powstałe w ten sposób
„efekty stadne” mogą być na tyle silne, że część inwestorów może próbować zarabiać,
analizując wyłącznie zachowania cen, które nie są bezpośrednio związane z wartością
wewnętrzną spółki. Dodatkowo, działając stadnie, inwestorzy techniczni mogą samodzielnie „popychać” ceny w oczekiwanym przez siebie kierunku, tworząc ze swoich oczekiwań samospełniającą się przepowiednię. Do efektów stadnych nawiązują również De
Long i in. [1990], a także Bikhchandani, Hirshleifer i Welch [1992], którzy zauważają, że
gdy ceny rosną, część inwestorów może pragnąć „przyłączyć się do pociągu, zanim ucieknie”. Zachowania takie zauważono również u uczestników funduszy inwestycyjnych, którzy mają tendencję do przenoszenia środków z kiepsko zachowujących się funduszy do
radzących sobie lepiej.
Następny zespół modeli związany jest z mikrostrukturą rynku. Przykładem mogą być
strumienie zleceń (order flows) [Osler 2003]. Zlecenia typu stop-loss oraz take-profit koncentrują się zwykle w okolicach giełdowych dołków lub szczytów, a także okrągłych liczb.
W rezultacie ich jednoczesna aktywacja może spowodować znaczący wzrost lub spadek
ceny, co może stanowić uzasadnienie dla funkcjonowania np. krótkoterminowych systemów wybicia z zakresu.
Niektórzy autorzy wskazują także, że za powstawanie trendów mogą być odpowiedzialne różnego rodzaju instytucje. Na przykład Silber [1994] obarcza po części winą
banki centralne, które koncentrując się na swoich własnych celach, mogą czasami nie
pozwalać na natychmiastowe i pełne zdyskontowanie informacji fundamentalnych na
rynkach walutowych i w ten sposób doprowadzać do powstawania trendów. Z kolei
Garleanu i Pedersen [2007] jednej z przyczyn powstawania trendów pozwala upatrywać
we współczesnych metodach zarządzania ryzykiem. Na przykład VaR jest obliczany zwykle za pomocą historycznych notowań, w związku z czym, jeżeli nastąpią na rynku gwałtowne spadki cen wybranych instrumentów, instytucja finansowa posiadająca określony
budżet ryzyka może być zmuszona sprzedać część analizowanych aktywów. Na skutek
tego ceny mogą spaść jeszcze dalej, powodując powstanie trendu na rynku.
Istnieje wiele innych teorii objaśniajacych funkcjonowanie rynków finansowych, które nie zdobyły jednak tak szerokiej popularności jak opisane powyżej. Można tu wymienić np. teorię chaosu [Clyde, Osler 1997] czy hipotezy premii za ryzyko dla analityków
technicznych [Irwin, Park 2008, s. 940]. Część autorów jest wreszcie zdania, że skuteczność analizy technicznej może wynikać z okresowych nieefektywności rynku. W miarę
jednak jak są one odkrywane i wykorzystywane przez uczestników rynku, zalety analizy
technicznej stopniowo zanikają [Marquering, Nisser, Valla 2006].
Miscellanea
97
Przedstawione teorie upatrują źródeł skuteczności analizy technicznej w różnych
kwestiach. Co warto zauważyć, przynajmniej część z nich może sugerować zanik lub spadek przydatności wspomnianej metody analizy w ostatnim czasie. Po pierwsze, w ostatnich kilkudziesięciu latach wyraźnie spadły koszty transakcyjne na rynkach finansowych.
Po drugie, znacząco wzrosła dostępność danych rynkowych, a także łatwość i szybkość
ich przetwarzania. Po trzecie, nastąpiła profesjonalizacja rynku i inwestorów. W latach
50. ubiegłego wieku niemal 90% wszystkich akcji notowanych na rynku amerykańskich
było w posiadaniu inwestorów indywidualnych. Tymczasem w 2010 r. odsetek ten skurczył się do niecałych 30%, a prym przejęły fachowe instytucje finansowe [Authers 2010,
s. 10]. Po czwarte, wzrosła rola funduszy kontraktów terminowych, których aktywa pod
zarządzaniem zwiększyły się z 0,3 mld USD w 1980 r., do 247,8 mld USD w 2010 r.
[BarclayHedge Alternative Investments Database]. Po piąte wreszcie, zmniejszyła się
zmienność rynków finansowych, co według niektórych autorów jest również nie bez znaczenia [Kidd, Brorsen 2004], gdyż fundusze kontraktów terminowych są określane jako
strategie długiej zmienności [Jaffarian 2009]. W rezultacie funkcjonujące teorie i modele rynków finansowych dostarczają przesłanek przemawiających za spadkiem skuteczności analizy technicznej.
3. Badania empiryczne nad analizą techniczną
Spore kontrowersje i rozbieżności w ocenach analizy technicznej przez naukowców
i praktyków miały jednak ten błogosławiony skutek, że zaowocowały mnóstwem badań,
których celem było poznanie prawdy o skuteczności analizy technicznej. Analizy te dzieli się zwykle na dwa okresy: badania wczesne i badania współczesne. Obie kategorie
różnią się przede wszystkim metodologią, która z obecnego punktu widzenia we wcześniejszym okresie mogła budzić wiele wątpliwości. Dokładna granica pierwszego okresu
jest mglista, jednak za datę demarkacyjną wskazuje się zwykle rok 1988, kiedy to zostało
opublikowane badanie Lukaca, Broersena i Irwina [1988]. Badanie to jako pierwsze zawierało szereg udoskonaleń metodologicznych, które korygowały kluczowe wady badań
z okresu wczesnego. Zdecydowana większość przeprowadzonych analiz koncentruje się
na automatycznych systemach transakcyjnych opartych na modelach podążania za trendem i odwrócenia trendu. Do rzadkości należą prace badające zdolności prognostyczne
formacji giełdowych, choć i takie można znaleźć [Chang, Osler 1999; Osler 2000; Lo,
Mamaysky, Wang 2000].
Pierwszym szeroko komentowanym opracowaniem dotyczącym skuteczności systemów transakcyjnych jest tekst z 1960 r. autorstwa Donchiana [1960], który do dziś
uważany jest za ojca i guru systemów transakcyjnych [Covel 2009b, s. 85–89]. Donchian
wziął pod lupę skuteczność systemu wybicia z zakresu, gdzie owy zakres był wyznaczany przez minimalne i maksymalne ceny z ostatnich dwóch tygodni. System ten przeanalizował na przykładzie notowań kontraktów terminowych na miedź w latach 1959–1960,
zakładając koszty transakcyjne w kwocie 5,50 USD za kontrakt. System wygenerował
zyski netto na 1000 USD depozytu zabezpieczającego na poziomie 3488 USD dla kontraktów wygasających w grudniu 1959 r. i 1390 USD dla kontraktów wygasających rok
później. Badanie Donchiana trudno uznać za wyrafinowane pod względem metodologicznym, jednak dało ono impuls dla rozkwitu podobnych analiz. Do końca „okresu
wczesnego” w 1988 r. powstało przeszło 40 prac weryfikujących skuteczność systemów
średnich ruchomych oscylatorów, wybić z zakresu, a także różnego rodzaju filtrów
i stop-lossów.
98
Miscellanea
Za reprezentatywne dla okresu wczesnego można uznać badanie badanie Stevensona
i Beara z 1970 r. [Irwin, Park 2008, s. 918]. Badacze przeanalizowali trzy systemy transakcyjne: filtry Alexandra, zlecenia „stop-loss” oraz kombinacje obu strategii. Filtry
Alexandra [1961, s. 7–26] to prosta reguła, która nakazuje kupno instrumentu, gdy jego
cena wzrośnie o ustalone x% od dołka, a sprzedaż, gdy spadnie o x% od szczytu. Z kolei
zlecenia „stop-loss”, za których pomysłodawcę uznaje się Houthakkera [1961], nakazują
zamknięcie otwartej pozycji, gdy cena zmieni się o określoną wielkość w kierunku przeciwnym od oczekiwań inwestora. Stevenson i Bear przetestowali filtry i stop‑lossy na poziomach 1,5%, 3% i 5% przy założeniu kosztów transakcyjnych w wysokości 0,5 centa na
buszel. Analizowano rynki kukurydzy i soi w latach 1957–1968. Badanie przyniosło mieszane wyniki przy różnych kombinacjach, niemniej jednak systemy oparte na filtrach generowały wyższe zyski lub mniejsze straty niż odpowiadające im strategie typu „kup i trzymaj”. Najlepiej sprawdzały się systemy obejmujące 5-procentowe filtry.
Analiza Stevensona i Beara dała zbliżone wyniki do badań Sweeny’ego [1986], który
uznał że dla 10 kursów walutowych filtry generowały istotne statystycznie dodatnie zyski.
Odwrotne wyniki z kolei uzyskali Fama i Blume [1966], którzy po przetestowaniu 30 różnych rynków akcji zauważyli, że systemy oparte na filtrach nie były w stanie wypracować
lepszych wyników niż strategie „kup i trzymaj”. Ogólnie rzecz biorąc, wczesne badania
wskazywały na większą efektywność rynków akcji niż kontraktów terminowych, gdyż nie
przynosiły wiele dowodów na skuteczność analizy technicznej na tych pierwszych [Van
Horne, Parker 1967; Jensen, Benington 1970], a sugerowały przydatność licznych systemów transakcyjnych na rynkach walutowych i surowcowych [Poole 1967; Cornell, Dietrich
1978; Irwin, Uhrig 1984].
Wczesne badania nad analizą techniczną miały wiele wad (por. Irwin, Park [2007]). Po
pierwsze, w większości przypadków analizowano tylko jeden lub dwa systemy transakcyjne,
które były popularne w danym czasie. Rodziło to duże ryzyko wystąpienia problemów typu
pretest bias i data mining, opisanych we wcześniejszej części artykułu. Po drugie, niemal
w żadnym wypadku nie brano po uwagę ryzyka systemów transakcyjnych, a jedynie zyski.
Po trzecie, przeważająca większość badań nie zawierała formalnych testów statystycznych
opartych na statystykach t lub Z. Nawet jeżeli je zawierały, to ich wartość poznawcza była
ograniczona ze względu na wspomniane wcześniej ograniczenia [Lovell 1983; Denton
1985]. Po czwarte, wątpliwość mogą budzić procedury optymalizacyjne. Większość badań
nie przyjmowała a priori jednego parametru do badania, tylko poszukiwała najbardziej
optymalnego i zakładała, że będzie się on również sprawdzał się w przyszłości. Po piąte,
badania korzystały z różnych punktów odniesienia, brak było jednak jednoznacznego konsensusu co do tego, jakiego wzoru należy używać. Po szóste, cześć badań jest trudna do
interpretacji, gdyż prezentowała wyniki jako średnią ze wszystkich przeanalizowanych filtrów i reguł, a nie jako rezultaty dla poszczególnych strategii i rynków.
Późniejsze badania w dużej mierze skorygowały wcześniejsze błędy. Dzięki rozwojowi
mocy obliczeniowych możliwa była analiza znacznie większych zakresów rynków i strategii, a z drugiej strony wykorzystano nowocześniejsze metody badawcze, jak programowanie genetyczne czy bootstraping. Współczesne studia nad analizą techniczną otwiera
praca Lukaca, Broersena i Irwina [1988], którzy przebadali 12 systemów transakcyjnych
na rynkach surowcowych i finansowych kontraktów terminowych w latach 1975–1984.
Systemy te obejmowały kanały cenowe, średnie ruchome, oscylatory, filtry i stop-lossy,
a także kombinacje powyższych strategii. Autorzy wzięli pod uwagę koszty transakcyjne
w wysokości od 50 do 100 USD na kontrakt. Parametry każdego z systemów były optymalizowane przez 3 lata, a następnie system składający się z najlepszych parametrów był
testowany na danych z kolejnego roku. W efekcie systemy same się kalibrowały i były
99
Miscellanea
weryfikowane na podstawie danych spoza badanej próby. Następnie autorzy przeprowadzili trzy testy statystyczne: dwustronny test t, w celu zweryfikowania, czy stopy zwrotu
brutto są różne od zera, jednostronny test t w celu sprawdzenia, czy stopy zwrotu netto
są wyższe od zera, a także obliczono alfę Jensena w celu zbadania, czy system generuje
ponadprzeciętne stopy zwrotu z punktu widzenia modelu CAPM. Test t można uznać za
właściwy ze względu na fakt, że przeprowadzone przez badaczy formalne testy nie pozwoliły odrzucić hipotezy o normalności rozkładu stóp zwrotu z wybranej strategii.
Wyniki pokazały, że 7 z 12 systemów mogło pochwalić się istotnymi statycznie stopami zwrotu brutto, a z tego 4 wykazały dodatnie zyski netto odpowiadające średniorocznym stopom zwrotu od 3,8% do 5,6%. Odpowiadająca im strategia benchmarkowa wypracowała w tym samym czasie stratę w wysokości –2,31%. rocznie. Powyższe systemy
okazały się również zyskowne po skorygowaniu o ryzyko, gdyż charakteryzowały się istotną statystycznie wartością alfy Jensena. Badanie Lukaca, Broersena i Irwina w dużej
mierze potwierdzało skuteczność analizy technicznej na rynkach finansowych.
Wzrost mocy obliczeniowej komputerów w latach 90. i na początku XXI w. pozwolił
na jeszcze większe poszerzenie zakresu badań. Dla przykładu warto przytoczyć analizę
Robertsa z 2005 r. Roberts wykorzystał dość skomplikowany algorytm genetyczny, aby
uniknąć zarzutów o pretest bias i data mining. W pierwszym kroku autor wykorzystywał
20 000 losowych reguł inwestycyjnych, które następnie w toku 20-krotnych optymalizacji
przechodziły przez dwuletni okres treningu i dwuletni okres selekcji (1980–83), a następnie były testowane na danych z okresu 1984–2000. Kryterium optymalizacji stanowiły
zysk netto (po odjęciu kosztów transakcyjnych). Wyniki uzyskane przez Robertsa nie
niosą wiele wsparcia dla zwolenników analizy technicznej. Wprawdzie na 24 testowane
rynki w próbce out-of-sample aż na 15 udało się wypracować zyski, jednak zaledwie
w dwóch przypadkach były one istotnie wyższe od 0.
Ogólnie rzecz biorąc, duża część badań wykonanych po 1988 r. wydaje się potwierdzać skuteczność analizy technicznej, przynajmniej w okresach historycznych. Interesujące
podsumowanie można znaleźć w prac Irwin i Park [2007], którzy dokonali przeglądu 92
badań nad analizą techniczną z lat 1988–2004. Syntezę zawiera tabela 2.
Ta b e l a 2
Skuteczność analizy technicznej w świetle dotychczasowych badań
Liczba badań/wynik
Pozytywny
Mieszany
Razem
Zyskowność
netto
Okres
badań
Negatywny
Rynki akcji
%
26
60%
5
12%
12
28%
43
1,10%
1968–88
Rynki walutowe
%
25
66%
4
11%
9
24%
38
5–10%
1976–91
Rynki futures
%
7
64%
1
9%
3
27%
11
4–6%
1976–86
Razem
%
58
63%
10
11%
24
26%
92
Źródło: Opracowanie własne na podstawie Irwin, Park [2007].
Większość badań wziętych pod uwagę przesz Irwina i Parka zdaje się potwierdzać
całkowicie lub częściowo skuteczność analizy technicznej. Najwyższe historycznie zyski
100
Miscellanea
pozwalała ona generować na rynkach walutowych i surowcowych (kategoria futures obejmuje głównie rynki surowcowe) – średniorocznie odpowiednio 5–10% i 4–6%. Mniejsza
była przydatność analizy technicznej na rynkach akcji.
Co ciekawe, interesujące wzorce ukazują się, gdy przyjrzymy się zmianom skuteczności analizy technicznej w czasie. Sytuacja wygląda podobnie na większości rynków, choć
pewnym wyjątkiem są rynki surowców.
Dotychczasowe badania amerykańskiego rynku akcji wskazują, że dzięki wykorzystaniu analizy technicznej można było dobrze zarobić do końca lat 80. XX w., jednak
w okresie późniejszym nie okazywała się ona już tak skuteczna [Bessembinder, Chan
1998, s. 5–17; Sullivan, Timmermann, White 1999; Ready 2002]. Przykładem niech będzie praca Sullivana, Timmermana i White’a [1999], którzy uznali, że krótkoterminowe
systemy średnich ruchomych generowały zaledwie 2,8-procentowy średnioroczny zysk
w latach 1987–96, który był na dodatek nieistotny statystycznie. Dodatkowo część badaczy bardziej wnikliwie przeanalizowała źródła zysku w strategiach terminowych.
Lesmond, Schill i Zhou zauważyli, że zyskowność ze strategii opartych na momentum
jest najwyższa dla spółek, dla których najwyższe są również koszty transakcyjne. Z kolei
Hwang i Rubesam [2007] doszli do wniosku, że efekt momentum na rynkach akcji po
2000 r. zupełnie przestał istnieć.
Spadek zyskowności strategii technicznych może być związany ze wzrostem efektywności rynku. Za takim tłumaczeniem przemawiałby także fakt, że na mniej efektywnych rynkach wschodzących strategie techniczne okazywały się zyskowne również po 1990 r. [Ito
1999; Ratner, Leal 1999]. W odniesieniu do rynków walutowych wydaje się, że okres skuteczności analizy technicznej był dłuższy [Silber 1994; Taylor 1994; Szakmary, Mathur
1997], jednak z czasem i tam zaczęła ona słabnąć, co zauważają Neely i Weller [2001] oraz
Olson [2004]. Ten ostatni np. przebadał za pomocą systemów średnich kroczących 18 pojedynczych par walutowych oraz równoważony portfel złożony z tychże walut. Dla portfela
średnioroczne korygowane o ryzyko stopy zwrotu spadły z około 3% w latach 70. i 80. do
około zera pod koniec lat 90. Tendencję tę w późniejszych latach potwierdzają Levich
i Pojarliew [2008] w swoim badaniu dotyczącym skuteczności profesjonalnego zarządzania
na rynku walutowym. W opinii autorów zyskowność strategii opartych na modelu podążania za trendem znacząco spadła po 2000 r. i w latach 2001–2006 stopa zwrotu z tak interpretowanego czynnika ryzyka wyniosła zaledwie 0,05% w skali miesiąca. W opinii autora
kurczące się zyski z rynków walutowych można również zinterpretować jako wzrost ich
efektywności informacyjnej.
Najbardziej obiecująco wyglądają rynki surowcowe, czego dowodzi chociażby wspomniane wcześniej badanie Lukaca, Broersena i Irwina. Zauważają to również Schneeweis,
Kazemi i Spurgin [2008]. Co ciekawe, na rynkach surowcowych nawet najprostsze warianty analizy technicznej oparte na efecie momentum są ciągle skuteczne [Pirrong 2005].
Erb i Harvey [2006] analizują efekt momentum w odniesieniu do indeksu GSCI w latach
1969–2004. Badacze ci weryfikują banalnie prostą metodę, polegającą na otwieraniu pozycji długiej w kontraktach futures na indeks w miesiącu następującym po miesiącu, kiedy nastąpiły wzrosty, a pozycji krótkiej po miesiącu spadkowym. Średnioroczna stopa
zwrotu z zajmowania pozycji długich w latach 1969–92 wyniosła 17,49%, natomiast pozycji krótkich – 9,89%. W okresie późniejszym zyski wprawdzie spadły, ale wciąż były
znaczące. Wynosiły 11,34% i 4,07% odpowiednio dla pozycji długich i krótkich. Z kolei
w badaniu Gorton, Hayashi i Rouwenhorst [2007] zyski ze strategii momentum opartej
na kupowaniu surowców, które przez ostatnie 12 miesięcy wypracowały wysokie stopy
zwrotu, a sprzedawaniu tych, które wypracowały niskie zwroty, przyniosła wręcz większe
zyski w okresie 1990–2006 (15,36%) aniżeli w pełnym okresie badania 1969–2006
Miscellanea
101
(13,36%). Wszystkie stopy zwrotu okazały się statystycznie wyższe od zera. Kończąc
komentarz do dotychczasowych badań prowadzonych na rynkach surowców, warto jeszcze wspomnieć pracę Miffre i Rallis [2007]. Autorzy dokumentują wyniki strategii momentum w odniesieniu do 31 surowcowych kontraktów futures w latach 1979–2004, która polegała na systematycznym kupowaniu kontraktów najsilniej rosnących i sprzedawaniu kontraktów najbardziej spadających we wcześniejszym okresie. Rozważane jest 16
wariantów strategii, w których okresy obserwacji historycznych stóp zwrotu i rotacji konstrukcji portfela wahają się od 1 do 12 miesięcy. Uzyskane wyniki pozwalają stwierdzić,
że strategia momentum charakteryzowała się wskaźnikami średniorocznej stopy zwrotu
do odchylenie standardowego na poziomie przeciętnie 0,5. Wskaźniki te utrzymywały
się na stabilnym poziomie w każdym z kolejnych pięciu pięcioletnich podokresów z lat
1979–2004.
Względna stabilność zysków osiąganych przy użyciu strategii technicznych nie powinna być jednak źródłem przesadnego optymizmu co do przyszłych stóp zwrotu z funduszy
managed futures co najmniej z dwóch powodów. Po pierwsze, surowce są postrzegane na
rynku kontraktów terminowych jako stosunkowo młoda klasa aktywów, za której symboliczne narodziny uważa się 2004 r., kiedy to ujrzała światło dzienne przełomowa praca
Gortona i Rouwenhorsta [Rogers 2004, s. 211; Authers 2010, s. 104]. W związku z tym
prawdziwy wzrost ich efektywności informacyjnej, a w rezultacie spadek użyteczności
strategii technicznych, powinien przypadać na drugą połowę obecnej dekady. Na chwilę
obecną brak jest szczegółowych badań analizujących skuteczność analizy technicznej
w tym okresie. Po drugie, w miarę rozwoju rynku kontraktów finansowych futures, stopniowo malało znaczenie surowców w portfelach CTA. W latach 60. i 70. byli oni aktywni
niemal wyłącznie na rynkach towarowych. Obecnie kontrakty terminowe oparte na surowcach stanowią jedynie niewielki odsetek portfela. Na przykład według statystyk
BarclayHedge na koniec III kwartału 2010 r., zaledwie 0,5% wszystkich funduszy managed futures deklarowało się jako zorientowane wyłącznie na rynki rolne. To niemal
30-krotnie mniej niż w przypadku rynków walutowych. Wprawdzie największą kategorię
zadeklarowaną przez podmioty z branży managed futures stanowiły fundusze zdywersyfikowane (132,6 mld USD), jednak również trudno sądzić, aby w ich portfelach przeważały rynki towarowe. Autor tego artykułu nie posiada niestety twardych danych pozwalających potwierdzić to przypuszczenie, jednak mogą na to wskazywać dwa czynniki.
Z jednej strony, udział towarów jako instrumentów bazowych światowych rynków
instrumentów pochodnych jest stosunkowo niewielki. W roku 2008 surowce stanowiły
tylko około 10% rynków kontraktów futures i opcji notowanych na giełdach [Burghardt,
Acworth 2009, s. 17]. W takich warunkach trudno też oczekiwać, aby dominowały one
w portfelach inwestorów na rynkach kontraktów terminowych. Z drugiej strony, ukazujące się pojedyncze raporty na temat składu portfeli funduszy managed futures funkcjonujących na rynku zdają się sugerować raczej niewielką rolę kontraktów surowcowych
w ich portfelach. Przykładem może być MAN AHL oferowany w Polsce przez fundusz
Skarbiec Alternatywny, który na dzień 25 października 2010 r. posiadał ponad 70% portfela w finansowych i akcyjnych kontraktach futures [Skarbiec TFI S.A.].
Podsumowując rozważania na temat technicznych strategii transakcyjnych, dotychczasowa literatura w dużej mierze potwierdza ich skuteczność na różnych rynkach do
końca lat 80. lub 90. W późniejszym okresie, zdolność analizy technicznej jako narzędzia
do generowania ponadprzeciętnych zysków znacząco się skurczyła lub zupełnie zanikła.
W szczególności dotyczy to rynków akcji i walut. Wyjątkiem od tej reguły okazały się
póki co wybrane wschodzące rynki akcji oraz surowce. Niemniej jednak, z jednej strony
rynki towarowe odgrywają obecnie drugorzędną rolę w portfelach managed futures (nie
102
Miscellanea
wspominając już o rynkach wschodzących, które są właściwie nieobecne), z drugiej zaś
istnieją przesłanki, aby przypuszczać, że także w odniesieniu do surowców skuteczność
analizy technicznej może zanikać.
Podsumowanie
Celem niniejszego artykułu było zweryfikowanie, czy u źródeł malejącej zyskowności funduszy kontraktów terminowych może leżeć spadek skuteczności wykorzystywanych przez
nie strategii inwestycyjnych. Większość branży managed futures podejmuje swoje decyzje
przy użyciu automatycznych systemów transakcyjnych opartych na analizie technicznej.
Skuteczność tej metody badania rynku nie jest wprawdzie zgodna z popularną koncepcją
rynku efektywnego, jednak może być usankcjonowana przez nowsze teorie, np. teorię
szumu rynkowego, teorie behawioralne, teorie chaosu czy różnych aspektów mikrostruktury rynku. Wydaje się, że na gruncie opisanych teorii zmiany, jakie dokonały się na
rynkach finansowych w ciągu ostatnich kilkudziesięciu lat, mogą tłumaczyć spadek skuteczności analizy technicznej. Mowa tu przede wszystkim o spadku kosztów transakcyjnych, większej dostępności informacji, a także łatwości i szybkości ich przetwarzania,
profesjonalizacji rynku czy wzroście znaczenia funduszy kontraktów terminowych. Spadek skuteczności strategii technicznych znajduje również potwierdzenie w badaniach
empirycznych z ostatnich 50 lat. Przydatność analizy technicznej wydaje się znacząco
spadać lub niemal zanikać na rynkach akcji na początku lat 90., a niedługo później również na rynkach walutowych. Wyjątkiem póki co są rynki surowcowe, które jednak odgrywają obecnie drugorzędną rolę w portfelach CTA.
Podsumowując, przeprowadzone rozważania oraz przegląd literatury wydają się potwierdzać, że źródłem pogarszających się wyników funduszy kontraktów terminowych
jest spadek skuteczności strategii technicznych.
Niniejszy artykuł należy traktować jako przyczynek do dalszych badań na temat skuteczności strategii managed futures. Przyszłe analizy powinny skoncentrować się m.in. na
dalszym poszukiwaniu przyczyn pogarszania się jakości analizy technicznej, weryfikacji,
czy zmiany te mają charakter tymczasowy czy trwały, a także na badaniu skuteczności
analizy technicznej w najnowszej historii rynków surowcowych.
Tekst wpłynął 29 grudnia 2010 r.
Bibliografia
Alexander S.S., Price Movements in Speculative Markets: Trends or Random Walks, „Institutional
Management Review”, 1961, nr 2.
Authers J., The Fearful Rise of Markets: Global Bubbles, Synchronized Meltdowns, and How to Prevent
Them in the Future, FT Press, N.J. 2010.
BarclayHedge Alternative Investments Database, http://www.barclayhedge.com (27.12.2010).
Bernstein J., Inwestor jednosesyjny. Day trading: systemy inwestycyjne, strategie, wskaźniki i metody
analityczne, Oficyna Ekonomiczna, Wolters Kluwer Polska sp. z o.o., Warszawa 2002.
Bessembinder H., Chan K., Market Efficiency and the Returns to Technical Analysis, „Financial
Management” 1998, nr 27.
Bikhchandani S., Hirshleifer D., Welch I., A Theory of Fads, Fashion, Custom, and Cultural Change
as Informational Cascades, „Journal of Political Economy” 1992, t. 100, nr 5.
Billingsley R.S., Chance D.M., Benefits and Limitations of Diversification among Commodity Trading
Advisors, „Journal of Portfolio Management” 1996, nr 1.
Miscellanea
103
Black F., Noise, „Journal of Finance” 1986, t. 41.
Blume L., Easley D., O’Hara M., Market Statistics and Technical Analysis: The Role of Volume,
„Journal of Finance” 1994, t. 49.
Burghardt G., Acworth W., 2008: A Wild Ride, „Futures Industry Magazine” 2009, March/April.
Center for International Securities and Derivatives Markets (CISDM), The Benefits of Managed
Futures: 2006 Update, Isenberg School of Management, University of Massachusetts, Boston
2006.
Chang P.H.K., Osler C.L., Methodical Madness: Technical Analysis and the Irrationality of Exchange-Rate Forecasts, „Economic Journal” 1999, t. 109.
Cheung Y.W., Chinn M.D., Marsh I.W., How Do UK-Based Foreign Exchange Dealers Think Their
Market Operates? „NBER Working Paper” 2000, nr 7524.
Clyde W.C., Osler C.L., Charting: Chaos Theory in Disguise? „Journal of Futures Markets” 1997, t. 17.
Cornell W.B., Dietrich J.K., The Efficiency of the Market for Foreign Exchange under Floating
Exchange Rates, „Review of Economics and Statistics” 1978, t. 60.
Covel M.W., Trend Following (Updated Edition): Learn to Make Millions in Up or Down Markets, FT
Press, N.J. 2009.
De Long J.B., Shleifer A., Summers L.H., Waldmann R.J, Positive Feedback Investment Strategies
and Destabilizing Rational Speculation, „The Journal of Finance” 1990, t. 45, nr 2.
Denton F.T., Data Mining as an Industry, „Review of Economics and Statistics” 1985, t. 67.
Donchian R.D., High Finance in Copper, „Financial Analysts Journal” 1960.
Erb C., Harvey C., The Strategic and Tactical Value of Commodity Futures, „Financial Analysts
Journal” 2006, t. 62.
Fama E.F., Blume M.E., Filter Rules and Stock Market Trading, „Journal of Business” 1966, nr 1.
Fama E.F., Efficient Capital Markets: A Review of Theory and Empirical Work, „Journal of Finance”
1970, nr 2.
Frankel J.A., Froot K.A., Chartist, Fundamentalists, and Trading in the Foreign Exchange Market,
„American Economic Review” 1990, t. 80.
Froot K.A., Scharfstein D.S., Stein J.C., Herd on the Street: Informational Inefficiencies in a Market
with Short-Term Speculation, „Journal of Finance” 1992, t. 47.
Fung W., Hsieh D.A., The Information Content of Performance Track Records: Investment Style and
Survivorship Bias in the Historical Performance of Commodity Trading Advisors, „Journal of
Portfolio Management” 1997, nr 1.
Garleanu N., Pedersen L.H., Liquidity and Risk Management, „The American Economic Review
97”, 2007.
Gorton G.B., Hayashi F., Rouwenhorst K.G., The Fundamentals of Commodity Futures Returns,
Working Paper 2008, http://papers.ssrn.com/sol3/papers.cfm?abstract_id=996930 (13.02.2011).
Gorton G.B., Rouwenhorst K.G., Facts and Fantasies about Commodity Futures, „Financial Analysts
Journal” 2006, nr 2.
Grossman S.J., Stiglitz J.E., Information and Competitive Price Systems, „American Economic
Review” 1976, t. 66.
Grossman S.J., Stiglitz J.E., On the Impossibility of Informationally Efficient Markets, „American
Economic Review” 1980, t. 70.
Group of Thirty, The Foreign Exchange Market in the 1980s, New York 1985.
Gupta R., Kazemi H., Factor Exposures and Hedge Fund Operational Risk: The Case of Amaranth, CISDM
Working Paper 2009, http://papers.ssrn.com/sol3/papers.cfm?abstract_id=1509769 (13.02.2011).
Hirshleifer D.A., Investor Psychology and Asset Pricing, „Journal of Finance” 2001, nr 4.
Houthakker H.S., Systematic and Random Elements in Short-Term Price Movements, „American
Economic Review”, 1961, t. 51.
Hwang S., Rubesam A., The Disappearance of Momentum, Working Paper 2007, http://papers.ssrn.
com/sol3/papers.cfm?abstract_id=968176 (13.02.2011).
Irwin S.H., Park C.H., The Profitability of Technical Analysis in Commodity Markets, w: The Handbook
of Commodity Investing, red. F.J. Fabozzi, R. Fuss, D.G. Kaiser, John Wiley & Sons Inc.,
Hoboken, N.J. 2008.
104
Miscellanea
Irwin S.H., Park C.H., What Do We Know About the Profitability of Technical Analysis? „Journal of
Economic Surveys” 2007, nr 4.
Irwin S.H., Uhrig J.W., Do Technical Analysts Have Holes in Their Shoes? „Review of Research in
Futures Markets” 1984, nr 3.
Ito A., Profits on Technical Trading Rules and Time-Varying Expected Returns: Evidence from Pacific-Basin Equity Markets, „Pacific-Basin Finance Journal” 1999, nr 3–4.
Jaffarian E., Managed Futures, w: CAIA Level II. Advanced Core Topics In Alternative Investments,
red. Ch. Wilkens, John Wiley & Sons Inc., Hoboken, N.J. 2009.
Jensen M.C., Benington G.A., Random Walks and Technical Theories: Some Additional Evidence,
„Journal of Finance” 1992, nr 2.
Jensen M.C., Some Anomalous Evidence Regarding Market Efficiency, „Journal of Financial
Economics” 1978, nr 2–3.
Kahneman D., Tversky A., Judgment under Uncertainty: Heuristics and Biases, „Science” 1974,
t. 185.
Kidd W.V., Brorsen B.W., Why Have the Returns to Technical Analysis Decreased? „Journal of
Economics and Business” 2004, nr 3.
Korajczyk R., Sadka R., Are Momentum Profits Robust to Trading Costs? „Journal of Finance” 2004,
nr 3.
Lebeau C., Lucas D.W., Komputerowa analiza rynków terminowych, WIG-Press, Warszawa 1998.
Lesmond D.A., Schill M.J., Zhou C., The Illusory Nature of Momentum Profits, „Journal of Financial
Economics” 2004, nr 2.
Levich R.M, Pojarliev M., Do Professional Currency Managers Beat the Benchmark? „Financial
Analysts Journal” 2008, nr 5.
Lhabitant F.S., Commodity Trading Strategies: Examples of Trading Rules and Signals from the CTA
Sector, w: The Handbook of Commodity Investing, red. F.J. Fabozzi, R. Fuss, D.G. Kaiser, John
Wiley & Sons, Hoboken, N.J. 2008.
Lhabitant F.S., Hedge Funds: Quantitative Insights, John Wiley & Sons, London 2004.
Lo A.W., Mamaysky H., Wang J., Foundations of Technical Analysis: Computational Algorithms,
Statistical Inference, and Empirical Implementation, „Journal of Finance” 2000, nr 4.
Lovell M.C., Data Mining, „Review of Economics and Statistics” 1983, t. 65.
Lui Y.H., Mole D., The Use of Fundamental and Technical Analyses by Foreign Exchange Dealers:
Hong Kong Evidence, „Journal of International Money and Finance” 1998, nr 17.
Lukac L.P., Brorsen B.W., Irwin S.H., A Test of Futures Market Disequilibrium Using Twelve Different
Technical Trading Systems, „Applied Economics” 1988, nr 20.
Marquering W., Nisser J., Valla T., Disappearing Anomalies: A Dynamic Analysis of the Persistence
of the Anomalies, „Applied Financial Economics” 2006, nr 4.
Menkhoff L., Examining the Use of Technical Currency Analysis, „International Journal of Finance
and Economics” 1997, nr 2.
Miffre J., Rallis G., Momentum Strategies in Commodity Futures Markets, „Journal of Banking and
Finance” 2007, nr 6.
Murphy J.J., Analiza techniczna rynków finansowych, WIG-Press, Warszawa 1999.
Narang R.K., Inside the Black Box, John Wiley & Sons Inc, Hoboken, N.J. 2009.
National Futures Association, http://www.nfa.futures.org (28.12.2010).
Neely C.J., Weller P.A., Technical Analysis and Central Bank Intervention, „Journal of International
Money and Finance” 2001, t. 20.
Nison S., Świece i inne japońskie techniki analizowania wykresów, WIG-Press, Warszawa 1996.
Olson D., Have Trading Rule Profits in the Currency Markets Declined over Time? „Journal of Banking
and Finance” 2004, t. 28.
Osler C.L., Support for Resistance: Technical Analysis and Intraday Exchange Rates, Federal Reserve
Bank of New York, „Economic Policy Review” 2000, nr 6.
Patel N., It’s All in the Technique, „Risk Magazine” 2002, nr 49.
Perold A., Salomon R., The Right Amount of Assets under Management, „Financial Analysts Journal”
1991, nr 3.
Miscellanea
105
Pirrong S.C., Momentum in Futures Markets, Working Paper 2005, http://papers.ssrn.com/sol3/
papers.cfm?abstract_id=671841 (13.02.2011).
Poole W., Speculative Prices as Random Walks – An Analysis of Ten Time Series of Flexible Exchange
Rates, „Southern Economic Journal” 1967, t. 33.
Ratner M., Leal R.P.C., Tests of Technical Trading Strategies in the Emerging Equity Markets of Latin
America and Asia, „Journal of Banking & Finance” 1999, t. 23.
Ready M.J., Profits from Technical Trading Rules, „Financial Management” 2002, t. 31.
Roberts M.C., Technical Analysis and Genetic Programming: Construction and Testing a Commodity
Portfolio, „Journal of Futures Markets” 2005, nr 7.
Rogers J., Hot Commodities: How Anyone Can Invest Profitably in the World’s Best Market, Random
House, New York 2004.
Samuelson P.A., Proof That Properly Anticipated Prices Fluctuate Randomly, „Industrial Management
Review” 1965, nr 2.
Schleifer A., Vishny R., The Limits of Arbitrage, „Journal of Finance” 1997, nr 1.
Schneeweis T., Kazemi H., Spurgin R., Momentum in Asset Returns: Are Commodity Returns a Special
Case? „The Journal of Alternative Investments” 2008, nr 4.
Serbin V., Bull P.M., Zhu H., The Capacity of Liquidity-Demanding Equity Strategies, „The Journal
of Portfolio Management” 2009, nr 1.
Shefrin H., Statman M., The Disposition to Sell Winners Too Early and Ride Losers Too Long: Theory
and Evidence, „Journal of Finance” 1985, nr 3.
Silber W.L., Technical Trading: When It Works and When It Doesn’t, „Journal of Derivatives” 1994,
nr 1.
Skarbiec TFI S.A., http://www.skarbiec.pl/karta_funduszu/55 (27.12.2010).
Smidt S., Amateur Speculators. Graduate, School of Business and Public Administration, Cornell
University, Ithaca, N.Y. 1965.
Sullivan R.A., Timmermann A., White H., Data Snooping, Technical Trading Rule Performance, and
the Bootstrap, „Journal of Finance” 1999, t. 54.
Sweeny R.J., Beating the Foreign Exchange Market, „Journal of Finance”, 1986, t. 41.
Szakmary A.C., Mathur I., Central Bank Intervention and Trading Rule Profits in Foreign Exchange
Markets, „Journal of International Money and Finance” 1997, t. 16.
Taylor M.P., Allen H., The Use of Technical Analysis in the Foreign Exchange Market, „Journal of
International Money and Finance” 1992, nr 11.
Taylor S.J., Trading Futures Using a Channel Rule: A Study of the Predictive Power of Technical
Analysis with Currency Examples, „Journal of Futures Markets” 1994, t. 14.
Till H., Amaranth Lessons Thus Far, „The Journal of Alternative Investments” 2008, nr 4.
Till H., Eagleeye J., How to Design a Commodity Futures Trading Program, w: Commodity Trading
Advisors. Risk, Perforamance Analysis and Selection, red. G.N. Gregoriou, V.N. Karavas,
F.S. Lhabitant, F. Rouah, John Wiley & Sons, Hoboken, N.J. 2004.
Till H., Passive Strategies in the Commodity Futures Markets, „Derivatives Quaterly”, jesień 2000.
Vangelisti M., The Capacity of an Equity Strategy, „Journal of Portfolio Management” 2006, nr 2.
Van Horne J.C., Parker G.G.C., Technical Trading Rules: A Comment, „Financial Analysts Journal”
1968, nr 4.
Van Horne J.C., Parker G.G.C., The Random-Walk Theory: An Empirical Test, „Financial Analysts
Journal” 1967, nr 6.
Wason P.C., On the Failure to Eliminate Hypotheses in a Conceptual Task, „The Quarterly Journal
of Experimental Psychology” 1960, nr 12.
Wilder J.W. Jr., Concepts in Technical Trading Systems, Hunter Publishing Co., Greensboro 1978.
http://www.bloomberg.com
e
s
e
j
e
Michał Gabriel Woźniak*
Przyszłość może być lepsza.
Refleksje na marginesie książki Grzegorza W. Kołodki
Świat na wyciągnięcie myśli1
Bezprecedensowe w historii ludzkości i pełne dramaturgii przyspieszenie modernizacji
we wszystkich wymiarach bytu ludzkiego, obserwowane od końca lat 60., wiąże się z koincydencją wielu współzależnych procesów egzo- i endogenicznych. Wyrastają one z rewolucji technologii informacyjnych, niesprawności reguł kapitalizmu i prób poprawiania
środowiska jego funkcjonowania poprzez pogłębianie i upowszechnianie liberalizacji,
deregulację, restrukturyzację, minimalizację funkcji państwa. Społeczne podłoże tych
procesów modernizacyjnych jest ukorzenione w rozkwicie różnorodnych ruchów kulturowo-społecznych, wśród których uwagę zwracają: libertarianizm, ruch praw człowieka,
feminizm, ruch na rzecz ochrony środowiska naturalnego, alterglobalizm. W tyglu tych
procesów rodzi się nowy świat, nowa epoka w dziejach ludzkości naznaczona rozmaitymi
paradoksami rozwoju społeczno-ekonomicznego, wynikającymi z nich napięciami i nierównowagami oraz obawami o narastanie ryzyka kryzysogennych procesów.
Wielki wstrząs intelektualny wśród przedstawicieli głównego nurtu ekonomii wywołał
dopiero upadek Lehman Brothers 15 września 2008 r., chociaż kryzys zaczął się w 2007 r.
od załamania rynku substandardowych kredytów hipotecznych w USA. Jednakże fundamentalnymi problemami „wędrującego świata”, wchodzącego w epokę informacjonizmu2, ponowoczesności, netokracji i usieciowionej opartej na wiedzy gospodarki, zajmowało się od lat 70. XX w. wielu najwybitniejszych intelektualistów i naukowców na świecie i w Polsce. Szczególną uwagę zwracają tu tłumaczone na język polski, a ukazujące się
od przełomu wieków diagnozy, prognozy ostrzegawcze, wizje i propozycje usprawnień
M. Castellsa [1996, 1997, 1998]3, A. Toflera [2003], J. Naisbitta, N. Naisbitt i D. Philipsa
[2003], J.K. Galbraitha [2004], I. Wallersteina [2004], J. Mandle’a [2005], A. Barda,
J. Soderqvist [2006], U. Becka [2005], M. Alberta [2007]. Z. Baumana [2007],
M. Bookchina [2009], J.E. Stiglitza [2007 i 2010], J. Sachsa [2009], J.C. Bogle’a [2009],
* Prof. dr hab. Michał Gabriel Woźniak – Katedra Ekonomii Stosowanej, Uniwersytet Ekonomiczny
w Krakowie; e-mail: [email protected]
1 Grzegorz W. Kołodko, Świat na wyciągnięcie myśli, Prószyński i S-ka, Warszawa 2010, s. 318.
2 Termin wprowadzony przez M. Castellsa na określenie sposobu funkcjonowania społeczeństwa informacyjnego i gospodarki sieci.
3 Mam tu na myśli trzytomową trylogię M. Castellsa [1996, 1997, 1998] The Information Age: Economy,
Society, and Culture, Blackwell Publishing Ltd. Oxford, opublikowaną również przez PWN (tom 1:
Społeczeństwo sieci [2008], tom 2: Siła tożsamości [2008], tom 3: Koniec tysiąclecia [2009]).
108
Eseje
B.R. Barbera [2009]. W polskiej literaturze ekonomicznej wśród wielu publikacji o tej
tematyce oryginalny wkład do interdyscyplinarnej debaty nad zagrożeniami globalnymi
ludzkości, wynikającymi z neoliberalnych reguł myślenia i działania i wywiedzionego
z ich krytyki nowego podejścia do roli państwa w gospodarce i sposobów uprawiania
polityki gospodarczej i społecznej, wnosi m.in. G.W. Kołodko w licznych publikacjach4.
Najnowsza jego książka Świat na wyciągnięcie myśli opublikowana w 2010 r., jest kontynuacją refleksji autora wokół postawionych pytań w głośnym w kraju i za granicą jego
bestsellerze Wędrujący świat, który ukazał się w 2008 r. jeszcze przed upadkiem Lehman
Brothers5.
Książka składa się z dwóch części poprzedzonych rozdziałem wprowadzającym o oryginalnym tytule „Wędrówka w czasie i przestrzeni”, a całość zamyka indeks. W sensie
formalnym książka jest nie tyle dziełem naukowym, ile literackim dziełem ekonomicznym, „ekonomią dla niewtajemniczonych”, uwolnioną od uświęconych tradycją metodologii ekonomii procedur postępowania naukowego, w której nie ma przypisów, założeń
opartych na redukcjonizmie i indywidualizmie metodologicznym i wywiedzionych z nich
modeli, teorii i prognoz. Jest to raczej próba wydobywania czytelnika z wieży Babel, mozolnie budowanej nie tyle przez „świątynię nauk ekonomicznych”, ile raczej targowisko
interesów”, którego bohaterowie w opinii autora sprzeniewierzyli się przeznaczeniu nauki, porzuciwszy misję głoszenia prawdy bez względu na okoliczności oraz ideę poszukiwania innego lepszego świata. Autor posługuje się z upodobaniem i pasją zadawania
fundamentalnych dla przyszłości pytań, dyskursem z czytelnikami, kroniką bieżących wydarzeń analizowanych z literackim talentem, szerokim spojrzeniem wykraczającym poza
opłotki podwórka jednej dyscypliny naukowej czy jednego tylko systemu wartości, polemiczną pasją i darem przekonywania płynącym z troski o lepszą jakość życia każdego
człowieka, z dbałością o logikę wywodu i spójność argumentacji.
W rozdziale wprowadzającym autor zwraca uwagę, że pogłębiona analiza biegu dziejów jako intelektualna „wędrówka w czasie i przestrzeni” jest warunkiem poprawnej teorii, która ma pokazać, na jakich zasadach, przy jakich ograniczeniach, w jakich warunkach i z jakimi skutkami działają obiektywne mechanizmy. Teoria o walorach aplikacyjnych wymaga łączenia interdyscyplinarnego podejścia deskryptywnego i postulatywnego,
a tym samym zerwania z redukcjonizmem i uniwersalizmem, z którego wyrosło neoliberalne podejście do mechanizmów rozwoju, fałszywie postulujące wyrównywanie się różnic w poziomie produkcji i konsumpcji. Uwolnione od nadmiernego redukcjonizmu statystyki dowodzą, że narasta zróżnicowanie w obrębie całej populacji ziemskiej, gdyż
zwiększają się różnice wewnątrz poszczególnych społeczeństw, także pod wpływem globalizacji. W zaścianku ortodoksyjnej ekonomii nie ma miejsca na wiele skomplikowanych
uwarunkowań procesów rozwojowych. Trzeba się otworzyć na wielopłaszczyznowe intelektualne współdziałanie z innymi naukami. Drogą do tego jest teoria koincydencji rozwoju i nowy pragmatyzm. Wędrujący i podtrzymywany przez kilka filarów (USA, UE,
Chiny, Indie, Brazylia, Rosja) świat wymaga nowej instytucjonalizacji respektującej szeroko ujmowane uwarunkowania kulturowe (jakość kapitału ludzkiego i społecznego,
system wyznawanych wartości, w tym religię). Trzeba odpowiedzieć na pytanie, jak zapewnić globalną koordynację i co ma być jej przedmiotem.
4 Przywołanie najważniejszych osiągnięć tego autora wraz z odesłaniami do wcześniejszych publikacji jest
zawarte w: Kołodko [2008]. Zob. też. Wykaz publikacji na: http://www.kolodko.net. Zakładka książki.
5 Należy podkreślić, że Wędrujący świat został już przetłumaczony na dziesięć języków, w tym na angielski nakładem Columbia University Press. Dzięki oryginalnym i przepojonym troską o losy świata pomysłom
G.W. Kołodki zawartym w tym dziele polska myśl społeczno-ekonomiczna staje się ponownie głośna
w świecie, podobnie jak w latach 60. dzieła O. Langego i M. Kaleckiego.
Eseje
109
Część pierwsza książki jest ujęta jako postscriptum w stosunku do poprzedniej książki.
G.W. Kołodko nawiązuje tu do licznych wątków poruszanych w tamtej książce: metodologii ekonomii, kryzysu strukturalnego kapitalizmu z uwzględnieniem doświadczeń z lat
2007–2010, zagrożeń globalnych i ich konsekwencji dla Polski, społecznej gospodarki
rynkowej. Poszukuje również strategii dla Polski i odpowiedzi na pytanie, dokąd zmierza
ludzkość i jaka jest przyszłość Europy i świata, nawiązując przy tym do pytań i refleksji
jego czytelników. Niedokończone refleksje wokół tematyki poruszanej w poprzedniej
książce są tu ujmowane jako lekcje z doświadczeń najbliższej, ale również dalszej przeszłości, choć są często pełne gorzkiej krytyki, niekiedy skrajnej i osadzonej w jednoznacznie ukierunkowanej aksjologii, jednak przesycone nadzieją, że „świat może być inny”,
jeśli nauczymy się zintegrowanego myślenia, ukierunkowanego na refleksję zewnętrzną
i wewnętrzną. Nowa książka G.W. Kołodki jest swoistego rodzaju przewodnikiem, który
ma modernizować w tym kierunku refleksję naukową i każdego jej czytelnika.
W dyskursie o metodologii nauk ekonomicznych autor zredukował ekonomię do tworzenia wiedzy opartej na obserwowaniu i wychwytywaniu obiektywnych prawidłowości,
wiązek praw służących budowaniu poprawnej teorii, przydatnej w uprawianiu skutecznej
polityki rozwoju. Jego zdaniem dotychczasowy paradygmat nadmiernie ogranicza perspektywę rozwoju myśli ekonomicznej. Trzeba zbudować nową i szerszą miarę postępu
kulturowo-ekonomicznego, wykorzystać wyniki badań ekonomii opisowej do wnioskowania normatywnego. W tym dyskursie autor ogranicza się jednak do dzielenia się własnymi doświadczeniami w zakresie pozyskiwania warsztatu badawczego. Porównywanie jest
dla niego podstawową metodą badawczą. Podkreśla zatem znaczenie uczenia się poprzez
działanie, zwłaszcza zaś dochodzenia do prawdy w osobistych debatach z autorytetami
naukowymi, doświadczeń z obserwacji sposobów uprawiania polityki i funkcjonowania
grup eksperckich, reguł myślenia i działania także zwykłych ludzi. Tworzenie wiedzy wiąże z odwagą w interdyscyplinarnym myśleniu umiejętnościami w selekcji szumu informacyjnego bezwartościowej czy niewiele wartej literatury.
Autor przeciwstawia się dominacji formy nad treścią, doktrynerstwu, ideologizacji
i podporządkowaniu logiki wywodów naukowych interesom mocodawców – właścicieli
wielkiego kapitału. Nie odnosi się jednak do misji nauki w kontekście problemów związanych z funkcjonowaniem demokratycznej areny politycznej i różnorodnych mediokratycznych grup lobbingowych czy nawet zawodowych i obywatelskich. G.W. Kołodko wyznaje, że hetorodoksja i komparatystyka, interdyscyplinarność i kompleksowość, sceptycyzm i formalna logika, intelektualna niezależność i ciekawość, upór w dochodzeniu do
sedna i niepoprawność polityczna oraz nonkonformizm są kanonami jego metodologii
badań naukowych. W ten sposób Autor próbuje wyzwolić tworzoną wiedzę ekonomiczną
z opóźnienia eksploracyjnego, nie odnosząc się jednak do fundamentalnych problemów
przyspieszonego procesu starzenia się teorii. Można wprawdzie skłonić polityków, aby
wyszli poza „rady ekonomistów poprzedniego pokolenia”, nie można jednak wyzwolić
ekonomii z opóźnienia. Dynamika zmienności i różnorodności zjawisk i procesów społeczno-ekonomicznych epoki informacjonizmu, zdominowanej przez technotroniczną
kulturę i podporządkowanej konkurencji nowego typu, opartej na redukowaniu kosztów
poprzez szeroko rozumiane innowacje i komercjalizację wszystkich sfer bytu ludzkiego,
generuje również rynek aksjologiczny, konstytuujący relatywizm moralny ponowoczesnego społeczeństwa. Stąd efektywność predykcji dokonanej poprzez łączenie choćby najbardziej solidnego podejścia deskryptywnego z normatywnym nie tylko obniża się dramatycznie, lecz również nabiera charakteru względnego. Aksjologia postępu, która leży
u podstaw identyfikacji słusznych celów, niewiele tu wyjaśnia. Trzeba bowiem ustalić
efektywne miary tego postępu.
110
Eseje
Postulowany przez G.W. Kołodkę zintegrowany indeks pomyślności jest dopiero in
statu nascendi, a jeśli się upowszechni, choć odzwierciedli kompleksowo percepcję skutków owego postępu, będzie obarczony wadami podobnymi jak inne syntetyczne miary.
Nie pozostaje zatem inna droga niż identyfikacja właściwych dla poszczególnych sfer
bytu ludzkiego kryteriów wyboru, procedur, narzędzi, instytucji i mechanizmów służących ich realizacji oraz poszukiwania sprzężeń międzysferycznych i ich konsekwencji dla
harmonizowania rozwoju wszystkich sfer bytu ludzkiego w ujęciu intertemporalnym.
Zintegrowany rozwój to coś więcej niż rozwój trwale zrównoważony, nie wyczerpuje go
strategia spójności społeczno-ekonomicznej czy też koncepcja ekorozwoju. Nie pozostaje zatem inna droga w dochodzeniu do podejścia zintegrowanego niż falsyfikacja ortodoksyjnych teorii przy założeniu, że mogą one zawierać adekwatny opis jakiejś składowej
badanego systemu. Absolutna pewność swych racji, zbyt kategoryczne sądy wobec opozycyjnych teorii, choć mogą wypływać ze szlachetnych pobudek i dobrze pojętej misji
nauki nie sprzyjają odkrywaniu prawdy. Rodzą urazy, sprzyjają arogancji oponentów,
świątynię mądrości zamieniają w wieżę Babel, która płynie niczym Titanic, na którym
ciągle jeszcze gra jakaś orkiestra, a inni uprawiają chocholi taniec.
Nauka szuka prawdy ale jej nie tworzy6. Sprzeniewierzanie się tej oczywistej prawdzie
jest manierą ponowoczesności. Arogancja wobec odkryć powoli staje się normą. W nauce potrzebny jest przyjazny, wolny od emocji krytycyzm, a nade wszystko umiejętności
i gotowość do falsyfikacji. Trzeba zatem pamiętać, że choć rzetelne uprawianie nauki jest
ciągle drogą do prawdy, uchylaniem kurtyny niewiedzy, a niezbywalną kondycją ludzką
są ograniczenia poznawcze, informacyjne i emocjonalne, siła idei płynie z przyjaznego,
wolnego od emocji krytycyzmu, osadzonego w rzetelnym naukowym warsztacie analitycznym, w którym doceniane są wyrafinowane analizy ilościowe tam, gdzie to jest możliwe
i efektywne, ale także rzetelne studia przypadków.
Autor słusznie zauważa, że eksperymentowanie z teoriami w oderwaniu od specyficznych czasoprzestrzennych koincydencji z różnych sfer bytu ludzkiego jest nonszalancją pozbawioną poczucia społecznej odpowiedzialności nauki. Skutki podanych przez niego przykładów, konsensusu waszyngtońskiego, „szokowej terapii” w Polsce, przyjmowania sztywnego lub płynnego kursu złotego w oderwaniu od uwarunkowań czasoprzestrzennych są
wymowną ilustracją tej nonszalancji. Dla jej przezwyciężenia autor postuluje antycypowane
już w ekonomii, choć jeszcze niedostatecznie spopularyzowane kontekstowe podejście, respektujące kontekst instytucjonalny, historyczny i konkretny system wartości.
Negatywne skutki nierespektowania podejścia kontekstowego są bliżej ukazane w refleksji wokół „wielkiej transformacji”. Jest tu przedstawiona krytyczna ocena drogi do gospodarki rynkowej, demokracji politycznej, państwa prawa i społeczeństwa obywatelskiego
narzuconej krajom posocjalistycznym na zasadzie eksperymentu opartego na zuniwersalizowanych, neoliberalnych regułach sprawności systemu ekonomicznego, który pomijał
istotne dla przebiegu procesów rozwojowych lokalne uwarunkowania. Ocena 20 lat doświadczeń wielkiej transformacji skłania autora książki do wątpliwości, czy jest to proces
zakończony i czy słuszne są jednoznacznie pozytywne oceny jej konsekwencji. Wniosek taki
formułuje na podstawie diagnozy jakościowego zaawansowania kultury rynkowej sensu largo, efektywnego działania mechanizmów tworzenia i alokacji kapitału oraz podziału wytworzonego produktu, zwłaszcza zaś zdolności do konkurencji na skalę globalną i do harmonijnego rozwoju. Skumulowany wzrost PKB zaledwie o 30% dla wszystkich europejskich krajów posocjalistycznych wraz z Rosją (1,3% średnio rocznie) nie byłby, jego
zdaniem, akceptowany przez nikogo u zarania procesu transformacyjnego, wobec wzrostu
6 Takie przesłanie skierował Jan Paweł II podczas spotkania z członkami Konferencji Rektorów
Akademickich Szkół Polskich, Castel Gandolfo, 30 sierpnia 2001.
Eseje
111
o 420% w tym samym czasie gospodarki Chin, które poszły własną drogą stopniowych reform rynkowych. Pomimo wielu wspólnych cech jakościowo zróżnicowane instytucje, odmienna polityka, zróżnicowany poziom rozwoju, a także istotne różnice geograficzne, kulturowe i polityczne krajów posocjalistycznych, pozwalają sądzić, że zmiany systemowej nie
oparto w tej części świata na żadnej dojrzałej i zwartej teorii ekonomicznej.
Autor nie jest tu jednak konsekwentny w stosowaniu podejścia kontekstowego. Nie
wspomina w swej diagnozie transformacji o tym, iż teorii przejścia do rynku nie było, chociaż o tym wiedzieć musi i jest świadomy tego, że wyrok historii był nieuchronny. Pominięte
są tu problemy wynikające z wyłaniania się gospodarki sieci i społeczeństwa informacyjnego, które były i pozostają nadal fundamentem „wielkiej transformacji” i „wielkiego wstrząsu”, oraz niezwykłej dynamiki turbulencji otoczenia nie tylko na obszarze Europy
Środkowo­‑Wschodniej. Kryzys gospodarki centralnie planowanej z jej systemową niezdolnością dostosowawczą do wyzwań epoki informacjonizmu i konkurencji nowego typu [zob.
Porter 1998] oraz mikroekonomicznej efektywności był potwierdzony empirycznie i teoretycznie. Słusznie jednak autor zauważa, że systemowa transformacja oparta na neoliberalnych programach dostosowawczych mogła być i została potraktowana jako dziejowa okazja
do robienia interesów, w tym spekulacji dla bogatej części świata, której podmioty lepiej
wiedziały, jak wykorzystywać okazje nadarzające się w przestrzeni bez chronionego przez
państwo porządku konkurencyjnego i bez sprecyzowanych społecznych celów rozwoju.
Przytacza tu również wielokrotnie powtarzane we wcześniejszych publikacjach błędy konstrukcyjne planu stabilizacji i liberalizacji gospodarki przyjętego w Polsce oraz błędy w sposobach jego wdrażania, które zaważyły na skali kosztów transformacji: nadmierną skalę
dewaluacji złotego, zbyt długie utrzymywanie sztywnego kursu, nadmiernie restrykcyjne
tłumienie wzrostu wynagrodzeń, za daleko posuniętą liberalizację handlu zagranicznego,
zbyt restrykcyjną politykę monetarną i opieszałe jej korygowanie, dyskryminacyjną politykę
wobec przedsiębiorstw państwowych.
W tej diagnozie ex post, w znacznym stopniu słusznej, autor pomija jednak istniejącą
wówczas powszechnie awersję do gospodarki centralnie planowanej, wynikającą z obserwowanych w praktyce jej ułomności strukturalnych i polityki rządów. Nie było natomiast
krytycyzmu wobec znanych jedynie teoretykom ekonomii błędów rynku. Te ograniczenia
emocjonalne i braki wiedzy o niesprawnościach gospodarki rynkowej, a także brak elementarnej wiedzy o mechanizmach działania rynków u polityków i działaczy związkowych,
uniemożliwiały racjonalne szacunki ryzyka politycznego, ekonomicznego i społecznego
jakiegokolwiek wariantu urynkowienia gospodarki oraz polityki budżetowej i monetarnej.
Należy również zauważyć nawarstwiające się skutki mikroekonomicznej nieefektywności
i ogromne koszty transakcyjne państwa etatystycznego oraz nieudolnej polityki z lat 70.
XX w. W rezultacie w gospodarce Polski nie było przestrzeni do uprawiania roztropnej
polityki keynesowskiej, której zwolennikiem był wówczas G.W. Kołodko. Polska skazana
była na eksperyment zmian systemowych, który nie mógł być osadzony ani w teorii, ani
też oparty na solidnych podstawach prognostycznych. Chociaż neoinstytucjonalizm mógł
się poszczycić swoimi osiągnięciami, to jednak nie dotyczyły one jeszcze problemu efektywnej zmiany instytucjonalnej w przejściu do rynku. Receptą na niespójności instytucjonalne była przede wszystkim deregulacja. Budowa zinstytucjonalizowanego porządku
konkurencyjnego wymagała natomiast czasu. Nie było też odpowiedniej wiedzy, a tym
bardziej narzędzi badawczych do analizy destrukcyjnych skutków zderzenia się wartości
rynkowych z wartościami tradycyjnymi. W powiązaniu ze wspomnianymi wyżej ograniczeniami emocjonalnymi powodowało to niesłusznie niedocenianie czynnika kulturowego
i upadku kapitału społecznego w procesach wzrostu i rozwoju gospodarczego oraz kosztów transformacji wyłaniających się na tle niespójności instytucjonalnej.
112
Eseje
Wiarygodnych szacunków pełnych kosztów alternatywnych systemowej zmiany instytucjonalnej nie można wykonać również obecnie nie tylko z uwagi na problemy pomiaru,
lecz także z powodu ogromnej złożoności tej kategorii, zwłaszcza jeśli odnosić ją do zintegrowanego rozwoju, którego nie potrafimy jeszcze zmierzyć. Możemy jednak wskazać
na niespójności instytucjonalne względem zakładanych celów i poszukiwać takich instytucji oraz całych ich kompleksów, które aktywizują wysiłki ludzi w ich osiąganiu. Jest to
fundamentalne wyzwanie pod adresem dalszych reform, zwłaszcza reform usprawniających funkcjonowanie sektora publicznego, sfery polityki, ale również rynków krajowych
i gospodarki globalnej.
Co do drugiej fazy neoliberalnej polityki z lat 1998–2001, określanej przez autora
„przechłodzeniem” bez potrzeby, która zaowocowała w tym okresie tendencjami recesyjnymi, oraz sposobu porównywania tych dwóch faz z sukcesami według autora „strategii
dla Polski” oraz programem naprawy finansów publicznych zainicjowanym w 2002 r.,
autor ma rację, że ambicje trzeba mieć i trzeba umieć oprzyrządować je skutecznym instrumentarium, co w obu jego programach miało miejsce. Bywają jednak okoliczności,
w których ważą czynniki egzogeniczne, niepozostawiające wiele przestrzeni dla polityki
pobudzania koniunktury.
Na przebieg procesów realnych w gospodarce w latach 1994–1997 pozytywny wpływ
miała nie tylko „strategia dla Polski”, ale również dostosowania mikroekonomiczne
przedsiębiorstw, wynikające z nabytego doświadczenia w zakresie funkcjonowania w warunkach konkurencji, oraz czynniki koniunkturalne. Jeśli chodzi o lata 1998–2001, to
zaistniałe wówczas tendencje recesyjne miały złożone uwarunkowania, wykraczające
poza błędy polityki gospodarczej popełnione w tym okresie. Niskie oszczędności i niedostateczna zdolność absorpcji kapitału zagranicznego oraz niedostateczny w stosunku do
uruchamianych przez „strategię dla Polski” potrzeb rozwojowych gospodarki eksport
doprowadziły do grożącego kryzysem deficytu obrotów bieżących. Nadmierny deficyt narastał siłą rozpędu gospodarki od 1997 r. a w I kw. 2000 r. osiągnął poziom 8,3% PKB.
Sugerowało to przegrzanie koniunktury w warunkach ogólnoświatowych tendencji recesyjnych. Jego przyczyną była wysoka importochłonność popytu inwestycyjnego i konsumpcyjnego przy braku możliwości jej ograniczenia środkami polityki handlowej z racji
głębokiego deficytu budżetowego i podjętych przez Polskę zobowiązań wynikających
z członkostwa w WTO oraz starań o członkostwo w UE. Przy deficycie budżetowym
wynoszącym ponad 5% w stosunku do PKB jakiekolwiek liczące się wspieranie eksportu
za pomocą polityki budżetowej państwa nie było możliwe. Realizowany program reform
społecznych, odkładanych przecież przez poprzednie ekipy rządowe (reformy służby
zdrowia i ubezpieczeń społecznych, reformy samorządów i administracji publicznej),
uniemożliwiał równocześnie ograniczanie wydatków publicznych. Z kolei brak dostatecznie restrykcyjnej polityki fiskalnej spowodował, że główny ciężar chłodzenia koniunktury
został przeniesiony na politykę monetarną. Przestrzeń manewru w zakresie polityki fiskalnej ograniczyła przede wszystkim kontynuacja polityki przegrzania koniunktury
z końcowej fazy programu „strategii dla Polski”, m.in. w wyniku realizacji zainicjowanych
wówczas kosztownych reform społecznych, nierespektowania w działaniach stabilizacyjnych zbyt powolnych dostosowań mikroekonomicznych przedsiębiorstw do impulsów
kryzysowych płynących z gospodarki światowej oraz bezradności rządu w poszukiwaniu
możliwej do zaakceptowania polityki stabilizacyjnej. Stąd „przechłodzenie koniunktury”
zostało niejako wymuszone. Z tego doświadczenia płynie wniosek na przyszłość, iż pobudzanie popytu dla osiągania wyśrubowanych wskaźników wzrostu kończy się wcześniej
czy później brakiem pola manewru w polityce fiskalnej.
Eseje
113
Ambicje trzeba mieć, lecz nie zawsze można im sprostać keynesowskimi metodami
pobudzania wzrostu gospodarczego. Condicio sine qua non powodzenia terapii stabilizacyjnej za pomocą tych metod jest znalezienie takich źródeł popytu, które nie wpychają
gospodarki w kryzys zadłużenia wobec zagranicy, ze strony państwa lub sektora prywatnego. Do tego trzeba jednak przygotować gospodarkę poprzez systematycznie uprawianą
roztropną politykę stabilizacji wzrostu gospodarczego, sprzyjającą nie tylko harmonizowaniu wzrostu różnych składników popytu globalnego, ale również podażowych źródeł
wzrostu gospodarczego. Co do tych ostatnich, liberalne koncepcje polityki gospodarczej
mają przecież wiele do powiedzenia nie tylko w kontekście stylizowanych faktów, ale pod
warunkiem uwolnienia decydentów od skłonności do manipulowania teoriami ekonomicznymi dla uwiarygodnienia wśród wyborców realizowanych przez nich interesów politycznych i uwolnienia sceny politycznej od asymetrycznej gry interesów.
W kolejnym rozdziale swojej książki pt. „Neoliberalizm i współczesny kryzys gospodarczy” G.W. Kołodko otwiera przestrzeń do refleksji nad endogenicznymi przyczynami
współczesnego kryzysu związanymi z interesownie uprawianym doktrynerstwem w polityce gospodarczej oraz systemowym ich podłożem. Autor słusznie podkreśla, że niedopuszczalne jest utożsamianie współczesnego kryzysu z recesją, co sugeruje jego przejściowy charakter. Uzasadnia to twierdzenie następującymi argumentami:
11 niebywałym zróżnicowaniem jego przebiegu w międzynarodowych porównaniach
zmian dynamiki gospodarczej, zwłaszcza między krajami o różnym poziomie rozwoju gospodarczego i zróżnicowanej podatności na globalizację i liberalizację;
11 bardziej redystrybucyjnymi niż produkcyjnymi jego źródłami i skutkami;
11 irracjonalnymi spekulacjami na rynkach finansowych, odrywającymi je od sfery realnej gospodarki;
11 chaotycznymi spadkami zatrudnienia, dotykającymi niektórych sektorów szczególnie
dotkliwie, przy jednoczesnym niebywałym wzroście bezrobocia, które w skali światowej osiągnęło w 2009 i 2010 r. poziom około 80 mln, a w USA wraz z częściowo zatrudnionymi ponad 16%;
11 systemowymi przyczynami kryzysu współczesnej formy kapitalizmu.
Wobec endogenicznych źródeł kryzysu autor zastanawia się, czy można było go uniknąć. Przyjmując przypadkową chronologię, twierdzi, że w perspektywie ostatnich trzech
lat nie było to możliwe z uwagi na stan zaawansowania nierównowagi w gospodarce światowej. Nie podaje jednak uzasadnienia tego twierdzenia. W perspektywie kilkunastoletniej dostrzega taką możliwość. Wiązałaby się ona z nieuleganiem w polityce gospodarczej
i reformach systemowych neoliberalnej doktrynie, która wzięła górę w konfrontacji
z neokeynesizmem w postaci konsensusu waszyngtońskiego. „Lot ćmy do ognia nie został jednak zatrzymany”, pomimo okresowych prób nieortodoksyjnych działań podejmowanych w niektórych krajach. Zdaniem autora tezę tę uzasadnia fakt wskazujący, że
w krajach, w których górę wzięła neoliberalna doktryna lansująca liberalizację i prywatyzację, niedoceniająca konieczności spójnych dostosowań instytucjonalnych i uwzględnienia społecznych aspektów gospodarowania, kryzys okazał się bardziej dotkliwy niż tam,
gdzie odparto neoliberalne natarcie, jak np. w Chinach, Indii, Rosji czy niektórych krajach Ameryki Łacińskiej.
Trzydzieści lat temu istniała alternatywa wyboru modelu społecznej gospodarki rynkowej, charakteryzującego się imperatywem spójności społecznej, instytucjonalizacją
ukierunkowaną na przedsiębiorczość, dbałością państwa o zrównoważony podział efektów wzrostu wydajności pracy i podnoszenia efektywności kapitału oraz o jakość środowiska naturalnego. Słabości na arenie międzynarodowej krajów cieszących się funkcjo-
114
Eseje
nującą społeczną gospodarką rynkową oraz naiwność części elit intelektualnych i politycznych w krajach „wschodzących”, reformujących system polityczny i społeczno-ekonomiczny, sprawiły jednak, że świat powędrował w stronę neoliberalnego modelu.
Neoliberalizm posługuje się nośnymi społecznie ideami wolności politycznej i gospodarczej, demokracji, prywatnej własności, przedsiębiorczości, konkurencji, jednakże są one
często eksploatowane na korzyść mniejszości kosztem większości społeczeństwa.
Doktryna neoliberalna myli też środki z celami, sprzyja „gospodarce kasyna”, irracjonalnemu przerzucaniu odpowiedzialności, destrukcyjnej deregulacji, sukcesywnemu osłabianiu instytucji państwa. Z powodów strukturalnych kryzys neoliberalnego kapitalizmu
przetoczyć się musi przez pięć kolejnych faz: finansową, gospodarczą, produkcji, społeczną, polityczną i sferę wartości. Chociaż doraźny interwencjonizm monetarny i reakcje
polityki fiskalnej na kryzys finansowy autor ocenia pozytywnie, traktuje je jako receptę
na przejawy, a nie skutki.
Trwałe usunięcie przyczyn kryzysu autor wiąże z przebudową systemu wartości, instytucji i sposobów uprawiania polityki oraz umiejętnym poruszaniem się w obszarze trójkąta rozwoju zrównoważonego społecznie, ekologicznie i gospodarczo. Metodologiczną
podstawą budowania i wykorzystania tych umiejętności ma być przestrzeganie zasad koincydencji teorii rozwoju i nowego pragmatyzmu. Te pierwsze wymagają odejścia od dogmatyzmu, bezrefleksyjnej ideologizacji, mądrości konwencjonalnej i prawdy konsensualnej oraz uniwersalizmu na rzecz interdyscyplinarnego myślenia, socjoekonomicznych
analiz porównawczych w wielowymiarowej przestrzeni historycznej, geograficznej, kulturowej, instytucjonalnej, politycznej, społecznej i problemowej, odróżniania celów od
środków i elastyczności instrumentalnej. Nowy pragmatyzm ma zaś polegać na inteligentnym manewrowaniu rozpoznanymi uwarunkowaniami, zwłaszcza zaś na nowoczesnym interwencjonizmie instytucjonalnym.
W ogólnych zarysach przedstawiona diagnoza kryzysu i podejścia do jego przezwyciężenia dotyka istotnych kwestii i jest spójna logicznie. Są to jednak refleksje zbyt ogólne,
pomijające wiele ważnych kwestii, a te, które są poruszone, nie zostały sfalsyfikowane.
Nie został nakreślony mechanizm narastania zjawisk kryzysowych; choć wskazane zostały przez autora krytycznie jego przyczyny, pominięte zostały czynniki egzogeniczne i bezpośrednie przyczyny. Przede wszystkim zaś autor nie odniósł się do strukturalnych przyczyn związanych z government failures. Ograniczenia poznawcze, informacyjne i emocjonalne dotyczą przecież nie w mniejszym stopniu polityków, ich ekspertów i tych, którzy
na nich głosują, co świata biznesu i niewątpliwie są umocowane w innych interesach. Na
pewno należy szukać zmian instytucjonalnych równoważących interesy, na pewno należy
docenić podejście zintegrowane do procesów rozwojowych. Należy przede wszystkim budować konsensus społeczny dla przeciwdziałania kryzysowi i na rzecz zintegrowanego
rozwoju.
Z tych samych przesłanek teoretycznych i w podobnej konwencji jest rozpatrywana
w kolejnym rozdziale problematyka konsekwencji globalnych perturbacji spowodowanych neoliberalną polityką w odniesieniu do Polski. Jest tu bardziej skonkretyzowana
analiza przesłanek kryzysu związanych z polityką gospodarczą. Zawarte są tu również
realistyczne, trafne i pouczające propozycje działań antykryzysowych. Autor podkreśla,
że wzrost wydajności pracy również w Polsce nie był opłacany ekwiwalentnym wzrostem
płac realnych, trzeci próg podatkowy zniesiono jeszcze przed wybuchem kryzysu, co
wzmocniło presję na import luksusowych dóbr konsumpcyjnych. Przesłanki do spadku
dynamiki gospodarczej tworzyła tradycyjnie niedostateczna dywersyfikacja geograficzna
polskiego eksportu. Po wybuchu kryzysu rząd przyjął pasywną politykę typu wait and see.
Oznaczało to złe wykorzystanie czasu kryzysowego.
Eseje
115
Autor identyfikuje pięć kanałów transferu światowego kryzysu do Polski, upatrując
je w:
11 przenoszeniu się recesji od partnerów handlowych i poprzez globalne przepływy finansowe;
11 spekulacjach finansowych, które umożliwiał płynny kurs walutowy (zwłaszcza na
opcjach walutowych), szacowanych w latach 2008–2010 na około 3,2–3,3 % PKB;
11 masowej migracji zarobkowej, która objęła 1,8 mln osób – przeważnie młodych,
przedsiębiorczych i dobrze wykształconych;
11 pesymistycznych oczekiwaniach różnych grup podmiotów gospodarczych.
Na dogmatyczną, obliczoną na przeczekanie liberalną politykę rządu G.W. Kołodko
zareagował listem otwartym do premiera, w którym domagał się: bezinflacyjnego zwiększenia deficytu (o ok. 6–7 mld zł), interwencji na rynku walutowym stabilizującej kurs euro
wokół 4 zł, wzmocnienia potencjału wzrostowego rodzimych instytucji finansowych poprzez dokapitalizowanie BGK, PKO BP i Korporacji Ubezpieczeń Społecznych (2,5 mld
zł), aportu w postaci akcji spółek skarbu państwa (1 mld zł), wzmocnienia KUKE dla
zwiększenia ekspansji eksportowej na wschodzące rynki oraz wykorzystania narzędzi polityki mikroekonomicznej, w szczególności zaś podwyższenia odpisów amortyzacyjnych dla
przedsiębiorstw. Proponował też przekształcenie nowo powołanego Komitetu Stabilności
Finansowej z forum dyskusyjnego w operatywne ciało zarządzania kryzysowego.
Autor ubolewa, że mit braku alternatywy i propaganda sukcesu gospodarczego Polski
na tle Europy wzięła górę, gdyż doktryna neoliberalna wyklucza światły interwencjonizm.
PKB wzrósł w 2009 r. o ok. 1,8%, lecz skala spadku jego dynamiki była podobna jak
w krajach, gdzie wystąpiła recesja. Zdaniem autora nie jest to bynajmniej sukces ani rezultat polityki rządu. Ten mizerny wzrost umożliwiła siła rozpędu i ogromna deprecjacja
złotego. W opinii autora możliwy był niemal dwukrotnie wyższy wzrost, niższe bezrobocie, mniejszy margines wykluczenia społecznego, mniejszy deficyt budżetowy, lecz zwyciężyło doktrynerstwo i krótkowzroczna wiara w ozdrowieńcze skutki samoregulujących
właściwości neoliberalnego porządku spontanicznego. Polski nie ominął kryzys, gdyż niewykorzystanie mocy produkcyjnych utrzymuje się poniżej długookresowego trendu i nadal spada, bezrobocie rośnie i zaostrza się kryzys finansów publicznych, warunki przedsiębiorczości pogarszają się, polityka zaś sprowadza się do walki o władzę i jej utrzymania
w obliczu nieustannej kampanii wyborczej.
Koncentracja refleksji wokół neoliberalnego podłoża narastających współcześnie nierówności w dochodach rodzi pytanie, czy istnieje sprawdzona w praktyce alternatywa
systemowa. G.W. Kołodko doszukuje się tej alternatywy w modelu społecznej gospodarki rynkowej. Autor podkreśla, że ten model rynku zawiera wpisany (normatywny) imperatyw sprawiedliwości dostępnej dla wszystkich i ogólnego dobrobytu. W tym sensie społeczna gospodarka rynkowa ma charakter uniwersalny, gdyż jest imperatywem aksjologicznym, wymagającym troski o harmonizowanie efektywności ekonomicznej ze
sprawiedliwością społeczną przy zachowaniu równowagi. Efektywność ekonomiczną ma
zapewnić mechanizm rynkowy, państwo zaś powinno zapewnić spójność społeczną. Do
tego jednak potrzebny jest określony system wartości, którego nie może zagwarantować
konstytucja, gdyż jest on zakorzeniony w ludzkich chęciach i przekonaniach. Z tego powodu społeczna gospodarka rynkowa nie może powstać na zasadzie zabiegu politycznego, lecz jej tworzenie jest procesem wymagającym odpowiedniego otoczenia kulturowego. Nie można jej zatem zbudować przez okres jednej kadencji parlamentarnej, gdyż jest
to proces pokoleniowy, wymagający wysokiej klasy kapitału społecznego i ludzkiego, aby
chcieć i umieć powszechnie łączyć dbałość o efektywność ekonomiczną, równowagę społeczną i autentyczną troskę o sprawiedliwość.
116
Eseje
Populizm lewicowy czy prawicowy, a nawet państwo opiekuńcze niewiele mają wspólnego z ideą społercznej gospodarki rynkowej. Nie ma z nią związku polska hybryda neoliberalizmu z posocjalistycznym dziedzictwem populistycznym. Taki twór okazał się niespójny, niekompatybilny i niekompleksowy. Model społecznej gospodarki rynkowej wymaga
bezwzględnie holistycznego, interdyscyplinarnego podejścia, a zarazem nieortodoksyjnego
myślenia. Choć obecna faza globalizacji ma znamiona bardziej neoliberalne niż społeczne,
a do idealnego świata dojść nie można, ale zmierzać warto. Przyszłość społecznej gospodarki rynkowej leży zatem w nieustannej trosce o taką modernizację instytucjonalną, która
sprzyjałaby nie tylko sprawiedliwości społecznej i umacnianiu spójności, ale również
wzmacnianiu przedsiębiorczości i konkurencyjności.
W Polsce hasło społecznej gospodarki rynkowej pozostało przede wszystkim w sferze
intencjonalnej jako deklaracja zapisana w konstytucji RP z 1997 r. w art. 20. W praktyce
jej zasady są obecne o tyle, o ile zostały one wchłonięte przez acquise commonautaire
UE, który tworzy normatywną przestrzeń funkcjonowania rynków i polityki społeczno-ekonomicznej państw członkowskich tego ugrupowania integracyjnego.
Autor nie podejmuje tu jednak fenomenu kryzysu idei społecznej gospodarki rynkowej od lat 80. Nie dostrzega bardziej imitacyjnego niż innowacyjnego charakteru rozwoju generowanego w uwarunkowaniach systemowych modelu społecznej gospodarki rynkowej i jego hybrydowych wersji realizowanych w niektórych krajach UE, różnic i podobieństw w stosunku do kapitalizmu neoliberalnego [Lewis 2005] oraz systemowych
przyczyn skłonności do niższej aktywności zawodowej w porównaniu z anglosaskim modelem rynku. Przekonywająca intelektualna negacja neoliberalizmu nie prowadzi jeszcze
w kierunku społecznej gospodarki rynkowej, gdyż ta ostatnia nie wytrzymała nacisku
technotronicznej kultury i poszukiwania bardziej przewag konkurencyjnych niż porządku
konkurencyjnego respektującego sprawiedliwe nierówności społeczne. Należałoby w tym
kontekście wyjaśnić, że nacisk ze strony zaostrzającej się asymetrycznej konkurencji
transnarodowych korporacji w warunkach globalizacji i liberalizacji, wywiedzionej z neoliberalnych reguł myślenia i działania, stwarzał nieprzyjazne środowisko dla respektowania powinności wynikających z obowiązku zapewnienia godnych warunków życia wszystkim obywatelom, postulowanych w pryncypiach społecznej gospodarki rynkowej.
Przedsiębiorstwa obarczone kosztami wynikającymi z tych obowiązków coraz częściej
były narażane na utratę przewagi konkurencyjnej, a tym samym nie były już w stanie
zagwarantować odpowiednio wysokiego wzrostu PKB dla realizowania przez państwo
powinności społecznych, wynikających z wynegocjowanych ze społeczeństwem programów polityki społeczno-ekonomicznej. Pojawiające się w związku z tym problemy stawiały pod znakiem zapytania przydatność reguł społecznej gospodarki rynkowej do specyfiki wyzwań kapitalizmu globalnego.
Istnieje też inny problem. Społeczna gospodarka rynkowa okazała się z czasem podatna na lewicowy populizm, z uwagi na słabości demokratycznych procedur politycznych, z czego zdawali sobie sprawę jej twórcy. Sprawujące władzę lewicowe elity polityczne nie były jednak skłonne do przeciwstawienia się nawałnicy populistycznej.
W kontekście polityki antykryzysowej należy również podkreślić, że koncepcja społecznej gospodarki rynkowej postuluje korektę ex ante funkcjonalną z logiką rynku za
pomocą ładu instytucjonalnego zorientowanego na dobrobyt materialny – w przeciwieństwie do koncepcji welfare state, w której państwo wykorzystuje ex post narzędzia polityki
gospodarczej7.
7 Dla właściwego zrozumienia istoty modelu społecznej gospodarki rynkowej warto zwrócić uwagę na
wypowiedzi na ten temat jej twórców, a zarazem wybitnych ekonomistów i polityków w osobach L. Erharda,
W. Eukena, W. Röpkke, A. Rüstowa i H.F Wünschego. Zob. Społeczna gospodarka... [2009].
Eseje
117
Sprawna gospodarka rynkowa jest warunkiem koniecznym, lecz niewystarczającym
rozwoju i postępu. Z powodu ułomności „niewidzialnej ręki rynku” i bez długofalowej
strategii, która – zdaniem autora książki – została wyparta w Polsce przez koncepcję
„nadwiślańskiego neoliberalizmu” i zastąpiona koncepcją małego państwa z niskimi wydatkami i małymi dochodami przynoszącymi duże straty, niemożliwe jest rozwiązywanie
wielu problemów strategicznych zrównoważonego rozwoju społeczno-gospodarczego
opartego na wysokim poziomie wewnętrznych oszczędności i inwestycji z wykorzystaniem przede wszystkim krajowych zasobów. Autor nie wskazuje jednak, jak zagwarantować ten poziom oszczędności i niezbędną dynamikę innowacyjności gospodarki dla skutecznej ekspansji proeksportowej, która miałaby być zalecaną przez niego siłą napędową
wzrostu gospodarczego w warunkach istniejącej przecież ciągle luki technologicznej [zob.
Kubielas 2010]. Ekspansja eksportu oparta na postulowanym przez niego osłabieniu złotego i bezinflacyjnym stymulowaniu zagregowanego popytu wszystkich składników popytu krajowego jest zwodniczo atrakcyjna i ryzykowna, trudna do realizacji i wymaga szczególnego zbiegu okoliczności gwarantujących dobrą koniunkturę gospodarczą. Strategia
ta w warunkach konkurencji opartej na innowacjach nie może być skuteczna w długim
okresie. Chociaż byłaby realizowana w warunkach gospodarki rynkowej, jest prawdopodobne, że nie przyniosłaby efektów podobnych jak w Chinach, raczej spotkałby ją podobny los jak te, które praktykowano w gospodarce centralnie planowanej. Polska nie posiada tak dużego rynku krajowego i nie może zagwarantować niezbędnej skali oszczędności
krajowych dla uruchomienia odpowiednich procesów modernizacyjnych do realizowania
w długim okresie postulowanego przez autora wzrostu PKB co najmniej 5% średniorocznie. Do tego potrzebny jest również przyjazny dla kapitału zagranicznego klimat inwestycyjny.
Fundamentalnie słuszny jest postulat oparcia długookresowej strategii na szybkim
wzroście i sprawiedliwym podziale – społecznie akceptowalnym i niedestabilizującym
sytuacji politycznej oraz konsekwentnie zmniejszającym zakres wykluczenia społecznego
poprzez progresywne opodatkowanie dochodów, przy większej dbałości o kapitał społeczny, skutecznym funkcjonowaniu państwa i korzystnej integracji. Autor słusznie upatruje też skuteczności państwa w budowaniu instytucji sprzyjających rozwojowi konkurencyjnej przedsiębiorczości i umacnianiu społecznej spójności. Przyjęte przez autora
kryterium sprawiedliwego podziału jest jednak zbyt ogólne. Jego operacjonalizacja wymaga rozwiązania kwestii rozumienia i mierzenia sprawiedliwych nierówności społeczno-ekonomicznych oraz ustalenia dostosowanych do tego narzędzi i procedur w celu zapewnienia właściwego nagradzania wysiłku, poświęcenia i wkładu wnoszonego do zintegrowanego rozwoju.
Z historycznej analizy procesów demograficznych i wzrostu gospodarczego autor
wnioskuje, że mechaniczne ekstrapolowanie wzrostu i rozwoju gospodarczego prowadzi
na manowce, gdyż nie są to procesy liniowe. Przebieg tych procesów determinuje koincydencja postępu technicznego, krytycyzmu, wiedzy ekonomicznej, determinacji władz
i otwarcia gospodarki. Kryterium racjonalności indywidualistycznej, zdefiniowanej jako
działanie na własną korzyść, jest zdaniem autora zawodne, a nawet szkodliwe w warunkach szumu informacyjnego i asymetrii informacji. Rozwiązania należy szukać w holistycznym i multidyscyplinarnym ujmowaniu racjonalności.
Wartości, instytucje i polityka są przez autora traktowane jako zróżnicowane
w czasie i przestrzeni warunki rozwoju społeczno-gospodarczego. Brak zrozumienia,
a nawet lekceważenie tempa i struktury zmian tych „miękkich” czynników rozwoju na
gruncie tradycyjnej teorii ekonomii uniemożliwia wyjaśnienie istoty obecnego kryzysu.
Autor wywodzi stąd konieczność holistycznego i eklektycznego traktowania rozwoju
118
Eseje
oraz umiejętnego sięgania przez ekonomistów do socjologii, nauk politycznych, psychologii społecznej, historii gospodarczej, ekologii, antropologii, kulturoznawstwa,
historii gospodarczej, filozofii, a nawet biologii, nauki o sieci czy studiów nad przyszłością.
Kluczowym zagadnieniem stojącym przed ekonomią rozwoju i polityką gospodarczą
jest pokojowe przyhamowanie ilościowego rozwoju i odrzucenie przyspieszania rozwoju
poprzez globalizację z uwzględnieniem kwestii ubóstwa. Świat nie wytrzyma amerykanizacji rozwoju ze względu na napięcia kulturowe, szybko rosnącą nierównowagę, wyczerpywanie się zasobów i dewastację środowiska. Uniknięcie wysokich kosztów żywiołowego
i chaotycznego dostosowania się do tych zagrożeń wymaga świadomego i kontrolowanego planowania opartego na postulowanej przez autora teorii rozwoju i na zasadach nowego pragmatyzmu. Pomimo postępu technicznego zmniejszającego energochłonność
i surowcochłonność gospodarki świat zbliża się nieuchronnie do twardej ściany wyczerpywania się nieodnawialnych zasobów. Reformując nieodwracalny proces globalizacji,
należy podjąć starania o nadanie jej społecznego sensu, co wymaga konsekwentnej walki
z jej neoliberalną odsłoną i reinstytucjonalizacji gospodarki.
Patrząc w przyszłość Europy i świata w perspektywie 2050 r., trzeba rozumieć współistnienie dwóch megatrendów: globalizacji i regionalizacji. Perspektywa kilkunastu wielkich regionalnych ugrupowań integracyjnych stwarza nadzieję na głębszą i bardziej skuteczną koordynację polityki gospodarczej poszczególnych państw. Coraz mniejsza ilość
narodowych walut i coraz więcej ponadnarodowych instytucji oraz ponadnarodowej koordynacji polityki zmniejszą niebezpieczeństwo kryzysów finansowych. Kryzysowe katharsis może przyspieszyć ten proces. UE ma więcej do zaproponowania dla pokojowej
i prorozwojowej globalizacji wymuszającej racjonalne zachowania. Autor oczekuje od
niej inicjatywy w sprawie wprowadzenia ponadnarodowego, progresywnego podatku
ekologicznego. Postuluje też hamowanie dążeń do powrotu do przedkryzysowego tempa
wzrostu w bogatych krajach Zachodu.
W postulowanej przez autora strategii przeciw kryzysowi i zagrożeniom trwale zrównoważonego rozwoju zabrakło miejsca na teoretyczny i empiryczny kontekst government
failures w gospodarce postindustrialnej. Ułomności kierowania przez państwo procesami
rozwojowymi oraz warunki ich przezwyciężania były i są nadal szeroko podejmowane
w literaturze głównego nurtu. Są one doktrynersko wykorzystywane i eksponowane nie
tylko w podejściach neoliberalnych. Upowszechniane w tej kwestii neoliberalne lub keynesowskie podejścia, wypaczając relacje między błędami rynku i kierowania przez państwo, wymagają takiej debaty. Bez tej debaty grozi nam odchylenie w kierunku nieroztropnego interwencjonizmu.
W warunkach słabych instytucji społeczeństwa obywatelskiego, źle funkcjonującego
państwa i mediokratycznego szumu informacyjnego na elitach intelektualnych – nie tylko
ekonomicznych – ciąży obowiązek inicjowania, mobilizowania i uzbrajania edukacyjnego
wszystkich grup społecznych do partnerskiego dialogu przeciw kryzysowi i przeciw zagrożeniom zintegrowanego rozwoju. Neoliberalna ideologia dyskredytująca państwo jako
grabieżcę przyszłości na rzecz teraźniejszości i skoncentrowanego wokół bezproduktywnych na ogół i mało efektywnych społecznie celów, jest drogą do niedoskonałej konkurencji i ubezwłasnowolnionego państwa pozbawionego mocy, narzędzi i materialnych
środków do sprawnego wypełniania funkcji, dla których jest powołane.
Państwo jest za duże nie tylko z powodu immanentnych właściwości regulacji nierynkowej. Demokracja jest przecież rynkiem politycznym i podobnie jak rynki ekonomiczne
podlega asymetrycznej konkurencji i asymetrycznej informacji, a ludzie funkcjonujący na
rynku politycznym, podobnie jak ludzie biznesu, są skłonni do maksymalizowania wła-
Eseje
119
snych korzyści i przerzucania odpowiedzialności za nieroztropne decyzje na innych
uczestników tych rynków, oczywiście słabszych, mniejszych, uboższych.
Błędne definiowanie problemów, w tym przypadku funkcji państwa, w świecie asymetrycznej konkurencji, depopulacji, autonomizacji rynków finansowych, wysokiego i rosnącego wciąż bezrobocia, rozszerzającej się sfery ubóstwa, kryzysu finansów publicznych, słabej kreatywności i wielu innych mniejszej rangi problemów nigdy nie służy poszukiwaniu konstruktywnych rozwiązań. Dla zaradzenia tym problemom nie mogą być
skuteczne recepty polegające na minimalizowaniu funkcji państwa lub jego powiększaniu. Muszą one być przecież wpisane w kontekst formowania się nowych ośrodków władzy i przeciwładzy [Beck 2005] w wyniku globalizacji, rozwoju gospodarki sieci i społeczeństwa informacyjnego oraz naporu globalnych i lokalnych zagrożeń rozwojowych.
W przypadku Polski recesja, a tym bardziej kryzys nakazują rozstrzygnąć, czy możliwe
jest skuteczne egzekwowanie obowiązków i odpowiedzialności informacyjnej, zmiana
struktury obciążeń podatkowych wzmacniająca przedsiębiorczość i popyt na produkcję
krajową bez naruszania ratyfikowanych międzynarodowych regulacji. W uzupełnieniu do
postulatów autora książki możliwa wydaje się inteligentna i sprawiedliwa polityka prorodzinna, możliwe jest w jej kontekście łączne opodatkowanie nie tylko dorosłych członów
rodziny, możliwe są podwyższone progi podatku dochodowego od osób fizycznych najwyżej uposażonych, powiązane z ulgami z tytułu przedsiębiorczych działań, ograniczających bezrobocie. W powiązaniu z taką zmianą możliwy jest dodatkowy, niższy próg podatkowy dla podatników z dochodami poniżej minimum socjalnego lub zwolnieniami od
podatku w takich przypadkach. Jeśli zauważyć, że dochody najuboższych warstw, w tym
rodzin wielodzietnych są silniej powiązane z wydatkami na produkcję krajową niż popyt
rynkowy zgłaszany przez najbogatsze warstwy społeczne, takie rozwiązanie byłoby pożądane z uwagi na prawdopodobną przewagę jego dodatnich efektów mnożnikowych,
a w ostatecznym rezultacie zahamowanie tendencji do pogłębiania się nierówności dochodowych, leżących przecież u źródeł współczesnego kryzysu. Można byłoby wskazać
także inne przykłady roztropnych rozwiązań fiskalnych, związanych z redukcją podatków
bezpośrednich, powiązanych z rekompensatą ubytków dochodów budżetowych za pomocą wzrostu podatków pośrednich od dóbr luksusowych, zwłaszcza zaś podatku akcyzowego od dóbr, których konsumpcja jest społecznie niepożądana.
Redukcja podatków może też być rekompensowana za pomocą instytucji ukierunkowanych na wyrugowanie rent seeking, a dosadnie rzecz ujmując – wyeliminowanie korupcji, biurokracji, przerzucania odpowiedzialności na osoby trzecie itp. Potrzebna jest do
tego wola polityczna, której nie sposób wykrzesać w otoczeniu ekspertów nierespektujących specyficznych uwarunkowań epoki informacjonizmu i rynku politycznego posocjalistycznego państwa mediokratycznego, nieposiadającego należytego umocowania w społeczeństwie obywatelskim.
Poszukującym odpowiedzi na pytanie, ile ma być państwa w gospodarce i jakie funkcje
ma ono do wypełnienia wobec zagrożeń płynących ze strukturalnych uwarunkowań współczesnego, wielofazowego, chronicznego kryzysu w zmieniających się uwarunkowaniach
czasoprzestrzennych epoki informacjonizmu, polecam falsyfikację własnych przekonań
ideologicznych, do czego niezwykle pożyteczny może się okazać, pomimo jego eseistycznej
formy Świat na wyciągnięcie myśli G.W. Kołodki. Kategoryczne wypowiedzi często formułowane w postaci atrakcyjnych literackich metafor, oryginalne zestawienia informacji statystycznych, porównań w czasie i przestrzeni, posługiwanie się siłą idei, talentem polemicznym i literackim, choć obciążone brakiem skłonności do falsyfikacji własnych poglądów,
pewną nieufnością wobec konwencjonalnych procedur naukowego postępowania badawczego i nadmiarem aksjomatów, zmuszają do refleksji podążającej wytyczoną przez autora
120
Eseje
metodologią poszukiwania koincydencji w wielowymiarowej przestrzeni zjawisk i procesów. W tym znaczeniu nowa książka G.W. Kołodki staje się narzędziem modernizacji refleksyjnej [Beck, Giddens, Lash 2005], której musimy się nauczyć, aby nie błądzić w świecie
szumu idei, antywartości, bezwartościowych informacji, partykularnych interesów, obarczonych grzechem nadmiernego redukcjonizmu diagnoz i terapii. Epoka informacjonizmu
i ponowoczesności tego od nas wymagają (zob. Kaufman [2004]).
Tekst wpłynął 29 listopada 2010 r.
Bibliografia
Albert M., Ekonomia uczestnicząca. Życie po kapitalizmie, Wyd. Bractwa Trojka, Poznań 2007.
Barber B.R., Skonsumowani. Jak rynek psuje dzieci, infantylizuje dorosłych i połyka obywateli,
Warszawskie Wydawnictwo Literackie Muza SA, Warszawa 2009.
Bard A., Soderqvist J., Netokracja. Nowa elita władzy i życie po kapitalizmie, Wydawnictwa
Akademickie i Profesjonalne, Warszawa 2006.
Bauman Z., Płynne życie, Wydawnictwo Literackie, Kraków 2007.
Beck U., Władza i przeciwwładza w epoce globalizacji. Nowa ekonomia polityki globalizacji, WN PWN,
Warszawa 2005.
Beck U., Giddens A., Lash S., Modernizacja refleksyjna, WN PWN, Warszawa 2005.
Bogle J.C., Dość. Prawdziwe miary bogactwa, biznesu i życia, PTE, Warszawa 2009.
Bookchin M., Przebudowa społeczeństwa, Oficyna Wydawnicza Bractwa „Trojka”, Poznań 2009.
Castells M., End of Millenium. The Information Age: Economy, Society and Culture, t. III, Blackwell,
Oxford, Cambridge, Mass., 1998.
Castells M., The Power of Indetity. The Information Age: Economy, Society and Culture, t. II,
Blackwell, Oxford, Cambridge, Mass., 1997.
Castells M., The Rise of the Network Society, The Information Age: Economy, Society and Culture,
t. I, Blackwell, Oxford, Cambridge, Mass., 1996.
Freefall, America, Free Markets, and the Sinking of the World Economy, W.W. Norton & Company,
New York 2010.
Galbraith J.K., Gospodarka niewinnego oszustwa. Prawda naszych czasów, Wydawnictwo MT Biznes,
Warszawa 2004.
Kaufman J.-C., Egosocjologia jednostki. Inna wizja człowieka i konstrukcji podmiotu, Oficyna
Naukowa, Warszawa 2004.
Kołodko G.W., Wędrujący Świat, Pruszyński i S-ka, Warszawa 2008.
Kubielas S., Innowacje i luka technologiczna w gospodarce globalnej opartej na wiedzy. Strukturalne
i makroekonomiczne uwarunkowania, Uniwersytet Warszawski, Warszawa 2010.
Lewis W.W., Potęga wydajności, CeDeWu, Warszawa 2005.
Mandle J., Globalna sprawiedliwość, Wydawnictwo Sic!, Warszawa 2005.
Michael A., Ekonomia uczestnicząca. Życie po kapitalizmie, Oficyna Wydawnicza Bractwa „Trojka”,
Poznań 2007.
Naisbitt J., Naisbitt N., Philips D., High Tech high touch. Technologia a poszukiwanie sensu, Wydawnictwo Zysk i S-ka, Warszawa 2003.
Porter M., Porter o konkurencji, PTE, Warszawa 2001.
Sachs J., Nasze wspólne bogactwo. Ekonomia przeludnionej planety, WN PWN, Warszawa 2009.
Społeczna gospodarka rynkowa, red. E. Mączyńska, P. Pysz, PTE, Warszawa 2009.
Stiglitz J.E., Freefall America. Free Markets, and the Sinking of the World Economy, W.W. Norton &
Company Inn., New York 2010.
Stiglitz J.E., Wizja sprawiedliwej globalizacji, Propozycje usprawnień, WN PWN, Warszawa 2007.
Tofler A., Zmiana bogactwa – Wiedza, bogactwo i przemoc u progu XXI stulecia, Poznań 2003.
Wallerstein I., Koniec świata jaki znamy, Wydawnictwo Naukowe SCHOLAR, Warszawa 2004.
l a u r e a c i
n a g r o d y
n o b l a
Dominik Buttler*
Józef Orczyk**
Jan Szambelańczyk***
Procesy poszukiwań i dopasowań na rynku pracy.
Laureaci Nagrody Nobla z ekonomii w 2010 r.
Wstęp
Nagrody im. Alfreda Nobla wywołują żywe zainteresowanie przede wszystkim w środowiskach bezpośrednio zainteresowanych dokonaniami, które stanowiły podstawę do wyboru
laureata lub laureatów1. W warunkach jednego z największych kryzysów w globalnej gospodarce, gdy media są pełne krytycznych ocen ekonomistów, a jednocześnie popularyzowane
są pesymistyczne scenariusze dla krajów najmocniej dotkniętych jego konsekwencjami,
kwestia dokonań laureatów stanowiących uzasadnienie wyboru nabrała większego niż zwykle znaczenia. Obok złożonej procedury zgłoszeń i wyboru nagrodzonych istotne znaczenie
ma także społeczny przekaz związany z nagrodzonymi osiągnięciami. Jak zauważył profesor
E. Gleaser w felietonie dla New York Timesa: „W niewielu przypadkach Komitet przyznawał nagrodę w tak odpowiednim momencie” [Gleaser 2010]. W sytuacji, gdy świat ciągle
walczy z przejawami kryzysu ekonomicznego, a liczba ludzi bez pracy pozostaje relatywnie
bardzo wysoka, badania wyjaśniające naturę bezrobocia zasługują na szczególną uwagę.
Jednak podobnie jak w latach minionych, także ten ostatni werdykt wywołuje pewne kontrowersje2. Jest zrozumiałe, że Nagrody Nobla w dziedzinie nauk ekonomicznych mają
* Dr Dominik Buttler – Katedra Pracy i Polityki Społecznej, Uniwersytet Ekonomiczny w Poznaniu;
e-mail: [email protected]
** Prof. dr hab. Józef Orczyk – Katedra Pracy i Polityki Społecznej, Uniwersytet Ekonomiczny
w Poznaniu; e-mail: [email protected]
*** Prof. dr hab. Jan Szambelańczyk – Katedra Pracy i Polityki Społecznej, Uniwersytet Ekonomiczny
w Poznaniu; e-mail: [email protected]
1 Nagroda Szwedzkiej Królewskiej Akademii Nauk w naukach ekonomicznych, pamięci Alfreda Nobla,
została ufundowana przez Sveriges Riksbank, bank centralny Szwecji, w 1968 r. z okazji jego 300­‑lecia. Od
tamtej pory 42 razy nagrodzono nią 67 laureatów (22 nagrody miały charakter indywidualny, 15 razy laureatów było dwóch lub dwoje, a 5 razy nagrodzono zespoły trzyosobowe). Siedem nagród przyznano za
osiągnięcia w dyscyplinie makroekonomii, co wyróżnia ten obszar nauk ekonomicznych. Najbardziej utytułowaną instytucją z punktu widzenia afiliacji laureatów jest Wydział Ekonomii Uniwersytetu w Chicago.
Por. http://en.wikipedia.org/Wiki/List_of_Nobel_laureates_in_Economics
2 [Por. http://profilefacts.blogspot.com/2010/nobel-in-economics.html]. Tegoroczny werdykt w naukach
ekonomicznych wywołuje niejednolite opinie. P. Krugman pisze o osiągnięciach P. Diamonda: „Głęboko
znacząca praca. A nawiasem mówiąc, dla tych z nas, którzy zajmują się modelowaniem, praca Petera
Diamonda zapiera dech w piersiach swą elegancją – nikt nie potrafi przedstawić złożoności z takim wdziękiem” [http://krugman.blogs.nytimes.com/2010/10/11/what-we-learn-from-search-models/]. Jeśli chodzi
122
Laureaci Nagrody Nobla
sporą dozę subiektywizmu jurorów, gdyż nie sposób bezwzględnie porównać zasług osób
nominowanych, zwłaszcza w kontekście społecznej użyteczności wyników ich badań czy
wkładu w rozwój tej dość rozległej dziedziny nauki. Charakterystyczne, że wiek laureatów
w naukach ekonomicznych jest stosunkowo zaawansowany, co może sugerować, że kapituła Nagrody Nobla w tej dziedzinie preferuje całokształt dorobku naukowego, starając się
unikać (choć nie zawsze to się udaje) koniunkturalności w swych werdyktach3.
W dobie osiągnięć technologii komunikacyjnych, wpływających niemal na wszystkie sfery
aktywności człowieka, gdy w mgnieniu oka przeprowadzane są m.in. transakcje finansowe na
kwoty i odległości, których przeciętny człowiek nie widzi w całym życiu, gdy coraz powszechniej występują przeglądarki internetowe pozwalające porównywać oferty różnych dóbr i usług,
często występują sytuacje, w których sprzedający nie znajdują kupujących, a zwłaszcza wielu
bezrobotnych bezskutecznie zabiega o zatrudnienie, podczas gdy pracodawcy w tym samym
czasie usiłują pozyskać pracowników. Dzieje się tak m.in. dlatego, że procesy poszukiwań
wymagają nakładów, w tym nakładów czasu. Skala tych nakładów zwiększa się wraz z rozeznaniem wpływu coraz większej liczby zmiennych, które wywołują frykcje na rynku.
Tegoroczną Nagrodę Nobla w ekonomii przyznano za fundamentalny wkład w rozwój
teorii poszukiwań i dopasowań (search and matching theory), która jest stosowana na wielu obszarach badawczych. Szczególnie znane przykłady to rynek nieruchomości, polityka
pieniężna, ekonomia publiczna, finanse, ekonomia regionalna czy ekonomika rodziny.
Trzej wyróżnieni nią laureaci otrzymali ją za swój wkład w rozwój zastosowań tej teorii
w analizie rynków pracy i w objaśnianiu przyczyn bezrobocia.
Teoria ta stwarza podstawy do badania frykcji towarzyszących transakcjom rynkowym,
jakie odbywają się w praktyce i pozwala na lepsze poznanie funkcjonowania rynków,
zwłaszcza zaś poznanie, w jaki sposób regulacje administracyjne i polityka ekonomiczna
wpływają na rozmiary bezrobocia, liczbę wolnych miejsc pracy oraz wysokość płac. Ma
także bezpośrednie odniesienie do rozwiązań w zakresie poziomu świadczeń dla bezrobotnych czy zasad przyjęć oraz zwolnień z pracy, wskazując, że wyższe świadczenia dla
bezrobotnych stymulują wyższy poziom bezrobocia i wydłużają okres poszukiwań pracy.
Nagrodę Nobla z zakresu nauk ekonomicznych w 2010 r. otrzymali profesorowie:
Peter A. Diamond (MIT – USA, lat 70), Dale Mortensen (Northwestern University –
USA, lat 71) i Chistopher Pissarides (London School of Economics – Wielka Brytania,
lat 62) w uznaniu osiągnięć „za ich analizy frykcji4 w poszukiwaniach rynkowych”5.
o środowisko polskich ekonomistów, M. Kabaj jest zadowolony że tegoroczny Nobel w dziedzinie ekonomii
przypadł osobom zajmującym się analizami dotyczącymi bezrobocia. Wiceprezes Business Centre Club –
Z. Żurek chwali decyzję Komitetu, choć przyznaje, że była ona pewnym zaskoczeniem. W. Wojciechowski
ocenia, że jest „to teoria, która w nowatorski sposób zobrazowała działanie rynku pracy i opisała wpływ
poszczególnych regulacji na poziom bezrobocia […]. Wzmocniła aparat analityczny, który musi być podstawą do formułowania polityki gospodarczej”. Por. http://www.money.pl/gospodarka/wiadomości/artykuł/
eksperci;o;ekonomicznym;noblu;bezrobocie;to;dzuma,82,0690770.html. Natomiast J. Winiecki wypowiada
się o osiągnięciach laureatów dość sceptycznie, sytuując je w sferze metod, a nie teorii lub ich weryfikacji,
przy czym nie wprost sugeruje, iż nagrodzone badania „przynoszą rezultaty oczywiste i przed badaniami”.
Por. http://www.money.pl/archiwum/winiecki;czas;banalnych;nobli;z;ekonomii,205,0,694221,html. W mediach można znaleźć wiele opinii, które eksponują pominięcie ekonomistów zajmujących się kryzysem.
3 Ocena sformułowana na podstawie informacji o wieku laureatów dostępnych na: http:/en.wikipedia.
org/Wiki/List_of_Nobel_laureates_in_Economics (04.12.2010).
4 Angielski termin friction oznacza m.in. tarcie, konflikt, niezgodę, a w polskiej literaturze występuje
w transkrypcji „frykcje”. Ekonomiczny sens terminu frykcje można wyjaśnić, odwołując się do rynku, na
którym popyt i podaż nie dostosowują się harmonijnie do siebie natychmiast, lecz proces ten zachodzi
w czasie, przy czym część popytu nie zostaje zaspokojona przez część dostępnej podaży.
5 http://nobel_prizes/economics/laureates/2010/Press.html (03.12.2010). L.J. Jasiński sentencję uzasadnienia Nagrody tłumaczy jako „rynek z frykcjami wymagającymi przezwyciężenia lub rynek z frykcjami
Laureaci Nagrody Nobla
123
W uzasadnieniu Komitet Noblowski wskazuje, że nagrodę przyznano trzem laureatom
za ściśle powiązany wkład w analizy dyspersji cen i efektywności poszukiwań oraz prawidłowości zachowań ekonomicznych w warunkach frykcji, a w szczególności za rozwój
koncepcji znanej współcześnie jako teoria poszukiwań i dopasowań bezrobocia.
Zagadnienie czynników zakłócających prawidłowości zachowań podmiotów działających na rynku od dawna przyciągało uwagę ekonomistów. Miało to miejsce szczególnie
w okresie wielkiego kryzysu gospodarczego [Chamberlin 1933; Robinson 1969; 1991]6.
Krytyczne analizy modeli równowagi zapoczątkowane w latach 30. stały się w latach 60.
przedmiotem badań z wykorzystaniem modeli matematycznych, w których poszukiwano
najlepszych sposobów, dzięki którym kupujący może znaleźć dobro w akceptowalnej cenie.
Dowiedziono, że nawet niewielkie koszty związane z poszukiwaniami rynkowymi wywołują radykalnie odmienny wynik w porównaniu z klasyczną równowagą w warunkach konkurencji. Stwierdzono, że ceny równowagi odpowiadają wtedy cenie równowagi, jaką monopolista może ustalać na swoim rynku bez ponoszenia kosztów poszukiwań.
Wyniki te wzbudziły duże zainteresowanie i zainicjowały intensywne badania dotyczące poszukiwań rynkowych. Rozwój modeli równowagi z uwzględnieniem poszukiwań
i dopasowań rozpoczął się w zasadzie na początku lat 70. i stopniowo stawał się popularny w licznych publikacjach (por. Markets with Search Frictions [2010]).
W artykule A Model of Price Adjustment amerykański ekonomista P.A. Diamond
[1971] przeanalizował sposób kształtowania się cen na rynku, na którym kupujący poszukują najkorzystniejszej ceny, a sprzedający równolegle dostosowują swoje najlepsze
ceny, z uwzględnieniem poszukiwań nabywców. To właśnie Diamond – jeden z ubiegłorocznych laureatów, jest twórcą modelu, który pozwala wyjaśnić, dlaczego pracodawcy
nie mogą szybko znaleźć odpowiednich pracowników, a producenci (sprzedający) – odbiorców swych produktów, pomimo, że obie strony operują na rynku i poszukują się
wzajemnie. Inny Amerykanin – D. Mortensen i Ch. Pissarides – Brytyjczyk urodzony
w Nikozji rozwinęli koncepcję Diamonda i zweryfikowali ją przy użyciu danych empirycznych, zwłaszcza danych dotyczących rynku pracy. W swym uzasadnieniu kapituła
Nagrody Nobla wskazała, że badania laureatów są przydatne w wyjaśnianiu, w jaki sposób regulacje rynku i polityka ekonomiczna poszczególnych państw – może wpływać na
poziom bezrobocia.
Akcentowanie kwestii bezrobocia w dorobku laureatów, obok innych zasług dla nauk
ekonomicznych, dość powszechnie wiąże się z kontekstem sytuacyjnym zaistniałym w następstwie globalnego kryzysu finansowego, który wpłynął na znaczne zwiększenie poziomu bezrobocia, na rynkach pracy krajów dotkniętych kryzysem, bezpośrednio lub pośrednio obarczonych jego konsekwencjami.
1. Charakterystyka laureatów
Trójka laureatów tegorocznej Nagrody Nobla w dziedzinie ekonomii ma bogate życiorysy naukowe i pokrewne zainteresowania, choć niewiele jest łatwych do zidentyfikowania
zmuszającymi do prowadzenia poszukiwań”. L.J.Jasiński, Nobel 2010, czyli badania rynku z frykcjami.
(http://www.pte.pl/pliki/2/12/Jasinski-1.pdf 03.12.2010).
6 Bezrobocie frykcyjne jako przejaw niedopasowania popytu i podaży znalazło wyraz w pracy
J. Robinson [1937] oraz późniejszych pracach A.M. Okuna [1975; 1991; Bailey i Okun 1965]. W opracowaniach tych zwracano jednak głównie uwagę na przyczyny bezrobocia frykcyjnego związane z sytuacją
pracowników (koszty alokacji i uzyskania nowych kwalifikacji), a także na czynniki kształtujące koszty
redystrybucji dochodu od bogatych do biednych.
124
Laureaci Nagrody Nobla
dowodów na bezpośrednią między nimi współpracę. Analiza ich dorobku naukowego
wskazuje zaś, co dostrzegł Komitet Nagrody Nobla, że przyczynili się oni walnie do rozwoju teorii dopasowywania się i jej wykorzystania – głównie do potrzeb analizy rynku
pracy.
Peter A. Diamond, urodzony 29 kwietnia 1940 r., ukończył studia matematyczne
(B.A.) z tytułem summa cum laude w Yale University w 1960 r., a stopień doktora ekonomii uzyskał w 1963 r. w Massachusetts Institute of Technology (MIT). W latach 1963–1966
pracował w University of California w Berkeley, a od 1966 r. pracuje w MIT. Wielokrotnie
odwiedzał zagraniczne ośrodki naukowe od Cambridge i Oxford, przez Jerozolimę i Nairobi, do Florencji i Sieny. Działał także aktywnie w instytucjach naukowych i agendach
rządowych czy publicznych, głównie w USA. Był m.in. prezydentem Towarzystwa Ekonometrycznego, Amerykańskiego Stowarzyszenia Ekonomicznego, członkiem amerykańskiej
Narodowej Akademii Nauk, a także członkiem założycielem Narodowej Akademii Zabezpieczenia Społecznego. Główne obszary jego zainteresowań naukowych to ekonomia
polityczna, ekonomia dobrobytu i ekonomia behawioralna. Wiele jego prac dotyczyło
ekonomii spraw publicznych i zabezpieczenia społecznego. P.A. Diamond wniósł duży
wkład do badań nad takimi zagadnieniami, jak dług publiczny, akumulacja kapitału, rynki kapitałowe i dywersyfikacja ryzyka, optymalizacja podatków, poszukiwania i dopasowania na rynku pracy, a także zabezpieczenie społeczne7.
Laureat jest autorem prawie dwustu publikacji, w tym 11 książek [np. A Search Equilibrium Approach to Micro Fundations of Macro-economics [Diamond 1984]; Behavioral Economics and its Applications [Diamond, Vartiainen 2007], około 140 artykułów oraz kilkunastu innych opracowań (np. Externalities and Efficiency in a Model of Stochastic Job Matching (współautor E. Maskin); Ranking, Unemployment Duration and Training Costs
(współautor O. Blanchard)) i raportów (np. Pension Reform in China: Issues, Options and
Recommendations (współautor N. Barr)) [http://econ-www.mit.edu/files/5411]. W związku
z uzyskaną Nagrodą Nobla na szczególne wyróżnienie zasługują dwie publikacje artykułów
Mobility Costs, Frictional Unemployment, and Efficiency [Diamond 1981] oraz Aggregate
Demand Management in Search Equilibrium [Diamond 1982].
Warte podkreślenia jest, że to przede wszystkim P.A. Diamond jest autorem modelu
ekonomicznego opracowanego w 1982 r., a nazywanego niekiedy modelem orzecha kokosowego. Nazwa modelu pochodzi od przykładu wymyślonego przez autora 8. Diamond
wykorzystuje w nim ciągle aktualną ekonomię poszukiwań (search economy), zgodnie
z którą handlujący (kupujący i sprzedający) nie mogą łatwo znaleźć partnerów transakcji.
Głównym przesłaniem tego modelu jest to, że oczekiwania ludzi odnośnie do zagregowanego poziomu aktywności odgrywają główną rolę w wyznaczaniu rzeczywistego pozio7 Osiągnięcia P.A. Diamonda okazały się wystarczające, aby został laureatem Nagrody Nobla, to jednak
w sierpniu 2010 r. Senat USA wstrzymał jego kandydaturę do FED, zgłoszoną przez prezydenta B. Obamę,
który ponowił swój wniosek w listopadzie 2010 r. [http://www.nytimes.com/2010/10/12/opinion/12tue4.
html?_r=1&ref=peter_a_diamond].
8 P.A. Diamond wymyślił wyspę (odzwierciedlającą gospodarkę zamkniętą) zamieszkałą tylko przez
jednostki żywiące się orzechami kokosowymi. Orzechy są pozyskiwane przez zrywanie z palm kokosowych
rosnących na wybrzeżu (produkowane). Z powodu szczególnego tabu panującego na wyspie osoba, która
zerwie orzech, nie może skonsumować jej sama, lecz musi znaleźć drugą posiadająca kokos. Wtedy te dwie
jednostki mogą wymienić się swoimi kokosami, a następnie je zjeść. Istotą kwestii zawartej w tej przypowieści jest to, że jednostka, która znajdzie palmę kokosową, będzie skłonna wspinać się na nią po orzechy,
a wspinanie jest związane z wysiłkiem (jest kosztowne), który opłaca się ponieść tylko wtedy, gdy istnieje
odpowiednio duża liczba innych jednostek skłonnych podjąć takie działanie. Jeżeli nikt inny nie pozyskuje
kokosów, wtedy nie będzie potencjalnych partnerów do transakcji i wspinanie się nie będzie warte wysiłku.
W ten mniej więcej sposób przekonania jednostek o działaniach innych determinują kształtowanie ogólnych wyników ich działalności. Por. Diamond [1982].
Laureaci Nagrody Nobla
125
mu działalności ekonomicznej. Częsta interpretacja tego wniosku w odniesieniu do rynku pracy sugeruje, że tzw. naturalna stopa bezrobocia może nie mieć unikalnego charakteru (w gruncie rzeczy może występować całe spectrum takich naturalnych stóp), a gdy
nawet ma ona taki unikalny, jednostkowy charakter, może nie być efektywna. Model ten
należy do klasy, w którym zakłada się prawdopodobieństwo zawodności koordynacji
(coordination failure).
Dale Thomas Mortensen, urodzony 2 lutego 1939 r. w Enterprise (Oregon, USA),
studiował ekonomię na Willamette University, gdzie zdobył stopień B.A. w 1961 r.,
a doktorat uzyskał na Carnegie Mellon University w 1967 r. Od roku 1965 pracuje
w Northwestern University, a od 1980 r. jest profesorem ekonomii menedżerskiej i nauki
decyzji w Kellogg School of Management. W latach 2006–2010 D.T. Mortensen pracował
także w School of Economics and Management, University of Aarhus (Dania). Jego
aktywność naukowa wiązała się z licznymi kontaktami akademickimi. Mortensen wykładał m.in. na uniwersytetach: Hebrew (1979 i 1985), Cornell (1984), New York (1985),
Essen (1993), Queens (2002), Copenhagen (2000), Humboldt (2002), Pennsylvania
(2004), California Institute of Technology (1994), Australian National University (1996),
a ponadto w Centralnym Instytucie Matematyczno-Ekonomicznym Akademii Nauk
ZSRR w Moskwie (1989), Instytucie Studiów Pracy (Bonn – od 2001 r.) i w Narodowym
Biurze Badań Ekonomicznych (Cambridge, Mass. – 2005 r.) [http://sites.google.com/site/
dalemortensensite/home/cv].
D.T. Mortensen jest aktywnym członkiem towarzystw naukowych (m.in. American
Economics Association, Econometric Society, Society of Economic Dynamics, Society of
Labor Economics), rad programowych czasopism (np. „American Economic Review”)
i redaktorem czasopism („Review of Economic Dynamics”) oraz innych organizacji (np.
Advisory Board of the Tinbergen Institute) [http://sites.google.com/site/dalemortensensite/home/cv].
Badania laureata koncentrują się na ekonomice pracy, makroekonomii i teorii ekonomii. Jednak szczególnie znany jest za pionierskie prace nad teorią poszukiwań i dopasowań dotyczącą bezrobocia frykcyjnego. Mortensen wniósł istotny wkład w poznanie
procesów ruchu zatrudnienia i mobilności pracowników, badań i rozwoju oraz stosunków
personalnych [http://en.wikipedia.org/wiki/Dale_T._Mortensen#References]. Jego koncepcja, zgodnie z którą frykcje są odpowiednikiem losowego doboru partnerów transakcji, stała się wiodącą metodą analizy rynku pracy i efektów polityki rynku pracy. Rozwój
dynamicznych modeli równowagi dotyczących pomiaru dyspersji wynagrodzeń, analiza
szeregów czasowych zatrudnienia i rola mobilności pracowniczej w kształtowaniu wzrostu produkcji wydajności pracy to najważniejsze zagadnienia jego aktualnych prac badawczych.
Publikacje D.T. Mortensena liczą około 60 pozycji. Jest wśród nich monografia: Wage
Dispersion: Why are Similar People Paid Differently [Mortensen 2003]9 około 20 rozdziałów w pracach zbiorowych i materiałach konferencyjnych oraz ponad 30 artykułów w czasopismach. Do szczególnie znaczących można zaliczyć następujące opublikowane prace:
More on Unemployment and Vacancy Fluctuations [Mortensen, Nagypál 2007], Wage Differentials, Employer Size, and Unemployment [Burdett, Mortensen 1998, s. 257–273], Job
Creation and Job Destruction in the Theory of Unemployment [Mortensen, Pissarides
1994], Job Search and Labor Market Analysis [Mortensen 1986], Property Rights and Efficiency of Mating, Racing, and Related Games [Mortensen 1982], The Matching Process as
9 Cztery kolejne są w druku, w tym książka Search, Matching, Wage Dispersion and Unemployment
(Oxford University Press) napisana wspólnie z Ch.A. Pissaridesem.
126
Laureaci Nagrody Nobla
a Non-cooperative/Bargaining Game [Mortensen 1982], A Theory of Wage and Employment Dynamics [Mortensen 1972].
Christopher Antoniou Pissarides urodził się 20 lutego 1948 r. w Nikozji na Cyprze.
Studiował w uczelniach brytyjskich. Z wyróżnieniem ukończył University of Essex (B.A.
– w 1970 r.), a w 1973 r. uzyskał stopień doktora ekonomii w London School of Economics na podstawie rozprawy pt. Individual Behaviour in Markets with Imperfect Information. Karierę naukową rozpoczął w University of Southampton, a później podjął pracę
w London School of Economics, gdzie pracuje do dzisiaj. W trakcie kariery zawodowej
łączył pracę naukową z działalnością w praktyce gospodarczej; pracował m.in. w Banku
Centralnym Cypru, Banku Anglii, Reserve Bank of Australia, Banku Światowym, agendach Komisji Europejskiej. Prof. Ch.A. Pissarides bardzo często wykładał za granicą –
niemal na wszystkich kontynentach. Był profesorem wizytującym na Cyprze, a także
w Hongkongu, wykładał w Bergamo, Bonn, Madrycie, Montevideo, Montrealu, Oxfordzie, Rio de Janeiro, Syros, Seulu, wielu amerykańskich uniwersytetach (w tym California, Harvard, Princeton i Yale), a ponadto w Institute of Advanced Studies w Wiedniu
oraz w European University Institute we Florencji. Laureat jest prezydentem elektem
European Economic Association oraz członkiem wielu organizacji i stowarzyszeń
naukowych.
Ch.A. Pissarides specjalizuje się w ekonomice bezrobocia, polityce rynku pracy,
a ostatnio także w problematyce wzrostu i zmian strukturalnych.
W dorobku laureata znajdują się m.in. trzy samodzielne monografie (w tym: Equilibrium Unemployment Theory [Pissarides 2000]10, Labour Market Adjustment: Microeconomic Foundations of Short-Run Neoclassical and Keynesian Dynamice [Pissarides 1976],
współautorstwo trzech innych książek [w tym: Women at Work: An Economic Perspective
[Pissarides 2005], ponad 60 artykułów w czasopismach, a także kilkanaście rozdziałów
w monografiach zbiorowych oraz wiele innych opracowań [http://personal.lse.ac.uk/pissarid/CV.pdf].
2. Podejście do badania rynku
W ujęciu neoklasycznym kupujący i sprzedający w zasadzie zawierają transakcję kupna-sprzedaży na rynku w jednej chwili, a zawarcie tej transakcji nie pociąga za sobą żadnych kosztów transakcyjnych. W mechanizmie rynkowym oznacza to, że ceny ustalają się
jakby automatycznie w taki sposób, że podaż równa jest popytowi, a na rynku nie występuje niedobór lub nadmiar dóbr czy usług. W praktyce taka sytuacja występuje stosunkowo rzadko i dotyczy dość specyficznych segmentów rynku (np. rynków nisko przetworzonych i jednorodnych produktów żywnościowych). Rzeczywistość jest częściej dużo
bardziej skomplikowana. Podmioty operujące na rynku ponoszą zwykle znaczne nakłady
związane z poszukiwaniem partnerów do transakcji, a jeżeli nawet obie strony skomunikują się ze sobą, nie muszą natychmiast dojść do porozumienia co do warunków transakcji, w tym zwłaszcza ceny. Procesy rynkowe zachodzące w warunkach, gdy kupujący czy
sprzedający nie natrafiają na siebie automatycznie, a więc występują pewne frykcje związane z poszukiwaniami (search frictions), były przedmiotem badań prowadzonych przez
P.A. Diamonda, D.T. Mortensena i Ch.A. Pissaridesa.
Zastosowania modelu rynku, na którym występują frykcje, są bardzo szerokie. Ramy
teoretyczne stworzone przez trzech ekonomistów wyróżnionych są wykorzystywane m.in.
10 Praca
ta stanowi kanon w literaturze z zakresu ekonomiki bezrobocia.
Laureaci Nagrody Nobla
127
do analiz zachowania podmiotów na rynkach nieruchomości, rynku finansowym czy
w procesach dopasowań matrymonialnych (tzw. family economics). Stosowane są również
w planowaniu przestrzennym, pozwalając na modelowanie rozmieszczenia ludności. Nazwiska Diamonda, Mortensena i Pissaridesa pojawiają się jednak najczęściej w kontekście badań nad rynkiem pracy, co wobec wyzwań społecznych nawet w krajach wysoko
rozwiniętych stanowi ważne uzasadnienie werdyktu Komitetu Nagrody Nobla.
Procesy rynkowe, w których występują frykcje, związane są z koniecznością poszukiwania odpowiednich stron transakcji. W istotny sposób różnią się one od sposobu funkcjonowania mechanizmu rynkowego w ujęciu neoklasycznym. Jak wykazał Diamond
[1971], w sytuacji gdy poszukiwanie kontrahentów jest kosztowne, cena równowagi będzie bliższa cenie monopolistycznej niż wolnokonkurencyjnej. Sprzedawcy będą bowiem
podnosić ceny dóbr wiedząc, że klienci nie mogą znaleźć atrakcyjniejszej oferty bez ponoszenia kosztów. Późniejsze analizy opierające się na koncepcji Diamonda pozwoliły
ponadto na teoretyczne ujęcie zjawiska zróżnicowania cen. Na „rynku neoklasycznym”
w punkcie równowagi ustala się jedna cena. Na rynku z frykcjami, ze względu na koszty
poszukiwań i niedoskonałą informację, dobra o takich samych właściwościach mogą mieć
różne ceny.
Na rynku z frykcjami występują również specyficzne efekty zewnętrzne, które nie są
brane pod uwagę w modelu neoklasycznym. Zwiększenie intensywności poszukiwań
przez dany podmiot wpływa bowiem na efektywność poszukiwań pozostałych graczy na
rynku. Jeśli np. osoba bezrobotna zaczyna intensywniej szukać zatrudnienia, szanse innych bezrobotnych na znalezienie pracy spadają. Efekty zewnętrzne mogą prowadzić do
problemu zawodności koordynacji na rynku, na którym możliwe jest występowanie wielu
stanów równowagi, a osiągnięcie stanu najkorzystniejszego może wymagać interwencji
z zewnątrz (np. państwa).
3. Analizy dostosowań na rynku pracy w modelu DMP
Na rynku z frykcjami wymiana nie dokonuje się automatycznie. Gracze rynkowi spotykają się i negocjują cenę, a po jej ustaleniu decydują o przeprowadzeniu transakcji bądź
poszukiwaniu transakcji atrakcyjniejszej. Model uwzględniający frykcje w bardziej naturalny sposób niż model neoklasyczny odzwierciedla zjawiska występujące na rynku pracy:
współistnienie bezrobocia i wolnych miejsc pracy, zróżnicowanie wynagrodzeń osób o takich samych cechach czy długotrwałe utrzymywanie się wysokiej stopy bezrobocia. Nazwiska ubiegłorocznych noblistów w ekonomii cytowane są więc najczęściej w badaniach
rynku pracy. Najbardziej znany model, powstały na bazie prac Diamonda, Mortensena i Pissaridesa (tzw. model DMP) [http://www.kva.se/Documents/Priser/Ekonomi/2010/
pop_ek_en_10.pdf], opisuje przepływy siły roboczej na rynku pracy, zachowania pracowników i pracodawców oraz negocjacje płacowe.
W równaniu przepływów siły roboczej istotnym elementem jest funkcja dopasowania
(matching function), w której strumień nowo obsadzonych miejsc pracy zależy od liczby
wakatów i liczby osób poszukujących zatrudnienia. Funkcja dopasowania odzwierciedla
tarcia na rynku pracy. Tarcia te sprawiają, że w danym momencie tylko część bezrobotnych znajduje pracę i tylko część pracodawców wypełnia wakujące stanowiska pracy.
Wielkości te zależą m.in. od tego, jak chłonny (ciasny) jest rynek pracy (labor market
tightness). Im rynek jest bardziej chłonny, tzn. im wyższy jest stosunek liczby wakatów do
liczby bezrobotnych, tym trudniej firmom znaleźć odpowiedniego pracownika. W punkcie równowagi przepływy siły roboczej od stanu bezrobocia do stanu zatrudnienia są
128
Laureaci Nagrody Nobla
równoważone przez przepływy w odwrotnym kierunku. Stopa bezrobocia utrzymuje się
więc na stałym poziomie. Równanie opisujące przepływy siły roboczej na rynku pracy
odzwierciedla opisaną w latach 40. przez W. Beveridge’a ujemną korelację między liczbą
wakatów i stopą bezrobocia w gospodarce. Wzrost stopnia dopasowania na rynku pracy
(matching efficiency), odzwierciedlany przez przesunięcie krzywej Beveridge’a do wewnątrz (do początku układu współrzędnych), prowadzi do spadku stopy bezrobocia równowagi (zwiększenie liczby wakatów wiąże się z szybszym ograniczeniem bezrobocia).
Badanie relacji między liczbą wakatów a stopą bezrobocia może być źródłem cennych
informacji dla polityków i decydentów. Ruchy wzdłuż krzywej Beveridge’a mogą odzwierciedlać krótkoterminowe czy cykliczne zmiany podaży i popytu na pracę. Jednoczesny wzrost liczby wakatów i stopy bezrobocia jest dużo bardziej niepokojący. Przesunięcie krzywej Beveridge’a na zewnątrz (od początku układu współrzędnych) może bowiem
sygnalizować wzrost długookresowej stopy bezrobocia. Za ten wzrost może odpowiadać
np. spadek jakości dopasowania cech pracowników i wymagań stanowisk pracy (pracodawców).
Drugi element modelu DMP charakteryzuje zachowania osób poszukujących zatrudnienia. O tym, czy bezrobotny rozpocznie pracę, decyduje racjonalna kalkulacja
korzyści wynikających z obu stanów, tzn. bycia bezrobotnym lub zatrudnionym. Na dyskontowaną wartość pozostawania bezrobotnym składa się m.in. wysokość zasiłku powiększona o pewną oczekiwaną premię z tytułu podjęcia pracy (premia będzie tym wyższa, im wyższy będzie stosunek liczby wakatów do liczby bezrobotnych)11. Na bieżącą
wartość stanu zatrudnienia składa się możliwa do uzyskania płaca pomniejszona o potencjalną stratę związaną z ryzykiem utraty pracy. Wartości stanu zatrudnienia i bezrobocia zależą więc od wysokości zasiłku dla bezrobotnych (ewentualnie powiększonego
o subiektywną wartość czasu wolnego lub prac domowych, wykonywanych samodzielnie), wysokości możliwego do uzyskania wynagrodzenia z tytułu podjęcia pracy, stopy
dyskontowej oraz prawdopodobieństwa znalezienia pracy (związanego z tym, jak chłonny jest rynek pracy) i ryzyka utraty zatrudnienia (w modelu podstawowym jest to wielkość egzogeniczna).
Analogicznie do bezrobotnych, również pracodawcy podejmują decyzję o zatrudnieniu na podstawie porównania dyskontowanej wartości wakatu z bieżącą wartością obsadzonego stanowiska pracy. Na pierwszą wielkość składa się oczekiwana premia, którą
pracodawca uzyska zatrudniając pracownika (będzie ona tym wyższa, im mniej chłonny
jest rynek pracy), pomniejszona o koszty generowane przez wakujące stanowisko. Z kolei wartość obsadzonego stanowiska określa nadwyżka wartości wytworzonej przez pracownika nad jego wynagrodzeniem, pomniejszona o potencjalną stratę ponoszoną przez
przedsiębiorstwa w przypadku rozwiązania umowy o pracę. Przy założeniu, że w warunkach równowagi wartość wakującego stanowiska wynosi zero (firmy będą otwierały nowe
stanowiska pracy dopóki to będzie opłacalne), za pomocą równania można wyznaczyć
teoretycznie determinanty tworzenia nowych miejsc pracy. Przedsiębiorstwa będą tym
chętniej tworzyć wakaty, im łatwiejsze będzie znalezienie odpowiedniego pracownika
(większa efektywność dopasowania). Z kolei do czynników ograniczających liczbę ofert
pracy należą wysokie koszty tworzenia miejsc pracy i wysoki poziom ryzyka rozwiązania
kontraktu z pracownikiem. Ponadto opłacalność tworzenia nowych miejsc pracy będzie
spadała wraz ze wzrostem stopy procentowej.
W przeciwieństwie do ujęcia neoklasycznego, w modelu DMP wysokość wynagrodzenia jest ustalana poprzez negocjacje pracodawcy i osoby bezrobotnej. Ze względu na to,
11 Innymi
słowy, im ciaśniejszy będzie rynek pracy.
Laureaci Nagrody Nobla
129
że na rynku pracy występują tarcia (znalezienie odpowiedniego pracownika oraz odpowiedniego stanowiska pracy wymaga poniesienia nakładów), negocjacje zakończone powodzeniem generują rentę, która dzielona jest między pracownika i pracodawcę. Proporcje podziału tej renty zależą od siły negocjacyjnej stron. Negocjowana stawka będzie
wzrastała wraz z wartością pozostawania bezrobotnym i wydajnością pracownika. Ponadto wynagrodzenie będzie tym wyższe, im trudniej będzie znaleźć pracownika (im chłonniejszy jest rynek pracy).
Scharakteryzowane zależności, które w literaturze są przestawiane także w postaci
formuł matematycznych, stanowią ramy analizy makroekonomicznej, dzięki którym możliwe jest pełniejsze odzwierciedlenie prawidłowości występujących na rynku pracy.
W przeciwieństwie do podejścia makro, ujęcie mikroekonomiczne często odzwierciedla
tylko stan równowagi cząstkowej (analizując np. determinanty bezrobocia od strony podażowej, a czynniki popytowe uznając za dane). Natomiast model DMP bierze pod uwagę interakcję czynników podażowych i popytowych. Mortensen zauważa np., że „zdaniem
wielu autorów wypłacane zasiłki wydłużają okres pozostawania bez pracy, ponieważ
zmniejszają motywację bezrobotnych do poszukiwania zatrudnienia. Modele z funkcją
dopasowania sugerują również interpretację, w której podniesienie zasiłku dla bezrobotnych wywołuje presję na wzrost płac, co zmniejsza liczbę oferowanych miejsc pracy”
[Mortensen 1994b, s. 192].
Na bazie statycznego modelu DMP został skonstruowany dynamiczny model równowagi ogólnej, który znacznie wzbogacił dorobek ekonomii w zakresie badań nad cyklami
koniunkturalnymi. W modelu dynamicznym głównym wskaźnikiem jest poziom bezrobocia. Model przewiduje szybką reakcję gospodarki na negatywne szoki, czego przejawem
jest gwałtowny spadek zatrudnienia. Zmniejszanie poziomu bezrobocia w wyniku poprawy koniunktury następuje wolniej, m.in. dlatego, że proces rekrutacji i selekcji pracowników jest czasochłonny (por. Markets with Serach Frictions [2010]).
4. Dorobek laureatów a polityka rynku pracy
Model DMP stosuje się szeroko w analizach efektywności instrumentów rynku pracy.
Badania z wykorzystaniem ram analitycznych Diamonda, Pissaridesa i Mortensena wskazują na pozytywną zależność między wysokością świadczeń dla bezrobotnych a stopą
bezrobocia. Jak wyjaśniono wcześniej, zwiększenie zasiłku dla bezrobotnych wpływa zarówno na stronę podaży (słabnie motywacja bezrobotnych do poszukiwania pracy), jak
i popytu (konieczność zaoferowania wyżej stawki wynagrodzenia) na rynku pracy. Ramy
analityczne stworzone przez tegorocznych laureatów nie wykluczają jednak przydatności
zasiłków dla poprawy efektywności rynku pracy. Jeżeli warunkiem otrzymania zasiłku
jest faktyczne i aktywne poszukiwanie pracy, to świadczenia dla bezrobotnych, poprzez
poprawę jakości dopasowania pracowników i pracodawców mogę zwiększyć ogólny dobrobyt.
Badania opierające się na modelu DMP wskazują zwykle na ograniczoną skuteczność
różnych form ochrony pracowników przed zwolnieniem. Instrumenty te bez wątpienia
zmniejszają skłonność do zwalniania pracowników, ograniczając strumień przepływów
od stanu zatrudnienia do stanu bezrobocia. Jednocześnie zwiększają koszty zatrudnienia
i ograniczają popyt na pracę. Jeśli ten drugi efekt jest dominujący, zwiększenie poziomu
ochrony zatrudnienia może doprowadzić do wzrostu stopy bezrobocia.
Analizy z wykorzystaniem narzędzi zaproponowanych przez nowo uhonorowanych
noblistów prowadzą do pozytywnej oceny efektywności instrumentów aktywnej polity-
130
Laureaci Nagrody Nobla
ki rynku pracy w walce z bezrobociem. W modelu DMP subsydia dla firm zatrudniających nowych pracowników istotnie zmniejszają liczbę bezrobotnych, pomimo występowania niepożądanych efektów wywołanych stosowaniem subsydiów: większej skłonności pracodawców do zwalniania pracowników oraz ograniczenia liczby wakatów na
skutek zwiększonego opodatkowania pracy (nakładanego w celu sfinansowania wypłaty subsydiów).
Ponadto model DMP uzasadnia interwencję państwa poprawiającą jakość dopasowania pracowników i pracodawców. Biorąc pod uwagę nie tylko wnioski wynikające z teorii,
lecz również obecny poziom bezrobocia w poszczególnych krajach, pozytywnie ocenia się
te instrumenty polityki rynku pracy, które prowadzą do zmniejszenie frykcji na rynku.
Podkreśla się np. wysoką skuteczność rozwiązań polegających na dokładnym monitorowaniu aktywności bezrobotnych w poszukiwaniu zatrudnienia oraz kierowaniu osób pozostających bez pracy na kursy doszkalające (np. Dania, Holandia) [por. Bezrobocie w
Europie… 2010]. Na jakość dopasowania pracowników do stanowisk pracy istotny wpływ
ma system edukacji. W tym kontekście na uwagę zasługuje tzw. dualny system edukacji
zawodowej. W ramach tego systemu kształcenie odbywa się częściowo w szkole, ale
przede wszystkim w formie praktyki u pracodawców. W okresie stażu uczniowie zdobywają praktyczne umiejętności zawodowe, a pracodawcy mają możliwość oceny efektywności ich pracy. W krajach, gdzie występuje model dualny (np. Niemcy, Austria, Szwajcaria), stopa bezrobocia osób młodych kształtuje się na stosunkowo niskim poziomie,
zarówno w ujęciu bezwzględnym, jak i w relacji do stopy bezrobocia osób w wieku produkcyjnym. Mimo wysokiego poziomu ochrony zatrudnienia w tych krajach pracodawcy
nie obawiają się zatrudniać absolwentów, ponieważ mają dobrą wiedzę o ich przydatności do pracy [Butler 2010]. Ponadto liczba ofert stażowych w określonych branżach i na
danych stanowiskach stanowi ważny sygnał informujący o strukturze popytu na pracę, co
poprawia efektywność alokacji siły roboczej na rynku pracy. Stosunkowo dobrze funkcjonują również rynki pracy tam, gdzie system edukacji jest nastawiony wprawdzie na kształcenie ogólne, jednak niski poziom ochrony zatrudnienia nie zniechęca pracodawców do
zatrudniania absolwentów (np. Stany Zjednoczone).
Wbrew często powtarzanym opiniom, do zmniejszenia poziomu frykcji na rynku pracy może przyczynić się działalność związków zawodowych. Znaczenie ma jednak poziom
uzwiązkowienia. Silne, scentralizowane związki zawodowe, których przedstawiciele rozumieją mechanizmy rządzące rynkiem pracy, mogą stworzyć odpowiedni klimat dla reform. Podobny konsensus będzie trudny do osiągnięcia, jeśli związki są rozdrobnione
i reprezentują interesy wąskiej grupy pracowników.
Uwagi końcowe
Teoretyczne podstawy badań, które zostały nagrodzone ostatnią Nagrodą Nobla w dziedzinie ekonomii, zostały przede wszystkim sformułowane przez P.A. Diamonda, a następnie rozwinięte i wykorzystane w badaniach empirycznych prowadzonych wspólnie
przez D.T. Mortensena i Ch.A. Pissaridesa. Poza innymi obszarami zastosowań dowodzą
one, że bezrobocie frykcyjne jest związane głównie z mobilnością przestrzenną, w następstwie niedopasowania kwalifikacji kandydatów do zatrudnienia i potrzeb pracodawców. Teoria laureatów wyjaśnia także wpływ polityki państwa na skalę bezrobocia frykcyjnego oraz identyfikuje możliwości łagodzenia nierównowagi i ograniczania jej kosztów
społecznych oraz indywidualnych przez odpowiednie wykorzystanie instrumentów polityki rynku pracy czy polityki społecznej.
Laureaci Nagrody Nobla
131
Osiągnięcia poznawcze laureatów, wywodzące się z ujęć mikroekonomicznych w badaniu procesów bezrobocia, mogą być szeroko wykorzystywane w praktyce społecznej,
zwłaszcza w doskonaleniu procesów dopasowania możliwości i oczekiwań kandydatów do
zatrudnienia z jednej strony oraz potrzeb i ofert pracodawców pracy z drugiej. Według
laureatów okres dopasowywania możliwości i oczekiwań poszukujących pracy i oferujących miejsca pracy jest funkcją dostępu do informacji, których brak istotnie wpływa na
jego wydłużanie, a ponadto generuje koszty i ryzyko. Ustalenia laureatów pozwalają na
dokładniejsze szacowanie kosztów i efektów stosowania instrumentów polityki społecznej,
w tym instrumentów zabezpieczenia społecznego, w szczególności zaś zasiłków dla bezrobotnych, a także promowanie choćby krótkookresowego zatrudnienia, przeciwdziałającego utracie zdolności do zatrudniania, czyli „zatrudnialności” (employability).
Reasumując, dokonania laureatów, mające znacznie szersze możliwości zastosowania, potwierdzenie swej wartości zyskały w odniesieniu do rynku pracy. Wyraża się to
wskazaniem, że wielkość bezrobocia frykcyjnego, zależna od rozrzutu ofert pracy i kosztów dla pracowników o podobnych kwalifikacjach, ma nie tylko rozliczne i zindywidualizowane uwarunkowania, lecz także konsekwencje gospodarcze. Swoiste stany równowagi osiągane są na bardzo zmiennym poziomie. Kształtuje go nie tylko wielkość podażu
i popytu na pracę oraz ich struktura, ale i warunki panujące tak w skali regionalnej, jak
i globalnej.
Uzupełnienie osiągnięć laureatów o koncepcje francuskich ekonomistów Oliviera
Blancharda i Jeana Tirolea [2004, 2008], twierdzących, że poważne problemy na rynku
pracy powstają, gdy dochodzi do szoków kryzysowych (np. część przedsiębiorstw, a nawet
całe gałęzie gospodarki ulegają likwidacji lub bankrutują, a ich pracownicy tracą pracę),
pozwala odnosić je do współczesnej praktyki. Chodzi głównie o wykorzystanie dyrektyw
płynących z nagrodzonych osiągnięć w aktualnej strukturze gospodarczej wielu krajów,
w tym krajów Unii Europejskiej. Powstaje pytanie, czy ich zastosowanie pozwoliłoby
ograniczyć bezrobocie, gdyby kraje zreformowały swe rynki pracy, szczególnie od strony
regulacyjnej. Dotyczy to także kwestii przekwalifikowania lub mobilności tracących pracę, zwłaszcza zaś poszukiwania przez nich pracy w ośrodkach czy regionach, które charakteryzuje rozwój lub gdzie występują wolne miejsca pracy, ale konieczna jest migracja.
Nie podlega dyskusji, że brak elastyczności rynku pracy – w aspekcie elastyczności zasobowej, funkcjonalnej czy motywacyjnej – rodzi niebezpieczeństwo przekształcania bezrobocia frykcyjnego w bezrobocie strukturalne, które w relatywnie dłuższym okresie powoduje spadek motywacji do poszukiwań pracy, czyli pierwotnie skłonności, a później także
zdolności do zatrudnienia. Jednak coraz aktualniejsze jest pytanie o granice tej elastyczności w stosunku do historycznie ukształtowanych standardów oraz warunków pracy
i płacy, chodzi także o granice mobilności przestrzennej, biorąc pod uwagę daleko niehomogeniczny charakter rynków pracy, nie tylko w przekroju poszczególnych państw, ale
wręcz kontynentów.
Kontekstem systemowym, który może mieć znaczenie dla skuteczności recept płynących z badań laureatów, jest m.in. to, że współcześnie gospodarka globalna zmienia się
o wiele szybciej niż to było w przeszłości, szybciej powstają i są wdrażane do praktyki
nowe technologie, relatywnie dynamiczniej zmienia się struktura branżowa, rynki stają
się bardziej otwarte, a gra rynkowa bardziej skomplikowana niż kilkadziesiąt lat temu.
Rozwój systemu oświaty i popularyzacja koncepcji kształcenia przez całe życie (long life
education) sprawiają, że coraz więcej ludzi szkoli się i stosunkowo szybko dostosowuje
kwalifikacje do potrzeb rynku, nawet w krajach traktowanych do niedawna jako peryferyjne czy kraje trzeciego świata. Stąd m.in. szoki wywoływane zastosowaniem nowych
technologii oraz – co szczególnie ważne – przenoszeniem ośrodków produkcji lub usług
132
Laureaci Nagrody Nobla
już nie tylko między miastami czy regionami, ale kontynentami, powiązane z „horrendalnymi” wręcz korzyściami w zakresie kosztów pracy, ograniczają znaczenie tarć na rynkach krajowych czy regionalnych jako czynnika kształtowania poziomu bezrobocia.
Tekst wpłynął 7 grudnia 2010 r.
Bibliografia
Baily M.N., Okun A.M., The Battle Against Unemployment and Inflation: Problems of Modern Economy, W.W. Norton & Co, New York 1965.
Bezrobocie w Europie nie będzie już maleć (wywiad Jędrzeja Bieleckiego z Raymondem Torresem),
„Dziennik Gazeta Prawna”, 15.10.2010, nr 202.
Blanchard O.J., Diamond P.A., Ranking, Unemployment Duration and Wages, „Review of Economic
Studies” 1984, nr 61(3).
Blanchard O.J., Tirole J., The Joint Design of Unemployment, Insurance and Employment Protection:
A First Pass, „Journal of the European Economic Association” 2008, nr 2.
Blanchard O.J., Tirole J., The Optimal Design of Unemployment, Insurance and Employment Protection: A First Pass, National Bureau of Economic Research, „Working Papers” 2004, nr 10443.
Burdett K., Mortensen D., Wage Differentials, Employer Size, and Unemployment, „International
Economic Review” 1998, t. 39.
Buttler D., Pozycja absolwentów na rynku pracy. Znaczenie komunikacji między szkołami a pracodawcami, „Zeszyty Naukowe Uniwersytetu Ekonomicznego w Poznaniu”, nr 120, Poznań 2010.
Chamberlin E.H., The Theory of Monopolistic Competition, Harvard University Press, Cambridge,
Mass., 1933.
Diamond P.A., Aggregate Demand Management in Search Equilibrium, „Journal of Political Economy” 1982, nr 90(5).
Diamond P.A., A Model of Price Adjustment, „Journal of Economic Theory” 1971, nr 3.
Diamond P.A., A Search Equilibrium Approach to Micro Foundations of Macro-economics, MIT
Press, Cambridge, Mass., 1984.
Diamond P.A., Barr N., Pension Reform: A Short Guide, Oxford University Press, Oxford 2010.
Diamond P.A., Barr N., Reforming Pensions: Principles, Analytical Errors, and Policy Directions,
„International Social Security Review” 2009, t. 62.
Diamond P.A., Maskin E., An Equilibrium Analysis of Search and Breach of Contract, I: Steady
States, „Bell Journal of Economics” 1979, nr 10.
Diamond P.A., Maskin E., An Equilibrium Analysis of Search and Breach of Contract, II: A Non­
‑Steady State Example, „Journal of Economic Theory” 1981, nr 25.
Diamond P.A., Mobility Costs, Frictional Unemployment, and Efficiency, „Journal of Political Economy” 1981, nr 89(4).
Diamond P.A., Vartiainen H., Behavioral Economics and its Applications, Princeton University Press,
Princeton 2007.
Gleaser E., The Work Behind the Nobel Prize, http://www.economix.blogs.nytimes.com/2010/10/11thework-behind-the-nobel-prize/
Jasiński L.J., Nobel 2010, czyli badania rynku z frykcjami, http://www.pte.pl/pliki/2/12/Jasinski-1.pdf
(03.12.2010).
Markets with Search Frictions, Scientific Background on the Sveriges Riksbank Prize in Economic
Sciences in Memory of Alfred Nobel, Stockholm, 11.10.2010.
Mortensen D.T., A Theory of Wage and Employment Dynamics, w: Microeconomic Foundations of
Employment and Inflation Theory, red. E. Phelps et al., Norton, New York 1972.
Mortensen D.T., Job Search and Labor Market Analysis, Chapter 15 of Handbook of Labor Economics, t. 2, red. O. Ashenfelter, R. Layard, North-Holland, Amsterdam 1986.
Laureaci Nagrody Nobla
133
Mortensen D.T., Nagypál E., More on Unemployment and Vacancy Fluctuations, „Review of Economic Dynamics”, 2007 nr 10 (3).
Mortensen D.T., Pissarides Ch.A., Job Creation and Job Destruction in the Theory of Unemployment,
„Review of Economic Studies” 1994, t. 61.
Mortensen D.T., Pissarides Ch.A., Search, Matching, Wage Dispersion and Unemployment, Oxford
University Press, Oxford 2011 (w druku).
Mortensen D.T., Property Rights and Efficiency of Mating, Racing, and Related Games, „American
Economic Review” 1982, nr 72(5).
Mortensen D.T., Reducing Supply-side Disincentives to Job Creation, w: Reducing Unemployment:
Current Issues and Policy Options, Federal Reserve Bank of Kansas City, Kansas City 1994b.
Mortensen D.T., The Cyclical Behavior of Job and Worker Flows, „Journal of Economic Dynamics
and Control” 1994a, t. 18.
Mortensen D.T., The Matching Process as a Non-cooperative/Bargaining Game, w: The Economics
of Information and Uncertainty, red. J. McCall, NBER 1982.
Mortensen D.T., Wage Dispersion: Why are Similar People Paid Differently, MIT Press, Cambridge
2003.
Okun A.M., Ceny i ilość: Analiza makroekonomiczna, WN PWN, Warszawa 1991.
Okun A.M., Equality and Efficiency, the Big Trade Off, Brookings Institution, Washington, D.C.
1975.
Pissarides Ch.A., Equilibrium Unemployment Theory, wyd. 2, MIT Press, Cambridge, Mass., 2000
(reprint 2007).
Pissarides Ch.A., Labour Market Adjustment: Microeconomic Foundations of Short-Run Neoclassical
and Keynesian Dynamics, University Press, Cambridge 1976 (re-issued in paperback, 2009).
Pissarides Ch.A., Women at Work: An Economic Perspective, red. T. Boeri, D. del Boca and Ch. Pissarides, A Report for the Fondazione Rodolfo Debenedetti, Oxford University Press, 2005.
Robinson J., Introduction to the Theory of Employment, Macmillan, London 1937.
Robinson J., The Economics of Imperfect Competition, Macmillan, London 1933 (2d ed., 1969).
Robinson J., Walka z bezrobociem: wstęp do teorii zatrudnienia, Delfin, Lublin 1991.
The Prize in Economics 2010 – Scientific Background, Nobelprize.org, 8 Dec 2010, http://nobelprize.
org/nobel_prizes/economics/laureates/2010/sci.html (07.12.2010).
Netografia
http://econ-www.mit.edu/files/5411 (03.12.2010).
http://en.wikipedia.org/wiki/Dale_T._Mortensen#References
http://en.wikipedia.org/Wiki/List_of_Nobel_laureates_in_Economics (04.12.2010).
http://krugman.blogs.nytimes.com/2010/10/11/what-we-learn-from-search-models/ (03.12.2010).
http://www.kva.se/Documents/Priser/Ekonomi/2010/pop_ek_en_10.pdf (07.12.2010).
http://www.kva.se/Documents/Priser/Ekonomi/2010/sciback_ek_10.pdf (30.11.2010).
http://www.money.pl/gospodarka/wiadomości/artykuł/eksperci;o;ekonomicznym;noblu;bezrobocie;
to;dzuma,82,0690770.html (03.12.2010).
http://www.money.pl/archiwum/winiecki;czas;banalnych;nobli;z;ekonomii,205,0,694221l.html
(03.12.2010).
http://www.nytimes.com/2010/10/12/opinion/12tue4.html?_r=1&ref=peter_a_diamond (07.12.2010).
http://nobel_prizes/economics/laureates/2010/Press.html (03.12.2010).
http://personal.lse.ac.uk/pissarid/CV.pdf (01.12.2010).
http://profilefacts.blogspot.com/2010/nobel-in-economics.html (06.12.2010).
http://www.riksbank.se/templates/Pages.aspx?id=20286 (07.12.2010).
http://sites.google.com/site/dalemortensensite/home/cv
http://static.nobelprize.org/nobel_prizes/economics/laureates/2010/ecoadv10.pdf (11.10.2010).
Krzysztof Nowak*
Problem bezrobocia strukturalnego:
czego uczy nas teoria poszukiwań
i dopasowań na rynku pracy?
Jak stwierdził na swoim blogu Paul Krugman, 11 października 2010 r. okazał się „szczęśliwym dniem dla teorii ekonomii”. Skąd ten entuzjazm? Tego dnia Komitet Królewskiej
Szwedzkiej Akademii Nauk przyznający coroczną nagrodę Banku Szwecji w dziedzinie
nauk ekonomicznych im. Alfreda Nobla docenił badania trzech ekonomistów nad „rynkami charakteryzującymi się tarciami związanymi z poszukiwaniem odpowiednich rozwiązań ekonomicznych”. Peter Diamond, Dale Mortensen i Christopher Pissarides – według
zgodnej opinii środowiska ekonomicznego – otrzymali w pełni zasłużone wyróżnienie.
Jednakże, o ile nie poddaje się w wątpliwość samej hipotezy badawczej i towarzyszących
jej empirycznych obserwacji, o tyle problematyczne stają się implikacje tych ustaleń w zakresie polityki gospodarczej i socjalnej. W dokonaniach naukowych tegorocznych laureatów Nagrody Nobla jest wiele elementów całkowicie nowych, ale także wiele zapożyczeń
i nawiązań do teorii wcześniejszych. Powtarzają oni mikroekonomiczny argument J. Stiglitza, M. Spence i G. Akerlofa, iż transakcje ekonomiczne z uwagi na problem „asymetrii
informacji” zawierają „różne formy utrudnień aktu wymiany lub różne formy tarcia”. Te
ostatnie „mogą przyjmować wiele form i pochodzić z takich źródeł jak zróżnicowanie pracowników i firm, czy wynikać z niedoskonałości wiedzy i informacji”. Jakie są implikacje
takiego mikroekonomicznego spostrzeżenia dla funkcjonowania rynku pracy? Mianowicie
takie, że niektórzy chętni i gotowi podjąć pracę nie są w stanie znaleźć wolnych i istniejących miejsc pracy lub też ich kandydatury zostaną odrzucone na rzecz innych, niekoniecznie „wydajniejszych” pracowników. Jednocześnie interpretują oni w nowy sposób i rozwijają stworzoną przez G. Stiglera mikroekonomiczną teorię poszukiwań na rynku pracy
(w sensie teorii podejmowania decyzji), podkreślającą efekty zewnętrzne decyzji podejmowanych przez szukających pracy pracowników i szukających pracowników pracodawców. Podejmują także drugi wątek analiz Stiglera dotyczący ekonomii regulacji i wpływu
ustawodawstwa na gospodarkę.
Wygląda na to, że paradygmat doskonałej konkurencji na kompletnym rynku płynnie
przeprowadzanych transakcji ekonomicznych, sformalizowany pod koniec XIX w. przez
francuskiego ekonomistę Leona Walrasa, odchodzi powoli do lamusa. Odsyłają go tam
nie tyle jego zagorzali „bezwolni krytycy, planiści i wieczni etatyści” (zmora prof. Balcerowicza), ani też „wolny rynek idei ekonomicznych” (zmora Karola Marksa), ile Komitet
*
Dr Krzysztof Nowak – adiunkt w Instytucie Filozofii UAM, e-mail: [email protected]
136
Laureaci Nagrody Nobla
przyznający Nagrodę Banku Szwecji w dziedzinie nauk ekonomicznych im. Alfreda Nobla swoją kolejną kolektywną decyzją. Czyżby zdrowy rozsądek powoli wracał do teorii
ekonomii?
Każdy, kto kiedykolwiek szukał zatrudnienia, zmieniał miejsce pracy, rekrutował pracowników, zwalniał ich, próbował kupić nowe mieszkanie, intuicyjnie powinien uchwycić
przesłankę leżącą u podstaw nagrodzonej w tym roku teorii – znalezienie odpowiedniego
miejsca pracy, odpowiedniego mieszkania czy odpowiedniego pracownika wymaga poświęcenia czasu i włożenia sporego wysiłku. Nie trzeba być ekspertem w zakresie ekonomiki pracy, aby zrozumieć, że na rynku pracy to właśnie czas, wiedza, postawa względem
ryzyka i wielkość dochodu, jakimi rozporządzamy, stanowią zasoby rzadkie w sensie ekonomicznym. Co z tego, że odpowiednie dla naszych kwalifikacji miejsce (stanowisko)
pracy gdzieś tam na nas czeka, skoro my nic o jego istnieniu nie wiemy bądź nie jesteśmy
w stanie zdobyć informacji o nim. Czy sytuację tę może rozwiązać „niewidzialna ręka”
rynku pracy i kolejne jego uelastycznienie? Okazuje się, że nie do końca.
Wygląda na to, że niewidzialna ręka rynku jest często rzeczywiście niewidzialna,
zwłaszcza na rynku pracy, ponieważ w wielu przypadkach po prostu nie istnieje, przynajmniej w formie nadanej jej przez zwolenników elastyczności i efektywności rynku, twierdzących, jakoby „w długim okresie rynek dostosowywał do siebie wielkość popytu i podaży za pomocą mechanizmu cenowego”. Rynek doskonały, homo economicus i niezakłócona (płynna) transakcja ekonomiczna mogą okazać się tylko kolejnym przykładem
tego, co S. Bowles nazwał „fikcją walrasowską”, będącą produktem „ekonomii nieistniejącego świata”. W świecie rzeczywistym bowiem cechą charakterystyczną mechanizmu
rynkowego nie jest jego niezawodność, kompletność i szybkość, lecz częsta zawodność,
niekompletność i względna „opieszałość”. Między innymi to miał na myśli Keynes, wypowiadając swą słynną polemiczną formułę, iż „w długim okresie wszyscy będziemy martwi”. Zapomniał jednak dodać – na co zresztą zwróciła mu uwagę Joan Robinson – iż
„nie wszyscy w tym samym czasie” (podkreślając tym samym wagę nierównego podziału
dochodów). Przynajmniej o tyle posunęły nasze rozumienie gospodarki ustalenia m.in.
J.M. Keynesa, J. Robinson czy J. Stiglitza. Nie przekreśla to jednak w żaden sposób dobrze rozpoznanych i podkreślanych korzyści płynących z mechanizmu rynkowego (innowacja, motywacja itp.).
Czy wobec tego wspomnianą sytuację wyjściową może rozwiązać „widzialna ręka”
państwowych regulacji rynku pracy i interwencji? Okazuje się, że również nie do końca.
Wygląda na to, że „widzialna ręka” administracyjnych regulacji rynku pracy nie musi
wcale sprzyjać jego „uzdrowieniu”. Niezbędna staje się zatem zmiana perspektywy.
W związku z tym niedoskonałości rynku nie należy utożsamiać z jego wadami, podobnie
jak niedoskonałości państwa nie należy zrównywać z jego usterkami. W świecie „wiedzy
niedoskonałej” nie ma przecież mechanizmów doskonałych. Wygląda więc na to, że sama
idea rynku, jak również idea regulacji państwowych wymaga gruntownego przekonstruowania, a nie tylko kolejnego odświeżenia.
Jaki to ma związek z tegoroczną Nagrodą Nobla? Już śpieszę z wyjaśnieniem. W ramach ekonomii walrasowskiej dominował paradygmat efektywnego dopasowywania popytu na pracę i podaży pracy, w którym odpowiedni ruch cen (płac), pojmowanych jako
„daty ekonomiczne”, w górę bądź dół zapewniał, iż każdy, kto chciał dokonać zakupu
(biorca cen) bez większych problemów mógł znaleźć kogoś, kto chciał dokonać sprzedaży (biorca cen) i vice versa. Jednakże, jak ustalili P.A. Diamond, D.T. Mortensen
i Ch.A. Pissarides, problemem jest nie tylko efektywność poszukiwań najlepszych rozwiązań (rezultat podjętych decyzji, preferencji i stanu wiedzy), ale także sama efektywność
dopasowywania wzajemnych propozycji i oczekiwań. Jest to niezwykle istotna uwaga,
Laureaci Nagrody Nobla
137
ponieważ na rynku pracy, na którym różnorodni sprzedawcy (potencjalni pracownicy)
spotykają się z różnorodnymi nabywcami (potencjalni pracodawcy), znalezienie takiego
właściwego dopasowania wymaga zarówno czasu, jak i wysiłku. Różnorodność zainteresowanych stron może dotyczyć umiejętności posiadanych przez kandydatów i umiejętności wymaganych przez pracodawców, nierównego rozkładu i różnego dostępu do informacji dotyczących charakteru danego miejsca pracy, różnej lokalizacji miejsca pracy
i pracownika czy też kwestii skoordynowania przypadków tworzenia miejsc pracy w różnych lokalizacjach geograficznych.
W takim środowisku jedyną pewną rzeczą jest niepewność co do tworzenia odpowiednich miejsc pracy dla poszukujących kandydatów czy też przyporządkowania odpowiedniego pracownika do poszukującej go firmy. W związku z tym przedsiębiorstwa
i pracownicy muszą zdecydować, czy akceptują dostępne rozwiązania, czy też czekają na
lepsze okazje. Muszą także zdecydować się, czy chcą wpłynąć na proces „przyporządkowania”, poświęcając określone środki na pozyskanie informacji, przeszkolenie zatrudnionych już pracowników, czy też przenieść się do innego miejsca. W przypadku akceptacji
następuje „dopasowanie” pracownika i miejsca pracy, przy czym może ono mieć charakter dopasowania o wysokiej bądź niskiej efektywności. W pierwszym przypadku dochodzi
do kontynuowania zatrudnienia, w drugim może dojść do „rozstania”. Tego typu strumienie zasilają nieustannie zasób bezrobocia, a wynika to ze specyficznych dla danego
miejsca pracy „szoków”: po pierwsze, spowodowanych strukturalnymi zmianami popytu,
które zmieniają względne ceny dóbr produkowanych w ramach tego miejsca pracy; po
drugie, spowodowanych zmianami wydajności, które zmieniają jednostkowe koszty produkcji. Pod wpływem tych „szoków” następuje proces likwidacji miejsc pracy. Pojawiają
się też efekty zewnętrzne procesu poszukiwania i dopasowywania na rynku pracy, które
powodują nieefektywność rynku.
Dlatego też w stanie „pełnego zatrudnienia” nie występuje zerowa stopa bezrobocia.
I tutaj pojawia się problem: czy można ową stopę bezrobocia analitycznie sprowadzić do
„naturalnej stopy bezrobocia” i jej wielkość zrzucić na karb dobrowolnego wyboru, demotywujących konsekwencji zasiłków socjalnych i wprowadzenia płacy minimalnej (jak
czynią to m.in. M. Friedman i E. Phelps), czy też należy jej wielkość wiązać raczej z bezrobociem przymusowym (jak robi to m.in. J.M. Keynes, J.E. Stiglitz). Sposób, w jaki
rozwiązują ten problem Diamond, Mortensen i Pissarides, jest związany, po pierwsze,
z ich interpretacją mikroekonomicznej teorii poszukiwań na rynku pracy (zapoczątkowanej w 1962 r. artykułem G. Stiglera Information in the Labor Market [Stigler 1962]); po
drugie, ze sformułowaniem makroekonomicznej teorii dopasowywania na rynku pracy;
po trzecie, ze sformułowaniem teorii nieefektywności bezrobocia w stanie równowagi.
Okazuje się, że w przypadku poszukiwania, odnajdywania i dopasowywania rynek pracy
nie zawsze jest w stanie przyjść podmiotom gospodarującym z dostateczną pomocą.
Oznacza to, że nie zawsze działa on tak, jakbyśmy sobie tego życzyli. Ponieważ nabywcy
(np. pracodawcy) i sprzedawcy (np. pracownicy) napotykają liczne trudności (w sensie
psychologicznym, czasowym i finansowym) w procesie lokalizowania siebie nawzajem
(„poszukiwanie”) i w procesie spełniania wzajemnych oczekiwań, kiedy już skontaktują
się ze sobą („dostosowywanie się”, „kojarzenie”), rynek (w tym rynek np. pracy) wcale
nie musi „oczyszczać się” nawet w dłuższym okresie. Nie trzeba chyba przypominać, że
takie ustalenia kłócą się ze standardową wykładnią walrasowskiej teorii ekonomii, według której dostęp do rynku i do informacji dla dużej liczby podmiotów gospodarujących
odbywa się bez ponoszenia zbędnych kosztów.
W przeciwieństwie do powyższego modele Diamonda, Mortensena i Pissaridesa pozwalają jednocześnie analizować m.in. sposób, w jaki przedsiębiorstwa i pracownicy
138
Laureaci Nagrody Nobla
wspólnie decydują o tym, czy dopasować się, czy kontynuować swoje poszukiwania,
a w przypadku dopasowania sposób, w jaki korzyści z nawiązania stosunku pracy są rozdzielane na płacę dla pracownika i zysk dla firmy, decyzje przedsiębiorstw o tworzeniu
nowych miejsc pracy oraz sposób, w jaki kształtuje się w czasie dopasowanie pracownika
i firmy. Dzięki takim modelom można analizować także wpływ określonych rozwiązań
w zakresie polityki gospodarczej i socjalnej dotyczących kosztów zatrudniania i zwalniania, ustawy o płacy minimalnej, opodatkowania, czy zasiłków z tytułu bezrobocia na wielkość i zmianę stopy bezrobocia oraz dobrobyt ekonomiczny.
Czy istnieją instrumenty polityki gospodarczej, które mogą wyeliminować nieefektywności rynkowe powstałe w wyniku działania efektów zewnętrznych procesu poszukiwania i dopasowywania? Odpowiedź brzmi: tak. Chodzi tutaj o manipulowanie częścią podatku od
wynagrodzeń płaconą przez pracownika, subsydiowanie zatrudnienia, subsydiowanie tworzenia nowych miejsc pracy, podatek chroniący miejsca pracy w przypadku wprowadzenia
płacy minimalnej oraz zasiłek dla bezrobotnych. Odpowiednia kombinacja instrumentów
fiskalnych wpływa na wskaźnik tworzenia i likwidacji miejsc pracy. Odpowiednia polityka
strukturalna państwa wpływa na stopień intensywności poszukiwania miejsca pracy i szybsze
dopasowanie. Polityka w zakresie zasiłków dla bezrobotnych może z kolei wpłynąć na poziom akceptowanej wydajności pracy. A zatem najlepszym wyjściem dla uzdrowienia rynku
pracy i jedną z odpowiedzi na efekty zewnętrzne procesu poszukiwania na rynku pracy jest
kombinacja polityki strukturalnej w zakresie instytucji rynku pracy, zmierzającej do polepszenia kontaktu pracownika z przedsiębiorstwem oraz polityki socjalnej w zakresie zasiłków
dla bezrobotnych, zmierzającej do podniesienia standardu akceptowalnej wydajności. Wydaje się, że nauką płynącą z ustaleń trzech wyróżnionych ekonomistów jest usprawnienie
funkcjonowania instytucji rynku pracy pośredniczących w nawiązywaniu kontaktów między
pracodawcami i pracownikami, rozwój sieci owych instytucji, ułatwienie dostępu do informacji o istniejących miejscach pracy, wyprzedzające informowanie pracowników o zmieniających się tendencjach na rynku pracy dotyczących kwalifikacji, wyprzedzające zdobywanie
i upublicznianie informacji dotyczących nastrojów i oczekiwań pracodawców.
Reasumując, wspomniani ekonomiści podjęli się próby odpowiedzi na następujące
pytania: Dlaczego tak wielu ludzi pozostaje bezrobotnych, skoro w tym samym czasie
istnieje wiele wolnych miejsc pracy? W jaki sposób polityka gospodarcza oddziałuje na
bezrobocie? Czy występujące bezrobocie ma charakter strukturalny, czy cykliczny? Innymi słowy, czy występujące obecnie w wielu krajach (np. w Polsce) wysokie bezrobocie jest
rezultatem ciągłych przemian strukturalnych gospodarki powodujących niedopasowanie
kwalifikacji osób poszukujących pracy do wymagań nowo tworzonych miejsc pracy, czy
też raczej jest funkcją słabego popytu na dobra i usługi i nastrojów pracodawców stroniących od podjęcia ryzyka? Opowiedzenie się za jedną ze wspomnianych opcji w diagnozowaniu przyczyn bezrobocia wiąże się z opowiedzeniem się za innym typem rozwiązań
w zakresie polityki gospodarczej.
W tej złożonej sytuacji, w której wydaje się, że nie ma prostych recept, w odniesieniu
do sytuacji istniejącej na polskim rynku pracy formułowane są różne opinie. Na przykład
jeszcze nie tak dawno jeden z głównych ekonomistów Forum Obywatelskiego Rozwoju
podsumowywał swoje analizy wnioskiem, iż główną przyczyną bezrobocia w Polsce jest
duże niedopasowanie popytu i podaży pracy pod względem rodzaju posiadanych i wymaganych kwalifikacji. Wzrost zatrudnienia i towarzyszący mu spadek bezrobo­cia są dodatkowo ograniczane przez wysokie pozapłacowe koszty pracy, świadczenia spo­łeczne osłabiające bodźce bezrobotnych do podejmowania pracy, niski stopień swobody gospodarczej oraz niesprzyjające wzrostowi zatrudnienia oto­czenie instytucjonalne rynku pracy
[Wojciechowski 2008].
Laureaci Nagrody Nobla
139
Na pierwszy rzut oka wydaje się, że autor powtarza ogólny argument teorii poszukiwań i dopasowania. Jest to jednak tylko pierwsze wrażenie. Wbrew temu co twierdzi
autor tej opinii, nie chodzi tutaj bowiem o wybór pomiędzy aktywnymi i pasywnymi instrumentami polityki państwa w zakresie rynku pracy, lecz o odpowiednią ich kombinację, dopasowaną do kulturowych i ekonomicznych osobliwości danego segmentu rynku
pracy. Należy też pamiętać, że jeśli uznamy, iż jedną z przyczyn niedopasowania na rynku pracy jest kiepska jakość pośrednictwa pracy, to dotyczy to w równej mierze pośrednictwa państwowego, jak i prywatnego. To samo dotyczy programu szkoleń zawodowych.
Otoczenie instytucjonalne to nie tylko „regulacje prawne określające warunki konkurencji rynkowej, swobodę prowadzenia działalności gospodarczej i system egzekwowania
prawa”. Otoczenie instytucjonalne to także (a może przede wszystkim) kultura wraz
z normami i dyrektywami respektowanymi w danej społeczności. Zresztą już K. Arrow
(a przed nim A. Smith w swej Teorii uczuć moralnych) uznał zaufanie i kapitał społeczny
za niezbędne dla przezwyciężenia niektórych zawodności rynku. Należy jednak pamiętać,
że kultura, podobnie jak rynek i państwo, również może zawodzić.
Ponadto wbrew jednostronnym analizom FOR, co pokazał Pissarides, można stwierdzić, że podatki mają co prawda wpływ na decyzje dotyczące alokacji godzin pracy, lecz
ich pełny wpływ można zrozumieć wyłącznie rozumiejąc sposób, w jaki są wydawane
przychody z podatków oraz uwzględniając rodzaj pracy zarobkowej, która podlega opodatkowaniu. W szczególności podatki będą miały większy wpływ na aktywność rynkową,
jeśli ta aktywność ma jakąś niepodlegającą opodatkowaniu alternatywę. Będą również
miały większy wpływ na decyzję poszczególnej jednostki o wielkości podaży czasu pracy
zarobkowej, jeśli ta jednostka ma do dyspozycji alternatywne sposoby wykorzystania czasu, które dostarczają jej w przybliżeniu taką samą użyteczność jak czas poświęcony pracy
zarobkowej [Pissarides, Ngai 2008]. Wychodząc z takiego założenia Pissarides pokazał,
na przykładzie trzech modeli państwa dobrobytu (anglosaski, kontynentalny i skandynawski), w jaki sposób dostępność bliskich substytutów w rodzaju produkcji (pracy) domowej zwiększa wpływ opodatkowania na wielkość oferowanej pracy zarobkowej. Wnioski, do jakich doszedł, mówią, iż podatki (w tym koszty pracy) bardziej oddziałują na
decyzje o podjęciu pracy zarobkowej w sektorach, które mają bliskie substytuty w postaci produkcji domowej, np. praca socjalna, usługi niewymagające dużych kwalifikacji,
a mniej np. w sektorze wytwórczym.
Każda jednostronna diagnoza problemu zatrudnienia i bezrobocia ukazuje, jak bardzo paradygmat walrasowski nadal krępuje myślenie. Ostatni kryzys finansowy i ekonomiczny spowodował nową falę bezrobocia przede wszystkim w gospodarkach, które charakteryzowały się przychylniejszym otoczeniem instytucjonalnym rynku pracy (np. Irlandia, Wielka Brytania, Hiszpania, USA) i mniejszymi pozapłacowymi kosztami pracy. Jak
widać, przyczyny problemu bezrobocia muszą leżeć głębiej, a jego rozwiązanie jest bardziej złożone, aniżeli wyobrażali to sobie L. Walras, M. Friedman i FOR.
Wydaje się, iż w przypadku utrzymującego się dużego bezrobocia mamy najczęściej
do czynienia z wypadkową dwóch wspomnianych ekonomicznych tendencji. Przedsiębiorstwa nie tworzą nowych miejsc pracy, ponieważ z jednej strony nie mogą sprzedać
swoich produktów (bezrobocie cykliczne, w którym przeważa dynamika likwidacji miejsc
pracy i nad tworzeniem nowych), a z drugiej strony, nie są w stanie znaleźć odpowiednich kandydatów (bezrobocie strukturalne, w którym nieustanne przemiany w strukturze
gospodarki – niekoniecznie związane wyłącznie z transformacją systemową, ale też z nieustanną „twórczą destrukcją” – powodują mniej więcej taką samą dynamikę tworzenia
i likwidacji miejsc pracy). Potencjalni pracownicy, pomimo najszczerszych chęci i odpowiednich kwalifikacji, nie mogą znaleźć pracy, ponieważ znalezienie odpowiedniego sta-
140
Laureaci Nagrody Nobla
nowiska powoduje różnego rodzaju koszty. W takich okolicznościach – rynek podobnie
jak państwo – zawsze się spóźnia. Kiedy znajdzie już rozwiązanie, okazuje się, że okoliczności się zmieniły. I tak w kółko. Przyszłość pokaże, na ile ustalenia Diamonda, Mortensena i Pissaridesa pozwolą przezwyciężyć trudności w lepszym zrozumieniu i rozwiązywaniu nękającego współczesne gospodarki problemu bezrobocia. Na razie wypada nam
cieszyć się z decyzji komitetu przyznającego nagrodę Banku Szwecji w dziedzinie nauk
ekonomicznych. Chociaż nie wszyscy pewnie są z niej do końca zadowoleni.
Tekst wpłynął 8 grudnia 2010 r.
Bibliografia
Blanchard O.J., Diamond P., The Beveridge Curve, „Brookings Papers on Economic Activity” 1989,
nr 1.
Gadomski W., Nobel za badanie bezrobocia, „Gazeta Wyborcza”, 11.10.2010.
Mortensen D.T., Pissarides Ch.A., Job Creation and Job Destruction in the Theory of Unemployment,
„Review of Economic Studies” 1994, nr 61(3).
Pissarides Ch.A., Equilibrium Unemployment Theory, The MIT Press, Cambridge, Mass., London
2000.
Pissarides Ch.A., Ngai L.R., Employment Outcomes in the Welfare State, „Revue Economique” 2008,
t. 59.
Scientific Background on the Sveriges Riksbank Prize in Economic Sciences in Memory of Alfred Nobel
2010.
Stiler G., Information in the Labor Market, „Journal of Political Economy” 1962, nr 70(5).
Wojciechowski W., Skąd się bierze bezrobocie? „Zeszyty FOR”, Warszawa 2008.
http://krugman.blogs.nytimes.com/2010/10/11/what-we-learn-from-search-models/ (15.11.2010).
Od Redakcji
Czytelników zainteresowanych problematyką rynku pracy, zatrudnienia i bezrobocia informujemy, że Polskie Towarzystwo Ekonomiczne zamierza wydać jeszcze w tym roku
polski przekład dwóch książek autorstwa ubiegłorocznych laureatów Nagrody Nobla:
1. Ch.A. Pissarides, Equilibrium Unemployment Theory, 2nd ed., MIT Press, Cambridge,
Mass. 2000 (reprint 2007).
2. D. Mortensen, Wage Dispersion: Why Are Similar People Paid Differently? MIT Press,
Cambridge, Mass., 2003.
R E C E N Z J E
I
O M Ó W I E N I A
Stanisław Kubielas, Innowacje i luka technologiczna w gospodarce globalnej opartej na
wiedzy. Strukturalne i makroekonomiczne uwarunkowania, Wydawnictwa Uniwersytetu
Warszawskiego, Seria: Badania ekonomiczne, Warszawa 2009, s. 398
Recenzowana książka podejmuje problematykę, która nie doczekała się jak dotąd systematycznego ujęcia w polskiej literaturze przedmiotu, choć ma już niezwykle obszerną
literaturę zagraniczną, zarówno o charakterze teoretycznym, jak i empirycznym.
Można z pełnym przekonaniem powiedzieć, że w polskiej literaturze przedmiotu monografia S. Kubielasa ma charakter pionierski. Wypełnia ona pewną lukę, tak w wymiarze teoretycznym, jak i empirycznym, jeśli chodzi o badania nad istotą, dynamiką, mechanizmami pokonywania i makroekonomicznymi uwarunkowaniami luki technologicznej, z uwzględnieniem istniejących w tym zakresie zróżnicowań sektorowych (gałęziowych)
w kraju technologicznie opóźnionym (na przykładzie Polski).
Recenzowana książka składa się z trzech części: I. Luka technologiczna w gospodarce globalnej, II. Dyfuzja technologii i zmiany produktywności, III. Dynamika luki technologicznej a makroekonomiczna absorpcja. Nie będę z braku miejsca opisywać dokładnie zawartości pracy ani formułował szczegółowych uwag do poszczególnych jej rozdziałów (które miałem już sposobność przekazać autorowi inną drogą). Skupię tutaj uwagę
na ogólnej ocenie recenzowanej książki.
Praca S. Kubielasa jest dowodem imponującej, rzadko spotykanej erudycji i kompetencji autora w zakresie literatury bezpośrednio i pośrednio związanej z treścią monografii. Co więcej, praca zawiera wiele twórczych przyczynków do teoretycznego rozpoznania
prawidłowości charakteryzujących procesy rozpowszechniania (dyfuzji) innowacji w kontekście konwergencji technologicznej między krajami oraz wpływu dyfuzji innowacji
(transferu technologii) na konkurencyjność poszczególnych przemysłów w krajach „doganiających” kraje wyżej rozwinięte. Obok bardzo gruntownej prezentacji stanu dociekań teoretycznych w trzech wyróżnionych w pracy obszarach (zawierającej często elementy krytycznej analizy i syntezy), w każdej z tych części występują rozdziały empiryczne, przedstawiające wyniki oryginalnych badań autora nad luką technologiczną
w gospodarce polskiej (w części pierwszej także w wybranych innych krajach Europy
Środkowo-Wschodniej), dyfuzją innowacji w gospodarce i makroekonomicznymi uwarunkowaniami tej dyfuzji. Badania te ściśle nawiązują do przedstawianych w każdej
z trzech części pracy twierdzeń i hipotez teoretycznych.
Praca opiera się na kilku explicite bądź implicite sformułowanych ogólnych tezach,
które wydają się dobrze odzwierciedlać zarówno kierunek dociekań teoretycznych, jak
i studiów empirycznych nad luką technologiczną w międzynarodowej literaturze przedmiotu. Teza podstawowa dotyczy współzależności globalizacji – zwłaszcza w wymiarze
handlowym – i technologii we współczesnym świecie. Druga teza dotyczy sektorowego
(gałęziowego) zróżnicowania luki technologicznej, z czym z kolei wiąże autor słusznie
niezbędność powiązania dynamiki luki technologicznej z makroekonomicznymi mecha-
142
Recenzje i omówienia
nizmami absorpcji innowacji, z uwzględnieniem jednak różnic w mikroekonomicznych
mechanizmach innowacji i dyfuzji technologii. Nie towarzyszy temu jednak poświęcenie
większej uwagi owym różnicom mikroekonomicznym (bezpośrednio traktuje o tym jedynie niewielki objętościowo punkt 3.2; „Dyfuzja w skali mikroekonomicznej” (s. 254­–
–259), przy uwypukleniu natomiast kwestii związanych z makroekonomicznymi uwarunkowaniami absorpcji (niemal cała część III, „Dynamika luki technologicznej a makroekonomiczna absorpcja”, s. 307–368).
Na tle tych dwóch ogólnych (raczej implicite sformułowanych) tez należy postrzegać
główną, bardziej już szczegółową i explicite sformułowaną tezę pracy (s. 12), „że dynamika luki technologicznej w gospodarce globalnej nie jest procesem liniowym przebiegającym podobnie jak konwergencja warunkowa w neoklasycznych modelach wzrostu.
Dynamika luki technologicznej zależy w sposób istotny od struktury gospodarki”.
S. Kubielas wiąże z tym słusznie fakt sektorowego zróżnicowania mechanizmów, ścieżek
i dynamiki zamykania luki technologicznej i tempa konwergencji (w rozumieniu zmniejszania różnic produktywności) oraz wzrostu konkurencyjności poszczególnych sektorów
w handlu międzynarodowym. Z tezą tą wiążą się logicznie główne hipotezy badawcze
przyjęte przez autora:
1) hipoteza o odrzuceniu liniowej wersji hipotezy Gerschenkorna i zastąpieniu jej alternatywnymi modelami luki technologicznej;
2) hipoteza o występowaniu istotnego wzajemnego oddziaływania czynników absorpcji
makroekonomicznej oraz popytowych i podażowych czynników innowacji i dyfuzji,
przy istnieniu istotnych różnic występujących w tym oddziaływaniu między krajami
zaawansowanymi a opóźnionymi technologicznie.
Powyższe hipotezy zostały należycie „umocowane” przez autora w teoretycznej literaturze przedmiotu, odwołują się do stanu dotychczasowego rozpoznania odnośnych
zjawisk empirycznych w tej literaturze i są oryginalne, a zarazem nietrywialne. W pełni
więc spełniają standardowe kryteria, jakie w ogólnej metodologii nauki formułuje się
w odniesieniu do hipotez badawczych. Nie budzi też zastrzeżeń sposób sformułowania
głównego celu pracy („wkład w dopracowanie mikro- i makroekonomicznych podstaw
teorii luki technologicznej i ich weryfikacja na podstawie dostępnego materiału empirycznego”; s. 13) oraz sposób konstrukcji i ogólny układ pracy. Jest on bowiem ściśle
podporządkowany wskazanym powyżej głównym hipotezom badawczym. Autor formułuje również pojęcie „pytań badawczych” (s. 13) w odniesieniu do teoretycznych i empirycznych rozważań w każdej z trzech części pracy:
1) czy konwergencja i dynamika luki technologicznej jest sektorowo symetryczna czy
asymetryczna?
2) z czego wynika asymetryczność luki?
3) czy asymetria ta dotyczy również oddziaływania czynników makroekonomicznych?
Pytania te można ująć jako uzasadniony, istotny w sensie poznawczym sposób uszczegółowienia celu głównego.
O wysokiej ocenie pracy S. Kubielasa decyduje przede wszystkim wskazany już fakt,
że jest to pierwsze – i znakomite zarazem – w polskim piśmiennictwie ekonomicznym
monograficzne opracowanie zajmujące się kategorią luki technologicznej, jej istotą, pomiarem, ścieżkami zamykania tej luki i jej makroekonomicznymi uwarunkowaniami.
Autor przyjmuje przy tym założenie o sektorowym zróżnicowaniu luki technologicznej
(a więc i w konsekwencji takim samym zróżnicowaniu wielkości luki, szybkości jej zamykania i uwarunkowań makroekonomicznych) i (często) jej charakterze nieliniowym (np.
względem poszczególnych zmiennych makroekonomicznych podażowych i popytowych).
Praca zawiera krytyczną analizę i syntezę, z próbami licznych własnych uogólnień autora,
Recenzje i omówienia
143
teorii luki technologicznej, przedstawionej na tle i w powiązaniu z bardziej ogólnymi teoriami innowacji, teorii wzrostu – a w tym teorii konwergencji, a także teorii handlu międzynarodowego. Książka zawiera przemyślane refleksje krytyczne nad stanem badań
empirycznych, nad weryfikacją podstawowych hipotez i uogólnień teoretycznych istotnych w kontekście kategorii luki technologicznej. Na wysoką ocenę zasługuje również
bardzo wartościowa w sensie poznawczym autorska część empiryczna, obejmująca rozdział 4 w części I („Dynamika luki technologicznej: specjalizacja i konwergencja”), rozdział 4 w części II („Dyfuzja technologii w polskim przemyśle przetwórczym”) oraz rozdział 3 w części III („Badanie empiryczne makroekonomicznych uwarunkowań innowacji
i luki technologicznej”). Część III jako całość jest zupełnie nowatorska w krajowej literaturze przedmiotu, nawiązująca do dorobku nauki światowej, a także do studiów empirycznych poświęconych innym krajom lub ich grupom. Analiza przeprowadzona przez
autora zwraca uwagę na zasadnicze odmienności makroekonomicznych mechanizmów
absorpcji i dyfuzji innowacji między krajami technologicznie opóźnionymi (na przykładzie Polski) a krajami zaawansowanymi technologicznie.
Oczywiście wartość poznawczą recenzowanej monografii w wymiarze empirycznym
ogranicza jej zakres czasowy i zwłaszcza przedmiotowy. Chodzi w szczególności o fakt,
iż badanie luki technologicznej w polskiej gospodarce dotyczy wyłącznie przemysłu
przetwórczego, a ponadto ogranicza się do innowacji „ucieleśnionych” (odpowiada zatem kategorii embodied technological change, używając angielskiego określenia z teorii
wzrostu). Nie jest to zarzut po adresem autora, tym bardziej że to ograniczenie jest
dobrze w pracy objaśnione z punktu widzenia dostępności i porównywalności odpowiednich danych statystycznych. Należy jednak być ostrożnym z uogólnianiem wyników
badań empirycznych uzyskanych w recenzowanej pracy w odniesieniu do przemysłu
przetwórczego na całą gospodarkę Polski czy na inne jej sektory, np. sektor usług.
W przypadku tego ostatniego zapewne znacznie większe znaczenie z punktu widzenia
rozmiarów luki technologicznej i dynamiki jej zamykania mają innowacje nieucieleśnione, a ponadto procesy typu learning by doing i learning by schooling, nieuwzględnione w recenzowanej pracy.
Po drugie, wartość poznawczą pracy ogranicza fakt całkowitego niemal pominięcia
– zarówno przy formułowaniu odpowiednich modeli empirycznych, jak i w interpretacji
otrzymanych wyników – wpływu szeroko rozumianych instytucji czy otoczenia instytucjonalnego na lukę technologiczną, tempo jej zamykania i na innowacyjność gospodarki.
Chodzi przykładowo o takie „zmienne instytucjonalne”, jak prawa własności, organizacja
rynku czy zaufanie społeczne (kapitał społeczny). Jak przekonująco dowodzi nowa ekonomia instytucjonalna, czynniki te wywierają znaczący wpływ na dynamikę zmian ekonomicznych i technologicznych w gospodarce rynkowej. Ponadto nie budzi dziś poważniejszych problemów formalnych konstrukcja modeli ekonometrycznych (np. modele probitowe) pozwalających na uwzględnianie tego typu zmiennych w badaniach empirycznych.
Zresztą i w modelach „tradycyjnych” można je włączać jako zmienne binarne (zero-jedynkowe). Podobnie jak w przypadku zastrzeżenia poprzedniego, nie chodzi mi tu o krytykę empirycznej analizy przeprowadzonej przez S. Kubielasa w odniesieniu do luki
technologicznej w gospodarce polskiej, lecz jedynie o zwrócenie uwagi na potrzebę pewnej relatywizacji otrzymanych wyników tej analizy ze względu na fakt nieuwzględnienia
czynników instytucjonalnych.
W zakończeniu tej recenzji muszę też zwrócić uwagę na kilka jej niedostatków techniczno-warsztatowych:
1. W książce mamy do czynienia z licznymi usterkami stylistyczno-językowymi. W głównej mierze wynikają one z dosłownego przenoszenia do języka polskiego terminów
144
Recenzje i omówienia
i określeń anglojęzycznych bądź składni językowej właściwej dla języka angielskiego.
2. Autor w sposób bardzo kompetentny i w wielu wypadkach twórczy wykorzystuje
w swej pracy zagraniczną (w zasadzie anglojęzyczną) literaturę przedmiotu. Niestety
pominięto w niej liczne opracowania autorów polskich, np. prace K. Tokarskiego,
V. Nowak, a także piszącego tę recenzję.
3. Warstwa własnych badań empirycznych autora jest w pracy obszerna i poznawczo
bardzo wartościowa. Pewnym jej niedostatkiem jest jednak to, że w omawianiu
i interpretacji jakościowej otrzymanych wyników (skądinąd utrzymanej na merytorycznie wysokim poziomie) brak często próby sformułowania sądów i wniosków
o bardziej ogólnym, syntetycznym charakterze.
4. Uwaga ostatnia dotyczy również kwestii interpretacji jakościowej wyników własnych
badań empirycznych autora. W tej interpretacji są często wysuwane sądy o charakterze przypuszczającym, mające charakter wstępnych hipotez badawczych mogących
być punktem wyjścia dalszych badań. Jest to metodologicznie poprawne i wzbogaca
poznawczo pracę. Szkoda jednak, że formułując tego rodzaju sądy, autor nie podejmuje prób tzw. analizy eksploracyjnej, polegającej na przytoczeniu „przykładów ilustracyjnych” bądź pewnych danych faktograficznych o charakterze statystycznym,
które mogłyby tego rodzaju hipotezy w jakiś wstępny sposób uprawdopodobnić.
Bogusław Fiedor
Idee ordo i społeczna gospodarka rynkowa, praca zbiorowa pod red. Elżbiety Mączyńskiej
i Piotra Pysza, Polskie Towarzystwo Ekonomiczne, Warszawa 2010. s. 234
Książka została wydana w 2010 r. przez Polskie Towarzystwo Ekonomiczne w ramach
serii Biblioteka Myśli Ekonomicznej. Jej zawartość została podzielona na trzy grupy tematyczne:
1) Klasycy ordoliberalizmu i społecznej gospodarki rynkowej;
2) Społeczna gospodarka rynkowa – dyskusja i kontrowersje;
3) Społeczna gospodarka rynkowa a współczesność.
Przy jej przygotowaniu redaktorzy uznali z jednej strony potrzebę wniesienia wkładu
do dyskusji toczącej się wokół relacji między sprawiedliwością a efektywnością, a z drugiej strony – wysokie zapotrzebowanie społeczne na koncepcję ładu gospodarczego i polityki jego kształtowania.
W eseju „Czemu służy ekonomia polityczna” W. Eucken przyznaje nauce ekonomii
politycznej możliwość kształtowania rzeczywistości. To powinno zobowiązywać i nobilitować jej twórców. Skoro, jak pokazuje historia, nie jest możliwa gospodarka w pełni
rynkowa, to działania podejmowane przez władzę państwową powinny opierać się na
dobrej teorii. Uprawianie polityki oznacza bowiem nie tylko podejmowanie trudnych,
ale też odpowiedzialnych decyzji i zadań, realizowanych w obliczu wielu celów i dylematów.
W. Ropke w eseju „Główne kierunki liberalnego programu polityki gospodarczej”
stawia pytanie o uzasadnione granice sektora publicznego i odpowiedzialności władzy
państwowej za przebieg procesów gospodarczych. Zwraca uwagę na konieczność wyraź-
Recenzje i omówienia
145
nego rozróżnienia między kapitalizmem, z jakim mieliśmy i mamy do czynienia, a gospodarką rynkową ze sprawnie funkcjonującym mechanizmem konkurencji. W prawdziwym
ładzie konkurencyjnym nie ma miejsca dla monopoli, a jego budowa wymaga wypracowania odpowiednich reguł gry opartych na dojrzałym rozumieniu kwestii ogólnogospodarczych oraz istnieniu silnego i bezstronnego aparatu administracyjnego. Gospodarka
rynkowa wymaga ponadto, w jego opinii, mocnej bazy antropologiczno-socjologicznej.
Rozważania A. Rustowa zawarte w tekście „Liberalny interwencjonizm państwowy”
są podporządkowane tezie o rozstrzygającym dla gospodarki i losu narodów znaczeniu
państwa. Powszechną słabością państwa jest bowiem, w jego ocenie, niezdolność do
obrony przed naporem chciwych grup interesu. Budowanie koncepcji i implementacja
polityki państwa powinny zaczynać się od wypracowania sposobu osłabienia pozycji tych
grup.
L. Erhard w swoim odczycie wygłoszonym w 1954 r. nadał opisywanemu modelowi
gospodarki miano społecznej gospodarki rynkowej. Jej fundamentem jest uznanie godności jednostki ludzkiej i indywidualnej wolności realizowanej w warunkach wolnej
i uczciwej konkurencji. W swojej koncepcji polityki gospodarczej wielką wagę przywiązuje do precyzyjnej i konsekwentnej samokontroli państwa w zakresie aktywności i ingerencji w proces gospodarowania. Aktywność ta nie może być zbyt duża, aby nie dochodziło do sytuacji, w której jednostki nie będą czuły się odpowiedzialne za swój los i przerzucą tę odpowiedzialność na władzę państwową. Będzie to sprzyjać negatywnym ocenom
funkcjonowania państwa przez obywateli. Podstawowym zadaniem państwa, przy
uwzględnieniu powyższych ograniczeń, jest utrzymanie dynamiki gospodarczej, co będzie
służyć dobru narodu.
Próba wyeksponowania pewnej komplementarności i syntezy koncepcji polityki gospodarczej W. Euckena i L. Erharda jest głównym zamierzeniem eseju napisanego przez
P. Pysza. Jej poszukiwanie jest podyktowane możliwością wykorzystania idei tych autorów do ukierunkowania polityki gospodarczej współczesnych państw. Dopiero po pozytywnym rozstrzygnięciu tej kwestii można dążyć do wypracowania narzędzi aplikacyjnych i oceny ich adekwatności w obliczu kryzysu światowego, w tym kryzysu wartości,
etyki, odpowiedzialności. Różnice poglądów wskazanych autorów wynikają z odmiennego podejścia do gospodarującej jednostki ludzkiej. Dla Euckena jest ona integralną
częścią systemu mikroekonomicznych podmiotów rynkowych, a jej potrzeby stają się
nadrzędnymi celami gospodarki (dostęp do dóbr materialnych i realizacja poczucia wolności, sprawiedliwości i równości). W. Eucken nie przypisuje jednostce ludzkiej roli samodzielnego podmiotu podejmującego decyzje w sferze gospodarczej. Natomiast
L. Erhard traktuje jednostkę ludzką w roli podmiotu decyzji gospodarczych, przez co
staje się ona punktem wyjścia oraz celem działań gospodarczych. Jej wolność rozpatruje łącznie z odpowiedzialnością za siebie i społeczeństwo (wolność i odpowiedzialność
dla wszystkich).
Wspólną cechą ich koncepcji polityki gospodarczej jest określenie ram ładu gospodarczego, dla którego kluczowe są zasady kompleksowości, spójności i długiego horyzontu czasu. P. Pysz podkreśla, że twórcy ordoliberalizmu z niejednakową siłą akcentowali
ważność tych zasad. Nowym elementem w gospodarce współczesnej jest znaczenie sfery
finansowej w kształtowaniu (i burzeniu) ładu gospodarczego. Powszechna tendencja do
internacjonalizacji działalności gospodarczej, połączonej z przepływami czynników produkcji, przesuwa uwagę władzy gospodarczej nastawionej na osłabianie tempa koncentracji produkcji i własności z rynków krajowych na płaszczyznę międzynarodową.
W ramach podsumowania swoich rozważań autor wymienia zasady kształtowania
ładu gospodarczego w podziale na trzy poziomy analizy: makroekonomiczny, mikroeko-
146
Recenzje i omówienia
nomiczny, jednostek ludzkich. Przegląd głównych nurtów w ekonomii politycznej pozwala mu na wskazanie idei ordo i koncepcji społecznej gospodarki rynkowej jako najbardziej odpowiedniej teorii dla polityki gospodarczej doby współczesnej. Aby nadać swoim
rozważaniom cechy aplikacyjne, autor wskazuje kilka obszarów i działań, na których należałoby skoncentrować się w najbliższej przyszłości.
A. Czech skupił się na poszukiwaniu w sposobie rozważań Rudolfa Euckena, słynnego filozofa i laureata Nagrody Nobla z 1908 r., przesłanek koncepcji jego syna Waltera.
W opinii R. Euckena dla nauki ważne jest to, aby fundamentem analizy bytu człowieka
była moralność i religia, a warunkiem powodzenia jednostki możliwość dania innym czegoś dla nich wartościowego. Obdarzenie jednostek wolnością i swobodą wyboru miejsca
i rodzaju aktywności pozwala na czerpanie przez nie zadowolenia i poczucie spełnienia,
a zysk pojawia się, w pewnym sensie, przy okazji. Wolność gospodarcza została przezeń
potraktowana jako pewna filozofia kultury duchowego rozwoju przywództwa.
Bezpośredni wyraz wpływu filozofii R. Euckena na sposób myślenia W. Euckena ujawnia
się także w zdefiniowaniu celów własnej pracy badawczej na obszarze gospodarczym:
ograniczenie skali problemu rzadkości dóbr, aby ulżyć trudom materialnej egzystencji
człowieka, oraz stworzenie człowiekowi warunków do wolnego i godnego życia – przy
poszanowaniu zasad etyki.
H.F. Wunsche podejmuje próbę interpretacji stosunku L. Erharda do koncepcji polityki J.M. Keynesa. Jako główne założenie swojej polityki – wobec sytuacji kryzysowych
i działań innych państw pobudzających koniunkturę – Erhard przyjął potrzebę wypracowania i realizacji polityki stabilizacyjnej. Włączył w nią autorytety intelektualne i osoby
cieszące się zaufaniem społecznym poprzez powołanie Rady Ekspertów ds. Oceny
Rozwoju Gospodarki. Jej prace i wysiłki Erharda nie spotkały się jednak z wystarczająco
wysokim i konsekwentnym poparciem społecznym. Kreowanie dodatkowego popytu nie
rozwiązuje bowiem napięcia kryzysowego i recesji, ponieważ recesja jest powodowana
głównie przez błędne oczekiwania i nadmierne inwestycje w fazie koniunktury.
Skuteczność polityki pobudzania koniunktury zależy od konkretnych uwarunkowań
i okoliczności towarzyszących.
E. Mączyńska i P. Pysz postawili sobie ambitne zadanie pogłębionej interpretacji istoty społecznej gospodarki rynkowej, posiłkując się w tym celu m.in. wypowiedziami
H.F. Wuensche udzielonymi im w trakcie wywiadu. W jego opinii kluczową zasługą
Erharda było wyjaśnienie, jak w wolnym społeczeństwie powinna być traktowana władza
gospodarcza. Jej bazą jest społeczna akceptacja i koncepcja ładu gospodarczego, a ustrój
gospodarki rynkowej jest kształtowany na gruncie ekonomicznym, społeczno-etycznym
i społeczno-psychologicznym.
G.W. Kołodko poddaje ocenie realizację konstytucyjnej zasady społecznej gospodarki
rynkowej w Polsce. Interpretacja istoty społecznej gospodarki rynkowej wymaga podejścia
holistycznego, interdyscyplinarnego i dalekiego od ortodoksji. Odwołania do niemieckiego
ordoliberalizmu, w nawiązaniu do jego sukcesów, nie mogą powodować próby wdrożenia
ich w życie, ponieważ był on umiejscowiony w konkretnym czasie i przestrzeni, w warunkach których już nie ma. Społeczna gospodarka rynkowa kojarzy się nie z realizacją państwa opiekuńczego, lecz tworzeniem warunków do rozkwitu przedsiębiorczości opartej
głównie na własności prywatnej przy podziale jej owoców, spełniającej wymóg wolnej konkurencji rynkowej i akceptacji społecznej. Ekipy rządowe w Polsce okresu transformacji,
z wyjątkiem jednej rządzącej w latach 90. przyjmowały politykę opartą bardziej na ideologii
neoliberalnej, hasłach populistycznych i monetaryzmie niż na zasadach ładu gospodarczego społecznej gospodarki rynkowej. Nie można wobec takiego biegu zdarzeń oczekiwać
zbliżania się kraju do gospodarek skandynawskich, w praktyce realizujących idee społecz-
Recenzje i omówienia
147
nej gospodarki rynkowej i zajmujących czołowe pozycje w rankingach wielu organizacji
międzynarodowych. Jako ważną przyczynę niepowodzenia w budowaniu takiej gospodarki
w Polsce autor uznaje przewagę siły partykularnych grupowych interesów ekonomicznych
nad ogólnospołeczną konsekwencją w urzeczywistnianiu wizji społecznej gospodarki rynkowej. Nie sprzyjała też temu sytuacja w krajach wysoko rozwiniętych, zmuszająca je do
skoncentrowania uwagi na własnych bieżących problemach, a nie na pomaganiu krajom
przechodzącym transformację. Autor stawia pytanie poniekąd retoryczne – czy współczesną, poddaną globalizacji gospodarkę można nasycić większą troską o spójność społeczną,
o sprawiedliwość, o bardziej równomierny podział dochodów i osiągnięć? I dalej próbuje
na nie odpowiedzieć, stwierdzając, że „dążenie do społecznej gospodarki rynkowej – efektywnej i sprawiedliwej – jest wizją, a nie iluzją” (s. 147).
W. Giza wskazuje, że słabością mechanizmu rynkowego pozostaje jego funkcjonowanie w sferze dystrybucji dóbr i usług. Pyta, czy można rozwiązać kwestie społeczne w ramach gospodarki rynkowej, nie wykorzystując w tym celu redystrybucji dochodów?
Odpowiada, że jest to możliwe przy stosowaniu polityki ładu gospodarczego. Każda władza, która chce reprezentować interesy społeczne i zapobiegać powstawaniu problemów
społecznych musi koncentrować się na kształtowaniu ładu w gospodarce jako całości.
Rolą państwa jest kreowanie konkurencyjnego ładu gospodarczego koniecznego dla zapewnienia wszystkim członkom społeczeństwa warunków osiągania dobrobytu materialnego. Nie jest nią korygowanie podziału rynkowego.
Z. Sadowski wypowiada się odnośnie do roli państwa w gospodarce, a czyni to przez
pryzmat współczesnego liberalizmu. Wrażliwym obszarem aktywności państwa pozostaje
polityka społeczna. Wspomaganie mechanizmu rynkowego przez państwo skupia się na
czterech podstawowych obszarach. Cechą współczesnej doktryny neoliberalnej jest uznanie procesów rynkowych za najbardziej właściwą formę funkcjonowania gospodarki
i społeczeństwa. Neoliberalne zasady nie są konsekwencją rozwoju nauki, ale raczej skutkiem upowszechnienia określonej ideologii. Jednakże współczesny liberalizm nie może
być utożsamiany z neoliberalizmem, ponieważ dostrzega potrzebę aktywnego oddziaływania państwa w gospodarce, pod warunkiem, że pozostaje ono demokratycznym państwem prawa, wspomaganym wysoką aktywnością obywateli. Zachowana zostaje w nim
główna idea liberalizmu, jaką jest nacisk na swobody obywatelskie i prawa człowieka.
Znajduje to odzwierciedlenie w programach ograniczania ubóstwa, przeciwdziałania wykluczeniu społecznemu i ekonomicznemu, polityce spójności.
W. Wilczyński skupia się w swoich rozważaniach na określeniu misji polskiej ekonomii. Wielce wymowne jest stwierdzenie, że „ekonomia nigdy nie miała szczęścia do polskiej inteligencji”. Zdecydowana większość rozważań ekonomistów ma charakter teoretyczny, modelowy, wycinkowy, o niewielkich możliwościach aplikacyjnych. Dorobek ekonomii nie wspomaga procesów decyzyjnych władzy państwowej. Misją ekonomii jest
rozszyfrowanie realiów, istoty popełnianych błędów. Konieczne jest zwiększenie zainteresowania procesem tworzenia, a nie tylko podziału bogactwa. Wymaga to skoncentrowania uwagi na podstawowych kwestiach ustrojowych, polityce gospodarczej i społecznej.
Być może pomoże to ustrzec się przed rosnącą presją silnych grup interesu i skupić wysiłek na formułowaniu warunków sukcesu rozwojowego.
E. Mączyńska podjęła wysiłek interpretacji ordo jako ustroju równowagi. Jako taki
ustrój rozumiany jest porządek, w którym rozwój jednej dziedziny życia społeczno-gospodarczego nie zagraża innej i nie generuje zjawisk patologicznych. Bez wątpienia, współczesny świat znajduje się w stanie wyraźnie naruszonej równowagi i dotyczy to w zasadzie
wszystkich jego sfer i obszarów. Mamy do czynienia z kryzysem fundamentalnym, ustrojowym, kryzysem wartości i ideologii. Szczególnie widoczny jest kryzys ideologii neoliberalnej
148
Recenzje i omówienia
i to w skali gospodarki światowej. Poszukiwanie optymalnego ustroju jest podyktowane
nakładaniem się wielu tendencji i zjawisk o ogromnym spektrum oddziaływań. Chodzi tu
głównie o kryzys globalny, przełom cywilizacyjny, zachwianie równowagi w gospodarce
światowej, kryzys dominującej w wielu krajach ideologii neoliberalnej. Taki model równowagi został już wypracowany w teorii i w praktyce i przyjął charakter ładu społecznej gospodarki rynkowej. Nawet, jeśli nie jest to propozycja idealna, to, zdaniem autorki, chyba
najlepsza z możliwych i dostępnych. Daje bowiem szansę na budowanie trwałych podstaw
spójności społecznej i gospodarczej, trwałości oraz zrównoważenia procesu rozwoju społecznego, gospodarczego i środowiskowego. Konieczne jest jednak dostosowanie ordoliberalnej koncepcji gospodarki rynkowej do współczesnych trendów. Dyskusyjne i wymagające pogłębionych studiów na poziomie narodowym i ponadnarodowym pozostaje wprowadzenie tej koncepcji do praktyki poszczególnych krajów i regionów.
A. Szplit zastanawia się, czy społeczna gospodarka rynkowa posiada cechy bytu realnego, czy jest tylko ideą daleką od rzeczywistości. Rozważania, jakie przeprowadza,
wskazują na ewolucję idei ordo realizowanej w praktyce gospodarczej i na zmienność jej
znaczenia jako podstawy polityki gospodarczej. Współcześnie idee ordo należałoby zaadaptować do potrzeb globalizującej się gospodarki światowej i polityki ponadkrajowej,
a nawet międzynarodowej. Otwarte pozostaje pytanie o szanse na ożywienie dyskusji
polityków wokół wyboru modelu ustrojowego.
M. Miszewski w swoim opracowaniu wskazuje na dokonujący się proces integracji
europejskiej jako pewną szansę na urzeczywistnianie modelu społecznej gospodarki rynkowej. Duże utrudnienie w zastosowaniu modelu społecznej gospodarki rynkowej do
gospodarki Polski i innych krajów postsocjalistycznych stanowi względnie wysoka niestabilność procesów gospodarczych. Towarzyszy jej kryzys idei i praktyki państwa opiekuńczego oraz wizja gospodarki wiedzy. Czy poszczególne kraje dojrzały do tworzenia warunków nieskrępowanej kreatywności jednostek, pozwalającej na rozkwit ich wyobraźni,
na urzeczywistnianie gospodarki wiedzy? Warunkiem dostosowania systemu do potrzeb
rozwoju kreatywności ludzi i zaspokajania popytu na pracę jest jego decentralizacja i dekoncentracja. Współczesną społeczną gospodarkę rynkową autor widzi jako gospodarkę
opartą w możliwie największym stopniu na rynkowym mechanizmie alokacji zasobów
gospodarczych, wspieranym przez ład gospodarczy ustanowiony i strzeżony przez organy
władzy politycznej. Odnotowuje, że ochrona równości przyjmuje współcześnie zupełnie
inny wymiar, bo dotyczy zapobiegania niekorzystnym działaniom i decyzjom potężnych
graczy światowych, w tym koncernów. Bardzo poważnym ograniczeniem prostej adaptacji idei ordo do współczesności jest skala umiędzynarodowienia działalności gospodarczej i aktywności ludzi w ogóle. Autor stoi na stanowisku, że mimo ograniczeń i trudności w skali Unii Europejskiej jako ugrupowania znacznie łatwiej można realizować idee
społecznej gospodarki rynkowej niż na poziomie poszczególnych krajów.
J. Czech-Rogosz podejmuje próbę oceny niemieckiej polityki gospodarczej z punktu
widzenia implementacji społecznej gospodarki rynkowej. Politykę obecnej dekady cechuje głównie krótki horyzont czasu i nastawienie na problemy bieżące. Czy można ocenić
ją negatywnie? Zdaniem autora, należy zachować ostrożność w jednoznacznej ocenie
i krytyce. Uwarunkowania zewnętrzne są dość złożone i zmienne, a trudności wewnętrzne ogromnej wagi, aby wykazać się odwagą podjęcia próby wskrzeszenia polityki ordo.
Autor pisze o potrzebie przeprowadzenia głębokich reform strukturalnych i systemowych gospodarki niemieckiej, w tym przede wszystkim odejścia od praktyki państwa
opiekuńczego, wzmocnienia mechanizmu wolnej i uczciwej konkurencji, zaniechania
przez państwo aktywności w sferze procesów gospodarczych na rzecz tworzenia ładu
konkurencyjnego. Jak sugerują rozważania poprzedniego autora, podjęcie wysiłku i ry-
Recenzje i omówienia
149
zyka tworzenia nowych ram systemowych w jednym kraju ma mniejszy sens niż w ramach
ugrupowania funkcjonującego na podstawie spójnych regulacji prawnych.
Zamierzenie redaktorów opracowania wkomponowuje się bardzo trafnie w ożywioną
dyskusję wokół charakteru ustroju społeczno-gospodarczego, który mógłby spełniać zarówno wymogi efektywności, jak i sprawiedliwości, łączyć funkcjonowanie w gospodarce otwartej z realizowaniem oczekiwań społeczności międzynarodowej i poszczególnych krajów.
Konfrontowanie ustroju opartego na mechanizmie rynkowym z ustrojem silnie związanym
z aktywnością państwa, rozbudowanym sektorem publicznym i znaczącą regulacją centralną ogranicza pole wyboru i usztywnia dyskusję, w dużym stopniu ze względów doktrynalnych, a w pewnym sensie ideologicznych. Ani system państwa opiekuńczego, ani gospodarka wolnego rynku wystawiona na konkurencję ze strony bardziej rozwiniętych uczestników
wymiany międzynarodowej nie gromadzą wokół siebie wystarczającej argumentacji i w konsekwencji dostatecznej liczby zdecydownych zwolenników. Wobec tego jako alternatywa
pojawia się idea ustroju opartego na społecznej gospodarce rynkowej.
Powrót do idei ordoliberalizmu jest możliwy z kilku powodów. Jako dwa istotne można wskazać pozytywne doświadczenia realizacji tego ustroju w Niemczech po II wojnie
światowej oraz osiągnięcia i pozycję międzynarodową krajów skandynawskich, których
system społeczno-gospodarczy jest najbliższy założeniom tej właśnie koncepcji. Ponadto
– dzięki aktywności zwolenników tego systemu – idea ordo jest wzbogacana o nowe wątki, pogłębioną interpretację oraz próbę adaptacji do nowych warunków. Przykładem jest
m. in. recenzowana książka, a także liczne konferencje, seminaria oraz opracowania zarówno autorów krajowych, jak i zagranicznych. Recenzowaną książkę warto polecić
wszystkim osobom zaangażowanym naukowo, zawodowo i emocjonalnie w kształtowanie
koncepcji nowego, sprawnie działającego ustroju społeczno-gospodarczego, w którym
wolność i odpowiedzialność jednostek łączy się z legitymizacją władzy państwowej i poszanowaniem godności osoby ludzkiej.
Anna Chmielak
Konwergencja modeli ekonomicznych: Polska i Ukraina, praca zbiorowa pod red. Michała
G. Woźniaka, Viktora I. Chuzhykova, Dmytro G. Łukjanenki, Fundacja Uniwersytetu
Ekonomicznego w Krakowie, Kraków 2009, s. 716
Recenzowana publikacja składa się ze wstępu, czterech zasadniczych rozdziałów oraz
zakończenia. Zawiera ponadto bibliografię, spis tablic, spis wykresów, spis rysunków, spis
aneksów, wykaz skrótów, indeks nazwisk oraz notę o autorach.
Publikacja ta jest wynikiem współpracy pomiędzy Kijowskim Narodowym
Uniwersytetem Ekonomicznym na Ukrainie oraz Uniwersytetem Ekonomicznym
w Krakowie. To wspólne opracowanie, a z czasem – jak można domniemywać – następne, mogą się przyczynić do rozwoju polsko-ukraińskiej współpracy naukowej, a także
współpracy na wielu innych płaszczyznach, zwłaszcza na obszarze gospodarki. Jej obecny
poziom – pomimo bliskiego sąsiedztwa obu krajów oraz łączących ich więzi społeczno-kulturowych – jest bowiem relatywnie bardzo niski.
Zespół pod kierunkiem M.G. Woźniaka, V.I. Chuzhykova oraz D.G. Łukjanenki postawił sobie bardzo ambitne cele badawcze oraz przyjął określone hipotezy robocze
150
Recenzje i omówienia
(s. 18–19). Dążąc do osiągnięcia tych celów oraz zweryfikowania postawionych hipotez,
przygotował tę obszerną publikację, liczącą ponad 700 stron.
Opracowanie to stanowi kompendium wiedzy nie tylko o konwergencji gospodarczej
między Polską i Ukrainą. Zawiera ponadto wiele informacji na temat różnych teorii ekonomicznych (w większym lub mniejszym stopniu związanych z problematyką konwergencji), transformacji systemowej w tych krajach, prowadzonej tam polityki makroekonomicznej, wyników gospodarczych itd. W pracy zawarto wiele danych statystycznych dotyczących
Polski i Ukrainy, a także – w celu dokonania porównań międzynarodowych – krajów Unii
Europejskiej i państw byłego Związku Radzieckiego. Pokazują one m.in. poziom i tempo
wzrostu PKB, zróżnicowanie dochodów, wielkość i stopę bezrobocia, stopę inflacji itd.
Dane te zostały przedstawione w 110 tablicach, 51 wykresach, 20 rysunkach i 4 aneksach.
Źródłem powyższych danych były urzędy statystyczne Polski, Ukrainy, Unii Europejskiej,
a także organizacje międzynarodowe. W pracy przedstawiono również opracowane przez
różne międzynarodowe instytucje rankingi wolności gospodarczej, poziomu konkurencyjności, innowacyjności, warunków prowadzenia biznesu itp. Jest to obszerny zbiór informacji na temat gospodarek Polski i Ukrainy pokazany na tle gospodarki europejskiej i światowej. Na podkreślenie zasługuje również ogromna bibliografia zawierająca publikacje
zwarte, ciągłe, raporty oraz inne opracowania, zarówno polskie, ukraińskie, jak i anglojęzyczne. Warto także wspomnieć o poprawnej formalnej stronie opracowania. Odnosi się
to zarówno do poprawności językowej (wiele rozdziałów było tłumaczonych z języka ukraińskiego na polski), jak i strony technicznej (ujednolicony zapis tekstu). Z tego względu
można wyrazić słowa uznania dla redaktorów naukowych recenzowanej publikacji.
Takie podejście do przedstawienia konwergencji gospodarczej Polski i Ukrainy ma
jednak swoje minusy. Nie jest to zwarta monografia naukowa. A ponieważ zamieszczono
w niej prace wielu autorów (30), nie unikniono powtórzeń. Dotyczą one takich kwestii,
jak: tempo wzrostu PKB, poziom zróżnicowania dochodów (wskaźnik Giniego), wyniki
międzynarodowych rankingów dotyczących postępu transformacji, poziomu wolności gospodarczej, konkurencyjności itp. Dane te są wielokrotnie przytaczane przez poszczególnych autorów kolejnych rozdziałów. Byłoby to dopuszczalne, gdyby publikacja była zbiorem różnych artykułów na temat gospodarek Polski i Ukrainy. Potraktowanie jej jako
monografii zobowiązywało jednak do zapewnienia pracy większej zwartości (np. stworzenie jednego aneksu statystycznego, do którego odwoływaliby się wszyscy autorzy). Jeżeli
tego nie zrobiono, to przy tej liczbie autorów zajmujących się różnorodną problematyką
uniknięcie powtórzeń było trudne do osiągnięcia. Ponadto poszczególne rozdziały są
w różnym stopniu związane z nurtem przewodnim określonym w tytule książki. Niektóre
podrozdziały mają całkowicie odmienny charakter, a ich umieszczenie wynikało raczej
z zainteresowań badawczych poszczególnych autorów, a nie z celu pracy.
Dyskusyjny dla mnie jest tytuł publikacji. Czy możemy mówić o konwergencji modeli
ekonomicznych Polski i Ukrainy? Moim zdaniem nie jest to uprawnione. Możemy mówić
o konwergencji gospodarek tych krajów, zarówno w sferze realnej, jak i regulacyjnej. Nie
powinniśmy używać określenia „model ekonomiczny” Polski (Ukrainy), lecz po prostu „gospodarka” lub „system gospodarczy”. Dlaczego? System gospodarczy Polski, a zwłaszcza
Ukrainy, ciągle ewoluuje. Nie został na tyle określony i nie posiada własnych cech specyficznych, żeby mówić o modelu ekonomicznym. Jest to może dopuszczalne w przypadku
krajów o ustabilizowanej gospodarce rynkowej. Systemy gospodarcze tych krajów są często
utożsamiane z konkretnymi modelami: Niemcy – model społecznej gospodarki rynkowej,
Szwecja – model państwa dobrobytu czy Wielka Brytania – model neoliberalny. Jednak
i w tym przypadku jest to pewne uproszczenie (np. mówi się o odchodzeniu gospodarki
niemieckiej od modelu społecznej gospodarki rynkowej). W przypadku Polski i Ukrainy
Recenzje i omówienia
151
można co najwyżej mówić o docelowym modelu gospodarczym. Te kwestie są z pewnością
dyskusyjne. Pojęcie modelu ekonomicznego – o czym piszą również w recenzowanej książce autorzy tego opracowania – jest bowiem różnorodnie interpretowane.
Rozdział I ma charakter wprowadzający i zawiera omówienie różnych teorii ekonomicznych związanych – w mniejszym lub większym stopniu – z konwergencją. Jest on
niezbędny w tego typu opracowaniu. Wątpliwości można mieć jedynie do ilości przedstawionych teorii oraz przytaczanych analiz empirycznych. Moim zdaniem, w jednym i drugim przypadku, jest ich za dużo. Niektóre rozważania lepiej pasowałyby do kolejnych
rozdziałów. Przykładem tego może być punkt 1.4, w którym zawarto ogólną ocenę reform gospodarczych w krajach Europy Środkowej i Wschodniej (są one omawiane dopiero w rozdziale II i III). Również szczegółowy, nie pasujący do tego rozdziału, jest
punkt 1.6, zawierający analizę zbieżności gospodarki polskiej i ukraińskiej według zmian
produktywności pracy.
Rozdział II nosi tytuł „Ewolucja modelu gospodarczego w Polsce”. Zgodnie z tym co
pisałem wcześniej, jego tytuł – podobnie jak tytuł całej książki – powinien być inny. Ponadto
rozdział ten jest poświęcony głównie polskiej transformacji gospodarczej i słowo „transformacja” powinno być w tytule. Już pierwszy punkt poświecony jest transformacji systemu
ekonomicznego w ogóle. Jej przebieg w Polsce jest bardzo dobrze omówiony w punktach
2–4, poświeconych deregulacji, demonopolizacji i prywatyzacji. Są to bez wątpienia trzy
najważniejsze elementy procesu transformacji gospodarczej w Polsce. W latach 80. i 90.
XX w. mieliśmy z nimi do czynienia również w krajach o ukształtowanej gospodarce rynkowej. Autor tych rozdziałów bardzo drobiazgowo omawia zmiany systemowe zachodzące
w Polsce, poczynając od Planu Balcerowicza (przełom lat 1989/1990) aż do lat 2007–2008.
W tych punktach brakuje mi ustosunkowania się do kwestii końca transformacji. Czy zmiany systemowe, które następują w ostatnich latach, to nadal transformacja? Czy pewne działania, które były podejmowane w Polsce, zwłaszcza na przełomie wieków, to był wynik
transformacji czy postępującego procesu globalizacji, a zwłaszcza integracji z UE? Jaka
była zależność miedzy tymi procesami? Z tego względu rozdział ten może budzić pewien
niedosyt. Punkt 2.5 jest poświęcony ewolucji polityki makroekonomicznej – szkoda, że
tylko polityki stabilizacyjnej. Z kolei punkt 2.6 – niewątpliwie interesujący – dotyczy procesu, który występuje w gospodarce w ogóle i nie musi być związany z transformacją (restrukturyzacja gospodarki). Pomimo tych uwag rozdział ten oceniam bardzo wysoko.
Rozdział III ma podobny tytuł – z tym że dotyczy Ukrainy. Również mam zastrzeżenie co do nazwy rozdziału. Rozdział ten nie jest jednak tak zwarty i nie tworzy logicznej
całości jak poprzedni. Dominuje w nim problematyka wzrostu gospodarczego oraz omówienie pozycji Ukrainy w gospodarce światowej. Na temat transformacji systemowej na
Ukrainie jest bardzo mało informacji. O liberalizacji jest mowa, ale tylko w handlu zagranicznym. Z pewnością jest to bardzo ciekawy rozdział, zwłaszcza patrząc z punktu
widzenia polskiego czytelnika. Nie można mieć zastrzeżeń do poszczególnych punktów
rozdziału. Nie są one jednak kompatybilne ze wcześniejszym rozdziałem. Zastanawiające
jest to, że Ukraińcy niezbyt chętnie piszą o transformacji gospodarczej w swoim kraju.
Wniosek ten wynika – co należy podkreślić – nie tylko z treści tej publikacji.
Rozdział IV jest – z punktu widzenia tematu książki – najważniejszy. Zawiera aż
15 punktów (264 strony), w których zamieszczono różnorodne rozważania na temat mechanizmów i instrumentów konwergencji gospodarek Polski i Ukrainy. Każdy z nich jest
napisany poprawnie i interesujący. Dyskusyjny może być jednak ich związek z tematem
badawczym czy ich kolejność. Pierwszy punkt (Polska – Ukraina: możliwości współpracy
w świetle procesów realnych) ma charakter wprowadzający. Kolejne dwa punkty nawiązują do wcześniejszych rozważań i w pewnym stopniu są ich kontynuacją. Ich autorzy piszą
152
Recenzje i omówienia
o ukraińsko-polskim partnerstwie strategicznym oraz bilateralnych stosunkach gospodarczych, a następnie o sektorowych priorytetach konwergencji społeczno-gospodarczej. Jeżeli
chodzi o czwarty punkt to informacje o Acquise Communautaire w tym miejscu są zbędne;
wystarczyłyby rozważania na temat Strategii Lizbońskiej. Duże wątpliwości budzi punkt
piąty (Instrumenty polityki handlowej). Mówienie o polskiej polityce handlowej (po przystąpieniu do UE) ma charakter historyczny. Nie ma już takiej polityki i nie możemy porównywać instrumentów polskiej i ukraińskiej polityki handlowej, co najwyżej – unijnej i ukraińskiej. Co do ukraińskiej polityki handlowej, to była omówiona już w punkcie 3.5 i to
szerzej, a mianowicie w kontekście członkostwa w WTO. Rozważania na temat dyplomacji
handlowej także nie pasują do całości. Niewątpliwie zbieżne z tytułem rozdziału są dwa
następne punkty, które oceniam wysoko. Dotyczą one konwergencji w sferze regulacyjnej.
Ich autorzy piszą o mechanizmach i instrumentach finansowych oraz instrumentach polityki fiskalnej. Również bardzo dobry jest kolejny punkt, w którym podjęto bardzo ważne
zagadnienia z punktu widzenia rozwoju gospodarczego Polski i Ukrainy (mechanizmy i instrumenty rozwoju kapitału ludzkiego i innowacyjności). Nie można tego powiedzieć o kolejnym punkcie (4.10), który – pomimo dostosowania jego tytułu do tytułu całej publikacji
(Informacyjne determinanty konwergencji gospodarek Ukrainy i Polski) – nie jest w tym
opracowaniu potrzebny. Z kolei następny punkt (4.11) o współczesnych problemach reform edukacyjnych, chociaż silniej związany z tematem badawczym, jest napisany bez nawiązania do niego. Kolejne dwa punkty są interesujące, ale również bez ścisłego związku
z tematem książki. W pierwszym z nich zajęto się współpracą euroregionalną, a w drugim
– turystyką. Kluczową częścią rozdziału jest bez wątpienia przedostatni punkt (4.14) pod
tytułem: Konwergencja gospodarcza Polski i Ukrainy w świetle procesów realnych i regulacyjnych. Zawarto w nim to, co jest najistotniejsze dla tego tematu i wokół tych zagadnień
należało się skupić w tym rozdziale. Również wysoko należy ocenić ostatni punkt tego
rozdziału (4.15), choć można mieć wątpliwości, czy powinien znajdować się w tym miejscu.
Autor pisze tutaj o transformacyjnym ożywieniu wzrostu gospodarczego. Jak widać, poziom poszczególnych podrozdziałów jest zróżnicowany, a ich przydatność – z punktu widzenia celów badawczych i postawionych hipotez – większa lub mniejsza.
Ostatnią część pracy oceniam pozytywnie. Wykracza ona poza tradycyjne podsumowanie, stąd może taki tytuł („Zamiast podsumowania”). Myśli i uwagi tam zawarte na
pewno są trafne i cenne. Ukraina z pewnością może uczyć się z polskich doświadczeń
i wybrać z polskiej transformacji to, co było korzystne dla naszej gospodarki oraz nie
popełniać naszych błędów.
Pomimo przedstawionych uwag krytycznych moja ogólna ocena tej książki jest jak
najbardziej pozytywna. Poczynione uwagi mają w większości charakter dyskusyjny.
Autorzy znaleźliby z pewnością wiele argumentów przemawiających za takim, a nie
innym tytułem publikacji, zastosowanym podziałem książki, jej zawartością itd.
Opublikowanie tej książki w Polsce uważam za bardzo trafane. Na naszym rynku nie
ma wielu pozycji książkowych na temat transformacji gospodarczej na Ukrainie, jej
doświadczeń w tym zakresie, a tym bardziej publikacji dotyczących konwergencji systemowej między Polską i Ukrainą. Recenzowana książka przybliża polskiemu czytelnikowi powyższe zagadnienia. Z tego względu jest to niezwykle cenna pozycja. Chociaż
przeczytanie całej publikacji jest czasochłonne, to z pewnością wielu czytelników znajdzie w niej interesujące rozdziały. Sądzę, że książka ta może się również spotkać z dużym zainteresowaniem na Ukrainie. Kraj ten może skorzystać z polskich doświadczeń
transformacyjnych.
Stanisław Swadźba
WSKAZÓWKI DLA AUTORÓW
1.Redakcja przyjmuje do oceny i publikacji niepublikowane wcześniej teksty o charakterze naukowym, poświęcone problematyce ekonomicznej.
2.Redakcja prosi o składanie tekstów w formie elektronicznej (dokument MS Word
na CD, dyskietce lub e-mailem) oraz 2 egzemplarzy wydruku komputerowego.
Wydruk powinien być wykonany na papierze A4 z podwójnym odstępem między
wierszami, zawierającymi nie więcej niż 60 znaków w wierszu oraz 30 wierszy na
stronie, w objętości (łącznie z tabelami statystycznymi, rysunkami i literaturą) do
30 stron. Opracowania podzielone na części powinny zawierać śródtytuły.
3.Wraz z tekstem należy dostarczyć do Redakcji Oświadczenie Autora. Wzór
oświadczenia dostępny jest na stronie www.ekonomista.info.pl
4.Do tekstu należy dołączyć streszczenie (200 słów) składające się z uzasadnienia
podjętego tematu, opisu metody oraz uzyskanych wyników. Streszczenie powinno zawierać słowa kluczowe (w języku polskim, rosyjskim i angielskim).
5.Przypisy wyjaśniające tekst należy zamieszczać na dole strony, a dane bibliograficzne w tekście – przez podawanie nazwisk autorów i roku wydania dzieła, na
końcu zdania w nawiasie. W bibliografii zamieszczonej na końcu tekstu (ułożonej w porządku alfabetycznym) należy podawać:
–– w odniesieniu do pozycji książkowych – nazwisko, imię (lub inicjały imion) autora, tytuł dzieła, wydawcę, miejsce i rok wydania;
–– w przypadku prac zbiorowych nazwisko redaktora naukowego podaje się po
tytule dzieła;
–– w odniesieniu do artykułów z czasopism – nazwisko, imię (lub inicjały imion)
autora, tytuł artykułu, nazwę czasopisma ujętą w cudzysłów, rok wydania i kolejny numer czasopisma;
–– w przypadku korzystania z internetu należy podać adres i datę dostępu;
–– powołując dane liczbowe należy podawać ich źrodło pochodzenia (łącznie
z numerem strony).
6.W przypadku gdy artykuł jest oparty na wynikach badań finansowanych w ramach
programów badawczych, autorzy są proszeni o podanie źródła środków.
7.Warunkiem przyjęcia tekstu do oceny i dalszej pracy jest podanie przez autora
pełnych danych adresowych wraz z numerem telefonicznym i adresem e-mail.
Autorzy artykułów są również proszeni o podanie danych do notatki afiliacyjnej:
tytuł naukowy oraz nazwa uczelni albo innej jednostki (tylko jedna jednostka).
Dane afiliacyjne są zamieszczane w opublikowanych tekstach.
8.Opracowanie zakwalifikowane przez Komitet Redakcyjny do opublikowania na
łamach „EKONOMISTY”, lecz przygotowane przez autora w sposób niezgodny
z powyższymi wskazówkami, będzie odesłane z prośbą o dostosowanie jego formy do wymagań Redakcji.
9. Materiały zamieszczone w „EKONOMIŚCIE” są chronione prawem autorskim.
Przedruk tekstu może nastąpić tylko za zgodą Redakcji.
10.Redakcja nie zwraca tekstów i nie wypłaca honorariów autorskich.
WYBRANE TYTUŁY WYDAWNICZE
POLSKIEGO TOWARZYSTWA EKONOMICZNEGO
Joseph E. Stiglitz,
Freefall. Jazda bez trzymanki.
Ameryka, wolne rynki i tonięcie
gospodarki światowej,
Warszawa 2010
John Kenneth Galbraith,
Idee ordo i społeczna gospodarka
rynkowa,
Warszawa 2011
John Kenneth Galbraith,
Pieniądz. Pochodzenie i losy,
Warszawa 2011
John C. Bogle,
Dość. Prawdziwe miary bogactwa,
biznesu i życia,
Warszawa 2009
Pełna oferta wydawnicza dostępna jest w księgarni internetowej Polskiego Towarzystwa Ekonomicznego
www.ksiazkiekonomiczne.pl
Książki można zamówić internetowo, nabyć w księgarniach naukowych
lub w siedzibie Polskiego Towarzystwa Ekonomicznego
ul. Nowy Świat 49, 00-042 Warszawa, tel. (22) 55 15 401, e-mail: [email protected]
EKONOMISTA
EKONOMISTA
Tylko prenumerata zapewni
regularne otrzymywanie
czasopisma
Warunki prenumeraty
11 Wy­daw­nic­two Key Text
Wpła­ty na pre­nu­me­ra­tę przyj­mo­wa­ne są na okres nie­prze­kra­cza­ją­cy jed­ne­go ro­ku. Pre­nu­me­ra­ta roz­po­czy­na się od naj­
bliż­sze­go nu­me­ru po do­ko­na­niu wpła­ty na ra­chu­nek ban­ko­wy nr:
64 1160 2202 0000 0001 1046 1312
Wy­daw­nic­two Key Text spół­ka z o.o., ul. Gór­czew­ska 8, 01-180 War­sza­wa.
Ce­na jed­ne­go nu­me­ru w pre­nu­me­ra­cie krajowej w 2011 r. wy­no­si 50,40 PLN; ze zle­ce­niem do­sta­wy za gra­ni­cę rów­na
będzie ce­nie pre­nu­me­ra­ty kra­jo­wej plus rze­czy­wi­ste kosz­ty wy­sył­ki.
Ce­na pre­nu­me­ra­ty za okres obej­mu­jący kil­ka nu­me­rów jest wie­lo­krot­no­ścią tej su­my.
Ce­na pre­nu­me­ra­ty kra­jo­wej na 2011 r. wy­no­si 302,40 zł (w tym 5% VAT).
11 „RUCH” S.A.
Prenumerata krajowa
Wpła­ty na pre­nu­me­ra­tę przyj­mu­ją jed­nost­ki kol­por­ta­żo­we „RUCH” S.A. wła­ści­we dla miej­sca za­miesz­ka­nia. Ter­min przyj­
mo­wa­nia wpłat na pre­nu­me­ra­tę kra­jo­wą do 5-go dnia każde­go mie­sią­ca po­prze­dza­ją­ce­go okres roz­po­częcia pre­nu­me­ra­ty.
in­fo­li­nia 0-804-200-600; www.ruch.com.pl
Pre­nu­me­ra­ta zagraniczna
In­for­ma­cji o wa­run­kach pre­nu­me­ra­ty i spo­so­bie za­ma­wia­nia udzie­la „RUCH” S.A. Od­dział Kra­jo­wej Dys­try­bu­cji Pra­sy,
01-248 War­sza­wa, ul. Ja­na Ka­zi­mie­rza 31/33, te­le­fo­ny 0-22 53-28-731 – pre­nu­me­ra­ta płat­na w wa­lu­cie ob­cej;
te­le­fo­ny 022 53-28-816, 022 53-28-734, 022 53-28-819 – pre­nu­me­rata płat­na w PLN.
in­fo­li­nia 0-804-200-600
Pre­nu­me­ra­ta opła­ca­na w PLN
Prze­le­wem na kon­to w ban­ku: PEKAO S.A. IV O/War­sza­wa, 68 1240 1053 1111 0000 0443 0494 lub w ka­sie Od­dzia­łu.
Do­ko­nu­jąc wpła­ty za pre­nu­me­ra­tę w ban­ku czy też w Urzę­dzie Pocz­to­wym na­le­ży po­dać: na­zwę na­szej fir­my, na­zwę ban­ku,
nu­mer kon­ta, czy­tel­ny, peł­ny ad­res od­bior­cy za gra­ni­cą, za­mawia­ny ty­tuł, okres prenumeraty, ro­dzaj wy­sył­ki (pocz­tą prio­ry­
te­to­wą czy eko­no­micz­ną). Wa­run­kiem r­ ozpoczęcia w
­ ysyłki pre­nu­me­ra­ty jest do­ko­na­nie wpła­ty na na­sze kon­to.
Prenumerata opłacana w de­wi­zach przez od­bior­cę z za­gra­ni­cy
–– prze­lew na na­sze kon­to w ban­ku: SWIFT ban­ku: PKOPPLPWXXX
w USD PEKAO S.A. IV O/W-wa IBAN PL54124010531787000004430508
w EUR PEKAO S.A. IV O/W-wa IBAN PL46124010531978000004430511
Po dokonaniu przelewu prosimy o przesłanie kserokopii polecenia przelewu z podaniem adresu i tytułu pod nr faxu
+48 022 532-87-31.
–– czek wystawiony na firmę „RUCH SA OKDP” i przesłany razem z zamówieniem listem poleconym na nasz adres.
–– karty kredytowe VISA i MASTERCARD płatność przez http://www.ruch.pol.pl.
EKONOMISTA
CZASOPISMO POŚWIĘCONE NAUCE I POTRZEBOM ŻYCIA
ZAŁOŻONE W ROKU 1900
2011
1
2011
1
W numerze
Andrzej Czyżewski, Sebastian Stępień
Wspólna polityka rolna UE po 2013 r.
a interesy polskiego rolnictwa
Eugeniusz Kwiatkowski
Kryzys globalny a rynek pracy w Polsce
i innych krajach Grupy Wyszehradzkiej
Jan Fałkowski
Konkurencja między partiami politycznymi
a polityka gospodarcza
11 „Kol­por­ter” S.A.
ul. Stry­char­ska 6, 25-659 Kiel­ce
11 „Gar­mond Press” S.A.
ul. Sien­na 5, 31-041 Kra­ków
11 Wersja elektroniczna (również numery archiwalne) do nabycia: http://www.ekonomista.info.pl
Eko­no­mi­sta 2011, nr 1, s. 1–152
Ce­na 50,40 PLN
Wydawnictwo KEY TEXT
WARSZAWA
Indeks 357030
ISSN 0013-3205
Cena 50,40 zł
(w tym 5% VAT)

Podobne dokumenty