studia ekonomiczne - Optimum

Transkrypt

studia ekonomiczne - Optimum
Kwartalnik poświęcony potrzebom nauki i praktyki
2008 Nr 1 (37)
OPTIMUM
STUDIA EKONOMICZNE
SPIS TREŚCI
STUDIA I ROZPRAWY.............................................................................................. 3
Tadeusz Chrościcki – Polska gospodarka w końcu 2007 roku ........................................ 3
Józef Rogowski – Nakłady inwestycyjne a krańcowa produktywność środków
trwałych ......................................................................................................................................... 13
Urszula Gołaszewska-Kaczan – W czyim interesie działa przedsiębiorstwo
– przegląd wybranych teorii ................................................................................................. 19
Mirosława Lasek, Marek Pęczkowski – Analiza kondycji ekonomicznej przedsiębiorstw
za pomocą sieciowej metody połączeń Link Analysis............................................................ 27
Andrzej Buszko – Ocena efektywności wybranych programów pomocowych dla krajów słabo
rozwiniętych gospodarczo w latach 2000-2006.............................................................................. 43
Anna Wildowicz-Giegiel – Konsumpcja a system wartości polskiego społeczeństwa ......... 57
MISCELLANEA ....................................................................................................... 71
Henryk Manteuffel Szoege, Marta Jóźwiak – Makroekonomiczna efektywność
biblioteki publicznej w małym mieście ................................................................................ 71
Jan Zarzecki – Zarządzanie długiem Skarbu Państwa .................................................. 83
Agnieszka Mojsa – Fluktuacje cen ropy naftowej i ich wpływ na gospodarkę światową ... 99
Jarosław Poteraj – Systemy emerytalne w Europie – Austria ......................................... 111
Mateusz Kurpacz – Wybrane aspekty funkcjonowania żywności tradycyjnej w Polsce ..... 125
Bożena Dąbrowska-Jaszczołt – Uwarunkowania zmian jakości mleka w skupie
na przykładzie OSM w Hajnówce.................................................................................... 135
Piotr Kowalczuk – Półsilna i silna forma efektywności rynku akcji w świetle
dotychczasowych badań empirycznych ................................................................................. 147
Agnieszka Ziomek – Oczekiwania płacowe poszukujących pracy w Wielkopolsce
– aspekty teoretyczne i wyniki badań empirycznych ............................................................ 169
RECENZJE I INFORMACJE .............................................................................. 179
Henryk Wnorowski – Rola lidera w organizacji ........................................................... 179
Iwona E. Bogucka – Recenzja książki Bolesława Rafała Kuca
pt. Kontrola w systemie zarządzania. Funkcje i dysfunkcje ............................................... 186
Eugeniusz Kośmicki – Recenzja książki Martina Jänicke, Philipa Kunig
i Michaela Stitzel pt. Umweltpolitik. Lern- und Arbeitsbuch. Politik, Recht
und Management des Umweltschutzes in Staat und Unternehmen ..................................... 189
Uwarunkowania i mechanizmy zrównoważonego rozwoju, VI Międzynarodowa
Konferencja Naukowa, Katedra Gospodarowania Środowiskiem i Turystyki
Wyższej Szkoły Ekonomicznej w Białymstoku, Zakład Zrównoważonego
Rozwoju Wydziału Ekonomii i Zarządzania Uniwersytetu w Białymstoku,
Białystok-Tallin, 2-5 lipca 2007 r. ....................................................................................... 194
Rozwój regionalny – podstawowe cele i wyzwania, Fundacja Promocji Rozwoju Podlasia,
Białowieża, 3-5 września 2007 r. ................................................................................. 197
Perspektywy rozwoju gospodarki społecznej w Polsce a koncepcja zrównoważonego rozwoju,
Stała Konferencja Ekonomii Społecznej Reves, Fundacja Inicjatyw SpołecznoEkonomicznych, Warszawa, 18 – 20 października 2007 r. ................................... 199
Doktoraty ................................................................................................. 207
Wojciech Tarasiuk – Efektywność placówek banku detalicznego ................................... 207
Adam Giegiel – Kapitał niematerialny a tempo wzrostu gospodarczego (na przykładzie
państw OECD) .......................................................................................................................... 210
Aneta Kargol – Partnerstwo publiczno-prywatne jako czynnik ekonomizacji dostarczania
dóbr publicznych .......................................................................................................................... 213
Aneta Ejsmont – Czynniki rozwoju sektora małych i średnich przedsiębiorstw
w polskiej gospodarce.................................................................................................................... 219
Teresa Mikulska – Budżetowanie kosztów jako metoda zarządzania przedsiębiorstwem........ 222
STUDIA I ROZPRAWY
Tadeusz CHROŚCICKI
POLSKA GOSPODARKA W KOŃCU 2007 ROKU
Streszczenie
Artykuł jest syntezą najistotniejszych zmian zachodzących w gospodarce naszego kraju w końcu
2007 r. Przedstawiono je na tle innych krajów Unii Europejskiej. Silnym tendencjom wzrostowym towarzyszy wzmagająca się presja inflacyjna, coraz bardziej restrykcyjna polityka monetarna, nierównowaga w obrotach handlowych i płatniczych z zagranicą. Wysokie potrzeby pożyczkowe budżetu państwa determinują narastanie długu publicznego. Coraz bardziej komplikuje się sytuacja na rynku pracy.
Wzrost gospodarczy staje się coraz mniej zrównoważony.
POLISH ECONOMY BY THE END OF 2007
Summary
The article provides a synthesis of most significant developments that occurred in the economy of
Poland by the end of 2007. They have been presented against a backcloth of other EU countries.
Strong upward trends are accompanied by: increasing inflationary pressure, increasingly restrictive
monetary policy, lack of equilibrium in the balance of international trade and payments. Dramatic loan
needs of the Budget determine an increase in national debt. The situation in the labour market becomes more and more complicated. The economic growth becomes less and less balanced.
1. Silny, ale coraz mniej zrównoważony wzrost
Drugi, kolejny rok polska gospodarka rozwijała się bardzo szybko. Silne tendencje wzrostowe objęły wszystkie jej sektory. Był to jednak wzrost coraz mniej zróżnicowany, dokonujący się w warunkach zwiększającej się inflacji, coraz wyższych
stóp procentowych, niedostosowania podaży do popytu na pracę, wydatnej presji
płacowej, narastającego deficytu handlowego i płatniczego oraz wysokiego zadłużenia kraju. O ile w 2006 r. produkt krajowy brutto był o 6,2% większy niż przed
rokiem, to w okresie styczeń – wrzesień 2007 r. o 6,7%. W IV kwartale ub. roku dynamika procesów realnych nieco osłabła. Mimo to, w skali całego ubiegłego roku,
wzrost gospodarczy wyniósł około 6,5%.
4
Tadeusz Chrościcki
RYSUNEK 1.
Wzrost produktu krajowego brutto (analogiczny kwartał poprzedniego
roku = 100)
8
4
3,2
4,3
4,4
III
IV
5,4
6,3
6,6
6,6
II
III
IV
7,2
6,4
6,4
II
III
2,4
0
I
II
I
2005
2006
I
2007
Źródło: GUS.
RYSUNEK 2.
Tempo wzrostu PKB w krajach UE, w okresie styczeń – wrzesień 2007 r.
Dania
Węgry
Portugalia
Francja
Włochy
Belgia
Niemcy
UE-27
W. Brytania
Niderlandy
Szwecja
Austria
Hiszpania
Grecja
Cypr
Malta
Luksemburg
Finlandia
Rumunia
Czechy
Bułgaria
Polska
Irlandia
Słowenia
Estonia
Litwa
Słowacja
Łotwa
1,7
1,8
1,8
1,8
2,0
2,8
2,9
3,0
3,1
3,1
3,3
3,4
4,0
4,1
4,1
4,5
5,0
5,0
5,8
6,1
6,4
6,7
6,7
6,9
8,2
8,9
9,0
11,1
0,0
2,0
4,0
6,0
Źródło: obliczenia własne na podstawie danych Eurostatu.
8,0
10,0
12,0
Polska gospodarka w końcu 2007 roku
5
Polska znajdowała się w czołówce najszybciej rozwijających się krajów Unii Europejskiej. Pod tym względem ustępowaliśmy miejsca jedynie krajom bałtyckim
oraz Słowacji i Słowenii.
Głównym czynnikiem napędowym gospodarki pozostawał popyt wewnętrzny
zarówno inwestycyjny, jak i konsumpcyjny. W dalszym ciągu notowano wysoką dynamikę eksportu, jednak ze względu na ożywienie popytu krajowego i towarzyszące
mu przyspieszenie importu, ujemne saldo handlu zagranicznego zmniejszało przyrost PKB.
2. Rekordowa dynamika inwestowania
Szczególnie szybko rosły nakłady brutto na środki trwałe, odzwierciedlające skłonność przedsiębiorstw do inwestowania. Już w 2006 r. zwiększyły się one o 15,6%,
a w okresie styczeń – wrzesień 2007 r. aż o 21,7%, tj. w tempie dotychczas nie notowanym. W rezultacie stopa inwestycji (relacja nakładów brutto na środki trwałe do
PKB) wzrosła do 21%, wobec 19,7% w 2006 r. i 18,2% w 2005 r.
Mocny impuls inwestycyjny potwierdzają dane o inwestycjach dużych przedsiębiorstw (zatrudniających powyżej 49 osób). W 2006 r. nakłady tych podmiotów
zwiększyły się o 19,2%, a w okresie styczeń – wrzesień 2007 r. aż o 30,8%, przy
czym około 42% ogółu nakładów poniosły przedsiębiorstwa z udziałem kapitału
zagranicznego. Wysoka dynamika inwestycji utrzyma się w dłuższej perspektywie,
na co wskazują m.in.:
–
pozytywna ocena przez podmioty gospodarcze perspektyw krajowego i zagranicznego zapotrzebowania na produkty i usługi;
–
wysoka spodziewana stopa zwrotu z zaangażowanego kapitału;
–
wyczerpywanie się możliwości zaspokajania rosnącego popytu przy wykorzystaniu dostępnych obecnie mocy produkcyjnych;
–
bardzo dobra sytuacja ekonomiczno – finansowa przedsiębiorstw. W okresie styczeń – wrzesień 2007 r. wskaźnik rentowności obrotu brutto osiągnął 6,4%, a netto 5,2%;
–
łatwo dostępny i relatywnie tani kredyt bankowy. W końcu października 2007 r.
roczne tempo wzrostu kredytów dla firm wyniosło 24,4%;
–
przekraczający 25% wzrost zadłużenia zagranicznego przedsiębiorstw z tytułu kredytów niehandlowych;
–
napływ kapitału zagranicznego. Rok 2007 był rokiem rekordowego zainteresowania tego kapitału naszym krajem. Wartość bezpośrednich inwestycji
zagranicznych przekroczyła 17 mld EUR;
–
absorpcja funduszy unijnych.
Negatywny wpływ na realizowane i planowane inwestycje mogą mieć natomiast
wzrastające koszty wynagrodzeń oraz rosnące ceny dóbr inwestycyjnych.
6
Tadeusz Chrościcki
RYSUNEK 3.
Wzrost nakładów brutto na środki trwałe
(analogiczny kwartał poprzedniego roku = 100)
30,0
26,2
25,0
20,0
15,9
15,0
10,0
5,0
1,2
3,9
10,1
9,0
IV
I
6,4
18,0
20,8 19,8
16,6
0,0
I
II
2005
III
II
2006
III
IV
I
II
2007
III
Źródło: GUS.
3. Wysoki popyt konsumpcyjny
Bardzo dynamicznie rośnie popyt konsumpcyjny sektora gospodarstw domowych.
W 2006 r. był on o 4,9% wyższy niż przed rokiem, a w okresie styczeń – wrzesień
2007 r. o 5,7%.
RYSUNEK 4.
Wzrost spożycia indywidualnego (analogiczny kwartał poprzedniego roku=100)
8,0
6,9
6,0
5,2
5,0
4,4
5,1
4,7
5,2
4,0
2,0
1,4
2,5
2,5
III
IV
1,6
0,0
I
Źródło: GUS.
II
2005
I
II
2006
III
IV
I
II
III
2007
Polska gospodarka w końcu 2007 roku
7
Czynnikiem determinującym to tempo jest głównie poprawa na rynku pracy, przejawiająca się zarówno wzrostem zatrudnienia, jak i coraz wyższym poziomem wynagrodzeń. W 2006 r. zatrudnienie w sektorze przedsiębiorstw zwiększyło się o 3%,
a w okresie styczeń – październik 2007 r. o dalsze o 4,7%, natomiast przeciętne wynagrodzenia były tam odpowiednio o 5,1% i o 9,2% wyższe.
Poprawa sytuacji dochodowej jest również widoczna w gospodarstwach pracujących na własny rachunek, a szczególnie w gospodarstwach rolnych. Podobnie, jak
w 2006 r., układ cen był korzystny dla rolników. Z względu na wyższą dynamikę cen
produktów rolnych sprzedawanych przez rolników niż cen towarów i usług przez
nich nabywanych, wskaźnik „nożyc cen” wyniósł w 2006 r. 102,9, a w okresie styczeń – październik 2007 ub. roku 104,2. Istotną rolę odgrywały też środki pomocowe UE. W latach 2006 – 2007 roczne wypłaty transferów UE, w ramach Wspólnej Polityki Rolnej (łącznie z kwotami należnymi z krajowego budżetu, wynikającymi z zasad współfinansowania) przekroczyły 15 mld zł. Ocenia się, że wypłaty te
w coraz mniejszym stopniu finansowały konsumpcję, a przeznaczane były na zakup
środków do produkcji rolnej, czy też pokrywały koszty działalności określonej programami unijnymi, wspierającymi inwestycje.
Dużą rolę w kształtowaniu popytu konsumpcyjnego odgrywały też wielomiliardowe transfery, pozyskiwane w wyniku emigracji zarobkowej. Rosło również wykorzystanie kredytów i pożyczek bankowych zarówno konsumpcyjnych, jak i hipotecznych. Z tego tytułu gospodarstwa domowe zadłużone były w końcu października
ub. roku na kwotę prawie 250 mld zł, tj. o 39% wyższą niż rok wcześniej. Należy
jednak przy tym podkreślić, że na tle innych gospodarek UE skala zadłużenia polskich gospodarstw domowych pozostała bardzo niska. Relacja zadłużenia tych gospodarstw do PKB wynosiła w końcu 2007 r. jedynie około 22%.
Dodatkowym impulsem dla konsumpcji jest zmniejszenie od lipca 2007 r. stawki
składki rentowej, płaconej przez pracownika, o 3 pkt proc., a od stycznia 2008 r.
o dalsze 2 pkt proc.
W rezultacie tego pracownik będzie płacił ze środków własnych składkę w wysokości zaledwie 1,5% podstawy wymiaru.
Wśród czynników hamujących w 2007 r. popyt konsumpcyjny najistotniejsze znaczenie miał brak waloryzacji rent i emerytur, co obniżyło, związane ze świadczeniami społecznymi, realne dochody gospodarstw domowych.
Przyspieszenie popytu konsumpcyjnego znajdowało odzwierciedlenie w sprzedaży detalicznej, która w okresie styczeń – październik ub. roku, w porównaniu z analogicznym okresem 2006 r., zwiększyła się w cenach stałych o 14%, w tym sprzedaż
samochodów i sprzętu motoryzacyjnego o 37%, a mebli, sprzętu RTV i AGD o 23%.
Pozytywna ocena przyszłej sytuacji gospodarstw domowych (m.in. zmniejszenie
obaw przed bezrobociem i oczekiwany dalszy wzrost realnych wynagrodzeń) wpływa
na wysoki poziom optymizmu konsumentów i możliwość utrzymania się w kolejnych
miesiącach przyspieszonego wzrostu spożycia i obrotów handlu wewnętrznego.
8
Tadeusz Chrościcki
4. Zmiana trendów w handlu zagranicznym
Szybko zwiększały się obroty handlu zagranicznego, chociaż w tempie już nie tak
wysokim, jak w poprzednich latach, a przyrost eksportu był wolniejszy niż importu.
W okresie styczeń – październik 2007 r. eksport liczony w euro (w ujęciu rzeczowym) był o 14,2% wyższy niż przed rokiem, podczas gdy w latach 2004 – 2006 jego
średni roczny wzrost wynosił 22,5%, natomiast import, w tym czasie, zwiększył się
odpowiednio o 16,4%, wobec 16,7%.
Zwraca uwagę bardzo wysoki (o ponad 26%) wzrost eksportu do krajów Europy Środkowej i Wschodniej, wynikający z dynamicznego rozwoju tych gospodarek
i perspektyw dalszej poprawy koniunktury. Nieco tylko niższy od przeciętnego wzrost
eksportu (13,8%) zanotowano do Unii Europejskiej, której udział w całym naszym
eksporcie wyniósł 79%.
Szybszy wzrost importu niż eksportu wpłynął na pogłębienie się ujemnego salda
obrotów towarowych, które po 10 miesiącach osiągnęło 13,2 mld euro (przed rokiem 10,0 mld euro). Przyczyniło się do tego głównie obniżenie dodatniego salda
w handlu z krajami UE oraz zwiększenie deficytu w wymianie z krajami rozwijającymi się (m.in. dalszy wydatny wzrost handlu z Chinami).
5. Większy deficyt na rachunku obrotów bieżących
Wzrost ujemnego salda obrotów towarowych oraz salda dochodów (wysokie
wypłaty zysków, w tym dywidend, inwestorom zagranicznym z tytułu dochodów
z zaangażowania kapitałowego) zadecydował o pogłębieniu się deficytu na rachunku obrotów bieżących. W końcu października 2007 r. deficyt ten, w skali 12 miesięcy, wyniósł 9,8 mld euro. Pozostał jednak na bezpiecznym poziomie, mimo że w relacji do PKB zwiększył się do 4%, co było najgorszym wynikiem od wiosny 2001 r.
Podobnie, jak w poprzednich latach, pozytywnie na rachunek bieżący wpłynął
napływ środków w ramach transferów (zarówno z funduszów UE, jak i przekazów
prywatnych).
6. Groźba zwiększonej inflacji
Rośnie presja inflacyjna. W październiku 2007 r., w porównaniu z październikiem
2006 r., ceny towarów i usług konsumpcyjnych wzrosły o 3,6%, przekraczając górną
granicę przedziału celu inflacyjnego, określonego przez Radę Polityki Pieniężnej (3,5%).
Najbliższe miesiące mogą przynieść jeszcze silniejszy impuls inflacyjny, a jednym
z istotnych, kreujących go czynników – poza sytuacją na światowym rynku paliw
Polska gospodarka w końcu 2007 roku
9
i drożejącymi produktami żywnościowymi1 – może być wysoki popyt wewnętrzny,
w warunkach szybko rosnących dochodów gospodarstw domowych. Szczególnie
groźne stanie się dalsze pogorszenie relacji między wzrostem wynagrodzeń a wydajności
pracy, tworzące presję kosztową (w pierwszym, a szczególnie w drugim i trzecim kwartale ub. roku dynamika średnich wynagrodzeń w gospodarce narodowej znacznie przewyższyła dynamikę wydajności pracy). Z tego to powodu niepokojąco rosła podaż pieniądza wyrażona miernikiem M3. W październiku ub. roku była ona wyższa niż październiku 2006 r. o 13,5%. Wzrost ten nie można oczywiście łączyć tylko z przejawiającymi się napięciami inflacyjnymi. Jest on bowiem pochodną m.in. także wzrostu gospodarczego i obsługi zwiększonych transferów zagranicznych.
RYSUNEK 5.
Zharmonizowany wskaźnik cen konsumpcyjnych w krajach UE,
w październiku 2007 r. (wzrost w % w ujęciu rocznym)
Niderlandy
Malta
Finlandia
Dania
Szwecja
Wielka Brytania
Francja
Belgia
Włochy
Słowacja
Portugalia
UE-27
Niemcy
Cypr
Austria
Irlandia
Grecja
Polska
Luksemburg
Hiszpania
Czechy
Słowenia
Węgry
Rumunia
Litwa
Estonia
Bułgaria
Łotwa
1,6
1,6
1,8
1,8
1,9
2,1
2,1
2,2
2,3
2,4
2,5
2,7
2,7
2,7
2,9
3,0
3,0
3,1
3,6
3,6
4,0
5,1
6,9
6,9
7,6
8,7
10,6
13,2
0,0
2,0
4,0
6,0
8,0
10,0
12,0
14,0
Źródło: Eurostat.
1 Udział wydatków przeznaczanych przez gospodarstwa domowe na żywność w strukturze ogólnych
wydatków wynosi ok. 27%, co w przypadku istotniejszych zmian cen produktów spożywczych ma znaczący wpływ na stopę inflacji.
10
Tadeusz Chrościcki
Wysokie ceny żywności (w listopadzie 2007 r., w porównaniu z listopadem 2006 r.,
wzrost o 7,6%) wynikały w dużej mierze z rosnącego popytu wewnętrznego i eksportu stymulowanego przez szybko drożejące surowce rolne i produkty spożywcze
na rynkach światowych (zboża, mleko), obniżenia się produkcji i podaży krajowych
surowców rolniczych (owoce, drób, wieprzowina) oraz zwiększających się pozasurowcowych kosztów produkcji żywności w Polsce (paliwa, koszty osobowe).
W innych krajach wzrost cen żywności był bardzo zróżnicowany. Najwyższy
obserwowało się w Bułgarii (26%), na Łotwie (15%) i Litwie (13%). Najwolniejszy
zaś w Niderlandach (0,3), Szwecji (0,8%) oraz Francji (1,3%).
Antyinflacyjnie oddziaływały przede wszystkim: wzrastająca konkurencja na krajowym rynku, w tym towarów importowanych z krajów o niskich kosztach wytwarzania, silny złoty oraz wzrost skłonności do oszczędzania, o czym świadczył m.in.
dynamiczny przyrost zasobów finansowych gospodarstw domowych (m.in. złotowych i dewizowych lokat oszczędnościowych, pieniądza gotówkowego, aktywów funduszy inwestycyjnych, obligacji i bonów skarbowych, akcji zakładów ubezpieczeń
na życie). Ogólna kwota tych zasobów wyniosła w końcu października ub. roku 616
mld zł i była nominalnie o 24,7% wyższa niż rok wcześniej, a uwzględniając w tym
okresie wzrost cen towarów i usług konsumpcyjnych – realnie o 21,1%.
Inflacja w Polsce przekracza obecnie średni poziom UE i od maja 2007 r. nie
jest uwzględniana przy obliczaniu wartości referencyjnych dla krajów członkowskich.
Nadal jednak spełniamy kryterium inflacyjne, określone traktatem z Maastricht, będące jednym z warunków uczestniczenia w strefie euro.
7. Coraz bardziej skomplikowana sytuacja na rynku pracy
Od II kwartału 2003 r. obserwuje się systematyczny wzrost popytu na pracę i liczbę pracujących w gospodarce narodowej. Szczególnie szybko zwiększa się zatrudnienie w usługach i przemyśle. Przyrost nowych miejsc pracy, przy dużej emigracji
zarobkowej2, decyduje o spadku bezrobocia, którego stopa w końcu października
2007 r. wyniosła 11,3%, wobec 14,9% przed rokiem. Polska stała się krajem, w którym poprawa na rynku pracy następuje najszybciej wśród krajów europejskich. Jednocześnie coraz więcej firm sygnalizuje problemy ze znalezieniem pracowników o odpowiednich kwalifikacjach. Według badań prowadzonych przez NBP, Główny Urząd
Statystyczny oraz Polską Konfederację Pracodawców Prywatnych, w budownictwie
niedobór wykwalifikowanych pracowników deklaruje ponad 60% pracodawców, natomiast w przemyśle jedna trzecia. Zaskakujące jest, że zwiększającej się liczbie pracujących i obniżającej stopie bezrobocia towarzyszy spadek liczby osób aktywnych
zawodowo. W III kwartale 2007 r. współczynnik aktywności zawodowej (liczony
2 Według szacunków GUS, w końcu 2006 r. liczba Polaków przebywających czasowo, powyżej 2 miesięcy, za granicą wynosiła prawie 2 mln, wobec 1 mln pod koniec 2004 r. Dane te nie obejmują sezonowej emigracji, która ze względu na czas trwania – najczęściej do 3 miesięcy – w większości krajów
UE podlega uproszczonym procedurom formalno-prawnym lub w ogóle nie jest rejestrowana. Najwięcej emigrantów przebywa czasowo w Wielkiej Brytanii (ok. 0,6 mln) i w Niemczech (ok. 0,5 mln).
Polska gospodarka w końcu 2007 roku
11
jako relacja ludności aktywnej zawodowo – pracującej i bezrobotnej – do ogólnej
liczby ludności w wieku 15 lat i więcej) wyniósł tylko 54,1% i obniżył się w ciągu 12
miesięcy o 0,6 pkt proc. Był on, obok Węgier, najniższy wśród krajów UE. Głównymi tego przyczynami są dezaktywizacja zawodowa, związana z nabywaniem praw
do wcześniejszych świadczeń emerytalnych, oraz emigracja zarobkowa. Spadek aktywności zawodowej ogranicza podaż pracy, przyczyniając się do presji płacowej.
Poza tym wcześniejsze emerytury kosztują finanse publiczne ok. 20 mld zł rocznie
(1,9% PKB).
Mimo wyraźnego spadku stopy bezrobocia, jest ona obecnie, poza Słowacją, najwyższa wśród krajów Unii Europejskiej.
Prognozy wskazują jednak, że już w 2008 r. bezrobocie w Polsce (liczone wg
metody unijnej) będzie zbliżone do średniego poziomu krajów członkowskich.
RYSUNEK 6.
Zharmonizowana stopa bezrobocia w krajach UE, w październiku 2007 r.
Dania
Niderlandy
Cypr
Litwa
Austria
Słowenia
Irlandia
Luksemburg
Łotwa
Czechy
Wielka Brytania
Estonia
Szwecja
Włochy
Malta
Bułgaria
Finlandia
UE-27
Węgry
Rumunia
Belgia
Niemcy
Hiszpania
Francja
Portugalia
Grecja
Polska
Słowacja
2,9
3,1
3,8
4,3
4,3
4,4
4,4
4,9
5,0
5,0
5,2
5,4
5,8
5,9
6,2
6,2
6,8
7,0
7,3
7,3
7,4
8,1
8,1
8,1
8,2
8,4
8,8
11,2
0,0
Źródło: Eurostat.
2,0
4,0
6,0
8,0
10,0
12,0
12
Tadeusz Chrościcki
8. Pomimo niskiego ujemnego salda – wysokie potrzeby pożyczkowe
budżetu państwa
Wysokie tempo wzrostu gospodarczego wpływało dynamizująco na dochody
budżetu państwa, które w okresie styczeń – październik 2007 r. były o 19,9% wyższe niż przed rokiem, przy wydatkach wzrastających o 11,3%. Efektem był niski deficyt (4,4 mld zł). Mogłoby to oznaczać, że sytuacja finansowa państwa jest bardzo
dobra. Taka ocena jest jednak mylna. Zwrócić bowiem należy uwagę na potrzeby
pożyczkowe, tzn. kwotę pożyczek, które trzeba zaciągnąć, by sfinansować zaplanowane wydatki. Otóż kwotę tę, poza oficjalnym deficytem, określają także m.in.: współfinansowanie zadań realizowanych z udziałem środków Unii Europejskiej, a przede
wszystkim koszty reformy systemu emerytalnego. Łącznie po 10 miesiącach ub. roku stanowiły one prawie 14 mld zł. Trzeba przy tym pamiętać, że były to kwoty netto, tzn. bez uwzględnienia potrzeb wynikających ze spłaty krajowych pożyczek wcześniej zaciągniętych (wykup obligacji i bonów skarbowych), na które należy zaciągnąć
nowe pożyczki (wyemitować papiery skarbowe). W rezultacie narastał państwowy
dług publiczny, który w końcu 2007 r. sięgnął 545 mld zł, zwiększając się w ciągu
12 miesięcy o około 40 mld zł, wobec 38,4 mld zł wzrostu w 2006 r. Coraz większy jest
jednocześnie ciężar kosztów obsługi długu. W 2007 r. przekroczyły one 28 mld zł,
stanowiąc prawie 11% ogółu wydatków budżetowych i 2,4% wartości PKB. Gdyby
nie konieczność spłat rat kapitałowych i odsetek od długu krajowego i zagranicznego, notowalibyśmy w 2007 r. nie deficyt, a nadwyżkę budżetu państwa w wysokości
ok. 5 mld zł.
OPTIMUM – STUDIA EKONOMICZNE NR 1 (37) 2008
Józef ROGOWSKI 1
NAKŁADY INWESTYCYJNE A KRAŃCOWA
PRODUKTYWNOŚĆ ŚRODKÓW TRWAŁYCH
Streszczenie
Celem pracy jest zbadanie, czy istnieje związek między krańcową wydajnością środków trwałych a nakładami inwestycyjnymi na bazie danych przekrojowych (wojewódzkich). W pierwszym kroku podjęto
próbę oszacowania krańcowych produktywności kapitału w poszczególnych województwach na podstawie
danych za lata 1999-2004, przyjmując następujące założenia: mamy do czynienia z funkcją produkcji CobbaDouglasa w jej klasycznej postaci, czyli ze stałymi przychodami względem skali produkcji oraz przyjęto, że
deflatory PKB dla województw są równe wojewódzkim wskaźnikom inflacji. W drugim kroku zbadano korelację między oszacowanymi w pierwszej części wielkościami a nakładami inwestycyjnymi poniesionymi
w poszczególnych regionach. Analizę przeprowadzono dla każdego z badanych lat oddzielnie.
Otrzymano brak istotnej zależności dodatniej, jeżeli wzięto pod uwagę wszystkie województwa (przy
poziomie istotności równym nawet 0,01). Natomiast po wyeliminowaniu województwa mazowieckiego
współczynniki korelacji liniowej Pearsona dla poszczególnych lat wahały się od 0,578 do 0,679. Dla lat
2001, 2003 oraz 2004 badana zależność była istotnie dodatnia przy poziomie istotności 0,05, a dla pozostałych okresów – 0,01. Należy zauważyć, że wartość tych parametrów nie jest bliska 1, czyli istnieją
jeszcze inne istotne przyczyny zróżnicowania przestrzennego inwestycji.
CAPITAL OUTLAYS AND THE MARGINAL PRODUCTIVITY OF FIXED ASSETS
Summary
The article is aimed at finding out whether there is a link between the marginal productivity of fixed assets and capital outlays based on cross-section analysis (on a provincial level). At the first stage an attempt
was made to estimate marginal productivity of capital for particular provinces on the basis of data concerning figures for the period 1999-2004 assuming that: a) we have to do with the Cobb-Douglas production
function in its classic form, i.e. with a fixed income compared to the scale of output; and that: b) the GDP
deflators for particular provinces are equal to the provincial inflation rate. At the second stage the correlation
between the estimated figures at the first stage and the capital outlays incurred in particular regions was analysed.The analysis for each year was conducted separately.
As a result, no significant positive relationship was stated when all the provinces were considered (with
the essentiality level equal even to 0.01). However, after the Mazowieckie Province had been excluded from
investigation, the Pearson linear correlation coefficients for particular provinces were from 0.578 to 0.679.
The investigated relationship for the years 2001, 2003 and 2004 was really positive with the essentiality level
of 0.005, and for the other periods it amounted to 0.01. It should be pointed out that the value of those parameters is not close to 1, hence, there must be other essential reasons for the spatial diversification of investments.
1 Dr hab. Józef Rogowski jest pracownikiem Wydziału Ekonomii i Zarządzania Uniwersytetu w Białymstoku.
14
Józef Rogowski
1. Wstęp
Niniejsza praca jest przyczynkiem do zbadania zróżnicowania rozwoju gospodarczego regionów (województw) polskich. W Rogowski J. [2003 s. 461 – 470; 2004a s. 9 – 23;
2004b s. 73 – 80; 2005 s. 19 – 33; 2006 s. 86 – 92] rozważano modele matematyczne
oparte na modelu Harroda-Domara [Allen 1975 s. 202 i dalsze] opisujące rozwój dwóch
regionów, gdzie kluczowym pojęciem były międzyregionalne przepływy kapitałowe.
Prace powyższe różniły się założeniem, co do wielkości tych przepływów. One z kolei
mają wpływ na nakłady inwestycyjne w poszczególnych województwach. W obecnym
artykule przeprowadzona zostanie próba zbadania hipotezy o wpływie krańcowej
produktywności kapitału na wysokość nakładów inwestycyjnych. Jeżeli potwierdzone
zostanie istnienie powyższej zależności, to w modelu rozwoju regionów będzie można
wprowadzić odpowiednie równanie. Natomiast do dalszych badań pozostawia się
źródła zróżnicowania krańcowej produktywności kapitału rzeczowego. Oczywiście to
też będzie musiało być uwzględnione w badaniu zróżnicowania rozwoju regionów.
2. Krańcowa produktywność kapitału
W celu zbadanie związku zachodzącego między krańcową wydajnością środków
trwałych a nakładami inwestycyjnymi w poszczególnych województwach Polski należy
mieć dane dotyczące tych zmiennych w ujęciu regionalnym. Dane dotyczące drugiej
zmiennej, chociaż w ujęciu brutto, można znaleźć w Roczniku Statystycznym GUS. Natomiast wartości pierwszej zmiennej trzeba oszacować. Wybrano oszacowanie na podstawie funkcji produkcji [Allen 1975 s. 51]. Zatem należy oszacować funkcję produkcji,
a następnie wyznaczyć jej odpowiednią pochodną cząstkową. Jeżeli założymy, że mamy
do czynienia z funkcją Cobba-Douglasa w jej klasycznej postaci:
F (K , L ) = AK α L1−α ,
gdzie K i L oznaczają odpowiednio zasoby kapitału i pracy, to krańcowa wydajność
kapitału jest wprost proporcjonalna do średniej produkcyjności środków trwałych:
∂F (K , L )
F (K , L )
,
=α
∂K
K
gdzie współczynnikiem proporcjonalności jest wykładnik związany z K w funkcji CD [Allen 1975 s. 59].
Należy więc oszacować parametr α dla każdego województwa, a następnie policzyć
odpowiednie iloczyny. Problem, z którym się tu spotykamy, to brak danych o PKB i
o wartości zasobów środków trwałych w cenach stałych w ujęciu regionalnym. Dokonane zostało tu daleko idące uproszczenie polegające na wzięciu pod uwagę indeksów
cen dóbr i usług konsumpcyjnych dla poszczególnych województw2 w celu wyznaczenia wymienionych zmiennych w cenach stałych. W ten sposób oszacowano parametry α
dla każdego województwa na podstawie danych z lat 1998-20043:
2
3
Te dane są dostępne w Rocznikach Statystycznych GUS w poszczególnych latach.
Województwo mazowieckie zostało pominięte, ponieważ jego dane były nietypowe, o czym niżej.
Nakłady inwestycyjne a krańcowa produktywność…
Województwo
dolnośląskie
kujawsko-pomorskie
lubelskie
lubuskie
łódzkie
małopolskie
opolskie
podkarpackie
podlaskie
pomorskie
śląskie
świętokrzyskie
warmińsko-mazurskie
wielkopolskie
zachodnio-pomorskie
15
p-wartość
α
1.121
0.001
1.217
0.003
1.301
0.003
1.149
0.002
1.329
0.001
1.084
0.000
1.348
0.008
1.052
0.000
1.210
0.003
1.413
0.004
1.867
0.007
1.219
0.000
1.492
0.000
1.255
0.002
0.778
0.000
Należy w tym miejscu zauważyć, że oszacowana wartość parametru funkcji C-D
tylko w przypadku województwa zachodnio-pomorskiego spełnia własność klasyczną funkcji produkcji. Może to wynikać z zastosowania wskaźnika cen dóbr i usług
konsumpcyjnych jako deflatora zarówno PKB, jak i środków trwałych. Również zastosowanie funkcji liniowej dawało podobnie sprzeczne wyniki. Jednak w dalszym
ciągu na podstawie otrzymanych estymacji analiza będzie kontynuowana.
Następnie dla każdego z lat 1999 – 2004 oraz dla każdego regionu wyznaczono
średnią produkcyjność środków trwałych, liczoną jako stosunek PKB i zasobu środków trwałych w cenach bieżących4 oraz mnożąc przez oszacowane α otrzymano krańcową produktywność kapitału:
Województwo
dolnośląskie
kujawsko-pomorskie
lubelskie
lubuskie
łódzkie
małopolskie
opolskie
podkarpackie
podlaskie
pomorskie
śląskie
świętokrzyskie
warmińsko-mazurskie
wielkopolskie
zachodnio-pomorskie
1999
.60
.65
.53
.59
.68
.56
.50
.48
.50
.73
.92
.54
.46
.67
.48
Krańcowa produktywność
środków trwałych w roku
2000
2001
2002
2003
.62
.60
.59
.58
.72
.71
.68
.67
.56
.58
.58
.58
.62
.61
.58
.58
.71
.70
.71
.71
.58
.55
.55
.55
.55
.53
.51
.51
.49
.49
.47
.47
.55
.56
.54
.53
.74
.71
.70
.74
.98
1.01
1.02
1.04
.58
.56
.54
.57
.48
.46
.47
.48
.71
.72
.69
.68
.51
.50
.49
.48
2004
.60
.71
.60
.61
.74
.58
.60
48
.55
.78
1.14
.60
50
.71
50
4 Jeżeli miałby być stosowany ten sam deflator, to nie ma znaczenia czy stosujemy ceny stałe, czy
bieżące.
16
Józef Rogowski
Można zauważyć, że we wszystkich analizowanych latach największą krańcową
produktywnością kapitału charakteryzowało się województwo śląskie, a najniższą –
podkarpackie.
3. Uzyskane wyniki
Dla każdego roku policzono współczynniki korelacji liniowej Pearsona między
produktywnością krańcową kapitału a nakładami inwestycyjnymi. Ponieważ dane są
przekrojowe, to nie wystąpił problem deflatora i wzięto nakłady w cenach bieżących. W tym miejscu należy zaznaczyć, że w każdym roku dane dotyczące województwa mazowieckiego nie pasowały do pozostałych regionów Polski, co pokazuje np. diagram dla roku 2004:
gdzie na osi poziomej oznaczona jest krańcowa wydajność środków trwałych, a na
pionowej – nakłady inwestycyjne. Województwo mazowieckie jest tu oznaczone jako
mazow. Ten region ma mniejszą marginalną produktywność kapitału przy dużych
nakładach inwestycyjnych. Współczynnik korelacji liczony dla wszystkich województw
w każdym analizowanym roku jest statystycznie nieistotny nawet przy poziomie istotności 0.1.
Po wyeliminowaniu Mazowsza otrzymano jakościowo inne wyniki. Współczynniki korelacji liniowej ( r ) dla poszczególnych lat między przyjętymi dwiema zmiennymi były następujące:
Nakłady inwestycyjne a krańcowa produktywność…
Rok
1999
2000
2001
2002
2003
2004
20055
17
r
0.679**
0.636**
0.590*
0.654**
0.586*
0.578*
0.618**
gdzie * – oznacza, że współczynnik jest istotnie większy od zera na poziomie istotności 0.05, a ** – na poziomie istotności 0,01.
Otrzymane współczynniki korelacji liniowej są istotnie dodatnie, chociaż ich
wartość nie jest bliska jedności.
4. Wnioski
Otrzymane wyniki potwierdzają hipotezę, że wielkość nakładów inwestycyjnych
zależy od krańcowej wydajności środków trwałych. Siła tej relacji pokazuje, że są jeszcze
równie ważne inne czynniki określające tę zmienną. Szczególnie to można zaobserwować w przypadku województwa mazowieckiego. Tam decyzje inwestycyjne rządzą
się, w porównaniu z pozostałymi regionami, innymi prawami.
Należy w tym miejscu przypomnieć, że na otrzymane wyniki wpływ może mieć
brak danych dotyczących deflatorów PKB oraz środków trwałych w ujęciu regionalnym. Poza tym zarówno nakłady inwestycyjne, jak i środki trwałe są podane
w ujęciu brutto.
Kolejnym krokiem, poza rozwiązaniem powyższych problemów, powinno być
zbadanie czynników określających krańcową produktywność kapitału. Następnie o te
zależności wzbogacić model rozwoju regionu z międzyregionalnymi przepływami
kapitałowymi.
Literatura
Allen R.G.D. 1975 Teoria makroekonomiczna. Ujęcie matematyczne, Warszawa.
Rogowski J. 2003 Model wzrostu regionu, w: Współpraca transgraniczna z krajami bałtyckimi, Białorusią i Rosją – obwód Kaliningradzki w warunkach integracji Polski z Unią
Europejską, red. W. Bieńkowski, J. Grabowiecki, H. Wnorowski, Białystok.
Rogowski J. 2004a Ogólny model tworzenia kapitału w regionie w warunkach równowagi, w: Proces
tworzenia kapitału w gospodarce peryferyjnej, red. K. Meredyk, Białystok.
5 Dla roku 2005 współczynnik korelacji jest liczony dla krańcowej produktywności środków trwałych w 2004 a nakłady inwestycyjne brutto są z roku 2005, ponieważ PKB dla regionów, potrzebne do
wyznaczenia pierwszej zmiennej, nie jest jeszcze znane dla 2005 roku.
18
Józef Rogowski
Rogowski J. 2004b Wzrost regionu a postęp techniczny, w: Rozwój regionalny a procesy globalizacji, red. A.F. Bocian, Białystok.
Rogowski J. 2005 Modele międzyregionalnych przepływów kapitałowych, „Optimum. Studia
Ekonomiczne”, nr 4 (28).
Rogowski J. 2006 Kapitał ludzki a wzrost regionu, w: Podlasie – kierunki zmian, red. A.F.
Bocian, Białystok.
OPTIMUM – STUDIA EKONOMICZNE NR 1 (37) 2008
Urszula GOŁASZEWSKA-KACZAN 1
W CZYIM INTERESIE DZIAŁA PRZEDSIĘBIORSTWO –
PRZEGLĄD WYBRANYCH TEORII
Streszczenie
Celem artykułu było przedstawienie przeobrażeń dokonujących się w podejściu do problemu –
czyim interesom służy przedsiębiorstwo. Dokonano w nim analizy wybranych teorii ukazujących tę
kwestię. Rozważania zakończono wnioskiem, iż można zaobserwować przechodzenie od poglądów
uwzględniania jedynie interesów właściciela do poglądów podkreślających znaczenie interesów wszystkich grup zainteresowanych.
IN WHOSE INTEREST DOES AN ENTERPRISE ACT? – A SURVEY
OF SELECTED THEORIES
Summary
The article is aimed at presenting changes in approaching the problem: Whose interests does an
enterprise represent? An analysis of selected theories concerning that question has been presented,
followed by a conclusion that a transition from ideas considering only the owner's interests to ideas
highlighting the importance of all groups involved in the process can be observed.
1. Wstęp
Teoria firmy jest dyscypliną dynamiczną, zmieniająca się wraz z przeobrażeniami
zarówno samych podmiotów gospodarczych, jak i warunków, w których one funkcjonują. Nowo powstające poglądy przeplatają się z już istniejącymi, wzbogacają je,
uzupełniają albo też wyraźnie im zaprzeczają. Przeobrażeniom ulegają poglądy we
wszystkich nawet w podstawowych, jakby się wydawało, dla przedsiębiorstwa kwestiach.
Celem artykułu jest analiza ewolucji podejścia do jednego z takich podstawowych
problemów w firmie, a mianowicie – czyim interesom służy przedsiębiorstwo. W opracowaniu prześledzone zostały poglądy wybranych przedstawicieli podstawowych
teorii przedsiębiorstwa w zakresie tego zagadnienia.
1 Dr Urszula Gołaszewska-Kaczan jest pracownikiem Wydziału Ekonomii i Zarządzania Uniwersytetu w Białymstoku.
20
Urszula Gołaszewska-Kaczan
2. Teoria przedsiębiorstwa wobec problemu grup interesów w firmie
Wyraźnego zdefiniowania, komu służy przedsiębiorstwo nie znajdujemy w nurcie klasycznym. Bazując jednak na rozważaniach prowadzonych przez czołowego
przedstawiciela tej szkoły A. Smitha, stwierdzić można, iż firma działa w interesie jej
właściciela. Smith uznaje bowiem, że natura ludzka posiada dwie fundamentalne cechy
– działanie w celu osiągnięcia korzyści i skłonność do poprawy swojego bytu [Smith
1954 s. 17, 432]. Cała działalność człowieka jest realizacją tychże dążeń. Również prowadzenie przedsiębiorstwa nastawione jest na przynoszenie korzyści – właśnie właścicielowi. Realizacja interesu właściciela, co należy zauważyć na marginesie, nie prowadzi jednak do wyzysku, lecz w określonych warunkach może przynosić pożytek całemu społeczeństwu.
Z kolei szkoła neoklasyczna swoje rozważania koncentruje wokół modelu konkurencji doskonałej i funkcjonowania mechanizmu cenowego, dzięki któremu dokonuje się alokacja zasobów w gospodarce. Przedstawicieli tej szkoły nie interesują
natomiast procesy zachodzące wewnątrz przedsiębiorstwa; przedsiębiorstwo traktowane jest jako „czarna skrzynka”. R. Cyert i C. Hedrick konstatują nawet, iż pojęcie
firmy używane jest w teorii neoklasycznej jedynie jako narzędzie w przyczynowych
wnioskowaniach statystyki porównawczej [Gorynia, Owczarzak 2004 s. 4]. Zaś M. Iwanek stwierdza, że w: najlepszym przypadku szkoła ta posługuje się pojęciem przedsiębiorcy, gdzie
jednak funkcja właściciela nie jest wyraźnie odróżniana od funkcji menedżera [Iwanek 1996 s. 11].
Wobec jedności właściciela i zarządzającego oczywistym staje się fakt, iż przedsiębiorstwo realizuje interesy tegoż właśnie podmiotu. Prymat interesu właściciela związany jest też z faktem, iż to on oddaje do dyspozycji przedsiębiorstwa swoje zasoby
i ma prawo do uzyskiwania przychodu.
Szkoła neoklasyczna nie dostrzega konieczności uwzględniania interesów zawodowych kierowników i innych grup pracowniczych, a tym bardziej podmiotów spoza przedsiębiorstwa [Słomka-Gołębiowska 2006 s. 24].
W teorii neoklasycznej przyjmuje się, że celem działalności gospodarczej, a więc
celem właściciela – jest maksymalizacja zysku przedsiębiorstwa w określonym okresie, z reguły krótkim lub średnim. Aby zrealizować swój cel, przedsiębiorca zachowuje się optymalnie, tzn. zgodnie z zasadami doskonałej racjonalności [Dopfer 1982
s. 12 – 18]. Właściciel-menedżer przedsiębiorstwa reprezentuje przy tym typ homo oeconomicus, tj. człowieka dążącego racjonalnie do maksymalizacji własnych korzyści w związku z prowadzoną działalnością.
Koncepcje menedżerskie powstały w opozycji do wielu twierdzeń szkoły neoklasycznej [Gorynia 1999 s. 537]. Z punktu widzenia omawianego problemu grup
interesów w firmie, szczególnie ważne są dwa założenia. Po pierwsze przedsiębiorstwo
nie jest już utożsamiane z jednoosobowym przedsiębiorcą – właścicielem, jest ono
raczej koalicją grup podmiotów, które mogą mieć różne cele. Po drugie nie rozpatruje się przedsiębiorstwa jako czarnej skrzynki, uwzględnia się i analizuje relacje między różnymi podmiotami wewnątrz przedsiębiorstwa.
W czyim interesie działa przedsiębiorstwo…
21
Teorie menedżerskie są odpowiedzią na postępujący proces oddzielania własności od zarządzania, i kształtującymi się w związku z tym dwoma podstawowymi grupami interesów – właścicieli i menedżerów.
Już w latach 30. zwrócili na to uwagę A.A. Berle i G.C. Means, którzy wykazali, że
ponad połowa aktywów 200 największych amerykańskich korporacji niefinansowych była kontrolowana przez menedżerów. Wyprowadzona z tych badań hipoteza
głosiła, że menedżerowie dużych prywatnych korporacji, których akcje są rozproszone wśród wielu akcjonariuszy, prowadzą własną politykę, realizują własne interesy, nie dążą zaś do osiągnięcia celów właścicieli [Berle, Means 1932].
Teorie menedżerskie idą tym śladem, jednak zakłada się w nich, że pomimo oddzielenia własności od zarządzania, menedżerowie mają ograniczoną swobodę w osiąganiu własnych celów. Wspólną cechą menedżerskich teorii jest bowiem założenie, że
menedżerowie maksymalizują swoje funkcje użyteczności o wielu zmiennych (takich jak
np.: płace, władza, prestiż, bezpieczeństwo pracy), ale w warunkach ograniczeń pojawiających się w związku z koniecznością uwzględniania interesów „koalicjantów”, tzn.
akcjonariuszy, pracowników, banków itp. [Borkowska, Klimczak 2000 s. 57 – 58].
Teorie menedżerskie, uznając konieczność osiągania zysków, w różny sposób definiują cele menedżerów.
I tak według W.J. Baumola, celem działania firmy jest maksymalizacja sprzedaży,
poddana warunkowi ograniczającemu w postaci osiągania zysku [Baumol 1959 s. 12].
Dążenie do maksymalizacji sprzedaży związane jest z przeświadczeniem, iż w ślad
za tym idzie zwiększenie dochodów menedżerów, wzrost ich prestiżu, władzy, bezpieczeństwa. Ograniczające działanie zysku widoczne jest z kolei w konieczności zapewnienia akcjonariuszom zadowalających dywidend. W sytuacji, gdy dochody z kapitału obniżą się poniżej ustalonego przez akcjonariuszy minimum, wówczas mogą
oni domagać się zmiany zarządu. Wypracowanie odpowiedniego zysku staje się więc
niezbędne.
Z kolei w modelu zaproponowanym przez R.L. Marrisa menedżerowie są przede
wszystkim zainteresowani stopą wzrostu swoich firm. Menedżerowie widzą wzrost
swoich organizacji jako jedną z najlepszych metod zaspokajania osobistych potrzeb
i ambicji. Wysoka stopa wzrostu wyraża się bowiem poprzez wzrost rozmiarów produkcji i zatrudniania, co w konsekwencji oznacza zwiększenia odpowiedzialności, władzy
i prestiżu. Wzrost przedsiębiorstwa rozpatrywany jest w długim okresie. W ten sposób
menedżerowie są motywowani do działań na rzecz ekspansji firmy. W swoich działaniach muszą przyjąć jednak pewien poziom bezpieczeństwa [Marris 1967].
Teoria O.E. Williamsona dotyczy natomiast preferencji menedżerów dla pewnych wydatków firmy [Williamson 1986 s. 7]. Zdaniem powyższego autora, kierownictwo nie ma neutralnej postawy wobec różnych wydatków, gdyż ponoszenie niektórych z nich może zdecydowanie wpłynąć na zwiększenie dochodów i prestiżu tej
grupy interesów w przedsiębiorstwie. Wydatkami, które są przez menedżerów preferowane [Gorynia 1999 s. 540] są: wydatki na personel administracyjny (rosnąca liczba personelu może być miarą sukcesu firmy, daje władzę i prestiż menedżerom), dochody, zyski i korzyści o charakterze niestałym (menedżerowie mogą mieć dostęp
do zaciągania korzystnych pożyczek, korzystania z luksusowych biur, samochodów
22
Urszula Gołaszewska-Kaczan
służbowych), uznaniowe wydatki inwestycyjne (niektóre wydatki inwestycyjne są nie
tyle uzasadnione rachunkiem ekonomicznym, co odpowiadają osobistym upodobaniom
menedżerów). O.E. Williamson przyjmuje też, iż menedżerowie w realizacji swoich
celów podlegają ograniczeniom w postaci poziomu zysku satysfakcjonującego akcjonariuszy. Jego zdaniem jednak nie jest to ograniczenie poważne, gdyż menedżerowie nie mają trudności w osiągnięciu takiego poziomu. W tej sytuacji firmy realizują
wiązkę celów, takich jak np.: maksymalizacja sprzedaży, wzrost, umacnianie statusu
pozycyjnego [Gruszecki 2002 s. 182-183].
W rozważaniach nad kwestią, w czyim interesie działa przedsiębiorstwo, ważne
miejsce zajmuje teoria behawioralna2. Podstawowe znaczenie dla omawianego problemu ma przyjęcie przez tę teorię założenia, iż przedsiębiorstwo nie jest racjonalnym, indywidualnym decydentem, lecz koalicją różnych grup interesów. Koalicjantami są tu jednak nie tylko menedżerowie i właściciele (co podkreślały teorie menedżerskie), ale także inne podmioty (np.: kapitałodawcy, pracownicy, dostawcy, klienci).
Wszyscy koalicjanci przyczyniają się do istnienia firmy, a w zamian za to oczekują
na pewne świadczenia z jej strony (wynagrodzenia, produkty). Przedsiębiorstwo w swojej działalności musi więc uwzględniać interesy różnych podmiotów.
Roszczenia poszczególnych koalicjantów są jednak potencjalnie różne, a ich jednoczesna realizacja przez przedsiębiorstwo – niemożliwa, z powodu ograniczeń, jakim
podlega firma. Stąd konieczne jest ciągłe negocjowanie poziomów aspiracji poszczególnych grup oraz zagwarantowanie pewnej przestrzeni „luzu organizacyjnego” na
grę koalicji interesów i zawarte kompromisy [Gruszecki 2002 s. 187 – 188].
Ścieranie się interesów różnych koalicjantów prowadzi do sytuacji, w której przedsiębiorstwo nie realizuje jednego celu, ale wiązkę celów. Cele te są przy tym ogólnikowe i z powodu ciągłych negocjacji – zmienne w czasie.
Problemu grup interesów w przedsiębiorstwie dotykają też niektóre teorie ekonomii instytucjonalnej.
Teoria kosztów transakcyjnych bazuje na idei sformułowanej przez R. Coase’a,
a rozwiniętej przez O. Wiliamsona, głoszącej, iż wymiana rynkowa i przedsiębiorstwo są alternatywnymi formami organizowania transakcji rynkowych [Williamson 1979].
Przedstawiciele tej teorii w swoich rozważaniach nad formami organizowania i regulowania kontraktów nie poświęcają jednak zbyt wiele uwagi kwestii grup interesów
w przedsiębiorstwie.
Pewne spostrzeżenia na ten temat wyprowadzić można jedynie z dywagacji dotyczących funkcji kontrolnych w przedsiębiorstwie.3 Tutaj wyraźnie podkreślony jest
interes właścicieli. O. Williamson, prowadząc rozważania na temat rady nadzorczej,
2 Teoria ta w dużej mierze inspirowana jest pracami H. Simona i jego zasadą ograniczonej racjonalności, zgodnie z którą działania ludzkie zmierzają do rozwiązań zadowalających, a nie optymalnych.
H. Simon uznał, że działania ludzkie odbiegają od standardów pełnej racjonalności, z trzech powodów:
braku pełnej wiedzy, niemożliwości przewidywania konsekwencji wszystkich rozpatrywanych wyborów i
ich wartości, niemożliwości wzięcia pod uwagę wszystkich możliwych alternatyw, a jedynie tylko nielicznych [por. Simon 1976].
3 Funkcja kontrolna sprowadzona jest tutaj do uczestnictwa w radzie nadzorczej. O. Williamson rozważa przy tym dwie kategorie członkostwa w radzie – członkostwo z prawem głosu oraz uczestnictwo
jedynie dla zagwarantowania informacji [zob. Williamson 1998].
W czyim interesie działa przedsiębiorstwo…
23
zaznacza, iż: radę nadzorczą należy przede wszystkim uważać za zabezpieczenie struktury zarządzania w obszarze pomiędzy firmą a właścicielami udziałów kapitałowych i po wtóre, za sposób
chronienia relacji kontraktowej między firmą a jej kierownictwem [Williamson 1998 s. 301] Dostrzega on jednocześnie sens, aby w określonych okolicznościach inne podmioty, niż
właściciele kapitału (np.: pracownicy, pożyczkodawcy, dostawcy, konsumenci, społeczność, kierownictwo), partycypowały w funkcji kontrolnej, ale tylko w sytuacji gdy
pozwala to w sposób zsynchronizowany i wiarygodny wymieniać informacje. Jednak: przypisywanie radzie innych i szerszych celów pociąga za sobą konieczność dokonywania wyboru o wątpliwych korzyściach netto. Większość zbiorowości lepiej by uczyniła, doskonaląc swe relacje
do firmy w interfejsie kontraktowania, w którym firma i zbiorowość zawierają umowę [Williamson
1998 s. 301].
Również teoria praw własności nie prowadzi głębszych rozważań dotyczących
problemu w czyim interesie działa przedsiębiorstwo. Koncentruje się natomiast na
problemie powiązania praw własności z efektywnością gospodarowania [Demsetz
1964; Pejovich 1971] wysnuwając wniosek, iż decydujące znaczenie ma w tym wypadku charakter uprawnień własnościowych.
Charakter uprawnień własnościowych można scharakteryzować opisując dwie cechy – wyłączność (ekskluzywność) i transferowalność (przenośność uprawnień). Wyłączność prawa własności dotyczy suwerenności właściciela odnośnie dysponowania uprawnieniami do przedmiotu stosunku. Transferowalność praw własności odnosi się natomiast do możliwości przekazywania przedmiotu własności.
W teorii praw własności własność prywatna przedstawia uprawnienia pełne. Stąd
należy wysnuć wniosek, iż właściciel (właściciele) prywatnego przedsiębiorstwa ponosi
pełną odpowiedzialność za jego funkcjonowanie (obciążają go wszelkie negatywne konsekwencje wynikające z użytkowania zasobu), ale jednocześnie osiąga wszystkie ewentualne zyski. Przedsiębiorstwo powinno więc działać w interesie właściciela.
Znamienne dla omawianej kwestii jest jednak stwierdzenie, iż nawet, przy własności prywatnej, suwerenność w dysponowaniu zasobem może być ograniczona.
Tym ograniczeniem w teorii praw własności jest nieszkodzenie innym podmiotom
(dobro będące przedmiotem własności nie może być używane do fizycznego szkodzenia innym podmiotom). Stąd wniosek pośredni, że obok pierwszoplanowego
interesu właściciela w działalności firmy mogą być uwzględniane określone interesy
innych, poza właścicielami grup związanych z działalnością przedsiębiorstwa, np.:
pracowników, klientów, dostawców, czy społeczności lokalnych.
Z kolei teoria agencji na grupy interesów w przedsiębiorstwie patrzy poprzez pryzmat analizy relacji agencji. Związek agencji jest tutaj widziany jako kontrakt, w ramach którego osoba lub grupa osób (agent) ma do zrealizowania zobowiązania wobec innej osoby lub grupy osób (pryncypała), [Shankman 1999 s. 321].
W teorii tej przedsiębiorstwo widziane jest jako wiązka kontraktów pomiędzy osobami (które mogą również reprezentować inne organizacje), [Jensen, Mecking 1979
s. 311]. Nawiązywane relacje agencji powodują, iż określone grupy (agenci) zyskują
możliwości decyzyjne i tym samym wpływają na działalność firmy. W teorii agencji
zakłada się więc, iż faktyczna działalność przedsiębiorstwa może odbywać się w interesie różnych grup podmiotów.
24
Urszula Gołaszewska-Kaczan
Należy jednak zwrócić uwagę na fakt, iż centralnym podmiotem (centralnym agentem), z którym inne podmioty zawierają kontrakty tworzące przedsiębiorstwo jest
właściciel. Właściciel, jako dostawca kapitału, zajmuje w przedsiębiorstwie centralne
miejsce, ponosi ryzyko inwestycyjne i dlatego oczekuje gwarancji kontroli nad zasobami. Taką kontrolę uzyskuje w trakcie zawarcia kontraktu. Najważniejszym kontraktem jest natomiast kontrakt między właścicielami a menedżerami.
Zdaniem M. Jensena, interesem nadrzędnym przedsiębiorstwa w takim ujęciu jest
interes właścicieli, zaś głównym celem przedsiębiorstwa, który muszą osiągać menedżerowie jest wzrost jego wartości. Menedżerowi, którzy nie dążą do maksymalizacji wartości narażeni są na negatywne konsekwencje w postaci przejęcia firmy przez
nowych właścicieli, czy zwolnienia z pracy [Noga 1996 s. 768].
Także teoria kontraktualna patrzy na przedsiębiorstwo poprzez pryzmat kontraktów zawieranych między właścicielami zasobów, z których korzysta przedsiębiorstwo, a menedżerami. Właścicielami zasobów są interesariusze, którzy zaopatrują organizacje w czynniki produkcji. Również akcjonariusze są traktowani jak dostarczyciele kapitału finansowego, a nie jako właściciele przedsiębiorstwa.
Menedżerowie zarządzają dostarczonymi zasobami w imieniu ich właścicieli [Alcian,
Demsetz 1972]. Dbają też o kształtowanie odpowiednich stosunków pomiędzy poszczególnymi grupami interesariuszy.
Kontraktowa struktura przedsiębiorstwa obejmuje więc: kooperujące czynniki produkcji należące do wielu właścicieli, jeden podmiot wspólny dla wszystkich stron posiadający prawo renegocjowania pojedynczych kontraktów niezależnie od innych
(menedżerowie) oraz podmiot wysuwający rezydualne roszczenia, posiadający prawo sprzedaży swojego kontraktowego statutu (właściciel), [Urbanek 2005 s. 96].
W konsekwencji, w teorii tej zakłada się, iż przedsiębiorstwo realizuje interesy wielu
stron, przy czym pierwszeństwo w zaspokojeniu swoich roszczeń mają właściciele
(z uwagi na możliwość wysuwania roszczeń rezydualnych).
Podobnie jak w teorii agencji, zwraca się uwagę na fakt, iż może powstać niepewność w realizacji kontraktu, co wynika z oportunistycznych zachowań partnerów kontraktu [Gruszeczki 2002 s. 216].
Kooperacyjna teoria M. Aokiego nie należy do głównego nurtu nowej ekonomii instytucjonalnej, ale zaliczana jest do kierunków z nim związanych. W teorii tej
przyjmuje się, że przedsiębiorstwo jest koalicją trzech grup interesów: udziałowców,
szeregowych pracowników i menedżerów, a efektywność przedsiębiorstwa wymaga
jednoczesnego respektowania interesów tych trzech grup. Decyzje podejmowane
w przedsiębiorstwie są więc rezultatem gry kooperacyjnej, będącej grą o pozytywnej
sumie wypłat. Jednostronna kontrola uczestników przedsiębiorstwa przez jedną z grup
interesu zostaje tu zastąpiona przez równowagę interesów. Następuje to poprzez
system podwójnej kontroli menedżerów – z jednej strony są oni kontrolowani przez
pracowników, z drugiej przez właścicieli kapitału, aczkolwiek ze strony właścicieli
kapitału menedżerowie mają właściwie dużą swobodę, gdyż ci ostatni nie interweniują, jeśli gwarantuje się im odpowiedni przychód od kapitału [Iwanek 1996 s. 36].
W latach 80-tych XX wieku popularność zdobywa teoria stakeholders, za twórcę której uważa się R. Freemana. Jest to teoria w najszerszy sposób patrząca na gru-
W czyim interesie działa przedsiębiorstwo…
25
py interesów w przedsiębiorstwie. W ramach tej teorii podnosi się, iż firma działa w interesie wszystkich zainteresowanych grup – interesariuszy (stakeholders). Za interesariuszy uznać można np.: właścicieli, pracowników, klientów, dostawców, partnerów strategicznych, społeczność lokalną.
Zarządzanie firmą staje się tutaj próbą pogodzenia, często przeciwstawnych, żądań poszczególnych interesariuszy. Należy jednak zaznaczyć, iż w teorii tej podkreśla
się, że odpowiednie zarządzanie kontaktami z interesariuszami pozwala firmie realizować jednocześnie jej cele [Jonker, Foster 2002 s. 188]. Teoria stakeholders cieszy się coraz większym zainteresowaniem; stała się także bazą, na której powstać mogła
idea społecznej odpowiedzialności przedsiębiorstwa.
3. Zakończenie
Analizując poszczególne teorie przedsiębiorstwa, dostrzec można prawidłowość
polegającą na przechodzeniu od eksponowania interesu jednego podmiotu – właściciela, poprzez zauważenie znaczenia interesów menedżerów, do akcentowania
konieczności uwzględniania w działalności firmy aspiracji wielu podmiotów. Taki
kierunek przeobrażeń wydaje się logiczny. Coraz bardziej oczywisty staje się bowiem fakt, iż przedsiębiorstwo nie jest podmiotem odizolowanym, lecz działa w określonym otoczeniu. A w związku z tym powinno brać pod uwagę w swojej działalności, nie tylko własne egoistyczne cele, ale także żądania otoczenia. Bez realizacji
postulatów wszystkich grup zainteresowanych funkcjonowaniem firmy, przedsiębiorstwo nie będzie mogło przetrwać i rozwijać się w długim okresie.
Literatura
Alcian A., Demsetz H. 1972 Production, Information Cost, and Economic Organization, „The
American Economic Review”, No. 62.
Baumol W.J. 1959 Business Behaviour, Value and Growth, New York.
Berle A.A., Means G.C. 1932 The modern corporation and private property, London.
Borkowska B., Klimczak B. 2000 Kontrakty menedżerskie w teoriach ekonomii i etyki,
w: Efektywność nadzoru właścicielskiego w spółkach kapitałowych, red. S. Rudolf, Łódź.
Coase R.H. 1937, The Nature of the Firm, „Economica N.S.”, No. 4.
Demsetz H. 1964 The Exchange and Enforcement of Property Rights, „The Journal of
Law and Economics”, No. 3.
Dopfer K. 1982 Wprowadzenie ku nowemu paradygmatowi, w: Ekonomia w przyszłości, red.
K. Dopfer, Warszawa.
Gorynia M. 1999 Przedsiębiorstwo w różnych ujęciach teoretycznych, „Ekonomista”, nr 4.
Gorynia M., Owczarzak R. 2004 Podstawy teorii internacjonalizacji i globalizacji działalności
przedsiębiorstw, „Gospodarka Narodowa”, nr 1 – 2.
Gruszecki T. 2002 Współczesne teorie przedsiębiorstwa, Warszawa.
26
Urszula Gołaszewska-Kaczan
Iwanek M. 1996, Analiza instytucji własności przedsiębiorstw. Przyczynek do problematyki efektywności i usprawnienia przedsiębiorstw publicznych, Warszawa.
Jensen M.C., Mecking W.H. 1979 Theory of the Firm: managerial behavior, agency cost and
ownership structure, „Journal of Financial Economics”, Vol. 3.
Jonker J., Foster D. 2002 Stakeholder Exellence? Framing The Evolution and Complexity of
a Stakeholder Perspective of the Firm, „Corporate Social Responsibility and Environmental Management”, No. 9.
Marris R.L. 1967 The Economic Theory of „Managerial” Capitalism, London.
Noga A. 1996 Cele przedsiębiorstwa. Kontrowersje teoretyczne, „Ekonomista”, nr 6.
Pejovich S. 1971 Towards a General Theory of Property Rights, „Zeitschrift fuer Nationaloekonomie”, No. 1 – 2.
Shankman N.A. 1999 Reframing the Debate between Agency and Stakeholder Theories of the
Firm, „Journal of Business Ethics”, nr 19.
Simon H. 1976 Działanie administracji. Proces podejmowania decyzji w organizacjach administracyjnych, Warszawa.
Słomka-Gołębiowska A. 2006 Corporate governance. Banki na straży efektywności przedsiębiorstw, Warszawa.
Smith A. 1954 Badania nad naturą i przyczynami bogactwa narodów, Warszawa.
Urbanek P. 2005 Nadzór korporacyjny a perspektywa teorii agencji, w: Nowa ekonomia instytucjonalna. Aspekty teoretyczne i praktyczne, red. S. Rudolf, Kielce.
Williamson O. 1986 Economic Organization. Firms, Markets and Policy Control, Wheastsheaf Books, London.
Williamson O. 1998 Ekonomiczne instytucje kapitalizmu. Firmy, rynki, relacje kontraktowe,
Warszawa.
Williamson O. 1979 Transaction Cost Economics: The governance of contractual relations,
„Journal of Law and Economics”.
OPTIMUM – STUDIA EKONOMICZNE NR 1 (37) 2008
Mirosława LASEK, Marek PĘCZKOWSKI 1
ANALIZA KONDYCJI EKONOMICZNEJ PRZEDSIĘBIORSTW ZA
POMOCĄ SIECIOWEJ METODY POŁĄCZEŃ LINK ANALYSIS
Streszczenie
Artykuł poświęcono metodzie eksploracji danych za pomocą sieciowej metody połączeń Link Analysis.
Metoda służy do badania zależności między danymi przedstawianymi w postaci modelu sieciowego. Za jej
pomocą badane mogą być takie zależności, jak kolejność danych, np. kolejność odwiedzania przez użytkowników stron witryny internetowej i siła powiązań między danymi, np. zależności w relacjach społecznych
między ludźmi. Pomimo dużych możliwości jest to metoda niezbyt jeszcze szeroko znana i wykorzystywana.
Jest dostępna w programie Enterprise Miner firmy SAS i ten program był przez nas używany.
Wyniki przedstawiane są w postaci graficznej, różnorodnych wykresów, uzupełnianych miarami
statystycznymi. Wykresy mogą być modyfikowane przez użytkowników programu. Za pomocą metody Link Analysis możliwe jest tworzenie skupień i przeprowadzanie oceny skoringowej obiektów.
W artykule zilustrowano zastosowanie metody, posługując się przykładem analizy kondycji ekonomicznej przedsiębiorstw za pomocą wybranych wskaźników finansowych.
LINK ANALYSIS AS A MEANS OF TESTING FINANCIAL CONDITION
OF ENTERPRISES
Summary
In the article Link Analysis data mining method is described and discussed. The method enables
to analyse various data which are represented as network. Using Link Analysis the traffic between Internet pages showing paths in Web log data or social dependencies between people can be investigated. Although the method possess large potential, it is not yet widespread, well known and used.
The method is well implemented in the SAS Enterprise Miner program, which we used.
The results are presented in graphical form. Various charts with some statistical measures can be
used. Charts can be modified by users. Clustering and scoring is possible with the use of this method.
In the article the method is illustrated with an example analyzing financial condition of enterprises.
1. Wstęp
Metoda Link Analysis polega na analizie powiązań w złożonych układach, które
są reprezentowane za pomocą modelu sieci [Berry, Linoff 2004; Kwieciński 2007].
Celem metody jest odkrycie prawidłowości, które mogą prowadzić do użytecznych
dla nas wniosków dotyczących badanych obiektów. Rozwiązanie przedstawiane jest
1 Dr hab. Mirosława Lasek, prof. UW i mgr Marek Pęczkowski są pracownikami Wydziału Nauk
Ekonomicznych Uniwersytetu Warszawskiego.
28
Mirosława Lasek, Marek Pęczkowski
w postaci graficznej, wzbogaconej o pewne miary statystyczne. Link Analysis może
być stosowana jako metoda służąca do badania przepływu informacji pomiędzy
węzłami w sieci. Dobrze nadaje się np. do analizy kolejności odwiedzanych stron na
witrynach internetowych [Enterprise… 2005; Kwieciński 2007] lub analizy powiązań
między ludźmi w relacjach społecznych. Metoda została zaimplementowana w programie Enterprise Miner firmy SAS [Data… 2004; Enterprise… 2005]. Stąd pochodzą też
nasze doświadczenia jej stosowania.
Metoda może służyć do zbadania zależności pomiędzy węzłami, przedstawiającymi różne charakterystyki. W naszych analizach przyjmowaliśmy, że węzłami są sektory gospodarki z makrosektora przemysłu (przemysł chemiczny, drzewny i papierniczy, elektromaszynowy itd.), makrosektora handlu i usług (budownictwo, energetyka i usługi komunalne, handel itd.) oraz poziomy wartości wskaźników określających kondycję finansową i majątkową przedsiębiorstw. Były uwzględniane: wskaźniki zyskowności, takie jak: marża zysku brutto ze sprzedaży, marża zysku operacyjnego, marża zysku brutto, wskaźniki płynności z uwzględnieniem płynności bieżącej, szybkiej, podwyższonej, wskaźniki aktywności, w tym rotacji należności, rotacji
zapasów, cyklu operacyjnego, a także wskaźniki zadłużenia, m.in. wskaźnik pokrycia
majątku, stopy zadłużenia, obsługi zadłużenia [Wyniki… 2007].
Z uzyskanych w wyniku zastosowania metody wykresów można odczytać, jak
silne – mierzone liczebnością poszczególnych powiązań – są związki między przedsiębiorstwami określonych sektorów a poziomami wartości wskaźników, a także między poziomami wartości różnych wskaźników kondycji w przedsiębiorstwach. W szczególności dla kierowania działalnością przedsiębiorstwa interesujące mogą być wnioski dotyczące zależności między przedsiębiorstwami sektora, do którego należy, a poziomami wartości wskaźników, charakteryzujących sytuację finansową i majątkową.
Pozwala to na ocenę przedsiębiorstwa na tle innych przedsiębiorstw danego sektora.
2. Opis metody
Dla utworzenia modelu połączeń między obiektami i zbudowania wykresów,
będących wynikiem procedury Link Analysis, tworzone są dwa zbiory danych [Data…
2004; Enterprise… 2005]:
–
zbiór węzłów (nodes),
–
zbiór połączeń miedzy węzłami (links).
Wykresy mogą być przekształcane przez użytkownika w sposób interaktywny.
Obliczane są miary, umożliwiające interpretację uzyskanych wyników.
Użytkownik może tworzyć wykresy różnie zbudowane, które mogą służyć różnym celom. Przykładowo wiele informacji o pogrupowaniu danych może dostarczyć
wykres klastrowy z węzłami uporządkowanymi w skupienia.
Podstawowym wykresem jest wykres opisujący naturę połączeń między węzłami
– zwany wykresem kołowym (circle layout). Przykład takiego wykresu przedstawiono
na rysunku 1.
Analiza kondycji ekonomicznej przedsiębiorstw…
29
RYSUNEK 1.
Wykres kołowy
Źródło: opracowanie własne przy wykorzystaniu programu SAS Enterprise Miner.
Węzły na wykresie (rys. 1.) przedstawiane są w postaci figur o różnych kształtach, wielkościach i kolorach. Węzły mogą być etykietowane, co pozwala przedstawić informacje o reprezentowanej przez nie zmiennej lub/i wartości zmiennej.
Kształty figur ilustrują role zmiennych w modelu. Na rysunku 1. koła oznaczają zmienną objaśnianą (target), a kwadraty zmienną objaśniającą (input). Każdy kolor wskazuje
określoną zmienną. O wielkości węzła decyduje liczba obserwacji związanych z określoną wartością zmiennej i reprezentowaną przez węzeł.
Kolorami i grubościami linii oznacza się na wykresach liczebności połączeń – grubsze linie wskazują na liczniejsze połączenia. Kolor czerwony (najciemniejszy odcień na
wykresie) sygnalizuje najliczniejsze połączenia, niebieski (jaśniejszy odcień) – średnie,
a zielony (najjaśniejszy odcień) – najmniej liczne.
3. Analiza znaczenia węzłów i powiązań w sieci
Węzły w sieci o największym znaczeniu są to węzły, które są powiązane z największą liczbą innych węzłów. Powiązania o największym znaczeniu, to powiązania o największej liczebności połączeń.
Do pomiaru znaczenia węzła stosowane są dwie miary ważności węzła (centrality):
–
ważność pierwszego rzędu (first-order centrality) określa, jaki procent wszystkich węzłów jest bezpośrednio połączona z danym węzłem;
–
ważność drugiego rzędu (second-order centrality) wskazuje, jaki jest procent wszystkich węzłów bezpośrednio połączonych z węzłami, które są bezpośrednio
połączone z danym węzłem.
30
Mirosława Lasek, Marek Pęczkowski
Jeżeli bezpośrednie połączenie między węzłami będziemy interpretować jako znajomość między osobami pewnej populacji, to ważność pierwszego rzędu odpowiada na
pytanie, jaki procent populacji stanowią znajomi wyróżnionej osoby, a ważność drugiego rzędu odpowiada na pytanie, jaki procent populacji stanowią znajomi jej znajomych.
Miary ważności mogą być ważone (gdy węzłom i powiązaniom przypisuje się wagi
z przedziału od 0 do 1) lub nieważone (gdy wszystkie wagi mają stałą wartość 1).
4. Zbiór danych o węzłach (zbiór danych Nodes)
W programie SAS Enterprise Miner węzły na wykresie są tworzone na podstawie
zbioru danych, mającego postać tablicy, w której każdy wiersz zawiera dane o jednym
węźle. Kolumny zbioru przedstawiają:
–
nieważoną miarę ważności pierwszego rzędu (1’st order unweighted centrality C1U);
–
nieważoną miarę ważności drugiego rzędu (2’nd order unweighted centrality C2U);
–
ważoną miarę ważności pierwszego rzędu (1’st order weighted centrality C1);
–
ważoną miarę ważności drugiego rzędu (2’nd order weighted centrality C2);
–
wartość zmiennej jakościowej lub środek przedziału, w którym są zawarte
wartości zmiennych ciągłych określających węzeł (Value). Zmienne ciągłe
są grupowane w przedziały. Każdy przedział zmiennej ma przypisany odpowiedni węzeł;
–
nazwę zmiennej określającej węzeł (VAR);
–
rolę, jaką zmienna przyjmuje w modelu (ROLE). Zgodnie z terminologią
programu SAS Enterprise Miner, tą rolą może być input (dla zmiennej objaśniającej) lub target (dla zmiennej objaśnianej);
–
liczbę obserwacji reprezentowaną przez węzeł (COUNT);
–
liczbę obserwacji w węźle podzieloną przez liczbę wszystkich obserwacji
(PERCENT);
–
zmienną identyfikującą węzeł (ID);
–
zmienną tekstową postaci: nazwa zmiennej = wartość zmiennej (VAR =
VALUE), (TEXT);
–
współrzędną osi X węzła na wykresie (X);
–
współrzędną osi Y węzła na wykresie (Y);
–
zmienną określającą, czy wyświetlane są etykiety (0 – nie, 1 – tak) (PLOT_
_SHOWLABEL).
W przypadku sporządzania określonych wykresów, oprócz wymienionych powyżej zmiennych, w zbiorze Nodes mogą zostać umieszczone dodatkowe zmienne,
np. zmienna określająca przynależność do określonych skupień, jeśli są wyróżniane.
Na rysunku 1. węzłami są sektory gospodarki wybrane w jednym z przykładów
do analizy (zmienna sektor): chemiczny, spożywczy i informatyka – koła na wykresie, i poziomy wartości trzech wskaźników przyjętych do analizy: marży zysku netto
(MZN), rotacji należności (RN), wskaźnika podwyższonej płynności (WPP) – kwadraty na wykresie. Każdy należy do innej grupy wskaźników określających kondycję
Analiza kondycji ekonomicznej przedsiębiorstw…
31
finansową i majątkową przedsiębiorstwa: marża zysku netto (MZN) – do grupy
wskaźników zyskowności, rotacja należności w dniach (RN) – do grupy wskaźników aktywności, wskaźnik podwyższonej płynności (WPP) – do grupy wskaźników
płynności. Wskaźniki obliczane są według wzorów [Wyniki… 2007]:
MZN = zysk netto/przychody ze sprzedaży netto,
RN = (średnia wartość należności/przychody ze sprzedaży netto) x liczba dni,
WPP = (majątek obrotowy – zapasy – należności)/zobowiązania krótkoterminowe.
Przypomnijmy, że każda zmienna jest oznaczona innym kolorem, np. zmienna
sektor, zielonym. Jako węzły mogą być przyjęte kolumny inne niż kolumna VAR
z tablicy zbioru danych o węzłach Nodes.
Zmienna sektor jest zmienną jakościową i ma trzy wartości, odpowiadające trzem analizowanym sektorom: chemicznemu, spożywczemu, informatycznemu. Wartości zmiennych ciągłych, będących rozważanymi wskaźnikami, są domyślnie dzielone na trzy grupy
(poziomy). W procedurze można też podzielić wartości zmiennych na 5 lub 7 grup.
Z przedstawionych powyżej uwag wynika – co potwierdza rysunek 1., że wykres
posiada 12 węzłów (3 sektory oraz 3 wskaźniki z przypadającymi na każdy wskaźnik
trzema poziomami wartości). Liczba powiązań między tymi węzłami wynosi 53.
5. Zbiór danych o powiązaniach między węzłami (zbiór danych Links)
Połączenia między węzłami są tworzone na podstawie zbioru danych, noszącego
nazwę Links, i mającego, podobnie jak zbiór danych o węzłach, postać tablicy. Każdy wiersz tablicy określa jedno połączenie między dwoma węzłami. Kolumny odpowiadają zmiennym opisującym połączenia. Są to:
–
liczba wystąpień danego połączenia (COUNT),
–
identyfikator pierwszego węzła – zgodny ze zmienną ID ze zbioru Nodes (ID1),
–
identyfikator drugiego węzła – zgodny ze zmienną ID ze zbioru Nodes (ID2),
–
zmienna identyfikująca połączenie (LINKID),
–
liczba wystąpień danego połączenia podzielona przez liczbę wszystkich obserwacji, wyrażona w procentach (PERCENT),
–
liczba obserwacji w węźle określonym zmienną ID1 (COUNT1),
–
liczba obserwacji w węźle określonym zmienną ID2 (COUNT2),
–
oczekiwana liczba wystąpień danego połączenia (EXPECT),
–
odchylenie rzeczywistej liczby wystąpień od wartości oczekiwanej –
COUNT-EXPECT (DEV),
–
wartość statystyki Chi2 połączenia (CHI2),
–
określenie, czy połączenie występuje na wykresie (0 – nie, 1 – tak), (LAYOUT_
_MASK).
W przedstawianej w tej pracy analizie wartości połączeń są ustalane na podstawie
ich liczebności (zmienna COUNT) ze zbioru Links. Połączenia mogą być przyjmowane na podstawie innych charakterystyk, zapisanych w kolumnach zbioru Links.
32
Mirosława Lasek, Marek Pęczkowski
Wyświetlaniem połączeń na wykresach możemy sterować za pomocą zmiennych
zwanych maskami (Masks). Są to zmienne w zbiorze Links, które pozwalają np. wskazać, czy połączenie będzie uwidocznione na wykresie, czy też nie będzie zamieszczone. Zmiennymi „maskami” są zmienne określające:
–
czy połączenie jest uwzględnione na wykresie,
–
czy połączenie jest uwzględnione w grupowaniu,
–
czy połączenie jest uwzględnione w filtrowaniu,
–
czy połączenie jest uwzględnione w analizowanej ścieżce miedzy węzłami.
6. Przykład analizy przedsiębiorstw za pomocą procedury Link Analysis
W przykładzie przedstawianym w artykule do analizy przyjęto 48 przedsiębiorstw,
po 16 z każdego sektora: chemicznego, spożywczego, informatyki. Są to wartości
zmiennej objaśnianej target o nazwie SEKTOR. Przypomnijmy, że przedsiębiorstwa
analizowano pod względem trzech wskaźników: marży zysku netto, rotacji należności
i wskaźnika podwyższonej płynności.
Aby w procedurze Link Analysis uwzględnić 3 powyżej wymienione wskaźniki, przyjęliśmy 3 odpowiadające im zmienne ilościowe (interval) o nazwach zgodnych z nazwami
wskaźników: MZN, RN, WPP. W modelu Link Analysis mają one przypisaną rolę input.
Dla każdej zmiennej ilościowej przyjęliśmy 3 przedziały – poziomy wartości (bins = 3).
Na rysunku 2. przedstawiono tablicę z programu SAS Enterprise Miner, która zawiera opis zmiennych, jakie będą wykorzystywane w analizie Link Analysis.
RYSUNEK 2.
Zmienne wykorzystywane w analizie
Uwagi: w tablicy przedstawiane są w kolejnych kolumnach: nazwy zmiennych (Name), status (Status) – use oznacza, że zmienna będzie używana w analizie, role zmiennych w modelowaniu (Model
Role) – target: zmienna objaśniana, input – zmienna objaśniająca, skala pomiaru (Measurement) –
nominal: nominalna, interval: przedziałowa, typ zmiennych (Type) – char: znakowa, num: numeryczna, format (Format): format przyjęty w programie SAS, etykiety zmiennych (Label).
Źródło: opracowanie własne przy wykorzystaniu programu SAS Enterprise Miner.
Rozkład każdej z analizowanych zmiennych przedstawiono na rysunku 3.
Źródło: opracowanie własne przy wykorzystaniu programu SAS Enterprise Miner.
Rozkłady zmiennych wykorzystywanych w analizie
RYSUNEK 3.
34
Mirosława Lasek, Marek Pęczkowski
Możemy przyjrzeć się dokładniej każdemu z węzłów z przykładu, wykorzystując
tablicę wygenerowaną przez procedurę Link Analysis. Taką tablicę dla naszego przykładu przedstawiono na rysunku 4.
RYSUNEK 4.
Tablica węzłów dla przykładu analizy przedsiębiorstw
Źródło: opracowanie własne przy wykorzystaniu programu SAS Enterprise Miner.
Tablica składa się z 12 wierszy, z których każdy odpowiada jednemu węzłowi.
W kolumnie VAR zamieszczone są nazwy zmiennych. Wiersze posortowane są w tablicy według nazw zmiennych.
Węzły oznaczane są identyfikatorami – N1, N2,…, N12 (kolumna ID).
W naszym przypadku węzły oznaczone N7, N8 i N9 dotyczą zmiennej objaśnianej
SEKTOR, a przypisane im teksty (kolumna TEXT) opisują wartości zmiennej (SEKTOR = CHEMICZNY, SEKTOR = INFORMATYKA, SEKTOR = SPOŻYWCZY).
Zmienne ilościowe w kolumnie TEXT mają przypisane teksty postaci zmienna =
środek przedziału (VAR = MIDPOINT). Wartości, będące środkami przedziałów,
możemy odczytać w kolumnie VALUE. W tej samej kolumnie podane są wartości
dla zmiennej SEKTOR.
W kolumnie o nazwie COUNT możemy odczytać, jaka jest liczba obserwacji tworzących węzeł, a w kolumnie PERCENT udział procentowy obserwacji w węźle w stosunku do liczby wszystkich obserwacji. Najwięcej obserwacji ma węzeł o identyfikatorze N2 (32 obserwacje), tj. węzeł o charakterystyce MZN = 0,0628, następnie węzły
N5 i N11 (po 21 obserwacji) – o charakterystyce odpowiednio RN = 93,71 i WPP
= 0,474. Najmniej, po 8 obserwacji, mają węzły: węzeł charakteryzujący się ujemnym MZN, wynoszącym w środku przedziału –0,0482, węzeł o MZN 0,1738 oraz
węzeł z WPP równym 1,107. W kolumnie COUNT możemy znaleźć potwierdzenie,
że rozpatrujemy po 16 obserwacji z każdego sektora: chemicznego, informatyki, spożywczego (wiersze – węzły o identyfikatorach N7, N8 i N9 mają po takiej liczbie
obserwacji).
Wiele informacji o powiązaniach między węzłami możemy odczytać z oddzielnej tablicy wygenerowanej przez Link Analysis, dotyczącej połączeń. Fragment takiej tablicy dla naszego przykładu przedstawiono na rysunku 5.
Analiza kondycji ekonomicznej przedsiębiorstw…
35
Cała tablica składa się z 53 wierszy – z których każdy odpowiada jednemu powiązaniu między węzłami z rozpatrywanego przykładu analizy przedsiębiorstw.
Każde powiązanie oznaczone jest identyfikatorem składającym się z litery L i numeru. Identyfikatory podane są w kolumnie o nazwie LINKID. Na lewo od kolumny z identyfikatorami znajdują się kolumny ID1 i ID2, zawierające w kolejnych wierszach identyfikatory węzłów, między którymi istnieją połączenia o identyfikatorach
wskazanych w kolumnie LINKID.
RYSUNEK 5.
Fragment tablicy powiązań między węzłami dla przykładu analizy
przedsiębiorstw
Źródło: opracowanie własne przy wykorzystaniu programu SAS Enterprise Miner.
Przykładowo z rysunku 5. możemy odczytać, że powiązanie L39 łączy węzły N1
i N11, a L48 – węzły N1 i N12.
W pierwszej kolumnie o nazwie COUNT zamieszczona jest liczba obserwacji w połączeniu między węzłami wymienionymi w odpowiednim wierszu – oznaczonym
w kolumnie LINKID. COUNT1 przedstawia liczbę obserwacji z węzła kolumny
ID1, a COUNT2 liczbę obserwacji z węzła kolumny ID2, a więc węzłów połączonym powiązaniem wskazanym w kolumnie LINKID.
Z kolumny PERCENT możemy odczytać, jaki jest wyrażony w procentach udział
liczby połączeń (COUNT) w liczbie wszystkich analizowanych obserwacji (u nas 48,
bo tyle analizujemy przedsiębiorstw).
W kolumnie EXPECT przedstawiane są teoretyczne (oczekiwane) liczebności
połączeń. O odchyleniach rzeczywistych liczebności od teoretycznych (COUNT –
36
Mirosława Lasek, Marek Pęczkowski
EXPECT) możemy się dowiedzieć z zawartości kolumny DEV. W kolumnie CHI2
DEV 2
przedstawiane są wartości CHI 2 =
EXPECT .
Jeżeli CHI2 jest bliskie 0, to oznacza, że przewidywane liczebności są bliskie rzeczywistych. Gdy COUNT = EXPECT, to CHI2 = 0.
Wyniki analizy można zilustrować za pomocą wykresów. Przykłady wykresów
zależności między węzłami dla analizowanego przez nas problemu przedstawiono
na rysunku 6. Pokazany poprzednio wykres kołowy na rysunku 1. jest wykresem domyślnym w SAS Enterprise Miner.
Wszystkie wykresy mają postać grafów, których węzły przedstawiają poziomy
wartości zmiennych.
Zgodnie z domyślnymi ustaleniami programu na rysunkach:
–
kształt węzła służy rozróżnieniu zmiennych objaśnianych i zmiennych objaśniających. Zmienne objaśniane są przedstawiane w postaci okręgów, a zmienne objaśniające w postaci kwadratów;
–
kolor węzła – węzły reprezentujące określoną zmienną mają przypisany określony kolor, np. wskaźnik MZN jest oznaczony kolorem niebieskim, a wskaźnik
RN kolorem żółtym;
–
wielkość węzła pozwala oszacować liczbę obserwacji tworzących węzeł. Im
większa liczba obserwacji przypisanych do węzła, tym większy jest węzeł;
–
grubość połączenia wskazuje liczbę obserwacji dla związków między węzłami. Im grubsza jest linia, tym więcej obserwacji odpowiadających powiązaniu;
–
kolor linii łączących węzły wskazuje liczebność powiązań: czerwony dla wskazania najliczniejszych powiązań, zielony – o najmniej licznych i niebieski –
pośredniej liczebności.
Pierwszym, sporządzonym przez nas wykresem jest najczęściej stosowany wykres kołowy (circle layout), który został już przedstawiony na rysunku 1. i tam krótko
omówiony.
Rysunek 6.(a) przedstawia wykres w postaci „kratowej” (grid layout) z pogrupowanymi węzłami. Węzły rozmieszczone są w grupach, reprezentujących poszczególne zmienne. Na wykresie każda grupa węzłów w sieci odpowiada każdej z analizowanych zmiennych. Tego wykresu wygodnie używać, gdy mamy zmienną grupującą lub gdy węzły są podzielone na skupienia (grupy).
Na rysunku 6.(b) jest przedstawiony wykres MDS (MDS layout). Taki wykres uzyskuje się w wyniku zastosowania procedury skalowania wielowymiarowego (MultiDimensional Scaling – MDS). Procedura skalowania wielowymiarowego ma za zadanie odwzorować konfigurację obiektów z przestrzeni wielowymiarowej w przestrzeń o mniejszej liczbie wymiarów, z jak najmniejszą stratą informacji. Przeprowadzone jest skalowanie danych do dwóch wymiarów. Najczęściej przestrzeń wynikowa jest dwuwymiarowa, dzięki czemu można przedstawić obraz odwzorowania na płaszczyźnie
i zilustrować graficznie. Rozwiązanie zależy od przyjętej miary podobieństwa lub
odległości. Można użyć odległości lub kwadratów odległości euklidesowych. Użycie
Analiza kondycji ekonomicznej przedsiębiorstw…
37
kwadratów odległości oznacza, że duże wartości odległości traktujemy jako ważniejsze niż mniejsze odległości. Sporządzając ten wykres mamy możliwość wyboru
parametrów, dotyczących procedury MDS. Rysunek 6.(b) uzyskano w wyniku zastosowania opcji domyślnych (np. co do zastosowanej miary podobieństwa, traktowania brakujących wartości, liczby iteracji realizowanego algorytmu (20)).
RYSUNEK 6.
Wykresy zależności między węzłami dla przykładu analizy przedsiębiorstw
(a)
(c)
(b)
(d)
Źródło: opracowanie własne przy wykorzystaniu programu SAS Enterprise Miner.
Wykres równoległego zestawienia węzłów przedstawia węzły w kolumnach lub
wierszach dla zmiennych i ukazuje tylko powiązania między sąsiednimi kolumnami
lub wierszami. Na rysunku 6.(c), każda zmienna z wejściowego zbioru danych jest
reprezentowana przez pojedynczą kolumnę, a każdy węzeł kolumny przedstawia jeden z wyodrębnionych poziomów wartości tej zmiennej. Węzły (w każdej kolumnie) są uporządkowane od węzłów o największej liczbie obserwacji w górnej części,
poprzez węzły o kolejno coraz mniejszej liczbie obserwacji, aż do węzłów o najmniejszej liczbie obserwacji w dolnej części. Podobnie, linie przedstawiające najlicz-
38
Mirosława Lasek, Marek Pęczkowski
niejsze powiązania mają tendencję do występowania wyżej niż linie z mniejszą liczbą
powiązań. Użytkownik podejmuje decyzje o tym, czy wykres ma przedstawiać zmienne w wierszach (uporządkowanie „góra – dół” zmiennych), czy też w kolumnach (uporządkowanie „lewo – prawo” zmiennych). Użytkownik decyduje także o kolejności
występowania zmiennych w wierszach lub w kolumnach.
Użytkownik ma duże możliwości modyfikowania wykresów używając opcji SWAP.
Na rysunku 6.(d) przedstawiono wykres zmodyfikowany na podstawie wykresu kołowego.
Jeżeli dane wejściowe mają strukturę hierarchiczną, wygodne jest posłużenie się
wykresem o strukturze drzewa. Można utworzyć drzewo o orientacji pionowej („z góry w dół”) lub poziomej („z lewej do prawej”). Dostępna jest także „kołowa” architektura drzewa (należy wówczas skorzystać z opcji o nazwie Polar). Na rysunku 7. (a)
przedstawiono wykres drzewa o orientacji pionowej, a na rysunku 7. (b) w postaci
o nazwie „polar”. Do generowania drzewa jest używana procedura NETFLOW.
RYSUNEK 7.
Wykres o strukturze drzewa
(a)
(b)
Źródło: opracowanie własne przy wykorzystaniu programu SAS Enterprise Miner.
Można sporządzić wykres przedstawiający powiązania miedzy wybranymi węzłami. Powiązania węzłów – sektorów z węzłami – zmiennymi (wskaźnikami), bez
ukazania powiązań między zmiennymi – wskaźnikami przedstawiono na rysunku 8.
Analiza kondycji ekonomicznej przedsiębiorstw…
39
RYSUNEK 8.
Wykres z powiązaniami między wybranymi węzłami
Źródło: opracowanie własne przy wykorzystaniu programu SAS Enterprise Miner.
7. Tworzenie skupień i przeprowadzanie oceny skoringowej
Aby utworzyć skupienia ocen wskaźnikowych wokół sektorów przedsiębiorstw
i uzyskać ocenę skoringową, należy podzielić zbiór danych na zbiór danych treningowych i zbiór danych walidacyjnych.
Dla tworzenia skupień wybieramy technikę skalowania wielowymiarowego MDS.
Jako zmienną grupującą pozostawiamy zmienną domyślną VAR. Wówczas grupowanie przebiega według nazw zmiennych, a nie według wartości zmiennych. Model
Link Analysis pozwala na podstawie danych utworzyć skupienia ocen wskaźnikowych,
które mogą być użyte w celu redukcji zbioru obserwacji i przeprowadzenia segmentacji.
W celu przeprowadzenia grupowania zbiór danych można podzielić na zbiór treningowy i zbiór walidacyjny według różnych proporcji, np. w proporcji 2:1, czyli 66%
i 34%.
Parametr grouping bias techniki MDS przyjmujemy jako –1. Oznacza to, że węzły
w grupach będą nieco oddalone od siebie (w stosunku do rzeczywistego położenia).
W wyniku realizacji procedury skalowania wielowymiarowego otrzymaliśmy graf
przedstawiony na rysunku 9. Możemy dostrzec trzy grupy węzłów.
Aby utworzyć skupienia, można wybrać technikę modeclus lub nearest neighbor. Algorytm modeclus jest nieparametryczną metodą grupowania, realizowaną przez procedurę MODECLUS (z modułu SAS/STAT). Algorytm nearest neighbor grupuje węzły na podstawie odległości do najbliższych sąsiadów. W obu przypadkach używana
jest technika do znalezienia optymalnej liczby skupień.
40
Mirosława Lasek, Marek Pęczkowski
RYSUNEK 9.
Graf otrzymany w wyniku realizacji procedury MDS
Źródło: opracowanie własne przy wykorzystaniu programu SAS Enterprise Miner.
8. Interpretacja wyników
Wyniki analizy wskazują na silne powiązania przedsiębiorstw każdego z trzech analizowanych sektorów z poziomem wartości wskaźnika marży zysku netto, wynoszącym 0,0628. Na wykresie kołowym – rys. 1., powiązania węzłów oznaczających
przedsiębiorstwa poszczególnych sektorów z węzłem marży zysku netto dla poziomu 0,0628 są oznaczone wyraźnymi, grubszymi, czerwonymi liniami, wskazującymi powiązania o wysokiej liczebności. Nie ma takich powiązań z węzłami dla
marży zysku netto poziomu wartości –0,0482, ani poziomu wartości 0,1738.2
Węzeł dla marży zysku netto o poziomie wartości 0,0628 jest „dużym” węzłem,
co świadczy o dużej liczbie przedsiębiorstw należących do tego węzła. Z tablicy
„węzłów” z rysunku 4. możemy odczytać, że przydzielono do niego 32 przedsiębiorstwa (spośród wszystkich analizowanych 48 przedsiębiorstw).
Węzeł marży zysku netto dla poziomu wartości 0,0628 jest także „silnie” (liczne
związki), oznaczone na rysunku 1. grubszymi, czerwonymi liniami, powiązany z węzłem rotacji należności poziomu wartości 37,34 oraz węzłem rotacji należności poziomu wartości 93,71. Brak silnych powiązań z węzłem rotacji należności, wskazującym poziom wartości 150,08.
Węzeł marży zysku netto dla poziomu wartości 0,0628 jest również „silnie” powiązany z dwoma węzłami wskaźnika podwyższonej płynności: węzłem wskaźnika
2 Dla zapewnienia czytelności wydrukowanych w artykule rysunków, wartości liczbowych nie zamieszczono na rysunkach (choć można tak zrobić); można je odczytać z „tablicy węzłów” (rys. 4.) na
podstawie liczebności (wielkości) węzłów. Pełne opisy węzłów na wykresach są dobrze widoczne na
ekranie monitora.
Analiza kondycji ekonomicznej przedsiębiorstw…
41
podwyższonej płynności dla poziomu –0,159 oraz węzłem wskaźnika podwyższonej płynności dla poziomu 0,474 (nie ma silnych powiązań z węzłem wskaźnika
podwyższonej płynności o poziomie 1,107).
Z rysunku 1. możemy ponadto wywnioskować, że istnieją silne powiązania między rotacją należności na poziomie wynoszącym 93,71 a poziomem wartości wskaźników podwyższonej płynności wynoszącym -0,159 oraz wynoszącym 0,474 (powiązania oznaczone grubszymi, czerwonymi liniami). Nie ma wyraźnego powiązania między poziomem rotacji należności 93,71 a wskaźnikiem podwyższonej płynności poziomu 1,107 (wśród przedsiębiorstw o różnym poziomie wskaźnika podwyższonej
płynności jest ich zresztą najmniej, co można odczytać z tablicy węzłów z rysunku 4.).
Pogrupowanie węzłów na wykresie 6. (a) w postaci „kratowej” według rodzaju
analizowanych zmiennych (grupy wskazane nazwami zmiennych) potwierdza wnioski z rysunku 1. Ilustruje wyraźniej niż wykres kołowy zależności między poziomami wartości, 3 różnych, analizowanych wskaźników: marżą zysku netto, rotacją
należności, wskaźnikiem podwyższonej płynności, ponieważ tworzą one wyraźne
grupy na wykresie. Zmienna SEKTOR tworzy oddzielną grupę węzłów. Podobnie
jak z wykresu na rysunku 1. można odczytać związek przedsiębiorstw różnych sektorów z wydzielonymi w analizie poziomami wartości wskaźników.
Rysunek 6.(b) uzyskany w wyniku zastosowania procedury skalowania wielowymiarowego MDS ilustruje bardzo wyraźnie, że najwięcej najsilniejszych powiązań
węzłów różnych wartości zmiennych występuje z węzłem marży zysku netto, reprezentującym poziom marży zysku netto w wysokości 0,0628. Stanowi on „punkt centralny” wykresu, do którego wyraźnie prowadzą inne linie, w tym zaznaczone grubiej,
czerwono, z innych węzłów, co ilustruje silne powiązania.
Wykres równoległego zestawienia węzłów z rysunku 6. (c) ilustruje zależności między węzłami chyba w sposób najbardziej uporządkowany. Bardzo wyraźnie wskazuje na związek między liczebnością węzłów a liczebnością powiązań. W naszym przypadku uporządkowanie według liczebności zarówno węzłów, jak i powiązań – to
uporządkowanie „góra – dół”. Wyraźnie widoczne są związki między przedsiębiorstwami różnych sektorów a występowaniem wartości marzy zysku netto na poziomie 0,0628. Zilustrowane są także powiązania między poziomami wartości analizowanych wskaźników, w tym widoczny związek marży zysku netto na poziomie 0,0628
(najliczniejszy węzeł MZN) z rotacją należności na poziomie 93,71 (najliczniejszy
węzeł RN) oraz na poziomie 37,34 (drugi pod względem liczebności węzeł RN), jak
i związek między rotacją należności na poziomie 93,71 a wskaźnikiem podwyższonej płynności poziomu 0,474 (najliczniejszy węzeł WPP) oraz poziomu –0,159 (drugi pod względem liczebności węzeł WPP).
Rysunek 6. (d) dobrze ilustruje, jak można za pomocą modyfikacji wykresów przedstawić bardziej wyraźnie wybrane zależności. Modyfikacja wykresu kołowego z rysunku 1. podkreśla i skupia uwagę na najsilniejszych powiązaniach między węzłami
i węzłach, między którymi występują najsilniejsze powiązania. Powiązania te zostały
zgrupowane w jednym fragmencie wykresu.
W pewnych przypadkach dla odczytania wyników wygodna jest struktura drzewa
(w postaci przedstawionej na rysunku 7.(a) lub na rysunku 7.(b)).
42
Mirosława Lasek, Marek Pęczkowski
Przydatne może być także przedstawienie na wykresie tylko wybranych węzłów
lub wybranych powiązań. Przykładowo wykres z rysunku 8., przedstawiający tylko
powiązania węzłów – sektorów z węzłami – wskaźnikami (opuszczono powiązania
między węzłami – wskaźnikami), wydaje się być najbardziej przydatny do analizy związków między przedsiębiorstwami różnych sektorów a wielkościami wskaźników, charakteryzujących przedsiębiorstwa różnych sektorów.
9. Zakończenie
Sieciowa metoda połączeń Link Analysis wydaje się być metodą o dużej przydatności w różnych zastosowaniach, gdzie poszukiwane są zależności między wieloma
charakterystykami obiektów. Jej niewątpliwą zaletą jest możliwość prezentowania
wyników w postaci wykresów, które mogą być modyfikowane i dostosowywane do
potrzeb użytkownika.
W artykule zilustrowano metodę prostym przykładem jej zastosowania do analizy
kondycji ekonomicznej przedsiębiorstw różnych sektorów gospodarki.
Pierwsze próby stosowania metody w analizach kondycji ekonomicznej przedsiębiorstw wskazują, że podjęcie dalszych prac w tym kierunku wygląda obiecująco.
Dlatego w najbliższym czasie planujemy dalsze badania przydatności jej zastosowania w analizach kondycji przedsiębiorstw i dostosowania do specyfiki tego problemu. W szczególności chcielibyśmy podjąć wysiłki w kierunku dalszego przystosowania metody na potrzeby tworzenia skupień przedsiębiorstw o różnej kondycji i przeprowadzania oceny skoringowej. Podjęte już próby takich zastosowań wskazują na
duże możliwości tkwiące tu w metodzie Link Analysis.
Literatura
Berry M.J.A., Linoff G.S. 2004 Data Mining Techniques. For Marketing, Sales, and Customer Relationship Management, Indianapolis, Indiana.
Data Mining Using SAS Enterprise Miner: A Case Study Approach 2004, Cary, NC, USA.
Enterprise Miner Reference Help 2005, SAS Institute Inc.
Kwieciński A. 2007 Analiza sieciowa za pomocą metody połączeń Link Analysis. Zastosowanie procedury programu SAS Enterprise Miner, praca magisterska, Wydział Nauk
Ekonomicznych, Uniwersytet Warszawski, Warszawa.
Wyniki finansowe spółek giełdowych 2007, Warszawa.
OPTIMUM – STUDIA EKONOMICZNE NR 1 (37) 2008
Andrzej BUSZKO 1
OCENA EFEKTYWNOŚCI WYBRANYCH PROGRAMÓW
POMOCOWYCH DLA KRAJÓW SŁABO ROZWINIĘTYCH
GOSPODARCZO W LATACH 2000-2006
Streszczenie
Celem artykułu jest ocena programów pomocowych kierowanych do państw słabo rozwiniętych
gospodarczo. Analizie poddano sześć krajów z Ameryki Południowej, Afryki i Azji. Okres badawczy
dotyczył lat 2000 – 2006. Zwrócono uwagę na strukturę udzielonej pomocy i związek z dynamiką PKB.
W tych krajach, których większy udział pomocy przeznaczono na ułatwienia w działalności gospodarczej, odnotowano większą dynamikę PKB, natomiast w państwach, gdzie pomoc była kierowana na redukcję zadłużenia, programy humanitarne, tam dynamika PKB okazała się dużo mniejsza i podlegała
znacznym wahaniom.
EVALUATION OF SELECTED AID PROGRAMMES SENT TO LESS DEVELOPED
COUNTRIES DURING THE PERIOD FROM 2000 TO 2006
Summary
The aim of this paper is to evaluate the aid programmes sent to underdeveloped countries. The
survey covered six countries from South America, Africa and Asia. The survey covered the period
from 2000 to 2006. Close attention was paid to the structure of the aid and the dynamic of GDP.
Those countries which were given substantial aid for business activity improvement the bigger dynamic of GDP was noted. On the other hand, those countries which were given the aid just for humanitarian purpose, the dynamic of GDP was much smaller and was subject to fluctuations.
Postępująca globalizacja, zwiększające się przepływy finansowe, wzrost bezpośrednich inwestycji zagranicznych, a także sukcesywnie dokonywane wsparcie krajom słabo rozwiniętym gospodarczo nie doprowadziło do zniwelowania różnic pomiędzy państwami. Można obecnie przyjąć, że istnieje pewien dwubiegunowy układ,
którego jedną część stanowią państwa bogate (rozwinięte gospodarczo), a z drugiej
strony kraje biedne (słabo rozwinięte gospodarczo). Co więcej, powyższy układ nosi cechy trwałości [Beneditc, Bhattacharya 2003]. Tylko niektórym krajom udało się
zmniejszyć dzielący je dystans w sosunku do państw bogatych. Różnice (co się najczęściej przyjmuje) nie dotyczą tylko mierników ekonomicznych (np. PKB per capita,
1 Dr hab. Andrzej Buszko, prof. UWM jest pracownikiem Wydziału Nauk Ekonomicznych Uniwersytetu Warmińsko-Mazurskiego w Olsztynie.
44
Andrzej Buszko
dochodu, płac realnych, standardów życia np. dostępu do zasobów wody pitnej), ale
również warunków prowadzenia działalności gospodarczej, jakości infrastruktury,
w tym także: sądownictwa, opieki medycznej, dostępu do edukacji [Chaudhury, Hammer, Kremer, Muralidharan, Rogers 2006]. Z badań M. Torresa i M. Andersona wynika bardzo istotny wniosek. Znaczna liczba krajów słabo rozwiniętych gospodarczo bez zagranicznej pomocy nie jest w stanie samodzielnie przeprowadzić odpowiednich reform, które pozwalają zredukować poziom ubóstwa, zagrożenie głodem, poprawić infrastrukturę i zapewnić stabilny rozwój [Torres, Anderson 2007].
Pomoc zagraniczna jest realizowana w ramach organizacji międzynarodowych (m.in.
ONZ, Bank Światowy i jego agendy), grupy państw (np. w ramach G-8) oraz samodzielnie przez poszczególne bogate kraje. Przykładowo na tegorocznym czerwcowym
szczycie państw G-8 w Niemczech padła deklaracja przeznaczenia kwoty 60 mld USD
państwom słabo rozwiniętym gospodarczo. Pomoc ta ma być głównie skierowana na
walkę ubóstwem i poprawę opieki medycznej2.
Pomoc zagraniczną, świadczoną krajom słabo rozwiniętym gospodarczo, można
podzielić na następujące grupy tematyczne:
–
redukcję zadłużenia,
–
konsulting techniczny,
–
pomoc humanitarną (najczęściej w postaci dostaw żywności i lekarstw),
–
wsparcie lub całościowe pokrycie kosztów realizacji inwestycji,
–
poprawę warunków prowadzenia działalności gospodarczej,
–
ułatwienia w zakresie eksportu do krajów rozwiniętych gospodarczo [Serkan,
Blair 2003].
2. Zmiany w programach pomocowych
W latach 2000 – 2006 odnotowano systematyczny wzrost wartości kwot skierowanych jako pomoc dla krajów słabo rozwiniętych gospodarczo. W 2000 roku przekazana
pomoc wyniosła 90 mld USD, a w 2006 roku osiągnęła wartość 109,9 mld USD [Alun
2006]. W omawianym okresie zasadniczo zmieniła się struktura udzielanej pomocy.
TABELA 1.
Udział poszczególnych form wsparcia krajom słabo rozwiniętym
gospodarczo w 2000 i 2006 roku (%)
Redukcja
Forma
zadłużeRok
nia
2000
35
2006
9
Wsparcie Poprawa warun- Ułatwienia
Konsul- Pomoc huinwesty- ków działalności eksportoting
manitarna
cji
gospod.
we
7
20
11
6
21
12
10
19
27
23
Źródło: obliczenia na podstawie OECD DAC Development Cooperation Report [2007].
2
http://Reuters.com, z dn. 12 czerwca 2007.
Ocena efektywności wybranych programów pomocowych…
45
W 2000 roku największy udział w programach pomocowych zajmowały trzy formy, tj. redukcja zadłużenia (35%), ułatwienia eksportowe (21%) oraz pomoc humanitarna (20%). Łącznie powyższe formy stanowiły aż 76% całkowitej udzielonej pomocy. W 2006 roku najważniejszą pod względem udziału była poprawa warunków
działalności gospodarczej, stanowiła ona 27% całej pomocy. Bardzo istotny udział
zajmowały ułatwienia eksportowe (23%) oraz wsparcie inwestycji (9%). Redukcja
zadłużenia obniżyła się do 9%, a udział pomocy humanitarnej zmniejszył się o połowę i wyniósł tylko 10% całkowitej kwoty pomocy. Powyższa zmiana struktury pomocy dowodzi pewnej odmiennej strategii przyjętej przez podmioty udzielające wsparcia. Polega ona na ograniczeniu środków przeznaczonych na pomoc doraźną, a ,,przekierowaniu” jej na rozwój gospodarczy. Tym należy wytłumaczyć znaczne zwiększenie
udziału wsparcia na poprawę warunków działalności gospodarczej, konsultingu i ułatwień w eksporcie.
Ułatwienia w eksporcie sprawdzały się na obniżeniu stawek taryf celnych, przyznaniu krajom słabo rozwiniętym gospodarczo klauzuli najwyższego uprzywilejowania, konsultingu technicznym w zakresie utrzymywania stosownych wymogów
jakościowych i sanitarnych [Global Economic Prospects 2006].
Straty, jakie występują w wyniku ustanowienia taryf i parataryf, zostały przedstawione w niżej prezentowanej tabeli. Wpływ został oszacowany przy użyciu wskaźnika restrykcji importowych TRI (Trade Restrictiveness Index) oraz ogólnego wskaźnika handlowego OTRI (Overall Trade Restrictiveness Index).
TABELA 2.
Wpływ restrykcji na spadek obrotów w handlu zagranicznym w 2006 roku,
w mld USD
Grupa krajów
Kraje wysoko rozwinięte gospodarczo
Kraje średnio rozwinięte gospodarczo
Kraje słabo rozwinięte gospodarcze
TRI
74,9
13,6
6,2
OTRI
19,6
11,1
4,3
Źródło: zestawienie na podstawie: Global Monitoring Report 2007: Confronting the Challenges of Gender
Equality and Fragile States [2007].
Na skutek ustanowienia restrykcji handlowych największe straty pod względem
nominalnej wartości ponoszą kraje wysoko rozwinięte gospodarczo. Starty mierzone wskaźnikiem TRI w 2006 roku wyniosły 74,9 mld USD, a OTRI 19,6 mld USD.
W krajach średnio rozwiniętych gospodarczo straty te wyniosły odpowiednio 13,6 mld
USD i 11,1 mld USD. W krajach słabo rozwiniętych gospodarczo straty co prawda
okazały się najniższe i osiągnęły wartość 6,2 mld USD i 4,3 mld USD, ale jednocześnie
stanowiły one aż 0,6% PKB tych państw. Natomiast straty w krajach wysoko i średnio rozwiniętych gospodarczo nie przekraczały 0,2% PKB [OECD Statistics 2007]. Na
tej podstawie można przyjąć, że restrykcje handlowe miały znacznie większe znaczenie dla krajów słabo aniżeli wysoko rozwiniętych gospodarczo.
46
Andrzej Buszko
3. Cel pracy i przyjęta metoda badawcza
Podstawowym celem pracy jest ocena efektywności pomocy zagranicznej państwom słabo rozwiniętym gospodarczo. Do przeanalizowania wybrano po dwa kraje
słabo rozwinięte gospodarczo, pochodzące z Azji (Laos, Tadżykistan), Afryki (Mozambik, Zambia) i Ameryki Południowej (Paragwaj, Boliwia). Analizie poddano typowe
zakresy pomocy, ze szczególnym uwzględnieniem warunków prowadzenia działalności gospodarczej.
Do oceny warunków działania przyjęto następujące parametry:
–
rozpoczęcie działalności gospodarczej (uwzględniono liczbę formalności,
czas niezbędny do rejestracji podmiotu, koszt liczony jako procent dochodu, minimalny kapitał niezbędny do założenia spółki z o.o. także liczony jako
procent dochodu);
–
tryb uzyskiwania pozwoleń budowlanych (liczbę formalności, czas, procentowy koszt dochodu);
–
zatrudnienie pracowników (wzięto pod uwagę wskaźnik elastyczności zatrudnienia, elastyczności czasu pracy, elastyczności zwalniania, elastyczności prawa
pracy, koszt zatrudniania rozumiany jako procent poborów, koszt zwalniania, konieczność wypłaty utraconych poborów);
–
rejestracja nieruchomości (wyliczono w oparciu o liczbę formalności, czas
i koszt jako procent wartości nieruchomości);
–
uzyskiwanie kredytu (wskaźnik ochrony inwestora, wskaźnik informacji kredytowej, pokrycie rynku przez rejestry publiczne, pokrycie rynku przez rejestry prywatne);
–
ochrona inwestorów (wskaźnik zakresu jawności, wskaźnik zakresu odpowiedzialności dyrektorów, wskaźnik łatwości roszczenia udziałowców, wskaźnik siły ochrony inwestora);
–
płacenie podatków (liczba podatków, czas, wysokość jako procent zysków),
–
wymiana międzynarodowa (liczba dokumentów eksportowych, liczba dokumentów importowych);
–
dochodzenie należności (liczba formalności, czas, koszt jako procent roszczenia);
–
likwidacja przedsiębiorstwa (czas w latach, koszt jako procent posiadanego
majątku, stopa odzyskania należności w centach za dolara).
Pierwszym miernikiem oceny jest rozpoczęcie działalności gospodarczej w trybie
spółki z ograniczoną odpowiedzialnością. Forma ta jest najbardziej rozpowszechniona zarówno wśród lokalnych, jak i zagranicznych przedsiębiorców. Zwrócono uwagę na podstawowe formalności związane z rejestracją spółki. Z tego względu uwzględniono liczbę formalności, czas, koszt liczony jako procent dochodu mieszkańca i podobnie wyliczono minimalne wymogi kapitałowe. Posłużenie się kosztem w oparciu
o dochód mieszkańca powoduje możliwość porównania warunków rozpoczęcia
działalności w różnych państwach. Założenie przedsiębiorstwa nie może okazać się
swoistą pułapką. Dlatego należy uwzględnić tryb likwidacji spółki. Powinien być on
Ocena efektywności wybranych programów pomocowych…
47
również relatywnie prosty i zapewniać wysoki stopień odzyskania należności. W
związku z powyższym uwzględniono czas potrzebny do likwidacji, koszt jako procent posiadanego majątku oraz stopę odzyskania należności w centach za dolara.
Przyszli przedsiębiorcy powinni uwzględnić warunki z uzyskaniem pozwolenia na
budowę i rejestrację nieruchomości. Zdecydowana bowiem większość z nich prędzej czy później stanie przed koniecznością wybudowania nowego, lub modernizacji istniejącego, obiektu i przejęcia jego na własność. Tym należy tłumaczyć konieczność uwzględnienia liczby formalności, czasu ich trwania oraz kosztów. Bardzo ważnym parametrem oceny są warunki zatrudniania pracowników. Wskaźnik swobody zatrudnienia składa się z następujących części składowych: ograniczenia stosowania umów na czas określony, maksymalny okres, na jaki można zawrzeć taką
umowę, stosunek ustawowej płacy minimalnej do średniej wartości dodanej, przypadającej na pracownika. Jeżeli umowy na czas określony mogą być stosowane wyłącznie do zadań trwających przez określony czas, kraj otrzymuje 1 punkt, w przypadku wszystkich zadań 0 punktów. Jeżeli maksymalny okres trwania umowy na czas
określony nie przekracza trzech lat, kraj otrzymuje 1 punkt, jeśli wynosi on od
trzech do pięciu lat – 0,5 punktu, jeśli więcej niż pięć lat 0 punktów. Jeżeli stosunek
płacy minimalnej do średniej wartości dodanej do pracownika jest wyższy niż 0,75,
wówczas otrzymuje 1 punkt, przedziałowi 0,5 – 0,75 odpowiada 0,67 punktu, przedziałowi 0,25 – 0,5 – 0,33 punktu, a wartościom poniżej 0,25 – 0 punktu. Wskaźnik
elastyczności czasu pracy obejmuje pięć elementów: ograniczenia dotyczące pracy
w nocy, ograniczenia dotyczące pracy w weekendy, możliwości przedłużenia tygodnia pracy do 5,5 dnia, wydłużenia dnia pracy do 12 godzin przez dwa miesiące w roku, długość płatnego urlopu. Za każdą odpowiedź pozytywną kraj otrzymywał 0 za
negatywną 1 punkt. Wskaźnik swobody zwalniania pracowników wyliczono na podstawie ośmiu elementów: brak przydatności jest podstawą zwolnienia pracownika,
w razie zwolnienia pracownika istnieje konieczność powiadomienia osób trzecich, w razie zwolnień grupowych (powyżej 20 zatrudnionych) występuje obowiązek uzyskania zgody osób trzecich, wymóg prawny dotyczący przeszkolenia nowo zatrudnianych, występowanie zasad dotyczących kolejności zwolnień i kolejności powtórnego zatrudnienia. Odpowiedzi twierdzące na pytanie powodowały przyznanie od 2 –
10 punktów. Uzyskane wyniki przeskalowano do 100 punktów. Im mniejsza wartość, tym bardziej elastyczne okazują się regulacje [Doing Business… 2007]. Pozapłacowe koszty pracy obejmują wszystkie opłaty, jakie ponosi przedsiębiorca w związku z zatrudnieniem pracownika. Zostały wyliczone jako procent płaconej pensji. Przykładowymi kosztami mogą być: zasiłki chorobowe, urlopy macierzyńskie, dodatki
mieszkaniowe, składki na ubezpieczenie społeczne itp. Wskaźnik ochrony inwestorów jest średnią trzech wskaźników : jawności, odpowiedzialności członków zarządu oraz swobody wytaczania przywództwa przez udziałowców. Wskaźnik jawności
obejmuje pięć elementów, które określają możliwość wyrażenia zgody na prawomocną transakcję. Uwzględnia się udział organów spółki do przeniesienia stosownych uprawnień. Wskaźnik zawiera się w przedziale 0 – 10 i im wyższa wartość, tym
większa jawność. Wskaźnik zakresu odpowiedzialności określa zakres odpowiedzialności członków zarządu za podejmowane decyzje. Przyjmuje on wartości
48
Andrzej Buszko
w przedziale 0 – 10. Wyższa jego wartość dowodzi wyższej odpowiedzialności zarządu za podejmowane decyzje. Tym samym udziałowcy posiadają możliwość dochodzenia ewentualnych swoich roszczeń na drodze prawnej. Wskaźnik swobody wytyczania powództwa przez udziałowców obejmuje elementy stanowiące odpowiedź
na następujące pytania:
–
jakie dokumenty powód może uzyskać w trakcie procesu;
–
czy powód może zadawać pytania w czasie procesu;
–
czy zadawanie pytań musi być poprzedzone zgodą sądu;
–
czy zakres dowodów w sprawach cywilnych jest węższy niż w sprawach karnych;
–
jaki udział w spółce powinny posiadać jej udziałowcy.
Wskaźnik także zamyka się w przedziale 0 – 10 i im jest on większy, tym wyższa
okazuje się swoboda wytaczania przywództwa przez udziałowców [Doing Business 2007
2006].
Wskaźnik zakresu uprawnień odzwierciedla stopień w jakim przepisy, dotyczące
zabezpieczeń kredytowych i upadłości, chronią prawa kredytobiorców i kredytodawców oraz ułatwiają udzielenie kredytów. Obejmują one siedem elementów odnoszących się do przepisów zabezpieczeń kredytowych i trzy prawa upadłościowego. Za
każdą z następujących cech przepisów przyznano jeden punkt:
–
w umowach o zabezpieczenie kredytu nie jest wymagany szczegółowy, lecz
ogólny stan aktywów;
–
każda osoba prawna lub fizyczna może udzielić zabezpieczenia na majątku
lub przyjmować takie zabezpieczenie;
–
ujednolicony rejestr kredytobiorców obejmuje także zabezpieczenia na aktywach ruchomych;
–
zabezpieczeni wierzyciele mają pierwszeństwo poza procedurą upadłościową;
–
zabezpieczeni wierzyciele spłacani są jako pierwsi;
–
zabezpieczeni wierzyciele mogą zająć aktywa, gdy dłużnik przechodzi reorganizację;
–
w przypadku reorganizacji spółką kieruje syndyk;
–
strony mogą uzgodnić w umowie sposoby egzekucji;
–
wierzyciele mogą w drodze pozasądowej przejąć przedmiot zabezpieczenia;
–
wierzyciele mogą sprzedać przedmiot zabezpieczenia.
Tym samym wartość wskaźnika wynosi od 0 do 10. Wyższe wartości oznaczają,
że krajowe przepisy, odnoszące się do zabezpieczenia kredytu i upadłości, zapewniają większy zakres uprawnień [Doing Business 2007 2006].
Zagraniczną pomoc, jaką skierowano do badanej grupy państw, porównano z dynamiką PKB. Przyjęto założenie, iż zagraniczna pomoc przeznaczona na poprawę
warunków działalności gospodarczej korzystnie wpływa na dynamikę PKB.
W pracy w podstawowym stopniu oparto się na wydawnictwach Banku Światowego, w tym przede wszystkim opracowaniu pt. Doing Business 2007, która jest wspólną publikacją Banku Światowego, Międzynarodowej Korporacji Finansowej, NBP,
Ocena efektywności wybranych programów pomocowych…
49
Fundacji Ius et Lex oraz Instytutu Badań nad Gospodarką Rynkową. Posłużono się
miernikami stosowanymi przez Bank Światowy. Publikacja Doing Business jest sukcesywnie wydawanym opracowaniem przez World Bank, która przedstawia warunki
działania w zdecydowanej większości państw. Wykorzystano także studium pt. Global
Monitoring Report 2007: Confronting the Challenges of Gender Equality and Fragile States. Analizie poddano lata 2000 – 2006.
4. Prezentacja i omówienie wyników badań
Zgodnie z przyjętą metodologią badań, w tabeli 3 zaprezentowano warunki rozpoczęcia działalności gospodarczej w wybranej grupie słabo rozwiniętych gospodarczo państw.
TABELA 3.
Warunki rozpoczęcia działalności gospodarczej w Laosie, Tadżykistanie,
Mozambiku, Paragwaju, Boliwii, w latach 2000 – 2006
Wymagania
Laos
Liczba formalności
Czas rejestracji spółki
w dniach
Koszt (% dochodu)
Minimalny kapitał
Wskaźnik elastyczności
zatrudnienia (0 – 100)
Wskaźnik elastyczności
czasu pracy (0 – 100)
Wskaźnik elastyczności
prawa pracy (0 – 100)
Koszt zatrudnienia
Liczba formalności
przy rejestracji obiektu
Koszt rejestracji
Czas rejestracji (dni)
8
Tadżykistan
14
163
Mozambik
Zambia
Paragwaj
Boliwia
13
6
17
15
67
113
35
74
50
17,3
0,0
75,1
378,6
85,7
10,4
30
1,9
136,8
0,0
140,7
3,8
11
33
83
0
56
61
40
20
60
40
60
60
37
31
54
23
59
74
5
25
4
11
17
14
9
6
8
6
6
7
4,2
135
2,0
37
5,4
42
9,6
70
2,0
46
5,0
92
Źródło: zestawienie na podstawie: Doing Business 2007 [2006].
Trudno jest jednoznacznie wskazać, w której grupie państw występują najkorzystniejsze warunki rozpoczęcia działalności gospodarczej. Liczba formalności
niezbędnych do zarejestrowania spółki z ograniczoną odpowiedzialnością w Zambii
wynosi 6, Laosie 8, Boliwii 15, Paragwaju 17, Tadżykistanie 14, a w Mozambiku 13.
Najkrótszy czas rejestracji spółki jest w Zambii i wynosi 35 dni, w Boliwii 50 dni, Tadżykistanie 67 dni i był on prawie dwa razy krótszy, aniżeli w Mozambiku, 113 dni.
Najdłużej rejestruje się spółkę w Laosie aż 163 dni. Najniższe koszty założenia spółki
z ograniczoną odpowiedzialnością okazały się w Laosie, gdzie wynoszą 17,3% do-
50
Andrzej Buszko
chodu per capita mieszkańca tego państwa. Natomiast w Zambii koszty stanowią
30% dochodu per capita, Tadżykistanie 75,1%, a Mozambiku 85,7% dochodu per capita. Najwyższe koszty wystąpiły w krajach Ameryki Południowej, tj. Paragwaju
136,8% i Boliwii 140,7% dochodu per capita. W Tadżykistanie wymagano największego minimalnego kapitału niezbędnego do założenia spółki, była to równowartość
378,6% dochodu per capita. W pozostałych krajach wymaganie było zdecydowanie
mniejsze. Brak niezbędnej wysokości kapitału założycielskiego wprowadziły Laos
i Paragwaj. Relatywnie niski wymóg minimalnego kapitału obowiązywał w pozostałych krajach: Mozambiku 10,4% dochodu per capita, Boliwii 3,8%, Zambii 1,9% dochodu per capita. Pewnym zaskoczeniem jest wysoka elastyczność współczynnika zatrudnienia w Zambii, która przyjęła wartość 0. Wysoką elastyczność na poziomie 11
punktów odnotowano w Laosie, Tadżykistanie 33, Paragwaju 56, a Boliwii 60. Najmniej elastyczny rynek zatrudnienia wystąpił w Mozambiku, gdyż wartość współczynnika osiągnęła poziom 83 punktów. Wskaźnik elastyczności czasu okazał się
relatywnie niski. Najbardziej elastyczny okazał się w Tadżykistanie, gdzie wyniósł 20
punktów, w Zambii i Laosie 40 punktów, natomiast w pozostałych krajach 60 punktów. Najniższą wartość wskaźnik elastyczności prawa pracy wystąpił w Zambii,
gdzie osiągnął wartość 23 punktów. W pozostałych krajach współczynnik zamknął
się w przedziale 31 – 74 punktów. Najniższe koszty zatrudnienia posiada Mozambik,
wynoszące 4% miesięcznych poborów pracownika. Na zbliżonym poziomie okazały
się koszty w Laosie, gdzie stanowiły wartość 5% poborów. Natomiast wśród innych
analizowanych krajów koszty oscylowały w graniach 11 – 25% miesięcznych poborów pracownika.
We wszystkich analizowanych krajach liczba formalności przy rejestracji obiektu
była do siebie zbliżona i zamykała się w przedziale 6 – 9. Najniższe koszty rejestracji zapewnia Tadżykistan oraz Paragwaj 2% wartości obiektu, następnie Laos 4,2%
wartości obiektu. W Mozambiku i Boliwii koszty były do siebie zbliżone i wynosiły
odpowiednio 5,4 oraz 5% wartości obiektu. Największe koszty ponosi potencjalny
właściciel w Zambii 9,6% wartości obiektu. Najkrócej rejestracja trwa w Tadżykistanie 37 dni, w Mozambiku 42 dni, Paragwaju 46 dni, w Zambii 70 dni, Boliwii 92 dni,
a najdłużej w Laosie 135 dni.
Znaczne zróżnicowanie warunków występuje także w odniesieniu do prowadzenia działalności gospodarczej, co przedstawia niżej zamieszczona tabela.
Liczba płaconych podatków, czas poświęcony na ich opłatę oraz wysokość obciążeń podatkowych (liczona jako% zysku brutto) zdecydowanie preferuje Laos i Paragwaj. W Laosie jest 31 podatków, Paragwaju 33. W Boliwii przedsiębiorca musi
uiszczać 41 podatków, ale zajmuje mu to 1080 godzin w roku. Największą liczbę podatków odnotowano w Tadżykistanie 55, ale czas potrzebny na ich uiszczenie jest relatywnie krótki, zaledwie 224 godziny. W Mozambiku i Zambii liczba podatków jest
identyczna 36, ale występuje znaczne zróżnicowanie pod względem czasu ich uiszczenia, odpowiednio 230 oraz 132 godziny w roku. Najwyższe podatki są płacone
w Tadżykistanie 87% zysku brutto, nieznacznie mniejsze obciążenia występują w Boliwii 80,3% zysku brutto. Najmniejsze okazują się być w Zambii 22,5% zysku brutto.
W pozostałych krajach wysokość obciążeń podatkowych jest do siebie zbliżona
Ocena efektywności wybranych programów pomocowych…
51
i zamyka się w przedziale 32,5% – 43,3% zysku brutto. Największy poziom ochrony
inwestora ma miejsce w Zambii, gdzie wynosi 7 punktów, w Boliwii 4,3 punktów,
Tadżykistanie i Mozambiku 4 punkty. Najniższą wartość wskaźnik ochrony inwestora występuje w Laosie 2 punkty. Kraje Ameryki Południowej zdecydowanie przodują w zakresie informacji kredytowej oraz pokrycia kredytobiorców bądź to przez
rejestry publiczne lub prywatne. Wskaźnik informacji kredytowej waha się w wm. krajach w granicach 3 – 6 punktów, natomiast wskaźnik pokrycia kredytobiorców wynosi od 10,6% do 52,2%. W Laosie, Tadżykistanie, Zambii wskaźnik informacji kredytowej wynosi 0 i brak jest pokrycia kredytobiorców przez stosowne rejestry. W Mozambiku wskaźnik informacji kredytowej jest niski i wynosi 3 punkty, a pokrycie
kredytobiorców przez rejestry publiczne wynosi 0,7%. Najwyższy wskaźnik jawności występuje w Mozambiku i wynosi 7 punktów, w Paragwaju 6, Zambii 3 punkty.
W Boliwii wskaźnik wynosi tylko 1 punkt, a w pozostałych państwach 0. Wskaźnik
zakresu odpowiedzialności jest identyczny w krajach Ameryki Południowej, gdzie
przyjął on wartość 5 punktów. W Zambii 6 punktów, najniższą wartość osiąga on
w Tadżykistanie 0 punktów.
TABELA 4.
Warunki prowadzenia działalności gospodarczej w Laosie, Tadżykistanie,
Mozambiku, Zambii, Paragwaju, Boliwii, w latach 2000 – 2006
Warunki
Liczba płaconych podatków
Czas opłat (godziny
w roku)
Wysokość podatku
(% zysku brutto)
Wskaźnik poziomu
ochrony inwestora
Wskaźnik informacji
kredytowej
Pokrycie rynku przez
rejestr publiczny
Pokrycie rynku przez
rejestr prywatny
Wskaźnik zakresu jawności
Wskaźnik zakresu odpowiedzialności
Wskaźnik roszczenia
Liczba dokumentów
eksportowych
Liczba dokumentów
importowych
Laos
Tadżykistan
Mozambik
Zambia
Paragwaj
Boliwia
31
55
36
36
33
41
180
224
230
132
328
1080
32,5
87
39
22,5
43,3
80,3
2
4
4
7
3
4,3
0
0
3
0
6
5
0
0
0,7
0
10,6
11,5
0
0
0
0
52,2
32,3
0
0
7
3
6
1
3
0
2
6
5
5
3
5
6
7
6
7
12
14
6
16
9
12
16
10
16
19
13
12
Źródło: zestawienie na podstawie Doing Business 2007 [2006].
52
Andrzej Buszko
Zbliżone wyniki osiągnięto w zakresie pokrycia roszczeń. We wszystkich krajach
wskaźnik przyjmuje relatywnie wysoką wartość w przedziale 3 – 7 punktów. W analizowanej grupie państw wymaga się stosunkowo dużej liczby dokumentów podczas realizacji transakcji w handlu zagranicznym. Najwięcej wymagają władze Zambii 35 dokumentów, z czego 19 dokumentów w imporcie, a 16 w eksporcie. Najmniej dokumentów obowiązuje w Mozambiku oraz Paragwaju 22. Wszystkie kraje starają się zmniejszyć liczbę dokumentów eksportowych i występuje w tej grupie państw
pewna zależność, która sprowadza się do tego, że liczba dokumentów importowych
jest większa od eksportowych. Wyjątkiem jest Tadżykistan, gdzie liczba dokumentów
eksportowych wynosi 14, a importowych tylko 10.
Warunki zakończenia działalności gospodarczej także różnicują analizowane grupy
państw. Każdy z przedsiębiorców powinien posiadać swobodę i odpowiednie ułatwienia w zakresie zakończenia lub zawieszenia prowadzenia biznesu. Nie wszystkie
okoliczności przedsiębiorca jest w stanie określić na wstępnym etapie analiz. Sytuacja w trakcie prowadzenia może się diametralnie zmienić i przedsiębiorstwo nie może stać się pułapką, w której właściciele ponoszą przez długi okres straty.
TABELA 5.
Warunki zakończenia działalności gospodarczej w Laosie, Tadżykistanie,
Mozambiku, Zambii Paragwaju, Boliwii, w latach 2000 – 2006
Warunki
Liczba formalności przy
dochodzeniu należności
Czas dochodzenia
(w dniach)
Koszty dochodzenia
(% roszczenia)
Okres likwidacji
(w latach)
Koszty likwidacji
(% majątku)
Stopa odzyskania należności (w centach za
dolara)
Laos
Tadżykistan
Mozambik
Zambia
Paragwaj
Boliwia
53
46
38
21
46
47
443
257
1010
404
478
591
30,3
10,3
132
28,7
39,8
10,5
5
3
5
3,1
3,9
1,8
76
9
9
9
9
15
0,0
39,1
15
22
15,4
37,6
Źródło: zestawienie na podstawie: Doing Business 2007 [2006].
W krajach afrykańskich występuje relatywnie najniższa liczba formalności przy dochodzeniu należności. Liczba w przypadku Zambii wynosi 21, a Mozambiku 38.
W Tadżykistanie oraz Paragwaju liczba formalności wynosi 46, a w Laosie 53. Czas
dochodzenia (rozumiany jako długość standardowego postępowania sądowego)
najdłuższy jest w Mozambiku i wynosi 1010 dni, najkrótszy okres dochodzenia ma
miejsce w Tadżykistanie 257 dni, Zambii 404 dni, w Laosie 443 dni, a w Boliwii 591
dni. Koszty dochodzenia należności, za wyjątkiem Mozambiku, są do siebie zbliżone. Wahają się one w przedziale 10,3% – 39,8% wartości roszczenia. Najniższe
Ocena efektywności wybranych programów pomocowych…
53
okazują się w Tadżykistanie i wynoszą 10,3%. Najwyższe koszty występują w Mozambiku, gdzie wynoszą 132% wartości roszczenia. W Mozambiku i Laosie ma miejsce najdłuższy okres likwidacji przedsiębiorstwa, wynosi on 5 lat, następnie w Paragwaju 3,9 lat, Tadżykistanie 3 lata. Najkrótszy okres gwarantuje Boliwia 1,8 lat. Kraj
ten zapewnia także relatywnie niskie koszty likwidacji przedsiębiorstwa 15% majątku. Najwyższe koszty występują w Laosie aż 76% majątku. W pozostałych państwach koszty są identyczne i wynoszą 9% majątku likwidowanego przedsiębiorstwa.
Najwyższą stopę odzyskania należności zapewnia Tadżykistan 39,1 centów za dolara. Relatywnie wysokie należności gwarantuje Boliwia 37,6 centów za dolara. Laos
nie gwarantuje odzyskania żadnych należności. W Mozambiku i Paragwaju stopa
odzyskania jest do siebie zbliżona i wynosi odpowiednio 15 oraz 15,4 centów za dolara. W Zambii wskaźnik osiąga 22 centów za dolara.
Na podstawie powyższej analizy można stwierdzić, że relatywnie najlepsze warunki działalności gospodarczej występują w Zambii, Boliwii oraz Paragwaju. W pozostałych krajach warunki odbiegają od wyżej wymienionych państw. Bardzo istotnym parametrem różnicującym analizowaną grupę państw jest struktura udzielanej
zagranicznej pomocy. W Zambii, Boliwii oraz Paragwaju pomoc kierowano na poprawę warunków działalności gospodarczej oraz konsulting, natomiast w drugich krajach przeważa: pomoc humanitarna, ułatwienia eksportowe, redukcja zadłużenia oraz
wsparcie inwestycji.
TABELA 6.
Struktura pomocy zagranicznej udzielonej Laosowi, Tadżykistanowi, Mozambikowi, Zambii Paragwajowi, Boliwii, w latach 2000 – 2006 (%)
Forma pomocy
Laos
Tadżykistan
Mozambik
Zambia
Paragwaj
Boliwia
Redukcja
Pomoc huKonsulting
zadłużenia
manitarna
22
6
15
4
10
7
7
28
10
12
17
10
29
19
39
4
13
15
Poprawa
Wsparcie warunków Ułatwienia
inwestycji działalności eksportowe
gospod.
5
19
18
26
15
6
4
9
23
11
64
5
16
38
6
11
45
12
Źródło: opracowanie na podstawie: Harmonization and Alignment for Greater Aid Effectiveness. An Update on Global Implementation and Bank’s Commitments [2006]; Fragile States: Policy Commitment and Principels for Good International Engagement in Fragile States and Situations [2006]; OECD Statistics [2007].
W latach 2000 – 2006 największy udział, bo aż 64% pomocy zagranicznej skierowanej do Zambii, dotyczył poprawy warunków działalności gospodarczej. W Boliwii udział
ten wyniósł 45%, a w Paragwaju 38% całości udzielonej pomocy. W pozostałych
krajach udział ten nie przekroczył 20%. Najmniejszy udział pomocy zagranicznej
na poprawę warunków działalności zagranicznej odnotowano w Mozambiku, zaledwie 9%. Kraj ten otrzymał jednak relatywnie wysoki 22% udział w redukcji zadłu-
54
Andrzej Buszko
żenia. W Mozambiku największy udział w pomocy zagranicznej zajmowała pomoc
humanitarna 39%. W strukturze udzielonej Zambii pomocy, znaczny udział 11%,
zajmowało wsparcie inwestycji. Należy podkreślić, że kraj ten dysponuje strategicznymi surowcami (jest czwartym światowym eksporterem miedzi) i wsparcie zagranicznego kapitału w wydobyciu oraz przetwórstwie należy uznać za właściwe działalnie. Jednocześnie kraj ten odnotował relatywnie wysoki udział konsultingu aż
12% w całości udzielonej pomocy. Największy udział konsultingu miał miejsce
w Tadżykistanie, gdzie stanowił aż 28% wszystkich zagranicznych środków. W tym
kraju odnotowano również największy udział wsparcia inwestycji, które wyniosły
26% całkowitej pomocy. Warto zwrócić uwagę, że kraje, które nie otrzymały znacznej pomocy na poprawę warunków działalności gospodarczej, otrzymały relatywnie
wysoki udział w ułatwieniach eksportowych. W Mozambiku udział takiej pomocy
stanowił aż 23% wszystkich środków, a w Laosie 18%. Natomiast Zambia, Boliwia
(które otrzymały znaczny udział środków na poprawę warunków działalności gospodarczej) nie dostały specjalnych ułatwień w dostępie na zagraniczne rynki.
Analizowaną grupę krajów wyróżnia znaczne zróżnicowanie w dynamice PKB,
co prezentuje tabela nr 7.
TABELA 7.
Dynamika zmian PKB w Laosie, Tadżykistanie, Mozambiku, Zambii, Paragwaju, Boliwii, w latach 2001-2006 (%)
Kraj / Rok
Laos
Tadżykistan
Mozambik
Zambia
Paragwaj
Boliwia
2000
100
100
100
100
100
100
2001
2
1
-1
0,2
0,2
0,1
2002
-1
-0,1
-1,1
0,4
0,3
1,2
2003
-0,5
0,2
2.0
2,3
0,6
3,3
2004
0,1
0,3
-0,2
2,7
1,1
3,9
2005
0,5
1,0
0,3
3,1
0,9
2,2
2006
0,2
0,1
0,1
3,8
2,3
2,0
Źródło: obliczenia własne na podstawie: OECD Statistics [2007].
Na tle badanych państw Zambia, Paragwaj oraz Boliwia charakteryzuje się stabilną wzrostową dynamiką zmian PKB. W Zambii trend jest wyraźnie wznoszący.
W 2001 roku dynamika PKB w porównaniu do roku poprzedniego zwiększyła się
co prawda tylko o 0,2%, ale w kolejnych latach dynamika okazała się większa i wyniosła w 2003 roku 0,4%, w 2003 roku 2,3%, w 2004 roku 2,7%, w 2005 roku 3,1%, a
w 2006 roku 3,8%. W Boliwii w latach 2001 – 2004 dynamika PKB była relatywnie
wysoka; zwiększyła się z wielkości 0,2% w 2001 roku do 3,9% w 2004 roku.
W 2005 roku odnotowano zmniejszenie dynamiki PKB do 2,2%, a w 2006 roku do
2,0%. W Paragwaju dynamika PKB okazała się mniejsza i podlegała wahaniom
w granicach 0,2% – 1,1%. Największy wzrost PKB miał miejsce w 2006 roku, kiedy
zwiększył się w porównaniu do okresu poprzedniego o 2,3%. W pozostałych krajach odnotowano większe wahania dynamiki PKB, a wzrost PKB okazał się mniejszy. W Laosie największy wzrost dynamiki PKB miał miejsce w 2001 roku, kiedy
wyniósł 2%. W 2002 roku i 2003 roku nastąpił spadek odpowiednio o 1% oraz
Ocena efektywności wybranych programów pomocowych…
55
0,5%. W kolejnych latach wzrost był na nieznacznym poziomie od 0,1% do 0,5%.
W Tadżykistanie PKB wahało się w bardzo wąskim przedziale od 0,1% do 1%.
Natomiast w Mozambiku okresy nieznacznego wzrostu (jaki miał miejsce np.
w 2003 roku 2,0%) były poprzedzone latami wyraźnego spadku PKB. W 2001 roku
spadek PKB wyniósł 1%, a w 2002 roku 1,1%. W 2005 roku oraz 2006 roku odnotowano nieznaczny wzrost PKB odpowiednio 0,3% i 0,1%.
5. Wnioski
Przeprowadzona analiza doprowadziła do szeregu istotnych wniosków. Pomoc zagraniczna przeznaczona dla państw słabo rozwiniętych gospodarczo powinna być kierowana na selektywne programy pomocowe. Pomoc skierowana bez wnikliwej analizy
będzie skazana na niepowodzenie – przyniesie nieznaczną poprawę sytuacji gospodarczej. W pierwszej kolejności zagraniczne środki należy przeznaczyć na poprawę warunków działalności gospodarczej, konsulting oraz wsparcie dla lokalnych inwestycji. Taka
działalność sprzyja poprawie dynamiki PKB. Natomiast wydatki na pomoc humanitarną, redukcję zadłużenia tylko chwilowo poprawiają sytuację w danym państwie i nie
przyczyniają się do zwiększenia PKB w dłuższym okresie. Można przyjąć, że doprowadziły nawet do niekorzystnych zjawisk. Potwierdzeniem powyższego sformułowania
jest fakt, że w krajach, które otrzymały duży udział wm. środków, w całkowitej sumie
pomocy odnotowano nawet spadki PKB. Ułatwienia eksportowe dla krajów słabo
rozwiniętych gospodarczo można uznać jedynie za potencjalną możliwość wpływającą
na wzrost gospodarczy. W przypadku sprzyjających warunków do prowadzenia działalności, oferta eksportowa wynika ze zwiększenia produkcji krajowej. Kraje słabo rozwinięte gospodarczo nie są w stanie zmienić struktury produkcji w taki sposób, aby była
zgodna z oczekiwaniami odbiorców zagranicznych. Natomiast brak warunków ogranicza produkcję, tym samym przyczynia się do spadku PKB i w konsekwencji kraje słabo
rozwinięte gospodarczo nie są w stanie w dłuższym czasie/okresie przedstawić (pomimo nawet preferencyjnych warunków dostępu na zagraniczne rynki) propozycji dostaw. Popyt wewnętrzny zmusza do skierowania dostaw na rynek krajowy, zwłaszcza
w przypadku braku odpowiedniej infrastruktury sprzyjającej włączeniu się w międzynarodowy podział pracy. W latach 2000 – 2006 struktura zagranicznej pomocy dla krajów
słabo rozwiniętych gospodarczo uległa zmianom. Zwiększono udział środków na
poprawę warunków dla działalności gospodarczej, konsulting, wsparcie inwestycji,
a zmniejszono udział na pomoc humanitarną, redukcję zadłużenia. Powyższa tendencja
nie objęła wszystkich państw, czego dowodzi przykład m.in. Mozambiku, Tadżykistanu
oraz Laosu. Należy przyjąć, że z upływem czasu nastąpi dalsza weryfikacja udzielanych
środków i zagraniczna pomoc skupi się na poprawie warunków do prowadzenia działalności gospodarczej. Podkreślić należy, że kraje słabo rozwinięte gospodarczo z reguły
dysponują: surowcami, korzystnym położeniem geograficznym, zasobami demograficznymi, stwarzającymi potencjalne warunki do poprawy sytuacji gospodarczej.
56
Andrzej Buszko
Literatura
Alun T. 2006 Do Debt -Service Savings and Grants Boost Social Expenditures?, IMF Working
Paper l06/180, Washington.
Beneditc C., Bhattacharya R. 2003 External Debt, Public Investment and Growth In LowIncome Countries, IMF Working Paper 03/249, Washington.
Chaudhury N., Hammer J., Kremer M., Muralidharan K., Rogers H.F. 2006 Missing
in Action: Teacher and Health Worker Absence in Developing Countries, ,,Journal of Economics Perspectives”, Vol. 20, No. 1.
Doing Business 2007 2006, Washington.
Fragile States: Policy Commitment and Principels for Good International Engagement in Fragile
States and Situations 2006, Paris.
Global Economic Prospects 2006, Washington.
Global Monitoring Report 2007: Confronting the Challenges of Gender Equality and Fragile
States 2007, Washington.
Harmonization and Alignment for Greater Aid Effectiveness. An Update on Global Implementation and Bank’s Commitments 2006, Washington.
http:// Reuters.com, z dn. 2007-06-12.
OECD Statistics 2007, Paris.
Serkan A., Blair P.H. 2003 The World’s Poorest Countries: Debt Relief or Aid, Stanford
Research Paper Series 1809, Stanford.
Torres M., Anderson M. 2007 Fragile States: Defining Difficult Enviroment For Poverty
Reduction, PRDE Working Paper 1, London.
OPTIMUM – STUDIA EKONOMICZNE NR 1 (37) 2008
Anna WILDOWICZ-GIEGIEL 1
KONSUMPCJA A SYSTEM WARTOŚCI POLSKIEGO
SPOŁECZEŃSTWA
Streszczenie
Cechą charakterystyczną, przypisywaną współczesnej kulturze, jest dominacja konsumpcji, która ogarnia
niemal wszystkie dziedziny życia, stając się wartością nadrzędną. Artykuł poświęcony został problematyce konsumpcji i jej miejscu w hierarchii wartości polskiego społeczeństwa. Autorka analizuje zmiany
w wielkości i strukturze konsumpcji polskich gospodarstw domowych, jakie dokonały się na przełomie lat 90-tych, na tle przeobrażeń zachodzących w obrębie ich systemu wartości. Znaczny udział spożycia w dochodach do dyspozycji w analizowanym okresie wynikał z relatywnie niskich dochodów realnych
gospodarstw domowych oraz z relatywnie niskiego standardu życia w porównaniu z krajami wysoko rozwiniętymi, co wpływa na względnie wysoką skłonność do konsumpcji, która się utrzymuje aż do chwili
obecnej. Wzrost znaczenia aspiracji materialnych w polskim społeczeństwie jest też niewątpliwie efektem
przenoszenia się pewnych wzorców kulturowych w skali międzynarodowej. Konsekwencją nasilających
się procesów globalizacyjnych są zachodzące zmiany w obrębie systemu wartości współczesnych społeczeństw, co znajduje swoje odzwierciedlenie w stylach życia, w tym w zachowaniach konsumpcyjnych.
CONSUMPTION AND THE SYSTEM OF VALUES OF THE POLISH SOCIETY
Summary
A characteristic feature, ascribed to contemporary culture, is a domination of consumption, which
spreads over almost all domains of life, and is becoming the main value. The article deals with the problem
of consumption and its place in the hierarchy of values in the Polish society. The author analyzes the
changes in the amount and in the consumption structure of Polish households that took place in the
1990s, which can be observed from the point of view of the present changes within the system of values. A significant amount of consumption in disposable income in the analyzed period of time is the
result of relatively low real incomes and of relatively low living standard of Polish households compared to the developed countries which influences a relatively high propensity for consumption until
now. Undoubtedly, the increase in material aspirations of the Polish society is also an effect of the
spread of the common cultural patterns on an international scale. The changes in the system of values
within contemporary societies are due to stronger globalization processes, what is reflected in their
lifestyles, including consumption behaviour patterns.
1 Dr Anna Wildowicz-Giegiel jest pracownikiem Wydziału Ekonomii i Zarządzania Uniwersytetu
w Białymstoku.
58
Anna Wildowicz-Giegiel
1. Wstęp
Konsumpcja stanowi przedmiot zainteresowań zarówno teoretyków ekonomii, koncentrujących się głównie na badaniu zachowań racjonalnych jednostek, jak i przedstawicieli innych nauk społecznych, w tym: socjologii, psychologii oraz antropologii kultury.
Badacze ci stworzyli alternatywny model konsumpcji poszerzony o kontekst społecznokulturowy, doszukując się dodatkowo przyczyn jej irracjonalności w psychologii społecznej. Wybory dokonywane przez konsumenta nie wydają się być bowiem czymś
przypadkowym, lecz są one z reguły odzwierciedleniem określonego modelu kulturowego. Oznacza to, że nie produkuje się ani też nie konsumuje zupełnie dowolnych
dóbr. Zdaniem Galbraitha, decyzje odnośnie konsumpcji dokonuje się pod naciskiem
perswazji. J.S. Duesenberry w swojej hipotezie dochodu względnego podkreśla także
rolę efektów zewnętrznych w konsumpcji, wynikających z wzajemnych kontaktów gospodarstw domowych [Duesenberry 1952 s. 26]. Nieświadomym i całkowicie automatycznym wyborem, jaki może dokonać jednostka, jest zaakceptowanie stylu życia poszczególnych członków społeczeństwa, co oznacza przyjęcie postawy konformistycznej. Potrzeby kierują się już nie tyle ku samym przedmiotom, lecz raczej ku pewnym
wartościom. Ich zaspokojenie oznacza jednocześnie akceptację tych wartości. Parsons
pisze, iż: celem gospodarki nie jest maksymalizacja produkcji przeznaczonej dla jednostki, lecz maksymalizacja produkcji w powiązaniu z systemem wartości społeczeństwa [Baudrillard 2006 s. 77].
Przeobrażenia, zachodzące w obszarze konsumpcji gospodarstw domowych, w Polsce w ostatnich latach uwarunkowane są niewątpliwe przemianami w sferze ekonomicznej, jak i społeczno-kulturowej. Zasadniczym celem tego artykułu jest zatem próba odpowiedzi na pytanie, jakie jest obecnie miejsce konsumpcji w systemie wartości polskiego społeczeństwa.
2. Konsumpcja jako wartość we współczesnej kulturze
Angielskie słowo consume (konsumować), pochodzące z XIV wieku, miało pierwotnie pejoratywne zabarwienie i oznaczało ono: zużycie, zniszczenie, marnotrawstwo. Terminu konsumpcja używano głównie wówczas w odniesieniu do jakiejkolwiek wyniszczającej choroby. Dopiero od połowy XIX wieku, a więc wraz z rozwojem ekonomii klasycznej, przyjęło się jego całkowicie neutralne, abstrakcyjne użycie,
które obowiązuje aż do dziś [Aldridge 2006 s. 10]. Zdaniem J.B. Saya (1767 – 1832),
konsumpcja to inaczej niszczenie wartości, tj. użyteczności rzeczy w całości lub częściowo. Konsumuje się usługi pracy, kapitału i ziemi, a nie samą zdolność do pracy,
potencjał wytwórczy czy też fundusz ziemi. Mimo że wartość (użyteczność) nie
może być zazwyczaj konsumowana dwukrotnie, to jednak może przyjąć inną formę,
w postaci konsumpcji reprodukcyjnej, czego doskonałym przykładem są wydatki
ponoszone na naukę i oświatę [Stankiewicz 2000 s. 180].
Teoria konsumenta stała się zasadniczym przedmiotem zainteresowań kierunku
subiektywno-marginalistycznego w latach 70. XIX wieku, w tym zwłaszcza szkoły psychologicznej (austriackiej). I tak, C. Menger (1840 – 1921) traktuje społeczeństwo
Konsumpcja a system wartości polskiego społeczeństwa
59
jako zwykłą sumę „potrzebujących” jednostek. Punktem wyjścia wszystkich poszukiwań teoretycznych jest potrzebująca natura ludzka oraz użyteczność, wynikająca
ze stosunku człowieka do rzeczy. Rozważania odnośnie konsumpcji i samego konsumenta pojawiają się także w szkole neoklasycznej, u W.S. Jevonsa (1835 – 1882),
który rozwinął subiektywną teorię wartości, opartą na koncepcji użyteczności krańcowej, czy też u A. Marshalla (1842 – 1924), twórcy koncepcji renty konsumenta. Z kolei największy wkład w rozwój teorii konsumenta w szkole matematycznej wniósł
m.in. V. Pareto (1848 – 1923), znany z koncepcji krzywych obojętności konsumenta.
Warto jednocześnie wspomnieć, iż zjawisko skłonności do konsumpcji zostało po
raz pierwszy przeanalizowane przez J.M. Keynesa (1883 – 1946). Zwraca on uwagę
na fakt, iż wydatki konsumpcyjne społeczeństwa zależą nie tylko wyłącznie od wielkości dochodu, a więc czynników obiektywnych, lecz również i od subiektywnych
potrzeb, skłonności psychicznych i zwyczajów.
W sensie ekonomicznym konsumpcja to proces zaspokajania potrzeb indywidualnych, jak i społecznych za pośrednictwem dostępnych na rynku dóbr i usług, które jednostka jest w stanie nabyć, dysponując określonymi możliwościami finansowymi. Zachowania konsumpcyjne mają swój wymiar i znaczenie społeczne, na co
zwrócił uwagę m.in. T. Veblen (1857 – 1929), opisując ówczesny system społecznoekonomiczny, w tym klasę próżniaczą nastawioną na zysk i konsumpcję na pokaz.
Konsumpcja w takim ujęciu stanowi pewien rodzaj moralności, czy też inaczej mówiąc system wartości ideologicznych, sposób komunikacji, strukturę wymiany. I tak,
można przyjąć, iż konsumpcja staje się zarazem czynnym i zbiorowym zachowaniem, jest: przymusem, nakazem, moralnością, instytucją, całym systemem wartości,
wraz z wszystkim tym, co pojęcie to implikuje, tj. pełnionymi przezeń funkcjami
integracji grupowej i kontroli społecznej [Baudrillard 2006 s. 94].
Powszechnie wiadomo, że współczesna kultura konsumencka nie mieści się już
w żadnych konkretnych granicach, ponieważ przyjmuje coraz bardziej globalny charakter. Globalizacja w wymiarze kulturowym prowadzi do rozprzestrzeniania się systemów wartości i norm, stylów życia oraz wzorców konsumpcji. Do jednego z podstawowych nośników globalizacji zalicza się m.in. konsumpcję. Pojawienie się kultury masowej przyczynia się oczywiście do upodobniania się nowych wzorów spożycia i zachowań konsumenckich. Zetknięcie się z obcymi kulturami stało się możliwe dzięki środkom masowego przekazu, zwłaszcza telewizji, a także poprzez Internet. Procesom tym
sprzyja ożywiony ruch turystyczny oraz częste migracje ludności. Prowadzi to do umacniania się kultury masowej czy też tzw. homogenizacji kulturowej [Bogunia-Borowska,
Śleboda 2003 s. 34]. Szczególnie ważną rolę odgrywają w tym procesie osiągnięcia
w dziedzinie elektronicznego przetwarzania informacji i transmisji satelitarnej. Kreują
one tzw. nadrzeczywistość. Zdaniem Vattimo (1992), społeczeństwo żyje w dynamicznie zmieniającym się otoczeniu, na które niezwykle silny wpływ wywierają elektroniczne
media. Świat przez nie kreowany staje się rzeczywistością. W związku z czym pojawia
się aspekt tzw. hiperrzeczywstości, rozumiany jako skłonność i zamiłowanie członków
danej kultury do konstruowania własnej rzeczywistości. Konsumenci z wielkim entuzjazmem włączają się w proces takiej właśnie stymulacji. Pojawia się kultura cybernetyczna, która oznacza społeczną transformację, wywołaną na skutek nowych technolo-
60
Anna Wildowicz-Giegiel
gii informatycznych i telekomunikacyjnych. Te osiągnięcia technologiczne pozwalają na
kreację nowych form własnej tożsamości, sposobów komunikacji i konsumpcji [FaultFirat, Venkatesh 1995 s. 253]. W zakresie zachowań konsumenckich mają równocześnie
miejsce tendencje zupełnie odwrotne. Bowiem to właśnie dzięki konsumpcji można
podkreślić swój indywidualizm, co pozwala na aktywne kreowanie własnej osobowości.
Konsument dzięki nabywaniu określonych dóbr i uczestnictwie w rozrywkach konstruuje swój własny styl życia, stara się zatem odróżnić od otaczającego go otoczenia, nie
akceptując narzuconego wzorca konsumpcji, jaki oferuje mu kultura masowa. Według
francuskiego socjologa P. Bourdieu, konsumpcja zaczyna oddziaływać jako system klasyfikacyjny. Przy czym symbolika tej konsumpcji wydaje się być szczególnie istotna,
gdyż skojarzenia symboliczne wywoływane przez określone dobra materialne są wykorzystywane w celu podkreślenia różnic w stylach życia.
Konsument żyjący w społeczeństwie konsumpcyjnym różni się zdecydowanie od
swoich przodków. Jeżeli filozofowie, poeci i kaznodzieje naszych przodków rozważali, czy pracuje
się, żeby żyć, czy też żyje się, żeby pracować, to współcześnie najczęściej roztrząsanym dylematem jest to,
czy musimy konsumować, żeby żyć, czy też żyjemy, a więc możemy konsumować; czy ciągle jeszcze potrafimy oddzielić życie od konsumpcji i czy czujemy taką potrzebę [Patrzałek 2004 s. 40]. Społeczeństwo konsumpcyjne funkcjonuje w otoczeniu niezliczonej masy dóbr. Konsumenci
poświęcają znaczną część swojego czasu na nabywanie coraz to nowszych produktów
oraz pracę, która warunkuje owe zakupy. Istnieje kilka powodów, dlaczego jednostki
przypisują tak wysoką wartość do dóbr materialnych. Po pierwsze, zgodnie z klasycznym ujęciem, wynika to z użyteczności tych dóbr. Posiadanie dostarcza wiele przyjemności i satysfakcji. Po drugie, z antropologicznego punktu widzenia, dobra mają zasadnicze znaczenie w budowaniu i w wyrażaniu więzi społecznych. Dużą uwagę przywiązuje się również do znaczenia dóbr w procesie kreowania własnej tożsamości. Pewne
rzeczy mogą być wysoko cenione ze względu na to, że wyrażają określone wartości osobiste bądź też religijne [Richins 1994 s. 507]. Zwraca się szczególną uwagę na charakter
współczesnej konsumpcji. Jednostka nie kieruje się tutaj zasadą użyteczności krańcowej,
ponieważ przedmioty, które pragnie konsumować posiadają dla niej jedynie określoną
wartość symboliczną, co stanowi gwarancję osiągnięcia odpowiedniego statusu społecznego. Wobec tego satysfakcja czerpana z tytułu posiadania dóbr ma przede wszystkim
podłoże zewnętrzne. W związku z czym użyteczność rozpatrywana jest w kontekście
widoczności, zaś zadowolenie wynika nie z bezpośredniego konsumowania dóbr, lecz
raczej z możliwości ich wyeksponowania [Redmond 2001 s. 6].
Wzrost znaczenia konsumpcji sprawił, iż współczesne społeczeństwo nie praktykuje
już odroczonej gratyfikacji, jednego z podstawowych filarów etyki protestanckiej. Takie
wartości kulturowe jak oszczędność i praca, występujące w epoce modernizmu, ustępują więc miejsca wszechobecnej konsumpcji, która staje się wartością nadrzędną. Zachodzące przeobrażenia społeczno-kulturowe wywierają niezwykle istotny wpływ na
gospodarstwo domowe. Po pierwsze, składa się ono ze zdecydowanie mniejszej liczby
osób. Po drugie, zauważa się większą niezależność jego członków, co się wiąże również
ze zmianami ról społecznych. Pojawia się tzw. rozczłonkowanie. Zanik nadrzędnych
wartości i ideologii sprawił, iż nie można się już opierać wyłącznie na dotychczasowych
stylach życia. Istnieje wielość stylów, poprzez które jednostki dążą do samorealizacji
Konsumpcja a system wartości polskiego społeczeństwa
61
oraz do ekspresji swoich uczuć i poglądów. Poszukiwania przez konsumentów własnego stylu życia prowadzą do przeobrażenia struktury społecznej. W miejsce klas społecznych powstają mikrostruktury, co umożliwia pełniejsze zaspokajanie potrzeb. Duże
znaczenie w tym procesie odgrywa wielokulturowość, która to uzyskuje powszechną
akceptację. Społeczeństwo ulega procesom daleko idącej fragmentaryzacji i dekompozycji. Z drugiej strony, należy też koniecznie wspomnieć o zjawiskach całkowicie im
przeciwstawnych, czego doskonałym przykładem jest chociażby proces wspomnianej
uprzednio homogenizacji kulturowej.
Współczesna kultura postmodernistyczna wyróżnia się pochwałą hedonizmu, a centralnym punktem modelu konsumpcji stają się ludzkie pragnienia i rozrywka. Konsumpcja, uzyskując pełną autonomię, uniezależnienia się od sfery produkcji. W kulturze konsumenckiej dobra materialne otrzymują znaczenie i charakter artykułów
handlowych, tylko wyłącznie dzięki ich zanurzeniu w systemie symboli. Wskutek coraz szybszego obiegu dóbr zaciera się związek między obrazami a rzeczywistością.
Stanowi to istotę kultury postmodernistycznej. Produkty istnieją nie tylko w sensie psychofizycznym, ponieważ oddziałują także na życie samego konsumenta oraz jego
kontakty z otoczeniem. To właśnie produkt w momencie konsumpcji umożliwia kreowanie tożsamości konsumenta. Przedmioty wydają się niejako wyznaczać warunki
i sposoby konsumpcji. Zaobserwować można zjawisko dekoncentracji podmiotu.
Wybory i doznania wyznaczają gusty konsumentów. Oddziałują one na wyznawane
przez nich wartości oraz kształtują styl życia i wzorce zachowań [Zachowania… 2001
s. 339]. Zaobserwowane procesy i przeobrażenia w sferze społeczno-kulturowej
mają także miejsce w polskiej gospodarce, co ma dość istotny wpływ na skłonność
do konsumpcji i oszczędzania gospodarstw domowych w Polsce.
Nie ulega wątpliwości, iż społeczeństwo konsumpcyjne zaistniało jako efekt cywilizacyjno-kulturowego rozwoju w krajach, które spełniły obiektywne warunki dotyczące
rozwoju gospodarki, zasad wolnego rynku oraz swobód obywatelskich. Większość
członków społeczeństwa konsumpcyjnego staje się bezpośrednimi beneficjentami korzyści, jakie wynikają z tytułu wzrostu produktywności oraz stale powiększanego asortymentu dóbr i usług. Przyczyniło się to do poprawy standardu życia w porównaniu
z poprzednimi epokami, w wyniku czego wzrosło też znaczenie dóbr materialnych
[Matsuyama, Kiminori 2002 s. 36]. Nie dziwi więc fakt, że głównymi wartościami
współczesnej kultury konsumenckiej stają się coraz częściej wartości utylitarne i hedonistyczne. Konsumeryzm totalizuje życie społeczne, stanowiąc pewnego rodzaju ostateczny punkt odniesienia, kryterium sukcesu jednostek, jak i całego społeczeństwa. Jednak wszechobecna dominacja konsumpcji, która pełni funkcję jednego z głównych regulatorów procesów społecznych i czynników reprodukcji istniejącego porządku
w świecie współczesnym, budzi niepokój. Wynika to z przekonania, że zachowania
konsumpcyjne nie powinny zdominować innych sfer życia, w tym rozwój intelektualny
i duchowy. Przesuwanie się ku górze hierarchicznego układu wartości hedonistycznych
i materialnych, które są eksponowane w różnych, nie tylko reklamowych, tekstach kultury, świadczy o głębszej zmianie, a nie tylko chwilowej modzie. Przypuszcza się, że to
konsumpcja będzie wartością regulatywną XXI wieku, zaś jej potężnym wehikułem reklama [Pawłowska 2002 s. 352 – 353].
62
Anna Wildowicz-Giegiel
3. Skłonność do konsumpcji polskich gospodarstw domowych
w latach 1995 – 2005
Dążenie do podnoszenia standardu materialnego jest powszechnie akceptowaną
normą społeczną, co odpowiada ideologii gospodarki rynkowej, napędzanej konsumpcyjnymi aspiracjami społeczeństwa. W przypadku społeczeństwa polskiego, które przeszło od sytuacji niedoboru do nadmiaru dóbr, nastąpił wzrost znaczenia konsumpcji. Zjawisko reorientacji na wartości materialne należy zatem postrzegać jako
reakcję na odczuwany wcześniej niedostatek. Bowiem niemożliwe dotąd do zdobycia dobra znalazły się nagle w warunkach rozwijającego się rynku w wyobrażalnym
zasięgu czasu i pieniędzy [Sikorska 1998 s. 91]. Stąd też pojawiła się w latach 90tych chęć zwiększania konsumpcji niemal we wszystkich grupach społecznych.
Przeprowadzone w latach 90-tych badania nad zachowaniem konsumentów wskazują, że pomimo spadku dochodów realnych w pierwszym okresie transformacji nastąpił wzrost skłonności do wydawania i konsumpcji. Była to oczywiście typowa reakcja, która została wywołana obfitością podaży. Z drugiej strony takie zachowania
można również wytłumaczyć efektem permanentnego niedoinwestowania i niedoborów poprzednich lat. W omawianym okresie gospodarstwa domowe zwiększyły
konsumpcję finansowaną z dochodów osobistych, co wynikało niewątpliwie z chęci
utrzymania dotychczasowego realnego poziomu konsumpcji. Utrzymywał się dynamiczny nominalny wzrost skłonności do konsumpcji, który przewyższał skłonność do oszczędzania. Z przedstawionych poniżej danych wynika, iż występował w latach 1995 – 2005 stały wzrost skłonności do konsumpcji. W roku 2005 udział wydatków na konsumpcję w dochodzie rozporządzalnym wynosił ponad 94%.
TABELA 1.
Współczynniki skłonności do konsumpcji w latach 1995 – 2005
Przeciętna skłonność do konsumpcji
Rok
Wartość
1995
0,878
1996
0,875
1997
0,910
1998
0,925
1999
0,946
2000
0,945
2001
0,946
2002
0,913
2003
0,946
2004
0,984
2005
0,943
Krańcowa skłonność do konsumpcji
Lata
Wartość
1994/1995
0,87
1995/1996
0,98
1996/1997
1,22
1997/1998
1,12
1998/1999
1,33
1999/2000
1,0
2000/2001
0,76
2001/2002
0,19
2002/2003
2,2
2003/2004
0,72
2004/2005
0,19
Źródło: Opracowanie własne na podstawie: [Żelazna 2002 s. 114; Rocznik Statystyczny… 2002
s. 203 – 205; Rocznik Statystyczny… 2003 s. 290 – 292; Rocznik Statystyczny… 2006 s. 291 – 293;
Mały Rocznik Statystyczny… 2007 s. 192 – 194].
Konsumpcja a system wartości polskiego społeczeństwa
63
Wzrost skłonności do konsumpcji gospodarstw domowych w Polsce w latach
90-tych wynikał w znacznej mierze z konieczności ograniczenia spadku spożycia,
spowodowanego wzrostem cen konsumpcyjnych oraz z ograniczonego finansowania spożycia ze środków społecznych. W latach 2000 – 2005 nastąpił wyraźny wzrost
udziału spożycia indywidualnego w dochodach do dyspozycji brutto, przy jednoczesnym spadku udziału oszczędności brutto, które stanowiły w roku 2005 jedynie
7% dochodów do dyspozycji brutto. Tymczasem na spożycie indywidualne gospodarstwa domowe przeznaczały w 2005 roku 93,7% nominalnych dochodów do
dyspozycji brutto, tj. prawie o 9,7 pkt więcej w porównaniu z rokiem 1995 [System…
2003 s. 746], co potwierdzają dane zamieszczone w tabeli 2.
TABELA 2.
Rozdysponowanie nominalnych dochodów do dyspozycji brutto w sektorze
gospodarstw domowych w Polsce w latach 2000 – 2005 (w %)
Wyszczególnienie
Spożycie indywidualne
Oszczędności brutto,
w tym:
Oszczędności finansowe
Nakłady brutto na środki
trwałe
2000
89,6
10,5
2001
88,4
11,8
2002
92,2
8,1
2003
92,6
7,7
2004
93,3
7,1
2005
93,7
7,0
3,9
6,1
2,0
1,2
-0,5
0,0
6,8
6,4
6,7
7,1
7,2
7,4
Źródło: [Rachunki narodowe… 2007 s. 45].
Jak wynika z przeprowadzonych badań, dynamika spożycia indywidualnego w sektorze gospodarstw domowych w analizowanym okresie utrzymywała się na dość
wysokim poziomie i przewyższała dynamikę realnych dochodów do dyspozycji brutto.
TABELA 3.
Dynamika spożycia indywidualnego w sektorze gospodarstw domowych
(ceny stałe)
Rok
1997
1998
1999
2000
2001
2002
2003
2004
2005
2006
Ogółem (rok poprzedni 100)
106,9
104,8
105,2
103,1
102,3
103,4
102,0
104,4
102,0
105,2
Na 1 mieszkańca
106,9
104,8
105,2
103,1
102,3
103,4
102,1
104,4
102,0
105,3
Źródło: [Mały Rocznik Statystyczny… 2004 s. 173; Mały Rocznik Statystyczny… 2007 s. 186].
64
Anna Wildowicz-Giegiel
Badania ankietowe przeprowadzone w roku 1999 potwierdziły, że okres przed 1989
roku postrzegano jako czas ograniczonej konsumpcji. Zdecydowana większość respondentów wskazywała, że najwięcej wydatków przeznaczano wówczas na nabywanie dóbr pierwszej potrzeby (żywność, opłaty). Wynikało to m.in. z niewielkiego
asortymentu dostępnych wtedy dóbr oraz z niskiej wówczas ich jakości. Natomiast
druga połowa lat 90-tych charakteryzowała się zmianą w strukturze konsumpcji.
W odpowiedziach ankietowanych (aż 36,92%) zauważa się wzrost udziału wydatków na dobra trwałego użytku, takie jak: mieszkanie, wyposażenie, samochód, sprzęt
AGD i TV [Chmielewski, Piech 2000 s. 199]. Wymienić należy kilka przyczyn, które
wpłynęły na takie właśnie wyniki. Po pierwsze, był to okres wychodzenia gospodarki polskiej z kryzysu. Po drugie, należy wspomnieć jeszcze raz o istniejącym zjawisku „odłożonego popytu” sprzed roku 1989 i rosnących dochodach realnych znacznej części ludności po roku 1995. Niestety, nastąpiła jednocześnie znaczna polaryzacja społeczeństwa. Nie dziwi więc fakt, że aż 32,3% odpowiedzi stanowiły stwierdzenia o dominacji wydatków związanych z bieżącą konsumpcją artykułów pierwszej
potrzeby, co się wiąże nadal z niskimi dochodami. Aczkolwiek obserwuje się też
wzrastający udział w budżetach gospodarstw domowych wydatków, które są związane z konsumpcją dóbr luksusowych. Bowiem 26,15% badanych wskazało na dokonywanie wydatków przeznaczonych na przyjemności, tj. wypoczynek, turystykę,
wygodne życie [Chmielewski, Piech 2000 s. 200]. Od roku 1998 obserwuje się w Polsce dość wyraźny wzrost popytu konsumpcyjnego w kierunku artykułów nieżywnościowych (prawo Engla). Pozwala to przypuszczać, że w miarę wzrostu gospodarczego nastąpią zmiany w konsumpcji, zgodne z tendencjami występującymi w krajach
wysoko rozwiniętych. Oznacza to, iż zmniejszy się udział wydatków na żywność na
rzecz usług, które są związane m.in. z wypoczynkiem i rozrywką.
Na podstawie wykresu 1. można stwierdzić, że w roku 2005 ponad 50% dochodu do dyspozycji gospodarstwa domowe przeznaczają na artykuły codziennego
użytku oraz opłaty stałe. Pozostałą część stanowią wydatki, takie jak: transport i łączność (14,2%), ubranie (5,1%), rozrywka (6,8%), zdrowie (5%), wyposażenie mieszkania (5,0%) itp. Według badań GUS, poziom przeciętnych nominalnych wydatków
w gospodarstwach domowych ogółem w roku 2006 był realnie wyższy w porównaniu z rokiem poprzednim o 6,8% i wynosił 745 PLN w przeliczeniu na jedną osobę.
We wszystkich grupach społeczno-ekonomicznych odnotowano realny wzrost
wydatków na nośniki energii, odzież i obuwie, rekreację i kulturę oraz spadek udziału wydatków na żywność. Zaobserwowano także wzrost wydatków na dobra trwałego użytku, w tym: odtwarzacze DVD i CD, komputery osobiste, telefony, sprzęt
AGD itp., co wydaje się potwierdzać wcześniejsze przypuszczenia odnośnie zmian
w strukturze konsumpcji polskich gospodarstw domowych [Sytuacja… 2007 s. 1].
Konsumpcja a system wartości polskiego społeczeństwa
65
WYKRES 1.
Przeciętne miesięczne wydatki na 1 osobę w gospodarstwach domowych
w roku 2005
Edukacja
1%
Rekreacja
i kultura
7%
Transport
i łączność
14%
Zdrowie
5%
Inne
12%
Wyposażenie
mieszkania
i prowadzenie
gospodarstwa
domowego
5%
Artykuły
codziennego
użytku
31%
Użytkowanie
mieszkania
i nośniki
energii
20%
Odzież
i obuwie
5%
Źródło: [Rachunki narodowe… 2007 s. 45].
Warto jednocześnie zaznaczyć, iż struktura konsumpcji polskich gospodarstw domowych różni się w poszczególnych grupach społecznych, co wynika głównie z różnic w poziomach dochodów do dyspozycji. I tak, w przypadku gospodarstw domowych o najwyższych dochodach udział wydatków na żywność w wydatkach ogółem jest
najmniejszy. Odwrotnie natomiast przedstawia się sytuacja odnośnie gospodarstw
rolników, a także emerytów i rencistów. W tej ostatniej z grup znaczny udział stanowią wydatki na mieszkanie i zdrowie. Sytuacja dochodowa gospodarstw domowych
okazuje się więc być czynnikiem wyraźnie różnicującym poziom i strukturę wydatków
konsumpcyjnych. W 2006 roku w budżetach 20% osób o najniższych dochodach
wydatki związane z zaspokajaniem potrzeb podstawowych, tj. wydatki na żywność
i napoje alkoholowe oraz stałe opłaty mieszkaniowe, stanowiły łącznie 56,7%, przy
czym w gospodarstwach pracowników – 56,5%, zaś w gospodarstwach emerytów
i rencistów 58,6% [Sytuacja… 2007 s. 4].
4. Konsumpcja w systemie wartości polskiego społeczeństwa
Powszechnie wiadomo, iż przy jednakowych dochodach można różnorodnie
wydatkować swoje nadwyżki finansowe, osiągając różne standardy życia. Decyduje
o tym układ wartości i celów, do których się zmierza. Wobec tego, w zależności od
wartości czy poziomu kulturowego, gospodarstwa domowe realizują wyznaczone
przez siebie cele życiowe. Style życia są niewątpliwie odzwierciedleniem systemów
66
Anna Wildowicz-Giegiel
wartości jednostek, ich postaw, aktywności oraz sposobów konsumpcji [Odorzańska-Kondek 1998 s. 9]. Stąd też w sferze aksjologicznej konsument jest narażony na
różnorodne oddziaływania, których przedmiotem jest m.in. jego system wartości.
Rezultatem tego stanu rzeczy może być stymulacja bądź kreacja potrzeb nadmiernych,
złych lub restytucyjnych. Reklama, moda, nowoczesne formy promocji i sprzedaży
kreują potrzeby, których jednostka zupełnie wcześniej nie odczuwała. Prowadzi to
do stanu nierównowagi, zmuszając konsumenta do podjęcia działań, które mają na
celu nabycie dóbr i usług stanowiących przedmiot ich pożądania. W przypadku Polski pojawia się dodatkowy czynnik generujący zagrożenia konsumenta. Wiąże się to
oczywiście z transformacją społeczno-ekonomiczną kraju [Współczesne… 2000 s. 126].
Na skutek przenoszenia się wzorców konsumpcji w skali międzynarodowej następują
procesy upodabniania się zachowań konsumentów. Mimo to, pewne uwarunkowania kulturowe oraz ekonomiczne sprawiają, że postępowanie polskiego społeczeństwa
w zakresie konsumpcji charakteryzuje się jednak pewną specyfiką.
Wprowadzenie zasad gospodarki rynkowej w Polsce spowodowało pojawienie
się wielu szans i zagrożeń, w tym także w obszarze konsumpcji. W społeczeństwie
polskim ogromną rolę odgrywają obecnie elementy naśladownictwa. Mianowicie próbuje się dokończyć procesy modernizacji nie tylko w sferze gospodarki i polityki, ale
i w strukturze społecznej i kulturowej. Mówi się o tzw. „tranfsormacji imitacyjnej”.
Jednocześnie usiłuje się wprowadzić w Polsce przynajmniej trzy fazy rozwoju, typowe społeczeństwom kapitalistycznym. Z jednej strony występuje potrzeba nawiązania do tradycji wczesnego społeczeństwa przemysłowego, gdzie praca i oszczędzanie były największymi cnotami. Z drugiej zaś strony społeczeństwo polskie usiłuje się dostosować do fazy późnej nowoczesności. W związku z czym próbuje się naśladować społeczeństwa postindustrialne, gdzie dominującą wartością jest konsumpcja
[Bogunia-Borowska, Śleboda 2003 s. 138 – 139], o czym świadczy wysoka skłonność
do konsumpcji w polskich gospodarstwach domowych, obserwowana na przestrzeni lat
1995 – 2005.
Przeobrażenia w hierarchii pożądanych wartości w polskim społeczeństwie jednoznacznie wskazują na ogólny wzrost znaczenia materialnego wymiaru życia. Niezależnie od tego, czy osiągnięta sytuacja materialna jej satysfakcjonująca, chęć poprawy materialnego bytu stale wyznacza kierunek działań, motywując indywidualną
aktywność ekonomiczną. Podobnie sytuacja się przedstawia, jeśli chodzi o kierunek
zmian odnośnie deklarowanych celów i dążeń życiowych. Na podstawie częstości wskazywanych kierunków wydatkowania wysokiej wygranej można ustalić miejsce aspiracji, a więc jak ważna jest realizacja bieżących potrzeb konsumpcyjnych w stosunku do
celów związanych z wartościami ogólnymi i inwestowaniem w przyszłość. Polskie gospodarstwa domowe przystosowują swoje aspiracje do nowych zasad rozwijającego
się rynku i jego instytucji. Nie oznacza to całkowitego zaniku orientacji prorodzinnej, dbałości o przyszłość dzieci czy też ogólnego altruizmu. Zanotowano bowiem
spadek w hierarchii celów względnej pozycji bieżącej konsumpcji w zakresie żywności i odzieży oraz wzrost znaczenia oszczędzania (rozwój rynków finansowych).
Nadal dominuje jednak nastawienie na poprawę warunków mieszkaniowych, wyposażenie w dobra trwałego użytku oraz posiadanie samochodu [Zmiany… 1999 s. 126].
Konsumpcja a system wartości polskiego społeczeństwa
67
Ogólnie rzecz biorąc, w badanym okresie utrzymywała się silna presja ze strony potrzeb konsumpcyjnych, co stymuluje skłonność do konsumpcji, a równocześnie demotywuje do oszczędzania. Przy czym warto zaznaczyć, iż niektóre wydatki na zakup
dóbr trwałego użytku, takich jak: komputery, sprzęt biurowy czy samochody mogą
również służyć działalności produkcyjnej lub uzyskiwaniu przyszłych dochodów.
Tymczasem w badaniach budżetów gospodarstw domowych wydatki tego rodzaju
najczęściej zaliczane są do konsumpcji, co zmniejsza faktyczną wielkość posiadanych
przez nie oszczędności.
Jednym z podstawowych elementów świadczących o zasobności gospodarstw
domowych jest posiadanie dóbr trwałego użytku. Stan wyposażenia gospodarstw
domowych w dobra trwałego użytku w roku 2005 uległ znaczniej poprawie w porównaniu z początkiem lat 90-tych. Przeprowadzone w 2005 r. badanie pokazuje, że
polskie gospodarstwa domowe coraz lepiej wyposażone są w przedmioty trwałego
użytku, które w polskich sklepach zaczęły być powszechnie dostępne dopiero w latach 90-tych; dotyczy to m.in. wyposażenia gospodarstwa domowego w kuchenki
mikrofalowe, zmywarki, czy też komputery, drukarki, sprzęt RTV. I tak, przykładowo w 2005 r. komputer osobisty posiadało prawie 39% gospodarstw domowych
(w 2004 r. – ok. 33%), w tym z dostępem do Internetu – 23%, natomiast samochód
osobowy aż 47,4% [Sytuacja… 2006 s. 5]. Powyższe dane potwierdzają, iż sytuacja
materialna polskich gospodarstw domowych uległa znacznej poprawie, aczkolwiek
poziom wyposażenia gospodarstw domowych w Polsce (zwłaszcza w dobra luksusowe) wciąż odbiega niewątpliwie od średniego poziomu w UE.
TABELA 4.
Gospodarstwa domowe wyposażone w niektóre przedmioty trwałego
użytku (w %)
Gospodarstwa domowe
Wyszczególnienie
Odbiornik TV
Kamera wideo
Pralka automatyczna
Kuchenka mikrofalowa
Zmywarka
Samochód osobowy
Komputer osobisty
Drukarka
Ogółem
Pracowników
Rolników
1993 2005
1993
2005
1993
2005
73,8
1,78
49,6
3,2
0,87
43,8
6,9
-
91,3
2,1
70,8
3,5
0,7
43,9
10,9
-
98,7
8,7
88,0
43,7
6,3
60,1
57,0
38,4
55,8
0,5
28,4
1,4
0,4
48,0
2,0
-
99,4
2,6
67,8
29,5
3,8
79,7
35,6
23,2
98,2
6,2
79,8
33,3
4,9
47,4
38,6
25,8
Pracujących na
własny rachunek
1993
2005
96,5
6,7
87,5
9,7
2,8
83,6
19,9
-
98,4
21,3
93,1
59,7
19,8
82,6
70,6
54,9
Emerytów
i rencistów
1993
2005
63,3
0,4
42,0
1,2
0,3
18,6
1,5
-
98,3
2,3
72,6
20,0
1,9
28,9
15,1
9,5
Źródło: opracowanie na podstawie: [Rocznik Statystyczny… 1994 s. 271; Mały Rocznik Statystyczny… 2007 s. 199].
68
Anna Wildowicz-Giegiel
W gospodarce polskiej występuje naśladownictwo w konsumpcji, co ma ścisły
związek z konformizmem2. Wraz z pojawieniem się gospodarki rynkowej wykształciły się nowe style życia. Wzrosła rola konsumpcji ostentacyjnej, która to stanowi
wyznacznik odpowiedniego standardu życia. Wiąże się to przede wszystkim z procesami naśladownictwa, jakie mają miejsce w gospodarstwach nisko i średnio zamożnych, stanowiących około 70% ogółu gospodarstw domowych [Bywalec 1998 s. 54].
Ze względu na dzielący Polskę dystans w rozwoju społeczno-gospodarczym oraz
odmienne warunki ekonomiczne i kulturowe, przyjęte przez polskie gospodarstwa
domowe wzorce konsumpcji będą ulegać w przyszłości znacznym modyfikacjom.
Polska, przystępując w maju 2004 roku do Unii Europejskiej, posiadała zdecydowanie niższy poziom życia w porównaniu do najsłabiej rozwiniętych krajów członkowskich, w tym Grecji i Portugalii. Stąd też wnioskuje się, że utrzymają się jeszcze
w przyszłości silne aspiracje konsumpcyjne, mające swoje odzwierciedlenie w wysokiej skłonności do konsumpcji.
5. Podsumowanie
Zachowania konsumpcyjne gospodarstw domowych stanowią niewątpliwie niezwykle interesujący obszar badawczy w ramach nauk ekonomicznych. J.M. Keynes
(1936) przyjął, iż istnieje wiele determinant skłonności do konsumpcji zarówno
natury subiektywnej, jak i obiektywnej. Pozwala to więc przypuszczać, iż konsumpcja, która wydaje się być niejako odzwierciedleniem stylu życia jednostki, jest z jednej strony wypadkową czynników ekonomicznych i społeczno-kulturowych, z drugiej zaś strony warto też pamiętać, iż zjawisko to ma podłoże psychologiczne.
W oparciu o przeprowadzoną analizę stwierdza się, iż w Polsce występowała dość
wysoka skłonność do konsumpcji polskich gospodarstw domowych w omawianym
okresie. Udział spożycia indywidualnego w dochodach do dyspozycji brutto wynosił w roku 2005 prawie 94%. Wzrost znaczenia konsumpcji w polskim społeczeństwie
wynika bez wątpienia z sytuacji społeczno-ekonomicznej gospodarstw domowych.
Aczkolwiek zwraca się uwagę, iż to nie tylko wyłącznie dochody, lecz przeobrażenia
społeczno-kulturowe, w tym zmiany w obrębie systemu wartości polskiego społeczeństwa determinują wielkość i strukturę konsumpcji. Na skutek zachodzącej globalizacji przenikają do polskiej kultury nowe wartości i style życia. Przy czym wiele
z nich, a zwłaszcza te dotyczące zachowań konsumpcyjnych, podlegają procesom szybkiej adaptacji. Rezultatem tego stanu rzeczy jest wzrost znaczenia wartości materialnych, w tym konsumpcji, w społecznej hierarchii wartości. Oczekuje się, iż w przyszłości polskie gospodarstwa domowe po zaspokojeniu bieżących potrzeb konsump2 Indywidualna użyteczność konsumpcji bieżącej, jak i przeszłej zależy w znacznym stopniu od społecznych interakcji. Wpływ na nią mają nie tylko konformizm, ale i altruizm czy też zazdrość w odniesieniu
do pozostałych członków określonej grupy społecznej. Motywy altruistyczne występują oczywiście w
przypadku własnej rodziny, zaś zazdrość w ramach określonej grupy społecznej. Doskonałym przejawem konformizmu jest potrzeba dostosowania poziomu konsumpcji do przemian zachodzących w
najbliższym otoczeniu [zob. w: M. Binder, M. Hashem Pesaran 2001 s. 36].
Konsumpcja a system wartości polskiego społeczeństwa
69
cyjnych i wraz z poprawą materialnych warunków życia zaczną dostrzegać nie tylko
znaczenie konsumpcji teraźniejszej, lecz będą starały się również zabezpieczyć materialnie na przyszłość, co wpłynie z kolei pozytywnie na wielkość gromadzonych przez
nie oszczędności.
Literatura
Aldridge A. 2006 Konsumpcja, Warszawa.
Baudrillard J. 2006 Społeczeństwo konsumpcyjne. Jego mity i struktury, Warszawa.
Binder M., Hashem Pesaran M. 2001 Life-Cycle Consumption under Social Interactions,
„Journal of Eonomic Dynamics & Control”, Vol. 25.
Bogunia-Borowska M., Śleboda M. 2003 Globalizacja i konsumpcja. Dwa dylematy współczesności, Kraków.
Bywalec Cz. 1998 Skłonność do konsumpcji w polskich gospodarstwach domowych, „Zarządzanie i Marketing”, Kraków.
Chmielewski T., Piech K. 2000 Konsumpcja w Polsce w okresie transformacji-wybrane wyniki badań empirycznych, „Studia i Prace Kolegium Zarządzania i Finansów”, nr 14.
Duesenberry J.S. 1951 Income, Saving and The Theory of Consumer Behavior, Cambridge.
Fault Firat A., Venkatesh A. 1995 Liberatory, Postmodernism and The Reenchantment of
Consumption, „Journal of Consumer Research”, Vol. 22.
Featherstone M., Featherstone M. 2001 Koncepcje kultury konsumenckiej, w: Zachowania
konsumenta. Koncepcje i badania europejskie, red. M. Lambkin, G. Foxall, F. von Raaij,
B. Heilbrunn, Warszawa.
Mały Rocznik Statystyczny Polski 2004, Warszawa.
Mały Rocznik Statystyczny Polski 2007, Warszawa.
Matsuyama, Kiminori 2002 The Rise of Mass Consumption Societies, „Journal of Political
Economy”, Vol. 110, Issue 5.
Odorzańska-Kondek J. 1998 Styl życia a zachowania konsumentów na rynku, „Handel
Wewnętrzny”, nr 4-5.
Patrzałek W. 2004 Kulturowe determinanty zachowań konsumenckich, Wrocław.
Pawłowska A. 2002 Miejsce wartości w świecie reklamy, w: Kondycja moralna społeczeństwa
polskiego, red. J. Mariański, Kraków.
Rachunki narodowe według sektorów i podsektorów instytucjonalnych 2000-2005 2007, Warszawa.
Rytlewska G. 2003 Gospodarstwo domowe, w: System finansowy w Polsce, red. B. Pietrzak,
Z. Pogański, B. Woźniak, Warszawa.
Redmond W.H. 2001 Exploring Limits to Material Desire: The Influence of Preferences vs.
Plans on Consumption Spending, „Journal of Economic Issues” 2001, Vol. 35, Issue 3.
Richins M.L. 1994 Valuing Things: The Public and Private Meanings of Possessions, „Journal of Consumer Reasearch”, Vol. 21.
Sikorska J. 1999 Aspiracje materialne, w: Zmiany w życiu Polaków w gospodarce rynkowej,
red. L. Beskid, Warszawa.
Stankiewicz W. 2000 Historia myśli ekonomicznej, Warszawa.
70
Anna Wildowicz-Giegiel
Sytuacja gospodarstw domowych w 2005 r. w świetle wyników bada budżetów gospodarstw domowych 2006, Warszawa.
Sytuacja gospodarstw domowych w 2006 r. w świetle wyników badań gospodarstw domowych
2007, Warszawa.
Zając A. 2000 Zagrożenia konsumenta we współczesnej gospodarce rynkowej, w: Współczesne
problemy ekonomiczne jako wyzwania dla polskiej gospodarki, red. E. Skawińska, Poznań.
Żelazna K. 2002 Ekonomika konsumpcji. Elementy teorii, Warszawa.
MISCELLANEA
Henryk MANTEUFFEL SZOEGE, Marta JÓŹWIAK 1
MAKROEKONOMICZNA EFEKTYWNOŚĆ BIBLIOTEKI
PUBLICZNEJ W MAŁYM MIEŚCIE
Streszczenie
Makroekonomiczna efektywność biblioteki publicznej, znajdującej się w małym mieście w pobliżu
Warszawy, została obliczona wg wskaźnika korzyść/koszt. W przypadku wyceny usług bibliotecznych
zaadaptowane zostały w niniejszej pracy, stosowane w ekonomice środowiska, metoda hipotetycznego
rynku i metoda kosztów podróży. Koszty makroekonomiczne zostały przyjęte za równe mikroekonomicznym, z wyjątkiem kosztów pracy, które zostały oszacowane jako społeczna wartość nakładów pracy a następnie skorygowane w dół ze względu na trwałe bezrobocie w mieście. Wyjątek stanowiły również koszty
wynajmu lokalu, który nie jest obecnie ponoszony przez bibliotekę. Wskaźnik korzyść/koszt okazał się
być wyraźnie ujemny (w zależności od przyjętych założeń wahał się od 0,34 do 0,68). Należy jednak
zwrócić uwagę, iż tylko bezpośrednie korzyści dla użytkowników biblioteki zostały zawarte w rachunku, a pozaużytkowa wartość dla reszty społeczeństwa została pominięta
MACROECONOMIC EFFICIENCY OF A SMALL PROVINCIAL PUBLIC LIBRARY
Summary
The macroeconomic efficiency of a public library in a small town near Warsaw has been calculated
in the form of benefit/cost ratio. The benefits have been estimated by the method of contingent
valuation of the library services and by the revealed preferences expressed by the costs of travel to and
from the library as well as the costs of library deposit fees. The macroeconomic costs have been assumed equal to the microeconomic costs, except for labour costs which have been estimated as social
opportunity costs of labour and therefore corrected downwards because of the persistent unemployment in town and except for the rentals not actually paid by the library. The BCR ratio turned to be
far below zero (depending on assumptions varied between 0.34 and 0.68). However only the direct
benefits accruing to the library customers have been included, and the non-use value ignored.
1. Wprowadzenie
Usługi świadczone przez biblioteki publiczne z punktu widzenia ekonomii przyczyniają się do tworzenia kapitału ludzkiego [Bibliotekarstwo… 1994], także na obszarach
wiejskich. Dlatego też stanowią, z tego punktu widzenia, przedmiot zainteresowania
1 Prof. dr hab. Henryk Manteuffel Szoege i mgr Marta Jóźwiak są pracownikami Szkoły Głównej
Gospodarstwa Wiejskiego w Warszawie.
72
Henryk Manteuffel Szoege, Marta Jóźwiak
Usługi bibliotek publicznych stanowią dotychczas tzw. dobro publiczne2, choć ostatnio pojawiają się rozważania na temat możliwej ich komercjalizacji i wobec tego ich
przekształcenia w tzw. dobro prywatne3, a zapis o wprowadzeniu odpłatności za wypożyczanie książek znalazł się w Narodowym Programie Kultury [Płatne… 2005].
Do szacowania wartości dóbr publicznych metody wyceny wypracowane zostały w ramach ekonomiki środowiska naturalnego [np. Manteuffel Szoege 2005]. W przypadku
wyceny usług bibliotecznych zaadaptowane więc zostały w niniejszej pracy, stosowane w ekonomice środowiska, metoda hipotetycznego rynku4 i metoda kosztów podróży. Taka adaptacja jest coraz częściej stosowana w od niedawna rozwijającej się gałęzi ekonomii, jaką jest ekonomika kultury [Valuing… 2002; Noonan 2004; Epstein
2003].
Metoda hipotetycznego rynku polega na ankietyzacji lub przeprowadzeniu wywiadu według kwestionariusza badawczego z reprezentantami zainteresowanych przedmiotem wyceny grup społecznych, a potem rozszerzeniu wyników na całą populację
zainteresowanych. W omawianym przypadku badana była indywidualna wycena (jako tzw. skłonność do zapłaty, obejmująca również tzw. rentę konsumenta) wartości
usług bibliotecznych przez poszczególnych czytelników. Do takiej wyceny dodane zostały koszty dostępu do biblioteki w postaci kosztu dojazdu i powrotu (zgodnie z metodą kosztów podróży) i koszty wypożyczeń najbardziej poszukiwanych książek, wypożyczanych za kaucją. Ten ostatni koszt równa się kosztowi alternatywnemu użycia
kapitału własnego czytelnika, zamrożonego przez pewien czas bezprocentowo w kaucji.
Jako studium przypadku kalkulacji makroekonomicznej (z ogólnospołecznego punktu widzenia) efektywności prowincjonalnej biblioteki publicznej posłużył przykład
biblioteki w niewielkim mieście położonym blisko Warszawy. Oprócz siedziby głównej biblioteka posiada 4 filie dzielnicowe.
2 Tzw. dobra publiczne są to dobra, do których wolny dostęp mają wszyscy zainteresowani, a które
charakteryzują się ponadto niepodzielnością konsumpcji. Niepodzielność konsumpcji oznacza, że konsumpcja danego dobra przez danego użytkownika nie ogranicza potencjalnej konsumpcji przez innych, nie tyle z tego względu, że zasób jest bardzo duży w stosunku do potencjalnego popytu, ale ze
względu na to, że konsumpcja nie umniejsza ilości zasobu dostępnej dla innych, bo nie da się podzielić
tej konsumpcji na części. Powszechny dostęp i niepodzielność konsumpcji oznaczają, inaczej mówiąc,
niewykluczalność i niekonkurencyjność konsumpcji tych dóbr. Takie cechy charakteryzują te dobra
dopóki nie nastąpi tzw. efekt zatłoczenia.
3 Dobra prywatne to dobra o dobrze zdefiniowanych prawach własności. Dobrze zdefiniowane prawa własności powinny charakteryzować się cechami, takimi jak: powszechność (oznaczająca, że każdy zasób ma swego prywatnego właściciela i dokładnie jest sprecyzowane, co takiemu właścicielowi wolno
w stosunku do tego zasobu), wyłączność (oznaczająca, że wszystkie korzyści i koszty związane z użytkowaniem zasobu odnosi lub ponosi właściciel, bezpośrednio lub pośrednio przez sprzedaż pożytku),
przekazywalność (oznaczająca, że prawa własności mogą być swobodnie zbywane pomiędzy właścicielami), przymusowość (oznaczająca, że środki przymusu powinny stać na straży tych praw i nie dopuszczać do ich przejęcia lub uszczuplenia bez dobrowolnej zgody właściciela). Konsumpcja tych dóbr jest
więc wykluczalna i konkurencyjna.
4 Inne stosowane nazwy to: metoda wyceny warunkowej, metoda symulowanego rynku, metoda przypadającej wartości (ta ostatnia nazwa oznacza dosłowne tłumaczenie angielskiego contingent valuation).
Makroekonomiczna efektywność biblioteki publicznej…
73
2. Koszty badanej biblioteki publicznej
Koszty roczne przyjęto jako przeciętną ich wartość z lat 2003, 2004 i 2005, według
sprawozdań biblioteki [Informacja… 2004, 2005 i 2006]. Przed uśrednieniem zostały
one przeliczone na jednolity poziom cen roku 2005 przy użyciu wskaźników cen
towarów i usług konsumpcyjnych publikowanych przez GUS [Wskaźniki… 2006].
Koszty prezentowane są w tabeli 1.
TABELA 1.
Roczne (mikroekonomiczne) koszty badanej biblioteki publicznej, zł/rok,
poziom cen roku 2007
Pozycja kosztów
Zakup książek
Materiały i wyposażenie
Prąd, woda, gaz i ogrzewanie
Usługi materialne i niematerialne
Płace (z narzutami)
Inne wydatki
Razem
2003
33751
13328
30076
Rok
2004
44778
72931
32021
2005
58503
67982
32928
54578
75768
702691
15349
849772
635948
15839
877286
45677
51414
31675
Struktura,
%
5,3
5,9
3,7
49390
59912
6,9
643626
19170
871599
660755
16786
866219
76,3
1,9
100,0
Średnia
Źródło: [Informacja… 2004; Informacja…. 2005; Informacja… 2006].
W pierwszym przybliżeniu koszty makroekonomiczne zostały przyjęte za równe
mikroekonomicznym kosztom biblioteki zestawionym w tabeli 1. Uzasadnieniem
dla takiego ujęcia było to, że ceny wszystkich nakładów, włączając w to najważniejsze nakłady pracy, były cenami wolnorynkowymi, a wobec tego odzwierciedlającymi
społeczną wartość tych nakładów.
W drugim przybliżeniu przeszacowano koszty płac według alternatywnego kosztu nakładów pracy w rachunku społecznym. Jest to standardowy zabieg w kalkulacjach makroekonomicznych.
W tym celu wzięto pod uwagę wysoką stopę bezrobocia wśród kobiet w mieście,
wynoszącą ówcześnie 21,6% [Dąbrowska-Majewska 2005 s. 10]. Społeczny koszt zatrudnienia osoby potencjalnie bezrobotnej może być w przybliżeniu uznany za równy zeru, ponieważ społeczeństwo przy zatrudnianiu takiej osoby nie traci jej produktywności w alternatywnym zatrudnieniu. Utrata produktu pracy w alternatywnym zatrudnieniu (dochodu społecznego tworzonego przez pracownika w tym zatrudnieniu) jest zaś prawdziwym, społecznym kosztem zatrudnienia. Płaca i narzuty
na nią w postaci składek ubezpieczeń społecznych i podatku dochodowego są ze
społecznego punktu widzenia nie kosztem, a tylko transferem pieniężnym między
członkami społeczeństwa (przepływem pieniężnym między pracodawcą, pracownikiem i ogółem społeczeństwa reprezentowanym przez budżet państwa, nie zmieniającym sumy dochodu społecznego).
74
Henryk Manteuffel Szoege, Marta Jóźwiak
Udział pracowników potencjalnie bezrobotnych wśród pracowników biblioteki
został przyjęty za równy stopie bezrobocia wśród kobiet w mieście. Po przeprowadzeniu odpowiedniej kalkulacji społeczne koszty płac zmniejszyły się do:
660755 * (1 – 0,216) = 518032 zł/rok,
a średnie całkowite koszty roczne do 723496 zł/rok.
Drugim wziętym pod uwagę kosztem społecznym był koszt użytkowania lokali,
w których działa biblioteka. Biblioteka nie ponosi z tego tytułu żadnych kosztów, ponieważ lokale należą do miasta, do którego należy także biblioteka, i wobec tego używa ona tych lokali bezpłatnie. Ze społecznego punktu widzenia to użytkowanie ma
swój koszt alternatywny. Został on oszacowany na podstawie porównania z czynszami najmu podobnych lokali w tym mieście na 84 tys. zł rocznie, co po zrewaloryzowaniu na poziom cen w 2007 roku dało 84436 zł/rok.
Po takich dwóch korektach średnie makroekonomiczne koszty biblioteki wyniosły 809932 zł/rok.
3. Społeczna wartość usług biblioteki
Na początku 2006 roku przeprowadzone zostało badanie skłonności do zapłaty
za usługi biblioteczne wśród czytelników korzystających z omawianej biblioteki.
Odpowiedzi na wywiad według przygotowanego kwestionariusza badawczego uzyskano od 130 osób, wybranych celowo w ten sposób, by badana próba odpowiadała pod względem struktury według płci, wieku i podstawowego zajęcia (typu pracy
lub nauki) zbiorowości zarejestrowanych klientów biblioteki. Podział na grupy powtórzono za podziałem stosowanym w rejestracji bibliotecznej. Poza tym dobór był losowy.
Spośród korzystających z odpowiednich usług, 80% respondentów zadeklarowało pozytywną skłonność do zapłaty za usługi wypożyczalni i 79% za usługi czytelni.
Sumaryczne skłonności do zapłaty za usługi wypożyczalni książek i za usługi czytelni były kalkulowane osobno.
Reprezentowana przez taką skłonność wartość usług wypożyczalni obliczona
została drogą mnożenia skłonności do zapłaty za wypożyczenie jednej książki w danej grupie respondentów, definiowanej przez płeć, rodzaj zajęcia i wiek, przez średnią liczbę wypożyczeń w roku, następnie mnożenie tej liczby przez liczbę czytelników o cechach tej grupy w całej populacji klientów biblioteki, a w końcu przez dodawanie sum obliczonych dla poszczególnych grup.
W paru przypadkach niektóre grupy nie miały swoich reprezentantów wśród respondentów. Jako wartość skłonności do zapłaty z ich strony przyjmowano wtedy
średnią wartość deklarowaną w dwóch grupach sąsiednich. Na przykład wartościowania przez uczniów w wieku 19 lat zostały zastąpione przez średnią z wartościowań przez uczniów w wieku od 15 do 19 lat i studentów w wieku od 19 do 25 lat,
wartościowania przez pracowników umysłowych w wieku od 19 do 25 lat zostały
Makroekonomiczna efektywność biblioteki publicznej…
75
zastąpione przez średnią z wartościowań przez studentów w wieku od 19 do 25 lat
i pracowników umysłowych w wieku 25 do 44 lat.
Ponieważ czytelnicy w czytelni nie są rejestrowani według płci, wieku i rodzaju
zatrudnienia, przyjęto strukturę klienteli czytelni za analogiczną do struktury klienteli wypożyczalni. Dla poszczególnych grup, wyróżnionych pod względem wymienionych cech, oszacowano średnią skłonność do zapłaty za jedne odwiedziny, a następnie wyniki zagregowano tak jak w przypadku wypożyczalni. Obliczenia w obu przypadkach przedstawione są w tabelach 2 i 3.
Suma obu skłonności dała sumaryczną wartość usług bibliotecznych dla klientów biblioteki.
Poza wartościowaniami usług przez korzystających z biblioteki uwzględniono
koszty odwiedzin, jako dodatkową wartość uznawaną, bo realnie wypłacaną, przez
odwiedzających (tzw. ujawnioną preferencję). Koszty te oszacowano mnożąc liczbę
kilometrów przejechanych samochodem przy dojeździe i powrocie z biblioteki przez
koszt jednego kilometra zwracany przez instytucje państwowe przy rozliczaniu delegacji służbowych przez osoby delegowane. Użyto średniego z dwóch kosztów
jednostkowych, odnoszących się do pojazdów o pojemności silnika poniżej i powyżej 900 cm3. Średnia taka wyniosła 63,7 gr/km. Jeśli czytelnik odwiedzał bibliotekę
na piechotę, nie policzono żadnego kosztu, traktując przemarsze jako spacer korzystny dla zdrowia i samopoczucia.
Do kosztów korzystania z wypożyczalni bibliotecznej doliczono też koszt kapitałowy kaucji, pobieranej przy wypożyczaniu niektórych, szczególnie cennych, książek. Płacenie kaucji oznacza, z ekonomicznego punktu widzenia, zamrożenie na pewien okres kapitału. Zamrożenie kapitału kosztuje. Koszt alternatywny użycia tego
kapitału przyjęto, jak zwykle w kalkulacjach dotyczących konsumpcji, za równy realnej wartości odsetek od kapitału zdeponowanego w banku w polskim systemie
bankowym. W badanym okresie stopa procentowa od depozytów długoterminowych wynosiła 2,95% [Średnie… 2005]. Stopa inflacji wynosiła (w odniesieniu do
towarów i usług konsumpcyjnych) 2,2% [Wskaźniki… 2005]. Obliczenia realnej stopy
procentowej dokonano według standardowego wzoru:
1 + Rnom
Rreal =
−1
1 + Rinfl
,
gdzie:
Rreal – realna stopa procentowa,
Rnom – nominalna stopa procentowa,
Rinfl – stopa inflacji, równa wskaźnikowi cen towarów i usług konsumpcyjnych – 1.
Realna stopa procentowa od kapitału konsumpcyjnego wyniosła:
1 + 0,0295
Rreal =
− 1 = 0,007
1 + 0,022
.
Koszt wypożyczenia książek za kaucją oszacowano jako iloczyn liczby książek
wypożyczanych rocznie za kaucją przez jednostkową kaucję, przez powyższą stopę
procentową i przez 1/12 (przyjęto jednomiesięczny okres wypożyczenia).
3,33
0,00
0,00
3,34
27,01
0,01
0,00
27,02
TABELA 3.
10565 270184
6717
130
A≥60
391
8
razem
TABELA 2.
Kategoria uczestnika
uczeń
student
pracownik umysłowy
pracownik innego typu
niepracujący
razem
15<A<19 A=19 19<A≤25 19<A≤25 25<A≤44 44<A<60 19<A≤25 25<A≤44 44<A<60 19<A≤25 25<A≤44 44<A<60 A≥60
947
40
769
40
632
355
40
197
118
20
355
197
237 3 947
21
0
28
0
6
2
1
1
2
3
1
3
0
68
Wartości jednostkowe, zł
2,06
6,69
11,32
9,00
7,03
4,12
37,04
13,38
9,78
23,33
22,64
4,12
13,38
x
0,00
0,00
12,54
0,00
4,81
3,93
0,00
1,31
0,00
1,75
0,00
0,00
0,00
x
2,06
6,69
23,86
9,00
11,84
8,05
37,04
14,68
9,78
25,08
22,64
4,12
13,38
x
Wartości globalne, zł
1949
268
18350
360
7485
2857
1482
2893
1154
502
8036
811
3170 49316
Źródło: dla tabel 2. i 3.: wywiad kierowany.
roczna wartość uczestnictwa
wartość odwiedzin
koszt przejazdów
roczna wartość wizyt
Pozycja kalkulacji
zatrudnienie
wiek (A)
liczba odwiedzin
liczba respondentów
Wartość rocznych usług czytelni, poziom cen 2007 r.
Pozycja kalkulacji
Kategoria uczestnika
zatrudnienie
uczeń
student
pracownik umysłowy
pracownik innego typu
niepracujący
wiek (A)
15<A<19 A=19 19<A≤25 19<A≤25 25<A≤44 44<A<60 19<A≤25 25<A≤44 44<A<60 19<A≤25 25<A≤44 44<A<60
liczba zarejestrow. czytelników
1597
62
1295
81
1060
623
63
376
221
31
578
339
liczba respondentów
29
0
29
0
25
9
2
4
6
3
7
8
Wartości jednostkowe, zł
roczna wartość wypożyczeń
3,33
13,43
23,52
18,47
68,65
55,34
28,81
3,34
2,23
57,62
57,77
12,92
koszt kaucji
0,00
0,00
0,08
0,00
0,03
0,04
0,00
0,02
0,00
0,09
0,00
0,02
koszt przejazdów
0,00
0,00
6,97
0,00
38,15
20,97
0,00
4,92
0,00
5,25
10,71
0,66
roczna wartość wizyt
3,34
13,43
30,56
18,47
106,83
76,35
28,81
8,27
2,23
62,96
68,48
13,60
Wartości globalne, zł
roczna wartość uczestnictwa
5341
833
39577
1496
113241
47567
1815
3111
493
1952
39581
4612
Wartość rocznych usług wypożyczalni książek, poziom cen 2007 r.
Makroekonomiczna efektywność biblioteki publicznej…
77
Sumaryczna wartość usług wypożyczalni, składająca się z trzech omówionych składników, wyniosła średniorocznie 270184 zł/rok, a usług czytelni 49316 zł/rok, co
w sumie daje wartość równą 319500 zł/rok. Jest to wartość w ocenie tylko klientów
biblioteki, a więc wartość dla użytkowników. Nie szacowano tzw. wartości pozaużytkowej lub egzystencjalnej tej instytucji, którą ma dla tych członków społeczeństwa,
którzy z niej bezpośrednio nie korzystają.
W wartości usług wypożyczalni najbardziej waży skłonność do zapłaty za nie ze
strony klientów biblioteki (73,7%), ale niemało znaczą też koszty dojazdu (26,3%).
Natomiast koszt kaucji jest nieistotny (mniej niż 0,1%). Podobnie układają się proporcje w wycenie usług czytelni. Skłonność do zapłaty stanowi w niej 70,9%,
a koszt dojazdu 29,1%. Natomiast usługi wypożyczalni są według obliczonych wycen 5,5 razy więcej warte niż usługi czytelni.
4. Efektywność ekonomiczna
Tytułowa efektywność określona została jako standardowy wskaźnik korzyść/
/koszt w wyrażeniu rocznym i obliczona w kilku wariantach kalkulacji. Wyniki zawarte są w tabeli 4.
TABELA 4.
Wskaźnik korzyść/koszt w alternatywnych wariantach kalkulacji
makroekonomicznej efektywności biblioteki
Wariant kalkulacji
Koszty społeczne równe kosztom mikroekonomicznym, korzyści według wyceny czytelników
Koszty społeczne skorygowane ze względu na społeczny alternatywny koszt pracy i koszt lokalu, korzyści według wyceny czytelników
Koszty społeczne równe kosztom mikroekonomicznym, korzyści skorygowane przez zastąpienie wycen przez młodzież wyceną przez ludzi w wieku
dojrzałym
Koszty społeczne skorygowane ze względu na społeczny alternatywny koszt pracy i koszt lokalu, korzyści skorygowane przez zastąpienie wycen przez
młodzież wyceną przez ludzi w wieku dojrzałym
Krotność wzrostu wyRelacja
ceny lub obniżki koszkorzyść/
tów potrzebnej do osiąkoszt
gnięcia efektywności
0,37
2,71
0,39
2,53
0,63
1,58
0,68
1,48
Zarówno społeczne koszty jak i społeczne korzyści z działania biblioteki obliczone zostały w dwóch wersjach. Wersje kalkulacji kosztów objaśniono powyżej. Korzyści ujęto albo w sposób opisany powyżej, albo z odmianą polegającą na zastąpieniu wycen przez uczniów w wieku 15 do 19 lat przez wyceny pracowników umysło-
78
Henryk Manteuffel Szoege, Marta Jóźwiak
wych w wieku od 25 do 44 lat, a wycen przez studentów przez wyceny pracowników
umysłowych w wieku od 44 do 60 lat. Uznano bowiem, że wyceny przez osoby niezarabiające i w młodym wieku powinny być raczej zastąpione przez wyceny ich zarabiających rodziców, dla których biblioteka ma dodatkową wartość jako miejsce
kształcenia ich dzieci. Poza tym osoby w młodym wieku raczej cenią sobie wyżej
inne niż czytelnictwo rozrywki, a korzystanie z biblioteki traktują często jako przymus z konieczności i w związku z tym zaniżają wycenę.
W takiej alternatywnej kalkulacji korzyści roczna wartość usług wypożyczalni okazała się równa 500541 zł/rok, a usług czytelni 46627 zł/rok, co daje sumę równą
547168 zł/rok.
W każdym z kalkulacyjnych wariantów biblioteka okazała się ekonomicznie nieefektywna.
5. Podsumowanie i wnioski
Negatywny wynik obliczeń efektywności jest przykry dla autorów jak i zapewne
czytelników tego tekstu. Każda działalność publiczna, w tym usługi biblioteczne,
powinna wykazywać dodatnią efektywność makroekonomiczną.
Pierwszym wnioskiem, narzucającym się po lekturze tabeli 1., jest postulat redukcji kosztów personelu, co można osiągnąć przez zamknięcie niektórych lub
wszystkich filii i na przykład skrócenie godzin pracy biblioteki. Koszty zatrudnienia
pracowników stanowią bowiem 3/4 ogółu kosztów biblioteki. Trzeba przy tym pamiętać, że takie posunięcia zmniejszyłyby też korzyści płynące z jej działalności,
ponieważ bez wątpienia prowadziłyby też do zmniejszenia liczby czytelników i częstotliwości odwiedzin. Natomiast rozważane [Płatne… 2005] wprowadzenie opłat
bibliotecznych miałoby dla efektywności makroekonomicznej znaczenie tylko ujemne, gdyż zmniejszyłoby frekwencję w bibliotece, a nie przyniosłoby korzyści społecznych. Opłaty takie nie stanowią dochodu społecznego, a tylko transfer pieniężny pomiędzy różnymi grupami społecznymi, w tym przypadku czytelnikami i innymi beneficjentami wydatków budżetu, których przychody by się zwiększyły (podatki
się nie zmniejszą w wyniku wprowadzenia opłat). Ich wprowadzenie zmieniłoby
tylko dystrybucję dochodów między grupami beneficjentów budżetu, której efektywność ekonomiczną dość trudno ocenić. Na ogół korzystne społecznie są transfery
od grup zamożniejszych do grup biedniejszych, ale występują rozmaite przypadki
w różnych szczególnych sytuacjach. W rozpatrywanym przypadku w celu ustalenia
makroekonomicznej efektywności transferu, trzeba by było przeprowadzić dodatkowe badanie, która z grup uczestniczących w transferze jest biedniejsza i jakie w wyniku zmiany transferów byłyby zmiany w następnych turach wpływów i wydatków.
Badanie efektywności ekonomicznej wprowadzenia opłat bibliotecznych nie stanowiło jednak przedmiotu niniejszej pracy. Ze względu na to, że ograniczyłyby one czytelnictwo, prawdopodobnie ich wprowadzenie przyczyniłoby się do zmniejszenia
sumarycznych korzyści społecznych.
Makroekonomiczna efektywność biblioteki publicznej…
79
Tymczasem korzystne społecznie, a tym samym makroekonomicznie, byłoby
zwiększenie czytelnictwa. W wariancie kalkulacji, biorącym pod uwagę tylko koszty mikroekonomiczne i bezpośrednią wycenę przez użytkowników, osiągnięcie efektywności wymagałoby zwiększenia liczby czytelników 2,7 razy, przy zachowaniu ich struktury społecznej, czyli wzrostu raczej trudnego do osiągnięcia. W wariancie, biorącym
pod uwagę koszty społeczne i zastąpienie wyceny przez najmłodszych przez wycenę starszych czytelników, potrzebny byłby 1,6-krotny wzrost ich liczby, w najbardziej
sprzyjającym wariancie kalkulacji wystarczyłby wzrost 1,5-krotny. W świetle spadającej w ostatnich latach liczby czytelników [Jóźwiak 2006] nawet taki wzrost nie byłby łatwo osiągalny, poza tym dotyczyłby zapewne ludzi mniej ceniących usługi biblioteczne niż obecni czytelnicy.
W ostatnich latach podnoszono głosy na temat zmiany tradycyjnej roli bibliotek
publicznych na rolę nowoczesnych multimedialnych centrów informacyjnych [Górska, Lewandowicz 2003; Wołosz 2002] i to mogłaby być droga do zwiększenia frekwencji w bibliotekach. Oznaczałoby to jednak jednocześnie konieczność bardzo
znacznego zwiększenia kosztów wyposażenia, a także kosztownego przekwalifikowania przynajmniej części personelu lub w ogóle jego częściowej wymiany.
Poszerzenie zakresu usług bibliotecznych i ich komputeryzacja nazywane są w Polsce hybrydyzacją usług. Jak dotychczas, postęp na tym polu nie zadawala specjalistów
[Paszko 2006]. Podobne tendencje występują jednak także w innych krajach. W niedawnym artykule Brindley [2006] postulowała podobne drogi poprawy ekonomicznej
efektywności bibliotek w warunkach brytyjskich, tzn. komputeryzację, intensyfikację
marketingu, otwarcie dostępu do cennych kolekcji druków (także przez kanały internetowe), poszerzenie i przyspieszenie usług udostępniania dokumentów (specjalny typ
usługi w Wielkiej Brytanii), archiwizowanie i udostępnianie krajowego dorobku piśmienniczego, plastycznego i muzycznego, powstającego w formie elektronicznej.
W ocenie tej autorki ekonomiczna efektywność bibliotek w jej kraju kształtuje się jednak pomyślnie. Jeden funt szterling z pieniędzy publicznych, zainwestowanych w bibliotekach, przynosi 4,4 funta tzw. przez autorkę „wartości narodowej”.
Należy zwrócić uwagę na to, że do niniejszej kalkulacji włączono tylko wartość
usług bibliotecznych dla bezpośrednich użytkowników, podczas gdy niewątpliwie występuje też ich społeczna, pozaużytkowa wartość dla reszty społeczeństwa, także dla
tych jego członków, którzy do bibliotek nie uczęszczają. Wartość ta wynika z uznania
zasług bibliotek na polu edukacji młodzieży, z doceniania ich roli jako centrów kulturalnych, w których mają miejsce różnego rodzaju imprezy kulturalne, jak to jest też
w przypadku badanej biblioteki. Są to wystawy, koncerty, odczyty, spotkania z autorami
i towarzyszące im dyskusje. Ta rola lokalnych bibliotek publicznych znajduje też uznanie władz lokalnych, które subsydiują placówki biblioteczne ze swoich budżetów.
Literatura
Bibliotekarstwo 1994 red. Z. Żmigrodzki, Warszawa.
Brindley L. 2006 Re-defining the library. Library Hi Tech, t. 24, nr 4.
80
Henryk Manteuffel Szoege, Marta Jóźwiak
Dziennik Biblioteki Publicznej w Legionowie. Czytelnie dla Dorosłych i Młodzieży 1991 –
2005 passim, Materiał powielany MBP, Legionowo.
Epstein R. 2003 The Regrettable Necessity of Contingent Valuation, „Journal of Cultural
Economics”, t. 27.
Fercz J., Niemczykowa A. 1991 Podstawy nauki o książce, bibliotece i informacji naukowej,
Warszawa.
Dąbrowska-Majewska M. 2005 Analiza bezrobocia wśród kobiet, Materiał powielany,
Legionowo.
Gawarecki W. 1999 O pieniądzach dla bibliotek raz jeszcze…, „Biuletyn EBIB”, nr 3,
http://www.oss.wroc.pl/biuletyn/ebib03/finanse.html.
Głowacka E. 2002 Wskaźniki efektywności bibliotek według normy ISO 11620, „Biuletyn
EBIB”, http://www.ebib.oss.wroc.pl/matkonf/standardy/glowacka.php.
Informacja z wykonania planu wydatków i przychodów własnych MBP w Legionowie za rok
2003 + część opisowa 2004, Materiał powielany, Legionowo.
Informacja z wykonania planu wydatków i przychodów własnych MBP w Legionowie za rok
2004 + część opisowa 2005, Materiał powielany, Legionowo.
Informacja z wykonania planu wydatków i przychodów własnych MBP w Legionowie za rok
2005 + część opisowa 2006, Materiał powielany, Legionowo.
Jóźwiak M. 2006 Efektywność makroekonomiczna działalności bibliotek publicznych na przykładzie MBP w Legionowie, Praca magisterska na Wydziale Ekonomiczno-Rolniczym SGGW, Warszawa.
Kołodziejska J. 2002 Ile kosztują biblioteki?, „Biuletyn EBIB”, nr 5,
http://ebib.oss.wroc.pl/2002/34/kolodziejska.php.
Koryś B. 1999 Miejska Biblioteka Publiczna 1949 – 1999. Przemówienie z okazji 50-ciolecia Biblioteki Publicznej w Legionowie, Materiał powielany, Legionowo.
Maj L. 2002 Biblioteka Powiatowa w Legionowie, Praca magisterska w Instytucie Informacji Naukowej i Studiów Bibliologicznych Wydziału Historycznego Uniwersytetu Warszawskiego, Warszawa.
Maj L. 2000 Monografia Miejskiej Biblioteki Publicznej w Legionowie, Praca licencjacka w Instytucie Informacji Naukowej i Studiów Bibliologicznych Wydziału Historycznego Uniwersytetu Warszawskiego, Warszawa.
Manteuffel Szoege H. 2005 Zarys problemów ekonomiki środowiska, Warszawa.
Masiak D. 2003 Formy pracy z czytelnikiem stosowane w Filii Dziecięcej w Legionowie, Praca
licencjacka w Instytucie Informacji Naukowej i Studiów Bibliologicznych Wydziału Historycznego Uniwersytetu Warszawskiego, Warszawa.
Noonan D.S. 2004 Valuing Arts and Culture: A Research Agenda for Contingent Valuation, „Journal of Arts Management, Law and Society”, t. 34, nr 3.
Osiewalski J., Osiewalska A. 2002 Ekonometryczne modelowanie kosztów polskich bibliotek
publicznych, http://ebib.oss.wroc.pl/matkonf/standardy/osie.php.
Paszko A. 2006 Hybrydyzacja usług bibliotek publicznych w Polsce. Stan obecny, perspektywy
i wyzwania, www.wbp.olsztyn.pl/bwm/1-2-06-ie/3_1.html.
Płatne biblioteki? 2005, http://ksiazki.wp.pl/wiadomosci.
Sprawozdanie z działalności Miejskiej Biblioteki Publicznej w Legionowie w roku 1986 1987,
Materiał powielany, Legionowo.
Makroekonomiczna efektywność biblioteki publicznej…
81
Sprawozdanie z działalności Miejskiej Biblioteki Publicznej w Legionowie w roku 1989 1990,
Materiał powielany, Legionowo.
Sprawozdanie z działalności Miejskiej Biblioteki Publicznej w Legionowie w roku 1993 1994,
Materiał powielany, Legionowo.
Szymorowska T. 2002 Efektywność kosztowa biblioteki publicznej w aspekcie zarządzania mieniem i źródłami informacji, http://ebib.oss.wroc.pl/matkonf/standardy/szymor.php.
Średnie ważone oprocentowanie depozytów i kredytów w polskim systemie bankowym 2005, Tryb
www.stat.gov.pl.
Tyws A. 2002 Efektywność bibliotek w modelu międzyorganizacyjnym, http://ebib.oss.wroc.pl/
/matkonf/standardy/tyws.php.
Ustawa z dnia 27 czerwca 1997r. o bibliotekach, Dz.U. 85 1997 r., poz. 539.
Ustawa z dnia 27 lipca 2001r. o zmianie ustawy o bibliotekach, Dz.U. 129 2001 r.,
poz. 1440.
Valuing Cultural Heritage. Applying Environmental Valuation Techniques to Historic Buildings, Monuments and Artifacts 2002, eds. S. Navrud i R.C. Ready, Cheltenham.
Wołosz J. 2002 Efektywne biblioteki publiczne w społeczeństwie informacyjnym,
http://ebib.oss.wroc.pl/matkonf/standardy/wolosz.php.
Wskaźniki cen podstawowych kategorii ekonomicznych 2006, www.stat.gov.pl.
OPTIMUM – STUDIA EKONOMICZNE NR 1 (37) 2008
Jan ZARZECKI 1
ZARZĄDZANIE DŁUGIEM SKARBU PAŃSTWA
Streszczenie
Problem długu publicznego Polski pojawił się w latach siedemdziesiątych XX wieku, po dużym
zagranicznym zadłużeniu i braku zdolności do jego obsługi. Po częściowej redukcji zadłużenia w 1994
roku realizuje się koncepcję utrzymania zadłużenia zagranicznego Skarbu Państwa na stałym poziomie
poprzez refinansowanie zapadających rat kapitałowych nowymi emisjami obligacji skarbowych na rynkach zagranicznych, natomiast płatności odsetek są finansowane z bieżących przychodów budżetu państwa. Zarządzanie długiem obejmuje decyzje określające bezpieczną wielkość długu publicznego i sposobu
finansowania potrzeb pożyczkowych państwa. Zamieszczane są one w opracowywanych corocznie od
1999 roku przez ministra finansów trzyletnich strategiach zarządzania długiem Skarbu Państwa oraz oddziaływania na państwowy dług publiczny. Celem realizacji strategii jest minimalizacja kosztu obsługi zadłużenia w długim czasie.
MANAGEMENT OF NATIONAL DEBT
Summary
The question of Poland's national debt arose in 1970s when it became clear that the country had no capacity to service its high debt. After a partial reduction of the debt in 1994, a concept for maintaining of national debt at a steady level is in operation. This is being done through refinancing of capital instalments by
new emissions of Treasury bonds in foreign markets whereas interest maturing payments are financed from
current receipts of the Budget. The management of national debt involves decisions aimed at determining
a safe amount of public debt and the way of financing of the loan needs of the State. The decisions have
been presented since 1999 in the form of annual three-year strategies, prepared by the Ministry of Finance,
to manage the State Treasury debt and to service the public debt. The strategy is aimed at minimizing, in the
long run, of the costs connected with the service of the debt.
1. Wstęp
Ustawa o finansach publicznych [2005] określa, że: przez państwowy dług publiczny rozumie się wartość nominalną zadłużenia jednostek sektora finansów publicznych, ustaloną po wyeliminowaniu wzajemnych zobowiązań pomiędzy jednostkami tego sektora. Dotyczy więc tylko zadłużenia wobec podmiotów nie należących do sektora finansów publicznych, określanych jako sektor finansów prywatnych. Są nim skumulowane zobowiązania sektora finansów publicznych, powstałe
1
Dr hab. Jan Zarzecki, prof. WSE jest pracownikiem Wyższej Szkoły Ekonomicznej w Białymstoku.
84
Jan Zarzecki
w wyniku finansowania wydatków publicznych, przewyższających dochody w kolejnych okresach (latach). Powstają one w wyniku: finansowania deficytów budżetowych
drogą zaciągania pożyczek państwowych, rolowania pożyczek w celu spłaty wcześniejszych zobowiązań, udzielania poręczeń i gwarancji przez rząd, nieregularnej spłaty
zobowiązań podmiotów sektora finansów publicznych. Obejmują pożyczony kapitał wraz z jego obsługą, czyli należnymi odsetkami i prowizjami. Na państwowy dług
publiczny składają się zobowiązania z następujących tytułów:
1. wyemitowanych papierów wartościowych;
2. zaciągniętych kredytów i pożyczek;
3. przyjętych depozytów;
4. wymagalnych zobowiązań:
–
wynikających z odrębnych ustaw i prawomocnych orzeczeń sądów lub
ostatecznych decyzji administracyjnych;
–
uznanych za bezsporne przez właściwą jednostkę sektora finansów
publicznych, będącą dłużnikiem.
Najważniejszym podmiotem sektora finansów publicznych jest Skarb Państwa,
toteż przedmiotem opracowania jest dług Skarbu Państwa, dominującego w sektorze rządowym i obejmującego 92% państwowego długu publicznego (tabela 1.).
Ponadto do znacząco deficytowych podmiotów sektora rządowego zalicza się: samodzielne publiczne zakłady opieki zdrowotnej (przeważnie kliniczne), Narodowy
Fundusz Zdrowia, państwowe szkoły wyższe, jednostki badawczo-rozwojowe. Drugim segmentem finansów publicznych jest sektor samorządowy, obejmujący głównie jednostki samorządu terytorialnego i samodzielne publiczne zakłady opieki zdrowotnej im podlegające, kreujące dług tego sektora. Ponadto, do deficytowych jednostek finansów publicznych zalicza się sektor ubezpieczeń społecznych; Zakład Ubezpieczeń Społecznych i zarządzane przez niego fundusze. Został on wydzielony z sektora rządowego od 2006 roku nową ustawą o finansach publicznych [2005]. Kategorię ekonomiczną państwowego długu publicznego i jego klasyfikację wprowadzono w 1999 roku ustawą z dnia 26 listopada 1998 roku o finansach publicznych, natomiast do 1998 roku dług publiczny utożsamiany był z długiem Skarbu Państwa.
Dla rozpoznania przyczyn i skutków zadłużenia publicznego przydatny jest podział
długu Skarbu Państwa na: wewnętrzny (krajowy) i zewnętrzny (zagraniczny). W szczególności należy zbadać i objaśnić mechanizm powstawania zadłużenia oraz możliwości jego kształtowania poprzez właściwe nim zarządzanie. Przedmiotem ogólnego przeglądu jest państwowy dług publiczny objęty statystyką w latach 1999 – 2006.
W szczegółowej analizie długu Skarbu Państwa za bazowy przyjęto rok 1995, po
podpisaniu w 1994 roku z wierzycielami umów redukujących zadłużenie zagraniczne.
W realizacji celu badawczego wykorzystano niezbędne informacje z literatury ekonomicznej, dotyczące powstawania długu publicznego oraz definicje i aspekty prawne tej kategorii finansowej z dwóch cytowanych ustaw o finansach publicznych.
Kwestie i problemy podejmowane w zarządzaniu długiem Skarbu Państwa są wynikiem analizy dokumentów publikowanych przez Ministerstwo Finansów – Strategii
zarządzania długiem sektora finansów publicznych. Podstawą oceny wartościowej
Zarządzanie długiem Skarbu Państwa
85
jego zmian są informacje z Roczników Statystycznych RP przy zastosowaniu tabelarycznej techniki przedstawiania danych liczbowych.
2. Geneza i restrukturyzacja zadłużenia
Geneza długu publicznego Polski sięga lat siedemdziesiątych XX wieku. W dekadzie tej ówczesne polskie władze przyjęły strategię przyspieszenia wzrostu gospodarczego poprzez import kapitału i technologii z krajów wysoko rozwiniętych. Zaciągane kredyty przez podmioty sektora państwowego (publicznego) miały być spłacane w przyszłości zwiększonymi wpływami pieniężnymi z eksportu. Podjęcie tej
strategii wynikało z potrzeby stworzenia dodatkowych miejsc pracy dla około 1,7 mln
osób w latach 1971 – 1975 i 1,2 mln osób w latach 1976 – 1980. Wówczas wchodziły
w wiek aktywności zawodowej roczniki powojennego wyżu demograficznego. Sprzyjała takiej polityce także duża dostępność kredytów na międzynarodowych rynkach
finansowych w wyniku nagromadzenia dużych rezerw kapitałowych przez eksporterów ropy naftowej, spowodowanego dużym wzrostem ceny tego surowca.
Zadłużenie Polski w walutach wymienialnych wzrastało od zera w 1970 roku do
25,5 mld USD na koniec 1980 roku. Kredyty te były niewłaściwie wykorzystane, gdyż
tylko około 20% zużyto na finansowanie inwestycji i rozbudowę zdolności wytwórczych, około 65% na import surowców i półfabrykatów, a około 15% na import towarów konsumpcyjnych. Nie było więc gospodarczych podstaw do ich spłaty eksportem, koncepcja samospłaty kredytów nie powiodła się.
Dla zrozumienia problemu zadłużenia istotna jest analiza zmian w gospodarce
światowej w latach 70., które doprowadziły bezpośrednio do wybuchu kryzysu zadłużenia w 1982 roku. Początek lat 70. charakteryzował się wzrostem cen surowców
na rynku międzynarodowym i ujemnymi realnymi stopami procentowymi na rynkach finansowych. W tych warunkach kraje rozwijające się były szczególnie skłonne
do zaciągania kredytów zagranicznych, ponieważ w niektórych latach wzrost cen towarów eksportowych był szybszy od wzrostu stóp procentowych. Tę korzystną sytuację radykalnie zmienił kryzys energetyczny w 1974 roku, który poprzez dynamiczny wzrost ceny ropy naftowej pogorszył salda obrotów bieżących zarówno krajów
rozwijających się, jak i rozwiniętych, niedysponujących zasobami ropy naftowej [Kosztowniak 2007 s. 17].
Ponadto nastąpił znaczny wzrost stóp procentowych na międzynarodowych rynkach finansowych na początku lat osiemdziesiątych. Błędne okazało się założenie,
iż zadłużenie będzie dla Polski korzystne, gdyż w warunkach wysokiej inflacji w krajach rozwiniętych spłaty będą niższe od realnej wartości zaciągniętych kredytów. W takiej sytuacji Polska nie była zdolna do obsługi zadłużenia zagranicznego. Spowodowało to dalszy jego wzrost od 1983 roku do 40,8 mld USD na koniec 1989 roku,
w efekcie kapitalizacji zaległych płatności odsetkowych oraz odsetek od niespłaconych rat kapitałowych.
Pierwotną przyczyną powstania długu publicznego są niespłacone kredyty przedsiębiorstw sektora publicznego (państwowego) zaciągnięte za granicą zarówno gwa-
86
Jan Zarzecki
rantowane przez wierzycieli rządowych, jak i kredyty niegwarantowane banków komercyjnych. Dług ten jest zobowiązaniem Skarbu Państwa.
Gdy występują poważne trudności ze spłatą zadłużenia, można przystąpić do jego
restrukturyzacji. Zgodnie z terminologią stosowaną przez Międzynarodowy Fundusz
Walutowy, oznacza to zmianę warunków spłaty zadłużenia. Restrukturyzacja może
być dokonana w formie konwersji lub refinansowania. Konwersja polega na formalnym odroczeniu płatności długu i ustaleniu nowego okresu spłaty przełożonych
sum. Refinansowanie długu oznacza przełożenie okresu kredytowania w odniesieniu do zapadających płatności lub zastąpienie bieżących i przyszłych płatności nowym kredytem. W restrukturyzacji kłopoty płatnicze kraju zadłużonego są jedynie
przesuwane w czasie, jest więc ona niewystarczająca do rozwiązania problemu globalnego zadłużenia. Stąd też już na przełomie lat siedemdziesiątych i osiemdziesiątych XX wieku pojawiły się propozycje metod redukcji zadłużenia krajów rozwijających się. Jednakże podstawą restrukturyzacji był plan zaproponowany przez amerykańskiego sekretarza stanu N.F. Brady’ego w 1989 roku. Był on skierowany do krajów
zadłużonych o średnim dochodzie, których zadłużenie wynosiło ponad 70% globalnego zadłużenia krajów rozwijających się. Obejmował 39 krajów mających trudności z obsługą długu zagranicznego o wartości 340 mld USD [szerzej: Kosztowniak 2007 s. 80 – 83].
Ze względu na dużą liczbę wierzycieli rządowych i komercyjnych trudno prowadzić osobne negocjacje w sprawie rozwiązania problemu zadłużenia zagranicznego
ze wszystkimi wierzycielami. W związku z tym interesy rządów państw wierzycielskich reprezentuje Klub Paryski, a interesami banków komercyjnych, u których zaciągnięto kredyty niegwarantowane przez rządy, zajmuje się Klub Londyński2.
Około 3/4 polskiego długu zagranicznego stanowiły zobowiązania wobec wierzycieli publicznych (rządów 17 krajów) zrzeszonych w Klubie Paryskim. W wyniku
negocjacji z wierzycielami tej grupy 21 kwietnia 1991 roku podpisano Protokół uzgodnień w sprawie redukcji i reorganizacji zadłużenia Rzeczypospolitej Polskiej, uzyskując redukcję zadłużenia w wysokości 12,4 mld USD, czyli o 50% ogólnej wielkości. Drugą
grupę stanowili wierzyciele prywatni (ponad 300 banków komercyjnych) zrzeszeni
w Klubie Londyńskim. W wyniku negocjacji i porozumienia z tymi wierzycielami
10 marca 1994 roku udało się uzyskać redukcję długu o 49,2%, czyli o 6,3 mld
USD. Pozostała część długu została skonwertowana; polski rząd wyemitował obligacje (tak zwane obligacje Brady’ego) o różnych terminach wykupu i różnym oprocentowaniu, przekazując je wierzycielom [System finansowy… 2003 s. 729 – 731].
2 Klub Paryski funkcjonuje od 1956 roku pod auspicjami OECD z inicjatywy krajów wierzycielskich. Celem klubu jest renegocjacja warunków obsługi zaległych pożyczek i gwarantowanych kredytów handlowych. Porozumienia zawarte oznaczają restrukturyzację długu ze strony rządów krajów
wierzycielskich i wierzycieli, którzy udzielili gwarantowanych kredytów handlowych. Klub Londyński
jest nieformalną organizacją, zrzeszającą banki komercyjne państw wysoko rozwiniętych, które udzielały
najwięcej kredytów krajom zadłużonym o średnim dochodzie. Banki te uzależniają podpisanie umów
restrukturyzacji długu, w tym jego częściowej redukcji, od wcześniej podpisanych umów z Bankami
Światowymi, MFW i Klubem Paryskim. Warunki restrukturyzacji są podobne do określonych przez
Klub Paryski [Kosztowniak 2007 s. 122-123].
Zarządzanie długiem Skarbu Państwa
87
Redukcja zadłużenia i warunki restrukturyzacji pozostałej jego części, uzyskane
z Klubem Paryskim i Klubem Londyńskim, spowodowały, że od 1995 roku obsługa
zadłużenia zagranicznego nie sprawiała większych trudności. Założono utrzymanie
na stałym poziomie zadłużenia zagranicznego Skarbu Państwa. Oznacza to refinansowanie wszystkich zapadających w przyszłości spłat zadłużenia zagranicznego (rat
kapitałowych) nowymi emisjami obligacji skarbowych na rynkach zagranicznych.
Zapadalność największych kwot przypada na lata 2003 – 2013 [szerzej: Małecki
2003 s. 32]. Natomiast płatności odsetek, wynoszące około 1 mld USD rocznie,
będą finansowane z bieżących dochodów budżetowych. Dopuszcza się możliwość
zakupu walut zagranicznych przez budżet państwa na krajowym rynku walutowym,
co może ograniczyć nadmierną aprecjację złotego. Za celową uznaje się przedterminową spłatę zadłużenia wobec Klubu Paryskiego oraz przedterminowy wykup obligacji Brady’ego w Klubie Londyńskim w celu podwyższenia wiarygodności kredytowej Skarbu Państwa.
Podstawą powyższej strategii są cztery przesłanki:
–
sytuacja budżetu nie będzie umożliwiać spłaty zadłużenia zagranicznego;
–
obecny poziom zadłużenia zagranicznego Skarbu Państwa nie stanowi zagrożenia dla wiarygodności kredytowej Polski;
–
polski rząd będzie mógł dokonywać na dogodnych warunkach emisji obligacji na międzynarodowych rynkach finansowych w wysokości 3 – 4 mld
USD rocznie, uwzględniając zmieniające się warunki rynkowe;
–
zamiana zadłużenia zagranicznego na dług krajowy – poprzez refinansowanie zapadających spłat zadłużenia zagranicznego emisjami skarbowych papierów wartościowych na rynku krajowym – byłaby niekorzystna ze
względu na jej wpływ na kurs walutowy, gdyż mogłaby wzmacniać tendencję do aprecjacji złotego [Małecki 2003 s. 34].
3. Realizacja strategii zarządzania długiem
Zarządzanie długiem Skarbu Państwa odbywa się na podstawie ustawy o finansach publicznych [2005]. Według art. 70 tej ustawy, minister finansów opracowuje corocznie trzyletnią strategię zarządzania długiem Skarbu Państwa oraz oddziaływania
na państwowy dług publiczny, uwzględniając w szczególności:
–
uwarunkowania zarządzania długiem związane ze stabilnością makroekonomiczną gospodarki;
–
analizę i prognozy poziomu państwowego długu publicznego;
–
prognozy poziomu i koszt obsługi długu Skarbu Państwa;
–
kształtowanie struktury zadłużenia.
Kategoria państwowego długu publicznego jest punktem odniesienia dla konstytucyjnego limitu relacji długu publicznego do produktu krajowego brutto (PKB)
oraz norm ostrożnościowych 50%, 55% i 60% w art. 79 ustawy o finansach publicznych [2005]. Stanowią one warunki krańcowe, ograniczające swobodę rządu
88
Jan Zarzecki
w odniesieniu do kształtowania wielkości zadłużenia. Gdy w danym roku (x) relacja
kwoty państwowego długu publicznego do produktu krajowego brutto:
1. jest większa od 50%, a nie większa od 55%, to:
–
za dwa lata (x + 2) relacja deficytu budżetu państwa do dochodów budżetu państwa nie może być wyższa niż w roku następnym (x + 1);
–
powyższa relacja stanowi górne ograniczenie relacji deficytu każdej jednostki samorządu terytorialnego do jej dochodów, uchwalonej w budżecie tej jednostki na rok x + 2;
2. jest większa od 55%, a mniejsza od 60%, to Rada Ministrów przedstawi
sejmowi program sanacyjny zmierzający do obniżenia tej relacji;
3. jest równa lub większa od 60%, to:
–
uchwalony na rok x + 2 budżet państwa i budżety jednostek samorządu terytorialnego powinny być zrównoważone – kwota wydatków
jest równa lub mniejsza od kwoty dochodów;
–
Rada Ministrów przedstawi Sejmowi program sanacyjny zmniejszający tę relację do poziomu poniżej 60%3.
Relacja zadłużenia do PKB w wysokości 60% jest jednym z kryteriów konwergencji (zbieżności) krajów Unii Europejskiej, wchodzących do Unii Gospodarczej
i Walutowej. Wynika z tego, że wielkość długu publicznego nie jest tylko wewnętrzną sprawą poszczególnych krajów, jest oceniana przez inne kraje i organizacje międzynarodowe. Dopuszczenie do powiększenia długu publicznego ponad tę zasadę
jest niebezpieczne, dlatego że wówczas ogranicza stabilizacyjne oddziaływania budżetu na gospodarkę w zmiennej koniunkturze. Zwiększa się również zagrożenie
niewypłacalności państwa, narażając kraj na utratę wiarygodności na międzynarodowych rynkach finansowych.
Biorąc pod uwagę doświadczenia różnych instytucji zarządzających długiem publicznym w świecie, wyróżnia się trzy modele.
1. Model rządowy – zarządzaniem zajmuje się Ministerstwo Finansów lub
Ministerstwo Skarbu Państwa. Koncepcja taka pozwala na koordynację i realizację polityki budżetowej w powiązaniu z obsługą długu publicznego. Dobrze sprawdza się w gospodarkach krajów rozwijających się i podlegających
transformacji ustrojowej, w których stopień rozwoju krajowego rynku finansowego jest niski.
2. Model bankowy – zarządzanie długiem publicznym powierza się bankowi
centralnemu i jest one powiązane z realizacją celów polityki monetarnej.
Wówczas może występować sprzeczność między polityką monetarną a zarządzaniem długiem publicznym, gdyż konieczność podnoszenia stopy
procentowej w zagrożeniu inflacją powoduje wzrost kosztów obsługi za3 Według ustawy z dnia 30 czerwca 2005 roku o finansach publicznych, od 1 stycznia 2006 roku
przewidywane wypłaty z tytułu poręczeń i gwarancji udzielonych przez jednostki sektora finansów
publicznych nie powiększają kwoty państwowego długu publicznego, której relacja do PKB stanowi
punkt odniesienia dla przewidzianych w ustawie norm ostrożnościowych 50, 55 i 60%. Nie uwzględniono ich także przy wyliczaniu zadłużenia w badanym okresie.
Zarządzanie długiem Skarbu Państwa
89
dłużenia krajowego. Podstawowym zadaniem banku centralnego jest dbanie o jakość pieniądza.
3. Model agencyjny – polega na istnieniu instytucji działającej pod kontrolą
ministra finansów, realizującej jego wytyczne. Instytucje te w poszczególnych krajach różnią się znacznie między sobą w zakresie powierzonych im
zadań i poziomu organizacyjnej odrębności. Zarządzanie długiem ma charakter menadżerski ze względu na wysoki poziom autonomii w zakresie wyboru sposobu realizacji zleconych zadań oraz możliwość zatrudnienia wysokiej klasy specjalistów.
Model agencyjny dominuje w Unii Europejskiej, występuje bowiem w 14 krajach
spośród 27 członków Wspólnoty, w tym w 11 z 15 państw „starej Unii”. Tylko w Danii i w Cyprze zarządzaniem długiem publicznym zajmują się banki centralne, jako
agenci ministra finansów, w pozostałych 11 państwach zadanie to powierzono ministrom finansów. Również w Polsce dług publiczny zarządzany jest przez Ministerstwo Finansów [Strategia… 2007 s. 37 – 38].
W odniesieniu do długu Skarbu Państwa minister finansów dysponuje instrumentami pozwalającymi na bezpośrednie nim zarządzanie, natomiast na pozostałe podmioty sektora finansów publicznych, autonomiczne w zaciąganiu zobowiązań, oddziałuje pośrednio. Opracowywane od 1999 roku strategie zarządzania długiem publicznym przedkładane są co roku przez Radę Ministrów Sejmowi wraz z uzasadnieniem projektu ustawy budżetowej. Wynika to nie tylko z zapisu w ustawie, lecz
także z faktu, że zadłużenie oddziałuje istotnie na sytuację budżetu państwa, a także
pośrednio na szereg innych parametrów gospodarczych kraju, takich jak: stopa inflacji, stopy procentowe, kursy walutowe, bilans płatniczy, rezerwy dewizowe.
Zarządzanie długiem publicznym odbywa się na dwóch poziomach:
1. W szerszym znaczeniu obejmuje ono decyzje dotyczące wydatków państwa
finansowanych poprzez zaciąganie długu, a zatem określające wielkość
długu publicznego. Przedmiotem analizy jest wpływ długu publicznego na
gospodarkę, rynki finansowe, finanse publiczne i politykę pieniężną. Kluczowym zagadnieniem jest ustalenie bezpiecznego poziomu długu w stosunku do wielkości gospodarki (mierzonego relacją długu do PKB). Poziom
uznawany za bezpieczny oznacza taką wielkość długu, która pozwala na jego terminową obsługę oraz nie powoduje istotnego negatywnego wpływu
zadłużenia na gospodarkę.
2. W węższym znaczeniu zarządzanie długiem oznacza sposób finansowania
potrzeb pożyczkowych państwa, a więc wybór rynków, instrumentów i terminów emisji [Strategia… 2005].
W pierwszej strategii przyjęto do realizacji następujące cele długoterminowe, do
2009 roku:
–
ograniczenie udziału długu zagranicznego w długu ogółem;
–
wydłużenie średniego okresu zapadalności długu – zmniejszenie wielkości
relacji długu zapadalnego w danym roku do długu ogółem;
–
wygładzenie rozłożenia spłat zobowiązań i kosztów obsługi w czasie;
90
Jan Zarzecki
–
ograniczenie zmienności kosztów obsługi długu oraz zwiększenie ich
przewidywalności poprzez wzrost udziału instrumentów o stałym oprocentowaniu w długu ogółem;
–
uelastycznienie struktury długu zagranicznego.
Cele krótkoterminowe na kolejne okresy trzyletnie zmieniają się w zależności od
postępu w realizacji celów długoterminowych i zmieniającej się sytuacji finansów
publicznych w kraju i na rynkach finansowych.
Przegląd informacji statystycznych tabeli 1. upoważnia do stwierdzenia, iż założenie utrzymywania na stałym poziomie zadłużenia zagranicznego Skarbu Państwa
jest realizowane. Średnia arytmetyczna tego zadłużenia w latach 1997 – 2003 wynosiła 32,8 mld euro, a w poszczególnych latach występują odchylenia od tej kwoty,
charakteryzujące się niewielkim współczynnikiem zmienności wynoszącym 6,8%.
Odniesienie 12% stopy wzrostu tego zadłużenia w ciągu sześciu lat do stopy inflacji
w strefie euro informuje, że nie zwiększyło się realne zadłużenie. Wyższa zmienność (v=9,1%) zadłużenia zagranicznego wyrażonego w złotych świadczy o tym, że
na jego wielkość wpływała zmiana kursu złotego względem euro; gdy następowała
aprecjacja złotego, zadłużenie zagraniczne malało, natomiast deprecjacja złotego
powodowała wzrost zadłużenia zagranicznego.
TABELA 1.
Państwowy dług publiczny (stan na 31 grudnia)
Sektora rządowego
Skarbu Państwa
PozosOgółem
Razem
Krajowy
Zagraniczny
Lata
tały
[mld zł] [mld zł]
dług
jako
udział
[mld
[mld zł]
[mld zł]
[mld zł]
[%]
euro]a [mld zł]
[% PKB]
101,1
39,5
66,1
54,3
167,2
1995
106,0
42,9
79,6
48,2
185,6
1996
(36,9)b
117,6 31,1(38,5)
46,9
104,0
47,3
221,6
1997
116,2
51,0
121,2
42,9
237,4
1998
29,2
129,7
50,9
134,7
43,0
264,4
267,8
3,5
1999 274,0
32,0
120,9
54,5
145,0
35,7
265,9
271,1
5,2
2000 280,3
35,4
98,9
65,0
183,7
37,7
282,6
291,3
8,7
2001 320,1
33,1
108,6
66,8
218,2
41,8
326,8
338,6
11,8
2002 352,6
34,1
127,8
66,2
250,7
45,0
378,5
392,1
13,6
2003 408,6
34,9
111,2
72,4
291,0
43,5
402,2
413,8
11,6
2004 432,3
42,4
124,7
71,6
313,7
44,8
438,4
446,4
8,0
2005 466,6
49,7
126,2
73,5
350,4
45,2
476,6
481,7
5,2
2006 505,0
51,6
Sektora
samorządowego
[mld zł]
6,2
9,2
10,8
14,0
16,5
18,4
20,2
23,3
a – zadłużenie obejmuje sektor rządowy i samorządowy; oprócz Skarbu Państwa, zadłużony jest
za granicą samorząd terytorialny, ale udział długu zagranicznego w długu jednostek samorządu
terytorialnego wynosił 10,4% (2,4 mld zł) na koniec 2006 roku; b – liczby w nawiasach (mld
USD)
Źródło: obliczenia własne na podstawie: [Rocznik Statystyczny… 1999 s. 500; 2000 s. 484; 2002
s. 503; 2004 s. 620; 2005 s. 628; 2007 s. 626; „Biuletyn Informacyjny” 2/2007, NBP, s. 45].
Zarządzanie długiem Skarbu Państwa
91
W latach 2004 i 2005 wystąpiły duże zmiany relacji między walutowymi miernikami zadłużenia. Spadkowi wartości zadłużenia zagranicznego, wyrażonej w złotych,
towarzyszy dynamiczny wzrost tego zadłużenia w euro o 21% w 2004 roku i o 17%
w 2005 roku. Spowodowane to zostało głównie aprecjacją złotego względem euro4.
Realizowano ograniczenia udziału długu zagranicznego w długu ogółem przyjęte
w pierwszej Strategii. W całym badanym okresie, w tym także od 2000 roku, wzrastał udział zadłużenia krajowego w ogólnej wartości długu Skarbu Państwa z 50,9%
w 1999 roku do 73,5% w 2006 roku.
Celem strategii realizowanych w latach 2004 – 2006 była minimalizacja kosztów
obsługi zadłużenia w długim czasie poprzez:
1. optymalny dobór struktury walutowej nowych emisji, instrumentów zarządzania długiem i terminów emisji;
2. działania polegające na podniesieniu efektywności rynku skarbowych papierów wartościowych, przyczyniające się do obniżenia rentowności SPW,
tak aby koszty ich obsługi były najmniejsze z możliwych.
Za najważniejsze zadania strategii, wynikające z realizacji przyjętych celów, uznaje
się:
–
zwiększenie płynności, efektywności i przejrzystości rynku skarbowych papierów wartościowych;
–
rozwój systemu dealerów skarbowych papierów wartościowych;
–
rozwój systemu zarządzania płynnością budżetu państwa.
Działania dotyczące punktu pierwszego polegały na dostosowywaniu struktury
emisji skarbowych papierów wartościowych (SPW) do warunków występujących na
krajowym i międzynarodowym rynku finansowym.
Na rynku krajowym chodziło o to, by nadmierna podaż poszczególnych papierów skarbowych nie powodowała zbyt wysokich kosztów obsługi długu. Niekorzystna pod tym względem była sytuacja na przełomie lat 2003 i 2004, gdy w odniesieniu do obligacji średnio- i długoterminowych ze stałą stopą procentową nie osiągnięto równowagi i ograniczony popyt wywoływał duży wzrost rentowności. Celowe
było więc zmniejszenie ich podaży i zastosowanie alternatywnych źródeł finansowania:
–
emisja nowych 3- i 7-letnich obligacji ze zmiennym oprocentowaniem;
–
zwiększenie finansowania zagranicznego;
–
emisja obligacji w formie private placement.
Umożliwiły one zmniejszenie kosztów obsługi długu przy utrzymaniu ryzyka refinansowania na dotychczasowym poziomie (bez zwiększenia emisji instrumentów
krótkoterminowych) w zamian za przejściowe zwiększenie ryzyka stopy procentowej. Obniżeniu kosztów obsługi służyło także wprowadzenie w sierpniu 2004 roku
nowego instrumentu zarządzania długiem – obligacji ze stałym oprocentowaniem
i nominale indeksowanym inflacją. Można nimi wyeliminować z kosztów obsługi
4 Na koniec grudnia 2003 roku kurs średni euro w NBP wynosił 4,72 złote, na koniec 2004 roku – 4,08
złotych, na koniec 2005 roku – 3,87 złotych, według informacji w Biuletynach Informacyjnych NBP.
92
Jan Zarzecki
premię za ryzyko, jakiej żądali inwestorzy, nabywając tradycyjne obligacje indeksowane.
Minimalizacja kosztów obsługi długu zagranicznego następowała poprzez zastępowanie zobowiązań drogich w obsłudze instrumentami tańszymi, z uwzględnieniem poziomu ryzyka. W październiku i grudniu 2004 r. dokonano przedterminowej spłaty kredytów z Banku Światowego o równowartości 843 mln USD. W 2005 r.
dokonano spłaty zobowiązań wobec wierzycieli zrzeszonych w Klubie Paryskim
w wysokości ok. 4,4 mld EUR, na rzecz 10 państw (w przypadku Kanady – dokonano spłaty jedynie części długu). Główną korzyścią było ograniczenie ryzyka refinansowania, ale operacja przyczyniła się również do zmniejszenia płatności z tytułu
odsetek. Średnie oprocentowanie spłaconego długu wynosiło ok. 5%, podczas gdy
wyemitowanych na pokrycie spłat obligacji – średnio 4,2% [Strategia… 2005 s. 5].
Płatności odsetek od zadłużenia Skarbu Państwa ujmowane są w budżecie państwa pod pozycją – Obsługa długu publicznego. Powyższe działania sprawiły, że
relacja kosztów obsługi zadłużenia Skarbu Państwa do produktu krajowego brutto
w roku 2004 znacznie obniżyła się, osiągając poziom 2,5%, a w następnych latach
występuje niewielka tendencja wzrostowa (tabela 2.). Chociaż udział zadłużenia krajowego w całkowitym zadłużeniu zwiększył się z 50,9% w 1999 roku do 73,5% w 2006
roku, to w strukturze kosztów obsługi zadłużenia nie nastąpiły tak duże zmiany –
udział kosztów obsługi zadłużenia krajowego zwiększył się z 79,3% do 84,6%. Oznacza to, że jednostkowe koszty obsługi zadłużenia krajowego relatywnie zmniejszają się.
Ponieważ wydatki budżetu państwa przewyższają dochody, można stwierdzić, że
spłata odsetek od zadłużenia zagranicznego powiększa deficyt budżetowy, który w latach 2001 – 2005 w ponad 80% był finansowany emisją długu publicznego na rynku krajowym, a od 2002 roku także funduszami zagranicznymi (tabela 3.). Powoduje to dynamiczny wzrost krajowego długu Skarbu Państwa; w ciągu jedenastu lat jego udział zwiększył się z 39,5% do 73,5% (tabela 1.). Można więc wnioskować, że utrzymywanie zadłużenia zagranicznego na stałym poziomie odbywa się wzrostem
zadłużenia krajowego.
W latach 2001 – 2006 roczne koszty obsługi zadłużenia zagranicznego wynosiły
około 3,8 mld zł (przy założeniu 1 mld USD), co stanowi około 10% deficytu budżetowego (tabela 2.). Emisja długu krajowego jest więc spowodowana w około
90% nierównoważeniem budżetowych dochodów krajowych z wydatkami krajowymi, z czego około 52% w latach 2001 i 2002 dotyczy kosztów obsługi długu krajowego, a około 38% bieżących wydatków w 2005 roku odpowiednio – 75% i 12%.
Zarządzanie długiem Skarbu Państwa
93
TABELA 2.
Koszty obsługi długu Skarbu Państwa
Lata
1999
2000
2001
2002
2003
2004
2005
2006
Ogółem
w relacji do
[mld zł]
PKB [%]
3,0
18,8
2,6
18,0
2,8
20,9
3,1
24,0
3,0
24,0
2,4
22,6
2,5
25,0
2,6
27,8
Struktura [%]
krajowe
zagraniczne
79,3
76,1
81,8
84,6
84,6
81,4
85,2
84,6
20,7
23,9
18,2
15,4
15,4
18,6
14,8
15,4
Źródło: obliczenia własne na podstawie: [Rocznik Statystyczny RP 2001 s. 494; 2002 s. 502; 2004
s. 619; 2005 s. 627; 2006 s. 627; 2007 s. 628].
TABELA 3.
Finansowanie deficytu budżetu państwa
Rodzaj finansowania
1. Deficyt ogółem: w mld zł
w%
2. Źródła krajowe
– w systemie bankowym
– poza systemem bankowym
– przychody z prywatyzacji
3. Źródła zagraniczne
4. Deficyt w relacji do PKB [%]
5. Deficyt sektora finansów publicznych w relacji do PKB [%]
1999
12,5
100
108,8
23,2
21,6
64,0
-8,8
-2,0
-3,2
2000 2001
15,4 32,4
100 100
132,6 134,9
-87,0 32,7
45,8 82,1
173,8 20,1
-32,6 -34,9
-2,1 -4,3
-3,0
-5,3
Lata
2002 2003
39,4 37,0
100 100
91,3 84,0
1,8 7,8
84,2 68,1
5,1 8,1
8,7 16,0
-5,1 -4,5
-6,0
-4,8
2004 2005 2006
41,4 28,4 25,1
100 100 100
92,5 57,4 72,5
-8,7 -31,6
⋅
51,4 185,3
⋅
24,6 13,3 2,4
7,5 42,6 27,5
-4,5 -2,9 -2,4
-4,5
-4,3
-3,9
Źródło: obliczenia własne na podstawie: [Rocznik Statystyczny RP 2001 s. 494 i 496; 2002 s. 502;
2004 s. 619; 2005 s. 627; 2007 s. 625].
W 2005 roku dopuszczono zaciąganie długu zagranicznego w wysokości przekraczającej potrzeby wynikające z finansowania wykupywanego długu zagranicznego. Do zwiększenia udziału finansowania zagranicznego skłaniała korzystna sytuacja na rynkach zagranicznych; niższe stopy procentowe pożyczkowe niż w Polsce i aprecjacja złotego. Minimalizację kosztu obsługi długu w przyszłości realizowano poprzez:
–
pozyskiwanie pieniędzy po znacznie niższych stopach procentowych od
stóp procentowych krajowych (obligacje nominowane w euro, jenach, frankach szwajcarskich);
94
Jan Zarzecki
–
zmniejszenie sprzedaży skarbowych papierów wartościowych na rynku krajowym do poziomu popytu na nie krajowych podmiotów pozabankowych5;
–
zastępowanie zobowiązań droższych w obsłudze zobowiązaniami tańszymi
poprzez przedterminowy wykup części (4,4 mld euro zadłużenia wobec Klubu Paryskiego);
–
zmniejszenie kosztów emisji, spowodowanych prowizjami i opłatami płaconymi organizatorom (bankom) emisji.
W 2005 roku osiągano także poprawę parametrów długu krajowego i zagranicznego w następujący sposób:
–
zwiększono średnią zapadalność długu Skarbu Państwa z 3,8 lat do 5 lat; mimo znacznego postępu w ograniczaniu ryzyka refinansowania, jego poziom
jest nadal wyższy w porównaniu z innymi krajami UE, gdzie średnia zapadalność przekracza 6 lat; średnia zapadalność rynkowego długu krajowego
w tym czasie wzrosła z 3,1 roku do 3,6 roku na skutek zmniejszenia zadłużenia z tytułu emisji bonów skarbowych i dużej sprzedaży obligacji średnio- i długoterminowych (minimum 5-letnich); średnia zapadalność długu
zagranicznego wzrosła z 5,5 do 8,5 roku i spowodowana była przedterminowym wykupem długu wobec Klubu Paryskiego i refinansowania go emisją obligacji długoterminowych (15 – 20 lat);
–
wzrosło duration6 długu Skarbu Państwa ogółem z 2,8 do 3,7 roku; zwiększając ilość instrumentów średnio- i długoterminowych w finansowaniu potrzeb pożyczkowych budżetu państwa i w efekcie ograniczono ryzyko refinansowania i ryzyko stopy procentowej zarówno długu krajowego i zagranicznego.
Skutkiem dążenia do minimalizacji kosztów zadłużenia był nieznaczny wzrost ryzyka kursowego długu Skarbu Państwa oraz możliwość aprecjacji złotego względem
euro na skutek napływu transz pożyczkowych na krajowy rynek finansowy.
5 Udział kapitału zagranicznego na krajowym rynku skarbowych papierów wartościowych zwiększał się w ostatnich latach osiągając 23,6% (68,6 mld zł) wszystkich sprzedanych rynkowych obligacji
na koniec 2005 roku, gdy w 2000 roku wynosił 6,6%. Wzrost wartości kapitału zagranicznego oznacza
zarówno presję na aprecjację złotego, jak i podatność stopy procentowej na zmiany w przepływach
tego kapitału. Gdy zamiana pożyczonych walut zagranicznych na złote odbywa się poprzez sprzedaż
walut w Narodowym Banku Polskim, powoduje wzrost podaży pieniądza i zwiększenie skali kosztownych operacji otwartego rynku. Natomiast, gdy sprzedawane są one na rynku walutowym, wpływają na
aprecjację złotego. Ograniczenie napływu kapitału zagranicznego na krajowych rynkach może nastąpić
w wyniku zmniejszenia podaży skarbowych papierów wartościowych i zmniejszenie różnicy pomiędzy
ich rentownością a rentownością obligacji skarbowych ze strefy euro.
6 Duration jest miarą wrażliwości kosztów obsługi długu na zmianę stóp procentowych. Interpretowana jest jako wyrażona w latach średnia długość okresu dostosowania kosztów obsługi długu do
zmiany poziomu stóp procentowych. Im niższy jest poziom stóp procentowych i większy udział instrumentów dłużnych długoterminowych ze stałym oprocentowaniem, tym mniejsze jest ryzyko stopy
procentowej i wyższe duration.
Zarządzanie długiem Skarbu Państwa
95
4. Koncepcja zarządzania długiem w latach 2008 – 2010
Minimalizacja kosztu obsługi długu Skarbu Państwa w długim czasie w latach
2007 – 2010 będzie polegała na elastycznym kształtowaniu struktury finansowania
pod względem wyboru rynku, waluty i rodzaju instrumentów. Koncepcja finansowania powinna być wynikiem oceny sytuacji rynkowej w odniesieniu do stóp procentowych i oczekiwań dotyczących kształtowania się kursów walutowych oraz wynikać
z porównania kosztów pozyskania pieniędzy na długi okres w kontekście ograniczeń
wynikających z przyjętych za akceptowane poziomów ryzyka (szczególnie refinansowania, stopy procentowej, kursowego). Przy wyborze waluty finansowania należy
uwzględnić także wielkość potrzeb pożyczkowych budżetu państwa w walutach obcych. Emisje na rynkach zagranicznych powinny:
–
zapewnić pieniądze na spłaty rat kapitałowych i odsetek od długu zagranicznego, w tym operacji przedterminowego wykupu;
–
wzmocnienie pozycji Polski na rynku euro i zapewnienie obecności na pozostałych głównych rynkach finansowych (amerykańskim, japońskim i szwajcarskim);
–
działać stabilizująco na rynek krajowy, uwzględniając możliwości występowania negatywnych skutków spowodowanych wymianą walut na złote (tj.
wpływu na kurs złotego i politykę pieniężną NBP), [Strategia… 2007 s. 18].
Zwraca uwagę zmiana źródła spłaty odsetek od zadłużenia zagranicznego, które
dotychczas finansowane były z dochodów budżetu państwa.
Dla osiągnięcia powyższego celu przyjęto do realizacji cztery zadania:
1. Zwiększenie płynności i efektywności rynku skarbowych papierów wartościowych (SPW). Działania zmierzające do efektywnego funkcjonowania tego
rynku obejmują politykę emisyjną i organizację rynku. Będzie utrzymywana,
realizowana od 2003 roku, polityka emisji średnio- i długoterminowych obligacji ze stałym oprocentowaniem, tak aby wartość pojedynczej emisji osiągnęła równowartość 5 mld euro7. Zwiększenie efektywności emisji SPW na
międzynarodowym rynku finansowym będzie polegać na odpowiednim
sposobie ich planowania: tworzenie płynnych beuchemarków i odpowiednie dopasowanie konstrukcji, wartości i terminu emisji do potrzeb inwestorów.
2. Rozwój systemu Dealerów Skarbowych Papierów Wartościowych (DSPW)
i rynku elektronicznego SPW. Funkcjonowanie DSPW jest elementem organizacji rynku skarbowych papierów wartościowych. W 2007 roku uczestniczyło w nim 15 banków komercyjnych, w tym trzy banki zagraniczne i Bank
Gospodarstwa Krajowego.
3. Poszerzenie bazy inwestorów i poprawa komunikacji z uczestnikami rynków finansowych. Spowoduje to dodatkowy popyt na oferowane SPW na
7 Wartość 5 mld EURO jest minimalnym poziomem wymaganym przy wprowadzaniu obligacji nominowanych w euro na platformie Euro MTS. Dotychczas tę wartość przekroczyło 6 emisji na rynku krajowym.
96
Jan Zarzecki
4.
rynku krajowym i zagranicznym, przyczyniając się zarówno do minimalizacji kosztów obsługi, jak i dywersyfikacji ryzyka. Zadanie to będzie realizowane poprzez:
–
rozszerzenie kanałów komunikacji elektronicznej z inwestorami zagranicznymi;
–
bezpośrednie spotkania z inwestorami i konsultacje z uczestnikami rynku SPW;
–
aktywny udział w konferencjach i seminariach z udziałem inwestorów
[Strategia… 2007 s. 20 – 22].
Rozwój systemu zarządzania płynnością budżetu państwa obejmujący:
–
doskonalenie prognozowania przepływów budżetowych;
–
rozwój infrastruktury technicznej i organizacyjnej;
–
doskonalenie zarządzania długiem i płynnością.
5. Podsumowanie
Problem długu publicznego w Polsce pojawił się w drugiej połowie lat siedemdziesiątych XX wieku, jako skutek błędnej i źle realizowanej strategii przyspieszania
wzrostu gospodarczego poprzez import kapitału i technologii z krajów wysoko rozwiniętych. Nie powiodła się koncepcja samospłaty kredytów zwiększonym eksportem i ich deprecjacji. Polska nie była zdolna do obsługi zadłużenia zagranicznego.
Po częściowej redukcji zadłużenia zagranicznego w 1994 roku realizuje się koncepcję utrzymania zadłużenia zagranicznego Skarbu Państwa na stałym poziomie
poprzez refinansowanie zapadających rat kapitałowych nowymi emisjami obligacji
skarbowych na rynkach zagranicznych, gdyż budżet państwa nie jest w stanie spłacać zadłużenia zagranicznego. Natomiast płatności odsetek są finansowane z bieżących przychodów budżetowych.
Zarządzanie długiem odbywa się na dwóch poziomach. Obejmuje ono decyzje
określające bezpieczną wielkość długu publicznego, mierzoną jego reflacją do PKB,
jak i dotyczące sposobu finansowania potrzeb pożyczkowych państwa; wyboru rynków, instrumentów i terminów emisji. Zamieszczane są one w opracowywanych corocznie przez Ministerstwo Finansów trzyletnich strategiach zarządzania długiem
Skarbu Państwa oraz oddziaływania na państwowy dług publiczny. Celem realizowanych strategii jest minimalizacja kosztu obsługi zadłużenia w długim czasie.
Utrzymywanie zadłużenia zagranicznego na stałym poziomie odbywa się wzrostem zadłużenia krajowego, gdyż spłata odsetek od tego zadłużenia powiększa deficyt budżetowy, który w 80% finansowany jest emisją długu publicznego na rynku
krajowym, a w latach 2002 – 2006 także funduszami zagranicznymi. Spowodowało
to wzrost udziału zadłużenia krajowego w ogólnej wartości długu Skarbu Państwa
z 50,9% w 1999 roku do 73,6% w 2006 roku. Zadłużenie krajowe również wzrasta
na skutek finansowania kosztów obsługi długu krajowego i nadmiernych wydatków
bieżących.
Zarządzanie długiem Skarbu Państwa
97
Aprecjacja złotego względem walut zagranicznych i obniżka stóp procentowych
na rynkach międzynarodowych skłoniły do dopuszczenia w 2005 roku zaciągania
długu zagranicznego w wysokości przekraczającej potrzeby wynikające z finansowania wykupywanego długu zagranicznego. Emisje skarbowych papierów na rynkach
zagranicznych od 2007 roku mają zabezpieczyć także fundusze na spłaty odsetek od
długu zagranicznego. Możliwe jest to przy utrzymaniu wartości zadłużenia zagranicznego w złotych na stałym poziomie i wzroście tego zadłużenia w walutach obcych (euro).
Literatura
„Biuletyn Informacyjny” 2007, nr 2, NBP.
Deficyt budżetowy i dług publiczny w wybranych krajach europejskich 2003, red. E. Ruśkowski, Białystok.
Kosztowniak A. 2007 Zadłużenie zagraniczne a rozwój gospodarczy, Warszawa.
Małecki W. 2003 Zarządzanie zagranicznym długiem publicznym a równowaga zewnętrzna
polskiej gospodarki, „Studia Finansowe”, nr 66.
Marchewka-Bartkowiak K. 2003 Zarządzanie długiem publicznym w krajach Unii Europejskiej i w Polsce, Warszawa.
Rocznik Statystyczny RP 1999 1999, Warszawa.
Rocznik Statystyczny RP 2000 2000, Warszawa.
Rocznik Statystyczny RP 2001 2001, Warszawa.
Rocznik Statystyczny RP 2002 2002, Warszawa.
Rocznik Statystyczny RP 2004 2004, Warszawa.
Rocznik Statystyczny RP 2005 2005, Warszawa.
Rocznik Statystyczny RP 2007 2007, Warszawa.
Strategia zarządzania długiem publicznym w latach 2008 – 2010 2007, Warszawa.
Strategia zarządzania długiem sektora finansów publicznych w latach 2005 – 2007 2004,
Warszawa.
Strategia zarządzania długiem sektora finansów publicznych w latach 2006 – 2008 2005,
Warszawa.
Strategia zarządzania długiem sektora finansów publicznych w latach 2007 – 2009 2006,
Warszawa.
System finansowy w Polsce 2003, red. Pietrzak B. i inni, Warszawa.
Ustawa z dnia 26 listopada 1998 r. o finansach publicznych (Dz.U. Nr 155, poz.
1014 z późn. zm.).
Ustawa z dnia 30 czerwca 2005 r. o finansach publicznych (Dz.U. Nr 249, poz. 2104).
OPTIMUM – STUDIA EKONOMICZNE NR 1 (37) 2008
Agnieszka MOJSA 1
FLUKTUACJE CEN ROPY NAFTOWEJ I ICH WPŁYW NA
GOSPODARKĘ ŚWIATOWĄ
Streszczenie
W artykule przedstawiono zmiany cen ropy w latach 1973 – 2007 wraz z czynnikami wpływającymi
na nie i skutkami tych zmian w gospodarce światowej. W szczególności poruszono najszybszy wzrost cen
ropy począwszy od kryzysu energetycznego w latach 1973 i 1979 – jako efekt polityki państw OPEC –
aż do dnia dzisiejszego (wzrost popytu w Chinach, rozruchy w Nigerii i Sudanie, czy wzrost kosztów
eksploatacji złóż ropy).
FLUCTUATIONS IN THE PRICES OF OIL AND THEIR INFLUENCE ON THE
GLOBAL ECONOMY
Summary
In this article fluctuations in the oil prices during the period from 1973 to 2007 have been presented together with the factors influencing them and the effects of those changes on the world economy. In particular, the article deals with the most rapid increases in oil prices starting with the energy crises from 1973
to 1979 – as a result of the policy of the OPEC countries – up to the present day (the growing demand for
oil in China, riots in Nigeria and Sudan or an increase in costs of oil ex¬ploitation).
1. Wstęp
Świat po raz pierwszy usłyszał o ropie naftowej za sprawą polskiego farmaceuty
Ignacego Łukasiewicza, który w 1852 roku przeprowadził pierwszą destylację ropy
naftowej. Rok później powstała lampa naftowa, a dwa lata później pierwsza na
świecie kopalnia ropy. Nikt wówczas nie przypuszczał, że wkrótce ta czarna substancja warunkować będzie rozwój gospodarki światowej oraz stanowić źródło konfliktów zbrojnych. To za jej sprawą wybuchać będą kryzysy energetyczne, polityczne,
upadać rządy, a uwaga całego świata skupiona będzie na jej cenach.
Od połowy lat siedemdziesiątych każdemu gwałtownemu i długotrwałemu wzrostowi cen ropy towarzyszyły prognozy zapowiadające nieuchronne wyczerpanie się jej
złóż oraz groźbę globalnego kryzysu. Pod koniec ubiegłego stulecia tania ropa sprawiła, iż wizja kryzysu – wprawdzie na chwilę – stała się bardzo odległa. Jednak ko1 Mgr Agnieszka Mojsa jest doktorantką na Wydziale Ekonomii i Zarządzania Uniwersytetu w Białymstoku.
100
Agnieszka Mojsa
lejne jej zwyżki na początku XXI wieku sprawiły, że problem surowcowy powrócił.
Zdarzenia te uświadomiły wówczas rządom i społeczeństwom ogromną zależność
od ropy, wymuszając jednocześnie wprowadzenie bardziej energooszczędnych technologii. Pokazały one również, że ceny ropy naftowej zależą od kilku nakładających
się na siebie czynników zarówno o charakterze rynkowym (popyt – podaż), jak i pozarynkowym, tj. sytuacja polityczna u głównych dostawców czy prognozy zimowej
pogody.
Celem artykułu jest przedstawienie zmian cen ropy naftowej w latach 1973 – 2007
wraz z ich konsekwencjami dla gospodarki światowej, jak również czynników i zdarzeń, które wpływały na te ceny.
2. Międzynarodowe rynki ropy naftowej
Ropą naftową handluje się praktycznie na całym świecie. Ukształtowały się jednak trzy główne ośrodki obrotu: giełdy w Londynie, Nowym Jorku i Singapurze. Wyróżnia się tam dwa rodzaje transakcji: z dostawą natychmiastową – spot oraz terminowe – gdy dostawa następuje w kolejnych miesiącach [Rynek… 2005].
Ponieważ na świecie znanych jest około 1500 odmian ropy, kupujący i sprzedawcy wybrali kilka rodzajów, których ceny stanowią punkt odniesienia dla pozostałych. Ustala się je uwzględniając dyskonto bądź premię w zależności od jakości danego rodzaju. Za taką wzorcową odmianę na świecie uważa się ropę brytyjską „Brent”,
wydobywaną z dna Morza Północnego. Podobnie w rejonie Zatoki Perskiej wyznacznikiem cen dla ropy eksportowanej do Azji jest ropa „Dubai”, z kolei w USA ropa „West Texas Intermediate” [Rynek… 2005 s. 1].
Decydujący wpływ na poziom cen ropy naftowej na światowych rynkach mają
producenci tworzący organizację eksporterów ropy – OPEC, tj.: Algieria, Iran, Irak,
Kuwejt, Libia, Nigeria, Katar, Arabia Saudyjska, Zjednoczone Emiraty Arabskie,
Indonezja i Wenezuela. Kraje te produkują obecnie około 40% ropy na świecie
i posiadają około 77% światowych zasobów tego surowca (rysunek 1.). Państwa zrzeszone w OPEC wyznaczają kwoty wydobycia i za pomocą kontrolowanej sprzedaży
wpływają na ceny na rynkach światowych. Fakt, na ile kraje członkowskie poddają
się tej dyscyplinie, powoduje większe lub mniejsze perturbacje na tych rynkach [Lorenz,
Grudziński 2001 s. 172].
Do „koszyka” OPEC wchodzi siedem gatunków ropy. Sześć z nich wydobywana
jest w państwach członkowskich, tj.: algierska „Saharan Blend”, indonezyjska „Minas”, nigeryjska „Bonny Light”, arabska lekka ( z Arabii Saudyjskiej) „Dubai Fateh”,
wenezuelska „Tia Juana Light”; siódma – „Isthmus – pochodzi z Meksyku [Oil
markets… b.r.w.]. Ceny z tego koszyka służą do monitorowania sytuacji cen na rynkach oraz wpływają na mechanizm tworzenia „pasma cen”. Mechanizm ten polega
na korekcie wielkości produkcji, w sytuacji gdy ceny sprzedaży przekraczają wyznaczone pasmo cen: minimalnej i maksymalnej. Korekta ta wynosi 500 mln baryłek
dziennie: o tyle zwiększa się wydobycie, jeśli cena sprzedaży przekracza górną wy-
Fluktuacje cen ropy naftowej i ich wpływ na gospodarkę światową
101
znaczoną wartość przez 20 dni i o tyle zmniejsza – jeśli przez 10 dni handlowych
utrzymuje się cena niższa niż dolna wartość [Lorenz, Grudziński 2001 s. 172].
Ceny ropy, produkowanej w krajach nie należących do OPEC, również w istotny
sposób wpływają na sytuację rynkową. Do takich należą przede wszystkim amerykańska „West Texas Intermediare”(WTI) oraz brytyjska „Brent”, na których podstawie wyznaczana jest cena wzorcowa ropy. Ropa WTI jest notowana na giełdzie
nowojorskiej NYMEX, natomiast Brent – na londyńskiej giełdzie naftowej IPE
(International Petroleum Exchange); oba te gatunki są oczywiście sprzedawane na
rynkach spot [Lorenz, Grudziński 2001 s. 172]. W praktyce jednak różnice w cenie
pomiędzy ropą Brent, WTI oraz koszykiem OPEC są do siebie zbliżone i ściśle ze
sobą powiązane [Kaczmarek, Jarosz 2006 s. 120].
RYSUNEK 1.
Główni producenci ropy naftowej
Źródło: Enegry International Administration.
Z uwagi na fakt, że ropa naftowa jest towarem notowanym na giełdzie, a jej obroty osiągają największe rozmiary, reakcja na wszelkie wahania podażowo-popytowe
na świecie jest szybka i taka sama na wszystkich rynkach. Dlatego też jej cena stała się
w ciągu minionych czterdziestu lat głównym narzędziem polityki międzynarodowej.
102
Agnieszka Mojsa
3. Ceny ropy naftowej
W latach 60-tych i 70-tych ubiegłego wieku eksport ropy naftowej realizowany przez
państwa OPEC stanowił ponad 85% światowego exportu. Jesienią 1973 roku wybuchła, trwająca 30 dni, wojna na Bliskim Wschodzie. Arabskie kraje eksportujące ropę zastosowały wtedy embargo naftowe w stosunku do Holandii i USA oraz jednocześnie podjęły decyzję o radykalnym ograniczeniu wydobycia. Swoista wojna polityczno-gospodarcza wywołała (wprawdzie przejściowo) częściowy spadek tempa
rozwoju gospodarki światowej [Soliński 2004 s. 3]. Od 1966 roku aż po rok 1973 gospodarka światowa rozwijała się w tempie wynoszącym prawie dokładnie 5% rocznie
[Brown 1982 s. 205]. Możliwe to było dzięki min. bardzo niskim cenom ropy – baryłka surowej ropy kosztowała bowiem od 1949 do 1970 roku 1,9 $. Gwałtowny
wzrost jej cen, jaki miał miejsce w 1973 roku, do poziomu 3 $ i na początku 1974
roku aż do 11 $ [Dakowski, Wiąckowski 2005 s. 8], przyczynił się do spadku tempa
wzrostu gospodarki światowej do mniej niż 2% w 1974 roku i mniej niż 1% w roku
1975 [Brown 1982 s. 205]. Kraje „Trzeciego Świata” i – powstałego przez to – „Czwartego Świata” wpadły wówczas w kryzysy gospodarcze i musiały zamrozić budowane
już inwestycje przemysłowe, tracąc tym samym szansę na rozwój [Dakowski, Wiąckowski 2005 s. 8]. Podniesienie cen ropy i jej niedobór spowodowały chaos w dziedzinie cen produktów naftowych. Jeszcze pod koniec 1974 roku, kiedy uważano, że
sytuacja jest prawie unormowana, ceny produktów i półproduktów petrochemicznych ciągle były nieustabilizowane. Ocenia się, że podwyżka cen ropy arabskiej obciążyła w tym czasie bilans płatniczy importujących ropę krajów w Ameryce, Europie i Azji. Budżet Europy Zachodniej zamknął się deficytem 25 mld $ w 1974 roku
i 55 mld $ rok później. Podskoczyło gwałtownie tempo inflacji, wahające się od 7,3%
w RFN do 43,8% w Islandii. Dolar stracił 11% swojej wartości, a japoński jen aż
25,5%. Ograniczenia dostaw materiałów pędnych, zaskakując świat, wywołały reakcję
łańcuchową kolejnych trudności. Cios bowiem został wymierzony nie tylko w transport. Koniecznością było poważne zmniejszenie dostaw benzyny dla przemysłu
chemicznego i wielu innych branż produkcyjnych. Wysoko rozwinięta gospodarka
krajów na Zachodzie i Japonii zakładała niezbędny wzrost zapotrzebowania na ropę o 100% w ciągu 10 lat, tymczasem dostawy, poczynając od 1974 roku, zmalały
przeciętnie o 20%. Kryzys naftowy dotknął nie tylko rządy i przedsiębiorstwa przemysłowe, ale również każdego mieszkańca. Nastąpiły ograniczenia w zużyciu energii elektrycznej, dotkliwie dał się odczuć brak różnego rodzaju surowców, półfabrykatów i produktów chemicznych. W rezultacie wzrosły koszty ogrzewania mieszkań
oraz ceny na surowce i artykuły przemysłowe. Rok 1974 był najcięższy, zarysowało
się wówczas widmo nieopanowanego wyścigu cen, inflacji i bezrobocia. Zaczęto
ograniczać czas pracy fabryk – w Anglii ustanowiono 3-dniowy tydzień pracy, przez
co ponad milion ludzi zostało pozbawionych źródła utrzymania [Zonik 1978 s. 231 –
235]. Część państw postanowiła racjonować paliwo – np. w USA kierowcy pojazdów
z nieparzystymi numerami rejestracyjnymi mogli kupować benzynę i olej napędowy
w poniedziałki, środy i piątki, a z parzystymi we wtorki, czwartki i soboty [Kaczmarek, Jarosz 2006 s. 120]. Tak więc w latach 1973 – 1975 sytuacja zmieniła się wyraź-
Fluktuacje cen ropy naftowej i ich wpływ na gospodarkę światową
103
nie: Europie Zachodniej i Japonii zagroził kryzys; wystąpiło zjawisko stagnacji produkcji, a nawet recesji. Poważnie wzrosły koszty utrzymania i znacznie spadły dochody ludności. Oczywiście najbardziej dał się odczuć kryzys motoryzacyjny. Producenci samochodów stanęli przed potężną łamigłówką: ograniczyć ilość wypuszczanych z taśmy montażowej aut, czy przejść błyskawicznie na małolitrażowe. Niektórzy, jak General Motors, zapowiedzieli zwolnienie dziesiątków tysięcy pracowników. Wprowadzone zostało na pewien czas racjonowanie materiałów pędnych i ograniczenie szybkości samochodów do 90 km/godz. W Szwecji obowiązywały kartki
na benzynę, a w Holandii wolno było kupić zaledwie 15 litrów tygodniowo [Zonik
1978 s. 235 – 236].
Światowy kryzys energetyczny po raz drugi wybuchł w 1979 roku, gdy strajki w ogarniętym rewolucją Iranie doprowadziły do przerwania wydobycia ropy. Po ucieczce
szacha z Iranu produkcję wznowiono, ale dostawy były ograniczone. Trudności na
światowych rynkach paliwowych pogłębiły się w następnym roku po wybuchu wojny iracko-irańskiej. W rezultacie w 1980 roku cena 1 baryłki ropy naftowej wzrosła
do ok. 39 $ – był to ponad 12-krotny wzrost w stosunku do cen z 1972 roku. Zjawiska te doprowadziły do ograniczenia produkcji przemysłowej, spirali inflacyjnej, wzrostu
bezrobocia i ogólnego regresu ekonomicznego. Powstały trudności w pokryciu potrzeb energetycznych wielu krajów, stając się czynnikiem ograniczającym społecznoekonomiczny rozwój świata. Przeciwdziałając negatywnym skutkom kryzysu w wielu
krajach, zwłaszcza uprzemysłowionych, podjęto wielokierunkowe działania i programy zmierzające do ograniczenia zużycia ropy naftowej i jej substytucji innymi paliwami – głównie węglem i energią jądrową. Podjęto również intensywne poszukiwania nowych złóż, zwłaszcza na Morzu Północnym i w Zatoce Meksykańskiej. Dzięki
tym działaniom już w połowie lat osiemdziesiątych doszło do obniżenia i stabilizacji cen ropy naftowej, której ceny w 1986 roku spadły do ok 15 $ za baryłkę, co
spowodowało również obniżenie cen gazu ziemnego oraz węgla. Efektem tych
działań było: zmniejszenie w krajach uprzemysłowionych zużycia ropy naftowej
w 1982 roku o ok. 20% w stosunku do poziomu z 1970 roku, ogólny wzrost efektywności użytkowania paliw i energii, oraz w rezultacie w 1986 roku zmniejszenie światowych cen ropy naftowej do poziomu sprzed II kryzysu energetycznego [Soliński
2004 s. 3 – 4 i 21].
Wojna Iraku z Iranem dobiegła końca w sierpniu 1988 roku, kiedy wyczerpane
i wyniszczone strony zgodziły się na zawieszenie broni i rozmowy pokojowe. Cena
ropy kształtowała się wówczas na poziomie ok. 19 $. Pokój w Zatoce trwał jednak
bardzo krótko. Iracki dyktator Saddam Hussein był rozczarowany wynikiem wojny
i stał w obliczu olbrzymiego, zakumulowanego długu wojennego, zaczął więc postrzegać Kuwejt – który odmawiał umorzenia długu zaciągniętego podczas wojny przez
Bagdad na zakup broni – jako źródło swoich problemów [Klare 2006 s. 64]. Dodatkowo w marcu 1990 roku Kuwejt, wbrew decyzjom OPEC, zalał świat swą tanią ropą, co spowodowało spadek cen z 19 do 13 $ za baryłkę, ku niezadowoleniu innych
członków OPEC, a szczególnie Saddama Husseina [Dakowski, Wiąckowski 2005 s. 9].
Kiedy Irackie czołgi wjechały do stolicy Kuwejtu, Stany Zjednoczone powołując się
104
Agnieszka Mojsa
na Doktrynę Cartera2 rozmieściły w rejonie Zatoki ponad sto amerykańskich samolotów [Klare 2006 s. 60 – 61]. W wyniku tego kryzysu światowe rynki zostały pozbawione około 4 milionów baryłek ropy dziennie, które wcześniej dostarczały Kuwejt i Irak. Arabia Saudyjska natychmiast zareagowała podniesieniem poziomu produkcji, a tym samym zapobiegła sytuacji, która mogłaby wywołać bardzo negatywne
skutki dla świata [Materiały…]. Ceny ropy spadły wówczas z 36 $/baryłkę w drugiej
połowie 1990 roku, do 18 – 20 $/baryłkę w 1991 roku [Muszkiet 1997 s. 233]. Tymczasem światowe zużycie ropy naftowej zmniejszyło się w 1993 roku o 0,2%, co oznaczało załamanie utrzymującej się od połowy lat osiemdziesiątych tendencji wzrostu
zapotrzebowania [Gospodarka Świata… 1994 s. 40]. Światowa gospodarka zmagała się
bowiem z recesją. Wzrost gospodarczy większości krajów OECD wyniósł w 1992
roku od 1 do 1,5%. Stany Zjednoczone nadal miały problemy z wysokim zadłużeniem podmiotów gospodarczych z drugiej połowy lat osiemdziesiątych. Dwie inne
dotychczasowe „lokomotywy” wzrostu gospodarki światowej Japonia i RFN również przechodziły fazę silnej recesji wzrostu. Japonia, po wielkiej ekspansji inwestycyjnej i eksportowej swych największych koncernów w latach osiemdziesiątych, dążyła do konsolidacji swej obecnej pozycji, a nie do dalszego zwiększania inwestycji.
Związany z tym spadek stopy inwestycji przyczynił się do spadku PKB z 4,5 – 5%
w latach 1983 – 1990 do 1,8% w 1992 roku. Z kolei integracja gospodarki b. NRD
z gospodarką RFN okazała się znacznie bardziej skomplikowana i kosztowna niż
przewidywano. Ponadto, po niezwykle silnej ekspansji w latach 1987 – 1989 (około
10 – 12% rocznie), wolumen handlu światowego zwiększył się niewiele ponad 5%
w 1990 roku i o 3,5% w 1991 roku. Zmniejszenie stopy wzrostu spowodowane było
z jednej strony recesją i wolniejszym tempem wzrostu popytu na import w krajach
wysoko rozwiniętych, z drugiej zaś strony – załamaniem handlu między krajami byłego RWPG [Polska w gospodarce światowej… 1993 s. 12 i 51].
W latach 1993 – 1998 ceny ropy naftowej na rynku międzynarodowym wahały się
w stosunkowo nieznacznym stopniu, a w grudniu 1998 roku cena ropy spadła do
poziomu 12,3 $/baryłkę (wykres 1.), [Soliński 2004 s. 23 – 24]. Zanotowano również, największy od lat 70-tych, 12%-owy spadek cen innych surowców. Jednostkowa wartość eksportu takich państw wschodnioazjatyckich, jak: Hong Kongu, Chin,
Korei Południowej, Singapuru czy Tajwanu spadła wówczas od 3,6% do 17%. Wpływy państw OPEC z eksportu ropy naftowej skurczyły się o przeszło 50 miliardów
dolarów, a łączny PKB wszystkich eksporterów ropy spadł o ponad 6%. W Ameryce Łacińskiej spadek cen eksportowych w 1998 roku przyniósł straty rzędu 10
miliardów dolarów z tytułu różnic kursowych; w krajach sub-saharyjskiej Afryki straty
kursowe równały się prawie 2,5% PKB [United Nations Conference… 1999]. W tej sytuacji kraje zrzeszone w OPEC, dążąc do zwiększenia ceny, ograniczyły wydobycie
o 4,3 mln baryłek dziennie [Soliński 2004 s. 23 – 24]. Niższe obroty w światowym
handlu były bowiem w 90% efektem spadku cen ropy naftowej. Niskie ceny ropy
2 23 stycznia 1980 roku Prezydent Carter ogłosił podczas dorocznego przemówienia na temat stanu państwa, że
dostęp do ropy z Zatoki Perskiej leży w żywotnym interesie państwa, dla którego ochrony Stany Zjednoczone są gotowe
wykorzystać każde konieczne środki włącznie z siłami zbrojnymi [cyt. za: Klare 2006 s. 61].
Fluktuacje cen ropy naftowej i ich wpływ na gospodarkę światową
105
i innych surowców spowodowały, że po raz pierwszy od 50 lat udział podstawowych produktów w globalnym handlu nie przekroczył 20%. Skuteczną zaporą
przed ogólnoświatową stagnacją, wywołaną masowym ograniczeniem importu przez
kraje wschodnioazjatyckie, było wówczas bardzo szybkie tempo wzrostu gospodarczego w Stanach Zjednoczonych, dochodzące do około 4% rocznie przez ostatnie trzy
lata [United Nations Conference… 1999 s. 1 – 4].
WYKRES 1.
Ceny ropy naftowej w latach 1851 – 2006
Źródło: Enegry International Administration.
Na spadku cen surowców i importowanych wyrobów przemysłowych, będących
następstwem kryzysu azjatyckiego, skorzystały państwa rozwinięte. W 1998 roku
państwa członkowskie OECD zaoszczędziły na imporcie tańszej ropy około 60 miliardów dolarów. Spadek cen aktywów i wzrost premii za ryzyko na światowych rynkach kapitałowych sprawił, że zainteresowanie inwestorów przeniosło się na bezpieczniejsze giełdy krajów uprzemysłowionych. Miało to pośredni wpływ na pobudzenie wzrostu poprzez zwiększenie wydatków na konsumpcję, co szczególnie widoczne było w Stanach Zjednoczonych, gdzie odnotowano boom konsumpcyjny pomiędzy II kwartałem 1997 roku i końcem 1998 roku, kiedy to konsumenci amerykańscy
wydali dodatkowo 400 miliardów dolarów [United Nations Conference… 1999 s. 1 – 4].
Ograniczenie podaży ropy naftowej w 2000 roku, którego następstwem był wzrost
cen ropy, doprowadziło do fali protestów w Izraelu, Francji, Hiszpanii, Wielkiej Brytanii i Holandii. Rząd brytyjski groził nawet użyciem siły, chcąc zatrzymać strajki.
W czerwcu 2001 roku policja w Indonezji użyła gazu łzawiącego wobec tysięcy protestujących przeciwko wzrostowi cen paliw [Szczyt produkcji… 2007]. Ponadto, czynnikiem, który dodatkowo wpłynął na wzrost cen były ataki z 11 września.
106
Agnieszka Mojsa
Kolejna zwyżka cen ropy miała miejsce na przełomie roku 2002/2003. Spowodowana była protestami pracowników branży naftowej w Wenezueli – przeciwko prezydentowi Hugo Chevezovi – które sprawiły, że kraj ten produkował o milion baryłek ropy dziennie mniej (normalnie produkuje 3,25 mln baryłek), a także wybuchem
konfliktów na tle etnicznym w Nigerii. Potem nastąpiła amerykańska inwazja na Irak,
która spowodowała kolejne ograniczenie o milion baryłek dziennie – do średnio 2 mln
[Helman 2006 s. 48 – 49]. Przejęcie przez amerykańskie siły zbrojne kluczowych elementów infrastruktury naftowej Iraku wcale nie spowodowało zwiększenia dostaw
ropy z tego kraju (na co zresztą liczyli amerykanie), a wręcz przeciwnie, znacznie je ograniczyło (od maja do grudnia 2003 roku dokonano aż 85 ataków sabotażu), [Klare
2006 s. 117]. Rok później za wstrząs na rynku naftowym odpowiedzialne były Chiny, gdzie zużycie wzrosło o blisko milion baryłek dziennie – do 7,4 mln baryłek
[Helman 2006 s. 49]. Kraj ten wraz ze Stanami Zjednoczonymi przyczynił się do osiągnięcia najwyższego od 30 lat poziomu wzrostu gospodarczego na świecie do ok. 5%
w 2004 roku. W odróżnieniu od kryzysów naftowych z lat 70-tych ówczesna zwyżka
cen ropy nie była wywołana polityką państw wytwarzających ten surowiec, takich jak
OPEC, lecz wynikała z niesłychanego wzrostu zapotrzebowania. Gospodarka światowa w 2004 roku spalała prawie 81 milionów baryłek ropy dziennie. Oznaczało to
wzrost o blisko dwa miliony baryłek w stosunku do 2003 roku i był to największy
wzrost zanotowany od prawie 16 lat [Świat zaciąga hamulec 2005 s. 24 – 25].
W roku 2005 za wzrostem cen ropy stał huragan Katrina (sierpień 2005), który
zrujnował instalacje naftowe i platformy wiertnicze w Zatoce Meksykańskiej, oraz tocząca się wojna w Iraku [Raport… 2006]. Ponadto, wywołany głównie ogromnymi
wydatkami wojennymi, znaczny deficyt budżetowy u największego konsumenta ropy, Stanów Zjednoczonych, sięgający 6,5% PKB wywołał gwałtowną (w stosunku
do euro aż o ok. 60%.) deprecjację dolara, waluty, w której następują rozliczenia na
petro rynku. Dolar stracił na wartości, a więc za jednostkę ropy naftowej (baryłkę)
trzeba było zapłacić więcej. Dodatkowo, zwiększone zapotrzebowanie na ropę w Chinach i Indiach przyczyniło się do kolejnego skoku ceny ropy do poziomu 70 $ za baryłkę. Wydawało się wówczas, że rekordowa cena nie zostanie łatwo przekroczona
[Fijor 2005 s. 5]. Jednak niepokoje wywołane groźbami nuklearnymi ze strony Iranu
oraz eskalacja konfliktu na Bliskim Wschodzie (wojna Izraela z Hezbollahem) przyczyniły się do wzrostu ceny ropy do 75,65 $ za baryłkę na początku lipca 2006 roku
[Raport… 2006 s. 1]. W roku 2007 obserwujemy dalszy ciąg tendencji zwyżkowej cen
ropy. Porozumienie, podpisane na początku bieżącego roku w Caracas, między prezydentem Wenezueli Hugo Chavezem i Iranu Mahmudem Ahmadineżadem dotyczące
walki z imperializmem USA; ataki rebeliantów na instalacje naftowe Royal Dutch Shell,
które doprowadziły do spadku dostaw ropy z Nigerii o 500 tys. baryłek dziennie, co
stanowiło 1/5 wydobycia [Wolski 2006], wybuch walk na tle etnicznym w Sudanie;
i w końcu nieustanny spadek dolara, oraz zwiększający się popyt na paliwa grzewcze,
związany z nadejściem zimy w USA i Europie, spowodowały wzrost ceny ropy w listopadzie br. do poziomu ponad 96 $ za baryłkę (wykres 2.).
Mimo rekordowo wysokich cen ropy w ostatnich latach, popyt na ten surowiec stale
rośnie, w tempie wynoszącym rocznie od 1,8 do 2% (wykres 3.). Oznacza to koniecz-
Fluktuacje cen ropy naftowej i ich wpływ na gospodarkę światową
107
ność corocznego zwiększania produkcji o 1,5 miliona baryłek dziennie – czyli co 5 lat
należałoby wprowadzić do eksploatacji złoża o wydajności pól naftowych Arabii Saudyjskiej lub co dwa lata o wydajności wydobycia Iranu czy Iraku [Arciuch 2004 s. 15].
Wprawdzie nowoczesne technologie pozwalają nam na wyeksploatowanie około 40%
złoża – podczas gdy niegdyś opróżniano je jedynie w 20% – nie powstrzyma to jednak
spadku produkcji [Wiercimy głębiej… 2006]. Według indeksu UCCI (Upstream Capital Cost
Index) w ciągu zaledwie 2 ostatnich lat koszty, związane z poszukiwaniem nowych złóż
i eksploatacją, wzrosły o 53%. Oznacza to, że pomimo historycznie wysokich cen tego
surowca, przedsiębiorstwa z branży naftowej odnotowują coraz mniejsze zyski. Część
wzrostu kosztów była reakcją na wysokie ceny ropy i gazu z lat poprzednich, spowodowane uruchomieniem nowych projektów, a tym samym wzrostem zapotrzebowania
na platformy wiertnicze i inne urządzenia [Skokowy wzrost… 2007]. W dużej mierze jednak przyczyniła się do tego również światowa koniunktura napędzana rozwojem Chin.
Import netto w Chinach, będących obecnie drugim pod względem wielkości konsumentem ropy (po USA), wzrósł od stycznia do maja 2007 roku o 11,5% do poziomu
65,8 mln ton [Import ropy… 2007].
WYKRES 2.
Cena ropy Brent w listopadzie 2007 roku ($/b)
Źródło: Energy International Administration.
Międzynarodowa Agencja Energii oszacowała, że zwiększenie ceny baryłki ropy
o 10 $ obniża tempo rozwoju światowego PKB o 0,5% w skali rocznej. Dla gospodarki amerykańskiej, rozwijającej się w tempie ponad 5% rocznie, 0,5% PKB to
niewiele, ale dla francuskiej czy niemieckiej [Arciuch 2004 s. 15], gdzie stopa wzrostu w 2005 roku wyniosła odpowiednio – 1,5 i 0,9% [Robin 2006 s. 26], 0,5% to już
zasadnicza różnica między stagnacją gospodarki a depresją. Jeszcze gorzej wygląda
to w wypadku krajów rozwijających się, które nie dość, że nie mają pieniędzy, to jeszcze ich przemysł i infrastruktury są archaiczne i energochłonne.
Na przykład, wspomniany już, wzrost ceny baryłki o 10 dolarów spowoduje
spadek PKB Tajlandii o 2%, a krajów Afryki sub-saharyjskiej aż o 3%. Poza tym,
nawet jeśli wzrost cen ropy sam w sobie ma ograniczony negatywny wpływ na go-
108
Agnieszka Mojsa
spodarkę, to wygląda to całkiem inaczej, gdy towarzyszą mu inne niekorzystne zjawiska [Arciuch 2004 s. 11 – 13]. W efekcie wzrostu cen ropy drożeje wytwarzana z niej
energia elektryczna, co powoduje także wzrost kosztów produkcji. Z kolei dla konsumentów wyższe ceny ropy oznaczają droższe paliwo na stacjach benzynowych, co
prowadzi do pogorszenia ich nastrojów i skłania do ograniczenia innych zakupów
[Majerkiewicz 2006]. Wzrost cen paliw i postępująca za nimi kaskada wzrostu cen
innych towarów wywołuje inflację, zmuszając rządy i banki centralne do zaostrzenia
polityki monetarnej, budżetowej i kredytowej. To zaś powoduje schłodzenie koniunktury i inwestycji. Z powodu wyższych kosztów produkcji i transportu maleją
też rozmiary handlu międzynarodowego. Po osiągnięciu pewnego progu krytycznego oba te zjawiska mogą rodzić tak zwaną stagflację (stagnacja, której towarzyszy
inflacja), znaną dobrze z lat 70-tych [Arciuch 2004 s. 11 – 13].
WYKRES 3.
Popyt na ropę i cena ropy w latach 2002 – 2006
miliony baryłek dziennie
cena
82,6
84,9
80
83,7
70
60
79,3
$
77,8
50
40
30
2002
2003
2004
2005
2006
Źródło: www.peakoil.pl.
Ceny ropy naftowej, podobnie jak i ceny innych surowców, ewoluują w cyklach
od 25 do 30 lat. Według schematu, na początku cyklu pojawia się duży popyt na surowce, który wywołuje wzrost cen. W tym momencie opłacalne staje się inwestowanie w produkcję. Kiedy nowe inwestycje zostaną zakończone, zwiększa się podaż
i następuje spadek cen trwający od 20 do 25 lat. Potem jest nowy skok cen i tak
kolejno. Taki wzrost cen zanotowano w 1921 roku, tuż po zakończeniu pierwszej wojny światowej. Następnie w latach 30-tych ceny surowców poszybowały w dół. W latach 1948 – 1953 surowce znów gwałtownie podrożały, by następnie tanieć do końca lat 60-tych. Po kryzysie energetycznym z 1974 roku aż do końca XX wieku wyraźnie brakowało inwestycji. W 2002 roku nierównowagę pogłębiło nagłe wejście Chin
Fluktuacje cen ropy naftowej i ich wpływ na gospodarkę światową
109
na rynek międzynarodowy. Wcześniej chiński rynek wewnętrzny w dużej części zaspokajał krajowe zapotrzebowanie [Chalmin 2005 s. 18 – 17]. W latach 2004 – 2007
obserwuje się ogólną zwyżkę cen ropy naftowej. Obecny wzrost cen powinien trwać
zatem do momentu odtworzenia zdolności produkcyjnych. Jednak, z powodu wyczerpywania się złóż, już wkrótce może zabraknąć możliwości zwiększenia wydobycia.
4. Zakończenie
Z analizy sytuacji na rynku ropy naftowej, dotyczącej ostatnich czterdziestu lat,
jednoznacznie wynika, że handel ropą jest najbardziej upolitycznionym rynkiem na
świecie. Wszelkie bowiem konflikty natury politycznej u głównych producentów
tego surowca zawsze prowadziły do destabilizacji tego rynku. Obok czynników geopolitycznych, istotny wpływ na ceny ropy miały również: wysokie koszty (na skutek
wyczerpywania się najtańszych w eksploatacji złóż wydobycie ropy staje się coraz
kosztowniejsze i wymaga coraz większych nakładów) oraz niska elastyczność cenowa popytu i podaży (mimo rosnącego popytu i cen, podaż tego surowca jest niewystarczająca). International Energy Agency w opracowaniu World Energy Technology
Outlook (WETO) przewiduje, że przy utrzymaniu dzisiejszego modelu rozwoju gospodarki światowej do 2030 roku popyt na ropę osiągnie 121 milionów baryłek
dziennie, podczas gdy świat – wg geologa Ali Samsama Bakhtiaria – będzie w stanie
produkować około 55 milionów, czyli o 32% mniej niż obecnie [Świat nie nadąża…
2006]. Oznacza to, że w ciągu kilku lat gospodarki będą musiały nauczyć się funkcjonować w oparciu o zaledwie połowę aktualnie dostępnej energii [Świat nie nadąża… 2006 s. 1], a ceny ropy nigdy już nie spadną do poziomu sprzed 20 lat. Niestety, wiele państw zdaje się nie dostrzegać tego problemu i zamiast poszukiwać
nowych alternatywnych źródeł energii, poszukuje nowych złóż ropy bądź technologii umożliwiających głębszą eksploatację złoża. Dlatego też, nim nie zostanie odkryte nowe źródło energii na miarę ropy naftowej, znaczenie tego surowca, a zatem
i jego cena, będą wzrastać w miarę spadku jego podaży.
Literatura
Arciuch A. 2004 Ropa rządzi światem, „Nowe Państwo”, nr 7.
Brown L.R. 1982 Jutro może być za późno, Warszawa.
Chalmin P. 2005 Już dziś ucz się chińskiego, „Forum”, nr 25.
Dakowski M., Wiąckowski S. 2005 O energetyce – dla użytkowników oraz sceptyków,
Warszawa.
Energy Information Administration (EIA), http://eia.doe.gov/international.
Fijor J.M. 2005 Co z tą ropą, „Nesweek”, nr 175.
Glikman P. 1997 Ciągłość i transformacja gospodarki, Warszawa.
Gospodarka Świata i Polski w 1993 i 1994 roku 1994, Warszawa.
Helman Ch. 2006 Naprawdę tania ropa, „Forbes”, nr 11.
110
Agnieszka Mojsa
Import ropy w Chinach mocno w górę 2007, Peak Oil, www.peakoil.pl.
Kaczmarek T.T., Jarosz R. 2006 Czy ropa rządzi światem?, Bydgoszcz – Warszawa.
Klare M.T. 2006 Krew i nafta. Niebezpieczeństwa i konsekwencje rosnącej zależności Ameryki
od importowanej ropy naftowej, Warszawa.
Lorenz U., Grudziński Z. 2001 Pozarynkowe czynniki wpływające na ceny surowców energetycznych, w: Zagadnienia surowców energetycznych w gospodarce krajowej, Kraków.
Majerkiewicz W. 2006 To dopiero był szok, Portal NBP.
Malinowski D. 2006 Benzyna może w końcu potanieje, „Gazeta Wyborcza”.
Materiały z ambasady Arabii Saudyjskiej w Warszawie.
Muszkiet T. 1997 Potencjał energetyczny Polski i jego wykorzystanie, w: Ciągłość i transformacja gospodarki, red. P. Glikman, Warszawa.
Oil markets explained, http://news.bbc.co.uk.
Polska w gospodarce światowej w 1992 i 1993 roku 1993, red. J. Kotyński, Warszawa.
Raport: Podrożeją paliwa na polskich stacjach 2006, Polski Portal Finansowy, www.bankier.pl.
Robin J.P. 2006 Euro tylko dla orłów, „Forum”, nr 16.
Rynek wielkich obrotów 2005 Portal Edukacyjny NBP, www.nbpportal.pl.
Skokowy wzrost kosztów w przemyśle naftowym 2007, Peak Oil, www.peakoil.pl.
Soliński J. 2004 Sektor energii – świat i Polska, Warszawa.
Świat zaciąga hamulec 2005, „Forum”, nr 4.
Świat nie nadąża za rosnącym popytem 2006, Peak Oil, www.peakoil.pl.
Szczyt produkcji ropy naftowej 2007, Peak Oil, www.peakoil.pl.
Tekieli S. 2007 Dość biadolenia nad ropą, Polskie Radio.
United Nations Conference on Trade and Development, Nie ma powodów do radości
(Raport z 27 września 1999).
Wiercimy głębiej, dalej, więcej 2006, Peak Oil, www.peakoil.pl.
Wolski A. 2006 To jeszcze nie koniec, Portal Gazety Ubezpieczeniowej, www.gu.com.pl.
Zonik Z. 1978 Siedem pająków, Warszawa.
OPTIMUM – STUDIA EKONOMICZNE NR 1 (38) 2008
Jarosław POTERAJ 1
SYSTEMY EMERYTALNE W EUROPIE – AUSTRIA
Streszczenie
Artykuł o systemie emerytalnym Austrii, poza wstępem, zawiera cztery części: 1. Ogólna informacja o kraju, 2. Ewolucja systemu emerytalnego, 3. Stan obecny systemu emerytalnego oraz 4. Wyzwania i przewidywane zmiany w systemie emerytalnym. Celem badawczym autora jest prezentacja historycznych i aktualnych rozwiązań w systemie emerytalnym Austrii, w celu odnalezienia w tym systemie
pomysłów, które w międzynarodowych porównaniach warto wykorzystywać. W podsumowaniu autor
wskazuje elementy wyróżniające austriacki system emerytalny na tle innych państw: 1. Finansowanie
składek emerytalnych osób opiekujących się małymi dziećmi przez budżet, 2. Zamierzone zrównanie
wieku emerytalnego mężczyzn i kobiet i 3. Uelastycznienie czasu przejścia na emeryturę w przedziale wiekowym 62 – 68 lat.
PENSION SYSTEMS IN EUROPE – AUSTRIA
Summary
The article presents an insight into the old age pension system in Austria. The introduction is followed by four topic paragraphs: 1. general information about the country, 2. the evolution of its pension system, 3. the present situation, and 4. challenges and foreseen changes. There, the author’s goal
was to present both past and present solutions employed by the Austrian pension system, in search
for ideas worth consideration in international comparisons. In the summary, the author highlights as
a particular Austrian approach, against a background of other countries: 1. financing of the pension
contribution for people who take care of young children, by public budget, 2. intended equalization of
retirement age for men and women, and 3. flexible time of retirement between 62 and 68 years of age.
1. Wstęp
W perspektywie historycznej myślenie o własnej przyszłości, w okresie, kiedy nie
można będzie zarabiać pieniędzy ze względu na zaawansowany wiek, prawie do
końca XIX wieku na całym świecie realizowało się na zasadach tzw. naturalnego
systemu emerytalnego. Oznaczał on utrzymywanie ludzi starych, w okresie braku
aktywności zarobkowej spowodowanej wiekiem, przez ich dzieci. Pierwszą zmianą
w tym zakresie było rozwiązanie wprowadzone na ziemiach niemieckich w roku
1 Dr Jarosław Poteraj jest pracownikiem Państwowej Wyższej Szkoły Informatyki i Przedsiębiorczości w Łomży.
112
Jarosław Poteraj
1889, kiedy to kanclerz Otton von Bismarck przeforsował projekt państwowego
systemu emerytalnego, w którym występowała składka emerytalna oraz określono
wiek emerytalny na 70 lat [Pension Reform and the Development of Pension Systems. An Evaluation of World Bank Assistance 2006 s. 62]. W roku 1913 wiek ten obniżono na 65 lat. Rozwiązanie wprowadzone przez Bismarcka było wzorem dla większości krajów europejskich, a w dalszej perspektywie czasowej także pozaeuropejskich, w zakresie wdrażania systemów emerytalnych. W systemie tym, określanym anglojęzycznym sformułowaniem pay-as-you-go, opłacający składki finansują wypłacanie emerytur beneficjentom
systemu. Dopiero w latach 40. XX wieku pojawiła się znacząca modyfikacja składkowego systemu Bismarcka w postaci ogłoszonych w Wielkiej Brytanii zasad Beveridge’a2.
W rozwiązaniu brytyjskim emerytura potraktowana została jako element należnego
każdemu obywatelowi pakietu świadczeń socjalnych. Nie potrzeba więc było opłacać składek, ażeby uzyskać prawo do świadczenia emerytalnego, a lokalna społeczność miała oceniać komu i w jakiej wysokości emeryturę wypłacać. System ten, finansowany z powszechnych podatków, znalazł szczególne uznanie, poza Wielką
Brytanią, w krajach skandynawskich. Kolejną, znaczącą propozycją systemową było
rozwiązanie zaproponowane przez Miltona Friedmana i wdrożone przez Jose Pinera
w Chile w roku 1980, bazujące na powiązaniu zarządzania środkami gromadzonymi
na emerytury z rynkami kapitałowymi [Kołodziejczyk 2004 s. 60 – 61]. Sukces rozwiązania wprowadzonego w Chile za rządów Pinocheta był podstawą do zainteresowania się szerokiej społeczności międzynarodowej tym systemem, szczególnie w perspektywie niewydolności dotychczasowych rozwiązań emerytalnych, obarczonych efektem niekorzystnych zmian demograficznych. W roku 1994 Bank Światowy [Averting
the Old Age Crisis 1994] zaproponował i rozpoczął promocję rozwiązania wielofilarowego, składającego się z trzech filarów – 1. obowiązkowego, działającego na zasadach pay-as-you-go, ale z indywidualną ewidencją składek, 2. obowiązkowego lub dobrowolnego, powiązanego z rynkami kapitałowymi i 3. dobrowolnego, uzupełniającego, także powiązanego z lokowaniem środków na rynkach kapitałowych. W latach
90. XX wieku oraz na początku wieku XXI rozwiązania, bazujące na trzech filarach,
wprowadzono w wielu krajach Ameryki Południowej, Karaibów i Europy; w Europie najwcześniej na Węgrzech, w Szwecji i w Polsce.
Niniejszy artykuł inicjuje, zamierzoną przez autora, serię publikacji o systemach
emerytalnych, funkcjonujących w wybranych państwach europejskich3. Globalizacja, rozwój komunikacji oraz telekomunikacji, rozwiązania informatyczne i swoboda
terytorialnego przemieszczania się w europejskiej przestrzeni powodują coraz większe zainteresowanie możliwościami zarabiania pieniędzy w innych krajach niż kraj
2 Zasady te sformułował brytyjski ekonomista i reformator spraw społecznych William Henry
Beveridge, który swoje poglądy przedstawił w roku 1942, w tzw. raporcie Beveridge’a pod właściwym tytułem: Social Insurance and Allied Services. Więcej na ten temat czytelnik znajdzie w książce Jakuba Wiśniewskiego [Wiśniewski 2005].
3 Zamiarem autora jest przedstawienie systemów emerytalnych, funkcjonujących w co najmniej 26
krajach, należących w dniu 1 stycznia 2007 roku do Unii Europejskiej (poza Polską). Możliwe jest także rozszerzenie terytorialne zamierzonego cyklu o prezentacje systemów emerytalnych w innych krajach
europejskich.
Systemy emerytalne w Europie – Austria
113
urodzenia. To z kolei może być związane z uczestniczeniem w systemach emerytalnych obcych państw. Systemy te podlegają ciągłym zmianom, wynikającym przede
wszystkim z przyczyn demograficznych, ale także ekonomicznych. Dominująca współcześnie na mapie Europy Unia Europejska przewiduje funkcjonowanie w zakresie
emerytur metody otwartej koordynacji, a zatem nie narzuca w tym obszarze jedynie
słusznego rozwiązania. W państwach, które nie przystąpiły do tejże unii, rozwiązania emerytalne jeszcze bardziej nacechowane są indywidualizacją. Stąd duża różnorodność tych systemów i niewielka o nich wiedza, nawet w kręgach specjalistów. Zamierzone przez autora publikacje powinny tę wiedzę wzbogacić i być przyczynkiem
do dyskusji, prowadzącej do wyboru najlepszych rozwiązań systemowych. Celem badawczym autora jest zatem prezentacja historycznych i aktualnych rozwiązań w celu
odnalezienia w tak różnorodnych systemach pomysłów, które w benchmarking’owych
porównaniach warto wykorzystywać. Każdy z artykułów prezentowany będzie w układzie: 1. Ogólna informacja o kraju, 2. Rozwój historyczny systemu emerytalnego,
3. Stan obecny systemu emerytalnego oraz 4. Wyzwania i przewidywane zmiany w systemie emerytalnym.
2. Ogólna informacja o kraju
Republika Austrii (niem. die Republik Österreich) jest republiką związkową (federalną), położoną w środku Europy [Wielka Encyklopedia PWN 2001 t. 2 s. 502 i dalsze], bez dostępu do morza, składającą się z 9 krajów związkowych (Bundesländer),
15 okręgów miejskich i 84 wiejskich oraz 2.359 gmin. Jednostką monetarną jest
euro. Językiem urzędowym ogólnokrajowym jest język niemiecki. Ponadto słoweński jest oficjalnym językiem w Karyntii, a chorwacki i węgierski w Burgenlandzie.
W lipcu 2006 roku Austrię zamieszkiwało 8.192.880 osób4 z następującą strukturą
wiekową: 0 – 14 lat – 15,4%, 15 – 64 lat – 67,5%, 65 lat i więcej – 17,1%. Przeciętna
długość życia wynosiła ogółem 79,07 lat, w tym mężczyzn – 76,17 lat, a kobiet –
82,11 lat. Największą grupą etniczną byli Austriacy, stanowiący 91,1% populacji.
Prawie 3/4 populacji, bo 73,6% mieszkańców, stanowili rzymskokatolicy. Zgodnie
z konstytucją z roku 1920 (nowelizowaną w 1929 i 1945), na czele państwa stoi prezydent (od 8 lipca 2004 – Heinz FISCHER), a rządem kieruje kanclerz (od 11 stycznia 2007 – Alfred GUSENBAUER). Największe partie polityczne to: Bündnis Zukunft
Österreich (BZÖ), Die Österreische Volkspartei (ÖVP), Freiheitliche Partei Österreichs (FPÖ),
Sozialdemokratische Partei Österreichs (SPÖ) oraz Die Grünen. Duże znaczenie mają także takie organizacje, jak: związek zawodowy Österreichische Gewerkschaftsbund (ÖGB),
organizacja gospodarcza Die Wirtschaftskammer Österreich (WKÖ), organizacja pracodawców Vereinigung der Österreichischen Industrie (VÖI lub IV) oraz Kościół Katolicki
zorganizowany w Katholischen Aktion. Produkt krajowy brutto (PKB) na jednego mieszkańca w roku 2006 szacowany był na poziomie 34.100 USD, a stopa wzrostu PKB
4
https://www.cia.gov/cia/publications/factbook/geos/au.html, dostęp 2007-01-22.
114
Jarosław Poteraj
na poziomie 3,2%. Stopa bezrobocia wyniosła 4,9%. Dług publiczny stanowił 63%
PKB. Bilans płatniczy zamknął się w roku 2006 nadwyżką 5,913 mld USD.
Teren obecnej Austrii5 był w przeszłości centrum Cesarstwa Austro-Węgierskiego, które po klęsce w I wojnie światowej zostało zredukowane do rozmiaru małej
republiki. W roku 1918 Tymczasowe Zgromadzenie Narodowe ogłosiło powstanie
Republiki Niemiecko-Austriackiej (Republik Deutscheösterreich). Traktat pokojowy
w Saint-Germain-en-Laye z roku 1919 potwierdził rozpad monarchii austro-węgierskiej, utratę przez Austrię ziem słowiańskich, ograniczał liczebność armii do 30 tysięcy, nakładał na Austrię odszkodowania wojenne, zabronił połączenia Austrii z Niemcami i zmusił do zmiany nazwy na Republika Austrii (Republik Österreich). W roku
1938 miała miejsce aneksja Austrii przez hitlerowskie Niemcy. Po zwycięstwie aliantów w roku 1945 status Austrii pozostawał niejasny przez całą dekadę – podobnie
jak w Niemczech funkcjonowały cztery strefy okupacyjne, a rada sojusznicza sprawowała kontrolę nad rządem. W roku 1948 Austria przystąpiła do Planu Marshalla.
Dopiero w roku 1955, podpisaniem Traktatu Państwowego, Austria określiła się wieczyście neutralną, a wojska okupacyjne zostały wycofane. W tym samym roku Austria wstąpiła do Organizacji Narodów Zjednoczonych. W roku 1995 Austria stała się
członkiem Unii Europejskiej, a w roku 1999 przystąpiła do Unii Gospodarczej i Walutowej, zamieniając austriackie szylingi na euro.
3. Ewolucja systemu emerytalnego w Austrii
W roku 1887 robotnicy uzyskali prawo do świadczenia z tytułu niezdolności do
pracy na skutek wypadku, wypłacanego także w wieku określanym współcześnie
jako emerytalny, rozszerzone w roku 1888 o ubezpieczenie zdrowotne6. W roku 1906
pojawił się na ziemiach obecnej Austrii pierwszy system zabezpieczenia środków na
starość, który obejmował wybrane grupy pracowników umysłowych [Kawiński 2004
s. 29 i dalsze]. Uczestnikami systemu byli pracownicy najemni, którzy ukończyli 18
lat i zarabiali przynajmniej 600 koron. System ten został wdrożony w życie w roku
1909 [Social Security Programs Throughout the World: Europe 2006 2006 s. 36]. W roku
1914 wyznaczono wiek uprawniający do renty starczej na poziomie 65 lat dla kobiet
i 70 lat dla mężczyzn. W roku 1920 zostało wprowadzone ubezpieczenie od bezrobocia [Social Security Programs Throughout the World: Europe 2006 2006 s. 40]. W roku
1926 miało miejsce rozszerzenie kręgu osób, objętych systemem emerytalnym, na
wszystkich pracowników umysłowych oraz obniżenie wieku emerytalnego o pięć
lat, czyli do poziomu 60 lat dla kobiet i 65 lat dla mężczyzn. Po aneksji Austrii przez
Niemcy w 1938 roku wprowadzono ustawodawstwo niemieckie, które z początkiem
roku 1939 rozszerzyło dotychczasowy krąg osób objętych systemem emerytalnym
o robotników, a ubezpieczenie pracowników umysłowych rozszerzyło o prawo do
5 https://www.cia.gov/cia/publications/factbook/geos/au.html, dostęp 2007-01-22 oraz [Wielka
Encyklopedia PWN 2001 t. 2 s. 512 – 513].
6 Regulacje te weszły w życie od roku 1889 [Social Security Programs Throughout the World: Europe 2006
2006 s. 38].
Systemy emerytalne w Europie – Austria
115
wcześniejszej emerytury z tytułu niezdolności do pracy. W roku 1948 wprowadzono
prawo dotyczące dodatków rodzinnych [Social Security Programs Throughout the World: Europe 2006 2006 s. 41]. Kolejna zmiana systemowa miała miejsce w roku 1956, kiedy
to weszła w życie ogólna ustawa o ubezpieczeniu społecznym7, scalająca zasady dotyczące pracowników umysłowych i robotników. W roku 1956 składka emerytalna
od pracowników najemnych wynosiła 10% [Felderer, Koman, Schuh 2006 s. 520].
W roku 1958 robotnicy uzyskali prawo do wcześniejszej emerytury z powodu bezrobocia, podstawowym zabezpieczeniem emerytalnym objęci zostali samodzielnie zarobkujący w przemyśle, a w latach 1958 – 1969 – rolnicy [Kawiński 2004 s. 30].
W latach 1961 – 1966 pracowników umysłowych oraz robotników objęto prawem
do wcześniejszej emerytury z tytułu stażu pracy. W roku 1973 podobne uprawnienie
uzyskali samodzielnie zarobkujący w przemyśle, a w roku 1977 rolnicy. Na podstawie
regulacji prawnych z roku 1978 [Social Security Programs Throughout the World: Europe,
2006 2006 s. 36] w roku 1979 osoby samozatrudniające się8 i rolnicy9 zostali objęci
podstawowym zabezpieczeniem emerytalnym; przedstawiciele wolnych zawodów zostali objęci podstawowym zabezpieczeniem emerytalnym oraz prawem do wcześniejszej
emerytury z tytułu stażu pracy10. Od roku 1985 system pracowniczy oraz system
urzędników państwowych zunifikowały bazę do obliczania wysokości emerytury na
poziomie 18 najlepiej wynagradzanych lat [Schludi 2005 s. 166]. W roku 1986 prawo
do wcześniejszej emerytury z powodu bezrobocia rozszerzono na samodzielnie zarobkujących w przemyśle, rolników i przedstawicieli wolnych zawodów. W późnych
latach osiemdziesiątych XX wieku [Schludi 2005 s. 165 i następne] możliwe było odejście na emeryturę w wieku 55 lat dla kobiet i 60 lat dla mężczyzn. Standardowa emerytura stanowiła 79,5% ostatnio otrzymywanego wynagrodzenia i wypłacana była
po 45 latach składkowych. Składki emerytalne pracowników najemnych wynosiły
22,70% wynagrodzenia brutto, z czego 10,25% płacili pracownicy, a 12,45% pracodawcy. W roku 1992 zdecydowano o podwyższaniu od roku 2024 do 2033 wieku
emerytalnego dla kobiet do poziomu 65 lat. W roku 1993 wprowadzono zasadę indeksowania emerytur w stosunku do wynagrodzeń netto, zamiast brutto [Schludi 2005
s. 167]. Rządowe propozycje zmian w systemie emerytalnym spotkały się z ostrym
oporem społecznym, który unaocznił się 22,5% poparciem w wyborach roku 1994
dla, stojącej w czołówce oponentów proponowanych zmian, partii FPÖ Jörg’a Haider’a [Schludi 2005 s. 169]. W roku 1995 udało się jednak rządowi podnieść wymagany minimalny okres składkowy przy przejściu na wcześniejszą emeryturę z 35 lat do
37,5 roku [Schludi 2005 s. 171]. W czerwcu 1997 roku wprowadzono zmiany dotyczące: 1) wprowadzenia od roku 2012 rozszerzenia okresu branego pod uwagę przy
określaniu wysokości emerytury z 15 lat do 20 lat, 2) obniżenia poziomu emerytur
dla osób odchodzących na wcześniejszą emeryturę o 2% za rok, 3) zmiany okresu
branego pod uwagę dla obliczania emerytury urzędników państwowych z ostatniego
7 Bundesgesetz vom 9. September 1955 über die Allgemeine Sozialversicherung (Allgemeines
Sozialversicherungsgesetz – ASVG.), BGBl, Nr 189/1955, Ustawa ta została zmieniona w roku 2006.
8 Zmiany do ustawy wprowadzono w życie w roku 2005.
9 Zmiany do ustawy wprowadzono w życie w roku 2006.
10 Zmiany do ustawy wprowadzono w życie w roku 2005.
116
Jarosław Poteraj
wynagrodzenia do średniego wynagrodzenia z ostatnich 15 lat oraz 4) wprowadzenia formuły redukującej wysokość emerytur państwowych o 2 – 3% [Schludi 2005
s. 175]. Od roku 1998 zabezpieczeniem emerytalnym objęte zostały praktycznie
wszystkie osoby pracujące [Kawiński 2004 s. 30]. W latach 90. XX wieku wprowadzono także regulacje prawne, pozwalające funkcjonować na zasadach pełnej dobrowolności zakładowym funduszom emerytalnym [Report on the Austrian Pension
Strategy 2005 2005 s. 11]. W roku 2000 wydatki na publiczny system emerytalny wyniosły 14,5% PKB, co było najwyższym udziałem we wszystkich krajach OECD
[Holzmann 2006 s. 226]. Właśnie w 2000 roku nowy rząd11, mocno zorientowany
na idee rynkowo-liberalne, zauważył problem z emeryturami i postawił sobie za cel
doprowadzenie do zmian. Już w roku 2000 podwyższono o 1,5 roku wiek, umożliwiający przejście na wcześniejszą emeryturę – kobietom na 56,5 lat, a mężczyznom
na 61,5 lat, dodatkowo wprowadzając zasadę obniżenia wartości emerytury o 3% za
każdy rok wcześniejszego przejścia. Ponadto, podwyższono o 1,5 roku z 60 do 61,5
lat wiek przejścia na emeryturę urzędników państwowych oraz zmieniono zasady
otrzymywania emerytur wdowich z przedziału 40 – 60% na przedział 0 – 60% wynagrodzenia zmarłego małżonka [Schludi 2005 s. 178]. 1 lipca 2002 roku parlament zaakceptował rządową propozycję zmian w zakresie wypłacania odpraw pracowniczych (Betriebliches Mitarbeitervorsorgegesetz), przeznaczając 1,5377% wynagrodzenia brutto na centralny fundusz (Mitarbeitervorsorgekasse MVK), co stanowiło zaczątek myślenia o systemie filarowym w austriackich emeryturach12. l stycznia 2003
roku z połączenia Urzędu Ubezpieczeń Emerytalnych dla Pracowników Umysłowych
(Pensionsversischerungsanstalt der Angestellten) oraz Urzędu Ubezpieczeń Emerytalnych
dla Robotników (Pensionsversischerungsanstalt der Arbeiter) powstał Zakład Ubezpieczeń
Emerytalnych – (Pensionsversischerungsanstalt). Poważniejsze zmiany, dotyczące samych
emerytur, przybrały postać aktów prawnych dopiero w latach 2003 – 2004. Najważniejsze elementy reformy roku 2003 to: 1) całkowite odejście od wcześniejszego przechodzenia na emeryturę od 2017 roku, 2) zmniejszenie od roku 2009 stopy naliczania emerytur za lata składkowe od wartości bazy odniesienia z 2,00% do 1,78% za każdy rok składkowy13 oraz 3) stopniowe wydłużanie okresu bazowego do naliczania
emerytur z 15 lat do 40 lat w roku 2028 [Felderer, Koman, Schuh 2006 s. 525], jednak za każde urodzone dziecko okres ten zmniejszany miał być o 3 lata [Schludi 2005
s. 188]. Ponadto, wprowadzono zwiększoną wartość nagrody lub kary za późniejsze
i odpowiednio wcześniejsze przechodzenie na emeryturę z dotychczasowej wartości
3,0% za każdy rok późniejszego lub wcześniejszego przejścia do poziomu 4,2% [Report
on the Austrian Pension Strategy 2005 2005 s. 12]. Przed reformą roku 2004, w przypadku pracowników najemnych, składka stanowiła 22,8% wynagrodzenia, z czego
10,25% było płacone przez pracownika, a 12,55% przez pracodawcę. Górnicy płacili składkę w wysokości 28,30%, przy czym 18,05% opłacał pracodawca, a 10,25%
W lutym 2000 roku Wolfgang Schüssel, lider ÖVP, zdecydował się na koalicję rządową z FPÖ.
Prawo to weszło w życie od 1 stycznia 2003 roku [Schludi 2005 s. 181].
13 Emerytura oczekiwana, stanowiąca 80% ostatnio otrzymywanego wynagrodzenia, miała być osiągnięta po 45 latach płacenia składek, zamiast dotychczasowego założenia o 40 latach – w starym rozwiązaniu 80%/40 lat = 2% za rok, w nowym 80%/45 lat ≈ 1,78% za rok.
11
12
Systemy emerytalne w Europie – Austria
117
pracownik [Kawiński, 2004 s. 34]. Składki rolników wynosiły 14,5%, osób wykonujących wolne zawody 20%, urzędników państwowych 11,75%, a dla osób samozatrudniających się 15,0% [Felderer, Koman, Schuh 2006 s. 520; Kawiński 2004 s. 34].
Kluczowym elementem reformy roku 2004 [Synthesis report on adequate and sustainable
pensions. Annex. Country summaries 2006 s. 90 – 93], która weszła w życie z początkiem roku 2005, było wprowadzenie: 1) jednolitego prawa emerytalnego oraz 2) osobistych kont emerytalnych dla robotników, pracowników umysłowych, osób samozatrudniających się poza rolnictwem, rolników oraz urzędników państwowych w wieku 49 lat i młodszych. To ostatnie oznaczało, że osoby podejmujące zatrudnienie
po 1 stycznia 2005 roku odkładają pieniądze na emeryturę w systemie publicznym w całości na indywidualnych rachunkach, natomiast osoby, które już uczestniczyły w systemie emerytalnym, ale w dniu 1 stycznia 2005 roku nie osiągnęły 50 lat życia, swoje
świadczenie będą miały naliczone według starego i nowego prawa, w proporcji do
ich aktywnego życia zawodowego przed i po tej dacie. Wprowadzono zatem podejście ewidencjonowania zdefiniowanej składki (notionally defined contribution – NDC)
w systemie publicznym. Innymi, ważnymi elementami reformy z 2004 roku było
wprowadzenie: 1) tzw. „korytarza emerytalnego”, w połączeniu z fazą stopniowego
wyjścia z możliwości uzyskiwania wcześniejszej emerytury oraz 2) nowej formuły indeksacji emerytur, zależnej od poziomu inflacji. W roku 2007 uczestnicy nowego systemu mieli otrzymać wyciągi ze swoich kont emerytalnych za okres od początku
uczestnictwa do roku 2005, a w roku 2008 za rok 2006. Cel postawiony przez reformę roku 2004 określić można w postaci formuły „80/65/45” [Report on the Austrian
Pension Strategy 2005 2005 s. 12]. Formuła ta oznacza osiągnięcie przez emeryta, przechodzącego na emeryturę, w wieku 65 lat emerytury stanowiącej 80% jego przeciętnych zarobków z okresu 45 lat, kiedy podlegał ubezpieczeniu. Zasadą ma być także
taka sama emerytura za takie same składki. W związku z powyższym zunifikowano
także wymiar standardowej składki na poziomie 22,8%, przy czym przewidziano dopłaty do opłacania składek przez budżet państwa w przypadku osób samozatrudniających się (płacą 17,5%, a budżet dopłaca im 5,3%) oraz rolników (sami płacą 15,0%,
a budżet dopłaca im 7,8%). Reforma z 2004 roku wprowadziła także zasadę finansowania przez budżet składek emerytalnych w okresie opieki nad dzieckiem przez
cztery lata14 na poziomie 1.350 € miesięcznie, które przekazywane są na indywidualne
konta emerytalne [Synthesis report on adequate and sustainable pensions. Annex. Country summaries 2006 s. 91]. W roku 2005 nastąpiło połączenie Zakładu Ubezpieczeniowego Austriackich Kolei Państwowych (Versischerungsanstalt der österreichischen Eisenbahnen VAÖE)
z Zakładem Ubezpieczeniowym Austriackiego Górnictwa (Versischerungsanstalt der österreichischen Bergbaues VADÖB), w wyniku którego powołano do życia Zakład Ubezpieczeniowy dla Kolei i Górnictwa (Versicherungsanstalt für Eisenbahnen und Bergbau
VAEB). W roku 2006 dokonano nowelizacji prawa emerytalnego rolników. Od 1 stycznia 2007 roku wprowadzono nowe zasady przechodzenia na wcześniejszą emeryturę
osób ciężko pracujących fizycznie (Hacklerregelung). Przejście tych osób (mężczyzn)
14
W przypadku opieki nad bliźniętami nawet przez 5 lat.
118
Jarosław Poteraj
na emeryturę jest możliwe w wieku 60 lat po 45 latach płacenia składek, pod warunkiem że z ostatnich 240 miesięcy pracy 120 związane było z ciężką pracą fizyczną15.
4. Bieżące rozwiązania systemu emerytalnego w Austrii16
W Austrii mamy do czynienia z trzema filarami systemu emerytalnego: 1) obowiązkowym systemem publicznym, 2) obowiązkowym i dobrowolnym systemem emerytur zakładowych oraz 3) dobrowolnym systemem ubezpieczeń indywidualnych.
W ramach systemu publicznego (I filara) wyróżniamy dwa rozwiązania: 1) system tradycyjny (pay-as-you-go PAYG) jest publicznym systemem o zdefiniowanym świadczeniu (defined-benefit <DB> public scheme), [Whitehouse 2007 s. 56 i dalsze] – dotyczy
w całości osób, które 1 stycznia 2005 roku miały ukończone 50 lat i proporcjonalnie
do czasu aktywności zawodowej osób, które tego wieku w dniu 1 stycznia 2005 roku
nie osiągnęły – oraz 2) nowy system (notionally defined contribution – NDC) – dotyczy
w całości osób, które pierwszą pracę podjęły po 1 stycznia 2005 roku i proporcjonalnie do czasu aktywności zawodowej osób, które pracowały wcześniej, ale w dniu
1 stycznia 2005 roku nie ukończyły 50 lat życia.
W systemie tradycyjnym (tzw. „status 2004”) odmienne regulacje dotyczą emerytur górników, notariuszy, urzędników państwowych, pracowniczych, rolniczych
i osób samozatrudniających się [Felderer, Koman, Schuh 2006 s. 519 – 549; Social
Security Programs Throughout the World: Europe 2006 2006 s. 36]. W przypadku pracowników najemnych składka stanowi 22,8% wynagrodzenia, z czego 10,25% jest płacone przez pracownika, a 12,55% przez pracodawcę. Górnicy płacą składkę w wysokości 28,30%, przy czym 18,05% opłaca pracodawca, a 10,25% pracownik [Kawiński 2004 s. 34]. Składki rolników wynoszą 14,5%, osób wykonujących wolne zawody 20%, urzędników państwowych 11,75%, a dla osób samozatrudniających się
15,0% [Felderer, Koman, Schuh 2006 s. 520; Kawiński 2004 s. 34]. Składki są płatne
do poziomu uzyskanych zarobków rocznych 45.000 € [Social Security Programs
Throughout the World: Europe 2006 2006 s. 36], co w przybliżeniu stanowi 175% przeciętnego wynagrodzenia. Warunkiem uzyskania emerytury jest osiągnięcie przez mężczyznę wieku 65 lat, a przez kobietę 60 lat, przy jednoczesnym okresie zatrudnienia
180 miesięcy w ostatnich 30 latach albo 300 miesięcy w czasie całego życia. Wcześniejsze przejście na emeryturę możliwe jest dla kobiet po osiągnięciu 57 lat i 5 miesięcy, a dla mężczyzn po osiągnięciu 62 lat i 5 miesięcy17. W stosunku do mężczyzn
ciężko pracujących fizycznie przejście na emeryturę jest możliwe w wieku 60 lat po
45 latach płacenia składek, pod warunkiem że z ostatnich 240 miesięcy pracy 120
związane było z ciężką pracą fizyczną. W przypadku skorzystania z tego prawa,
15 Zmiana ta dotyczyć będzie kobiet od roku 2024, kiedy to zacznie wzrastać ich wiek emerytalny.
Obecnie mogą w wieku 60 lat przechodzić na emeryturę na zasadach ogólnych [Social Security Programs
Throughout the World: Europe 2006 2006 s. 36].
16 Według stanu na 1 stycznia 2007 roku.
17 Odchodzenie na wcześniejszą emeryturę jest co kwartał przesuwane o 1 miesiąc w górę. Od 1 października 2017 roku zaniknie zupełnie [Social Security Programs Throughout the World: Europe 2006 2006 s. 36].
Systemy emerytalne w Europie – Austria
119
przez ciężko pracujących fizycznie, świadczenie osoby przechodzącej na wcześniejszą emeryturę jest obniżane o 1,8% za rok (0,15% miesięcznie). Przechodzenie na
wcześniejszą emeryturę jest ponadto dostępne dla osób długotrwale ubezpieczonych – dotyczy to mężczyzn w wieku 60 – 64 lat, ubezpieczonych od 45 lat, oraz kobiet w wieku 55 – 59 lat, ubezpieczonych od 40 lat. Za wcześniejsze przejście na emeryturę emeryt otrzymuje karę w postaci 4,2% obniżki za każdy rok wcześniejszego
przejścia, ale nie więcej niż 15%. Bazą odniesienia do obliczania emerytury są przeciętne zarobki z okresu 19 najlepszych lat18. Świadczenie narasta o 1,85% za każdy
rok podlegania ubezpieczeniu19. System przewiduje nagradzanie za późniejsze odchodzenie na emeryturę w postaci 4,2% bonusa za każdy rok pracy dłużej niż ustawowy
wiek emerytalny, ale maksymalnie do poziomu 91,76% bazy odniesienia20. System formalnie nie gwarantuje wypłaty świadczenia minimalnego [Felderer, Koman, Schuh
2006 s. 520], ale w praktyce najniższe emerytury nie schodzą poniżej poziomu, uznawanego za minimalny, dzięki istnieniu zasiłków wyrównawczych21, finansowanych
z budżetu państwa [Kawiński 2004 s. 42]. Emeryci nie płacą większości składek na
ubezpieczenie społeczne, za wyjątkiem ubezpieczenia zdrowotnego. Nie ma dla
emerytów ulg w zakresie płacenia podatku dochodowego od osób fizycznych. Beneficjenci systemu emerytalnego otrzymują miesięczne wypłaty 14 razy w roku – dodatkowe świadczenia otrzymują w kwietniu i we wrześniu [Kawiński 2004 s. 42].
Zadania w ramach zabezpieczenia emerytalnego wykonuje w sumie pięć22 instytucji [Dobrze ubezpieczony. System zabezpieczenia społecznego w Austrii 2006], których działalność koordynuje Główny Związek Austriackich Podmiotów Ubezpieczeń Społecznych (Hauptverbandes der österreichischen Sozialversicherungsträger), [Report on the Austrian Pension Strategy 2005 2005 s. 22]:
–
Zakład Ubezpieczeń Emerytalnych23 – Pensionsversischerungsanstalt,
–
Zakład Rolniczego Ubezpieczenia Społecznego – Sozialversischerungsanstalt
der Bauern,
–
Zakład Ubezpieczenia Społecznego osób prowadzących działalność samodzielną – Sozialversicherungsanstalt der gewerblichen Wirtschaft,
–
Zakład Ubezpieczeniowy Górnictwa i Kolei Państwowych – Versicherungsanstalt für Eisenbahnen und Bergbau,
18 Okres ten będzie co roku zwiększany o 12 miesięcy, aż do osiągnięcia poziomu 40 miesięcy w
roku 2028.
19 W roku 2006 wielkość ta wynosiła 1,88% za każdy miesiąc, a docelowo w roku 2009 wyniesie
1,78% za każdy rok podlegania ubezpieczeniu.
20 Praktycznie nie ma zatem sensu przedłużanie przejścia na emeryturę ponad 68 rok życia.
21 Przykładowo w roku 2005 minimalna wartość świadczenia otrzymywanego przez emeryta samotnego wynosiła 662,99 €, a otrzymywanego przez małżonków – 1.030,23 €. W 2006 samotni emeryci otrzymywali co najmniej 690 € [Report on the Austrian Pension Strategy 2005 2005 s. 9] ; [Synthesis report on
adequate and sustainable pensions. Annex. Country summaries 2006 s. 91].
22 Nadal istniejący Zakład Ubezpieczeniowy osób pracujących w administracji państwowej (Versischerungsanstalt Offentlich Bediensteter) zajmuje się obecnie jedynie ubezpieczeniami chorobowymi i wypadkowymi.
23 Zakład administruje około 85% wszystkich emerytur.
120
Jarosław Poteraj
–
Zakład Ubezpieczeniowy Austriackich Notariuszy – Versischerungsanstalt des
österreichischen Notariates.
W roku 2004 państwo dopłaciło do tego rozwiązania około 26% kosztów funkcjonowania systemu emerytalnego [Social Security Programs Throughout the World: Europe, 2006 2006 s. 36].
W nowym systemie nastąpiło ujednolicenie wielkości składki ubezpieczeniowej
dla wszystkich grup zawodowych na poziomie 22,8% wynagrodzenia brutto. Bazą
naliczania świadczenia będzie okres 45 lat podlegania ubezpieczeniu, po 1,78% za
każdy rok podlegania ubezpieczeniu. Nie ma, jak dotąd, żadnych beneficjentów nowego systemu, jako iż najstarsi jego uczestnicy wiek emerytalny, czyli 65 lat, osiągną
w roku 202024.
W systemie emerytur zakładowych (II filar) funkcjonują zakładowe plany
emerytalne25, będące formą dobrowolną, oraz obligatoryjne odprawy pracownicze
(Betriebliches Mitarbeitervorsorgegesetz), płacone przez pracodawcę co miesiąc w wysokości 1,53% wynagrodzenia brutto i kierowane na centralny fundusz (Mitarbeitervorsorgekasse
MVK), inwestujący na rynkach kapitałowych. Po zwolnieniu z pracy pracownik ma
możliwość wyboru pomiędzy natychmiastową wypłatą pełnej kwoty a długotrwałym świadczeniem emerytalnym.
System ubezpieczeń indywidualnych (III filar) opiera się na ofercie ubezpieczeń emerytalnych, przedstawianej przez zakłady ubezpieczeń. Drugie możliwe rozwiązanie polega na funkcjonowaniu funduszu emerytalnego [Kawiński 2004 s. 35],
inwestującego na rynkach kapitałowych, przy czym przynajmniej 40% aktywów takiego funduszu powinno być zgromadzonych w instrumentach dłużnych.
5. Wyzwania i przewidywane zmiany w systemie emerytalnym Austrii
Najważniejszy wyróżnik stanu systemu emerytalnego, za który powszechnie
uważa się stopę zastąpienia (replacement rate), jest w Austrii na bardzo wysokim poziomie 64% w odniesieniu do zarobków brutto oraz 80% w stosunku do zarobków
netto [Synthesis report on adequate and sustainable pensions. Annex. Country summaries 2006
s. 91]. Wydaje się, że przy funkcjonowaniu systemu zasiłków wyrównawczych nie
stanowi także w Austrii problemu sytuacja potencjalnej biedy osób w wieku emerytalnym. Problemem są prognozy dotyczące tendencji demograficznej, które określają na rok 2050 przewidywaną przeciętną długość życia dla mężczyzn na poziomie 82 lat,
a dla kobiet na poziomie 87 lat, a udział ludzi w wieku powyżej 60 lat ma wynieść
35% [Felderer, Koman, Schuh 2006 s. 521 i 522]. Przypomnijmy tutaj podawaną
wcześniej informację, że w lipcu 2006 roku osoby, które ukończyły 65 lat i więcej,
stanowiły 17,1%26. Klasyczna piramida, charakteryzująca strukturę wiekową na
Kobiety ciągle o 5 lat wcześniej. Zrównanie wieku emerytalnego nastąpi dopiero w latach 2024 – 2033.
Na koniec roku 2004 w planach takich uczestniczyło 413.000 osób, co stanowiło około 13% wszystkich pracowników najemnych, które zgromadziły w 15 funduszach, oraz 6 tzw. supra-plant funduszach
emerytalnych, około 10 mld € [Report on the Austrian Pension Strategy 2005 2005 s. 11].
26 https://www.cia.gov/cia/publications/factbook/geos/au.html, dostęp 2007-01-22.
24
25
Systemy emerytalne w Europie – Austria
121
początku XX wieku, zmieni się zatem w połowie wieku XXI w kształt przypominający sarkofag27 – ponad 1/3 populacji będzie starsza niż 60 lat. Przewidywana przeciętna długość życia człowieka w wieku 65 zwiększy się z okresu 18,5 lat w roku
2005 do 22,9 lat w roku 2050 [Report on the Austrian Pension Strategy 2005 2005 s. 19].
W konsekwencji liczba osób w wieku emerytalnym będzie stanowiła około 50%
liczby osób pracujących, mimo prognoz o zwiększeniu stanu aktywizacji zawodowej.
W tej sytuacji bardzo ważne jest wprowadzenie od roku 2007, przewidzianej przez reformę 2004 roku, zasady działania mechanizmu monitoringu co trzy lata systemu
emerytalnego, w postaci zespołu eksperckiego, który powinien każdorazowo oceniać stan systemu emerytalnego i ewentualnie wskazywać konieczne zmiany.
Bardzo duże obciążenie dla budżetu federalnego28 w zakresie dopłat do systemu
emerytalnego powinno się stopniowo zmniejszać. Rządowe wydatki na publiczny
system emerytalny powinny, zgodnie z przewidywaniami autorów wprowadzonych
ostatnio reform, zmniejszać się do poziomu 10,9% PKB w roku 2050 [Report on the
Austrian Pension Strategy 2005 2005 s. 20]. Dobrze koresponduje to z zamiarami zaprzestania projektowania budżetów z deficytem już od roku 2008 [Report on the Austrian Pension Strategy 2005 2005 s. 18].
Z pewnością problemem może być społeczna akceptacja zrównania wieku emerytalnego kobiet i mężczyzn, które ma być realizowane w latach 2024 – 203329. Kolejny problem w zakresie społecznej akceptacji to zakończenie przechodzenia na
wcześniejszą emeryturę od roku 2017. Wydaje się, że istnieje duże zagrożenie wykorzystywania tych elementów w programach ugrupowań politycznych, przeciwnych
wprowadzonym zmianom.
Innym problemem może być, wysoce prawdopodobna w przyszłości, unifikacja instytucji obsługujących emerytury w Austrii, szczególnie w zakresie systemów informatycznych. Sama unifikacja wydaje się rozwiązaniem racjonalizującym obecny system, obniżającym koszty działania i zwiększającym jego przejrzystość. Konsekwencją
tego powinna być także unifikacja różnorodnych dotąd systemów informatycznych
do ewidencji zbieranych składek i wypłacanych świadczeń emerytalnych.
6. Podsumowanie
Przedstawiony w artykule materiał badawczy upoważnia do stwierdzenia, że system emerytalny w Austrii spełnia podstawowe oczekiwania jego uczestników, pozwalając uzyskiwać wystarczające środki na życie i nawet utrzymanie stosunkowo wysokiego standardu życia na emeryturze. Stąd też wynika prawdopodobnie nikłe zainteresowanie Austriaków zmianami systemu emerytalnego przez długie lata. Dopiero w latach 2003 – 2004 Austria podjęła decyzje o zmianach modyfikujących tradycyjny
Bismarck’owski model emerytalny. Główną przyczynę zmian należy widzieć w nieTo ponure porównanie pochodzi od Marka Góry [Góra 2003 s. 48].
W tym zakresie Austria rywalizuje o palmę pierwszeństwa w Europie z Polską i Włochami.
29 W stosunku do kobiet urodzonych po 1 czerwca 1968 roku, wiek emerytalny będzie co 6 miesięcy podnoszony o 6 miesięcy do poziomu 65 lat [Social Security Programs Throughout the World: Europe 2006 2006 s. 36].
27
28
122
Jarosław Poteraj
korzystnych prognozach demograficznych oraz w porównaniach międzynarodowych, także niekorzystnych dla tego kraju. Stosunkowo mocno nagłośniona medialnie austriacka reforma w zakresie systemu publicznego (I filar) ograniczyła się do
kilku zmian parametrycznych, z upiększeniem strukturalnym, w postaci indywidualizacji kont emerytalnych osób młodych. Zmiany te nie wykraczają poza rozwiązania
przyjęte w połowie lat 90. XX wieku najpierw we Włoszech, a następnie w Szwecji
i w Polsce. Tzw. II filar, istniejący formalnie w Austrii, ma marginalne znaczenie dla
finansowania emerytur, szczególnie w kontekście możliwości wykorzystania zgromadzonych zasobów bezpośrednio po utracie pracy. III filar ma duże perspektywy
rozwojowe w stosunkowo bogatym społeczeństwie.
W zakresie rozwiązań, które mogą być przedmiotem zainteresowania innych krajów i ewentualnego zastosowania, należy wymienić finansowanie przez budżet składek emerytalnych osób opiekujących się małymi dziećmi. Także zamierzone zrównanie wieku emerytalnego mężczyzn i kobiet należy traktować, jako element wart
rozważenia przez inne kraje, szczególnie w kontekście dłuższego czasu trwania życia kobiet i zrównania ich statusu emerytalnego z mężczyznami. Kolejnym godnym
zainteresowania elementem systemu austriackiego jest swoista elastyzacja czasu przejścia na emeryturę, która, wdrażając zasady aktuarialne, pozwala wybierać czas przejścia na emeryturę, docelowo praktycznie w przedziale 62 – 68 lat.
Literatura
Averting the Old Age Crisis 1994, A World Bank Policy Research Report, New York.
Dobrze ubezpieczony. System zabezpieczenia społecznego w Austrii 2006, Austriackie Muzeum Społeczne i Ekonomiczne (Österreichischen Gesellschafts- und Wirtschaftsmuseums), dostępny pod adresem: http://www.sozialversicherung.at/mediaDB/
/115834.PDF.
Felderer B., Koman R., Schuh U. 2006 Investigating the Introduction of NDCs in Austria w:
Pension Reform: Issues and Prospect for Non-financial Defined Contribution (NDC) Schemes,
eds. Robert Holzmann, Edward Palmer, Washington.
Góra M. 2003 System emerytalny, Warszawa.
Holzmann R. 2006 Toward a Coordinated Pension System in Europe: Rationale and Potential Structure w: Pension Reform: Issues and Prospect for Non-financial Defined Contribution (NDC) Schemes 2006, eds. Robert Holzmann, Edward Palmer, Washington.
https://www.cia.gov/cia/publications/factbook/geos/au.html, dostęp 2007-01-22.
Kawiński M. 2004, System emerytalny w Austrii, w: Systemy emerytalne w krajach Unii Europejskiej, red. T. Szumlicz, M. Żukowski, Warszawa.
Kołodziejczyk K. 2004 Systemy emerytalne w Ameryce Łacińskiej. Od repartycji do kapitalizacji, Poznań.
Pension Reform and the Development of Pension Systems. An Evaluation of World Bank Assistance
2006, Washington.
Pension Reform: Issues and Prospect for Non-financial Defined Contribution (NDC) Schemes
2006, eds. R. Holzmann, E. Palmer, Washington.
Systemy emerytalne w Europie – Austria
123
Report on the Austrian Pension Strategy 2005 2005, Republic of Austria, Wien, July –
dostępny pod adresem: http://ec.europa.eu/employment_social/social_protection/
/docs/2005/at_en.pdf.
Schludi M. 2005 The Reform of Bismarckian Pension Systems: A Comparison of Pension Politics in
Austria, France, Germany, Italy and Sweden, Changing Welfare States Series, Amsterdam.
Social Security Programs Throughout the World: Europe 2006, Social Security Administration Office of Policy Office of Research, Evaluation, and Statistics, SSA Publication, No. 13 – 11801, September, Washington.
Synthesis report on adequate and sustainable pensions. Annex. Country summaries 2006, dokument
dostępny pod adresem: http://ec.europa.eu/employment_social/social_protection/
/docs/2006/sec_2006_304_annex_en.pdf.
Systemy emerytalne w krajach Unii Europejskiej 2004, red. T. Szumlicz, M. Żukowski, Warszawa.
Whitehouse E. 2007 Pensions Panorama. Retirement-Income Systems in 53 Countries, Washington.
Wielka Encyklopedia PWN 2001, t. 2, Warszawa.
Wiśniewski J. 2005 Ewolucja szwedzkiego i brytyjskiego modelu polityki społecznej w latach 1993
– 2003, Warszawa.
OPTIMUM – STUDIA EKONOMICZNE NR 1 (37) 2008
Mateusz KURPACZ 1
WYBRANE ASPEKTY FUNKCJONOWANIA ŻYWNOŚCI
TRADYCYJNEJ W POLSCE
Streszczenie
W ostatnich latach rynek żywności tradycyjnej odnotował wzrost dynamiki, wynikający przede wszystkim z zainteresowania producentów towarami umieszczanymi na Liście Produktów Tradycyjnych. Obecnie
nie wszystkie problemy przewidziane w Strategii identyfikacji i promocji produktów tradycyjnych z 2004
roku zostały rozwiązane. Wciąż bowiem istnieją utrudnienia w uzyskaniu odstępstw od rygorystycznych
wymogów sanitarnych oraz weterynaryjnych. Również świadomość konsumentów, związana z żywnością
tradycyjną, wymaga dalszego ukształtowania. Wcześniejszy PRWO z lat 2004 – 2006 nie usunął wszystkich
barier w rozwoju obszarów wiejskich. Pozostają zatem nadzieje związane z nowo przewidzianymi rozwiązaniami w ramach Europejskiego Funduszu Rolnego na rzecz Rozwoju Obszarów Wiejskich. Tym bardziej,
że wśród producentów żywności tradycyjnej dominuje pozytywne nastawienie odnośnie przyszłości prowadzonej przez nich działalności.
SELECTED ASPECTS CONCERNING THE CONSUMPTION OF TRADITIONAL
FOOD IN POLAND
Summary
In Poland there are a lot of legal problems concerning traditional food. This situation confirms the research presented during The International Trade and Agriculture Fair in Poznań. The first issue concerns
identification and functioning of legal concepts concerning traditional food. Other issues include problems
of consumer perceptions concerning quality. Another aspect involves rural developments in Poland and financial issues. On the other hand, Poland is distinguished by culinary tradition and food quality. That could
prognisticate a better future.
1. Wstęp
Problematyka żywności tradycyjnej jest ważna dla Polski jako kraju z bogatą tradycją kulinarną. Tendencja ta jest zauważalna także w przeznaczeniu wspólnotowych funduszy, w tym przede wszystkim Europejskiego Funduszu Rolnego na
rzecz Rozwoju Obszarów Wiejskich. W ciągu trzech ostatnich lat można było zaobserwować wiele zmian w tej mierze, ale czy oznacza to obecnie brak większych
problemów z funkcjonowaniem żywności tradycyjnej w Polsce? Badania przeprowadzone w czasie Międzynarodowych Targów Poznańskich „Polagra – Farm” w 2006 ro1
Mgr Mateusz Kurpacz jest doktorantem na Wydziale Prawa i Administracji Uniwersytetu Gdańskiego.
126
Mateusz Kurpacz
ku wskazują, że wśród problemów wskazanych przez producentów żywności tradycyjnej przeważają przede wszystkim bariery prawne.
Celem publikacji jest określenie kształtu regulacji prawnej żywności tradycyjnej
z uwzględnieniem wpływu tej regulacji na rozwój obszarów wiejskich. Metodą badawczą jest dogmatyczna analiza tekstu prawnego oraz porównanie stanu prawnego
z wynikami przeprowadzonych badań.
Badanie własne zostało przeprowadzone wśród producentów żywności tradycyjnej z całej Polski. Polegało one głównie na wypełnieniu ankiety oraz udzielaniu
wywiadu przez respondentów. Badanie umożliwiło przede wszystkim diagnozę sytuacji na rynku żywności tradycyjnej w skali całego kraju. To pozwoliło z kolei na
wyciagnięcie szerszych wniosków oraz sformułowanie postulatów odnośnie stanu
regulacji prawnej żywności tradycyjnej w Polsce, w tym jej realnego wpływu na rozwój obszarów wiejskich. Postulaty te odnosiły się głównie do: sprecyzowania pojęcia produktu regionalnego i tradycyjnego, możliwości funkcjonowania tych pojęć w obrocie prawnym oraz wprowadzania tego typu wyrobów na rynek. Pozostałe badane
zagadnienia to kwestia wymogów sanitarno – higienicznych i weterynaryjnych, świadomości konsumentów odnośnie jakości tego typu żywności oraz ogólna problematyka rozwoju obszarów wiejskich.
2. Pojęcie produktu regionalnego, tradycyjnego oraz inne definicje pokrewne
Główny problem, który pojawił się po wejściu Polski do Unii Europejskiej, to
brak pojęć definiujących wyroby tradycyjne. Nie istniała także spójna polityka promująca wyroby tradycyjne w ramach wspólnotowego rynku, w tym szczególnie odczuwany był brak wyraźnych działań identyfikujących produkty tradycyjne. Takie
działanie przewidywały zwłaszcza rozwiązania włoskie [Szymecka 2005 s. 123 i n.],
na których polskie Ministerstwo Rolnictwa i Rozwoju Wsi zresztą opierało się, tworząc polskie regulacje prawne związane z żywnością tradycyjną.
Pojęcia produktu regionalnego oraz tradycyjnego ukształtowała głównie doktryna [Korzycka-Iwanow 2005 s. 49], w związku z obowiązywaniem wspólnotowych rozporządzeń po akcesji Polski do Unii Europejskiej. Natomiast dopiero wejście w życie ustawy z dnia 17 grudnia 2004 r. o rejestracji i ochronie nazw i oznaczeń
produktów rolnych i środków spożywczych oraz o produktach tradycyjnych, uregulowało w pełni obowiązywanie w Polsce systemu wyróżnienia oraz promocji produktów regionalnych oraz tradycyjnych. Ostatnie zmiany, wywołane rozporządzeniem
Rady (WE), nr 510/2006 z dnia 20 marca 2006 r. w sprawie ochrony oznaczeń geograficznych i nazw pochodzenia produktów rolnych i środków spożywczych, rozporządzeniem Rady (WE), nr 509/2006 z dnia 20 marca 2006 r. w sprawie produktów rolnych i środków spożywczych będących gwarantowanymi tradycyjnymi specjalnościami oraz przede wszystkim wejściem w życie ustawą z dnia 25 sierpnia 2006 r.
o bezpieczeństwie żywności i żywienia, wprowadziły szerokie pojęcie żywności tradycyjnej.
Wybrane aspekty funkcjonowania żywności tradycyjnej w Polsce
127
Nadanie kształtu powyższej regulacji daje możliwość sprecyzowania relacji pojęcia produktu regionalnego do pojęcia produktu tradycyjnego, co wcześniej mogło
powodować pewne rozbieżności. Słuszne wydaje się łączenie produktów rolnych
i środków spożywczych w ramach pojęcia produktu regionalnego, które mają możliwość wpisu do jednego z rejestrów prowadzonych przez Komisję Europejską, czyli Rejestru Chronionych Nazw Pochodzenia i Chronionych Oznaczeń Geograficznych albo Rejestru Gwarantowanej Tradycyjnej Specjalności.
Obecnie o grupie produktów określanych jako regionalne można mówić wtedy,
gdy podlegają one ochronie prawnej ze względów określonych w przepisach prawnych [Nowińska, Promińska, du Vall 2005 s. 257 i nast.]. Ochrona nazwy pochodzenia oraz oznaczeń geograficznych, zgodnie z art. 1 ust. 1 rozporządzenia Rady
(WE), nr 510/2006, obejmuje wymienione w załączniku nr I do TWE produkty rolne przeznaczone do spożycia przez ludzi oraz środki spożywcze wymienione w załączniku I do podanego rozporządzenia oraz produkty rolne wymienione w załączniku II do wymienionego rozporządzenia. Natomiast za gwarantowaną, tradycyjną
specjalność, na podstawie art.1 ust. 1 rozporządzenia Rady (WE), nr 509/2006,
można uznać obok, podobnie jak wcześniej, produktów rolnych przeznaczonych do
spożycia przez ludzi, wymienionych w załączniku nr I do TWE, także środki
spożywcze zawarte w załączniku I do wymienionego rozporządzenia. Tak więc, różnica pomiędzy zakresami tych wymienionych w dwóch różnych rozporządzeniach
definicjami, sprowadza się do załączników w nich wymienionych, przy czym w pierwszym przypadku brak jest załącznika obejmującego dodatkowe produkty rolne [Produkty tradycyjne i regionalne 2004 s. 8 i nast.].
Przepis art. 2 ust. 1 lit a rozporządzenia Rady (WE), nr 510/2006 definiuje nazwę pochodzenia jako nazwę regionu, określonego miejsca lub, w wyjątkowych przypadkach kraju, która służy do oznaczenia produktu rolnego lub środka spożywczego pochodzącego z tego regionu, miejsca, kraju, którego jakość lub cechy charakterystyczne są w istotnej lub wyłącznej mierze zasługą środowiska geograficznego (składającego się z czynników zarówno naturalnych, jak i ludzkich) oraz którego produkcja, przetwarzanie i przygotowanie mają miejsce na określonym obszarze geograficznym. Natomiast zgodnie z art. 2 ust. 1 lit b rozporządzenia za oznaczenie geograficzne uznaje się nazwę regionu, określonego miejsca lub wyjątkowo kraju, która to
służy do oznaczenia produktu rolnego lub środka spożywczego pochodzącego z tego regionu, miejsca lub kraju oraz posiadającego określoną jakość, renomę lub inną
cechę charakterystyczną przypisywaną temu oznaczeniu geograficznemu oraz którego produkcja lub przetwarzanie, a także przygotowanie, mają miejsce na określonym
obszarze geograficznym. W świetle tych regulacji konieczną przesłanką ochrony oznaczeń geograficznych oraz nazw pochodzenia jest obiektywny związek pomiędzy jakością produkcji a jego pochodzeniem. Nie wystarcza zatem samo przekonanie
przeciętnego nabywcy o związku cech produktu z jego określonym pochodzeniem,
które to może być właściwe w przypadku np. znaku towarowego.
W literaturze przedmiotu [Skubisz 2004 s. 27 i n.] wskazuje się, że oznaczeniom
geograficznym przysługuje wpis do odpowiedniego rejestru, jeżeli przynajmniej
jedna z faz wytworzenia i dystrybucji odbywa się w regionie geograficznym, do któ-
128
Mateusz Kurpacz
rego odnosi się oznaczenie. Inaczej jest w przypadku nazw pochodzenia, gdzie konieczne jest, aby wszystkie fazy przetwarzania i przygotowania odbywały się na jednym i tym samym obszarze geograficznym. W związku z powyższym w nazwach pochodzenia występuje silny związek pomiędzy cechami produktu a jego pochodzeniem geograficznym.
Zgodnie z art. 2 ust. 1 lit c rozporządzenia Rady (WE), nr 509/509, gwarantowana
tradycyjna specjalność produktu, oznacza tradycyjny produkt rolny lub środek spożywczy uznany przez Wspólnotę ze względu na jego specyficzny charakter poprzez
jego rejestrację zgodnie z tym rozporządzeniem. Z kolei specyficzny charakter oznacza cechę lub zespół cech, które w sposób wyraźny odróżniają produkt rolny lub
środek spożywczy od podobnych im produktów lub środków spożywczych należących do tej samej kategorii. Pojęcie „tradycyjny” odnosi się do udokumentowanego,
jako będącego w użyciu na rynku wspólnotowym, przynajmniej przez okres wskazujący na przekaz z pokolenia na pokolenie, a okres ten powinien odpowiadać okresowi zwykle przypisywanemu jednemu pokoleniu i wynosić co najmniej 25 lat.
Definicja legalna „produktu tradycyjnego” zawarta jest w art. 47 ust.1 ustawy z dnia
17 grudnia 2004 r. o rejestracji i ochronie nazw i oznaczeń produktów rolnych i środków spożywczych oraz o produktach tradycyjnych (Dz. U. z 2005 r., Nr 10, poz.
68). Definicja ta często jest błędnie utożsamiana z wcześniej przedstawionym pojęciem gwarantowanej tradycyjnej specjalności. Pojęcie produktu tradycyjnego obejmuje
natomiast produkty rolne i środki spożywcze oraz napoje spirytusowe (ograniczone
enumeratywnie do wymienionych w odpowiednich załącznikach rozporządzeń unijnych), których jakość lub wyjątkowe cechy i właściwości wynikają ze stosowania tradycyjnych metod produkcji, za które uważa się metody wykorzystywane od co
najmniej 25 lat. Produkty takie są wpisywane na prowadzoną przez ministra właściwego do spraw rynków rolnych Listę Produktów Tradycyjnych. W ustawie o bezpieczeństwie żywności zawarte są także określenia legalne, zawierające omawiane pojęcia.
I tak m.in. art. 69 ust. 1 pkt 1 zawiera określenie „tradycyjne metody produkcji lub
obrotu żywnością”. W przepisach unijnych można znaleźć określenia, takie jak: „produkty o tradycyjnych cechach”, „produkty produkowane przy użyciu tradycyjnych
surowców” lub też „produkowane z wykorzystaniem tradycyjnych metod” oraz
„produkty charakteryzujące się tradycyjnym składem lub sposobem produkcji”.
3. Wprowadzenie do obrotu żywności tradycyjnej a wymogi higienicznosanitarne oraz weterynaryjne
Bardzo ważnym problemem jest wprowadzenie produktu regionalnego oraz tradycyjnego do obrotu na rynku. Taką niekorzystną sytuacje potwierdzają badania wśród
producentów. Często powstaje błędne koło, polegające na tym, że produkt nie jest
zarejestrowany oraz ewentualnie chroniony, ponieważ nie znajduje się w obrocie
z powodu niespełnienia określonych przepisów higieniczno–sanitarnych, czy weterynaryjnych, a gdy nie jest w obrocie, nie ma możliwości wystąpienia o ewentualne
odstępstwa [Rzytki 2005 s. 326].
Wybrane aspekty funkcjonowania żywności tradycyjnej w Polsce
129
Najbardziej natomiast odpowiadającą wymogom obrotu prawnego definicję,
obejmującą swoim zakresem rozpatrywane produkty, zawiera ustawa z dnia 25 sierpnia 2006 r. o bezpieczeństwie żywności i żywienia. Zgodnie z art. 3 ust. 3 pkt 60 tej
ustawy, określenie „żywność tradycyjna” to produkty rolne i środki spożywcze, których nazwy są zarejestrowane zgodnie z rozporządzeniem Rady (WE), nr 509/2006
z dnia 20 marca 2006 r. w sprawie produktów rolnych i środków spożywczych będących gwarantowanymi tradycyjnymi specjalnościami lub rozporządzeniem Rady
(WE), nr 510/2006 z dnia 20 marca 2006 r. w sprawie ochrony oznaczeń geograficznych i nazw pochodzenia produktów rolnych i środków spożywczych. Pojęcie
żywności tradycyjnej odnosi się również do wniosków o rejestrację, które zostały
wysłane do Komisji Europejskiej zgodnie z przepisami ustawy z dnia 17 grudnia
2004 r. o rejestracji i ochronie nazw i oznaczeń produktów rolnych i środków spożywczych oraz o produktach tradycyjnych. Pojęcie to może także obejmować wyroby umieszczone na Liście Produktów Tradycyjnych, prowadzonej przez ministra
właściwego do spraw rynków rolnych.
Powyższa definicja związana jest zatem przede wszystkim z problematyką dotyczącą możliwości ubiegania się o odstępstwa weterynaryjne i sanitarne dla produktów tradycyjnych oraz regionalnych. Aktualnie stworzenie możliwości ubiegania się
o tego typu odstępstwa przy produkcji tradycyjnej żywności istnieje przede wszystkim na podstawie art. 69 ustawy o bezpieczeństwie żywności i żywienia. Minister właściwy do spraw zdrowia w porozumieniu z ministrem właściwym do spraw rolnictwa
może określić, w drodze rozporządzenia, wymagania higieniczne w zakładach stosujących tradycyjne metody produkcji lub obrotu żywnością, w celu umożliwienia stosowania tych metod, oraz w zakładach zlokalizowanych w regionach szczególnych
ze względu na położenie geograficzne, w celu uwzględnienia potrzeb tych zakładów. Minister właściwy do spraw zdrowia oraz minister właściwy do spraw rolnictwa, każdy w zakresie swojego działania, działając w porozumieniu, mogą określić,
w drodze rozporządzenia, ogólne odstępstwa od określonych wymagań higienicznych (m.in.: określonych w rozdziale II pkt 1 i rozdziale V pkt 1 załącznika II do rozporządzenia nr 852/2004 [Rozporządzenie Parlamentu… 2004] w zakładach produkujących żywność tradycyjną w zakresie określonym w art. 7 ust. 2 rozporządzenia
Komisji (WE), nr 2074/2005 [Rozporządzenie Komisji… 2005]), mając na względzie umożliwienie zakładom stosowania tradycyjnych metod produkcji oraz zapewnienie bezpieczeństwa żywności. Natomiast odpowiedni państwowy powiatowy inspektor sanitarny oraz powiatowy lekarz weterynarii są organami właściwymi do wydawania decyzji przyznających indywidualne odstępstwa od ściśle określonych wymagań higienicznych przede wszystkim zakładom produkującym żywność tradycyjną, jeżeli są spełniane przez nie powyższe wymagania. O przyznanych indywidualnych odstępstwach są powiadamiani, odpowiednio, Główny Inspektor Sanitarny albo
Główny Lekarz Weterynarii. Minister właściwy do spraw zdrowia oraz minister
właściwy do spraw rolnictwa, analogicznie także Główny Inspektor Sanitarny oraz
Główny Lekarz Weterynarii, każdy w zakresie swoich kompetencji, powiadamiają
także Komisję Europejską oraz pozostałe państwa członkowskie Unii Europejskiej
o przyznanych odstępstwach.
130
Mateusz Kurpacz
Jak do tej pory, Minister Rolnictwa i Rozwoju Wsi wydał rozporządzenie z dnia
12 października 2004 r. w sprawie określonych wymagań weterynaryjnych przy
produkcji i dla produktów mlecznych o tradycyjnym charakterze (Dz. U. z 2004 r.,
Nr 236, poz. 2368). Określa ono wymagania weterynaryjne przy produkcji Redykołki, Bryndzy, Oscypka, Buncu oraz Żętycy. Istnieją w polskim prawie określone
odstępstwa od wymagań weterynaryjnych odnośnie pewnych kategorii oraz ilości produktów wprowadzanych na rynek na określonym obszarze na podstawie art. 12 ustawy z dnia 16 grudnia 2005 r. o produktach pochodzenia zwierzęcego (Dz. U. z 2006 r.,
Nr 17, poz. 127). Dotyczy to produktów pochodzenia zwierzęcego, które mogą być
przeznaczone do sprzedaży bezpośredniej.
Definicja sprzedaży bezpośredniej obejmuje z kolei bezpośrednie dostawy, dokonywane przez producenta w małych ilościach surowców do konsumenta końcowego lub lokalnego zakładu detalicznego bezpośrednio zaopatrującego konsumenta
końcowego. Definicja ta zawiera w sobie także tego typu bezpośrednie dostawy dokonywane przez producenta w małych ilościach mięsa z drobiu lub zajęczaków
poddanych ubojowi w gospodarstwie rolnym do konsumenta końcowego lub lokalnego zakładu detalicznego, który bezpośrednio dostarcza przedmiotowe mięso w formie mięsa świeżego konsumentowi końcowemu. Przedstawiana definicja sprzedaży
bezpośredniej obejmuje również myśliwych, którzy dostarczają małe ilości zwierzyny łownej lub mięsa zwierząt łownych bezpośrednio do konsumenta końcowego lub
lokalnego zakładu detalicznego bezpośrednio zaopatrującego konsumenta końcowego.
4. Pojęcie jakości żywności tradycyjnej a jej świadomość wśród konsumentów
Innym istotnym problemem jest niska świadomość konsumentów żywności tradycyjnej. Dlatego też, zdaniem MRiRW, działania powinny głównie iść w kierunku
zwiększenie tej świadomości. Z przeprowadzonych w październiku 2006 r. badań
wynika, że przeważnie źródłem informacji o możliwości rejestracji produktu dla
producentów był samorząd terytorialny lub organizacje pozarządowe. Z kolei tradycyjne produkty żywnościowe są najczęściej sprzedawane bezpośrednio konsumentom w pobliżu miejsca ich wytwarzania, co powinno siłą rzeczy zwiększać faktyczną świadomość konsumentów.
Ważną rolę, w stosunku do wymienionego zagadnienia, pełni także problematyka pojęcia jakości. Do tego pojęcia nawiązuje m.in. art. 357 KC, odwołujący się
do świadczenia rzeczy średniej jakości, oraz art. 577 KC wskazujący na gwarancję
co do jakości rzeczy sprzedanej. W piśmiennictwie [Leśkiewicz 2006 s. 63] zwraca
się uwagę na wyraźne rozróżnienie regulacji prawnych zapewniających jakość zdrowotną produktów rolnych (łącznie z ich bezpieczeństwem i jakością handlową) od
regulacji odnoszących się do jakości szczególnej produktu, charakteryzujących się
cechami dodatkowymi ponad jakość zdrowotną. Produkty regionalne i tradycyjne
charakteryzują się zarówno jakością szczególną, jak i zdrowotną. W podanym zakresie bezpieczeństwa produktów należy natomiast rozróżnić: pojęcie tzw. „food safety”
Wybrane aspekty funkcjonowania żywności tradycyjnej w Polsce
131
rozumianego jako bezpieczeństwa produktów żywnościowych, pojęcie tzw. „food security” – w rozumieniu bezpieczeństwa dostaw produktów rolnych oraz tzw. „food
quality”, czyli standaryzację produktu żywnościowego [Ozimek 2006 s. 63]. W stosunku do ochrony prawnej, nastawionej na konsumentów, największą rolę ma pierwsze z wymienionych pojęć.
Na uwagę zasługuje fakt, że pojęcie jakości jest różnie rozumiane w poszczególnych państwach. W Europie widoczne są rozbieżności pomiędzy państwami leżącymi na północy kontynentu, postrzegających jakość przez wymagania i standardy
bezpieczeństwa zdrowej żywności (np. Anglia, Szwecja), a jego południem (np.
Włochy, Hiszpania), gdzie jakość to wyjątkowa i unikalna specyfika produktu gwarantowana jego pochodzeniem [Jasiński 2005 s. 284]. Natomiast w krajach pełniących rolę rzecznika wolnej konkurencji w skali globalnej (zwłaszcza w Stanach Zjednoczonych, Kanadzie i Australii) ogólne postrzeganie jakości jest przeciwne poglądowi reprezentowanemu przez większość państw europejskich oraz odnosi się ono
przede wszystkim do wypracowania własnej marki produktu, w tym jego innowacyjności na wolnym rynku bez przeszkód prawnych w tym zakresie [Szymecka 2005 s. 32].
Na świadomość konsumentów, odnośnie jakości produktów regionalnych i tradycyjnych, wpływa także zakres informacji im przekazywany przez producentów.
Prawną regulacją, którą nie można pominąć w tym zakresie, są wytyczne zamieszczone w Białej Księdze Komisji WE [Biała Księga… 2000] wskazujące, że konsumenci powinni otrzymywać taką informację o produktach spożywczych, aby mogli
dokonywać świadomego wyboru w szerokiej ofercie rynkowej. Podkreśla się, że
przepisy w dziedzinie znakowania powinny przede wszystkim gwarantować, że konsumenci otrzymują informacje o składzie, warunkach przechowywania, sposobie użycia
i innych cechach, które decydują o wyborze produktu [Oleszko 2006 s. 53 i nast.].
Procedura wspólnotowa w zakresie znakowania (etykietowania), prezentacji oraz
reklamy środków spożywczych przewidziana jest dyrektywą nr 2000/13/WE [Dyrektywa Parlamentu Europejskiego… 2000]. Procedura ta, istotna dla zwiększenia
świadomości konsumentów odnośnie tradycyjnej żywności, przyjęta jest w drodze
decyzji Wspólnoty, jeżeli państwo członkowskie zamierza przyjąć nowe ustawodawstwo. W celu ułatwienia handlu między państwami członkowskimi, na etapach
poprzedzających sprzedaż konsumentowi końcowemu, na zewnętrznym opakowaniu powinny być umieszczone jedynie informacje dotyczące podstawowych składników [Patkowska 2002 s. 33]. Natomiast niektóre obowiązkowe dane szczegółowe,
które muszą znajdować się na paczkowanym środku spożywczym, powinny znajdować się tylko w odnoszących się do nich dokumentach handlowych.
Charakteryzujące się specyficznymi cechami lub wymaganiami jakości handlowej
artykuły rolno – spożywcze mogą być oznaczone także znakiem jakości. Dotyczy to
w szczególności sposobu produkcji, składu, właściwości organoleptycznych, zgodnie z art. 2 pkt 2 dyrektywy 84/450/EWG [Dyrektywa Rady… 1984]. Zwraca się uwagę w powyższej regulacji, że reklama wprowadzająca w błąd, to reklama, która w jakikolwiek sposób, włącznie z jej wyglądem, wprowadza lub może wprowadzić w błąd
osoby, włącznie z jej wyglądem, lub do których dociera i może wpływać na działalność gospodarczą tych osób lub szkodzić konkurentowi. Z kolei reklama „oszukań-
132
Mateusz Kurpacz
cza” przez wprowadzenie w błąd osoby, do której jest kierowana, narusza przede
wszystkim jej interes ekonomiczny oraz zakłóca funkcjonowanie wspólnego rynku.
Regulacja dyrektywy 84/450/EWG chroni osoby prowadzące działalność przemysłową, handlową, rzemieślniczą, wykonujących wolne zawody oraz interes ogólny przed
nieuczciwością. Istotne znaczenie ma, powstałe na podstawie reklamy, wyobrażenie
niezgodne ze stanem rzeczywistym. Decydujące jest tutaj wyobrażenie adresatów reklamy, a nie opinie reklamujących czy agencji reklamowych [Gąsiorowski s. 70 i n.].
5. Bariery w rozwoju obszarów wiejskich a rynek żywności tradycyjnej
Ostatnie z istotnych problemów, związanych z żywnością tradycyjną, to szeroko
pojęte bariery w rozwoju obszarów wiejskich. Zaliczyć do nich można niewystarczającą dywersyfikację zatrudnienia na obszarach wiejskich oraz słaby rozwój niektórych regionów, w tym przede wszystkim niewystarczające propagowanie lokalnej
kultury i tradycji. Z badań przeprowadzonych w Poznaniu wynika, że prawie połowa respondentów prowadzi własną działalność gospodarczą, wykazując przy tym
aktywność zawodową w zakresie żywności tradycyjnej przez okres co najmniej 10
lat. Warte odnotowania jest, że działalność związana z wytwarzaniem produktu jest
dla większości respondentów głównym źródłem utrzymania. Wyniki badania potwierdzają, że producenci są na ogół zadowoleni z własnych zarobków oraz dostrzegają
szansę poprawy swojej sytuacji materialnej, tym bardziej że przyczyną podjęcia działalności związanej z żywnością tradycyjną była dla respondentów początkowo chęć
dodatkowego zarobkowania oraz kontynuacja tradycji rodzinnych.
Omawiane zagadnienie jest uwzględnione przez działanie „uczestnictwo rolników w systemach jakości żywności” w ramach działań „Osi I poprawa konkurencyjności sektora rolnego i leśnego” nowego Programu PROW na lata 2007 – 2013.
W tym przypadku cel działania obejmuje poprawę jakości produkcji i produktów
rolnych przeznaczonych do spożycia przez ludzi przez zwiększenie spożycia żywności wysokiej jakości oraz wsparcie rolników wytwarzających taką żywność. Jego
realizacja nastąpi przez finansowe wsparcie rolników uczestniczących w systemach
jakości żywności, takich jak: System Chronionych Nazw Pochodzenia, Chronionych
Oznaczeń Geograficznych i Gwarantowanych Tradycyjnych Specjalności. Wsparciem objęte będą równolegle systemy krajowe, Integrowana Produkcja (IP) w rozumieniu ustawy z dnia 18 grudnia 2003 r. o ochronie roślin (Dz. U. z 2004 r., Nr 11,
poz. 94 z późn. zm.) oraz także inne systemy krajowe.
Beneficjentem mogą być osoby fizyczne, osoby prawne lub jednostka organizacyjna nie posiadająca osobowości prawnej, prowadząca działalność rolniczą w zakresie produkcji roślinnej lub zwierzęcej. Przede wszystkim będą nimi producenci rolni
wpisani do ewidencji producentów na podstawie ustawy z dnia 18 grudnia 2003 r.
o krajowym systemie ewidencji producentów, ewidencji gospodarstw rolnych oraz
ewidencji wniosków o przyznanie płatności (Dz. U. z 2004 r., Nr 10, poz. 76 z
późn. zm.) lub ubezpieczeni w Kasie Rolniczego Ubezpieczenia Społecznego po spełnieniu warunków ustawy z dnia 20 grudnia 1990 r. o ubezpieczeniu społecznym
Wybrane aspekty funkcjonowania żywności tradycyjnej w Polsce
133
rolników (Dz.U. z 1998 r., Nr 7, poz. 25 z późn. zm.). Ponadto beneficjent powinien spełniać wymagania właściwe dla każdego z systemów jakości, co jest potwierdzone odpowiednim dokumentem.
Pomoc w ramach działania będzie udzielana beneficjentom poszczególnych systemów przez okres 5 lat w formie rocznej zryczałtowanej płatności, której wysokość została ustalona na podstawie kosztów stałych wynikających z uczestnictwa
producenta rolnego w danym systemie. W przypadku Systemu Chronionych Nazw
Pochodzenia, Chronionych Oznaczeń Geograficznych i Gwarantowanych Tradycyjnych Specjalności jest to 3500 złotych na rok na gospodarstwo przez pierwsze 2
lata. W kolejnych latach kwota ta wyniesie 3000 złotych na rok na gospodarstwo.
Natomiast w przypadku integrowanej produkcji roczna zryczałtowana płatność to
1730 złotych na rok na gospodarstwo. Nie ustalono aktualnie jeszcze wysokości pomocy dla innych systemów krajowych.
6. Podsumowanie
Z przedstawionych rozważań wynika, że wciąż istnieją utrudnienia dla żywności
tradycyjnej w uzyskaniu odstępstw od rygorystycznych wymogów sanitarnych oraz
weterynaryjnych. Podobna sytuacja występuje w przypadku świadomości konsumentów, związana z tego typu żywnością, która wymaga zdecydowanej poprawy. We
wcześniejszych latach nie usunięto także wszystkich barier utrudniających rozwój obszarów wiejskich. Poprawę sytuacji zapowiada zdecydowany wzrost zainteresowania
producentów produktami umieszczanymi na Liście Produktów Tradycyjnych. W najbliższym czasie nastąpią także pierwsze publikacje polskich tradycyjnych produktów
żywnościowych w Dzienniku Urzędowym Wspólnot Europejskich [Jasiński, Rzutki
2007 s. 33]. Przewidziano także działania związane z żywnością tradycyjną w ramach
Europejskiego Funduszu Rolnego na rzecz Rozwoju Obszarów Wiejskich. Wśród
producentów żywności tradycyjnej również dominuje głównie nastawienie na
zwiększanie w przyszłości w ramach własnej działalności sprzedaży oraz produkcji
żywności tradycyjnej, w tym przede wszystkim poprawę jej marketingu.
Literatura
Biała Księga o Bezpieczeństwie Żywności przyjęta przez Komisję w dniu 12 stycznia 2000 r.
Dyrektywa Parlamentu Europejskiego i Rady nr 2000/13/WE z dnia 20 marca
2000 r. w sprawie zbliżenia ustawodawstw Państw Członkowskich odnoszących
się do etykietowania, prezentacji i reklamy środków spożywczych, Dz. U. L 109
z 06.05.2002 r.
Dyrektywa Rady nr 84/450/EWG z dnia 10 września 1984 r. w sprawie zbliżenia
przepisów ustawowych, wykonawczych i administracyjnych Państw Członkowskich dotyczących reklamy wprowadzającej w błąd.
134
Mateusz Kurpacz
Jasiński J., Rzutki M. 2007 Rynek produktów regionalnych i tradycyjnych, „Biuletyn Informacyjny ARR”, nr 1 (187).
Korzycka-Iwanow M. 2005 Prawo żywnościowe, Warszawa.
Leśkiewicz K. 2006 Z prawnej problematyki jakości produktów rolnych, „Przegląd prawa
rolnego”, nr 1.
Nowińska E., Promińska U., du Vall M. 2005 Prawo własności przemysłowej, Warszawa.
O produktach tradycyjnych i regionalnych. Możliwości a polskie realia 2005, red. M. Gąsiorowski, Warszawa.
Ochrona znaków towarowych, wzorów przemysłowych i oznaczeń geograficznych w Polsce po akcesji do Unii Europejskiej 2004, Urząd Patentowy RP, Warszawa.
Oleszko A. 2006 Prawo żywnościowe wspólnotowego rynku rolnego, Kraków.
Ozimek I. 2006 Bezpieczeństwo żywności w aspekcie ochrony konsumenta w Polsce, Warszawa.
Prawo żywnościowe Unii Europejskiej 2002, red. E. Notecka, M. Obiedziński, Warszawa.
Produkty tradycyjne i regionalne 2004, MRiRW, Warszawa.
Rozporządzenie Komisji (WE), nr 2074/2005 z dnia 5 grudnia 2005 r. ustanawiające środki wykonawcze w odniesieniu do niektórych produktów objętych rozporządzeniem (WE), nr 853/2004 i do organizacji urzędowych kontroli na mocy
rozporządzeń (WE), nr 854/2004 oraz (WE), nr 882/2004, ustanawiające odstępstwa od rozporządzenia (WE), nr 852/2004 i zmieniające rozporządzenia
(WE), nr 853/2004 oraz (WE), nr 854/2004.
Rozporządzenie Parlamentu Europejskiego i Rady (WE), nr 852/2004 z dnia 29
kwietnia 2004 r. w sprawie higieny środków spożywczych.
Szymecka A. 2005 Ochrona oznaczeń geograficznych w WTO jako przedmiot konfliktu pomiędzy starym światem a nowym światem, „Wspólnoty Europejskie”, nr 5 (162).
OPTIMUM – STUDIA EKONOMICZNE NR 1 (37) 2008
Bożena DĄBROWSKA-JASZCZOŁT 1
UWARUNKOWANIA ZMIAN JAKOŚCI MLEKA W SKUPIE NA
PRZYKŁADZIE OSM W HAJNÓWCE
Streszczenie
Z chwilą wejścia Polski do Unii Europejskiej zaczęły obowiązywać takie same wymagania i kryteria oceny mleka surowego, jakie istniały we Wspólnocie. Priorytetem w działalności polskich zakładów
mleczarskich stało się pozyskanie surowca najwyższej jakości, gdyż właśnie z takiego mleka można
wyprodukować wyroby spełniające oczekiwania konsumentów. Tak więc, przedsiębiorstwa branży
mleczarskiej, które chciały sprostać wymaganiom konkurencji, musiały przestrzegać standardów jakościowych, począwszy od etapu pozyskania surowca poprzez jego skup, przerób, a kończąc na sprzedaży gotowych produktów. W wyniku starań zakładów mleczarskich i producentów mleka doszło do
wyodrębnienia się grupy województw o relatywnie wysokim udziale mleka klasy ekstra. Do grupy tej
należą województwa z północno-wschodniej części Polski (województwo warmińsko-mazurskie i podlaskie). Trwała poprawa jakości mleka surowego wymaga spełnienia wielu warunków, między innymi:
czasu, wysokich kosztów i dużych nakładów pracy. Potwierdza to przykład OSM w Hajnówce, która odniosła ogromny sukces w zakresie poprawy jakości skupowanego surowca. Stało się to możliwe dzięki
współpracy Spółdzielni z producentami mleka. Podstawę tej współpracy stanowiło specjalistyczne doradztwo oraz finansowe wsparcie przedsięwzięć modernizacyjnych.
CONDITIONS CONCERNING CHANGES IN MILK QUALITY AT COLLECTION
POINTS CONFIRMED BY THE EXAMPLE OF DAIRY COOPERATIVE IN HAJNÓWKA
Summary
Poland’s accession into the EU involved meeting EU standards with respect to milk quality. The
collection of the highest quality raw milk became a priority for the Polish dairy plants, because only
such raw material can be used in the production of the best quality dairy products that are required by
consumers. Therefore, all dairy firms that wanted to be a match for other competitive dairy plants, had
to comply with all quality standards considering the following steps: raw milk output, milk collection,
milk processing and sales of dairy products. A group of provinces with a big share of extra class milk
was separated in the result of dairy plants efforts and their cooperation with dairy farms. The provinces of the Northern and Eastern Poland (Podlaskie and Warmińsko-Mazurskie Provinces) belong to
this group. The stable improvement of raw milk quality needs compliance with many conditions, for
instance: expenditure of time, high costs, expenditure of work etc. The above is confirmed by the example of Dairy Cooperative in Hajnówka. This cooperative achieved a great success in the field of the
improvement of raw milk quality. The cooperation between the cooperative and milk producers made
it possible. But the main base of this cooperation included specialist advisory service and financial
backing aimed at modernization of dairy farms.
1 Mgr Bożena Dąbrowska-Jaszczołt jest doktorantką na Wydziale Ekonomii i Zarządzania Uniwersytetu w Białymstoku
136
Bożena Dąbrowska-Jaszczołt
1. Wstęp
Jakość mleka, jako surowca bardzo nietrwałego i biologicznie aktywnego, posiada szczególne znaczenie dla przemysłowego przerobu. Na kolejnych etapach
postępowania z nim można jedynie zabiegać o to, aby jego jakość nie uległa pogorszeniu. Warto podkreślić, że jakość surowca mlecznego raz już utracona jest nie do
poprawienia. Nowoczesne technologie, urządzenia techniczne oraz znakomita organizacja w zakładzie mleczarskim nie spowodują, iż powstanie wysokiej klasy wyrób z mleka, które cechuje zła jakość [Gornowicz 2003 s. 23].
Jakość surowca mlecznego (oraz jego przetworów) jest określana za pomocą parametrów o charakterze mierzalnym i niemierzalnym. Wskazują one na cechy produktu nadającego się do przerobu lub spożycia, a wyrażają się w walorach odżywczych, smakowych, sensorycznych oraz estetycznych. Jak słusznie zauważa A. Zalewski, ze względu na cechy mikrobiologiczne, mleko jest surowcem specyficznym. Natomiast biorąc pod uwagę jego cechy odżywcze jest ono artykułem uniwersalnym.
Na jakość surowego mleka wpływają: skład chemiczny oraz jakość higieniczna.
Pierwszy z wymienionych czynników decyduje o wydajności i kosztach przetwórstwa, z kolei drugi określa wartość biologiczną pod kątem przydatności do spożycia
i pewności zdrowotnej [Zalewski 2000 s. 34 – 35].
Ponadto, obok ceny, jakość to najistotniejszy warunek konkurencyjności produktu. Przedsiębiorstwa branży mleczarskiej, które chcą sprostać wymaganiom konkurencji, muszą przestrzegać standardów jakościowych, począwszy od etapu pozyskania surowca poprzez jego skup, przerób, a kończąc na sprzedaży gotowych produktów [Wysokińska-Senkus 2006 s. 30].
W opracowaniu przedstawiono, jak kształtowały się zmiany jakościowe w skupie
mleka w OSM w Hajnówce w latach 2001 – 2006. Podjęto również próbę wskazania na
czynniki, które istotnie wpływały na dokonujące się w strukturze jakościowej przemiany.
2. Standardy jakości mleka w Polsce – zasady i wymagania w odniesieniu do
produkcji i oceny mleka surowego2
Do niedawna jednym z głównych problemów polskiego mleczarstwa była jakość
mleka surowego3 [Sarnecki 2004 s. 53]. Niska jakość surowca uniemożliwiała produkcję
wyrobów, które byłyby w stanie skutecznie konkurować na rynkach zagranicznych.
Z chwilą wejścia Polski do Unii Europejskiej, takie same wymagania i kryteria oceny
mleka surowego, jakie istniały we Wspólnocie, obowiązują także w Polsce [Wysokińska2 Ze względu na poruszany w opracowaniu problem autorka koncentruje się na zapisie Rozporządzenia MRiRW z dnia 5 lipca 2002 roku (Dz. U. Nr 117 poz. 1011 z 25 lipca 2002r.); Rozporządzenie
Ministra Rolnictwa i Rozwoju Wsi w sprawie szczegółowych warunków weterynaryjnych wymaganych
przy pozyskiwaniu, przetwórstwie, składowaniu i transporcie mleka oraz przetworów mlecznych.
3 Do połowy lat 90. zakłady mleczarskie nie stosowały ostrych rygorów i wymagań sanitarno-higienicznych, a perspektywa integracji Polski z UE spowodowała zwiększenie się zainteresowania tym
właśnie zagadnieniem.
Uwarunkowania zmian jakości mleka w skupie…
137
Senkus 2006 s. 30]. Nowe zasady oraz wymagania w sprawie szczegółowych warunków
weterynaryjnych wymaganych przy pozyskiwaniu, przetwórstwie, składowaniu i transportowaniu mleka i jego przetworów, wprowadziło Rozporządzenie Ministra Rolnictwa
i Rozwoju Wsi z dnia 5 lipca 2002 roku (Dz. U., Nr 117 poz. 1011 z 25 lipca 2002 roku)
[Gornowicz, Jażdżewski, Seremak-Bulge 2003 s. 30].
Według zapisu nadmienionego rozporządzenia mleko surowe to mleko pochodzące od krów, owiec, kóz i bawolic o niezmienionym składzie, które nie było ogrzane do temperatury powyżej 40˚C. Nie było ono także poddane innym zabiegom,
które powodowałyby efekty podobne jak ogrzanie, powyżej tej temperatury. Tak
więc, świadczy to o tym, że mleko surowe powinno być naturalne, nierozcieńczone
wodą, niepozbawione tłuszczu oraz nieuzupełnione żadnymi środkami chemicznymi, czy też innymi substancjami. Wskazane jest, aby natychmiast po udoju zostało
ono schłodzone do niskich temperatur, których poziom uzależniony jest od długości okresu jego przechowywania, zanim zostanie poddane obróbce cieplnej. W sytuacji gdy mleko surowe po przyjęciu do punktu skupu, lub zakładu mleczarskiego, nie
zostanie poddane obróbce cieplnej w ciągu 4 godzin od jego przyjęcia, to powinno być
schłodzone do temperatury nie przekraczającej 6˚C, po czym przechowywane w tej
temperaturze do momentu obróbki cieplnej [Wysokińska-Senkus 2006 s. 32 – 33].
Rozporządzenie z dnia 5 lipca 2002 roku zrównało wymagania weterynaryjne co
do jakości mleka w Polsce z wymaganiami unijnymi. Oprócz tego, zgodnie z wynikami negocjacji Traktatu, dopuszczało ono do wykorzystania w przetwórstwie, do
końca 2006 roku, mleko surowe o parametrach klasy I (wg PN-A-86002:1999 Mleko surowe do skupu – Wymagania i badania4 [Nowakowski 2000 s. 2; Gornowicz,
Jażdżewski, Seremak-Bulge 2003 s. 30].
W UE podstawowymi kryteriami oceny surowca mlecznego są ogólna liczba drobnoustrojów oraz liczba komórek somatycznych. W rozporządzeniu ministra rolnictwa (podobnie jak w UE – Dyrektywa Rady 92/46 z dnia 16 czerwca 1992 roku)
określono, że mleko surowe, pochodzące od krów, nie powinno zawierać w 1 ml więcej
niż 100.000 drobnoustrojów oznaczonych metodą płytkową w temperaturze 30˚C.
Z kolei zawartość komórek somatycznych nie powinna przekraczać 400.000. Liczbę
drobnoustrojów ustala się dla okresu dwóch miesięcy na podstawie średniej geometrycznej wyników badań, co najmniej dwóch próbek pobranych w ciągu miesiąca. Z kolei liczba komórek somatycznych jest ustalana dla okresu trzech miesięcy
w oparciu o średnią geometryczną wyników badań, co najmniej jednej próbki, która
jest pobierana w ciągu miesiąca [Tomaszewski 2002 s. 24].
Obecny standard mleka powinien odpowiadać wymaganiom, jakie są postawione
w normie dla klasy ekstra. Przejściowe dopuszczenie do skupu surowca o parametrach właściwych dla klasy I nie oznacza, że każdy podmiot skupujący będzie chciał
kupować takie mleko [Wysokińska-Senkus 2006 s. 33].
4 Polska Norma na mleko surowe do skupu PN-A-86002:1999. Wymagania i badania – obowiązuje
od 1 stycznia 2000 roku. Zasadniczym celem wprowadzenia tej normy było zwrócenie uwagi producentom i
przetwórcom mleka na konieczność podejmowania działań na rzecz kontynuacji poprawy jakości
higienicznej i zdrowotnej mleka, a także przybliżenie polskich przepisów i wymogów dla mleka surowego do rozwiązań obowiązujących w Unii Europejskiej.
138
Bożena Dąbrowska-Jaszczołt
Oczywiście, zgodnie z przepisami rozporządzenia z dnia 5 lipca 2002 roku, do
mleka surowego nie można dodawać wody, a zakład mleczarski prowadzi badania
punktu zamarzania mleka surowego w oparciu o losowo pobierane próbki w momencie przelewania mleka do cysterny w punkcie odbioru. W sytuacji gdy wyniki badań potwierdzą, że do mleka surowego została dodana woda, to do badania punktu
zamarzania pobiera się próbki mleka bezpośrednio w gospodarstwie produkującym
surowiec. Jeżeli wyniki tychże badań wykażą, że woda nie została dodana, to mleko
surowe może być wykorzystane do produkcji mleka spożywczego lub też przetworów mlecznych (par. 4. omawianego rozporządzenia), [Rozporządzenie… 2002].
Należy dodać, iż rozporządzenie nie określa punktu zamarzania dla mleka surowego. Natomiast precyzuje, że mleko spożywcze posiada punkt zamarzania nie wyższy niż -0,520ºC, z zastrzeżeniem ust 3. par. 8. rozporządzenia, który to ustęp określa, że punkt zamarzania mleka może być wyższy niż –0,520ºC, jeżeli w wyniku jego
badania nie stwierdzono dodania wody do mleka. Ponadto mleko spożywcze musi
wykazywać gęstość w temperaturze 20ºC nie niższą niż 1028 g na 1 litr, w przypadku mleka pełnego, lub ekwiwalent gęstości w temperaturze 20ºC, w przypadku mleka całkowicie odtłuszczonego. Oprócz tego mleko spożywcze musi również zawierać minimum 28 g białka na 1 litr (stanowiącego iloczyn całkowitej zawartości azotu
wyrażonego w procentach i współczynnika 6,38) oraz musi zawierać nie mniej niż
8,5% suchej masy beztłuszczowej [Dz. U. z 2002 r., Nr 117 poz. 1011, par. 8].
Zgodnie z ujętymi w normie wymaganiami szczegółowymi dotyczącymi gęstości,
punktu zamarzania, ogólnej liczby drobnoustrojów, obecności komórek somatycznych,
obecności antybiotyków lub innych substancji hamujących, zawartości pestycydów,
metali oraz obecności aflatoksyny MI mleko jest także poddawane okresowo badaniom.
W przypadku gdy w badanym mleku i produktach mlecznych zostaną wykryte śladowe
postaci chemiczne (antybiotyki, sulfonamidy, inne środki przeciwbakteryjne i inne zanieczyszczenia), które przekraczają dopuszczalne normy, mleko i produkty z niego
otrzymane nie mogą być dopuszczone do konsumpcji [Wysokińska-Senkus 2006 s. 34].
3. Struktura jakościowa mleka skupowanego w Polsce
Procesy restrukturyzacyjno-dostosowawcze polskiego mleczarstwa do wymogów
unijnych rozpoczęły się wcześniej niż w innych sektorach przetwórstwa rolno-spożywczego. Był to proces trudny i kosztowny, ponieważ wiązał się z jednoczesną restrukturyzacją bazy surowcowej tego sektora, reorganizacją skupu mleka oraz ze
zmianami w rejonizacji produkcji mleka i produkcyjnej strukturze zakładów mleczarskich [Majewski 2001 s. 76].
Niekorzystnie na jakość skupowanego surowca wpływało rozdrobnienie jego
produkcji oraz niewielkie dostawy od producentów [Bielecki, Chechelski, Morkis,
Urban 2005 s. 45]. Dopiero od początku lat dziewięćdziesiątych zaczęto w Polsce
przywiązywać baczną uwagę do jakości higienicznej mleka. Niewątpliwie swój
udział w tym procesie miały mleczarnie, które premiowały dostawy mleka wysokiej
jakości oraz wspierały inwestycje prowadzące do poprawy jego jakości. Z pewnością
Uwarunkowania zmian jakości mleka w skupie…
139
do poprawy jakości przyczyniło się również wprowadzenie nowej zaostrzonej normy
na mleko, która zaczęła obowiązywać od 1 stycznia 2000 roku.
Według analiz Głównego Inspektoratu Weterynarii, przeprowadzonych w 2002
roku, stan zaawansowania polskich gospodarstw w dostosowaniu do unijnych wymogów i norm w zakresie pozyskiwania i przechowywania mleka był wysoce zróżnicowany. Z grupy 376 tysięcy dostawców stałych5 [Gornowicz, Jażdżewski, SeremakBulge 2003 s. 33] blisko połowa dostarczała surowiec klasy ekstra. Niemniej jednak
niespełna 17 tysięcy z tej grupy (około 4,4% ogólnej liczby dostawców) oraz 8,8%
dostawców mleka klasy ekstra posiadało zaświadczenie powiatowego lekarza weterynarii, potwierdzające, że spełniają oni wymogi co do warunków weterynaryjnych.
Natomiast prawie 66 tysięcy dostawców (17,5%) dostarczało mleko klasy II, które
od 1 stycznia 2003 roku nie jest dopuszczone do obrotu [Garlińska 2004 s. 4].
Stan jakości skupowanego mleka był zróżnicowany terytorialnie, biorąc pod
uwagę układ województw [Sarnecki 2004 s. 54]. Dane dotyczące struktury jakościowej mleka skupionego w 2001 i 2002 roku przedstawiono w tabeli 1.
TABELA 1.
Udział mleka klasy ekstra według województw w 2001 roku i w IV kwartale
2002 roku (%)
Udział surowca klasy ekstra w skupie (%)
2001
IV kw. 2002
dolnośląskie
42,9
63,6
kujawsko-pomorskie
75,0
73,25
lubelskie
54,7
62,67
lubuskie
70,7
64,46
łódzkie
46,0
62,93
małopolskie
32,7
11,46
mazowieckie
56,0
79,5
opolskie
54,8
75,1
podkarpackie
24,2
39,0
podlaskie
72,9
84,77
pomorskie
72,6
74,16
śląskie
42,0
69,23
świętokrzyskie
30,6
44,4
warmińsko-mazurskie
74,6
81,35
wielkopolskie
65,5
65,36
zachodnio-pomorskie
60,6
73,05
Polska
56,1
70,1
Województwo
Źródło: opracowanie własne na podstawie: [Sarnecki 2004, s. 55; Polskie mleczarstwo… 2003, s. 33].
5 Do liczby tej należy dodać 48,5 tysiąca gospodarstw dostarczających mleko do skupu okresowo, czyli
tylko w miesiącach letnich, nie dłużej niż trzy miesiące, z uwagi na okresowe nadwyżki oraz ze względu na
ogłoszenie okresu od 1.04.2002 r. do 31.03.2003 r. jako roku referencyjnego dla przydzielenia kwot mlecznych.
140
Bożena Dąbrowska-Jaszczołt
W 2001 roku udział mleka klasy ekstra kształtował się na poziomie 56,1%, ale
już w IV kwartale 2002 roku osiągnął on poziom nieco ponad 70%. Udział surowca
najwyższej jakości wzrósł w większości województw. Jedynie w województwach:
kujawsko-pomorskim, lubuskim, małopolskim i wielkopolskim odnotowano spadek
udziału mleka klasy ekstra. Udział mleka wysokiego standardu w tych województwach kształtował się w granicach od 11,5% do 73,3%. Natomiast w województwach: podlaskim i warmińsko-mazurskim mleko klasy ekstra stanowiło ponad 80%
skupionego w IV kwartale 2002 roku surowca.
Jak słusznie zauważa J. Sarnecki, w wyniku starań zakładów mleczarskich oraz
samych producentów mleka doszło do wyodrębnienia się grupy województw o relatywnie wysokim udziale mleka klasy ekstra. Należą tu województwa z północnowschodniej części Polski. Jakkolwiek znacząca i trwała poprawa jakości mleka surowego przeznaczonego do skupu i przetwórstwa wymaga spełnienia wielu warunków,
które mogą okazać się szczególnie trudne dla mniejszych gospodarstw. Taka poprawa wymaga czasu, wysokich kosztów i dużych nakładów pracy [Sarnecki 2004 s. 56].
Podsumowując można stwierdzić, iż zróżnicowanie terytorialne gospodarstw
pod kątem jakości dostarczanego mleka i wymogów strukturalnych pokrywa się ze
strukturą skupionego mleka oraz z rozmieszczeniem zakładów mleczarskich, odpowiadających standardom UE. Zazwyczaj są to mleczarnie najlepsze, które są w stanie zapłacić odpowiednio wysoką cenę za surowiec najwyższej jakości, oraz które stać
na przeprowadzanie niezbędnych inwestycji i wdrażanie systemów nadzoru jakościowego. Jak łatwo zauważyć, przoduje w tym względzie województwo podlaskie
i warmińsko-mazurskie [Gornowicz, Jażdżewski, Seremak-Bulge 2003 s. 34].
4. Zmiany jakości mleka skupowanego przez OSM w Hajnówce,
w latach 2001 – 2006
Początki działalności przemysłu mleczarskiego na ziemi hajnowskiej sięgają lat
1954 – 1959. Wówczas to została powołana do życia niewielka filia Spółdzielni
Mleczarskiej z Bielska Podlaskiego. Początkowo jej zadaniem był skup mleka od
okolicznych producentów oraz pozyskiwanie śmietany, którą transportowano do
dalszego przerobu, a odtłuszczone mleko zwracano rolnikom6.
Okręgowa Spółdzielnia Mleczarska w Hajnówce usytuowana jest na obrzeżu Puszczy Białowieskiej, zajmującej 1/3 powierzchni powiatu hajnowskiego. Brak szkodliwego dla środowiska przemysłu, a także swoisty mikroklimat, sprawiają, iż wyroby
spółdzielni są szczególnie cenione wśród konsumentów7. Okręgowa Spółdzielnia Mleczarska w Hajnówce powstała 20 stycznia 1962 roku. W Spółdzielni można wyodOpracowanie własne na podstawie broszur informacyjnych udostępnionych przez OSM w Hajnówce.
M. Gornowicz (2003) zwraca uwagę, że do oceny mleka można wykorzystać również kryteria jego jakości ekologicznej. Przykłady takich kryteriów to zawartość pestycydów oraz metali szkodliwych
dla zdrowia. Jakość ekologiczna mleka i wyrobów mleczarskich staje się coraz ważniejszym czynnikiem
zdobywania przewagi konkurencyjnej na rynku. W szczególności, w przypadku polskiego rolnictwa,
czynnik ten może być kluczowym atutem w rywalizacji na rynku wspólnotowym.
6
7
Uwarunkowania zmian jakości mleka w skupie…
141
rębnić trzy główne kierunki działania, a mianowicie: skup surowca mlecznego, jego
przetwórstwo oraz zbyt artykułów nabiałowych. Dostawcami mleka są rolnicy z terenu powiatu hajnowskiego, części powiatów: bielskiego, siemiatyckiego i białostockiego. W organizacji skupu mleka podmiotu można wyodrębnić następujące kanały8:
– producent – punkt skupu mleka – zakład mleczarski;
– producent – punkt odbioru surowca zlokalizowany u rolnika – zakład mleczarski;
– producent – autocysterna – zakład mleczarski (tzw. odbiór bezpośredni z gospodarstw).
Obowiązująca, od początku 1998 roku, Polska Norma PN-A-86002/1995 „Mleko
surowe do skupu”, a także bliska perspektywa integracji Polski z UE sprawiły, że kierownictwo OSM w Hajnówce, już w połowie lat dziewięćdziesiątych, podjęło intensywne działania w kierunku poprawy jakości skupowanego mleka. Początkowo skup
surowca mlecznego odbywał się za pośrednictwem zlewni (punktów skupu mleka),
skąd był on dostarczany autocysternami do zakładu. Jednakże od 1995 roku zdecydowano o wprowadzeniu dodatkowo nowego systemu odbioru, który polegał na bezpośrednim odbiorze mleka od rolnika (tzw. skup indywidualny)9. Dlatego też w latach
1995 – 1997 zakupiono autocysterny wyposażone w aparaturę pomiarowo-odbiorczą,
dostosowane do bezpośredniego odbioru10 [Gaworski, Kupczyk, Wojda 2006 s. 10].
W planach dotyczących restrukturyzacji bazy surowcowej założono dalszy rozwój tej
formy odbioru. Zasadniczo miała być ona propagowana wśród rolników zamierzających specjalizować się w produkcji mleka krowiego. Jednocześnie zdecydowano
o stopniowym ograniczaniu formy skupu poprzez zlewnie. Wpływ na to miały: wysokie
koszty związane z utrzymaniem punktów skupu mleka, malejąca liczba dostawców
mleka przynależnych do danej zlewni oraz niewielkie ich dostawy. Ponadto, zdecydowano, iż w miejsce likwidowanych punktów skupu będzie tworzona sieć punktów niskiego chłodzenia mleka (jeden dostawca prowadzi skup na rzecz spółdzielni)11.
Dostawców mleka, zainteresowanych rozwojem produkcji mleka, spółdzielnia
wspierała oraz w dalszym ciągu wspiera finansowo, udzielając pożyczek z dwóch
funduszy. Pierwszy z funduszy FRHB (Fundusz Rozwoju Hodowli Bydła – tzw.
składkowy) jest zasilany przez comiesięczne składki, które dobrowolnie odprowadzają dostawcy. Wysokość indywidualnej miesięcznej składki wynosi 15 złotych.
Pożyczki udzielane z tego funduszu nie są oprocentowane, a maksymalna wartość
8 Opracowanie własne na podstawie broszur informacyjnych udostępnionych przez OSM w Hajnówce oraz informacji uzyskanych podczas wywiadu z przedstawicielami spółdzielni.
9 W 2006 roku około 50% ogółem skupionego mleka pochodziło z gospodarstw posiadających indywidualne zbiorniki do schładzania. Surowiec wyprodukowany w takich gospodarstwach sklasyfikowano w 99,9% jako mleko klasy ekstra. Opracowano na podstawie: [Czurak 2006].
10 Standardy unijne dopuszczają w transporcie mleka temperaturę do 10˚C. Natomiast w Polsce
transportowane mleko charakteryzuje zazwyczaj niższa temperatura przewozu. Taka sytuacja wynika
stąd, że spółdzielnie mleczarskie dysponują autocysternami, które są wyposażone w izolowane zbiorniki na gromadzone mleko. Autocysterny posiadają zainstalowaną aparaturę kontrolno-pomiarową,
umożliwiającą pobieranie próbek skupowanego mleka oraz wstępną ocenę jego jakości. Dokonywany
jest również pomiar ilości przyjmowanego surowca.
11Opracowanie własne na podstawie broszur informacyjnych, udostępnionych przez OSM w Hajnówce oraz informacji uzyskanych podczas wywiadu z przedstawicielami spółdzielni.
142
Bożena Dąbrowska-Jaszczołt
pożyczki może wynieść 10.000 złotych. Drugi z funduszy – FWP (Fundusz Wzajemnej
Pomocy) – tworzony jest z odpisów czystej nadwyżki bilansowej (zgodnie z Uchwałą
Walnego Zgromadzenia Spółdzielni). Środki pieniężne pozyskane dzięki pożyczkom
z obydwu funduszy były przeznaczane między innymi na takie cele, jak: zakup jałówek hodowlanych, zakup urządzeń do schładzania mleka i jego pozysku (zbiorniki
do schładzania mleka, dojarki konwiowe lub przewodowe).12
Efektywna współpraca z dostawcami mleka zaowocowała wzrostem ilości skupowanego mleka klasy ekstra, o czym świadczą dane dotyczące struktury skupu mleka
w zakładzie w latach 2001 – 2006 (tabela 2.).
TABELA 2.
Struktura skupu mleka w OSM w Hajnówce w latach 2001 – 2006 (%)
Rok
2001
2002
Ogółem 2002 rok
2003
Ogółem 2003 rok
2004
Ogółem 2004 rok
2005
Ogółem 2005 rok
2006
Ogółem 2006 rok
I kwartał
II kwartał
III kwartał
IV kwartał
I kwartał
II kwartał
III kwartał
IV kwartał
I kwartał
II kwartał
III kwartał
IV kwartał
I kwartał
II kwartał
III kwartał
IV kwartał
I kwartał
II kwartał
III kwartał
IV kwartał
Ekstra
63,6
75,3
73,5
69,3
85,3
75,2
90,5
90,0
87,8
93,9
90,5
96,5
96,0
97,2
99,7
97,3
99,7
98,9
98,0
99,2
98,8
99,5
98,9
98,7
99,4
99,1
Skup mleka według klas w%
Klasa I*
Klasa II**
Pozaklasowe
21,8
11,2
3,4
17,2
5,8
1,7
17,8
7,1
1,6
18,0
9,5
3,2
10,2
3,7
0,8
16,0
6,8
2,0
7,2
2,3
7,8
2,2
9,1
3,1
5,0
1,1
7,4
2,1
2,8
0,7
3,4
0,6
2,1
0,7
0,3
2,1
0,6
0,3
1,1
2,0
0,8
1,2
0,5
1,1
1,3
0,6
0,9
* klasę I można było skupować do końca 2006 roku
**klasa II obowiązywała do 31 grudnia 2002 roku
Źródło: opracowanie własne na podstawie: [M. Czurak b.r.w.]
12 Opracowanie własne na podstawie informacji uzyskanych podczas wywiadu z przedstawicielami
spółdzielni.
Uwarunkowania zmian jakości mleka w skupie…
143
Dzięki danym z tabeli 2. można z całą pewnością stwierdzić, że w badanym okresie OSM Hajnówka odniosła ogromny sukces w zakresie poprawy jakości skupowanego surowca. W tej dziedzinie nie ustępuje ona miejsca krajowym liderom mleczarstwa. W roku 2001 udział mleka klasy ekstra stanowił prawie 64% ogółu dostaw, ale już
w 2003 roku przekroczył on poziom 90%. Natomiast w roku 2006 dostawy w klasie
ekstra ukształtowały się na poziomie 99,09%. Należy stwierdzić, że spółdzielni mleczarskiej udało się, w dość krótkim czasie, doprowadzić do istotnej poprawy jakości
skupowanego mleka, przy pełnym zaangażowaniu producentów. Można zauważyć,
iż w analizowanych latach niewielkie spadki udziału surowca klasy ekstra (od 0,2% do
4,2% w 2002 r.) miały jedynie charakter sezonowy (okres pory letniej). W IV kwartale
następował zawsze wzrost udziału mleka o najwyższych standardach. Na uwagę zasługuje także fakt, że już z początkiem IV. kwartału 2004 roku spółdzielnia nie skupowała mleka klasy I. We wspomnianym kwartale 99,7% ogółu dostaw stanowił surowiec sklasyfikowany w klasie ekstra, a jedynie 0,3% stanowiło mleko pozaklasowe.
Podsumowując – należy jeszcze raz podkreślić, że tak dobre wyniki mogły być
osiągnięte dzięki współpracy producentów mleka ze spółdzielnią. Premiowanie jakości przyczyniało się do mobilizacji dostawców do systematycznej dbałości przy
produkcji mleka. Oprócz bodźców finansowych (dopłata do każdego litra surowca
klasy ekstra, dopłata za posiadanie atestu weterynaryjnego, pożyczki na korzystnych
warunkach), które zachęcały rolników do produkcji mleka najwyższej jakości, OSM
w Hajnówce wprowadziła własny program doskonalenia produkcji mleka. Głównym celem programu było objęcie dostawców mleka specjalistycznym serwisem doradczym z zakresu hodowli bydła mlecznego oraz produkcji mleka. Do zadań fachowych służb surowcowych należało między innymi:13
–
doradztwo z zakresu podnoszenia wydajności mlecznej krów (prawidłowe
żywienie a wydajność);
–
nauka stosowania środków myjąco-dezynfekujących do dojarek i zbiorników
schładzających;
–
dystrybucja nasion mieszanek traw oraz kukurydzy, a także środków myjąco-dezynfekujących i innych środków niezbędnych przy produkcji mleka;
–
organizacja szkoleń, których celem było między innymi podniesienie jakości wytwarzanego surowca, a także opłacalności produkcji mleka (higiena,
wyposażenie i użytkowanie pomieszczeń związanych z dojem i przechowywaniem mleka, prowadzenie doju i in.).
Zarząd OSM w Hajnówce ma świadomość, iż następuje ewolucja bazy surowcowej, której kluczowym przejawem jest koncentracja produkcji. Dlatego też zakład
będzie w dalszym ciągu wspierał gospodarstwa dążące do osiągnięcia specjalizacji
w produkcji mleka najwyższej jakości.
13 Opracowanie własne na podstawie informacji uzyskanych podczas wywiadu z przedstawicielami
kierownictwa spółdzielni (Pani Prezes Wiera Pawluczuk, Kierownik Działu Skupu – Pan Mikołaj Czurak).
144
Bożena Dąbrowska-Jaszczołt
5. Wnioski
Wstąpienie Polski do Unii Europejskiej wymagało od polskiej branży mleczarskiej przeprowadzenia intensywnych procesów dostosowawczych, których zasadniczym elementem była konieczność dokonania zmian (prawnych, organizacyjnych
i technologicznych) w bazie surowcowej tego sektora.
Modernizacja gospodarstw zajmujących się produkcją mleka wymagała znacznych nakładów ze środków własnych rolników, wspieranych pomocowymi środkami z UE, a także środkami z budżetu krajowego. Niemniej jednak efekty tych działań są już widoczne. Wystarczy przytoczyć dane dotyczące udziału mleka klasy ekstra w 2002 r. (70,1% dostaw ogółem). Dalszą poprawę w strukturze jakości mleka zarejestrowano w 2003 r. (ponad 81%). Podczas gdy w 2001 roku surowiec tej klasy
stanowił tylko 56,1% ogółu dostaw.
Najwięcej mleka klasy ekstra w IV kwartale 2002 roku skupiono w województwach: podlaskim, warmińsko-mazurskim i mazowieckim. Swój udział w osiągnięciu
tych wyników, obok dostawców mleka, mają z pewnością również zakłady mleczarskie. Wśród których znalazła się także Okręgowa Spółdzielnia Mleczarska w Hajnówce. W 2004 roku aż 97,3% ogółu dostaw spółdzielnia skupiła jako surowiec klasy
ekstra. Wynik ten ulegał systematycznej poprawie w kolejnych latach (2005 r. – 98,8%,
2006 r. – 99,1%). Przedstawione w opracowaniu zmiany jakości mleka w skupie zarejestrowane w OSM w Hajnówce osiągnięto dzięki m.in.: współpracy producentów
mleka ze spółdzielnią, premiowaniu jakości, wsparciu finansowemu ze strony spółdzielni, programom doskonalenia produkcji mleka. Z uwagi na fakt, iż baza surowcowa podlega procesom koncentracji, OSM w Hajnówce w dalszym ciągu będzie
wspierać gospodarstwa specjalizujące się w produkcji mleka krowiego oraz te, które
zdecydują się na krok w tym kierunku.
Literatura
Bielecki J., Chechelski P., Morkis G., Urban R. 2005 Przemiany jakościowe przemysłu
spożywczego, w: Polski przemysł spożywczy w pierwszych miesiącach po integracji z Unią
Europejską, red. R. Urban, Warszawa.
Broszury informacyjne i dane uzyskane w trakcie wywiadu z Panią Prezes Wierą
Pawluczuk.
Czurak M., Struktura skupu mleka w zakładzie 2001 – 2003, Skup mleka w poszczególnych
miesiącach 2004r. w rozbiciu na klasy, Skup mleka w poszczególnych miesiącach 2005 r.
w rozbiciu na klasy, Skup mleka według form odbioru w poszczególnych miesiącach 2006 r.
Garlińska G. 2004 Trudne wyzwania, Rynek mleka w Polsce, Dodatek Specjalny do „Nowego Życia Gospodarczego”, nr 13.
Gaworski M., Kupczyk A., Wojda I. 2006 Kierunki restrukturyzacji bazy surowcowej sektora mleczarskiego w Polsce, „Przegląd Hodowlany”, nr 1.
Gornowicz M. 2003 Polskie mleczarstwo w aspekcie konkurencyjności na jednolitym rynku
Unii Europejskiej, Olsztyn.
Uwarunkowania zmian jakości mleka w skupie…
145
Gornowicz M., Seremak-Bulge J. 2003 Potencjał produkcyjny polskiego mleczarstwa, w: Polskie mleczarstwo, Raport o stanie branży i perspektywach jej rozwoju w poszerzonej Unii Europejskiej, red. J. Seremak-Bulge, Warszawa.
Majewski J. 2001 Zmiany jakościowe w skupie mleka na przykładzie jednej z firm mleczarskich,
w: Roczniki Naukowe Stowarzyszenia Ekonomistów Rolnictwa i Agrobiznesu, t. III, Zeszyt
4, red. B. Klepacki, Warszawa-Poznań-Białystok.
Nowakowski S., Polska Norma na mleko surowe do skupu PN-A-86002:1999. Wymagania
i badania.
Rozporządzenie Ministra Rolnictwa i Rozwoju Wsi z dnia 5 lipca 2002 r. w sprawie
szczegółowych warunków weterynaryjnych wymaganych przy pozyskiwaniu,
przetwórstwie, składowaniu i transporcie mleka oraz przetworów mlecznych
(Dz. U. z 2002 r. Nr 117 poz. 1011).
Sarnecki J. 2004 Przetwórstwo i rynek mleka w Polsce w ujęciu przestrzennym, Studia i Monografie, nr 119, Warszawa.
Tomaszewski S. 2002 Szczegółowe wymagania weterynaryjne dotyczące higienicznej produkcji
mleka, w: Produkcja mleka, praktyczne zastosowanie wymagań UE i Polski dla gospodarstw,
red. E. Nitecka, Warszawa.
Wysokińska-Senkus A. 2006 Standardy jakości mleka na całej drodze mlecznej warunkiem
satysfakcji klienta, „Przegląd Mleczarski”, nr 9.
Zalewski A. 2000 Gospodarka mleczarska a rynek, Studia i Monografie, nr 98, Warszawa.
OPTIMUM – STUDIA EKONOMICZNE NR 1 (37) 2008
Piotr KOWALCZUK 1
PÓŁSILNA I SILNA FORMA EFEKTYWNOŚCI RYNKU AKCJI
W ŚWIETLE DOTYCHCZASOWYCH BADAŃ EMPIRYCZNYCH
Streszczenie
Hipoteza efektywności rynku, mimo że liczy sobie już ponad 35 lat, wciąż wzbudza olbrzymie emocje
i kontrowersje wśród uczestników rynku kapitałowego. Niniejszy artykuł prezentuje najważniejsze dotychczasowe badania empiryczne dotyczące półsilnej i silnej formy efektywności rynku akcji i jest jednocześnie
próbą podsumowania i wyciągnięcia z nich wspólnych wniosków. Artykuł jest kontynuacją artykułu Przewidywalność stóp zwrotu z akcji w świetle dotychczasowych badań empirycznych. Wyniki badań z zakresu analizy zdarzeń
nie dają jednoznacznej odpowiedzi na pytanie o efektywność rynku w średniej formie. Rynek szybko (efektywnie) reaguje na informacje o dywidendach, odtajnienie rekomendacji i informacje o nowych emisjach akcji. Średniej formy efektywności rynku natomiast nie potwierdzają badania dotyczące reakcji rynku na wyniki
finansowe spółek. Większość tych prac wskazuje na wydłużoną reakcję rynku (dryf). Na polskim rynku
również stwierdzono dryf (do 60 dni po komunikacie o wynikach). Dodatkowo, im mniejsza spółka, tym
większy dryf, co sugeruje mniejszą efektywność rynku małych spółek w stosunku do rynku spółek dużych.
Badania nad silną formą efektywności rynku wskazują, że istnieje grupa inwestorów posiadająca przewagę informacyjną, którą są w stanie wykorzystać w celu osiągnięcia ponadprzeciętnych zysków. Są to insiderzy, czyli osoby zatrudnione na wysokich stanowiskach w spółkach. Fakt ten przeczy silnej formie efektywności rynku. Badania wykazały, że informacją prywatną nie dysponują natomiast zarządzający funduszami
inwestycyjnymi oraz analitycy papierów wartościowych (choć w ich przypadku wyniki nie są jednoznaczne).
SEMI-STRONG AND STRONG FORM OF STOCK MARKET EFFECTIVENESS BASED
ON CURRENT EMPIRICAL STUDY
Summary
The Efficient Market Hypothesis (EMH) still draws attention of capital market participants even though
it is over 35 yeas old. This article brings up the issue of semi-strong and strong forms of the EMH. It
presents major empirical researches regarding this issue and tries to draw common conclusions. Event
studies results do not provide us with a straightforward answer to the question of semi-strong efficiency.
The market quickly reacts to dividends announcements, dissemination of analysts' recommendations and
equity issues. However, semi-strong efficiency is not supported by earnings announcements studies. The
majority of them show too slow market reaction (“drift”). This drift also occurs on Polish equity market (up
to 60 days after earnings announcement). Additionally, the smaller the company, the stronger the drift,
which suggests that small-cap market is less efficient.
Researches concerning strong form of EMH show that there is a group of investors who possess informational advantage over the others. They are referred to as insiders. This fact is contrary to strong
efficiency. According to majority of private information studies, neither fund managers nor analysts (even
though there are some doubts in their case) possess private information.
1 Mgr Piotr Kowalczuk jest doktorantem na Wydziale Ekonomii i Zarządzania Uniwersytetu w Białymstoku.
148
Piotr Kowalczuk
1. Wstęp
Niniejszy artykuł dokonuje przeglądu najważniejszych dotychczasowych badań
empirycznych nad półsilną i silną formą efektywności rynku akcji, próbując wyciągnąć z nich wspólne wnioski. Badania dotyczą głównie rynku amerykańskiego. Stosunkowo mało badań z zakresu półsilnej i silnej efektywności rynku przeprowadzono do tej pory na polskim rynku kapitałowym, ale te które przeprowadzono, zostały
ujęte w niniejszym opracowaniu. Artykuł jest niejako kontynuacją artykułu Przewidywalność stóp zwrotu z akcji w świetle dotychczasowych badań empirycznych tego samego autora
i razem z nim stanowi spójną całość.
Pojęcie efektywności rynku kapitałowego zdefiniował E. Fama. Określił on rynek
efektywny jako rynek, na którym ceny zawsze w pełni odzwierciedlają wszystkie dostępne informacje [Fama 1970 s. 383]. Efektywność rynku wynika z szybkiego rozprzestrzeniania się informacji oraz z konkurencji pomiędzy inwestorami, szybko dostosowującymi swoje oczekiwania cenowe do nowych informacji. Hipoteza efektywności rynku, mimo że liczy sobie już ponad 35 lat, wciąż wzbudza olbrzymie emocje
i kontrowersje wśród uczestników rynku kapitałowego. Definicja efektywności informacyjnej Famy jest bardzo ogólna i przez to bardzo trudna do empirycznej weryfikacji. Autor wyróżnił więc trzy formy (poziomy) efektywności rynku:
1. Słabą formę efektywności rynku – bieżące ceny papierów wartościowych
w pełni odzwierciedlają wszystkie historyczne informacje z rynku papierów
wartościowych (np.: notowania, stopy zwrotu, wolumen obrotu, struktura
zleceń). Oznacza to, że ceny akcji są nieprzewidywalne i nie można oczekiwać ponadprzeciętnych zysków wykorzystując informacje historyczne (np.
poprzez analizę techniczną).
2. Półsilną (średnią) formę efektywności rynku – ceny papierów wartościowych gwałtownie dostosowują się do wszystkich informacji publicznych, czyli
bieżąca cena instrumentu finansowego w pełni odzwierciedla wszystkie ogólnodostępne informacje.
3. Silną formę efektywności rynku – ceny akcji w pełni odzwierciedlają wszystkie informacje, mogące mieć wpływ na ceny zarówno publiczne, jak i prywatne. Nie ma inwestorów mających monopol na informacje związane
z kształtowaniem się cen.
E. Fama, w artykule z 1991 roku, zaproponował następujący podział testów efektywności rynku [Fama 1991 s. 1576 – 1578]:
1. Testy przewidywalności stóp zwrotu (tests for return predictability).
2. Analiza zdarzeń (event studies).
3. Testy informacji prywatnej (tests for private information).
Testy przewidywalności stóp zwrotu dotyczą słabej formy efektywności rynku, analiza zdarzeń – średniej formy efektywności rynku, natomiast testy informacji prywatnej – silnej formy efektywności rynku.
Rozpoznanie stopnia (formy) efektywności rynku umożliwia ocenę poziomu rozwoju danego rynku i intensywności konkurencji na nim panującej. Poza walorem poznawczym, rozpoznanie stopnia efektywności rynku ma także walor praktyczny, doty-
Półsilna i silna forma efektywności rynku akcji…
149
czący „zaleceń postępowania” dla inwestorów na danym rynku. Otóż, jeśli rynek jest
efektywny w stopniu słabym, wówczas nie ma zastosowania analiza techniczna (tzn. nie
przyniesie ponadprzeciętnych zysków), ponieważ opiera się ona na analizie historycznych danych (głównie cen i obrotów), a wszystkie informacje historyczne są już zawarte
w cenach akcji. Ponadprzeciętne zyski może jednak w takiej sytuacji przynieść analiza
fundamentalna. Jeżeli rynek jest średnio efektywny, wówczas nie ma sensu ani analiza
techniczna, ani analiza fundamentalna, gdyż ani narzędzia analityczne, bazujące na obserwacji historycznych danych rynkowych, ani wykorzystujące wszystkie publicznie dostępne informacje, nie przyczynią się do permanentnego osiągania ponadprzeciętnych
zwrotów. Na rynku średnio efektywnym, nowo ogłaszane wiadomości poddawane są
przez tysiące konkurujących inwestorów natychmiastowej ocenie, która bardzo szybko
przekłada się na decyzje o zakupie lub sprzedaży walorów. W rezultacie tych transakcji
cena rynkowa błyskawicznie zmienia się, eliminując tym samym możliwość uzyskania
ponadprzeciętnych zysków. W sytuacji rynku średnio efektywnego można pokonać rynek jedynie dysponując informacją prywatną, (tj. informacją poufną bądź umiejętnością
trafniejszego interpretowania informacji od większości inwestorów). W sytuacji rynku
silnie efektywnego nawet takie informacje i umiejętności nie są w stanie przynieść ponadprzeciętnych zysków. Jedynie analiza portfelowa ma w takiej sytuacji sens, gdyż co
prawda nie pozwala pokonać rynku, ale pozwala dostosować oczekiwaną stopę zwrotu
do preferowanego przez inwestora ryzyka.
2. Analiza zdarzeń (event studies)
W większości prac badawczych metodyka studiów wydarzeń jest podobna. Polega ona na zebraniu próby spółek, których dotyczyły w przeszłości wydarzenia określonego rodzaju, precyzyjnym określeniu momentu, w którym każde z wydarzeń zostało podane do publicznej wiadomości oraz zbadaniu zachowania się kursów w okresie bezpośrednio przed i po opublikowaniu informacji. Przyjmuje się, że rynek szybko (tj. efektywnie) reaguje na nowy komunikat giełdowy, jeśli jego reakcja trwa nie
dłużej niż dzień jego ogłoszenia i następny (komunikat może zostać ogłoszony już
po zamknięciu sesji). Jeśli reakcja rynku jest wydłużona – tzw. dryf poogłoszeniowy,
lub nieadekwatna (np. zbyt silna) – rynek nie jest efektywny. Reakcję rynku bada się
przez obliczenie skumulowanej ponadnormalnej (anormalnej, nadzwyczajnej) stopy
zwrotu (CAR – Cumulative Abnormal Return) towarzyszącej wydarzeniu, przy czym
niekiedy istotną kwestią różnicującą wyniki może być sposób jej obliczania [Szyszka
2003 s. 41 – 42]. Jest ona bowiem sumą różnic rzeczywistych stóp zwrotu i stóp wyznaczonych na podstawie wybranego modelu (np. CAPM), bądź sumą różnic rzeczywistych stóp zwrotu i stóp zwrotu z określonego indeksu giełdowego. Różnice te określamy jako ponadnormalne stopy zwrotu (AR – Abnormal Return). Dzień doniesienia
oznacza się w analizach jako dzień „0”, dni przed doniesieniem jako: -1, -2 itd., natomiast dni po doniesieniu jako: +1,+2 itd. CAR jest sumą AR w wybranym okresie np.
dniu doniesienia i następnym, co oznaczylibyśmy jako okres [0,+1].
W analizie zdarzeń najczęściej bada się reakcję rynku na:
150
1.
2.
3.
4.
5.
Piotr Kowalczuk
Wyniki finansowe.
Zmiany w polityce dywidendowej.
Nowe emisje akcji oraz skup własnych akcji (buy-back).
Fuzje i przejęcia.
Prasowe publikacje rekomendacji.
2.1. Wyniki finansowe
Dotychczasowe rezultaty badań dotyczących reakcji rynku na wyniki finansowe
spółek nie są jednoznaczne. Część badaczy dokumentuje efektywną reakcję rynku
na te doniesienia, np. Reinganum [Reinganum 1981 s. 24], część wskazuje na „wydłużoną” reakcję rynku (tzw. „dryf poogłoszeniowy”) i ponadnormalne stopy zwrotu nawet do 90 dni po doniesieniu, np.: Bidwell i Riddle [Bidwel, Riddle 1981 s. 198
– 214], Rendleman, Jones, Latane [Rendleman, Jones, Latane 1982 s. 269 – 287].
Tych drugich wydaje się być jednak więcej.
Foster, Olsen, Shevlin szacowali oczekiwaną stopę zwrotu za pomocą 4 modeli. Przy wykorzystaniu 2 z nich wystąpił dryf poogłoszeniowy, przy 2 pozostałych –
nie. Trzy modele wskazały na płynne narastanie skumulowanej ponadnormalnej
stopy zwrotu już od 60 dnia przed ogłoszeniem.
Poza nieefektywnością rynku, możliwe jest wytłumaczenie dryfu poogłoszeniowego niedoskonałością modelu wykorzystywanego do szacowania stóp zwrotu (jak
zawsze przy obliczaniu CAR). Wyniki autorów wskazują, że nasilenie dryfu jest uzależnione od wielkości spółki – im mniejsza, tym większy dryf w okresie do 60 dni
po komunikacie, co może świadczyć o mniejszej efektywności rynku małych spółek
[Foster, Olsen, Shevlin 1984 s. 576 i 587 – 598].
Jeśli chodzi o rynek polski, badania były prowadzone przez A. Szyszkę. W latach 1997 – 2000, skumulowana ponadnormalna stopa zwrotu w dniu publikacji wyników i następnym wyniosła 0,3% dla spółek, które nie zaskoczyły rynku, 0,9% dla
spółek, które zaskoczyły pozytywnie i –0,7% dla spółek, które zaskoczyły negatywnie (tylko dla nich była istotna statystycznie). Szyszka zaobserwował też dryf poogłoszeniowy do 60 dni po komunikacie [+2,+60] dla spółek, które negatywnie zaskoczyły rynek. Dryf był tym silniejszy, im bardziej zaskakujące były wyniki: -12,5%
dla najgorszych wyników [Szyszka 2003 s. 127 – 132].
2.2. Zmiany w polityce dywidendowej
Zmiany w polityce dywidendowej, podobnie jak wyniki finansowe, stanowią istotną
informację dla inwestorów i powinny powodować szybkie zmiany kursów akcji. Badania empiryczne wskazują, iż niespodziewane zmiany w wysokości dywidendy wywołują szybką reakcję kursu w tym samym kierunku co zmiana wysokości dywidendy. Zatem reakcja rynku na te wydarzenia jest efektywna.
Aharony i Swary zbadali próbę 149 spółek przemysłowych NYSE (1963 – 1976)
i odkryli, że wzrost deklarowanej dywidendy (kwartał do kwartału) pociąga za sobą
Półsilna i silna forma efektywności rynku akcji…
151
dodatni ponadnormalny zwrot, którego olbrzymia część dotyczy dni –1 i 0 (0,72%),
jeśli informacja ukazuje się po wynikach kwartalnych i 1,03%, jeśli przed wynikami).
W przypadku spadków pojawiał się ujemny ponadnormalny zwrot, również
w większości przypadający na dni –1 i 0. Tu jednak reakcja rynku była gwałtowniejsza (-3,76% po wynikach i –2,82 przed wynikami). Gwałtowny spadek był jednak
korygowany ponadnormalnymi dodatnimi zwrotami w okresie [+1,+3] – od 0,95 do
1,61%). W grupie spółek, które zwiększyły zyski i dywidendy, taka sama, istotna statystycznie, pozytywna reakcja na lepsze wyniki kwartalne2 (równa 0,91%) występowała niezależnie od tego, czy wyniki były publikowane przed czy po ogłoszeniu deklarowanej dywidendy. Oznacza to, iż komunikaty o dywidendzie niosą dla rynku
ważne informacje, dodatkowe w stosunku do tych zawartych w wynikach kwartalnych. Według autorów, wyniki ich badań świadczą o efektywnej reakcji rynku, gdyż rynek szybko dyskontuje informację – głównie w dniu ogłoszenia informacji w prasie
(dzień 0) oraz dzień wcześniej (kiedy to najczęściej informacja jest podawana w giełdowych serwisach czasu rzeczywistego), [Aharony, Swary 1980 s. 6 – 11].
Bardzo podobne wyniki uzyskali Amihud i Murgia, których badania dotyczyły
rynku niemieckiego. Ponadnormalna stopa zwrotu w odpowiedzi na wzrost zapowiadanej rocznej dywidendy dla dni –1 i 0 wyniosła 0,965%, czyli praktycznie tyle samo
co w badaniach Aharony i Swary’ego. W przypadku zmniejszenia zapowiadanej dywidendy, ponadnormalna stopa zwrotu wyniosła –1,73%, czyli około połowę tego
co w USA. Również okazało się, że ogłoszenie dywidendy niesie dodatkową informację
w stosunku do tej zawartej w wynikach finansowych, ponieważ informacje o dywidendzie powodowały reakcję rynku niezależnie czy były ogłaszane przed czy po wynikach [Amihud, Murgia 1997 s. 402 – 407]. F. Black sugeruje, że dywidendy niosą
istotną informację, ponieważ kierownictwo spółek jest niechętne jej obniżaniu. Tak
więc o jej podniesieniu decyduje tylko wtedy, gdy widzi duże szanse utrzymania jej na
wyższym poziomie. Poza tym, wypłata dywidendy akcjonariuszom sprawia, że kierownictwo spółki nie ma szans na nieoptymalne zainwestowanie tej gotówki [Black
1976 s. 5 – 8].
Bardzo ciekawe badania, poświęcone szybkości reakcji rynku na doniesienia o zmianach w polityce dywidend i odchylenia od spodziewanych wyników finansowych, przeprowadzili Patell i Wolfson. Wykorzystując do analizy notowania intraday (w odróżnieniu od dwóch wyżej opisanych badań) 96 najbardziej płynnych spółek NYSE
i AMEX, wykazali, że największa część reakcji cen na wyniki kwartalne i deklaracje dywidend przypada na okres od 5 do 15 minut od ogłoszenia komunikatu w serwisie
giełdowym, chociaż wykryli również lekki wzrost aktywności inwestorów w okresie
1 – 2 godzin przed doniesieniem oraz znaczące średnie stopy zwrotu na otwarciu
następnej sesji. Badania potwierdzają, że komunikaty o dywidendach zawierają dodatkową informację w stosunku do wyników finansowych, gdyż reakcja rynku na
zmianę dywidendy jest podobna do reakcji na wyniki kwartalne zarówno pod
względem siły, jak i czasu trwania. Komunikaty o takich samych dywidendach, jak
w poprzednim kwartale, generalnie nie maja wpływu na ceny akcji, a ponieważ takie
2
W stosunku do tego samego kwartału roku ubiegłego.
152
Piotr Kowalczuk
komunikaty dominują, komunikaty o dywidendach jako grupa mają dużo mniejszy
wpływ na ceny akcji niż komunikaty o wynikach [Patell, Wolfson 1984 s. 233 – 250].
2.3. Nowe emisje akcji i skup własnych akcji (buy-back)
Wiele badań poświęcono reakcji rynku na wiadomość o zamiarze przeprowadzenia przez spółkę nowej emisji akcji (zarówno sprzedaży nowych akcji, jak i akcji
znajdujących się w rękach dotychczasowych udziałowców): m.in. Asquith i Mullins
[1986], Masulis i Korwar [1986]. Dwie wymienione prace badały wpływ nowych
emisji na kursy akcji spółek przemysłowych oraz użyteczności publicznej na NYSE
i AMEX w latach 1963 – 1981 i 1963 – 1980. Obie dały podobne wyniki. Wykazały, że
tego typu informacja odbierana jest przez inwestorów negatywnie. Negatywną reakcję
rynku tłumaczy się głównie asymetrią informacyjną (przewagą informacyjną menedżerów) i wizją firmy jako „czarnej skrzynki”, z której nieoczekiwany wypływ gotówki (wzrost dywidendy, buy-back) jest odbierany pozytywnie, zaś zapotrzebowanie
na gotówkę (redukcja dywidendy, nowe emisje) – negatywnie.
Wyniki Asquitha i Mullinsa pokazały spadek kursu akcji w dniu ogłoszenia komunikatu i w następnym, łącznie o 2,7% w przypadku spółek przemysłowych
i 0,9% w przypadku akcji spółek użyteczności publicznej [Asquith, Mullins 1986 s. 70,
82, 87]. Badania Masulisa i Korwara udokumentowały spadki odpowiednio o 3,25%
oraz 0,68%. Mniejszy spadek akcji firm użyteczności publicznej może być tłumaczony:
inną procedurą emisji (sama oferta oraz jej wielkość muszą być zaaprobowane przez
władze stanowe), większą częstotliwością emisji, mniejszą zmianą dźwigni finansowej.
Oferty, w których menedżerowie sprzedawali akcje, powodowały większy spadek kursu niż te, w których nie sprzedawali (odpowiednio: -4,54% i -2,22%) [Masulis, Korwar 1986 s. 101 – 117].
Obie prace świadczą o efektywnej reakcji rynku, gdyż reakcja rynku skupiła się
w dniu ogłoszenia komunikatu oraz w dniu następnym. Nie było dryfu poogłoszeniowego, a w samym dniu emisji kurs akcji nie zareagował.
Wyniki Loughrana i Rittera wskazują, iż menedżment spółek posiada zdolności
„wyczucia rynku” (market timing). Nowe emisje akcji występują zwykle w okresie,
gdy akcje są drogie, a najgorsze długoterminowe zachowanie kursu akcji pojawia się
po okresach wzmożonej aktywności emisyjnej [Loughran, Ritter 1995 s. 23 – 51]. Wynik ten wskazuje, iż menedżment spółek posiada informacje nie uwzględnione w cenach
akcji, co przeczy silnej formie efektywności rynku.
Operację odwrotną do nowej emisji akcji – zakup przez spółkę własnych akcji
(buy – back) badali Dann i Vermaelen. Analizowali okres 60 dni przed i po komunikacie: [-60,+60]. Wykazali, że rynek reaguje pozytywnie na wezwania spółek do sprzedaży
własnych akcji (tender offers). Dann zaobserwował stopy zwrotu3 w okresie wezwania
3 „Surowe” stopy zwrotu, tj. bez odejmowania stopy zwrotu z indeksu albo stopy szacowanej na podstawie określonego modelu. Zdaniem autora, stopy zwrotu wyznaczone na podstawie modelu są, przeciętnie
rzecz biorąc, tak małe, że nie mają zauważalnego wpływu na wyniki, natomiast znacznie komplikują obliczenia.
Półsilna i silna forma efektywności rynku akcji…
153
(w dniu ogłoszenia komunikatu i następnym) łącznie równe 15,78%. Dzienna stopa
zwrotu w okresie przedogłoszeniowym wyniosła natomiast –0,09%. Hipoteza zerowa, że stopy zwrotu w okresie ogłoszeniowym i przedogłoszeniowym nie różnią
się istotnie, została odrzucona na poziomie istotności 0,01. Ceny akcji po wzroście
nie wracają do poprzednich poziomów. Oferowana premia ceny odkupu wynosiła
średnio 22,46%. Różnica wynika z możliwości nadpodaży akcji i redukcji zleceń
[Dann 1981 s. 114 – 137].
Wyniki Vermaelena są podobne do wyników Dann’a [1981], choć wykorzystał
on inną metodę obliczania CAR4. Ponadnormalna stopa zwrotu w okresie wezwania wyniosła 14,14%. Obaj autorzy zauważyli również wysokie stopy zwrotu (ok.
+1%) w dniach bezpośrednio przed i po okresie ogłoszeniowym. Tłumaczą to
przeciekiem informacji oraz zawieszeniem notowań części spółek po ogłoszeniu
wezwania. Ważną obserwacją Vermalaen’a jest przekraczanie prognoz zysków przez
spółki skupujące własne akcje w roku wezwania oraz do 5 lat po wezwaniu, czego
nie zaobserwowano przed wezwaniem. Autor konkluduje więc, że spółki decydują
się na odkup własnych akcji po cenie wyższej od rynkowej, kiedy posiadają pozytywne informacje dotyczące przyszłych zysków. Poza skupem akcji w formie wezwania, Vermaelen badał też skup akcji na otwartym rynku. Ponadnormalne dodatnie
zwroty wyniosły tu 3,37% i były poprzedzone narastaniem ujemnej CAR w okresie
przedogłoszeniowym (do –7% w ciągu 3 mies. (60 dni) przed wezwaniem), [Vermaelen
1981 s. 140 – 170].
Reakcję na skup własnych akcji na otwartym rynku badali później także Ikenberry,
Lakonishok, Vermaelen, otrzymując podobne wyniki: ponadnormalna stopa zwrotu
w okresie [-2,+2] była równa +3,54% i poprzedzona ujemną –3,07% w ciągu miesiąca przed komunikatem. Literatura podaje różne motywy skupu własnych akcji
przez spółki, choć menedżerowie spółek najczęściej wymieniają jeden: niedowartościowanie akcji. Niewielka krótkoterminowa reakcja rynku na skup akcji na otwartym rynku
wydaje się tego nie potwierdzać, ale Ikenberry, Lakonishok, Vermaelen zaobserwowali
ponadnormalne stopy zwrotu w ciągu kolejnych 4 lat po komunikacie (łącznie
równe 12,1%). Jest to już bardziej zgodne z motywem niedowartościowania. Może
też świadczyć o zbyt słabej (nieefektywnej) krótkoterminowej reakcji inwestorów albo
o przewadze informacyjnej menedżerów. Największy długoterminowy dryf (+45,3%)
zaobserwowano w przypadku value stocks (tu: spółek o najniższym C/WK), w przypadku których motyw niedowartościowania wydaje się najbardziej przekonujący. Ponadnormalne stopy zwrotu dla glamour stocks (najwyższy C/WK) były bliskie 0. Autorzy, podobnie jak Dann i Vermaelen, reakcje rynku na buy – back tłumaczą pozytywnym sygnałem od menedżerów, którzy posiadają pozytywne informacje dotyczące przyszłości spółki i wierzą, że akcje są niedowartościowane. Praca potwierdza
wnioski Loughrana i Rittera (1994), że insiderzy posiadają zdolności wyczucia rynku
(market timing), czyli zapewne są lepiej poinformowani [Ikenberry, Lakonishok,
Vermaelen 1995 s. 182 – 207]. Przeczy to silnej formie efektywności rynku.
4
„Surowa” stopa zwrotu minus stopa zwrotu portfela akcji o zbliżonym współczynniku beta.
154
Piotr Kowalczuk
2.4. Fuzje i przejęcia
Wyniki badań dotyczących komunikatów o fuzjach i przejęciach (M&A – mergers
& acquisitions) wskazują generalnie na szybką reakcję rynku. Jednocześnie wskazują
na narastanie skumulowanej ponadnormalnej stopy zwrotu i wzrost obrotów już
około 20 sesji przed komunikatem. Są zatem zgodne ze średnią formą efektywności
rynku, ale jednocześnie przeczą formie silnej (można zyskać na informacji prywatnej).
Około połowa łącznej reakcji rynku przypada właśnie na okres przeddoniesieniowy. Według badań Keowna i Pinkertona jest to dokładnie 52% [Keown, Pinkerton 1981 s. 859 – 860], według Jarrela i Poulsena: 44% [Jarrell, Polusen 1989 s. 225
– 248], a według Lisy Meulbroek 42% [Meulbroek 1992 s. 1690]. Wskazuje to na
przeciek informacji i handel na podstawie informacji poufnej przed oficjalnym doniesieniem. Ponieważ 76% spółek nie informowało w tym okresie o transakcjach insiderów, można się domyślać, że przeciek pochodzi z firm trzecich (tj. podmiotów
współpracujących przy organizowaniu fuzji lub przejęcia), [Keown, Pinkerton 1981
s. 863 – 866]. W dniach [-1,0] ponadnormalna stopa zwrotu wynosiła w cytowanych
pracach odpowiednio: 12%, 13,9%, 17,6%.
Niezgodny z teorią efektywności rynku jest, udokumentowany przez wielu autorów, długotrwały (1 – 3 lata po sfinalizowaniu fuzji) spadek cen akcji połączonych firm.
Wskazują na to badania m.in. Asquitha [Asquith 1983 s. 51 – 83] oraz Magenheima i Muellera [Magenheim, Mueller 1988 s. 171 – 193]. Można wnioskować, że
inwestorzy przeceniają perspektywy poprawy wyników (efektywności) spółek w wyniku połączenia. Ruback (1988) pisze: Myślę że niechętnie, ale musimy zaakceptować ten rezultat
– istotne ujemne zwroty w ciągu 2 lat od fuzji – jako fakt [Rubach 1988 s. 262]. Agrawal,
Jaffe i Mandelker dysponując danymi dla prawie wszystkich spółek NYSE i Amex
1955 – 1987, wykazali, że akcje połączonych firm (po uwzględnieniu ryzyka (beta) i efektu kapitalizacji) w ciągu 5 lat od sfinalizowania fuzji tracą łącznie 10,26%. Autorom nie
udało się wskazać przekonującego wyjaśnienia tego stabilnego w czasie zjawiska. Co
ciekawe, nie występuje ono po publicznych wezwaniach (tender offers), [Agrawal, Jaffe,
Mandelker 1992 s. 1606 – 1620]. Można to wyjaśniać tym, że autorzy stwierdzili
większe długoterminowe spadki po połączeniach finansowanych akcjami niż gotówką, a finansowanie gotówką jest bardziej typowe dla wezwań. Finansowanie gotówką jest też bardziej prawdopodobne, gdy akcje przejmującego są niedowartościowane, a finansowanie akcjami, gdy są przewartościowane.
2.5. Prasowe publikacje rekomendacji
Poza pośrednictwem w obrocie papierami wartościowymi, ważną funkcją domów maklerskich jest doradztwo inwestycyjne. Zatrudnieni w domach maklerskich
profesjonalni analitycy sporządzają rekomendacje inwestycyjne dotyczące wybranych walorów. W pierwszej kolejności są one udostępniane najważniejszym klientom,
zaś po pewnym czasie, część z nich podawana jest do publicznej wiadomości. Można przypuszczać, że analitycy posiadają dostęp do niektórych informacji poufnych,
chociaż teoretycznie, rekomendacja jest opinią wyrażoną przez specjalistów na pod-
Półsilna i silna forma efektywności rynku akcji…
155
stawie informacji ogólnodostępnych. Inwestorzy będą reagować na rekomendacje
dopóki wierzą, że analitycy mają dostęp do informacji poufnych albo wyżej cenią
ich umiejętności niż swoje własne.
Ogólnie rzecz biorąc, badania wskazują na szybką reakcję rynku na upublicznienie rekomendacji. Świadczą o tym wyniki badań, które przeprowadzili m.in. Davies
i Canes [Davies, Cannes 1978 s. 47 – 55] oraz Beneish [Beneish 1991 s. 402 –
415]. Autorzy Ci, korzystając z podobnych metod, badali reakcję rynku na upublicznienie rekomendacji oraz pogłoski zawarte w rubryce „Heard on the Street”
(HS) dziennika „Wall Street Journal” w dniach [-20,+20] i [-30,+30], tyle że ich badania dotyczą innych okresów. Wyniki ich badań podsumowuje tabela 1.
TABELA 1.
Ponadnormalna stopa zwrotu w reakcji na rekomendacje kupna (K)
i sprzedaży (S) w dniu publikacji rekomendacji w WSJ (dzień 0) oraz okresie
[-2,+1] – w %
Autor(-rzy)
Davies i Canes
Beneish
Badany
okres
1970 – 1971
1978 – 1979
K – dzień
0
0,92
1,01
K – okres
[-2,+1]
1,39
1,91
S – dzień
0
-2,37
-1,00
S – okres
[-2,+1]
-2,91
-2,87
Źródło: [Davies, Cannes 1978 s. 48; Beneish 1991 s. 403].
Jak wynika z tabeli, rynek mocniej reaguje na rekomendacje S niż K. Davies i Canes
obliczyli, że gdy spółka otrzymuje rekomendację kupna, jej akcje mają 70% prawdopodobieństwo wzrostu, a kiedy otrzymuje rekomendację S – 90% prawdopodobieństwo spadku [Davies, Cannes 1978 s. 51]. Poza tym, Beneish wykazał, że reakcja rynku na indywidualne rekomendacje jest niemal dwukrotnie silniejsza niż w przypadku
rekomendacji grupowych (tzn. wskazujących określoną grupę spółek – np. określoną branżę), [Beneish 1991 s. 409].
W obu pracach zaobserwowano płynne narastanie skumulowanej ponadnormalnej stopy zwrotu kilkanaście dni przed opublikowaniem rekomendacji kupna (dryf
przedogłoszeniowy), co nie wystąpiło przy rekomendacji S. Może to oznaczać, że
klienci biur maklerskich, znający część rekomendacji wcześniej, chętniej korzystają
z rekomendacji K niż S5.
Być może mała liczba inwestorów, otrzymujących rekomendacje przed ich opublikowaniem lub ich niewystarczające zasoby kapitałowe, sprawia, że rekomendacje
nie są całkowicie odzwierciedlone w cenach przed publikacją. Możliwe też, że inwestorzy nie są skłonni do pełnego wykorzystania wiadomości płynących z rekomendacji, gdyż wiązałoby się to z koniecznością deoptymalizacji utrzymywanego portfela. W przypadku rekomendacji S zauważono lekką korektę w górę od 1 do 3 tygodni po dniu 0, co może świadczyć o pewnej nadreakcji rynku na rekomendacje S.
5 Być może, ze względów technicznych, krótka sprzedaż jest procedurą kosztowniejszą i bardziej
skomplikowaną, a straty, jakie można ponieść, są teoretycznie nieograniczone.
156
Piotr Kowalczuk
Busse i Green zbadali reakcję rynku na rekomendacje w programach CNBC
„Morning Call” i „Midday Call”. Okazało się, że ceny akcji o których mówi się
w tych programach pozytywnie, notują statystycznie i ekonomicznie istotne wzrosty
rozpoczynające się w ciągu 15 sekund od pierwszego wspomnienia nazwy spółki
i trwające około 1 minuty. Reakcja cen na negatywne raporty (których było prawie
7 razy mniej) jest głębsza, ale mniej gwałtowna i bardziej rozciągnięta w czasie – do
15 minut (prawdopodobnie ze względu na większe koszty krótkiej sprzedaży). Intensywność handlu (liczba transakcji na minutę) podwaja się w ciągu minuty od
wspomnienia nazwy spółki. Można liczyć na małe, ale istotne statystycznie zyski przy
zakupie akcji w ciągu 15 sekund od wspomnienia nazwy spółki i sprzedaży między
1 a 2 minutami od tego wydarzenia. Jak widać, postęp techniczny skrócił czas reakcji rynku, co widać przy porównaniu z wynikami badań Patella i Wolfsona (1984),
[Busse, Green 2002 s.415 – 435]. Należy pamiętać jednak, że obie prace dotyczą
najpłynniejszych spółek amerykańskich.
3. Testy informacji prywatnej (tests for private information)
W testach informacji prywatnej bada się czy pewni inwestorzy posiadają informacje prywatne, tj. informacje nie uwzględnione w obecnych cenach akcji, i mogą je
wykorzystać w celu osiągnięcia ponadprzeciętnych zysków. Oznaczałoby to oczywiście przewagę tych inwestorów nad pozostałymi. W testach informacji prywatnej
badaniu podlegają najczęściej:
1. Skuteczność rekomendacji inwestycyjnych.
2. Transakcje insiderów.
3. Wyniki funduszy inwestycyjnych.
3.1. Skuteczność rekomendacji
Analitycy papierów wartościowych, ze względu na swoje kwalifikacje oraz kontakty z przedstawicielami spółek, są jedną z grup inwestorów, którą podejrzewa się
o posiadanie informacji prywatnej. Właśnie dlatego badaniu podlega skuteczność
wydawanych przez nich rekomendacji.
Najwcześniejszą pracą, badającą skuteczność rekomendacji, jest praca A. Cowlesa
(1933) badająca 7500 rekomendacji z lat 1928 – 32. Cowles stwierdził zupełną nieprzydatność rekomendacji. Okres analizy zawiera jednak wielki krach z 1929 roku
i dodatkowo Cowles mierzył wyniki przez proste porównanie z indeksem giełdowym bez uwzględniania różnic w ryzyku [Cowles 1933 s. 309 – 324].
Logue and Tuttle zbadali rekomendacje 6 głównych domów maklerskich w 1970 i
1971 roku umieszczone w ,,The Wall Street Transcript’’ (TWST). Stwierdzili, że rekomendacje nie przyczyniają się do takiego wzrostu zysków, jakiej należałoby się
spodziewać po wielkości kosztów wiążących się z ich nabyciem. Stwierdzili jedno-
Półsilna i silna forma efektywności rynku akcji…
157
cześnie większą skuteczność rekomendacji sprzedaży niż kupna [Logue, Tuttle 1973
s. 38 – 54].
Nie brakuje również nowszych badań kwestionujących użyteczność rekomendacji. Desai i Jain [1995] zbadali skuteczność rekomendacji, zapraszanych co roku
przez tygodnik ,,Barron’s’’, najlepszych, zarządzających funduszami (m.in. John
Neff, Peter Lynch) analityków i prywatnych inwestorów w latach 1968 – 1991. W krótkim terminie ich badania potwierdzają wcześniej przytoczone badania Daviesa i Canesa
[1978] oraz Beneisha [1991]. Ponadnormalna stopa zwrotu w reakcji na publikację
rekomendacji K w dniu 0 wyniosła 1,04%, a rekomendacji S: -1,16%. W długim
terminie jednak6 badania te pokazują całkowitą nieprzydatność rekomendacji kupna. Jedynie w okresie od dnia po spotkaniu przy Barron’s Annual Roundtable do
dnia -1 osiągnięto dodatnią, istotną statystycznie ponadnormalną stopę zwrotu
(0,77%)7. Rekomendacje sprzedaży, podobnie jak u Logue and Tuttle [1973], okazały się jednak skuteczniejsze niż kupna. Badania Desai i Jaina wskazują na ich (ograniczoną) przydatność inwestycyjną8, być może ze względu na większą ostrożność przy
ich wydawaniu. Taka nieuzasadniona rekomendacja może być bowiem przyczyną zerwania współpracy z domem maklerskim albo nawet procesu wytoczonego przez
spółkę. Badania pokazują też tendencję do rekomendowania kupna spółek, które
wypadły dobrze i rekomendowania sprzedaży spółek, które wypadły słabo w okresie pół roku przed wydaniem rekomendacji [Desai, Jain 1995 s. 1264 – 1271].
Zgodne z tym są również wyniki badań Grotha i in. (1979) którzy stwierdzili dużo wyższe ponadnormalne stopy zwrotu przed pozytywnymi rekomendacjami niż po
nich [Groth, Wilbur, Lewellen, Schlarbaum, Lease 1979 s. 32 – 40].
Długoterminową (1 rok i dłużej) nieskuteczność rekomendacji9 stwierdził też
Metrick po zbadaniu rekomendacji kupna z różnych biuletynów inwestycyjnych (m.in.
Value Line, MPT Review) w latach 1980 – 1996. Zgodnie z teorią „gonienia
trendu”, większość biuletynów (148 ze 153), koncentrowała się na akcjach o średnim
i wysokim C/WK (glamour stocks), a tylko 5 na spółkach o niskim C/WK (value
stocks). Wszystkie biuletyny koncentrowały się na akcjach o przeciętnych lub ponadprzeciętnych stopach zwrotu, a żaden na akcjach, które w ostatnich 11 mies.-ach
wypadły słabo [Metrick 1999 s. 1743 – 1770].
Jest to zgodne z wynikami Jagadesha i in., którzy stwierdzili, że analitycy preferują wysoko wyceniane, popularne w ostatnim czasie spółki (glamour stocks), [Jegadeesh,
Kim, Krische, Lee 2002 s. 2].
Na polskim rynku T. Wiśniewski stwierdził, że spółki, otrzymujące rekomendację „kupuj”, nie przynoszą wyższych stóp zwrotu niż losowane spółki o zbliżonym
ryzyku (beta). Charakteryzują się jednak mniejszym odchyleniem standardowym
(zmiennością). Portfel rekomendowanych spółek był gorszy niż indeks giełdowy
Do 3 lat po publikacji rekomendacji.
W okresach: [+1,+25], [+1,+250], [+1,+500], [+1,+750] ponadnormalne stopy zwrotu wyniosły
odpowiednio: 0,33; 0,21; -0,38 i -0,71% (wszystkie nieistotne statystycznie).
8 Zanotowano CAR równą -8,12% i –10,89% w ciągu 1 i 2 lat od opublikowania rekomendacji
(obie istotne statystycznie na poziomie 5%).
9 Pomimo nieuwzględnienia kosztów transakcyjnych.
6
7
158
Piotr Kowalczuk
(WIG). Zgodnie z wynikami światowymi, autor stwierdził większą skuteczność rekomendacji sprzedaży niż kupna [Wiśniewski 1999 s. 37 – 39].
Istnieją prace dokumentujące zjawisko „zachowań stadnych” (naśladownictwa)
wśród analityków papierów wartościowych. Należą do nich m.in. prace Truemana
[Trueman 1994 s. 97 – 124], Grahama [Graham 1999 s. 237 – 268]. Według badań
Coopera, Daya i Lewisa, korekty prognoz wyników spółek opracowywanych przez
analityków są pozytywnie skorelowane ze zmianami cen akcji w ostatnim czasie, co
sugeruje korzystanie przez nich z publicznie dostępnych informacji w celu rewizji
prognoz. Częstszym błędem jest też zawyżanie niż zaniżanie prognoz [Cooper,
Day, Lewis 2001 s. 383 – 416].
W Polsce, na stadne zachowania analityków wskazuje artykuł Buczka i Pietrzaka.
Wyceny spółek IT różnych analityków w okresie „gorączki internetowej” i po niej
(okres 1999 – 2003) okazały się podobne do siebie i dodatkowo były skorelowane
ze zmianami ceny rynkowej w ostatnim czasie. Rodzi to podejrzenie o manipulowanie wyceną, tak aby była zbliżona do wyceny rynkowej. Innym wnioskiem może być
nadmierny optymizm analityków [Buczek, Pietrzak 2004 s. 14 – 16].
Dowodem na permanentny optymizm analityków są badania Easterwooda
i Nutt. Ich wyniki wskazują, że analitycy nadmiernie reagują na pozytywne informacje10, a zbyt słabo na negatywne11, przy sporządzaniu prognoz wyników. Być może
podejście takie jest typowe nie tylko dla analityków, ale inwestorów w ogóle – piszą
autorzy. Możliwe przyczyny tego zjawiska to:
1. Analitycy czerpią część informacji z rozmów z kierownictwem spółek, które ma tendencję do podawania zbyt optymistycznych prognoz oraz zatajania, marginalizowania złych informacji.
2. Przedstawianie spółek w negatywnym świetle (np. obniżenie rekomendacji
poniżej „trzymaj”) jest źle widziane przez spółki i może skończyć się odmową udzielenia informacji w przyszłości [Easterwood, Nutt 1999 s. 1778
– 1796].
I. Welch stwierdził, że rekomendacje analityków są pozytywnie skorelowane
z ogólnym konsensusem prognoz. Analitycy wydają się więc poświęcać część skuteczności rekomendacji dla ochrony swojej reputacji. Związek ten nie jest silniejszy
w okresach, gdy konsensus jest dobrym predykatorem przyszłych zwrotów, lecz
w okresach poprzedzonych dobrą koniunkturą i gdy panują optymistyczne nastroje.
Być może jest to przyczyną częstszego występowania krachów niż masowych zakupów podczas bessy. Rekomendacje wydawane przez analityków są pozytywnie skorelowane z rekomendacjami 2 następnych analityków [Welch 2000 s. 389 – 394].
Hong, Kubik i Salomon wykazali, że starsi stażem i wiekiem analitycy w mniejszym
stopniu ulegają zachowaniom stadnym niż młodsi koledzy: wcześniej formułują
prognozy i ich prognozy bardziej różnią się od konsensusu [Hong, Kubik, Salomon
1998 s. 25].
10 Dobre wyniki spółki w roku ubiegłym, przekroczenie prognozowanego przez analityków zysku
w roku ubiegłym.
11 Słabe wyniki spółki w roku ubiegłym, niewykonanie prognozowanego przez analityków zysku w
roku ubiegłym.
Półsilna i silna forma efektywności rynku akcji…
159
Nie wszystkie badania stwierdzają jednak nieskuteczność rekomendacji. Część
stwierdza przydatność rekomendacji w uzyskaniu ponadnormalnych zwrotów, przynajmniej przed odjęciem kosztów transakcyjnych.
Należą do nich m.in. badania: Barbera, Lehavy'ego, McNicholsa i Truemana.
Autorzy udokumentowali, że w okresie 1986 – 1996 codziennie aktualizowany portfel
spółek o najlepszym konsensusie rekomendacji, po uwzględnieniu ryzyka rynkowego oraz efektów: kapitalizacji, C/WK i momentum12, dałby 4,13% ponadnormalnego
zysku w skali roku, podczas gdy portfel spółek o najgorszym konsensusie rekomendacji przyniósłby średnioroczną stratę równą -4,91%. Autorom nie udało się jednak
znaleźć metody pozwalającej zyskać na tych rekomendacjach ze względu na wysokie
koszty transakcyjne (częste transakcje). Rzadsza aktualizacja portfela13 zmniejszała jednocześnie ponadnormalne zwroty. To, że autorom nie udało się znaleźć takiej metody,
nie oznacza jednak, że takiej metody w ogóle nie ma [Barber, Lehavy, McNichols,
Truman 2001 s. 534 – 562]. Autorzy wykorzystali bazę danych Zacks, która koncentruje się na świadczeniu usług inwestorom indywidualnym, a rekomendacje agreguje
na podstawie pisemnych raportów wydawanych przez domy maklerskie. Raporty
przekazywane są jednak często przez domy maklerskie z opóźnieniem wobec daty
sporządzenia.
Womack zbadał 1573 rekomendacje 14 najlepszych domów maklerskich14, pochodzących z bazy danych First Call, w latach 1989 – 1991. First Call zbiera rekomendacje i komentarze analityków i ekonomistów a następnie, niemal natychmiast po
ich otrzymaniu, wysyła raporty do swoich klientów (inwestorów instytucjonalnych) poprzez sieć komputerową. Koszt subskrypcji jest znaczny. Womack stwierdził występowanie ponadnormalnych stóp zwrotu zarówno w krótkim terminie15: +3% przy
dodaniu spółki do listy rekomendacji kupna oraz –4,7% przy dodaniu do listy rekomendacji sprzedaży, jak i dłuższego dryfu w kierunku zgodnym z rekomendacją.
Wydanie rekomendacji pociągało za sobą duży wzrost obrotów (o 90% dla K i o 200%
dla S), a rekomendacji S było około 7 razy mniej niż K. W ciągu 1 miesiąca, poczynając od 3 dnia po dodaniu spółki do listy rekomendacji kupna, dodatkowa stopa
zwrotu wyniosła +2,4%. Przy dodaniu do listy rekomendacji sprzedaży dryf był dłuższy, trwał 6 miesięcy, a dodatkowa stopa zwrotu wyniosła w tym czasie –9,1%. Tak
wysoka stopa zwrotu wydaje się mieć znaczenie ekonomiczne, nawet po uwzględnieniu kosztów prowizji. Dryf był silniejszy w przypadku małych spółek. Ponadnormalne stopy zwrotu zostały obliczone jako różnica stóp zwrotu z walorów będących przedmiotem rekomendacji oraz stóp zwrotów osiągniętych w tym samym
okresie przez ogół spółek o podobnej wielkości. Dryf może sugerować, że analitycy
posiadają pewne zdolności prognozowania16. Wyniki Womacka wskazały, iż
faktycznie posiadają oni pewne zdolności wyczucia rynku (market – timing), wyboru
12 Tendencja kursu akcji (ew. zysków, przychodów) do kontynuacji w krótkim terminie rozpoczętego trendu (anomalia kwestionująca teorię efektywności rynku).
13 Co tydzień, co pół miesiąca i co miesiąc.
14 Według rankingu Institutional Investor z lat 1989 i 1990.
15 W trzydniowym okresie wokół wydania rekomendacji, czyli dni: -1, 0, +1.
16 Inne możliwe wytłumaczenia to: wydłużona reakcja rynku na rekomendację, efekt momentum.
160
Piotr Kowalczuk
spółek (stock – picking) oraz w mniejszym stopniu wyboru branży (industry – selection),
[Womack 1996 s. 138 – 165]. Oznacza to, że posiadają przewagę informacyjną nad
pozostałymi inwestorami, co przeczy teorii efektywności rynku w silnej formie.
Jego zdaniem, rezultaty są zgodne z poszerzoną definicją efektywnego rynku, zasugerowaną przez Grossmana i Stiglitza, że nakładom na zdobycie i analizę informacji
musi towarzyszyć rekompensująca, dodatnia stopa zwrotu [Grossman, Stiglitz 1980
s. 393 – 408]. Wyniki Womacka wskazują również na występowanie anormalnych
zwrotów w okresie 6 miesięcy przed rekomendacją S oraz przed wycofaniem rekomendacji K lub S dla spółki [Womack 1996 s. 149].
Podobne rezultaty do Womacka, przy zastosowaniu podobnych metod badawczych, otrzymał Green. Posłużył się on również danymi z bazy First Call, ale o 10
lat nowszymi (1999 – 2002) i w odróżnieniu od Womacka, który użył danych dotyczących głównie dużych spółek z NYSE i Amex, Green posłużył się danymi z rynku Nasdaq. Krótkoterminowa reakcja rynku na podwyższenie/ obniżenie rekomendacji była około 2 razy większa niż u Womacka i wyniosła +5,74%/-8,81%. Wolumen obrotów w dniu rekomendacji rósł 2 – 3 krotnie. Strategia oparta na wykorzystaniu tych krótkoterminowych zwrotów, przy uwzględnieniu kosztów transakcyjnych,
mogłaby dać średnio ponad 30% zysku w skali roku. Dla porównania, stopy zwrotu
z Nasdaq wyniosły w badanym okresie: +80%, -40%, -20% i –30%. Green wnioskuje
z tego, że rekomendacje analityków posiadają komercyjną wartość. Pozostaje jednak
pytanie, czy inwestorzy instytucjonalni korzystający z First Call są w stanie zrealizować takie zyski (trudność realizacji dużych zleceń bez wpływu na kurs akcji). Ponadnormalne, istotne zwroty utrzymywały się 1 miesiąc po podwyższeniu rekomendacji
i 3 mies.-e po jej obniżeniu (dryf), wynosząc +1,4% i –4,1%. Anormalne zwroty
występowały też miesiąc przed zmianą rekomendacji [Green 2003 s. 2 – 25].
Dimson i Marsh zebrali ponad 4000 niepublikowanych, rocznych prognoz stóp
zwrotu sporządzonych dla dużego brytyjskiego funduszu inwestycyjnego przez domy maklerskie (80%) i przez własny zespół analityków funduszu (20%) w latach 1980
– 81. Analitycy byli w stanie odróżnić najlepsze spółki od najgorszych, choć mieli
tendencję do nadmiernego optymizmu. Prognozowane, ponadprzeciętne stopy zwrotu poszczególnych kwintyli (uporządkowanych według prognozowanego zwrotu)
wynosiły: -10, -1, 3, 8, 18%, podczas gdy rzeczywiste stopy wyniosły: -3,6; 0; 1; 4,4;
4,5%. Współczynniki korelacji między prognozowanym a rzeczywistym zwrotem,
dla różnych domów maklerskich, wyniosły od –0,19 do 0,26 (średnio 0,086). Mimo
niskich współczynników, transakcje na podstawie tych prognoz, po odjęciu kosztów transakcyjnych, pozwoliły funduszowi w ciągu następnego roku pokonać rynek
o 1,7%, co równało się kwocie ok. 2,3 mln funtów. Autorzy wnioskują, że wyniki
świadczą o komercyjnej przydatności rekomendacji. Oznacza to, że analitycy posiadają informacje nie uwzględnione w cenach akcji. Jednocześnie zwracają uwagę, że
fundusz otrzymywał prognozy od domów maklerskich za darmo – w zamian za dokonywanie transakcji za ich pośrednictwem. Jeśli musiałby za nie płacić, korzyści
mogłyby być znacznie mniejsze [Dimson, Marsh 1984 s. 1258 – 1289].
Półsilna i silna forma efektywności rynku akcji…
161
3.2. Transakcje insiderów
Osoby zajmujące wysokie stanowiska w spółkach i mające potencjalny dostęp do informacji poufnych (np. członkowie zarządu, członkowie rad nadzorczych) – czyli insiderzy, muszą informować komisje papierów wartościowych o transakcjach akcjami swoich
firm. W USA informacje te są publikowane przez SEC (Security Exchange Comission)
raz na miesiąc, w postaci specjalnych raportów. Dane te stanowiły przedmiot wielu badań. Do najczęściej przytaczanych prac należą prace: Finnerty'ego [Finnerty 1976
s. 1141 – 1148], Seyhuna [Seyhun 1986 s. 189 – 212], Rozeffa i Zamana [Rozeff,
Zaman 1988 s. 26 – 43] oraz Jenga, Metricka i Zeckhausera [Jeng, Metrick, Zeckhauser 1999 s. 2 – 36] – dalej „JMZ”. Rezultaty badań generalnie wskazują na zyskowność transakcji insiderów. Można więc wnioskować, że posiadają oni informacje nie
uwzględnione w cenach akcji (najczęściej są to zapewne informacje poufne), które
umożliwiają im osiąganie ponadprzeciętnych zwrotów.
Insiderzy w sumie sprzedają więcej akcji niż kupują (więcej transakcji i średnio
o większej wartości) – Finnerty (1976) i JMZ (1999). Transakcje kupna mają większe
szanse na to, że są związane z informacją poufną. Sprzedaż często bowiem dotyczy
akcji uzyskanych jako część wynagrodzenia (opcje menedżerskie). Może też być dokonana w celu sfinansowania ważnego zakupu (np. domu), w celu dywersyfikacji
portfela albo zwiększenia płynności obrotu na giełdzie, stąd jej termin jest zapewne
w większym stopniu przypadkowy. Zapewne dlatego rezultaty badań wskazują na
większe ponadnormalne zwroty przy kupnie akcji przez insiderów niż przy sprzedaży
(Finnerty (1976): K: 8,34%; S: -4,82% rocznie), albo nawet na zupełny brak ponadnormalnych ujemnych zwrotów przy transakcjach sprzedaży (JMZ (1999)). Według
JMZ, duże transakcje insiderów są bardziej zyskowne niż małe.
Insiderzy preferują akcje spółek małych i o niskiej wycenie rynkowej (C/Z,
C/WK) – czyli value stocks, zatem część zysków to zasługa efektów: kapitalizacji,
C/Z, C/WK. Według Rozeffa i Zamana (1988), ponadnormalna stopa zwrotu
z transakcji insiderów (łącznie kupna i sprzedaży) wynosiła 8,64% rocznie, a outsiderów
(tj. inwestorów spoza spółki, którzy handlowali na podstawie informacji o transakcjach insiderów) 5,64% rocznie. Po uwzględnieniu efektu kapitalizacji i C/Z stopy te
spadły do 5,16% i 2,28%. Kiedy Rozeff i Zaman dodatkowo uwzględnili koszty
transakcyjne równe 2%17, zyski insiderów spadły do 3,12%, a outsiderów praktycznie
do zera (0,24%). Obliczona przez JMZ (1999) ponadnormalna stopa zwrotu z transakcji kupna wyniosła 7,4% rocznie, a po uwzględnieniu efektów: kapitalizacji, C/Z,
C/WK i momentum spadła o 1/3 do 4,8% (kosztów transakcyjnych nie uwzględniono). Szósta część tych zysków przypada na okres do 5 dni po transakcji, 1/3 na pierwszy miesiąc, a 3/4 na pierwsze 6 miesięcy. Jest to zgodne z wynikami Finnerty’ego
(1976), u którego też większość ponadnormalnych rocznych zwrotów z transakcji
kupna przypada na pierwsze 6 miesięcy po zakupie.
17
Kupno + sprzedaż + spread (różnica między ofertami kupna i sprzedaży).
162
Piotr Kowalczuk
3.3. Wyniki funduszy inwestycyjnych
Menedżerów funduszy inwestycyjnych, podobnie jak analityków i insiderów, również podejrzewa się o posiadanie informacji nie uwzględnionych w cenach akcji,
w tym informacji poufnych. Często pozostają oni bowiem w bieżącym kontakcie
z kierownictwem spółek giełdowych i dodatkowo mają dostęp do rekomendacji na
długo przed ich upublicznieniem. Jeżeli rynek byłby nieefektywny, należałoby się
spodziewać, że będą oni uzyskiwać stopy zwrotu przewyższające przeciętne stopy
rynkowe dla określonego poziomu ryzyka.
Do klasyki prac, poświęconych tej problematyce, należy artykuł M. Jensena. Po
zbadaniu wyników osiągniętych przez 115 amerykańskich funduszy inwestycyjnych
w latach 1945 – 1964, Jensen stwierdził, że fundusze nie są w stanie przewidywać cen
akcji. Co więcej, nie znalazł dowodów na to, że którykolwiek z badanych funduszy
potrafił tego dokonać. Co prawda, 3 fundusze osiągnęły stopę zwrotu wyższą niż
należało oczekiwać dla ich poziomu ryzyka rynkowego (beta), ale w badanej próbie
mogło wystąpić do 5 – 6 takich rezultatów będących dziełem przypadku18. Nawet po
ponownym dodaniu kosztów poniesionych przez fundusze (analizy, księgowość, zarządzanie – wszystko oprócz prowizji maklerskich) przeciętny współczynnik alfa był
ujemny i wyniósł –0,04, czyli fundusze radziły sobie o 0,4% rocznie gorzej niż rynek przy danym poziomie ryzyka. Przed dodaniem poniesionych kosztów, fundusze
radziły sobie o 1,1% rocznie gorzej od rynku [Jensen 1968 s. 396 – 415].
Korzystając z tej samej bazy danych i metod, ale innego okresu badawczego:
1965 – 1984, Ippolito otrzymał przeciwne rezultaty. Stwierdził, że fundusze jako
grupa osiągnęły wyniki lepsze od rynku zarówno w ujęciu brutto (po dodaniu kosztów działalności), jak i netto (bez dodawania kosztów). W ujęciu netto, średnia alfa
wyniosła 0,84%, (u Jensena: – 1,1%). Wyniki nie były jednak lepsze od rynku na
tyle, aby pokryć opłaty za kupno/odkupienie jednostek uczestnictwa (tzw. dystrybucyjne) w większości funduszy. Mimo to, wyniki są zgodne ze stwierdzeniem Grossmana – Stiglitza (1980), że kosztom poszukiwania i analizy informacji towarzyszy dodatnia stopa zwrotu. Zgodny z tym jest też wniosek Ippolito, że aktywniej zarządzane fundusze (większe obroty i wydatki) uzyskiwały stopę zwrotu na tyle wyższą, aby
pokryć różnicę w poniesionych kosztach oraz wyższych opłatach dystrybucyjnych.
Współczynnik beta funduszy był podobny u Ippolito i Jensena i wyniósł odpowiednio: 0,88 i 0,84, co oznacza, że, przeciętnie rzecz biorąc, fundusze utrzymywały
portfele mniej ryzykowne od portfela rynkowego (S&P 500) [Ippolito 1989 s. 2 – 21].
Elton, Gruber, Das i Hlavka zwrócili jednak uwagę na nieodpowiedniość przyjętego przez Ippolito [1989] benchmarku (S&P 500), gdyż nie zawiera on aktywów
spoza S&P 500 (akcji i obligacji), głównie małych spółek, które posiadały w swoich
portfelach analizowane fundusze. Podobny błąd popełnił Jensen [1968], ale u Jensena
zaniżyło to wyniki, a nie zawyżyło (poza tym błąd był mniejszy). Akcje małych spółek (spoza S&P500) wypadły znacznie lepiej w okresie badawczym Ippolito niż
18 Założono inwestowanie 100% środków, podczas gdy fundusze około 2% przeciętnie utrzymują
w gotówce. Założenie to jednak, jak obliczył Jensen, praktycznie nie miało wpływu na wyniki.
Półsilna i silna forma efektywności rynku akcji…
163
Jensena. Po korekcie błędu Ippolito okazało się, że fundusze wypadły średnio gorzej od rynku. Co więcej, fundusze o wyższych kosztach, obrocie i opłatach dystrybucyjnych wypadły gorzej niż fundusze zarządzane bardziej pasywnie – o mniejszych kosztach i opłatach dystrybucyjnych. Jest to dokładnie odwrotne do wniosków Ippolito [Elton, Gruber, Das, Hlavka 1993 s. 1 – 21].
Lata 70-te były dużo gorsze dla amerykańskiego rynku akcji niż 80–te, a nowe
badania dowodzą, że fundusze inwestycyjne często wypadają lepiej od rynku właśnie podczas bessy (a podczas hossy często gorzej), [Moskowitz 2000 s. 1702]. To
też może po części tłumaczyć różnicę wyników Jensena i Ippolito.
Według badań Malkiela, fundusze inwestycyjne okazały się gorsze od rynku zarówno w ujęciu netto, jaki i brutto. Przy obliczaniu stóp zwrotu, Malkiel uwzględnił
wszystkie fundusze obecne na rynku amerykańskim19 w latach 1971 – 1991 – łącznie z tymi, które zaprzestały działalności. Uniknął dzięki temu tzw. survivorship bias –
błędu polegającego na ujmowaniu tylko tych funduszy, które przetrwały cały okres
analizy. Błąd ten, choć wcześniej często bagatelizowany, okazał się mieć większe znaczenie niż przypuszczano i wyniósł średnio 4,5% rocznie. Fundusze, które nie
przetrwały, miały istotnie gorsze wyniki. Malkiel zaobserwował w latach 70-tych tzw.
efekt hot hands, tzn. fundusze, które w ostatnim czasie radziły sobie dobrze (źle), kontynuują dobrą (złą) passę w następnym okresie. Jednak prawidłowość ta wystąpiła
tylko w latach 70-tych i nie była kontynuowana później. Co prawda, efekt hot hands
przed Malkielem udokumentowali inni badacze, m.in.: Grinblatt i Titman [Grinblatt,
Titman 1992 s. 1977 – 1984], Goetzmann i Ibbotson [Goetzmann, Ibbotson 1994 s. 9
– 18], jednak, jak uważa Malkiel, ich wyniki mógł zniekształcić survivorship bias, poza
tym okres ich analiz kończy się wcześniej niż Malkiela. Malkiel zaobserwował niewielką (nieistotną statystycznie) pozytywną korelację między wynikami funduszy a ich
wydatkami na porady inwestycyjne. Jednocześnie zaobserwował wysoką negatywną
korelację między wynikami a wszystkimi pozostałymi wydatkami (marketing, księgowość itp.). Konkluduje on, iż inwestorzy nie otrzymują stosownej rekompensaty za
wydatki przeznaczone na zarządzanie funduszem, nawet jeśli weźmiemy pod uwagę
wyłącznie wydatki na porady inwestycyjne. Zdaniem Malkiela, jego wyniki świadczą
o tym, że rynek jest „w znacznym stopniu” efektywny i lepszą inwestycją są fundusze indeksowe niż zarządzane aktywnie [Malkiel 1995 s. 550 – 571].
Efekt hot hands w dużym stopniu wyjaśniają badania Carharta. Po przeanalizowaniu wolnych od survivorship bias danych z USA z lat 1962 – 1993, stwierdził on, że
fundusze, które znalazły się w grupie 10% najlepszych (najgorszych) pod względem
wyników w danym roku, mają tendencję do pozostania w tej grupie w roku następnym. Najgorsze fundusze mają tendencję do pozostania w grupie najgorszych nawet
dłużej niż rok. Carhart radzi więc unikać funduszy o słabych wynikach. Stwierdzony
efekt hot hands w głównej mierze wynika z efektu momentum udokumentowanego przez
Jegadeesha i Titmana (1993), efektu kapitalizacji i efektu C/WK. Carhartowi nie do
końca udało się wyjaśnić stabilności słabych wyników w grupie najgorszych funduszy za pomocą w/wym. efektów oraz wydatków funduszy. Ważnym wnioskiem
19
Za wyjątkiem funduszy inwestujących w zagraniczne papiery wartościowe i pojedyncze branże.
164
Piotr Kowalczuk
Carharta jest stwierdzenie, że wydatki funduszy, koszty transakcyjne i opłaty dystrybucyjne mają negatywny wpływ na ich stopy zwrotu. Przeciętnie rzecz biorąc,
fundusze nie rekompensują ich wyższymi stopami zwrotu – udaje się to jedynie najlepszym funduszom [Carhart 1997 s. 57 – 81].
Autorem bardzo obszernych i szczegółowych badań funduszy inwestycyjnych jest
Wermers, który po części skorzystał z metod Carharta [1997]. Wermers stwierdził,
że przeciętny fundusz miał w portfelu akcje, które były lepsze od rynku (ważony indeks CRSP) o 1,3% rocznie. Z tego 0,6% przypada na specyficzne cechy wybieranych
przez fundusz akcji (kapitalizacja, C/WK, momentum), a pozostałe 0,7% wynika ze
zdolności menedżerów funduszy do wybierania spółek, które są lepsze niż portfele
spółek o podobnych charakterystykach. Może to wskazywać na pewne umiejętności
zarządzających. Jednak, jak zwraca uwagę T. Moskowitz w komentarzu do artykułu,
wspomniane zdolności wyboru spółek przejawiają się prawie wyłącznie w grudniu,
co wskazuje, że przyczyną wyniku Wermersa jest prawdopodobnie window dressing20
i handel w celu osiągnięcia korzyści podatkowych (tax trading). W ujęciu netto fundusze okazały się jednak gorsze od rynku o 1% rocznie. Z 2,3% różnicy między akcjami z portfeli funduszy a wynikami funduszy netto, 1,6% przypada na wydatki funduszy i koszty transakcyjne, a 0,7% na niskie stopy zwrotu z aktywów nie będących
akcjami (np. bony skarbowe), utrzymywanymi w celu zachowania płynności. Zatem
dodatkowe koszty funduszy (1,6% rocznie) dają dodatkową stopą zwrotu (+1,3%)
prawie wystarczającą na ich pokrycie, co jest zgodne z modelem Grossmana-Stiglitza.
Badania Wermersa dowodzą również, że fundusze o wyższych obrotach w portfelu
i kosztach transakcyjnych posiadają jednocześnie w portfelach akcje o wyższych
przeciętnych stopach zwrotu niż fundusze zarządzane bardziej pasywnie [Wermers
2000 s. 1657 – 1701].
Z badań polskich funduszy inwestycyjnych przeprowadzonych przez Czekaja,
Wosia, Żarnowskiego dla lat 1995 – 2000 wynika, że zarządzający funduszami nie
posiadają ponadprzeciętnych umiejętności ani doboru spółek do portfela (stock picking),
ani przewidywania ogólnej koniunktury rynkowej (market timing), [Czekaj, Woś, Żarnowski 2001 s. 132 – 156]. Nowsze badania Starobrata wykazały, że polskim funduszom inwestycyjnym w latach 1999 – 2004 nie udało się pokonać rynku. Badania
pokazały też istotną, negatywną korelację między wynikami funduszy a ich wydatkami, opłatami dystrybucyjnymi i stopniem obrotu portfela [Starobrat 2004 s. 86 – 92].
Zatem większość badań dotyczących funduszy nie stwierdza ponadprzeciętnych
zdolności zarządzających. Można więc wnioskować, że zarządzający funduszami
inwestycyjnymi na ogół nie posiadają informacji prywatnej.
20 Praktyka funduszy inwestycyjnych zmierza do pokazania inwestorom portfela i wyników
lepszymi niż są w rzeczywistości np. przez przebudowanie portfela pod koniec roku (kwartału), tak
aby zawierał spółki o wysokich stopach zwrotu w ostatnim czasie albo spółki uważane za bezpieczne i
nie zawierał spółek słabych.
Półsilna i silna forma efektywności rynku akcji…
165
4. Podsumowanie
Podsumowując należy stwierdzić, że wyniki badań z zakresu analizy zdarzeń nie
dają jednoznacznej odpowiedzi na pytanie o efektywność rynku w średniej formie.
Rynek szybko (efektywnie) reaguje na informacje o dywidendach, odtajnienie rekomendacji i informacje o nowych emisjach akcji. Badania nad nowymi emisjami
oraz skupem własnych akcji stwierdzają, że menedżment spółek może posiadać przewagę informacyjną nad resztą rynku. Świadczy o tym przekraczanie prognoz wyników i wzrost cen akcji (dryf) do 4 – 5 lat po skupie własnych akcji oraz fakt, że nowe emisje występują w okresach, kiedy akcje są drogie (po wzmożonej aktywności
emisyjnej następują długoterminowe spadki kursu). Średniej formy efektywności
rynku nie potwierdzają natomiast badania dotyczące reakcji rynku na wyniki finansowe spółek. Większość prac wskazuje tu na wydłużoną reakcję rynku (dryf). Na
polskim rynku również stwierdzono dryf (do 60 dni po komunikacie o wynikach).
Dodatkowo, im mniejsza spółka, tym większy dryf, co sugeruje mniejszą efektywność rynku małych spółek w stosunku do rynku dużych spółek. Badania dotyczące
reakcji rynku na fuzje i przejęcia są niejednoznaczne, gdyż z jednej strony wskazują
na szybką reakcję rynku na komunikat, natomiast z drugiej – na spadek w długim terminie (1 – 3 lata) cen akcji połączonych firm. Może to wskazywać, że inwestorzy zbyt
optymistycznie reagują na informację o połączeniu.
Jeśli chodzi o badania nad silną formą efektywności rynku, wskazują one że insiderzy (tj. osoby zatrudnione na wysokich stanowiskach w spółkach) posiadają informacje pozwalające im osiągać ponadprzeciętne zyski. Przeczy to silnej formie
efektywności rynku, gdyż na rynku silnie efektywnym nie ma grupy inwestorów posiadających przewagę informacyjną, którą mogliby wykorzystać do osiągania ponadprzeciętnych zysków. Badania wykazały, że informacją prywatną nie dysponują
natomiast zarządzający funduszami inwestycyjnymi oraz analitycy papierów wartościowych (choć w ich przypadku wyniki nie są jednoznaczne). Polski rynek nie był
w tej kwestii wyjątkiem, o czym świadczą wyniki badań Starobrata (2004), Czekaja,
Wosia i Żarnowskiego (2001) oraz Wiśniewskiego (1999).
Literatura
Agrawal A., Jaffe J., Mandelker G.N. 1992 The Post – Merger Performance of Acquiring
Firms, „Journal of Finance”, September.
Aharony J., Swary I. 1980 Quarterly Dividend an Earnings Announcements and Stockholders’ Returns: An Empirical Analysis, „Journal of Finance”, March.
Amihud Y., Murgia M. 1997 Dividends, Taxes, and Signalling: Evidence from Germany,
„Journal of Finance”, March.
Asquith P. 1983 Merger bids, uncertainty and stockholder returns, „Journal of Financial
Economics”, April.
Asquith P., Mullins D.W. 1986 Equity Issues and Offering Dilution, „Journal of Financial Economics”, January – February.
166
Piotr Kowalczuk
Barber B., Lehavy R., McNichols M., Trueman B. 2001 Can Investors Profit from the
Prophets? Security Analyst Recommendations and Stock Returns, „Journal of Finance”,
April.
Beneish M. 1991 Stock Prices and the Dissemination of Analysts’ Recommendations, „Journal
of Business”, July.
Bidwel C.M., Riddle J.R. 1981 Market Inefficiencies-Opportunities for Profits, „Journal of
Accounting, Auditing and Finance”, Spring.
Black F. 1976 The Dividend Puzzle, „Journal of Portfolio Management”, No. 2.
Buczek S., Pietrzak M. 2004 Stadne zachowania analityków, „Parkiet”, 6 – 8 marca, nr 47
(2463).
Busse J., Green T. 2002 Market efficiency in real time, „Journal of Financial Economics”,
September.
Carhart M. 1997 On Persistence in Mutual Fund Performance, „Journal of Finance”,
March.
Cooper A., Day T., Lewis C. 2001 Following the leader: a study of individual analysts’
earnings forecasts, „Journal of Financial Economics”, September.
Cowles A. 1933 Can Stock Market Forecasters Forecast?, „Econometrica”, Vol. 1.
Czekaj J., Woś M., Żarnowski J. 2001 Efektywność giełdowego rynku akcji w Polsce,
Z perspektywy dziesięciolecia, Warszawa.
Davies P., Canes M. 1978 Stock Prices and the Publication of Second – Hand Information,
„Journal of Business”, January.
Desai H., Jain P. 1995 An Analysis of the Recommendations of the “Superstar” Money Managers at Barron’s Annual Roundtable, „Journal of Finance”, September.
Dimson E., Marsh P. 1984 An Analysis of Brokers’ and Analysts’ Unpublished Forecasts of
UK Stock Returns, „Journal of Finance”, December.
Easterwood J., Nutt S. 1999 Inefficiency in Analysts’ Earnings Forecasts: Systematic Misreaction or Systematic Optimism?, „Journal of Finance”, October.
Elton E. J., Gruber M. J., Das S., Hlavka M. 1993 Efficiency with Costly Information:
A Reinterpretation of Evidence from Managed Portfolios, „Review of Financial Studies”,
No. 1.
Fama E.F. 1991 Efficient Capital Markets II, „Journal of Finance”, December.
Fama E.F. 1970 Efficient Capital Markets: A Review of Theory and Empirical Work,
„Journal of Finance”, May.
Finnerty J.E. 1976 Insiders and Market Efficiency, „Journal of Finance”, September.
Foster G., Olsen C., Shevlin T. 1984 Earning Releases, Anomalies, and the Behavior of Security Returns, „Accounting Review”, October.
Goetzmann W., Ibbotson R. 1994 Do Winners Repeat? Patterns in Mutual Fund Behavior, „Journal of Portfolio Management”, Winter.
Graham J.R. 1999 Herding among investment newsletters: theory and evidence, „Journal of
Finance”, February.
Green T. 2003 The Value of Client Access to Analyst Recommendations, Emory University
Goizueta Business School Working Paper, August.
Grinblatt M., Titman S. 1992 The Persistence of Mutual Fund Performance, „Journal of
Finance”, December.
Półsilna i silna forma efektywności rynku akcji…
167
Grossman S., Stiglitz J. 1980 On the Impossibility of Informationally Efficient Markets,
„American Economic Review”, No. 70.
Groth J., Wilbur J.C., Lewellen G., Schlarbaum G., Lease R. 1979 An Analysis of
Brokerage House Securities Recommendations, „Financial Analysts Journal”, JanuaryFebruary.
Hong H., Kubik J.D., Salomon A. 1998 Security Analysts’ Career Concerns and Herding
of Earnings Forecasts, Working Paper, July, SSRN Electronic Library.
Ikenberry D., Lakonishok J., Vermaelen T. 1995 Market underreaction to open market
share repurchases, „Journal of Financial Economics”, October – November.
Ippolito R.A. 1989 Efficiency with Costly Information: A Study of Mutual Fund Performance
1965–1984, „Quarterly Journal of Economics”, February.
Jarrell G., Polusen A. 1989 Stock trading before the announcement of tender offers: Insider
trading or market anticipation? „Journal of Law, Economics and Organisation”, No. 5.
Jegadeesh N., Kim J., Krische S. D., Lee Ch. 2002 Analyzing the Analysts: When do
Recommendations Add Value? Working Paper, AFA 2002 Atlanta Meetings, May,
SSRN Electronic Library.
Jeng L.A., Metrick A., Zeckhauser R. 1999 The Profits to Insider Trading: A Performance
– Evaluation Perspective, NBER Working Paper 6913, January.
Jensen M. 1968 The Performance of Mutual Funds in the Period 1945 – 1964, „Journal of
Finance”, May.
Keown A., Pinkerton J. 1981 Merger Announcements and Insider Trading Activity: An
Empirical Investigation, „Journal of Finance”, September.
Dann L.Y. 1981 Common Stock Repurchases, „Journal of Financial Economics”, No. 9.
Logue D., Tuttle D.L. 1973 Brokerage House Investment Advice, „Financial Review”,
February.
Loughran T., Ritter J. 1995 The New Issue Puzzle, „Journal of Finance”, March.
Magenheim E., Mueller D. 1988 Are acquiring firm shareholders better off after an acquisition?, w: eds. J. Coffee, L. Lowenstein, S. Rose-Ackerman, Knights, Riders and Targets, Oxford.
Malkiel B.G. 1995 Returns from Investing in Equity Mutual Funds 1971 to 1991, „Journal
of Finance”, June.
Masulis R.W., Korwar A.N. 1986 Seasoned Equity Offerings, „Journal of Financial
Economics”, January – February.
Metrick A. 1999 Performance Evaluation with Transactions Data: The Stock Selection of Investment Newsletters, „Journal of Finance”, October.
Meulbroek L. 1992 An Empirical Analysis of Illegal Insider Trading, „Journal of Finance”, December.
Moskowitz T. 2000 Discussion, w: eds. R. Wermers, Mutual Fund Performance: An Empirical Decomposition into Stock – Picking Talent, Style, Transaction Costs, and Expenses,
„Journal of Finance”, August.
Patell J.M., Wolfson M.A. 1984 The Intraday Speed of Adjustment of Stock Prices to
Earnings and Dividend Announcements, „Journal of Financial Economics”, 13 June.
168
Piotr Kowalczuk
Randleman R., Jones C., Latane H.A. 1982 Empirical Anomalies Based on Unexpected
Earnings and the Importance of Risk Adjustments, „Journal of Financial Economics”,
November.
Reinganum M. 1981 Misspecification of Capital Asset Pricing, „Journal of Financial Economics”, March.
Rozeff M., Zaman M. 1988 Market Efficiency and Insider Trading: New Evidence, „Journal of Business”, January.
Ruback R. 1988 Comment, w: eds. A. Auerbach, Corporate Takeovers: Courses and Consequences, Chicago.
Seyhun H.N. 1986 Insiders’ Profits, Cost of Trading, and market Efficiency, „Journal of
Financial Economics”, June.
Starobrat M. 2004 Efektywność silna Giełdy Papierów Wartościowych w Warszawie w latach
1999 – 2004, „Nasz Rynek Kapitałowy”, sierpień.
Szyszka A. 2003 Efektywność giełdy Papierów Wartościowych w Warszawie na tle rynków dojrzałych, Poznań.
Trueman B. 1994 Analyst forecasts and herding behavior, „Review of Financial Studies”,
No. 7.
Vermaelen T. 1981 Common Stock Repurchases and Market Signalling, „Journal of Financial Economics”, No. 9.
Welch I. 2000 Herding among security analysts, „Journal of Financial Economics”, December.
Wermers R. 2000 Mutual Fund Performance: An Empirical Decomposition into Stock –
Picking Talent, Style, Transaction Costs, and Expenses, „Journal of Finance”, August.
Wiśniewski T. 1999 Teoria błądzenia przypadkowego a efektywność rekomendacji, „Nasz
Rynek Kapitałowy”, wrzesień.
Womack K. 1996 Do Brokerage Analysts’ Recommendations Have Investment Value?
„Journal of Finance”, March.
OPTIMUM – STUDIA EKONOMICZNE NR 1 (37) 2008
Agnieszka ZIOMEK 1
OCZEKIWANIA PŁACOWE POSZUKUJĄCYCH PRACY
W WIELKOPOLSCE – ASPEKTY TEORETYCZNE I WYNIKI
BADAŃ EMPIRYCZNYCH
Streszczenie
W treści artykułu zawarto rozważania na temat jednej z nieformalnych instytucji, w rozumieniu
ekonomii instytucjonalnej. Są to zachowania odnoszące się do oczekiwania pożądanego dochodu
wśród osób poszukujących pracy zarówno bezrobotnych, jak i pracujących. Przeprowadzone badanie
ankietowe, pod kątem oczekiwań pożądanego dochodu, zostało przeprowadzone w styczniu i w
czerwcu 2006 roku wśród mieszkańców Wielkopolski. Badanie to pozwoliło ustalić, jak nabyte doświadczenia na rynku pracy kształtują osobiste oczekiwania dochodu charakterystycznej grupy osób,
bezrobotnych i zatrudnionych, poszukujących pracy .
WAGE EXPECTATIONS AMONG THE JOB SEEKERS IN THE WIELKOPOLSKA
REGION – THEORETICAL ASPECTS AND THE RESULTS OF EMPIRICAL STUDY
Summary
The paper is based on informal institution analysis in accordance with the institutional economics theory. The author assumes that wage expectations are a kind of an informal institution. The characteristic level
of these expectations can be observed among labour market participants as the unemployed and work
seeking employed. The survey presented in the paper was carried out in January and June 2006 among
a group inhabitants of the Wielkopolska region. The survey results enable the author to define how the experience gathered on the labour market influences personal wage expectations among job seekers – the unemployed and employed people.
1. Wstęp
Gospodarka to organizm złożony z szeregu formalnych i nieformalnych instytucji i powiązań, tworzących pełen system społeczno-gospodarczy. Nieformalne instytucje, tworzące wspomniany system, powstają jako formuły ludzkich zachowań
w odpowiedzi na pojawiające się w ich otoczeniu problemy. Zachowania ludzkie,
inaczej reakcje, są z kolei powtarzane metodą naśladownictwa i akceptowane lub odrzucane przez środowisko jako reguły postępowania. Wielokrotnie powstają w sposób
przypadkowy, ich cel czy pochodzenie nie są znane a ich istnienia często nie jeste1
Dr Agnieszka Ziomek jest pracownikiem Akademii Ekonomicznej w Poznaniu.
170
Agnieszka Ziomek
śmy świadomi. Tak powstają nieformalne instytucje, tworzące podstawę porządku
społeczno-gospodarczego, są one produktem ludzkiego działania, a nie ludzkiego planu
[Kostro 2001 s. 140 – 141].
Jednym z przykładów nieformalnych instytucji są typowe dla osób o niskich dochodach zachowania w stosunku do przyszłości, formułowane na bazie minionych
doświadczeń oraz aktualnej sytuacji majątkowej. Elementem tego typu zachowań są
między innymi oczekiwania pożądanego dochodu wśród osób poszukujących pracy
zarówno bezrobotnych, jak i pracujących. Są one wynikiem pewnego nawyku, zwyczaju, charakterystycznego dla tej właśnie subgrupy społecznej. Zagadnienie ludzkich planów i przewidywań podkreślił F.A. von Hayek, twierdząc, że tym, co tworzy rynek stanowiący centralny człon gospodarki, są ludzkie przewidywania i plany
działania, a ich zbieżność, koordynacja doprowadza do stanu dynamicznej równowagi
rynku [Kostro 2001 s. 125 – 129].
Czy niskie oczekiwania płacowe, które wywołują uzyskiwane dotąd niskie zarobki, sięgają do rangi nieformalnej instytucji? Interpretując to zjawisko jako nawyk,
czy naśladowaną przez innych postawę, można ująć je w ramy stwierdzeń instytucjonalnego nurtu ekonomii. Inną kwestią jest określenie „niskie oczekiwania płacowe”. Charakter poziomu oczekiwań można sformułować w relacji do obecnych
dochodów, które zabezpieczają bądź nie zabezpieczają podstawowych potrzeb w granicach minimum socjalnego2. Zatem, jeśli osoba otrzymuje zbyt małe dochody oscylujące w granicach minimum socjalnego i jednocześnie formułuje oczekiwania w stosunku do dochodu w granicach 150% uzyskiwanego dochodu, przyjąć można, iż oczekiwania te są niskie (por. wykres 3. i 4.).
Dla zinterpretowania zależności pomiędzy niskimi aspiracjami płacowymi a trudnościami w uzyskaniu pracy lub zmiany zatrudnienia można posłużyć się mechanizmem
Melvina Lernera nazwanym „wiarą w sprawiedliwy świat” [Praca, Kształcenie… 2004
s. 20]. Mechanizm ten polega na tłumaczeniu pewnego porządku według zasady: zło
dotyka złych ludzi, a dobro dobrych. Wiara w istnienie takiego porządku rzeczy może
być charakterystyczna dla ludzi mających trudności ze znalezieniem zatrudnienia, którzy
identyfikują zło jako utratę pracy, odrzucenie, niesprawiedliwość. Niska samoocena
może mieć związek z niską wartością oczekiwań przyszłych zarobków. Taka postawa
jest z kolei źródłem pewnych zjawisk. Niskie oczekiwania płacowe powodują, iż pewne
kategorie zarobków pozostają przez nich niewidoczne, niezauważane. Ludzie ci przyzwyczajeni są bowiem do określonego standardu zaspokojenia potrzeb, stąd zasada
maksymalizacji dochodów ogranicza się do subiektywnego minimum. Zjawisko to jest
groźne, jeżeli staje się przedmiotem naśladowania osób o podobnym położeniu lub ich
dzieci. Innym szkodliwym zjawiskiem jest zanik starań o zdobycie wielokrotnie wyższych zarobków. Gdy brakuje ambitnych planów zarobków, trudno spodziewać się dążenia do ich uzyskania. O ile trudniejsze staje się wówczas skrócenie okresu poszukiwania pracy, aktywizacja takiej grupy osób, jeżeli niedostatecznie starają się one podnieść
2 Pamiętajmy, iż minimum socjalne jest wielkością określaną zewnętrznie poza decyzjami osób
zainteresowanych. Jest więc wielkością sugerowaną przez dociekanie teoretyczne lub narzucaną przez
decydenta (władze lokalne, rząd, instytucje międzynarodowe), jako kategoria formalno-prawna.
Oczekiwania płacowe poszukujących pracy w Wielkopolsce…
171
zawodowe kwalifikacje, a walcząc o wyższe dochody, negocjować płacę. Jeśli zjawisko
powiązania niskich zarobków z niskimi oczekiwaniami płacowymi rzeczywiście występuje, to jest ono jednocześnie niebezpieczeństwem istnienia trwałego problemu poprawy sytuacji materialnej wśród stałej grupy ludności. Warto zaznaczyć także, iż są to
osoby, które nie zamierzają szukać zatrudnienia poza granicami kraju, ich mobilność
jest ograniczona raczej z powodu własnych przekonań i referencji. Zatem pozostawanie
w kraju o raczej trudnych warunkach na rynku pracy dla tej kategorii osób poszukujących pracy może być przesłanką dla twierdzenia o permanentnym ciążeniu owego problemu społecznego.
Podłoże zrealizowanego badania empirycznego jest dość szerokie. Wiąże się z nim
kilka wątków analiz prezentowanych dotychczas w literaturze przedmiotu3. Ze względu
na charakter próby warto poruszyć problem świadczeń ze środków publicznych i ich
rozdysponowania. Według badań OECD, w Polsce około jedna na pięć osób korzysta
z transferów społecznych, z wyłączeniem emerytur. Rozdysponowanie środków publicznych w formie transferów, takich jak: zasiłek dla bezrobotnych, zasiłek opieki społecznej, wśród osób stanowiących 40% najniżej zarabiających w społeczeństwie, jest
najwyższe. Około 3,5% PKB jest przeznaczane na renty, których beneficjenci stanowili
13% ludności w wieku produkcyjnym i 25% zatrudnionych w roku 2000. Natomiast
korzystający ze świadczeń pomocy społecznej stanowili 2,8% zatrudnionych w 2002
roku [OECD Economic Surveys… 2004]. Ze względu na to ocenia się, że system pomocy
publicznej jest wadliwie ukierunkowany. Z kolei niskie świadczenia pokazują, że większość niezatrudnionych korzysta z dochodów innych członków rodziny, otrzymujących
emeryturę, rentę, czy ubezpieczenie KRUS (por. wykres 1.).
WYKRES 1.
Źródła dochodu niezatrudnionych w 2000 r.
utrzymywani przez
pracujących w
sektorze
rolniczym; 3,30%
pozostali łącznie
z uzyskującymi
pomoc socjalną;
14,50%
renta inwalidzka;
21,70%
zasiłek rodzinny;
2,40%
utrzymywani przez
pracujących
w sektorze
pozarolniczym;
35,30
zasiłek dla
bezrobotnych;
7,20%
utrzymywani przez
otrzymyjących
świadczenia;
15,60%
Źródło: [OECD Economic Surveys: Poland 2004 s. 9].
3 Nawiązaniem do podjętej problematyki są takie dziedziny rozważań, jak: migracje zarobkowe,
oczekiwania płacowe, nierówności dochodowe.
172
Agnieszka Ziomek
Spójrzmy, jak hipoteza o niskich oczekiwaniach płacowych została zweryfikowana
przez wyniki ankiety przeprowadzonej wśród wybranej grupy osób poszukujących
pracy.
2. Wyniki badania empirycznego
2.1. Metoda i próba badawcza
Badanie empiryczne osób poszukujących pracy, pod kątem oczekiwań pożądanego dochodu, zostało przeprowadzone w styczniu i w czerwcu 2006 roku wśród
mieszkańców Wielkopolski, czyli regionu o niskim bezrobociu w skali kraju (średnia
dla kraju 18%, dla Wielkopolski 14%4). Grupa respondentów to uczestnicy szkolenia na temat podstaw obsługi komputera, zorganizowanego wyłącznie dla osób poszukujących pracy. Wśród osób poszukujących zatrudnienia znalazły się osoby posiadające status bezrobotnego, jednak większość stanowiły osoby nie posiadające statusu zarejestrowanego w PUP. W grupie ankietowanych znajdują się osoby zatrudnione legalnie, jak i pracujące w szarej strefie. Są to osoby w wieku od 30 do 55 lat,
których sytuację społeczno-ekonomiczną charakteryzuje sztywność warunków, wynikająca z kilku powodów, którym jest przede wszystkim konieczność utrzymania
rodziny, niemobilność przestrzenna ze względu na brak środków i problem ze zmianą
mieszkania. Z czego wynika determinacja poszukiwania miejsca pracy w kraju, w miejscu zamieszkania i brak zainteresowania emigracją zarobkową do krajów UE, które
otworzyły rynek pracy dla Polaków.
Przy doborze próby wykorzystano przypadek nielosowego doboru próby. Dobór celowy polegał zatem na zgromadzeniu osób rzeczywiście poszukujących pracy,
wśród których znalazły się osoby, które, będąc bez pracy, nie posiadają rejestracji
w PUP5. Weryfikację statusu osób zgłaszających się na kurs wykonano w okresie
organizacji kursu. Istotna była przy tym informacja o poszukiwaniu pracy a nieistotna – posiadanie aktualnej rejestracji w PUP.
Z racji stosowanej metody doboru próby wynikają określone konsekwencje.
Wielkość próby to 60 osób. Stąd wyniki badania nie mogą być uogólniane dla całej
populacji, ale charakteryzują wiarygodnie sytuację w badanej grupie respondentów.
Pod względem wysokości miesięcznego dochodu, w badanym miesiącu 2006 roku, największą grupę 44% stanowiły osoby o dochodzie pomiędzy 200 zł a 750 zł.
20% respondentów nie wykazało żadnych dochodów. Najwyższy dochód, przekraczający 750 zł, wykazało 36% badanych.
Dynamika zmian dochodu w latach 2005 – 2006 przedstawia się następująco.
Grupa osób niewykazująca żadnego dochodu w roku 2005 (1/5 badanych) poprawiła swoją sytuację materialną w kolejnym roku. Pozostała grupa ankietowanych,
jak pokazuje poniższy wykres, nie uzyskała znacznych zmian w dochodzie, w okreDane WUP za miesiąc wrzesień, www.wup.poznan.pl.
Okazało się to możliwe dzięki eliminacji kryterium kwalifikacji na kurs, tj. zaświadczenia o rejestracji w PUP.
4
5
173
Oczekiwania płacowe poszukujących pracy w Wielkopolsce…
sie dwóch lat. Z jednej strony okres badania jest dość krótki i nie można spodziewać
się istotnych zmian w poziomie dochodu. Jednak można spodziewać się, że zbyt niski
dochód powinien być naturalnie silnym czynnikiem motywującym do poprawy sytuacji ekonomicznej.
WYKRES 2.
Miesięczne dochody w latach 2005 i 2006
10000
8000
6000
4000
2000
0
1
3
5
7
9
11
13
miesięczny dochód 2006
15
17
19
21
23
25
miesięczny dochód 2005
Źrodło: Wyniki ankiety przeprowadzonej w styczniu i w czerwcu 2006 roku.
Jeśli chodzi o realną wartość dochodu otrzymanego i pożądanego, to należy zaznaczyć, że okres badania dotyczył lat 2005 – 2006, w trakcie których nie odnotowano silnych zmian wskaźnika inflacji. Jego wartość była bardzo stabilna, a ponadto
niska (patrz: tabela 1.). Dlatego wykazane wartości dochodu miesięcznego oraz oczekiwania pożądanego dochodu nie zawierają błędu, który należałoby korygować,
uwzględniając wahania inflacji.
W badaniu zastosowano ankietę złożoną z 4 pytań. Dwa pytania dotyczyły wartości miesięcznego dochodu netto dla ostatniego miesiąca, kiedy występował w roku 2006 i w roku 2005, a pozostałe dwa pytania odnosiły się do oczekiwań w stosunku do dochodu w 2006 i 2005 roku (dochód traktujemy tu jako wartość netto uzyskiwanych płatności w sumie ze wszystkich źródeł, przez daną osobę).
174
Agnieszka Ziomek
TABELA 1.
Wskaźniki cen towarów i usług konsumpcyjnych w okresie 1999 – 2006
Miesiące
I
II
III
IV
V
VI
VII
VIII
IX
X
XI
XII
1998 = 100
2004 129,6 129,7 130,1 131,1 132,4 133,6 133,5 133.0 133,4 134,2 134,6 134,7
2005 134,8 134,7 134,8 135,3 135,7 135,4 135.1 135,0 135,5 136,0 135,7 135,4
2006 135,7 135,7 135,6 136,5 137,2 136,8 136,8
Źródło: Główny Urząd Statystyczny.
Przy czym chodziło o podanie wartości pożądanego dochodu przy oczekiwaniach
formułowanych rok wcześniej (dla 2006 roku w 2005 roku i dla 2005 roku w 2004
roku). Formuła pytania zakładała jednak uzyskanie odpowiedzi tyczącej się nie tyle
spodziewanego dochodu miesięcznego, co pożądanego dochodu. Chodziło bowiem
o uzyskanie informacji o osobistych preferencjach, a nie oczekiwań płacowych,
zdeterminowanych warunkami płacowymi panującymi aktualnie na rynku pracy.
2.2. Wyniki badania empirycznego
Osoby poszukujące zatrudnienia, dotknięte wielokrotnie niepowodzeniem, akceptują negatywną ocenę własną oraz otoczenia. Takie zjawisko utrudnia proces readaptacji i ma silny wpływ na dynamikę rynku pracy, poprzez decyzje związane
z rekrutacją, powstawaniem umów społecznych. Pesymistyczny autoportret bezrobotnego, zgodny z panującym w społeczeństwie stereotypem, a potwierdzany przez
badania psychologiczne, przejawia się w ich planach, zamiarach, marzeniach. Daje
się tu zauważyć pewna prawidłowość. Mianowicie, większość osób otrzymujących
niskie dochody formułuje zwykle niższe oczekiwania niż lepiej zarabiający, choć zdarzają się wyjątki, jest to grupa badanych, o najniższym dochodzie, natomiast w grupie
osób zarabiających więcej (powyżej 750 zł) różnica między uzyskanym a spodziewanym dochodem jest nieco wyższa. Jednak różnice oczekiwań w całej grupie są niewielkie, a przeciętny oczekiwany dochód w roku 2005 wyniósł 2828 zł, zaś w roku
2006 wyniósł on 2341 zł (patrz: wykres 3. i 4.).
Zasadniczo, oczekiwania płacowe są z reguły wyższe od uzyskiwanych zarobków,
co można przyjąć za potwierdzenie właściwej, z punktu widzenia zasady maksymalizacji dochodów, postawy wśród poszukujących pracy oraz potraktować to jako uwiarygodnienie osobistej sytuacji zarobkowej. Warto też zauważyć zmianę wartości pożądanego dochodu w ciągu dwóch lat. Dochód ten w 2006 roku był wyższy w porównaniu z oczekiwanym dochodem na rok 2006. Pokazuje to dodatnia różnica po-
Oczekiwania płacowe poszukujących pracy w Wielkopolsce…
175
między dochodem uzyskiwanym a pożądanym, w 37 przypadkach na 58 obserwacji
(patrz: wykres 4.).
Różnica oczekiwań pomiędzy dochodem pożądanym na rok 2006 i 2005, dla
wszystkich respondentów, wynosiła przeciętnie 279 zł, przy czym najwyższa różnica to 1500 zł. Natomiast wśród 17 osób na 59 badanych nie pojawiła się zmiana
oczekiwań w okresie dwóch lat. Uwagę zwraca przeciętna niska wartość wzrostu oczekiwań dochodowych, która zapewne jest odzwierciedleniem oceny własnych możliwości uzyskania dochodu, której podstawę stanowią zarówno „twarde” warunki rynku pracy, jak i konkretne umiejętności. Warto dodać, że dwuletni okres słabo ilustruje możliwości wzrostu dochodu w oparciu o wzrost własnej wartości kapitału
ludzkiego. Zatem niska wartość oczekiwań jest raczej obrazem osobistego nastawienia do własnej osoby i do przyszłości, które w tej charakterystycznej grupie badanych nie jest pozytywne. Wynika to między innymi stąd, iż trudno nazwać optymizmem oczekiwanie wzrostu dochodu o kwotę około 279 zł, przy aktualnie niskim dochodzie, nieprzekraczającym minimum socjalnego.
Poniższe wykresy ilustrują obraz rzeczywistej realizacji osobistych oczekiwań dochodowych. W odpowiedziach obejmujących rok 2005 i 2006 (patrz: wykres 3. i 4.)
nie widać zmienności pożądanego dochodu w stosunku do uzyskanego. Rozbieżność
pomiędzy przyszłym i uzyskanym dochodem jest najwyższa dla osób nieotrzymujących dochodu i zarabiających najmniej spośród ankietowanych.
WYKRES 3.
Otrzymywany miesięczny i pożądany miesięczny dochód dla 2005 roku
12000
10000
8000
6000
4000
2000
0
1
2
3
4
5
6
7
8
9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25
miesięczny dochód 2005
pożądany dochód 2005
Źródło: Wyniki ankiety przeprowadzonej w styczniu i w czerwcu 2006 roku.
176
Agnieszka Ziomek
WYKRES 4.
Otrzymywany miesięczny i pożądany miesięczny dochód dla 2006 roku
10500
8500
6500
4500
2500
1
3
5
7
9
11
13
15
17
19
21
23
25
27
29
31
33
35
37
39
41
43
45
47
49
51
53
55
57
59
61
500
-1500
miesięczny dochód w 2006 roku
pożądany dochód w 2006 roku
Źrodło: Wyniki ankiety przeprowadzonej w styczniu i w czerwcu 2006 roku.
Pozostawanie w kategorii osób niżej zarabiających może mieć negatywny wpływ
na ocenę własnych możliwości w związku ze wspomnianym wcześniej mechanizmem Melvina Lernera. Powstaje tu efekt braku wiary we własne możliwości i zanika cecha charakterystyczna człowieka ekonomicznego, tj. maksymalizacji działań. Ma
to swoje odbicie w przeciętnej pożądanej wysokości dochodu, co z kolei wynika z przyjętego i zaakceptowanego poziomu życia i ograniczonych potrzeb. Oczekiwania wysokich dochodów w niewielkiej próbie badawczej (25 danych) występują raczej sporadycznie, w większej próbie badanych (w drugiej edycji ankiety) brała udział większa
liczba osób. Oczekiwania pozostałych osób niewiele się różnią i jak widać pozostają
w słabej zależności od bieżącego dochodu, większość nie przekracza 2500 zł.
3. Podsumowanie – wnioski
Wnioski, jakie można wyprowadzić z ograniczonego obiektywnie zakresu danych, (o czym wspomniałam wcześniej) mogą mieć tylko charakter cząstkowych uogólnień. Tak więc, ostrożność jest niejako dyrektywą nadrzędną przy formułowaniu
stwierdzeń nasuwających się na podstawie powyższego naszkicowania problemu.
Co zatem z niego wynika?
Oczekiwania płacowe poszukujących pracy w Wielkopolsce…
1.
2.
3.
4.
177
Z przeprowadzonych obserwacji zebranego materiału wynika, że osoby
poszukujące pracy nie podejmują jej, gdy wynagrodzenie nie jest znacznie
wyższe od poziomu świadczeń społecznych6. Jednocześnie widoczne jest zjawisko, gdy poszukujący pracy są zniechęceni jej poszukiwaniem, co przejawia się między innymi w braku nadziei na jej uzyskanie. Z kolei brak pozytywnej wizji przyszłości przejawia się w formułowanych oczekiwaniach, co
do wysokości płacy. Z przeprowadzonych badań wynika, że osoby z niskim
kapitałem własnym nie pragną zarabiać znacznie więcej niż dotychczas,
choć zarabiają niewiele lub utrzymują się ze źródeł niezarobkowych.
Prezentowane wyniki badania pokazują, jak silnie nabyte doświadczenia kształtują osobiste oczekiwania. Poszukujący pracy uwzględniają w nich racjonalne warunki panujące na rynku, takie jak: relatywnie wysoką (szczególnie regionalnie) płacę minimalną, wysokie koszty pracy w tej grupie zarabiających,
silne prawo chroniące pracujących. Ponadto, poszukujący pracy żyją w środowisku procesów społecznych i na to należy przede wszystkim zwrócić
uwagę. Jak twierdził M. Weber, a wraz za nim także F. A. Hayek; areną ludzkiej działalności jest nie tylko rynek, lecz także całe społeczeństwo [cyt. za:
Ząbkowicz 2003 s. 798]. Stanowi ono ramy instytucjonalne aktywności, które
narzucają nieświadomie jednostce reguły i zasady działania.
Poszukujący pracy poza otaczającymi ich sytuację instytucjami w sensie organizacji administracji publicznej, szeregu uregulowań prawnych, dostrzegają
zachowania osób, będących w podobnej sytuacji materialnej i życiowej. Tego rodzaju normy organizują zasady działania jednostek, stając się także czynnikami ograniczającymi swobodny proces wyboru. Można zatem zaryzykować stwierdzenie, iż środowisko danej grupy społecznej jest „kreatorem oczekiwań płacowych” i ono decyduje o ich poziomie. Powstaje zatem niezgodna z paradygmatem homo oeconomicus struktura działania człowieka, który potencjalnie może chcieć lepiej zaspokajać swoje potrzeby, ale ostatecznie tego nie robi. Nie występuje tu także współpraca czy współzawodnictwo. Jednostka działa w środowisku braku tego typu relacji z otoczeniem, ale sygnalizuje chęci porzucenia danego standardu norm. Nie pozostawia to zatem
wątpliwości, że niskie oczekiwania dochodu w badanej grupie są prawdopodobnie nieformalną instytucją w rozumieniu F. A. Hayeka.
Inną kwestią jest wynik takiej postawy dla rynku pracy w polskiej gospodarce. Uruchamiane środki unijne, szczególnie od maja 2004 roku, oraz nowelizowana ustawa o promocji zatrudnienia i instytucjach rynku pracy, a wraz
z nią udoskonalane narzędzia walki z bezrobociem nie przynosiły dotychczas pożądanego skutku w odniesieniu do tych osób, które nie podejmują emigracji zarobkowej, a zasób kapitału ludzkiego, który posiadają jest niekon-
6 W Polsce płaca minimalna jest zbyt niska w stosunku do podstawowej wartości zasiłku gwarantującego życie na poziomie minimum egzystencji. Konieczne jest zatem powiększenie relacji pomiędzy
płacą minimalną a świadczeniami socjalnymi lub ograniczanie dostępności świadczeń, co właściwie
stało się przedmiotem kolejnych modyfikacji ustawy dotyczącej polityki rynku pracy od 1990 roku [por.
Hausner, Sokołowski 2001; Ratuszniak, Olejar 2003 s. 55 – 58].
178
Agnieszka Ziomek
kurencyjny. Ta specyficzna grupa osób, notująca długi staż na bezrobociu,
lub częste doń powroty, utrzymująca się ze źródeł niezarobkowych, lub najniższej płacy, przyzwyczajona do poziomu własnych możliwości zarobkowania, jest podstawą trwałości bezrobocia i stanowi barierę jego minimalizacji.
Na obecnym etapie rozwoju gospodarczego coraz większą wagę będą odgrywały
czynniki instytucjonalne, tj. nieformalne instytucje zachowań wynikające z reguł zachowań społecznych. Bowiem częściowo w nich tkwi źródło powstawania i utrzymywania się bezrobocia w określonych grupach społecznych. Rozpoznanie nieformalnych instytucji istniejących w tychże grupach może stać się właściwą podstawą
do budowania narzędzi zaradczych. Zatem uwzględnienie tego rodzaju czynników pomoże dostosować narzędzia polityki rynku pracy do potrzeb i uczynić wysiłki
zmniejszania bezrobocia bardziej niż dotychczas skutecznymi.
Literatura
Hausner J., Sokołowski A. 2001 Czynniki generujące polskie bezrobocie, „Rynek Pracy”,
nr 7 – 8.
Kostro K. 2001 Hayek Kontra Socjalizm, Debata socjalistyczna a rozwój teorii społecznoekonomicznych Friedricha Augusta von Hayeka, Warszawa.
OECD Economic Surveys: Poland 2004 OECD.
Praca, Kształcenie, Partnerstwo 2004, red. M. Kubisz, Warszawa.
Ratuszniak M., Olejar T. 2003 Dochody i wydatki Funduszu Pracy w latach 1990–2002,
„Rynek Pracy”, nr 6.
www.stat.gov.pl..
www.wup.poznan.pl.
Ząbkowicz A. 2003 Współczesna ekonomia instytucjonalna wobec głównego nurtu ekonomii,
„Ekonomista”, nr 6.
RECENZJE I INFORMACJE
Henryk WNOROWSKI
ROLA LIDERA W ORGANIZACJI1
1. Wstęp
Celem niniejszego wystąpienia jest pokazanie roli lidera w organizacji. Takie sformułowanie zadania wydaje się być naturalne, biorąc pod uwagę okoliczności, w których autor będzie wygłaszał swoje tezy, a mianowicie piętnastolecie Komitetu Lokalnego AIESEC
Polska w Białymstoku. Wszak to AIESEC jest międzynarodową organizacją studencką,
której głównym celem jest rozwój młodych liderów poprzez pobudzanie ich przedsiębiorczego działania, aktywnego uczenia się, przyjmowania postaw odpowiedzialnych społecznie i promowanie aktywności międzykulturowej. Tym poważniejsze i bardziej odpowiedzialne jest moje zadanie.
Autor, będąc ekonomistą, skupi się na eksponowaniu roli lidera w organizacjach gospodarczych, zwłaszcza w przedsiębiorstwach, które, tworząc wartość dla klientów, akcjonariuszy, pracowników, wierzycieli i Skarbu Państwa, budują dobrobyt kraju [Wnorowski
2007 s. 148]. Mając świadomość wagi roli przedsiębiorstwa w gospodarce, formułuje tezę
główną jako stwierdzenie, iż lider to kluczowy warunek sukcesu przedsiębiorstwa na globalizującym się rynku. Równie istotna jest jego wiedza i umiejętności, również predyspozycje psychiczne wykorzystywane w relacjach wewnątrz organizacji, jak i w konfrontacji z otoczeniem zewnętrznym.
Widzimy więc, że problem jest dosyć skomplikowany i ma charakter interdyscyplinarny,
wychodzi wszak poza zakres nauk ekonomicznych. Autor będzie jednak skupiał się zwłaszcza
na wiedzy ekonomicznej i umiejętnościach w dziedzinie zarządzania, opisując pożądane
atrybuty lidera. Jest to niewątpliwie zadanie łatwiejsze niż formułowanie rekomendacji, jak
postępować, aby być lub zostać liderem. Ale jest to chyba specyfika nauk społecznych,
które zawsze (z pewnym przybliżeniem) są w stanie wyjaśniać to, co już się stało, jednak
trafne prognozowanie, co się stanie, zdarza się im rzadko [Zawiślak 2005].
2. Pojęcie lidera
Lider to inaczej przywódca organizacji. Przywództwo zaś należy do najczęściej obserwowanych i najgorzej rozumianych zjawisk na świecie, jest ono także trudne do zdefiniowania. W socjologii przywódca to członek grupy społecznej, który dzięki specyficznym cechom osobowości lub dzięki zajmowanemu stanowisku narzuca innym swoje przekonania, inicjuje, kieruje, zespala działalność tej grupy
Każda organizacja, przedsiębiorstwo także potrzebuje twórczych liderów, skoncentrowanych na przyszłości, z praktycznymi umiejętnościami menedżerskimi odnoszącymi
się do działania tu i teraz. Przewodzenie to wprowadzanie wizji i kierunku działania danej
grupy, organizacji. Lider musi w odpowiedni sposób komunikować się z osobami, których
współpraca może być niezbędna podczas realizowania strategii w przyszłości, oraz
1
Referat został wygłoszony na konferencji studenckiej z okazji XV-lecia AIESEC Polska, Komitet
Lokalny Białystok, na Wydziale Ekonomii i Zarządzania Uniwersytetu w Białymstoku, 11 maja 2007r.
180
Recenzje i informacje
z innymi grupami akceptującymi i wspierającymi jego wizję, uznającymi jej ważność. Przywódca, lider to również dla danej grupy źródło energii, potrzebnej do wdrażania planów,
to wsparcie udzielone najmniejszemu, każdemu rozwojowi, to także wzbudzanie inicjatywy.
By w pełni zrozumieć to zjawisko, trzeba wziąć pod uwagę charakterystykę lidera i osób
mu podlegających oraz rodzaj oddziaływania między nimi. Relacje zachodzące między
nimi, a także konkretne sytuacje, mające miejsce, wpływają na postępowanie lidera poza
granicami grupy. Każda sytuacja, w której znajduje się osoba podejmująca decyzje, jest
uzależniona od uwarunkowań kontekstowych. Wielu ludzi uważa, że przywódca to dyrektor naczelny. Zazwyczaj w naukowych dziełach o przywództwie skupia się uwagę na
roli jednego przywódcy. Jest to zupełne nieporozumienie, przynajmniej w odniesieniu do
przedsiębiorstwa, każdy kierownik powinien działać jako przywódca. Idealny kierownik
ma zarówno kompetencje administracyjne, jak i zdolności przywódcze.
Henry Kissinger zdefiniował przywództwo jako sztukę doprowadzenia ludzi tam, dokąd sami by nie zaszli. Innymi słowy, chodzi o stawianie przed firmą właściwych celów
i doprowadzenie do ich osiągnięcia. Taka postać przywództwa może występować na
wszystkich szczeblach zarządzania w firmie. Prostym tego przykładem jest doprowadzenie do pierwszej zakończonej sukcesem wizyty handlowej, składanej przez praktykanta.
3. Zachowania przywódcze
Predyspozycji do bycia liderem, tak jak zauważono we wstępie, upatruje się w wiedzy
i umiejętnościach kandydatów na stanowiska menedżerskie z jednej strony, z drugiej zaś
w ich predyspozycjach psychicznych. Awans w pracy zawodowej często kojarzy się ze
stanowiskiem menedżera lub kierownika. Niestety, amerykański sen o karierze „od pucybuta do prezesa międzynarodowego koncernu” rzadko spełnia się w praktyce, co niestety
oznacza, iż nie każdy jest urodzonym liderem i przywódcą.
Z badań prowadzonych przez uczelnie ekonomiczne wynika, że niezbędnymi cechami
do bycia liderem są: asertywność, odwaga, umiejętność radzenia sobie ze stresem, upór
i stanowczość. Natomiast specjaliści z zarządzania lubią podawać przykład czterech różnych zachowań przywódczych:
–
pierwszym z przywódców jest lider bezpośredni, który potrafi jasno informować
podwładnych o zadaniach i możliwych sposobach ich realizacji. Nie kontroluje
ich jednak, uznając samo wydanie polecenia za wystarczające. Brak mu także
życzliości i przyjaznego stosunku do współpracowników;
lider wspierający, odwrotnie niż lider bezpośredni, jest przyjazny i życzliwy wo–
bec pracowników, wykazuje zainteresowanie ich sprawami osobistymi i pomaga
w kłopotach;
–
lider partycypacyjny konsultuje się z innymi członkami organizacji przed podjęciem decyzji;
–
lider zorientowany na wyniki wyznacza trudne i motywujące cele oraz oczekuje, że jego ludzie będą starali się jak najlepiej je wypełniać.
W czasie rekrutacji na stanowiska menedżerskie często kandydatów sprawdza się testami psychologicznymi (np. testami Redlina). Pozwalają one w stosunkowo prosty sposób zbadać, jak kandydat będzie się zachowywał jako menedżer lub lider zespołu. Według większości testów, istnieją cztery typy menedżerów: wyizolowany, gorliwy, przyjacielski
i kompleksowy. Każdy z nich preferuje inne sposoby rozwiązywania problemów, komunikowania się z podwładnymi, wyznaczania i osiągania celów.
Najgorszym typem menedżera jest typ wyizolowany, koncentruje się on na pracy
biurowej, jest dokładny, nawet pedantyczny, kieruje się wyłącznie regulaminem, a z podwładnymi spotyka się tylko w windzie. Właściwie osoby o tych cechach w ogóle nie powinny sprawować funkcji kierowniczych, większy sukces odniosą, gdy będą specjalistami
w swoich dziedzinach.
Recenzje i informacje
181
Typ przyjacielski to dusza towarzystwa, lubi nawiązywać kontakty z ludźmi, jest bardzo wyczulony na ich problemy. Równocześnie często jest zbyt miękki w egzekwowaniu
efektów pracy podwładnych. Wszyscy go lubią, ale zespół stopniowo zostaje w tyle, za
resztą firmy.
Menedżer gorliwy to dokładne przeciwieństwo. Byłby dobrym wojskowym, ale w firmie
rzadko się sprawdza. Osoba, mająca cechy menedżera gorliwego, często potrzebna jest
na krótko do rozwiązania palących problemów albo wyciągnięcia firmy z upadłości, dociska pasa, ale po pewnym czasie zespół jest tak wykończony, że efektywność pracy spada. On sam szybko się wypala, często stając się menedżerem wyizolowanym, choć z wielkim doświadczeniem zarządczym.
Najbardziej cenionym menedżerem wśród pracodawców jest osoba potrafiąca znaleźć równowagę pomiędzy zajmowaniem się ludźmi a wykonywaniem powierzonych zadań. W czasie realizacji projektu zadania i ludzie są dla niego jednakowo ważni. Należy
dobrze planować pracę, motywować, a jednocześnie dyskretnie kontrolować zespół. Trzeba
też dbać o opinie podwładnych, gdyż inaczej zespół rozpadnie się przed czasem. Takie cechy mają tylko najlepsi – menedżerowie kompleksowi.
Jak radzi doradca personalny, zanim przyjmiemy posadę albo awans na przełożonego, warto zastanowić się, jakim menedżerem będziemy. Można udać się do psychologa i przejść przez testy, które z dużym prawdopodobieństwem wskażą nasze cechy. Jeśli
nie mamy takiej możliwości, należy przeanalizować, jak zachowujemy się w sytuacjach wydawania poleceń, przekazywania informacji, w kontaktach z przyjaciółmi i osobami obcymi. Awans to często wyższe wynagrodzenie, ale większą satysfakcję czasami może dać
nam praca na stanowisku specjalisty. Nie każdy jest Winstonem Churchillem lub Billem
Gates’em.
182
Recenzje i informacje
4. Menedżer przedsiębiorczy i jego oddziaływanie na organizację
Przedsiębiorczość należy dzisiaj do najczęściej używanych terminów w naukach ekonomicznych. Niestety, powszechności stosowania tego pojęcia nie towarzyszy jednoznaczność jego rozumienia, jest ono dalekie od klarowności. Intuicyjnie wyczuwamy, iż przedsiębiorczość to nie to samo co podejmowanie jakiegoś przedsięwzięcia lub posiadanie
przedsiębiorstwa [Kwiatkowski 2000 s. 77]. Mała firma ma konkretnego przedsiębiorcę
[Gruszeczki 1994 s. 183], przedsiębiorczość występuje jednak również w przedsiębiorstwach wielkich.
Być może, dlatego pierwsze sformułowania przedsiębiorczości wyprowadzane są z funkcji realizowanych przez przedsiębiorcę. J. Schumpeter, uważany za twórcę podwalin rozwoju przedsiębiorczości, powołuje się na J.B. Saya, który stwierdził, iż funkcją przedsiębiorcy jest kombinowanie czynników produkcji [Schumpeter 1960 s. 120]. Jest to przy tym
działalność specjalnego rodzaju, gdy czynniki zostają połączone po raz pierwszy, łączenie ich w trakcie prowadzenia przedsiębiorstwa jest jedynie zwykłą rutyną. Przedsiębiorczość obejmuje pięć następujących przypadków:
–
wprowadzenie nowego towaru, z jakim konsumenci nie są jeszcze obeznani, lub
nowego gatunku towaru,
–
wprowadzenie nowej metody produkcji,
–
otwarcie nowego rynku,
–
zdobycie nowego źródła surowców lub półfabrykatów,
–
przeprowadzenie nowej organizacji przemysłu, np. stworzenie sytuacji monopolistycznej lub złamanie pozycji monopolistycznej.
Obok klasycznej koncepcji Schumpetera możemy wyróżnić inne spojrzenia na przedsiębiorczość. Jednym z nich jest koncepcja definiująca przedsiębiorczość jako spostrzeganie
i wykorzystywanie szans przedsiębiorczych, której autorstwo przypisuje się I. Kirznerowi.
Szanse przedsiębiorcze to takie sytuacje, w których mogą być wprowadzane na rynek
nowe produkty, usługi, surowce i metody organizacyjne, sprzedawane po cenach wyższych
niż wynosi koszt ich produkcji. Owe szanse istnieją obiektywnie w świecie, natomiast proces ich spostrzegania ma charakter subiektywny i jest właściwy dla jednostek przedsiębiorczych.
Stąd działanie przedsiębiorcze lidera w firmie związane jest przede wszystkim z inicjowaniem projektów, kreatywnym rozwiązywaniem problemów, podejmowaniem ryzyka,
tworzeniem i wykorzystywaniem okazji oraz elastycznym dostosowywaniem do otoczenia.
Są to zachowania ściśle sprzężone z cechami, które układają się w pewien zbiór, stanowiący syndrom (predyspozycji/kwalifikacji) menedżera przedsiębiorczego (lidera). Na ten
syndrom składają się:
–
motywacja osiągnięć zawodowych,
–
poczucie umiejscowienia kontroli wzmocnień,
–
podejmowanie ryzyka,
–
tolerowanie niepewności,
–
wzór zachowania A.
Motywację osiągnięć określa się jako zainteresowanie współzawodnictwem z pewnym
wzorem doskonałości, jest to więc skłonność człowieka do rywalizowania, także z samym
sobą. Motywacja napędza człowieka do sukcesu zawodowego, do podejmowania pracy
jako celu samego w sobie. Menedżer taki potrafi skupić wokół siebie i realizowanych celów współpracowników i skutecznie nimi kierować. Jednostki takie charakteryzują się
wewnętrznym poczuciem kontroli wzmocnień, co oznacza, iż są przekonane, że sprawują
kontrolę, panują nad własnym życiem. Są gotowe do ponoszenia odpowiedzialności za
skutki podejmowanych przez siebie decyzji. Umiejscowieniu kontroli towarzyszą inne,
ważne dla lidera cechy: wysoka samoakceptacja, skłonność do racjonalnego wykorzystania doświadczeń, nonkonformizm i brak lęku przed utratą pracy.
Recenzje i informacje
183
Dwie kolejne zmienne syndromu lidera, podejmowanie ryzyka i tolerowanie niepewności, związane są ze sposobem dokonywania wyborów, tj podejmowania decyzji. Sposoby te charakteryzuje często kreatywność, kreatywne decyzje mają znamiona racjonalności i wywołują działania o tym charakterze. Towarzyszy im bowiem szacowanie potencjalnych szans i strat (kalkulowanie ryzyka) odnośnie do działań oraz unikanie hazardu
oraz zdawania się na przypadek.
Wreszcie wzór zachowania A, wyrażający się dążeniem do osiągnięcia jak największej liczby celów, w możliwie krótkim czasie, wskazuje na ekspansywność i dynamikę lidera. Jeśli chce on odnosić sukcesy, musi wyprzedzać rywali i nie może zadowalać się dotychczasowymi osiągnięciami.
5. Rekomendacje dla skutecznego lidera w organizacji
Oto kilka sugestii do praktycznego wykorzystania przez menedżerów różnych szczebli, czyli liderów na swoim poziomie2:
Efektywność
Pewien stary przyjaciel z Kalifornii odwiedził prezydenta Regana w Białym Domu, bez
pośpiechu zjedli lunch, zagrali w golfa, później prezydent zaprosił przyjaciela na wieczór.
Gość był zdumiony, zapytał: „Czy nie musisz iść na żadną konferencję? Czy nie musisz
rządzić krajem?”. Prezydent sprawiał wrażenie zdziwionego i odpowiedział: „Nie, mam
wielu świetnych ludzi, którzy za mnie się tym wszystkim zajmą”. Praca przez cały dzień i całą noc nie jest wstępnym warunkiem powodzenia przywódcy. Do tego konieczne są trzy
rzeczy:
–
że się jest w czymś świetnym, to wymaga prawdziwej koncentracji, wysiłku i zaangażowania;
–
że się ciągle deleguje, wiedzieć, w czym się nie jest dobrym, i pozwalać to robić
innym, przypisywać im za to całą chwałę;
–
że skupia się uwagę na tym, co jest ważne, trzeba mieć jasne cele osobiste, które
pomogą w określeniu priorytetów, co będzie się robiło.
Delegowanie uprawnień, upełnomocnianie
Zaufanie przywódcy, delegowanie uprawnień i upełnomocnianie to jego cenna i niezbędna cecha. W przeszłości przywódcy delegowali uprawnienia i upełnomocniali swoich
podwładnych nie zastanawiając się nad tym. Kiedy okręt wyruszał z Europy do Indii czy
do innych kolonii i gdy powstawały problemy, kapitan nie odwoływał się do centrali. Przejmował on kontrolę i musiał wykazywać się inicjatywą. Nie popełni błędu żaden kapitan,
który podpłynie do burty nieprzyjacielskiego okrętu, innymi słowy, atakuj, nie pytaj o radę.
Dzisiaj, jeżeli chcemy obniżyć o pięćdziesiąt groszy cenę środka piorącego, pojawiają
się komitety, analizy, prezentacje, grupy badawcze, ożywi się cała gama instrumentów nadzoru i pomocy ze strony władz korporacji. O ironio, nazywają to delegowaniem i upełnomocnianiem. Kiedy już przystąpimy do działania, wciąż znajdujemy się pod mikroskopem.
Są tygodniowe i miesięczne sprawozdania, aktualizacje planów w miarę postępów prac,
sprawozdania o wyjątkowych zdarzeniach, analizy i rewizje budżetów.
2
Opracowano na podstawie: [Owen 2003 s. 53].
184
Recenzje i informacje
Demokracja i dyktatura w przedsiębiorstwie
W biznesie zazwyczaj nie chodzi o ekologię ani o zbawianie świata. Demokracja nie
jest realną alternatywą w miejscu pracy. Firmy to nie demokracje, potrzeba im jasnych
i skutecznych procesów podejmowania decyzji, powiązanych z jasną i skuteczną odpowiedzialnością osobistą. Jasność i odpowiedzialność osobista nie wynika z pracy grupowej, jest sprawą indywidualną. Musi istnieć hierarchia podejmowania decyzji. Z punktu
widzenia lidera problem polega na tym, w jaki sposób zachować kontrolę, zwiększyć zaangażowanie i podejmować skuteczne decyzje bez odwoływania się do autorytetu, wynikającego jedynie z zajmowanego stanowiska. Optymalny model, ani dyktatorski, ani demokratyczny, musi być oparty na następujących czynnikach:
–
szacunku, musi postrzegać przywódcę jako człowieka kompetentnego;
–
wzajemnym zaufaniu, muszą istnieć wspólne cele wspierane przez wytyczne
pomagające zarówno liderowi, jak i podwładnym w osiąganiu tych celów;
–
osobistej odpowiedzialności;
–
zbiorowym zaangażowaniu.
Doskonałość i entuzjazm
Doskonałość jest „świętym Graalem” przywódców, nigdy jej nie znajdują i wcale nie jest
potrzebna. Dążenie do doskonałości jest bezcelowe i marnotrawne. Wyzwanie polega na
poprawnym robieniu tego, co podstawowe, i na ciągłym doskonaleniu się, najlepiej nieco
szybciej od konkurencji.
Ludzie, także liderzy, nie są dobrzy w tym, co nie sprawia im przyjemności. Jeżeli menedżerowie nie będą odczuwać w pewnym stopniu entuzjazmu i radości, nie wykażą się
tym dodatkowym zaangażowaniem, które zapewni firmie sukces. Potrzeba także, aby ich
podejście budziło entuzjazm u podwładnych. Praktycznie w postępowaniu liderów potrzebne są cztery rzeczy:
–
sam bądź entuzjastą;
–
pokazuj, że znasz swój personel i że troszczysz się o niego;
–
zapewnij podwładnym świadomość kierunku i celu, ludzie nienawidzą niejasności i ryzyka;
–
nie ulegaj czynnikowi LNW (lęk, niepewność wątpliwości).
Lider a rozsądek
Rozsądni liderzy są niebezpieczni, dobrzy liderzy nie są rozsądni. Są oni selektywnie
nierozsądni. Nierozsądni przywódcy to tacy, którzy wymagają od firmy podjęcia niezwykłych wysiłków i osiągania celów, dotychczas nie do pomyślenia, a także umożliwiają to.
Istnieje gdzieś granica miedzy zmuszaniem firmy do nadzwyczajnych wysiłków a niszczeniem jej, między zarządzaniem nierozsądnym a szalonym. Cele, których nie wspiera skoncentrowany wysiłek całej firmy, są po prostu marzeniami na jawie. Przy wyznaczaniu nierozsądnych celów przywódca powinien:
–
zbudować koalicję wspierającą te cele;
–
spowodować, iż cele te będą dla wszystkich rzeczywistością i nie da się ich
uniknąć;
–
dostosować wszystkie nagrody i mierniki do przyjętego celu;
–
skupić zasoby firmy na tym celu;
–
elastycznie podchodzić do sposobu osiągnięcia celu, ale twardo trzymać się samego celu.
Recenzje i informacje
185
6. Zakończenie
Zawsze jest ktoś inny, kto sprawia wrażenie, że mu się lepiej powodzi. Często obiektem
takich westchnień są liderzy w organizacjach (oczywiście liderzy różnych szczebli), zwłaszcza
ze strony swoich podwładnych. Niewątpliwie być przywódcą jest przyjemnie, ale także
jest to rola odpowiedzialna i wymagająca bardzo ciężkiej pracy. Mimo powszechnego
przekonania, iż trawa jest bardziej zielona po drugiej stronie wzgórza, dobrym punktem
wyjścia jest zdanie sobie sprawy z tego, że nikt nie ma wszystkiego, nawet ci, którzy, jak
się wydaje, mają już wszystko, pragną czegoś, co jest poza zasięgiem władzy lub pieniędzy.
Literatura
Wnorowski H. 2007 Aktywność mikroekonomiczna a potencjał gospodarczy regionu, w:
Proces tworzenia kapitału w gospodarce peryferyjnej, Analiza II, Mechanizm rozwoju
gospodarczego obszarów peryferyjnych, red. K. Meredyk, Białystok.
Zawiślak A.M. 2005 Przezroczyste szaty Króla (rzecz o naukach społecznych), Working
Paper Nr 05-001, Warszawa.
Kwiatkowski S. 2000 Przedsiębiorczość intelektualna, Warszawa.
Gruszeczki T. 1994 Przedsiębiorca w teorii ekonomii, Warszawa.
Schumpeter J. 1960 Teoria rozwoju gospodarczego, Warszawa.
Owen J. 2003 Zarządzanie, czego nie uczą w szkołach biznesu, Warszawa.
OPTIMUM – STUDIA EKONOMICZNE NR 1 (37) 2008
Iwona E. BOGUCKA
RECENZJA
książki Bolesława Rafała Kuca pt. Kontrola w systemie zarządzania. Funkcje i dysfunkcje,
Wydawnictwo Menedżerskie PTM, Warszawa 2006, ss. 340.
Książka autorstwa wybitnego specjalisty Bolesława Rafała Kuca Kontrola w systemie
zarządzania. Funkcje i dysfunkcje ukazała się jakiś czas temu, lecz jej treść oraz przesłanie są nadal aktualne i poświęcone miejscu kontroli w systemie zarządzania, redukcji niepewności i doskonaleniu współczesnych systemów kontroli oraz funkcjom i dysfunkcjom
kontroli. Całość zawarta jest w 9 rozdziałach.
Dzieło można określić jako próbę całościowego i krytycznego spojrzenia na miejsce
kontroli w zarządzaniu, analizę przyczyny kryzysu kontroli wewnętrznej i narastania bezradności kontroli wewnętrznej (instytucjonalnej), dowodzące, że te procesy trwają od lat.
Zdaniem autora, większość kontroli zewnętrznych z reguły kończy się zwróceniem
uwagi na nieprawidłowości proceduralne, przypadki naruszenia prawa, brak kontrasygnaty oraz nieprawidłowości z zakresu księgowości i sprawozdawczości. Rośnie liczba
kontroli kończących się pozytywną oceną kontrolowanej działalności i brakiem istotnych
zaleceń pokontrolnych, ponieważ Inspektorzy boja się reakcji gniewu, wynikającej z ich
dociekliwości i większej niż kontrolowany wiedzy, choć ten ostatni argument traci na ważności. Kontrolujący maja „władzę”, a kontrolowani znajomości. Toczy się gra: co jest
ważniejsze? Kontrola tę grę niestety przegrywa.
Otwierając opracowanie, autor omawia teoretyczne podstawy kontroli, przytaczając
wypowiedzi polskich i zagranicznych uczonych, określając miejsce kontroli w cyklu działania zorganizowanego, a zwłaszcza jej rolę w zarządzaniu, umiejętnie podkreślając, że
jest ona narzędziem oddziaływania państwa (IV władzą), wskazując jednocześnie kierunki ewolucji oraz pułapki, jakie czekają i czyhają na kontrolę, która chciałaby być użyteczną, ale nie ekspansywną funkcją zarządzania i rządzenia.
Następny rozdział nakreśla miejsce kontroli oraz wskazuje na jej niezbędność w zarządzaniu, można w nim przeczytać, że niezależnie od tego, kto w stosunku do kogo sprawuje kontrolę, sam wyraz „kontrola” budzi nieprzyjemne skojarzenia, gdyż wydaje się, że
to, co się pod nim kryje, zagraża osobistej wolności i samodzielności, ale nie należy tego
traktować w kategoriach utopii organizacyjnej.
Nie po raz pierwszy profesor, ze znanym sobie kunsztem, podkreśla w dalszych rozważaniach, że już nie wystarczy zwracać uwagę na kontrolę w charakterze ex post, coraz
częściej mówi o potrzebie uruchomienia kontroli antycypacyjnej (wyprzedzającej), która
wykrywa odchylenia od wzorców lub ustaleń w takim momencie ich powstania, aby
umożliwić ich korektę, zanim poszczególne fazy ich działania zostaną ukończone (jednym
słowem, zdążyć przed błędem!) – tym samym uświadamia trudności związane z pozyskiwaniem informacji oraz właściwym wyciąganiem wniosków. Stwierdza też, że dziś nie
wystarczy wyłącznie zainteresowanie przeszłością, aby wyciągać wnioski dla przyszłości,
wskazuje na potrzebę prowadzenia kontroli strategicznej, która za przedmiot badań przyjmie sprawdzenie słuszności obierania, takich, a nie innych układów odniesienia, ponieważ
kontrola strategiczna uczy wyboru reakcji na występującą niepewność i złożoność otoczenia.
Recenzje i informacje
187
Nie bez znaczenia, zdaniem autora, pozostaje kontrola finansowa, która jest obecna
we wszystkich dziedzinach życia organizacyjnego, a w niektórych wręcz dominuje, będąc
wyjątkowo złożonym i bogatym zespołem operacji mechanizmów oraz narządzi, które
tworzą jej system. Konkludując autor stwierdza, że wszyscy boleją nad słabością kontroli
wewnętrznej, co wcale nie przeszkadza, a wręcz odwrotnie, niejako tłumaczy rozwój instytucji kontroli wyspecjalizowanej, zewnętrznej w stosunku do sfer działań gospodarczych i administracyjnych.
Spośród prezentowanych treści opracowania na szczególna uwagę zasługują te, które wyraźnie rozpatrują obraz kontroli jako funkcji zarządzania i jako narzędzia nowoczesnego zarządzania, a także rozważania dotyczące narastającego głębokiego kryzysu kontroli wewnętrznej, określanego mianem dysfunkcji.
Autor ujmuje zjawisko dysfunkcji w kategoriach holistycznych, określając dysfunkcje
współczesnych systemów kontroli jako przejawy patologii mające miejsce w systemie
kontroli instytucjonalnej i funkcjonalnej. Treść rozdziału 8. pogłębia naszą wiedzę o skutkach nadczynności aparatu kontroli oraz zjawisku autonomizacji kontroli, w których profesor zaznacza istnienie i postrzeganie kontroli współcześnie w kategoriach hipertrofii, zastrzegając, że nie jest ona zjawiskiem nowym i wskazuje przyczyny i miejsca jej częstego
występowania, do których zalicza każdy słaby system polityczny, w którym łatwiej jest
inicjować kolejne procesy kontroli, niż projektować trwale urządzenia prawno-organizacyjne eliminujące ich potrzebę.
W opracowaniu odnajdujemy klucz do odpowiedzi na wiele nurtujących pytań (wczoraj i dziś), np.: gdzie szukać przyczyn dysfunkcji kontroli? – w poprzednim ustroju były to
przyczyny polityczne, bezwzględny fiskalizm, sprzeczne przepisy podatkowe i znaczna
dowolność ich interpretacji. Dzisiaj – nadczynność kontroli, autonomizacja i ofensywny
styl pracy kontrolera, błędy zarządzania rzutujące na błędy kontroli, przypisywanie zbyt dużej wagi czynnikom łatwo mierzalnym, podczas gdy nie zwraca się dostatecznej uwagi na
sprawy, które trudno jest mierzyć. Problem ten występuje, dlatego że łatwiej i szybciej można mierzyć efektywność czynników poddających się kwantyfikacji. Tendencję do nadmiernego podkreślania czynników krótkookresowych kosztem długookresowych, a także brak
elastyczności w dostosowaniu systemów kontroli do zmiany znaczenia w czasie różnych
rodzajów celów zadań i czynności. Niedostosowanie do zmieniającego się przedmiotu
badań metod kontroli i lekceważenie sposobów reagowania na nią może prowadzić do
różnego rodzaju odstępstw, a nawet wynaturzeń działań kontrolnych, których skutki pozostają w sprzeczności z oczekiwaniami.
Wiele miejsca profesor poświęca odpowiedzi na pytanie: dlaczego mechanizm ten nie
funkcjonuje sprawnie? Powszechnie występująca błędna ocena potrzeb, co do zakresu
intensywności i rangi kontroli, jest najczęściej wynikiem niedostatecznego jej przygotowania (preparacji), a w szczególności świadczy o niezrozumieniu jej celu i nieznajomości środków i warunków, które do osiągnięcia tego celu są najbardziej wskazane. Względnie trwałe
wynaturzenia i niesprawności czynności kontrolnych nazywa się dysfunkcjami kontroli.
Źródła dysfunkcji występują w przyjętej strategii i organizacji procesów kontroli, bywają pogłębiane w fazie wykonawczej za sprawą osobowości kontrolerów. Niezależnie od
tego, dysfunkcje kontroli są często przejawem stereotypów funkcjonujących w świadomości ludzi decydujących o działaniu, którzy ufają bardziej własnemu doświadczeniu aniżeli obiektywnej analizie realiów sytuacji. Paradoksalnie, nieskuteczność kontroli instytucjonalnej nie przyczynia się do jej osiągnięcia, wręcz przeciwnie, sprzyja jej rozbudowaniu, aby tym sposobem osiągnąć większą efektywność.
Zdaniem autora, stosowanie aktywnych i bezpośrednich form kontroli, wyprzedzających zaistnienie błędów w procesie wykonawczym, zwiększa prawdopodobieństwo zgodności rezultatów z tym, co zostało zaplanowane. Im więcej dyskretnych i bezpośrednich
form kontroli, tym większe prawdopodobieństwo, że uzyska się wysoką jakość działania
za pierwszym razem, ma to szczególne znaczenie w działalności gospodarczej dla umocnienia pozycji firmy na rynku w warunkach konkurencji i niepewności.
188
Recenzje i informacje
Wielkie wyzwanie dla systemów biznesowych stanowi coraz bardziej niestabilne otoczenie. Nieoczekiwane i zaskakujące zmiany dokonujące się w otoczeniu wymagają szybkich odpowiedzi ze strony tych systemów. Rozwiązania mogą iść dwoma torami: albo zwiększamy rygoryzm i centralizujemy decyzje, dając szerokie uprawnienia jednoosobowym
przedstawicielom władzy, albo zwiększamy autonomię podmiotów działających, zdolnych
do samoorganizacji. Samoorganizacja to pojęcie powstałe w ramach paradygmatu złożoności, który tworzyli fizycy chemicy i matematycy. To nie tylko uporządkowanie przestrzenno-czasowe, ale również mobilizacja kompetencji, wyposażenia, adaptacji, a więc tworzenia lokalnych reguł.
Podsumowaniem jest stwierdzenie, że istotnym elementem efektywnego systemu kontroli jest silna świadomość jej potrzeby, a najważniejszym ogniwem jest samokontrola, na
którą składa się wszystko, co powoduje, że pracownikowi chce się naprawiać błąd a nawet nie dopuścić do jego wystąpienia, zaś wszystkie formy kontroli mają swoje plusy i minusy. Nie należy zapominać, że kontrola jest środkiem, a nie celem a kontrola jest taka,
jakie jest zarządzanie (rządzenie), czyli model kontroli odpowiada modelowi zarządzania.
Natomiast integracja kontroli z zarządzaniem jest postulatem idealizującym pewien typ
stosunków społecznych, w których gospodarka narodowa wkomponowana w kooperujące
otoczenie jest traktowana jako zintegrowana całość.
Praca Bolesława Rafała Kuca jest dziełem bardzo wysokiej troski o efektywny system
kontroli, wyprzedzający zaistnienie błędów, redukcję niepewności i racjonalne zarządzania. Z tego też powodu znaleźć powinna wielkie zainteresowanie wielu osób i organizacji,
dla których losy kontroli nie mogą być obojętne.
OPTIMUM – STUDIA EKONOMICZNE NR 1 (37) 2008
Eugeniusz KOŚMICKI
RECENZJA
książki Martina Jänicke, Philipa Kunig, Michaela Stitzel pt. Umweltpolitik. Lern- und Arbeitsbuch. Politik, Recht und Management des Umweltschutzes in Staat und Unternehmen (Polityka ekologiczna. Książka do nauki i pracy. Polityka, prawo, zarządzanie ochroną środowiska
w państwie i przedsiębiorstwie), 2. Aufl., Verlag J. H. W. Dietz Nachf, Berlin 2005, ss. 455.
Profesorowie M. Jänicke, P. Kunig, M. Stitzel należą do znanych, uczonych niemieckich zajmujących się ochroną środowiska. Są oni pracownikami naukowymi Wolnego
Uniwersytetu w Berlinie. Przy tym autorzy pozostają przedstawicielami różnych dyscyplin
naukowych: politologii (M. Jänicke), prawa (P. Kunig) i ekonomii (M. Stitzel). Omawiana
książka przeznaczona jest zarówno dla osób pragnących pogłębić swoją wiedzę o ochronie środowiska, jak i dla praktyków życia gospodarczego i politycznego. Autorzy książki stawiają podstawowe pytania związane ze współczesną ochroną środowiska. Co to jest polityka ekologiczna? Kim są jej główni „aktorzy”? Jakie stosuje się współcześnie podstawowe jej instrumenty i jakie są warunki jej sukcesów? Czy można poprawić współczesną sytuację ekologiczną? Jaką rolę odgrywa państwo, społeczeństwo i przedsiębiorstwa w ochronie środowiska? Zwraca się przy tym uwagę na problemy polityczne, prawne i ekonomiczne ochrony środowiska, które omawia się w kontekście narodowym i międzynarodowym (unijnym i globalnym).
Omawiana książka jest wyjątkowo obszerna (łącznie 455 stron) i składa się z czterech
podstawowych części (Wprowadzenie; Polityka ekologiczna; Prawo środowiskowe; Zarządzanie ochroną środowiska w przedsiębiorstwie). Wszystkie części i rozdziały pracy zawierają obszerną, najnowszą literaturę przedmiotu, a książka kończy się obszernym słowniczkiem pojęć stosowanych w pracy. We Wprowadzeniu autorzy zwracają uwagę na podstawowe założenia teoretyczne przyjęte w książce, jej układ, główne problemy, które stanowią podstawę opracowania. Pod pojęciem polityki ekologicznej rozumieją oni sumę środków publicznych, które mają na celu usunięcie, zmniejszenie i zapobieganie obciążeniom
środowiska. Natomiast prawo środowiskowe jest pojęciem zbiorczym na określenie wszystkich przepisów prawnych, które wyznaczają wewnątrzpaństwowe i międzynarodowe warunki normatywne w zakresie rozwiązywania problemów środowiska. Zarządzania środowiskowe w przedsiębiorstwie obejmują działania przedsiębiorstw, aby przy realizacji swoich podstawowych zadań ekonomicznych minimalizować oddziaływanie na środowisko.
Do podstawowych założeń książki należy przekonanie, że zachowanie naturalnego
środowiska wiąże się z efektywnym współdziałaniem polityki ekologicznej, prawa środowiskowego, jak też działań proekologicznych w przedsiębiorstwach. Takie przedsięwzięcie wymagało interdyscyplinarnego podejścia, co stanowi cechę tej książki. Innym założeniem jest orientacja na zagadnienia zarządzania.
Najobszerniejsza część dotyczy polityki ekologicznej (s. 30 – 157). Polityka ta posiada
już ponad stuletnią tradycję, chociaż ostatecznie ukształtowała się ona w Niemczech dopiero na przełomie lat sześćdziesiątych i siedemdziesiątych ubiegłego wieku. Część o polityce ekologicznej obejmuje następujące, podstawowe problemy: politykę ekologiczną
w Niemczech; charakterystykę analiz politologicznych i polityki ekologicznej; charakterystykę działań w polityce ekologicznej; dynamikę rozwoju polityki ekologicznej; a wreszcie glo-
190
Recenzje i informacje
balizację polityki ekologicznej. Przy tym wyróżnić można następujące etapy rozwoju polityki ekologicznej w Niemczech:
–
lata 1969 – 1973: faza początkowa niemieckiej polityki ekologicznej; inicjatywa
państwa przy biernym nastawieniu przedsiębiorstw;
–
lata 1974 – 1982: w okresie kryzysów naftowych (1973, 1979) wystąpiło osłabienie tempa rozwoju niemieckiej polityki ekologicznej. Główna jej strategia polegała na rozpraszaniu substancji szkodliwych w środowisku, uzupełnionej przez
politykę „końca rury” (end of the pipe);
–
lata 1983 – 1987: charakteryzują się dyskusją o zagrożeniu lasów („umieranie
lasów” – Waldsterben) i wejściem Zielonych do niemieckiego parlamentu, co
doprowadziło do znacznej aktywności państwa niemieckiego w zakresie środowiska;
–
lata 1988 – 1993: cechują się pojawieniem nowych danych o różnych zagrożeniach
ekologicznych, międzynarodowymi działaniami (Konferencja w Rio), a także rozwojem tendencji do ekologicznej modernizacji;
–
lata 1994 – 1998: dochodzi do ponownego spowolnienia niemieckiej polityki
ekologicznej;
–
od 1998 do dzisiaj: pojawienie się nowych inicjatyw w zakresie ochrony środowiska.
Do najważniejszych „aktorów” w dziedzinie ochrony środowiska należą w Niemczech:
Federalne Ministerstwo Środowiska, Ochrony Przyrody i Bezpieczeństwa Reaktorów, Federalny Urząd Środowiskowy, Federalny Urząd Ochrony Środowiska. Do tego dochodzą
jeszcze różnorodne gremia ekspertów (m.in. Rada Ekspertów ds. Problemów Środowiska, Naukowa Rada Doradcza Globalne Zmiany Środowiska, komisja parlamentarna). Następnie ważne znaczenie posiadają różnorodne organizacje ochrony środowiska (4 mln
członków). Ruch ekologiczny posiada w Niemczech znaczny potencjał organizacyjny, naukowy i publikacyjny. Do pozostałych aktorów polityki ekologicznej należą przedsiębiorstwa zorientowane ekologicznie, a także instytucje naukowe. Do specyficznych cech niemieckiej polityki ekologicznej należy jej federacyjna struktura państwa.
Podjęcie działań ekologicznych przez państwo wiąże się z charakterystycznymi stadiami, określanymi jako „cykl polityczny” (Politikzyklus, policy cycle). Należą tutaj: postrzeganie
problemu (problem perception), tematyzacja (agenda setting), sformułowanie polityki
(policy formulation), decyzja (decision making), wprowadzenie do polityki i administracji
(implementation), ocena wyników (evaluation), ponowne zdefiniowanie polityki lub jej zakończenie (termination). Jest charakterystyczne, że problemy ekologiczne wymagają odpowiedniej percepcji przez aktorów politycznych. Dopiero wtedy możliwe jest wejście określonych problemów do działań polityczno-instytucjonalnych (agenda setting). Dochodzi
stopniowo do sformułowania środków politycznych w formie ustaw, zarządzeń, planów
i programów. Faza wprowadzania w życie określonych środków polityki ekologicznej wiąże się z działaniami administracji, a zwłaszcza jej efektywnym działaniem. Współcześnie
mówi się coraz częściej nie tylko o publicznej polityce ekologicznej (public policy), ale także
o publicznym zarządzaniu ekologicznym (public management), które oznacza koncentrowanie się na specyficznych celach zarządzania.
Sukcesy polityki ekologicznej uwarunkowane są takimi determinantami i warunkami,
jak: struktura problemów, „aktorzy polityki ekologicznej”, strategie, systemowe warunki
działania i sytuacyjne warunki działania. Struktura problemów polityki ekologicznej wyznaczana jest przez postrzeganą pilność problemów i możliwości ich rozwiązania. Aktorom (protagonistom) przeciwstawiają się zawsze przeciwnicy tych działań. Strategia działania poszczególnych aktorów polityki zależy od systemowych warunków działania (suma
relatywnie stabilnych szans i ograniczeń) i sytuacyjnych warunków działania (suma zmieniających się szans i ograniczeń). Problemy ekologiczne wiążą się nie tylko z przyrodniczymi, ale także społecznymi wymiarami problemu (a więc możliwościami upolitycznienia
problemu, władzą, wyboru opcji). Do stabilnych, systemowych warunków sukcesu polityki
Recenzje i informacje
191
należą czynniki: ekonomiczno-techniczne, polityczno-instytucjonalne, społeczno-kulturowe, a także poznawczo-informacyjne.
W ujęciu M. Jänicke, instrumenty polityki ekologicznej można podzielić na: instrumenty prawa administracyjnego, instrumenty planistyczne, instrumenty ekonomiczne, instrumenty kooperacyjne i instrumenty informacyjne. Administracyjne nakazy i zakazy należą
od dawna do preferowanych środków polityki ekologicznej, chociaż wywołują one niekiedy silne reakcje obronne. Ponadto, charakteryzują się one brakiem elastyczności. Polityka ekologiczna musi charakteryzować się zróżnicowaniem instrumentów, tworząc charakterystyczny wzorzec polityczny (w tym: styl uprawiania polityki i polityczno-instytucjonalny kontekst działania). Obecnie coraz większe znaczenie posiadają narodowe plany
ochrony środowiska lub przynajmniej formalne strategie narodowe.
W zakresie polityki ekologicznej możemy wyróżnić różnorodne strategie: naprawę
i działania kompensacyjne w zakresie szkód ekologicznych, addytywną technikę środowiskową, ekologiczną modernizację, a także ekologiczne zmiany strukturalne. Wraz z ekologiczną modernizacją polityka ekologiczna staje się coraz bardziej zapobiegawcza. Polega
ona na zastosowaniu techniki proekologicznej w całym procesie produkcyjnym, w celu
zmniejszenia zużycia i ograniczenia emisji do środowiska. W przypadku ekologicznych
zmian strukturalnych chodzi o pełne urzeczywistnienia ochrony środowiska w gospodarce
i społeczeństwie. Jak dotąd, duże znaczenie posiada nadal tzw. addytywna polityka środowiskowa (a więc polityka „końca rury”),a zbyt mało korzysta się z szansy ekologicznej
modernizacji. Współczesna nowoczesna polityka ekologiczna obejmuje triadę: planowanie środowiskowe, ekologiczną reformę podatkową i zorientowaną na innowacje techniczne i organizacyjne strategię ochrony środowiska.
Charakterystyczną cechą polityki ekologicznej stała się ostatnio jej globalizacja, która
przejawia się na płaszczyźnie międzynarodowej i narodowej. Obecnie istnieją już instytucje międzynarodowe (UNEP, CSD), następuje – przynajmniej częściowa – ekologizacja
istniejących dotąd organizacji międzynarodowych (m.in. OECD i Bank Światowy), występuje rosnące znaczenie międzynarodowych organizacji pozarządowych i międzynarodowych raportów. Zachodzi obecnie ujednolicenie polityki ekologicznej między państwami,
m.in. poprzez: powstanie ministerstw ochrony środowiska, globalne powiązanie instytucji
rządowych, przyjmowanie innowacji polityki ekologicznej. W zakresie środowiska dużą
rolę odgrywają tzw. kraje pionierskie (obecnie zwłaszcza: Holandia, Dania, Szwecja, Niemcy). Niestety nadal brakuje odpowiednich sukcesów ekologicznych w zakresie: zaopatrzenia w energię, transportu, rolnictwa i budownictwa.
Trzecia część książki Polityka ekologiczna poświęcona jest problematyce prawnej
(s. 159 – 288). Problematyka ta posiada kluczowe znaczenie w zakresie zarządzania środowiskiem. W części tej omówiono takie problemy, jak: środowisko jako temat prawny,
podstawy niemieckiego prawa środowiskowego, instrumenty kształtowania prawa ekologicznego, najważniejsze części składowe prawa środowiskowego, znaczenie prawa międzynarodowego w ramach międzynarodowej polityki ekologicznej, czy wreszcie, szanse
i granice prawa w zarządzaniu środowiskiem. W przypadku prawa środowiskowego coraz
większe znaczenie odgrywa obecnie europejski porządek prawny. Przy tym najważniejsze znaczenie posiadają dyrektywy europejskie, które mają podstawowe znaczenie dla
prawa krajowego. Europeizacja prawa środowiskowego osiągnęła obecnie taki zakres, że
trudno jest niekiedy rozróżnić pomiędzy europejskim a niemieckim prawem środowiskowym.
Prawo środowiskowe oparte jest na zasadach sprawstwa, zapobiegania, kooperacji.
Ponadto, wymienia się jeszcze takie zasady, jak: zasadę obciążenia ogółu, zasadę substytucji, zasadę ostrożności, a także zasadę trwałego rozwoju. Zasada sprawstwa posiada podstawowe znaczenie dla całego współczesnego ustawodawstwa. Autora tej części – P. Kuniga – interesuje przede wszystkim „prawo środowiskowe” w ujęciu administracyjnego prawa środowiskowego (pomija on tzw. prywatne prawo środowiskowe, a także
środowiskowe prawo karne). Obecnie w Niemczech trwają intensywne prace nad Kodek-
192
Recenzje i informacje
sem prawa środowiskowego, obejmującego część ogólną i szczegółową. Do części szczegółowej zalicza się: prawo ochrony przyrody, ochrony wód, w zakresie odpadów, utrzymania czystości powietrza i zwalczania hałasu, ochrony gleb, ochrony przed promieniowaniem, ochrony przed niebezpiecznymi substancjami. P. Kunig omawia szczegółowo
prawo środowiskowe w zakresie zwalczania zanieczyszczenia powietrza i hałasu, prawo
w zakresie gospodarki odpadami i gospodarkę opartą na cyklach przyrody (Kreislaufwirtschaft), a także ochronę przyrody i krajobrazu. Wskazuje się na osiągnięcia w tym zakresie, ale również na istniejące jeszcze opóźnienia i główne problemy konieczne do rozwiązania.
Obok prawa środowiskowego o charakterze wewnętrznym istnieje jeszcze prawo
międzynarodowe, które wyznacza warunki dla międzynarodowej polityki ekologicznej.
Podmiotami prawa międzynarodowego są państwa, a ostatnio także organizacje międzynarodowe. Coraz większą rolę odgrywają obecnie międzynarodowe organizacje pozarządowe, chociaż formalnie nie posiadają one podmiotowości prawnej w prawie międzynarodowym. Charakterystyczne dla międzynarodowego prawa środowiskowego są nadal
słabe mechanizmy jego wprowadzenia w życie i egzekwowania. Szczególny rozwój prawa międzynarodowego wystąpił od czasów Konferencji w Sztokholmie (1972 r.), Konferencji w Rio (1992 r.), Konferencji w Johannesburgu (2002 r.), m. in. w postaci multilateralnego systemu umów (konwencji). Aby przybliżyć problematykę tego prawa, M. Kunig
przedstawia szczegółowo ochronę klimatu, utrzymanie różnorodności biologicznej, a także utrzymanie czystości mórz. Prawo międzynarodowe wykazuje nadal szereg niedostatków, pomimo wielu dyskusji i konferencji międzynarodowych. Dopiero stopniowo rozwijają się instytucjonalne warunki w zakresie ochrony środowiska w skali globalnej, chociaż
nadal brakuje odpowiedniej organizacji międzynarodowej.
Czwarta część książki Polityka ekologiczna poświęcona jest ochronie środowiska w przedsiębiorstwie (s. 289 – 421). Wiadomo, że polityka ekologiczna i prawo środowiskowe wyznaczają warunki, w obrębie których przedsiębiorstwa realizują swoje własne cele. Rozważania M. Stitzela obejmują cztery podstawowe problemy: stosunek przedsiębiorstw do otaczającego środowiska przyrodniczego i społecznego; problem orientacji ekologicznej funkcji przedsiębiorstwa w zakresie wytwarzania dóbr; działania w przedsiębiorstwie zorientowane na środowisko, czy wreszcie, rozważania o strategicznym zarządzaniu. Dotychczasowe doświadczenia wskazują – według M. Stitzela – na następujące podstawowe założenia: jakość naturalnego środowiska zależy w dużym stopniu od działań przedsiębiorstw;
dla przedsiębiorstw najważniejsze znaczenie posiada sukces gospodarczy, czy wreszcie,
że przedsiębiorstwa mogą podejmować inteligentne rozwiązania ekologiczne – mogą
odnosić sukcesy gospodarcze, a jednocześnie chronić otaczające środowisko.
Jest oczywiste, że duża część obciążeń środowiska wynika bezpośrednio i pośrednio
z działań gospodarczych przedsiębiorstw. Stąd też konieczne są dwa warunki, aby przedsiębiorstwo minimalizowało swoje oddziaływanie na środowisko: strategia i instrumenty
orientacji – na ochronę środowiska w przedsiębiorstwie („zarządzanie ochroną środowiska”), a także poprawa współdziałania polityki ekologicznej, prawa środowiskowego i zarządzania ochroną środowiska w przedsiębiorstwie. Jest charakterystyczne, że przedsiębiorstwa w różnym zakresie obciążają środowisko. Przedsiębiorstwa wywołują tzw. efekty
zewnętrzne swojej działalności, gdyż ich działania oparte są na indywidualnym maksymalizowaniu korzyści i pomijaniu oddziaływań na osoby trzecie. W nowoczesnych społeczeństwach przemysłowych zachodzi zjawisko określane jeszcze przez G. Hardina jako „tragedia
dóbr wspólnych”, gdyż gospodarka pozostawiona samej sobie może łatwo spowodować
„niepohamowany proces niszczenia środowiska”. Najważniejsze znaczenie posiadają
tutaj nadal normy środowiskowe (nakazy i zakazy), a także instrumenty ekonomiczne.
Znaczenie ochrony środowiska występuje zazwyczaj na dalszych miejscach w hierarchii
celów przedsiębiorstwa.
Przedsiębiorstwa dążą współcześnie do ochrony środowiska. Na podstawie szczegółowych badań można wskazać na trzy podstawowe motywy: etyczne, unikanie gospodar-
Recenzje i informacje
193
czych szkód dla przedsiębiorstw, a także uzyskanie korzyści gospodarczych. Ochrona
środowiska jest możliwa tylko wtedy, gdy jest częścią zarządzania środowiskiem w przedsiębiorstwie. Chodzi tutaj o uwzględnienie ochrony środowiska w logistyce, produkcji, zbycie
i marketingu przedsiębiorstwa, a także w takich działaniach, jak: ecocontrolling (ekologiczna
kontrola przedsiębiorstwa), organizacja i zarządzanie kadrami. Logistyka obejmuje sterowanie systemami materiałów i systemami przepływów aż do ich utylizacji. Wiele do życzenia pozostawia nadal w Niemczech problem opakowań, a koncepcja tzw. zielonego punktu wcale nie rozwiązała dotychczas problemu odpadów.
Produkcja przemysłowa – w dużym zakresie – oddziałuje na środowisko. Ważne znaczenie posiada technologia stosowana w produkcji. Nie wykorzystane pozostają do tej
pory szanse czystej ochrony środowiska, tzw. clean technology, a technika opiera się nadal na technologii „końca rury”. W przedsiębiorstwach coraz większą rolę odgrywa marketing zorientowany ekologicznie, a więc oferowanie produktów, których produkcja, konsumpcja i utylizacja generują mniejsze obciążenia środowiska niż produkcja, konsumpcja
i utylizacja produktów konkurencyjnych o porównywalnych korzyściach. „Zielony marketing” może obejmować działania w zakresie produktów, warunków sprzedaży i odpowiedniej społecznej polityki komunikacyjnej. Najważniejsze znaczenie posiadają nadal etykiety
ekologiczne i odpowiednia polityka w zakresie komunikacji społecznej (public relations).
W zakresie ekologizacji produkcji w samym przedsiębiorstwie decydujące znaczenie
posiadają: pozyskiwanie i wykorzystywanie ważnych dla przedsiębiorstwa informacji (tzw.
ecocontrolling), organizacja przedsiębiorstw uwzględniająca ochronę środowiska, podnoszenie kwalifikacji i motywacji pracowników w zakresie działań zgodnych z ochroną środowiska. Obecnie istnieją liczne instrumenty kontroli ekologicznej przedsiębiorstwa, m.in.
w postaci: ekobilansów, ekoaudytów, sprawozdań o stanie środowiska czy rachunku kosztów środowiskowych. Ekologiczna kontrola przedsiębiorstwa jest stosunkowo nowym narzędziem zarządzania ochroną środowiska w przedsiębiorstwie. Obok systemów kontroli
ekologicznej, duże znaczenie przypisuje się kształtowaniu organizacji i zarządzania kadrami dla potrzeb środowiska.
Współcześnie kształtuje się pojęcie strategicznego zarządzania ochroną środowiska
w przedsiębiorstwie, a więc określone miejsce ochrony środowiska w filozofii funkcjonowania przedsiębiorstwa jako jego celu strategicznego. Oznacza to aktywne uprawianie
zapobiegawczej ochrony środowiska i jego włączenie do całego cyklu produkcyjnego. Do
tej pory występuje nadal często opór i działanie na zwłokę w zakresie wprowadzania strategicznego zarządzania ochroną środowiska w przedsiębiorstwie. Dopiero od niedawna
próbuje się aktywnie wykorzystać potencjalne korzyści konkurencyjne związane z ochroną środowiska.
Recenzowana tutaj książka M. Jänicke, P. Kuniga, M. Stitzela stanowi dobre kompendium
w zakresie polityki ekologicznej, prawa środowiskowego i zarządzania ochroną środowiska w przedsiębiorstwach. Jest ona podręcznikiem przeznaczonym nie tylko dla studiujących wymienione problemy, także dla praktyków życia gospodarczego i politycznego.
W warunkach członkostwa w Unii Europejskiej warto by wykorzystać, także i w Polsce, dotychczasowe doświadczenia niemieckie. Jest ona dobrze przystosowana do warunków
polskich, a więc krajów Unii Europejskiej.
OPTIMUM – STUDIA EKONOMICZNE NR 1 (37) 2008
Dariusz KIEŁCZEWSKI
UWARUNKOWANIA I MECHANIZMY ZRÓWNOWAŻONEGO
ROZWOJU
VI MIĘDZYNARODOWA KONFERENCJA NAUKOWA
KATEDRA GOSPODAROWANIA ŚRODOWISKIEM I TURYSTYKI WYŻSZEJ SZKOŁY
EKONOMICZNEJ W BIAŁYMSTOKU,
ZAKŁAD ZRÓWNOWAŻONEGO ROZWOJU WYDZIAŁU EKONOMII I ZARZĄDZANIA
UNIWERSYTETU W BIAŁYMSTOKU,
BIAŁYSTOK-TALLIN, 2-5 LIPCA 2007 R.
Cykl konferencji "Uwarunkowania i Mechanizmy Zrównoważonego Rozwoju" został
zainicjowany w 1996 roku przez prof. dr. hab. Bazylego Poskrobko. Od dwunastu lat analizuje się na nich różnorodne aspekty kwestii zrównoważonego rozwoju i ochrony środowiska. Konferencje wpisały się na trwałe w kalendarium wydarzeń odbywających się w ramach
działalności badawczej polskich ekonomistów środowiska i zasobów naturalnych. Bez
przesady można stwierdzić, że jest to najważniejsze wydarzenie naukowe kojarzone z białostockim środowiskiem badaczy z zakresu wymienionej dziedziny.
Kolejna, szósta edycja Konferencji odbyła się w dniach 2-5 lipca w Białymstoku i Tallinie. Jej organizatorami byli:
–
Wyższa Szkoła Ekonomiczna w Białymstoku reprezentowana przez Katedrę Gospodarowania Środowiskiem i Turystyki;
–
Uniwersytet w Białymstoku reprezentowany przez działający, przy Wydziale
Ekonomii i Zarządzania, Zakład Zrównoważonego Rozwoju;
przy udziale:
–
Tallin University;
–
Polskiego Towarzystwa Ekonomistów Środowiska i Zasobów Naturalnych.
Organizacja Konferencji była możliwa również dzięki wsparciu:
Narodowego Funduszu Ochrony Środowiska i Gospodarki Wodnej;
–
–
Ministerstwa Nauki i Szkolnictwa Wyższego.
Komitet Honorowy Konferencji stanowili:
–
prof. dr Zbigniew Ejsmont – rektor Wyższej Szkoły Ekonomicznej w Białymstoku;
–
prof. dr hab. Jerzy Nikitorowicz – rektor Uniwersytetu w Białymstoku;
–
prof. dr hab. Stefan Kozłowski- przewodniczący byłego Komitetu „Człowiek i Środowisko" przy Prezydium Polskiej Akademii Nauk;
–
prof. dr hab. Andrzej Sadowski – dziekan Wydziału Historyczno- Socjologicznego Uniwersytetu w Białymstoku;
–
dr hab. prof. UwB Robert Ciborowski – dziekan Wydziału Ekonomii i Zarządzania
Uniwersytetu w Białymstoku;
–
dr Tadeusz Pindór – Prezes Zarządu Polskiego Towarzystwa Ekonomistów Środowiska i Zasobów Naturalnych.
Komitetowi naukowemu Konferencji przewodniczył prof. dr hab. Bazyli Poskrobko,
a Komitetowi Organizacyjnemu dr hab. prof. UwB Dariusz Kiełczewski.
Recenzje i informacje
195
Obrady zaszczycili swoją obecnością także przedstawiciel Urzędu Marszałkowskiego
Województwa Podlaskiego, a także członek Rady Polityki Pieniężnej prof. dr hab. Marian
Noga.
Szósta edycja konferencji była pod wieloma względami wyjątkowa. Po pierwsze była
to największa z cyklu Konferencji. Uczestniczyło w niej ponad stu pięćdziesięciu naukowców zajmujących się zagadnieniami rozwoju zrównoważonego, reprezentujących praktycznie wszystkie uczelnie ekonomiczne, na których prowadzi się badania w tym zakresie. Po drugie była to konferencja interdyscyplinarna. Oprócz ekonomistów, na czele z legendami polskich badań nad zrównoważonym rozwojem, takimi jak: Tomasz Żylicz, Bogusław Fiedor, Jerzy Śleszyński, Józefa Famielec, Tadeusz Borys, w konferencji wzięli udział
socjologowie i filozofowie podejmujący zagadnienia etyki, filozofii i świadomości ekologicznej: Andrzej Papuziński, Zdzisława Piątek, Andrzej Sadowski oraz Włodzimierz Tyburski.
Dzięki temu możliwe było interdyscyplinarne i wieloaspektowe spojrzenie na badane,
w ramach Konferencji, problemy. Takie podejście będzie kontynuowane i rozwijane w ramach kolejnych konferencji z cyklu. Po trzecie była to konferencja międzynarodowa. Uczestniczyli w niej naukowcy z Polski, Estonii i Niemiec, a obrady odbywały się w Białymstoku
i Tallinie. Również ten zamysł, który został w pełni zrealizowany, będzie kontynuowany
na kolejnych konferencjach. Organizatorzy pragną w przyszłości zorganizować konferencję na temat „Uwarunkowania i Mechanizmy Zrównoważonego Rozwoju" wspólnie z ośrodkami naukowymi z Rosji i Białorusi. Zgodnie z duchem Konferencji w Rio de Janeiro,
organizatorzy konferencji uważają, że Polska, jako członek Unii Europejskiej, powinna
poczuwać się do szczególnej odpowiedzialności za wdrażanie procesów rozwoju zrównoważonego w Europie Środkowej i Wschodniej. Nic tak nie jednoczy i nie rozbija wzajemnej nieufności, jak wspólne podjęcie uniwersalnego wyzwania rozwojowego, którym jest
harmonijny rozwój z wpisaną weń troską o środowisko przyrodnicze.
Obrady zostały podzielone na trzynaście sesji tematycznych: cztery sesje główne
oraz dziewięć sesji problemowych. Sesje główne to:
–
Zrównoważony rozwój w teorii ekonomii,
–
Środki sterowania trwałym i zrównoważonym rozwojem,
–
Społeczne aspekty zrównoważonego rozwoju,
–
Problemy zrównoważonego rozwoju państw basenu Morza Bałtyckiego.
Na sesjach tych zostały zaprezentowane najważniejsze płaszczyzny badań prowadzonych w ramach Konferencji oraz przedstawiono referaty specjalnie przygotowane przez
Autorów jako punkt wyjścia do dyskusji prowadzonych w ramach sesji problemowych. Ze
względu na obfitość przygotowanych referatów, sesje tematyczne były zorganizowane
tak, że referatowi wiodącemu, stanowiącemu zarazem wprowadzenie do dyskusji, w ramach sesji towarzyszyło omówienie najważniejszych tez referatów dotyczących tematyki
sesji.
Tematy sesji problemowych były następujące:
–
Instrumenty realizacji zrównoważonego rozwoju,
–
Zrównoważony rozwój gospodarki,
–
Zrównoważony rozwój na poziomie przedsiębiorstwa,
–
Zrównoważona turystyka i i ekologizacja rolnictwa,
–
Regionalne i lokalne aspekty zrównoważonego rozwoju,
–
Wybrane problemy zarządzania środowiskiem w warunkach zrównoważonego
rozwoju,
–
Wybrane problemy wdrażania zrównoważonego rozwoju w państwach Unii Europejskiej,
–
Wybrane problemy gospodarowania środowiskiem,
–
Rola energetyki we wdrażaniu zrównoważonego rozwoju.
Tak wielka obfitość tematyki badawczej sprawiła, że podczas obrad w ramach Konferencji stworzony został precyzyjny obraz zagadnień rozwoju zrównoważonego: stan i płaszczyzny badań naukowych, ocena zaawansowania jego procesów, ocena szans i zagrożeń
196
Recenzje i informacje
związanych z jego wdrażaniem, relacja do innych problemów społecznych i gospodarczych, a także, co okazało się szczególnie cenne, porównanie sytuacji w Polsce z sytuacją w Niemczech i Estonii.
Świadectwem wielkiego rozmachu i bogactwa dorobku naukowego Konferencji są publikacje, które zostały przygotowane na Konferencje oraz powstały i są przygotowywane jako
efekt jej obrad. Są to:
–
Towards the Theory of Sustainable Development pod red. Bazylego Poskrobko
wydane w ramach cyklu „Studia nad Zrównoważonym Rozwojem" ,sygnowanego przez Polską Akademię Nauk;
–
Obszary badań nad trwałym i zrównoważonym rozwojem pod red. Bazylego Poskrobko;
–
Problemy interpretacji i realizacji zrównoważonego rozwoju pod red. Bazylego
Poskrobko i Grzegorza Dobrzańskiego;
–
Zrównoważony rozwój i ochrona środowiska w gospodarce pod red. Dariusza
Kiełczewskiego i Bożeny Dobrzańskiej;
–
Ekologiczne aspekty zrównoważonego rozwoju regionalnego i lokalnego pod
red. Kazimierza Michałowskiego;
–
Uwarunkowania i mechanizmy rozwoju zrównoważonego, materiały konferencyjne;
–
numer specjalny pisma „Ekonomia i Środowisko" (nr 1/2007r.), zawierający artykuły przygotowane na Konferencję.
Oprócz tego, przygotowywana jest pod redakcją Dariusza Kiełczewskiego, Marzanny
Poniatowicz i Bożeny Dobrzańskiej monografia Implementation of sustainable development in countries of Ballic sea basins. Zawiera ona teksty przygotowane na konferencję oraz artykuły inspirowane, prowadzoną w jej ramach, dyskusją. W najbliższej edycji
„Optimum. Studia Ekonomiczne” znajdzie się także zbiór artykułów będących efektem
dyskusji prowadzonych w ramach Konferencji i zarazem zapowiedzią kolejnej Konferencji, która odbędzie się na przełomie czerwca i lipca 2009 roku.
OPTIMUM – STUDIA EKONOMICZNE NR 1 (37) 2008
Wojciech SOŁOMIANKO
ROZWÓJ REGIONALNY – PODSTAWOWE CELE I WYZWANIA
KONFERENCJA NAUKOWA
FUNDACJA PROMOCJI ROZWOJU PODLASIA,
BIAŁOWIEŻA, 3 – 5 WRZEŚNIA 2007 R.
W dniach 3 – 5 września 2007 r. w Hotelu Białowieski w Białowieży odbyła się dziewiąta
z kolei konferencja naukowa poświęcona zagadnieniom rozwoju regionalnego. W tym roku została ona zorganizowana przez Fundację Promocji Rozwoju Podlasia pod patronatem naukowym Wydziału Ekonomii i Zarządzania Uniwersytetu w Białymstoku. Obrady odbywały się pod hasłem „Rozwój regionalny – podstawowe cele i wyzwania”.
W konferencji udział wzięło trzydziestu uczestników z różnych ośrodków akademickich, m.in.: Uniwersytetu Łódzkiego, Uniwersytetu Marii Curie-Skłodowskiej w Lublinie, Katolickiego Uniwersytetu Lubelskiego, Politechniki Białostockiej, Wyższej Szkoły Ekonomicznej w Białymstoku, Wyższej Szkoły Finansów i Zarządzania w Białymstoku oraz Uniwersytetu w Białymstoku.
Konferencję otworzył Dziekan Wydziału Ekonomii i Zarządzania – prof. dr hab. Robert
Ciborowski w towarzystwie Prorektora ds. Ekonomicznych i Kontaktów z Regionem UwB –
prof. dr. hab. Marka Proniewskiego oraz Prezesa Fundacji Promocji Rozwoju Podlasia –
prof. dr. hab. Andrzeja F. Bociana, którzy następnie przewodzili poszczególnym sesjom
obrad.
W trakcie obrad zwrócono uwagę na to, że Polska jest krajem zróżnicowanym regionalnie. Zróżnicowanie to, choć nie odbiega znacząco od dysproporcji występujących w pozostałych krajach Unii Europejskiej, w ostatnich latach ulega nasileniu. Podkreślono, że
odmienność uwarunkowań społeczno-gospodarczych oraz różnorodność posiadanych
zasobów rozwojowych sprawiają, że każdy region wymaga indywidualnego podejścia w procesie rozwiązywania jego problemów. Za klucz do sukcesu uznano przede wszystkim właściwy dobór metod i takie formułowanie celów w układzie przestrzennym, by pozwalały one
możliwie pełnie wykorzystać potencjał regionu. W prezentowanych referatach koncentrowano się przede wszystkim na ukazaniu możliwości realizacji strategicznych, z punktu widzenia regionu, celów rozwojowych przy wsparciu Unii Europejskiej. Stąd często poruszanymi zagadnieniami były sposoby finansowania przedsięwzięć w ramach funduszy strukturalnych UE, jak również wpływ głównych polityk wspólnotowych (tj.: wspólnej polityki
rolnej, regionalnej, społecznej, spójności ekonomiczno-społecznej oraz ochrony środowiska) na tempo wyrównywania dysproporcji międzyregionalnych oraz podnoszenia dobrobytu mieszkańców. Znaczna część obrad została wypełniona przez rozważania nad rolą
i skutecznością instytucji programujących, tj. formułujących wieloletnie programy rozwojowe. Przy tej okazji zostały omówione główne priorytety Narodowego Planu Rozwoju.
Z racji na miejsce, w którym odbywała się konferencja, często podnoszonym tematem
była konkurencyjność Podlasia na tle innych regionów w odniesieniu do różnych aspektów życia gospodarczego, tj.: polityka regionalna, polityka rolna, ekorozwój, rynek pracy,
turystyka i inne. W czasie dyskusji uczestnicy starali się odpowiedzieć na pytanie: w jaki
sposób wykorzystać szansę na rozwój pojawiającą się przed regionem, w wyniku przystąpienia Polski do UE.
Szczegółowy program konferencji obejmował następujące wystąpienia:
198
Recenzje i informacje
prof. dr hab. Bazyli Poskrobko – Szanse przyspieszenia rozwoju województwa
podlaskiego;
–
prof. dr hab. Henryk Sasinowski – Rozwój regionalny w aspekcie restrukturyzacji obszarów wiejskich i rolnictwa;
–
prof. dr hab. Włodzimierz Puliński – Kapitał ludzki i społeczny jako czynniki rozwoju regionów wiejskich w Polsce;
–
prof. dr hab. Janina Godłów-Legiędź – Konkurencyjność gospodarki w świetle
teorii kosztów transakcji;
–
prof. dr hab. Józef Rogowski – Migracje międzyregionalne a stopa bezrobocia,
dochód per capita oraz PKB per capita;
–
prof. dr hab. Bogusław Plawgo, mgr Magdalena Klimczuk – Korzyści z funkcjonowania firm w strukturach klastrów gospodarczych;
–
prof. dr hab. Mirosława Kozłowska-Burdziak – Działalność gospodarcza osób fizycznych w województwie podlaskim – stan i możliwości rozwoju;
–
dr Tadeusz Smuga, mgr Wanda Karpińska-Mizielińska – Szara strefa w działalności przedsiębiorstw sektora usług turystycznych – wnioski z badań empirycznych;
–
dr Jan Polski – Ekonomika rozwoju regionalnego. Teoria i praktyka;
–
dr Dorota Perło – Analiza porównawcza regionalnych modeli HERMIN i MaMoR2
na przykładzie województwa podlaskiego;
–
dr Cecylia Sadowska-Snarska – Godzenie życia zawodowego z rodzinnym jako
element działań na rzecz poprawy jakości zatrudnienia w Polsce;
–
dr Katarzyna Dębkowska – Zróżnicowanie rozwoju regionalnego powiatów Polski Wschodniej;
–
dr Elżbieta Sulima – Wspólnotowa polityka społeczna i europejski model socjalny a spójność społeczna;
–
dr Wiktoria Pantylej – Zmiany społeczno-gospodarcze a stan zdrowia ludności
na pograniczu polsko-ukraińskim;
–
dr Jerzy Lewczuk – Problemy rozwoju obszarów położonych peryferyjnie;
–
dr Danuta Tarka – Taksonomiczna analiza województw – aspekt ekologiczny;
–
dr Dorota Mierzyńska – Pomiar ubóstwa za pomocą wskaźnika HPI;
–
dr Ewa Roszkowska – Modelowanie negocjacji z wykorzystaniem zbiorów rozmytych;
–
dr Beata Madras-Kobus – Instytucje finansowe a finansowanie zadań samorządów terytorialnych w Polsce;
–
mgr Beata Wiśniewska – Zróżnicowanie sektora MSP w regionach;
–
mgr Iwona Oleksza – Konwergencja regionów Polski w latach 1995 – 2004;
–
mgr Elżbieta Misiewicz – Ochrona przyrody a rozwój regionalny.
Wyniki badań zaprezentowane przez uczestników konferencji zostały zebrane
w publikacji pt. Rozwój regionalny – podstawowe cele i wyzwania pod redakcją prof. dr.
hab. Andrzeja F. Bociana wydanej przez Wydawnictwo Uniwersytetu w Białymstoku.
–
OPTIMUM – STUDIA EKONOMICZNE NR 1 (37) 2008
Mikołaj NIEDEK
PERSPEKTYWY ROZWOJU GOSPODARKI SPOŁECZNEJ
W POLSCE A KONCEPCJA ZRÓWNOWAŻONEGO ROZWOJU
KONFERENCJA NAUKOWA
STAŁA KONFERENCJA EKONOMII SPOŁECZNEJ REVES,
FUNDACJA INICJATYW SPOŁECZNO-EKONOMICZNYCH,
WARSZAWA, 18 – 20 PAŹDZIERNIKA 2007 R.
W dniach 18 – 20 października 2007 r. odbyły się w Warszawie II Ogólnopolskie Spotkania Ekonomii Społecznej. Organizatorem konferencji była międzynarodowa organizacja
REVES, Stała Konferencja Ekonomii Społecznej, a ze strony polskiej Fundacja Inicjatyw
Społeczno-Ekonomicznych1. Pierwsza w Europie Centralnej i Wschodniej konferencja nt.
ekonomii społecznej odbyła się w 2002 r. w Pradze – gdzie przyjęto tzw. Deklarację Praską, określającą główne wytyczne i cele koncepcji ekonomii społecznej – kolejna zaś w Kra2
kowie w 2004 r., na której powołano Stałą Konferencję Ekonomii Społecznej . Do głównych
wytycznych, eksponowanych w Deklaracji Praskiej, należy:
–
znaczenie gospodarki społecznej na poziomie lokalnym i budowanie spójności
terytorialnej;
–
rola władz lokalnych w rozwoju społeczno-ekonomicznym regionów;
–
partnerstwo władz publicznych (samorządowych), organizacji pozarządowych
i podmiotów gospodarki społecznej w przeciwdziałaniu marginalizacji społecznej
i rozwoju społeczno-gospodarczym społeczności lokalnych;
–
znaczenie więzi partnerskich, publiczno-społecznych dla budowy lokalnego
kapitału społecznego;
–
potrzeba współpracy na szczeblu krajowym i UE w zakresie tworzenia korzystnych warunków dla rozwoju instytucji i przedsiębiorstw gospodarki społecznej.
Analizę zagadnień związanych z gospodarką społeczną prowadzi się głównie na
gruncie polityki społecznej, w aspekcie praktyczno-wdrożeniowym. Gospodarkę społeczną traktuje się w tym kontekście jako instrument aktywizacji społeczno-gospodarczej społeczności lokalnej. Działania na rzecz rozwoju gospodarki społecznej i jej wspieranie przez
sektor publiczny uznaje się za sposób budowy kapitału społecznego, co w perspektywie
badawczej ekonomii instytucjonalnej ma szczególne znaczenie. Cytując T. Kaźmierczaka
i M. Rymszę z Instytutu Spraw Publicznych: Społeczność lokalna jest tu tyleż adresatem,
co kreatorem rozwiązań. Dobrze zorganizowana społeczność może bowiem dać swoim
1
REVES to Europejska Sieć Miast i Regionów dla Ekonomii Społecznej, działająca od 1997 r.,
utworzona z inicjatywy miast Östersund (Szwecja) i Reggio Calabria (Włochy) oraz Europejskiej
Konfederacji Spółdzielni Pracowniczych, Spółdzielni Socjalnych i Przedsiębiorstw Partycypatywnych
CECOP. Obecnie do REVES należą samorządy i podmioty gospodarki społecznej z 16 państw (z 14
państw członkowskich UE oraz Maroko i Rosji), w sumie 90 członków. Ogólnym celem REVES jest
rozwijanie koncepcji i polityki promującej ekonomię społeczną, partnerstwo publiczno-społeczne,
innowacyjność społeczno-ekonomiczną i rozwój lokalny.
2
Na wymienionych konferencjach i w literaturze przedmiotu stosuje się termin ekonomia
społeczna. Autor tego artykułu będzie jednak stosował termin gospodarka społeczna, jako
bardziej adekwatny do przedmiotu rozważań.
200
Recenzje i informacje
członkom unikatowe szanse uczestnictwa w gospodarczej wymianie, także tym, którzy – jak
mogłoby się wydawać – na trwale wypadli z rynku pracy. Taka społeczność może stworzyć warunki wysokiej jakości życia i zapewnić poczucie tożsamości, o co w wielokulturowym świecie będzie coraz trudniej. Potrzeba silnej społeczności staje się tym ważniejsza,
im bardziej procesy globalne wpływają na nasze życie i im bardziej bezradne okazuje się
wobec nich państwo narodowe. Z tego względu szczególnego znaczenia nabiera tzw. gospodarka (ekonomia) społeczna, którą rozumiemy jako narzędzie mobilizacji ekonomicznej i społecznej zaniedbanych społeczności lokalnych/obszarów oraz jako formułę
zwiększania uczestnictwa ich członków/mieszkańców w wymianie gospodarczej i życiu publicznym [Kapitał społeczny.… 2007 s. 11]. Działania na rzecz rozwoju gospodarki
społecznej mają współcześnie charakter ponadnarodowego ruchu społeczno-gospodarczego, wspieranego przez struktury państwowe, UE, OECD.
Celem niniejszego artykułu nie jest analiza ekonomiczna koncepcji gospodarki społecznej, w celu kwalifikacji tej koncepcji w ramach spektrum socjalizm – liberalizm ekonomiczny [Kwaśnicki 2005 s. 10-35; Kaźmierczak 2007 s. 93 – 97], czy też jej krytyka z perspektywy ortodoksji nauk ekonomicznych. Przedstawiana tu charakterystyka koncepcji
gospodarki społecznej ma na celu określenie jej powiązań z koncepcją zrównoważonego
SD (Sustainable Development). Ogólnie przyjmuje się tutaj, że zrównoważony rozwój polega na integrowaniu działań gospodarczych, społecznych i ekologicznych, w celu osiągnięcia wyższej jakości życia. Za główną wykładnię koncepcji SD uznaje się Agendę 21, przyjętą w Rio de Janeiro w 1992 r. Tezą artykułu jest twierdzenie, że działania określane mianem gospodarki (resp. ekonomii) społecznej sprzyjają realizacji koncepcji SD na poziomie
lokalnym.
Ogólna charakterystyka – podmioty i obszary działania gospodarki społecznej
Gospodarka społeczna to działalność prowadzona przez przedsiębiorstwa społeczne.
Konwencjonalnie do dziedziny gospodarki społecznej zalicza się ruch spółdzielczy (spółdzielnie i spółdzielcze formy prowadzenia działalności gospodarczej), towarzystwa ubezpieczeń wzajemnych i wszelkie formy działalności gospodarczej prowadzone przez organizacje społeczne. W Polsce i innych krajach postkomunistycznych idea spółdzielczości
została wypaczona w okresie realnego socjalizmu, lecz od końca XX wieku obserwuje się
jej ponowny renesans. Od drugiej połowy lat 90-tych mówi się o „nowej fali” ekonomii
społecznej, kiedy to koncepcja ta zaczęła zyskiwać znaczące wsparcie ze strony Unii Europejskiej – w ramach działań i programów finansowanych z Europejskiego Funduszu
3
Społecznego . Obecnie wspieranie gospodarki społecznej ze strony instytucji publicznych
uznaję się za aktywną formę realizacji polityki społecznej – zwalczania długotrwałego bezrobocia i wykluczenia społecznego.
W kategoriach systematycznych do przedsiębiorstw społecznych tradycyjnie zalicza
się organizacje prowadzące działalność gospodarczą, które:
–
nie dają się jednoznacznie zakwalifikować do przedsiębiorstw publicznych lub
prywatnych;
–
za główny cel swojej działalności nie obierają maksymalizacji zysku celem wzrostu dochodów właścicieli – zysk przeznaczany jest na rozwój przedsiębiorstwa
lub na cele społeczne (zatrudnieniowe, reintegracyjne, edukacyjne) i nie może
być dzielony między właścicieli (status non-profit lub not for profit);
–
na równi stawiają cele społeczne i ekonomiczne lub preferują cele społeczne;
3
Dotyczy to w szczególności Programu Inicjatywy Wspólnotowej EQUAL, obejmującego Polskę
od 2004 r. , zob. www.equal.org.pl.
Recenzje i informacje
201
ukierunkowane są na tworzenie miejsc pracy dla osób zagrożonych społecznym
4
wykluczeniem, ich aktywizację zawodową i (re)integrację społeczną .
Wydaje się, że powyższe kryteria mają charakter konieczny, lecz nie wystarczający
do zaliczenia danej organizacji do sektora gospodarki społecznej. Zasadniczym kryterium
uznania danej organizacji za podmiot gospodarki społecznej (czy też przedsiębiorstwo społecznie odpowiedzialne) powinny być funkcje i rezultaty społeczne, jakie ono spełnia i tworzy, a w mniejszym stopniu, forma organizacyjna. W perspektywie gospodarki społecznej
funkcją tą jest aktywizacja społeczno-zawodowa osób z grupy zagrożonej marginalizacją,
a w rezultacie ich społeczna inkluzja. Ogólne zestawienie modelowych różnic w działalności przedsiębiorstwa społecznego i firmy komercyjnej prezentuje poniższa tabela.
–
Przedsiębiorstwo komercyjne – perspektywa
ekonomii konwencjonalnej i konwencjonalnej
polityki społecznej
Przedsiębiorstwo społeczne –
perspektywa gospodarki społecznej
Ukierunkowanie działalności gospodarczej na
maksymalizację efektywności i zysku
Ukierunkowanie działalności gospodarczej na
aktywizację i reintegrację społeczno-zawodową
osób zagrożonych społecznym wykluczeniem
Kontraktowy model działania – zlecanie zadań
do wykonania
Partycypatywny model działania (współuczestnictwo) w tworzeniu i rozwoju przedsiębiorstwa
Zarządzanie przedsiębiorstwem – system hierarchiczny
Partycypacja w zarządzaniu przedsiębiorstwem
– system sieciowy
Polityka społeczna jako system osłonowy przed Polityka społeczna jako wspieranie aktywizacji
społecznym wykluczeniem – pomoc społeczna, społeczno zawodowej grup wykluczonych –
zasiłki
praca, płace
Bezrobocie ujmowane w różnych kategoriach
(naturalne, strukturalne, frykcyjne, technologiczne)
Wykluczenie społeczne – grupy osób mające
zasadnicze problemy z funkcjonowaniem na
rynku pracy i podejmowaniem stałego zatrudnienia
Zasadnicza rola finansów
Zasadnicza rola zrozumienia i nastawienia partnerskiego
To, co zasadniczo odróżnia „ekonomię społeczną” od „ekonomii konwencjonalnej”, jest
jej koncentracja na grupie osób kwalifikowanych jako „zagrożonych społeczną marginalizacją”. Należą do niej w szczególności: osoby długotrwale bezrobotne, osoby niepełnosprawne, (byli) więźniowie, osoby uzależnione, mniejszości etniczne mające problemy z integracją społeczno-kulturową, jak również osoby 50+ i kobiety posiadające osoby zależne.
W konwencjonalnej perspektywie ekonomicznej osoby te uważa się za nieproduktywne
i pozostawia na marginesie zainteresowania rynku pracy.
Według badań wykonanych przez organizację Klon-Jawor i zaprezentowanych na konferencji, w roku 2006 działały w Polsce 1242 organizacje pozarządowe (NGOs), z czego
18% prowadziło działalność gospodarczą. Sam sektor pozarządowy (trzeci sektor) tworzy
w Polsce miejsca pracy dla 120 000 osób. Poza tą formą działalności do gospodarki społecznej zalicza się działalność prowadzoną przez: spółdzielnie (363), spółdzielnie socjalne (106), towarzystwa ubezpieczeń wzajemnych (7), Centra Integracji Społecznej (27), Zakłady Aktywności Zawodowej (28), inne formy organizacyjne (108) [zob. Podstawowe fakty…].
Największy potencjał rozwoju gospodarki społecznej upatruje się w ramach trzeciego
sektora – organizacji pozarządowych. Zdaniem B. Iwankiewicz-Rak, organizacje pozarządowe na rynku usług społecznych stanowią uzupełnienie sektora prywatnego i publiczne4
Ściśle grupę tych osób na gruncie polskim określa ustawa o zatrudnieniu socjalnym [Ustawa
o zatrudnieniu… 2003]. Zostanie ona wymieniona w dalszej części artykułu.
202
Recenzje i informacje
go, w odpowiedzi na niedostateczną realizację zadań w sferze socjalnej i kulturowej przez
te dwa ostatnie sektory: organizacje trzeciego sektora stanowią optymalne pod względem
wielkości, zaangażowania finansów i kontroli instytucje przystosowane do świadczenia
usług społecznych. Określa się je nawet jako organizacje alternatywne, gdyż są pożądaną formą świadczenia dóbr publicznych wtedy, gdy działalność rządu i biznesu zawiodła
i nie satysfakcjonuje społeczeństwa [Iwankiewicz-Rak 2002 s. 125]. W perspektywie SD
sferę działania organizacji społecznych w ramach gospodarki społecznej należy uzupeł5
nić o szeroko pojętą ochronę środowiska .
Rodzaje działalności prowadzonej przez przedsiębiorstwa społeczne, obok działań
i usług typowo socjalnych (resocjalizacja, rehabilitacja, reintegracja, aktywizacja społeczna i zawodowa), pokrywają się zasadniczo ze spektrum zadań publicznych, kwalifikowanych jako działalność pożytku publicznego [Ustawa o działalności pożytku publicznego…
2003]. Generalnie są to: usługi socjalne i na potrzeby społeczności lokalnych (np. usługi
naprawcze), utrzymywanie czystości i zieleni, usługi remontowo-budowlane, usługi rzemieślnicze i rękodzieła, gastronomiczne, krawieckie, przetwórstwo i rolnictwo (na obszarach wiejskich, w tym rolnictwo ekologiczne), działania z zakresu ochrony przyrody i środowiska, zagospodarowanie odpadów na potrzeby recyklingu, sklepy z rzeczami używanymi. Z perspektywy koncepcji SD szczególne znaczenie ma tu rodzaj działalności określany jako „zielone miejsca pracy” [Przyjazne środowisku… 2003].
Problematyka podejmowana w ramach dyskusji o „ekonomii społecznej” jest dynamiczna i otwarta, skupiając zainteresowanie przedstawicieli sektora publicznego (rządowego i samorządowego), pozarządowego i sektora biznesu. W wymiarze teoretycznym
jej stadium rozwoju, przynajmniej na gruncie polskim, ma ciągle charakter propedeutyczny, o czym świadczą podejmowane na nowo próby zdefiniowania gospodarki społecznej,
określenia jej swoistego przedmiotu i granic między gospodarką społeczną a konwencjonalną. Pokazały to wspomniane na wstępie II Spotkania Ekonomii Społecznej, których
ważne z perspektywy koncepcji SD wątki przedstawione zostały poniżej.
Wnioski z warszawskiej konferencji ekonomii społecznej
II Spotkania Ekonomii Społecznej skupiły wielu przedstawicieli władz publicznych –
głównie resortu pracy i rozwoju regionalnego, samorządowców i organizacji pozarządowych6. Jak stwierdził C. Miżejewski7, o ile wiodącą kwestią poprzednich spotkań ekonomii
społecznej była kwestia pozycji, jaką przedsiębiorstwa społeczne zajmują na (wolnym)
rynku, o tyle główny temat tegorocznych spotkań stanowi zagadnienie relacji podmiotów
ekonomii społecznej i samorządu lokalnego, w perspektywie możliwości i dobrych praktyk
ich współpracy i partnerstwa publiczno-społecznego. Jest to jedno z kluczowych zagadnień tej koncepcji, jakie wymienia, wspominana na początku, Deklaracja Praska. Na
konferencji sformułowano tezę, że bez zaangażowania samorządów lokalnych gospodarka społeczna nie może właściwie funkcjonować. Oznacza to strukturalne powiązanie
gospodarki społecznej z działaniem administracji samorządowej.
5
Z przykładami działań przedsiębiorstw społecznych w dziedzinie ochrony środowiska mogli się
zapoznać uczestnicy konferencji, organizowanej w ramach Partnerstwa Ponadnarodowego EQUAL
„Innovation for social economy” w dniach 26-27 kwietnia 2007 r., w Warszawie. Prezentacja S.
Monellini Social enterprises in energy and innovative sectors”, mat. konf. na CD.
6
Miejscem pierwszego dnia konferencji była sala im. A. Bączkowskiego w Ministerstwie Pracy i
Polityki Społecznej, w której odbywają się posiedzenia Trójstronnej Komisji Społeczno-Gospodarczej
ds. Dialogu Społecznego.
7
Cezary Miżejwski, były sekretarz stanu resortu pracy, pełni obecnie funkcję Radcy Ministra Rozwoju
Regionalnego i jest współautorem Programu Operacyjnego „Kapitał Ludzki” na lata 2007 – 2013.
Recenzje i informacje
203
Główni prelegenci, biorący udział w spotkaniach (J. Wygnański, C. Miżejewski), starali
się wytypować cechy, które wyróżniają przedsiębiorstwo społeczne od konwencjonalnego: otwartość, aktywność, innowacyjność, odpowiedzialność, suwerenność, wzajemność, upodmiotowienie, współuczestnictwo. Cechy te nie wydają się jednak wyczerpywać
specyfiki gospodarki społecznej, gdyż mogą występować również w konwencjonalnych
przedsiębiorstwach, zwłaszcza tych, które dużą wagę przywiązują do etyki i społecznej
odpowiedzialności biznesu [Niedek 2005 s. 294 – 299]. W odpowiedzi na niejednokrotnie
stawiane pytanie, czym zatem ekonomia społeczna różni się od konwencjonalnej ekonomii, przedstawiciele Włoscy wyraźnie podkreślili, że pod względem sposobu produkcji,
dystrybucji czy zarządzania przedsiębiorstwa komercyjne i podmioty gospodarki społecznej zasadniczo się nie różnią. Sposób wytwarzania produktów, świadczenia usług czy marketing przedsiębiorstw społecznych powinien kierować się taką samą zasadą efektywności, jak ma to miejsce w przypadku zwykłych firm komercyjnych. Różnią je natomiast cele
tej działalności, które – o ile w przypadku przedsiębiorstw komercyjnych można sprowadzić do kwestii maksymalizacji zysku, jako głównego motywu działania – o tyle w przypadku
przedsiębiorstw społecznych celem tym jest zaspokojenie potrzeb społeczno-zawodowych osób:
–
pracujących w przedsiębiorstwie społecznym8,
9
–
osób, dla których przedsiębiorstwo społeczne wykonuje swoją działalność .
Zakłada się tu, że poziom satysfakcji, jaki mogą osiągać osoby z grupy marginalizowanej w wyniku działania przedsiębiorstwa społecznego, może być porównywalny z poziomem satysfakcji, jaki osiągają właściciele (resp. pracownicy) przedsiębiorstwa komercyjnego z tytułu dystrybucji wypracowanego zysku. Warto zauważyć, że w tym ujęciu koncepcja „ekonomii społecznej” zbliża się do koncepcji społecznej odpowiedzialności przedsiębiorstw CSR (Corporate Social Responsibility). Kwestię tę poruszył obecny na konferencji J. Hauser, były minister gospodarki10, według którego koncepcja CSR par excellence
nadaje się do interpretowania na gruncie „ekonomii społecznej”. Zostało to zresztą uczynione przez, wspomnianą na wstępie, organizację REVES, które posługuje się koncepcją
TSR – Terytorialnej Odpowiedzialności Społecznej przedsiębiorstw. Zakres działań CSR wydaje się być jednak, na gruncie tej nowej koncepcji, zawężany do wymiaru przestrzennego. O ile dotyczy on jednak przedsiębiorstw lokalnych (tj. działających na rynku lokalnym
czy regionalnym), o tyle działania z zakresu CSR mają niewątpliwie charakter terytorialnie
określony.
Obok akcentowania powiązań między koncepcją CSR i „ekonomii społecznej”, J. Hauser
skoncentrował się na kwestii partnerstwa międzysektorowego. Według niego, najbardziej
11
obiecującą jego formą jest partnerstwo publiczno-prywatno-społeczne . Prof. Hauser jest
osobiście zaangażowany w budowanie takiego partnerstwa w Małopolsce, pod nazwą
„Małopolski Pakt Ekonomii Społecznej”12. Na konferencji zaprezentowane zostały przy8
Przykładem takim są włoskie spółdzielnie socjalne typu B, zatrudniające osoby zagrożone
marginalizacją społeczną.
9
Przykładem takim są włoskie spółdzielnie socjalne typu A, działające na rzecz osób
zagrożonych społeczną marginalizacją.
10
Warto odnotować, że prof. J. Hauser wraz z prof. H. Izdebskim są autorami założeń do nowej
ustawy „O przedsiębiorstwie społecznym”, której głównym celem jest nadawanie prawnego statusu
„przedsiębiorstwa społecznego” organizacjom, których działalność spełnia kryteria gospodarki
społecznej [zob. Założenia i opinie…].
11
Warto odnotować, że na gruncie „ekonomii społecznej” forsuje się partnerstwo geograficzne –
o charakterze ściśle terytorialnym, związanym z daną społecznością – praktycznie je ze sobą
utożsamiając. Tymczasem można wyróżnić też partnerstwo o charakterze sektorowym czy
branżowym
12
W tworzenie tego partnerstwa zaangażowani są przedstawiciele trzech sektorów: Samorząd
Województwa i Miasta Krakowa, samorządy lokalne, środowiska intelektualno-eksperckie,
organizacje społeczne, w tym Partnerstwa powstałe w ramach PIW EQUAL, Małopolski Związek
204
Recenzje i informacje
kłady partnerskiego współdziałania publiczno-społecznego w dziedzinie gospodarki społecznej w regionach: Jamtland (Szwecja), Andaluzja (Hiszpania), Provence-Alpes-Cote
d’Azur (Francja), Pordenone i Modena (Włochy). Zdaniem przedstawicieli Włoch, obecna
sytuacja rozwoju gospodarki społecznej w Polsce przypomina sytuację, jaka była we
Włoszech w latach 70-tych. W Polsce istnieje wszakże szereg dobrych przykładów współpracy publiczno-społecznej i rozwijania lokalnej gospodarki społecznej. Na konferencji liderzy samorządowi z gmin Byczyna (woj. opolskie) i Cieszyn (woj. śląskie) przedstawili swoje
konstruktywne doświadczenia w tym zakresie [Atlas dobrych praktyk…].
Na konferencji przedstawiono również możliwości strukturalnego wspierania gospodarki społecznej w Polsce w perspektywie okresu 2007 – 2013. Ogólnie na ten cel w Programie Operacyjnym „Kapitał Ludzki” przeznaczono 250 mln euro13.
Perspektywy rozwoju gospodarki społecznej w Polsce
Obecny na konferencji M. Guć, obecnie Wiceprezydent Gdyni, przedstawił możliwości
i szanse rozwoju przedsiębiorstw społecznych w Polsce14. Zostały one przedstawione na
tle istniejących i planowanych uregulowań formalnoprawnych współpracy samorządów
terytorialnych z podmiotami gospodarki społecznej w Polsce. Autor ten zarówno w swoim
wystąpieniu, jak i opracowaniu twierdzi, że z dominującego dotychczas w polskiej gospodarce problemu – bezrobocia strukturalnego – z uwagi na odnotowywany w ostatnich
dwóch latach jego znaczący spadek, pozostaje obecnie jego najtrudniejsza część. Chodzi
mianowicie o grupę osób, posiadającą największe problemy i bariery, nierzadko o charakterze mentalnym, do podejmowania jakiejkolwiek pracy. Grupa ta, szacowana w Polsce na
kilka procent osób kwalifikowanych jako bezrobotne, zasadniczo pokrywa się z wymienionym wyżej spektrum osób zagrożonych trwałą marginalizacją społeczną.
Według M. Gucia, pomocy w rozwiązywaniu tego problemu należy obecnie w Polsce
poszukiwać w gospodarce społecznej, z definicji ukierunkowanej na tworzenie miejsc pracy dla tej, coraz bardziej powiększającej się grupy społecznej. Autor ten otwarcie podkreślił, że działania zmierzające w tym kierunku są kosztowne. Roczny koszt resocjalizacji,
przygotowania do pracy czy rehabilitacji zawodowej jednej osoby z grupy wykluczenia to
kwoty od kilkunastu do kilkudziesięciu tysięcy złotych. Jednakże teza, jaką postawił, jest
niezwykle istotna. Mianowicie koszt przeznaczony na te działania będzie mniejszy, niż
koszt (ekonomiczny lub społeczny) niepodejmowania żadnych działań w tym zakresie
i pozostawienia tej grupy samej sobie, z wszystkimi tego konsekwencjami, głównie patologiami społecznymi. Autor ten szacuje koszt utworzenia miejsca pracy dla 1 osoby wykluczonej na 60 000 zł. Jego zdaniem, warto jednak podejmować te działania, gdyż koszt
(szczególnie koszt ciągniony) podtrzymywania na minimalnym poziomie egzystencji
osoby bezrobotnej przekroczy po latach koszt jej potencjalnej aktywizacji.
Możliwości tworzenia trwałych i efektywnych miejsc pracy dla tych osób stwarza, zdaniem tego Autora, właśnie gospodarka społeczna. Według niego, aktywna polityka społeczna powinna przybierać formę wspierania gospodarki społecznej, gdyż w przeciwieństwie do innych stosowanych form pomocy, przedsiębiorstwa społeczne mają szansę, po
Pracodawców, Regionalny Ośrodek Pomocy Społecznej, media regionalne. Działania te mają
charakter in statu nascendi, a ich bazę ma stanowić małopolski fundusz ekonomii społecznej i
regionalne centrum audytu i certyfikacji. Platformą integracji ma być internetowy portal. W ramach tej
inicjatywy przewiduje się także organizację dystrybucji (sklepów) dla produktów tworzonych przez
lokalne przedsiębiorstwa społeczne.
13
Działania w tym zakresie przedstawione są w Priorytecie 1, 6 i 7 tego Programu. Przewiduje
się także powołanie ok. 40 regionalnych ośrodków wspierania ekonomii społecznej.
14
Jego analiza została przedstawiona w opracowaniu: [Wspieranie ekonomii społecznej… 2007].
Recenzje i informacje
205
krótszym lub dłuższym okresie wspieranej inkubacji, na osiągnięcie stanu samofinansowania i niesubsydiowanej działalności na rynku.
Dla rozwoju gospodarki społecznej, obok partnerskiego nastawienia, woli współdziałania ze strony samorządu lokalnego i źródeł finansowania, istotne znaczenie mają regulacje prawne. Szczególne znaczenie ma tutaj możliwość zlecania przez samorządy lokalne (powiatowe i gminne) zadań publicznych do wykonania podmiotom społecznym. Mimo
że dyrektywy UE stwarzają możliwość uwzględniania kryteriów społecznych (jak również
ekologicznych [zob. Ekologizacja kryteriów… 2006 s. 54 – 55]) w procedurze zamówień
publicznych, polska ustawa Prawo zamówień publicznych, w opinii M. Gucia, zasadniczo
nie uwzględnia tego zagadnienia. Ujęcie tych możliwości jedynie w ustawie o pożytku
publicznym stanowi istotną barierę dla szerokiego rozwoju tego segmentu rynku podmiotów gospodarki społecznej. Jednostki samorządowe mogą wszakże tworzyć regulaminy współpracy z organizacjami pozarządowymi i podmiotami gospodarki społecznej,
które określają zasady przyznawania im do realizacji (pewnych) zadań publicznych.
Wielu ekonomistów, polityków i samorządowców wyraża wszakże obawy, czy wspieranie przez władze publiczne przedsiębiorstw społecznych nie naruszy konkurencji na lokalnym rynku. Biorąc pod uwagę odmienne cele działań przedsiębiorstw komercyjnych
i społecznych, wspieranie tych ostatnich należy raczej kwalifikować jako aktywną formę
walki z lokalnym bezrobociem i wykluczeniem społecznym, niż pomoc publiczną sensu
stricto, destabilizującą lokalny rynek. Kwestią do dyskusji pozostaje natomiast forma i zakres tej pomocy oraz jej efektywność, co powinno być rozpatrywane z uwzględnieniem lokalnych uwarunkowań i możliwości społeczno-ekonomicznych.
Konkluzje
Reasumując należy stwierdzić, że działania, które określane są mianem gospodarki
(resp. ekonomii) społecznej, przyczyniają się do osiągania celów koncepcji SD w wymiarze społecznym. Działalność prowadzoną przez przedsiębiorstwa społeczne w dziedzinie
zagospodarowania odpadów na potrzeby recyklingu lub w szeroko pojętej ochronie środowiska można uznać za realizację koncepcji SD również w wymiarze ekologicznym.
Za szczególnie zbieżne z wytycznymi koncepcji SD sposoby działań, prowadzonych na
gruncie gospodarki społecznej, należy uznać:
1.
przeciwdziałanie wykluczeniu społecznemu, bezrobociu i ubóstwu w sposób aktywny;
Na gruncie koncepcji SD uznaje się, że bieda i zubożenie szerokich grup społecznych stanowi główną barierę jej realizacji w wymiarze środowiskowym;
2.
eksponowanie poziomu lokalnego jako właściwego obszaru działania. Agenda
21 eksponowała rolę lokalnych Agend 21, jako głównego poziomu, na którym
należy wdrażać jej wytyczne w sferze społecznej i ekologicznej;
3.
akcentowanie partnerstwa międzysektorowego jako ważnego instrumentu
generowania rozwoju lokalnego;
4.
powiązanie ekonomii społecznej czy też jej współbieżność z koncepcją społecznej odpowiedzialności biznesu, jako sposobu na równoważenie działalności gospodarczej w wymiarze społecznym, a także środowiskowym.
Literatura
Atlas dobrych praktyk ekonomii społecznej, www.ekonomiaspoleczna.pl.
Ekologizacja kryteriów zamówień publicznych – wytyczne Komisji Europejskiej 2006, red.
Z.J. Gurgul, „Problemy Ekologii”, Rok X-Nr 1(55), styczeń-luty.
206
Recenzje i informacje
Iwankiewicz-Rak B. 2002 Słabe państwo – silny trzeci sektor? Wybrane problemy rozwoju i funkcjonowania organizacji pozarządowych, w: Samoorganizacja społeczeństwa polskiego: trzeci sektor, red. P. Gliński, B. Lewenstein, A. Siciński, Warszawa.
Kapitał społeczny. Ekonomia społeczna 2007, red. T. Kaźmierczak, M. Rymsza, Warszawa.
Kaźmierczak T. 2007 Zrozumieć ekonomię społeczną, w: Kapitał społeczny, Ekonomia
społeczna, red. T. Kaźmierczak, M. Rymsza, Warszawa.
Kwaśnicki W. 2005 Gospodarka społeczna z perspektywy ekonomii liberalnej, „Trzeci
Sektor” nr 2.
Niedek M. 2005 Etyka biznesu i etyka środowiskowa w koncepcji społeczno-ekologicznej
odpowiedzialności przedsiębiorstw, red. Z. J. Gurgul, „Problemy Ekologii”, Rok IX-Nr
6(54), listopad-grudzień.
Podstawowe fakty o organizacjach pozarządowych. Raport 2006, red. M. Gumkowska, J.
Herbst, http://badania.ngo.pl.
Przyjazne środowisku miejsca pracy. Społeczne przedsięwzięcia 2003, Warszawa.
Ustawa o działalności pożytku publicznego i o wolontariacie z dnia 24 kwietnia 2003,
(Dz.U. z 2003 r., Nr 96, poz. 873 i z 2004 r. Nr 64, poz. 597).
Ustawa o zatrudnieniu socjalnym z dnia 13 czerwca 2003 r. (Dz.U. Nr 122, poz. 1143).
Wspieranie ekonomii społecznej przez administrację publiczną, opracowanie w ramach
projektu PIW EQUAL W poszukiwaniu polskiego modelu ekonomii społecznej, 2007,
Warszawa.
Założenia i opinie do ustawy o przedsiębiorstwie społecznym, http://wiadomosci.ngo.pl/
/wiadomosci/ (data ostatniego pobrania: 25.10.2007 r.).
OPTIMUM – STUDIA EKONOMICZNE NR 1 (37) 2008
Praca doktorska
Promotor:
Recenzenci:
mgr Wojciecha Tarasiuka
dr hab. Marek Proniewski (prof. UwB)
prof. dr hab. Jerzy Węcławski (UMCS)
prof. dr hab. Jerzy Sikorki (UwB)
EFEKTYWNOŚĆ PLACÓWEK BANKU DETALICZNEGO
Publiczna obrona rozprawy doktorskiej odbyła się 14 maja 2007 roku
na Wydziale Ekonomii i Zarządzania Uniwersytetu w Białymstoku
Bankowość detaliczna w chwili obecnej znajduje się w okresie dynamicznych przemian modelu biznesowego, strategii bankowych a wraz z tym struktur organizacyjnych.
W omawianej pracy podjęto próbę ujęcia problematyki efektywności funkcjonowania placówek banku detalicznego w aspekcie wymienionych zagadnień.
W warstwie teoretycznej celem poznawczym rozprawy stała się identyfikacja problematyki celów strategicznych banków w obliczu nowych uwarunkowań rozwojowych sektora bankowości detalicznej w Polsce i Europie oraz metod pomiaru stopnia i sposobu realizacji zamierzeń strategicznych.
Celem praktycznym była natomiast próba modelowego ujęcia oraz propozycja ocen
efektywności funkcjonowania placówek bankowych Ponadto, zamierzeniem było opracowanie takich narzędzi ocen placówek bankowych, które pozwalałyby na ich konkretne wykorzystanie. Autor wykorzystał doświadczenia praktyczne oraz dostępne prac teoretyczne
w celu wskazania najlepszych praktyk analitycznych.
W pracy postawiono główną hipotezę mówiącą, iż efektywność placówek bankowych determinowana jest przez cele strategiczne i organizację banku detalicznego.
Jej weryfikacja następowała z zastosowaniem wielu metod używanych w naukach ekonomicznych, a zwłaszcza narzędzi analiz finansowych.
W części teoretycznej posłużono się analizą porównawczą literatury polskiej i obcojęzycznej oraz analizą porównawczą opisującą zjawiska w polskim i europejskim systemie
bankowym. W części badawczej zaproponowano model wyników sieci placówek, dla którego źródłem danych były informacje otrzymane z jednego z dużych banków o detalicznym charakterze. Wyniki tej sieci placówek zostały poddane analizie efektywności z wykorzystaniem trzech rodzajów podejść: metod taksonomicznych, podejścia nieparametrycznego – metody Data Envelopment Analysis (DEA) oraz analizy wykorzystującej wskaźniki pomiaru kreowanej wartości. Poza tym, zostały wykorzystane inne narzędzia analizy
wykazujące bliskie związki ze wspomnianymi metodami, tj. klasyfikacje metodą Warda,
indeks Malmquista oraz analizy portfelowe i rankingi porównawcze (benchmark). Praca
składała się z sześciu rozdziałów.
Na podstawie przeprowadzonych rozważań sformułowano następujące kluczowe
wnioski, wynikające z jej części teoretycznej.
Osiągnięcie wysokiej efektywności o charakterze operacyjnym nie można uznawać za
samoistny cel strategiczny. Efektywność operacyjną osiąga się bowiem przez wykonywanie podobnych czynności jak konkurenci, ale przy wyższej produktywności. Każda firma
musi poprawiać swą efektywność operacyjną, ale jednocześnie musi poszerzać zakres
swej unikalności.
208
Recenzje i informacje
Przedsiębiorstwa nie tyle posiadają problem z formułowaniem strategii, ile odpowiednim modelem kontroli jej realizacji. Wśród głównych imperatywów działania zwraca się
uwagę na kreowanie wartości. Pojawiają się jednak pewne wątpliwości, czy wartość powinna być również celem dla przedsiębiorstwa bankowego.
Klasyczne w ekonomii pojęcie efektywności okazuje się być wieloznaczne. Przystąpienie do pomiaru efektywności wymaga wcześniejszego określenia jej wymiarów i perspektyw, w sposób spójny i adekwatny do zamierzeń strategicznych, skoro efektywność mierzy także postępy realizacji strategii.
Wobec zmieniającego się sektora bankowego istnieje potrzeba nowego spojrzenia na
definicję podmiotów finansowych, operujących na rynku obsługi klientów detalicznych i drobnych przedsiębiorców. Pomimo burzliwej dynamiki zmian, placówka bankowa zachowała
swe znaczenie, a wręcz jej rola ulega zwiększeniu. Placówka bankowa nie opiera się zmianom, przekształca jednak swe tradycyjne oblicze i funkcje.
Pomiar efektywności placówek bankowych jest częścią szerszego systemu pomiaru
osiągnięć banku a zarazem kryterium oceny. Pomiaru można dokonywać na poziomie
strategicznym przez określenie skuteczności realizacji celów wyznaczonych dla oddziałowego kanału dystrybucji oraz przez porównanie efektywności z innymi kanałami dystrybucji usług bankowych. Na poziomie operacyjno-strategicznym pomiar może prowadzić
do określenia zależności efektów wybranych grup placówek od takich czynników, jak: rodzaj lokalizacji, charakter biznesowy, wielkość operacji, potencjał otoczenia czy aktywność
sprzedażowa. Wreszcie na poziomie pojedynczej placówki chodzi o stopień realizacji
mikrocelów, rentowność, produktywność, efektywność operacyjną, a przede wszystkim
„dobry wzrost” generujący wartość i zwiększający udziały rynkowe placówki.
Dobry system oceny efektywności placówek powinien charakteryzować niesprzecznością, spójnością i dopasowaniem, różnorodnością płaszczyzn oceny, obiektywizmem oraz
dostosowaniem do potrzeb i percepcji odbiorców. Kryteriami mającymi podstawowe znaczenie przy tego typu rozważaniach są, jak sądzę, cele działalności bankowej oraz powiązane z nimi strategie.
W trakcie rozważań ważnymi okazały się narzędzia analizy finansowej, pozwalające
na stworzenie zależności przyczynowo-skutkowych, wyrażonych w sposób typowy dla świata finansów. W szczególności wskazano na modele finansowe placówki bankowej oraz
modele rozliczeń wyników w kanałach dystrybucji. Tylko w modelu placówki bankowej
jako centrum relacji z klientami dokonuje się pełnych rozliczeń efektów i nakładów. W modelu nakierowanym na odpowiedzialność za segment oraz w modelu tzw. swobodnej architektury nie jest możliwa ani też celowa kalkulacja efektywności zawierająca wszystkie
składniki efektów i nakładów.
Efektywność we wszystkich etapach zarządzania strategicznego występuje jako: cel,
miara osiągnięć, kryterium oceny i kryterium decyzyjne. Tak rozumiana efektywność pozostaje szczególnie ważna na etapach: wyboru wariantów strategicznych banku (strategii
funkcjonalnych i strategii rodzajów działalności) oraz alokacji zasobów.
W części badawczej pracy posłużono się informacjami o sieci 36 placówek zlokalizowanych na obszarze jednego województwa, pochodzące z dużego banku o detalicznym
charakterze.
W wyniku zastosowania kilku metod oceny efektywności stwierdzono, że prowadzą one
do uzyskania jedynie podobnych wyników. Zbieżność tendencji nie jest wystarczającą przesłanką aby można było przyjąć, że istnieje jakiś rodzaj zastępowalności metod. Tym ważniejszym staje się zachowanie spójności pomiędzy celami, jakimi kieruje się bank detaliczny, a stosowanym sposobem pomiaru efektywności. Metody wielokryterialne, syntetyzujące różne aspekty efektywności, mogą służyć przede wszystkim odkrywaniu tendencji
i celom zarządzania strategicznego. Zaproponowana ocena z wykorzystaniem koncepcji
dodawania wartości, posiada zarówno walor analizy strategicznej, jak też operacyjnej.
Okazała się prosta w warstwie metodologicznej, czytelna w warstwie komunikacyjnej i przyniosła satysfakcjonujący rezultat badawczy.
Recenzje i informacje
209
Uporządkowaną analizę stopnia wykonania postawionych przed placówką celów
osiąga się przez analizę łańcucha wartości placówki bankowej. Jego operacjonalizacją
może być zaproponowana karta dokonań placówki bankowej oraz karta wykonania celów
i efektywności pracowników. Pomagają one w dezagregacji celów strategicznych do poziomu czynności sprzedaży placówek bankowych. Ustalanie celów indywidualnych oraz
pomiar efektywności personelu placówek bankowych musi uwzględniać specyfikę organizacji placówek oraz uwarunkowania wynikające z trudności określenia syntetycznej miary
efektów jej pracy. W warstwie metodologicznej dekompozycja celów, w ramach struktur
organizacyjnych banku, jest krytycznym czynnikiem efektywności jego oddziałów.
Alokacja zasobów w banku jest nierozłącznie związana z procesem planowania, budżetowania i oceną rezultatów. Zastosowanie efektywności jako kryterium decyzyjnego może być wielorakie. Przykładowo może obejmować: identyfikację obszarów wzrostu banku,
wykorzystanie łańcucha wartości placówek do identyfikacji przyczyn zróżnicowania osiąganych przez placówkę wyników, prognozowania wyników z użyciem analiz wrażliwości.
W przypadku analizowanej sieci placówek okazało się, że placówki, które mogłyby dynamizować rentowność kapitału, nie pokrywają się z tymi, które dynamizowałyby wydajność.
Sprzężenie zwrotne efektywności ze strategią zostało wykazane także na przykładzie
procedur modelowania struktury sieci oddziałów. Modelowanie ma na celu ustalenie odpowiedniej struktury sieci placówek bankowych, z punktu widzenia wybranego kryterium,
jakim może być np.: wielkość placówek, lokalizacja geograficzna i mikrolokalizacja, specyfika biznesowa. W przypadku analizowanej sieci okazało się, że małe placówki bankowe nie zapewniają osiągnięcia celów banku w kategoriach wartości. Małe placówki mogą
mieć pozytywny wpływ na tempo wzrostu banku, ale równocześnie stwarzają ryzyka uzyskania niesatysfakcjonującej rentowności i charakteryzują się wysokim stopniem zróżnicowania wyników. Tym samym ostrożnie można podejść do tezy, że efekt skali w działalności bankowej występuje także na poziomie placówek bankowych.
Ostatni analizowany przykład opierał się na założeniu, że atrakcyjność rynku geograficznego może zostać zweryfikowana przez zastosowanie kryteriów efektywności działających na nim placówek. Efektywność placówek banku detalicznego syntetycznie odzwierciedla bowiem efekty zależne od banku oraz zewnętrzne uwarunkowania, wśród których
atrakcyjność rynków posiada ważne znaczenie. O atrakcyjności rynków decyduje z kolei
jego potencjał oraz czynniki instytycjonalne i społeczne. Przy okazji dostrzeżono, że istnieje
dodatnia korelacja pomiędzy wysokim poziomem wskaźników liczby pracowników bankowych, przypadających na przeciętnego mieszkańca danego obszaru geograficznego, a satysfakcjonującą efektywnością placówki.
Na podstawie materiału badawczego i zastosowanych procedur zweryfikowano postawione hipotezy, co pozwala ostatecznie skonstatować, że efektywność placówek bankowych jest determinowana strategią i organizacją banku detalicznego.
OPTIMUM – STUDIA EKONOMICZNE NR 1 (37) 2008
Praca doktorska
Promotor:
Recenzenci:
mgr Adama Giegiela
prof. dr hab. Kazimierz Meredyk (UwB)
dr hab. Adam Szafarczyk (prof. WSU)
dr hab. Henryk Wnorowski (prof. UwB)
KAPITAŁ NIEMATERIALNY A TEMPO WZROSTU GOSPODARCZEGO
(NA PRZYKŁADZIE PAŃSTW OECD)
Publiczna obrona rozprawy doktorskiej odbyła się 2 lipca 2007 roku
na Wydziale Ekonomii i Zarządzania Uniwersytetu w Białymstoku
W rozprawie podejmowany jest problem relatywnie niskiego, w porównaniu do Stanów Zjednoczonych, tempa wzrostu gospodarczego krajów Unii Europejskiej (a ściślej
rzecz biorąc UE-15). Zarysowany problem w największym stopniu dotyczy kontynentalnych gospodarek Europy Zachodniej, bowiem ich dynamika rozwojowa wyraźnie kontrastuje z szybką ekspansją Stanów Zjednoczonych, szczególnie w ostatniej dekadzie ubiegłego stulecia. W okresie 1990-1995 dochód narodowy USA rósł średnio o 0,9% szybciej
niż PKB Unii Europejskiej, zaś w drugiej połowie lat 90-tych o 1,3%. Ta najdłuższa w historii
Stanów Zjednoczonych ekspansja przełożyła się na łączny wzrost PKB aż o 41% w ciągu
dziewięciu lat (1991-2000). Wysokiemu wzrostowi gospodarczemu w USA towarzyszyło
jednoczesne obniżanie się inflacji, bezrobocia, wzrost produktywności oraz duże inwestycje w sektor technologii ICT.
Najbardziej charakterystyczną cechą omawianego okresu jest odwrócenie się trendów konwergencji ekonomicznej, rozpoczętych pod koniec drugiej wojny światowej. Efektem szybszego tempa wzrostu produktu w USA, dłuższego czasu pracy i większej wydajności na zatrudnionego jest pogłębiająca się różnica w PKB per capita na korzyść Stanów
Zjednoczonych. Obecnie przeciętny dochód na mieszkańca w krajach Unii Europejskiej stanowi jedynie ok. 70% poziomu amerykańskiego (licząc wg parytetu siły nabywczej wynosił w 2005 roku 29 900 dolarów, podczas gdy w USA ukształtował się na poziomie 41 900
dolarów). Przedstawione zjawiska sugerują, iż relatywnie słabsza dynamika wzrostowa
UE-15 w porównaniu do USA ma przyczyny strukturalne, a nie koniunkturalne. Celem rozprawy jest zatem próba odpowiedzi na pytanie o podstawowe czynniki wzrostu współczesnych gospodarek wysoko rozwiniętych.
W związku z tym sformułowano hipotezę główną, iż niezbędnym warunkiem zdynamizowania wzrostu gospodarczego w krajach Unii Europejskiej jest zwiększona akumulacja kapitału niematerialnego. Dla potrzeb rozprawy przyjęto, iż kapitał niematerialny reprezentuje sumę wartości niematerialnych w gospodarce, charakteryzujących się zdolnością do wytwarzania nadwyżki ekonomicznej (wartości dodatkowej). W tym kontekście można uznać,
iż kapitałem jest współcześnie każdy zasób (czynnik), który ma wartość i służy do produkcji dóbr i usług, jak też budowaniu bogactwa. Podstawowe elementy strukturalne kapitału
niematerialnego identyfikowane w literaturze to kapitał ludzki i kapitał społeczny.
Zgromadzone w rozprawie dane potwierdzają, iż kapitał ludzki, zarówno w aspekcie ilościowym, jak i jakościowym, stanowi kluczowy czynnik wzrostu gospodarczego. Koncepcja
kapitału ludzkiego wywodzi się z prac T. Schultza i G. Beckera, którzy stwierdzili, że nabyte
przez ludzi umiejętności i wiedza są formą kapitału, i że kapitał ten jest w znacznej mierze
Recenzje i informacje
211
efektem celowych inwestycji. Specyficzną cechą tak rozumianego kapitału jest jego nieodłączność od jednostki ludzkiej, tj. od jej właściwości fizycznych, psychicznych i moralnych. Inwestowanie w kapitał ludzki związane jest z ponoszeniem nakładów na oświatę
i kształcenie. W szerokim ujęciu do tego typu inwestycji zalicza się również inne wydatki,
oddziałujące na poprawę jakościowych cech pracy, tj. inwestycje w zdrowie, ochronę środowiska itp. Sam proces inwestycyjny jest dość specyficzny, ponieważ wymaga dokonania przez każdą jednostkę wyboru w zakresie podziału posiadanego czasu pomiędzy pracę a czas wolny.
Spośród wysoko rozwiniętych gospodarek, największymi zasobami kapitału ludzkiego
dysponują Stany Zjednoczone, dalece dystansując pod tym względem kraje UE-15. Stany Zjednoczone pozostają światowym liderem pod względem wielkości nakładów edukacyjnych zarówno w ujęciu bezwzględnym, jak i względnym. Udział tych wydatków sięga
za oceanem 7,5% PKB (w tym ok. 3% przeznaczanych na edukację wyższą), podczas gdy
w Europie analogiczne wskaźniki są przeciętnie o 1,5 punktu proc. niższe. Z podobną sytuacją mamy do czynienia biorąc pod uwagę nakłady w ujęciu relatywnym, a więc w przeliczeniu na jednego uczącego się. W szkolnictwie wyższym wynoszą one w USA ponad
24 tys. dolarów per capita, podczas gdy w Szwecji, najlepszej pod tym względem w Europie, jedynie ok. 16 tys. Przewaga Stanów Zjednoczonych wynika także z większej efektywności systemu kształcenia, mierzonej procentowym udziałem studentów w całości populacji, jak również wskaźnikami jakościowymi, oceniającymi wkład ludności z wyższym
wykształceniem w tworzeniu wartości dodanej.
Przeprowadzona analiza pozwala stwierdzić, iż kapitał ludzki jest konieczną, ale nie
wystarczającą przesłanką szybkiego wzrostu gospodarczego. Czynniki społeczno-instytucjonalne i organizacyjne mogą doprowadzić do tego, że nawet przy dużych zasobach
kapitału ludzkiego wiedza może być wykorzystywana w sposób nieefektywny. Spostrzeżenie to prowadzi do konkluzji, iż równie ważnym i komplementarnym wobec kapitału
ludzkiego czynnikiem wzrostu jest kapitał społeczny. Oczywiste jest, iż jednostki podejmujące grę na dowolnym rynku nie są osamotnione – wręcz przeciwnie: podczas takiej
gry nieustannie angażują się w interakcje i tworzenie sieci społecznych w celu zwiększenia swoich potencjalnych korzyści. Koncepcja kapitału społecznego, rozwijana m.in. przez
J. Colemana, R. Putnama i F. Fukuyamę odnosi się zatem do działań zbiorowych, do wzajemnych interakcji i współpracy w procesie gospodarczym.
Kapitał społeczny obejmuje zarówno powszechnie podzielane wartości, normy, nieformalne sieci i partycypację w stowarzyszeniach, jak również formalne instytucje, kształtujące relacje pomiędzy jednostkami, takie jak: system prawny (w tym prawa własności i prawa kontraktowe), system sądownictwa, zakres uprawnień obywatelskich itp.
W działalności gospodarczej szczególną rolę odgrywa norma zaufania. Na szczeblu
organizacji zaufanie określa sposób wykorzystania dostępnych zasobów, decydując tym
samym o przewadze strategicznej, na szczeblu makro zaś postrzegane jest jako czynnik
wzrostu gospodarczego. Kapitał społeczny to również zasoby zawarte w sieciach powiązań
pomiędzy poszczególnymi jednostkami. Sieci i organizacje pełnią ważne funkcje społeczno-gospodarcze, gdyż wspomagają przepływ informacji, pozwalają na wypracowanie nieformalnych reguł kontroli społecznej, a także umożliwiają właściwą koordynację działań
zbiorowych. Zdaniem Putnama, kontakty tego typu mają wymierną wartość ekonomiczną,
bowiem przyczyniają się do tworzenia uogólnionego zaufania pomiędzy członkami danej
społeczności. Kapitał społeczny jest również źródłem wzrostu produktywności, dzięki eliminowaniu oportunistycznych zachowań, związanych ze zjawiskami pogoni za rentą i tzw.
jazdy na gapę (free riding).
W świetle przeprowadzonych badań wnioskuje się również, iż sprawne instytucje formalne mogą być traktowane jako kapitał, dzięki któremu zwiększa się efektywność gospodarowania. Tworzenie odpowiedniej struktury instytucjonalnej w pewnym sensie przypomina proces inwestycyjny, ponieważ wymaga ponoszenia nakładów i ma swój koszt alternatywny.
212
Recenzje i informacje
Formalne instytucje rządu mają za zadanie zmniejszenie niepewności we wzajemnych relacjach między poszczególnymi podmiotami w gospodarce. Szczególne znaczenie
przypisuje się tutaj prawu, tworzącemu usystematyzowany zbiór norm regulujących postępowanie jednostek. Do najważniejszych reguł, z ekonomicznego punktu wiedzenia,
należy sposób uregulowania uprawnień jednostek do zasobów, tj. prawo własnościowe.
Niewłaściwe przypisanie tych praw osłabia bodźce do akumulacji kapitału i inwestowania,
a także przyczynia się do pojawienia się różnego rodzaju dysfunkcji społecznych, jak
przestępczość czy korupcja. Równie ważną rolę odgrywają normy prawne, regulujące
transfer praw własności, czyli prawo kontraktowe. System praw kontraktowych określa zasady zawierania umów gospodarczych oraz wskazuje na metody zabezpieczenia postanowień kontraktu przed ewentualnym nadużyciem ze strony partnerów, dzięki czemu można obniżyć wysokość ponoszonych kosztów transakcyjnych. Przykłady Stanów Zjednoczonych i krajów skandynawskich potwierdzają występowanie pozytywnej korelacji między
zakresem ochrony uprawnień własnościowych oraz sprawnością systemu kontraktowego,
a tempem długookresowego wzrostu gospodarczego. Warto zauważyć, iż analogiczną rolę mogą pełnić nieformalne mechanizmy kontroli społecznej i uogólnione zaufanie.
Konstrukcja metodologiczna rozprawy bazuje zasadniczo na hipotetyczno-dedukcyjnej metodzie badań, wywodzącej się z tradycji racjonalizmu krytycznego. Umożliwia ona
weryfikację hipotezy głównej oraz hipotez szczegółowych, w oparciu o uniwersalne instrumenty badawcze, takie jak analiza i synteza oraz sposoby wnioskowania, jak indukcja
i dedukcja. W procesie weryfikacji wykorzystano również rozumowanie przez analogię, co
umożliwiło konkretyzację przyjętych w rozprawie zależności, a także precyzowanie wniosków. Wykorzystując dostępną na dany temat literaturę krajową i zagraniczną, jak też dane statystyczne OECD, Komisji Europejskiej i Banku Światowego, przeprowadzono równoległą weryfikację teoretyczną i empiryczną.
OPTIMUM – STUDIA EKONOMICZNE NR 1 (37) 2008
Praca doktorska
Promotor:
Recenzenci:
mgr Anety Kargol
prof. dr hab. Jerzy Wilkin (UW)
prof. dr hab. Jerzy Hausner (UE w Krakowie)
prof. dr hab. Jerzy Sikorski (UwB)
PARTNERSTWO PUBLICZNO-PRYWATNE JAKO CZYNNIK
EKONOMIZACJI DOSTARCZANIA DÓBR PUBLICZNYCH
Publiczna obrona rozprawy doktorskiej odbyła się 19 listopada 2007 roku
na Wydziale Ekonomii i Zarządzania Uniwersytetu w Białymstoku
Uzasadnienie wyboru tematu rozprawy
Problematyka ekonomizacji dostarczania dóbr publicznych przez sektor publiczny w Polsce nie doczekała się, jak dotychczas, wielu opracowań. Dostępne publikacje w języku polskim mają raczej charakter teoretyczny, z przewagą tradycyjnego podejścia do rozumienia dóbr publicznych. Analiza dóbr publicznych jest zazwyczaj umiejscowiona w kontekście rozważań dotyczących zakresu funkcjonowania sektora publicznego w gospodarce
i jego wpływu na wzrost gospodarczy. Podejmuje się niewiele prób badania efektywności
sektora publicznego, co jest zrozumiałe ze względu na stopień trudności ekonomicznej analizy efektywności jego funkcjonowania.
Badania nad specyfiką procesów, dokonujących się w obrębie sektora publicznego,
przebiegają w dwóch odrębnych nurtach. Pierwszy z nich koncentruje się na analizie relacji rynek-państwo, uwzględniając przy tym tzw. niedoskonałości rynku (market failures).
Drugi nurt skupia się natomiast na specyfice instytucji publicznych i tzw. niedoskonałościach
rządu (government failures). W zamyśle autorki leżała próba oceny możliwości podniesienia
efektywności funkcjonowania sektora publicznego poprzez zastosowanie alternatywnej
metody dostarczania dóbr publicznych, jaką jest partnerstwo publiczno-prywatne.
Szeroki zakres sektora publicznego w Polsce, w tym zakres świadczenia dóbr i usług
publicznych, mimo szeregu gruntownych reform, jest po części pozostałością poprzedniego systemu społeczno-gospodarczego, w którym państwo pretendowało do roli „głównego aktora na scenie gospodarczej”. Próba zastąpienia sprawności alokacyjnej mechanizmu
rynkowego przez system planowania, oparty na własności państwowej, zakończyła się
zupełną klęską. Zbiurokratyzowany, sztywny układ nie spełniał podstawowych wymagań
zdrowej gospodarki – elastyczności, adaptacyjności i nastawienia na konkurencyjność.
Wybór obszaru badawczego był podyktowany zainteresowaniami autorki funkcjonowaniem sektora publicznego zarówno z punktu widzenia możliwości dokonania analizy ekonomicznej, jak i prawnej. Temat rozprawy wymaga bowiem krytycznej analizy ekonomicznej teorii dóbr publicznych oraz prawno-ekonomicznej analizy partnerstwa publiczno-prywatnego.
Celem teoretycznym, celem dysertacji było dokonanie krytycznej analizy teorii dóbr
publicznych, sposobów ich dostarczania oraz przedstawienie teoretycznych modeli partnerstwa publiczno-prywatnego. Celem empirycznym było natomiast zbadanie wpływu PPP
na ekonomizację dostarczania dóbr publicznych. Dodatkowo celem aplikacyjnym było
przedstawienie wniosków z rozważań teoretycznych nad konstrukcją partnerstwa publicz-
214
Recenzje i informacje
no-prywatnego, przedstawienie procesu tworzenia partnerstwa publiczno-prywatnego, określenie możliwości implementacji rozwiązań teoretycznych PPP w Polsce oraz wskazanie pożądanych kierunków badań związanych z partnerstwem publiczno-prywatnym w przyszłości. Ogólnym celem aplikacyjnym pracy jest poprawa skuteczności i efektywności działania państwa i instytucji sfery publicznej.
Przedmiot zainteresowań i metodologia pracy łączą w sobie zagadnienia z zakresu różnych nurtów ekonomii. Zawierają się one w dziedzinach wiedzy, takich jak: ekonomia sfery
publicznej, normatywna i pozytywna teoria dóbr publicznych, a także ekonomia instytucjonalna, w tym elementy teorii wyboru publicznego, teorii praw własności, teorii agencji i teorii
kosztów transakcyjnych. W rozprawie wykorzystano również elementy teorii gier, w celu
modelowania PPP jako gry.
Analiza poszczególnych problemów została przeprowadzona na dwóch poziomach:
–
międzynarodowym – w odniesieniu do stanu rozwoju partnerstwa publicznoprywatnego w wybranych krajach Unii Europejskiej (ze szczególnym uwzględnieniem Wielkiej Brytanii),
–
krajowym – w odniesieniu do możliwości zastosowania partnerstwa publiczno-prywatnego w celu ekonomizacji dostarczania dóbr publicznych w Polsce.
Realizacja celów rozprawy oraz weryfikacja postawionych hipotez wymagała zastosowania różnych metod badawczych. Wśród nich podstawowe znaczenie miała analiza
opisowa, instytucjonalna analiza porównawcza i analiza przypadków.
Teoretyczna część pracy została zrealizowana w oparciu o przegląd literatury światowej i krajowej z zakresu wyżej przedstawionej problematyki. Z kolei analiza dokumentów
i inicjatyw UE dotyczących partnerstwa publiczno-prywatnego, danych statystycznych i poszczególnych przypadków zastosowania PPP została przeprowadzona na podstawie: danych Komisji Europejskiej, Europejskiego Banku Inwestycyjnego, Banku Światowego, HM
Treasury, Eurostatu oraz materiałów udostępnionych przez polskie instytucje: Urząd Komitetu Integracji Europejskiej, Ministerstwo Finansów oraz Ministerstwo Gospodarki i Pracy. Ponadto, wykorzystano informacje uzyskane w drodze niestandaryzowanych wywiadów z ekspertami.
Wyniki badań, wnioski i rekomendacje
W dobie współczesnej do świadomości przeciętnego Europejczyka wydaje się docierać fakt, że efektem wzrostu gospodarczego powinna być wzrastająca jakość życia. O
niej natomiast świadczy między innymi ilość dóbr i usług publicznych dostępnych dla obywateli zarówno w sferze lokalnej, krajowej, jak i globalnej. Jest to istotne zwłaszcza w Polsce, którą dzieli znaczący dystans do krajów wysoko rozwiniętych, mierzony poziomem
dobrobytu społecznego.
Wobec tego, sektor publiczny, jako podmiot odpowiedzialny za ich dostarczanie, powinien wykorzystać wszystkie dostępne środki, aby sprostać temu zadaniu. Potrzebom tym
może w pewnym stopniu odpowiadać koncepcja partnerstwa publiczno-prywatnego. Partnerstwo umożliwia bowiem ekonomizację działań sektora publicznego w obszarze świadczenia dóbr i usług użyteczności publicznej. Chodzi przede wszystkim o dostarczanie szeroko rozumianej infrastruktury, takiej jak: transport lądowy, morski i powietrzny, uzdatnianie wody i utylizacja odpadów, więzienia, szpitale, szkoły, obiekty rekreacyjno-sportowe,
ochrona środowiska, odrestaurowywanie budynków, informatyzacja, a nawet badania i wdrożenia.
Partnerstwo publiczno-prywatne polega na kooperacji dwóch sektorów, publicznego
i prywatnego, które charakteryzują się odmienną logiką funkcjonowania. W założeniach
sektor publiczny kieruje się osiągnięciem korzyści dla interesu publicznego, rozumianego
w szczególności jako oszczędność w gospodarowaniu środkami publicznymi, podniesienie standardu świadczonych usług lub zmniejszenie uciążliwości dla otoczenia. Z drugiej
Recenzje i informacje
215
strony sektor prywatny kieruje się motywem osiągnięcia zysku. Zatem współpraca między
tymi sektorami powinna przynosić korzyści obydwu stronom. Argumentem przemawiającym na rzecz PPP jest możliwość wykorzystania umiejętności sektora prywatnego, jego
elastyczności, innowacyjności, szybkiej adaptacji zmian i nastawienia na konkurencyjność, a także metod zarządzania do budowy infrastruktury społecznej i ekonomicznej. Doświadczenie ostatniej dekady XX wieku oraz początek obecnego stulecia ukazuje, że jesteśmy świadkami powstawania nowej wizji funkcjonowania państwa i sfery publicznej.
Partnerstwo publiczno-prywatne, jako koncepcja teoretyczna, jest obszarem coraz
częstszego zainteresowania ze strony badaczy naukowych. Potwierdzeniem ważności
tego pola badawczego jest wydany w 2005 r., przez An Elgar Reference Collection (jedno
z najbardziej znaczących wydawnictw naukowych z zakresu ekonomii, zarządzania i prawa na świecie) zbiór, zatytułowany: Economics of Public Private Partnerships. Wyżej wymieniona publikacja, opracowana przez D. Grimsey'a i M.K. Lewisa, obejmuje najważniejszy dorobek naukowy w dziedzinie PPP na świecie. Można zatem wyciągnąć wniosek, że
PPP „znaczy” (PPP matters).
Przegląd literatury światowej pozwala na obserwację kilku nurtów badawczych, związanych z PPP. Pierwszy koncentruje się na zmianie podejścia do badania rynku dóbr publicznych (szeroka koncepcja urynkowienia). Drugi wiąże się z analizą modeli prywatnego
finansowania szeroko rozumianej infrastruktury. Trzeci odnosi się do „filozofii PPP”, rozumianej jako podjęcie współpracy sektora publicznego i prywatnego oraz przezwyciężenie
sprzeczności związanych z odmienną logiką funkcjonowania obydwu sektorów i wykorzystanie efektu synergii. Czwarty koncentruje się na aspektach zarządzania PPP, ze szczególnym uwzględnieniem zarządzania ryzykiem. Wydaje się, że można wyodrębnić również piąty nurt badawczy, związany z instytucjonalnymi podstawami analizy PPP i możliwością zastosowania teorii gier do modelowania efektywnego partnerstwa.
Jak przedstawiają to autorzy przytaczanego opracowania, literatura dotycząca PPP
jest relatywnie nowa. Do opracowania został włączony najwcześniejszy artykuł P. Starr’a
z 1988 r., odnoszący się do różnych znaczeń prywatyzacji. W Polsce rosnące zainteresowanie PPP można zaobserwować z początkiem XXI w., np. w publikacjach: J. Zysnarskiego, M. Moszoro, K. Brzozowskiej, B.P. Korbusa i M. Strawińskiego. Koncepcja PPP nie
jest natomiast nowa. Chodzi jednak o konstatację faktu kształtowania się nowej subdyscypliny naukowej – ekonomii partnerstwa publiczno-prywatnego. Jest to dziedzina wiedzy in
statu nascendi, dlatego też niezwykle cenną rzeczą wydaje się uporządkowanie oraz
wskazanie kierunków badań nad PPP na świecie i w Polsce.
Po pierwsze należy rozważyć intelektualne korzenie koncepcji partnerstwa w kategoriach zmieniającego się rynku na publiczne dobra i usługi oraz przeanalizować założenia
modelu prywatnego finansowania. Po drugie istnieje potrzeba badania aspektów zarządzania organizacją i ryzykiem, zwłaszcza w przypadku budowy dróg, systemów kolei, mostów, tuneli, oczyszczalni ścieków, prywatnych więzień, szpitali, sądów, muzeów, obiektów
sportowych, szkół, obiektów rządowych itp. PPP bowiem czerpie z elementów dwóch dyscyplin naukowych: ekonomii i zarządzania. Warto przy tym pamiętać, że PPP opiera się na
relacjach podziału ryzyka. Projekt musi być skonstruowany w taki sposób, aby została
osiągnięta optymalna alokacja ryzyka. Ponadto, PPP nie należy utożsamiać z prywatnym
finansowaniem infrastruktury. W ramach partnerstwa sektor publiczny nabywa bowiem
usługi od sektora prywatnego w imieniu społeczeństwa, ale zatrzymuje wyłączną odpowiedzialność za ich dostarczanie, mimo że są one świadczone przez sektor prywatny przez
długi czas. Jeśli mamy do czynienia z prywatyzacją, sektor prywatny bierze na siebie również odpowiedzialność za ich dostarczanie. PPP nie jest więc prywatyzacją.
W rzeczywistości model PPP jest bardzo elastyczny. W zasadzie nie ma rdzennych
funkcji, które nie mogą być realizowane przez sektor prywatny oraz działalności, dla której publiczne dostarczanie jest niewykonalne. PPP jest po prostu metodą dostarczania
dóbr i usług publicznych. Zazwyczaj można nazwać to zarządzaniem publicznym albo
urynkowieniem sektora publicznego – korporatyzacja, prywatyzacja, komercjalizacja, me-
216
Recenzje i informacje
nedżeryzm, outsourcing, albo ograniczeniem działalności sektora publicznego. Partnerstwo stanowi zatem egzemplifikację tych trendów.
Wobec prezentowanych wyników przeprowadzonej w dysertacji analizy, mającej
przede wszystkich charakter jakościowo-teoretyczny, należy stwierdzić, że hipotezy sformułowane we wstępie zostały zweryfikowane pozytywnie.
Partnerstwo publiczno-prywatne, jak wynika z danych dotyczących Wielkiej Brytanii,
przynosi korzyści kosztowe oraz zwiększa jakość dostarczanych dóbr i świadczonych usług. Od 1987 r. do końca 2006 r. w Wielkiej Brytanii podpisano 794 umowy PFI/PPP o łącznej wartości kapitału ponad 54,5 mld funtów, co stanowi ok. 10-15% wydatków sektora
publicznego rocznie. Zgodnie ze stanem na 2005 r., w ramach przeprowadzonych przez
Ministerstwo Finansów analiz, ok. 80% użytkowników jest zawsze, albo prawie zawsze
zadowolonych z usług, które są świadczone. Z kolei, jeśli chodzi o korzyści kosztowe, zgodnie z badaniem przeprowadzonym w styczniu 2000 r., w porównaniu z tradycyjnymi formami zamówień publicznych – PPP przynosi wyższy wskaźnik korzyści i daje przeciętnie
oszczędności wynoszące ponad 17%. Metoda PPP okazuje się też skuteczniejsza w eliminowaniu opóźnień w realizacji projektów. Wyniki analiz przeprowadzonych w 2003 r. wykazały, że 90% projektów zostało zrealizowanych terminowo, w każdym przypadku sektor
publiczny zapłacił tyle, ile zakładał. Wyniki te zostały potwierdzone przez niezależne Narodowe Biuro Audytów (National Audit Office). Zatem upowszechnianie stosowania PPP
przynosi oszczędności wynikające zarówno z obniżenia kosztów inwestycyjnych, jak i kosztów świadczenia usług użyteczności publicznej, jest to więc dowód na to, że przyczynia się
do efektywniejszej alokacji zasobów.
Ponadto, rozwój integracji europejskiej poszerza zapotrzebowanie na różne formy
partnerstwa. Warto jednak zauważyć, że na poziomie UE nie ma jednoznacznej definicji
partnerstwa publiczno-prywatnego. Sformułowane zostały tylko określone ramy regulacyjne i umowne, które powinny być stosowane przy tworzeniu PPP. Zwiększa to zatem możliwości eksperymentowania instytucjonalnego w sektorze publicznym. Należy też podkreślić, że partnerstwo nie jest uniwersalnym instrumentem. Może być wykorzystywane tylko
tam, gdzie realne jest osiągniecie lepszych efektów ekonomicznych i społecznych. Współpraca musi odbywać się z poszanowaniem zasad konkurencji. Przy tworzeniu PPP należy stosować przepisy o zamówieniach publicznych. Poza tym, przyznawanie kontraktów
PPP nie może stanowić pomocy publicznej (musi istnieć pełna spójność z przepisami dotyczącymi pomocy publicznej). Wybór odpowiedniego modelu PPP powinien również zagwarantować optymalny sposób wykorzystania środków. Niemniej jednak Unia Europejska zaleca, by kraje członkowskie wykorzystywały model PPP tam, gdzie jest to uzasadnione.
W polskim prawie istnieje legalna definicja partnerstwa, określona w art. 1 ust. 2 ustawy o PPP: partnerstwo publiczno-prywatne to oparta na umowie o partnerstwie publicznoprywatnym współpraca podmiotu publicznego i partnera prywatnego, służąca realizacji zadania publicznego. Według ustawy, partnerem prywatnym może być: przedsiębiorca w rozumieniu przepisów ustawy o swobodzie działalności gospodarczej, organizacja pozarządowa, kościół lub inny związek wyznaniowy, podmiot zagraniczny, jeżeli jest przedsiębiorcą w rozumieniu prawa kraju rejestracji oraz spełnia warunki do wykonywania działalności
gospodarczej w Polsce.
Do podmiotów publicznych, które mogą zawrzeć umowę o PPP, w ustawie zalicza
się: organy administracji rządowej, jednostki samorządu terytorialnego, fundusze celowe,
państwowe szkoły wyższe, jednostki badawczo-rozwojowe, samodzielne publiczne zakłady opieki zdrowotnej, państwowe i samorządowe instytucje kultury, Polską Akademię
Nauk, państwowe i samorządowe osoby prawne utworzone na podstawie odrębnych ustaw, z wyłączeniem banków, przedsiębiorstw i spółek handlowych, niezależnie od ich struktury kapitałowej.
Zgodnie z obowiązującym porządkiem prawnym, mamy do czynienia z zamkniętym
katalogiem desygnatów „przedsięwzięć”, które mogą być realizowane w ramach partnerstwa. Skuteczność wdrażania PPP w Polsce może być jednak ograniczona pewnym bra-
Recenzje i informacje
217
kiem precyzji w sformułowaniach ustawy. Unia Europejska wyodrębnia partnerstwo umowne i partnerstwo zinstytucjonalizowane i w ostatnich dokumentach (Sprawozdanie Parlamentu Europejskiego w sprawie partnerstw publiczno-prywatnych oraz prawa wspólnotowego w zakresie zamówień publicznych i koncesji z 2006 r.) i do tego ostatniego zwłaszcza odnosi wszelkie regulacje dotyczące modelowania PPP. Same regulacje prawne nie
będą jednak wystarczające. Konieczne jest upowszechnienie wiedzy o PPP w postaci
organizacji seminariów i szkoleń, dla władz samorządowych, które mogą być zainteresowane wykorzystaniem PPP w obliczu ograniczeń poszczególnych budżetów lokalnych oraz
możliwości finansowych budżetu państwa, które też nie dysponuje nieograniczonymi
środkami. Ponadto, być może celowe jest stworzenie jednostki krajowej koordynującej do
spraw PPP oraz jednostek regionalnych, np. stworzenie sieci regionalnych ośrodków odpowiedzialnych za zarządzanie PPP. Powinno się również opracować formy wymiany
doświadczeń w ramach najlepszych i najgorszych praktyk. Dodatkowo użyteczne, byłoby
przeprowadzenie projektów pilotażowych w różnych sektorach: transport, wodociągi,
szpitale, więzienia, obiekty rekreacyjne itd. Konieczna jest też standaryzacja umów, która
przyspieszy proces przygotowania przedsięwzięcia w ramach PPP i umożliwi szybsze
jego wdrożenie. Poza tym, warte rozważenia jest zastosowanie gwarancji i poręczeń rządowych przy realizacji szczególnie skomplikowanych projektów, o dużej wartości zaangażowania kapitałowego.
Mówiąc inaczej, niezbędne jest stworzenie właściwego instytucjonalnego systemu funkcjonowania partnerstwa publiczno-prywatnego w Polsce. Autorka pracy opowiada się za
stworzeniem przede wszystkim jednostki krajowej do spraw PPP, za przykładem Wielkiej
Brytanii, co może przyczynić się do przełamania stereotypów w myśleniu, że współpraca
między sektorem publicznym a sektor prywatnym jest zagrożona wysokim prawdopodobieństwem wystąpienia zjawiska korupcji. Poza tym, precedensowy charakter ustawy może korzystnie wpłynąć na sektor prywatny, ponieważ uregulowania prawne w niej zawarte
ograniczają ryzyko podejmowania przedsięwzięć PPP. Należy przy tym pamiętać, że PPP
musi opierać się na relacjach zaufania, a obydwie strony powinny dobrze zrozumieć własne, odmienne cele i dążyć do zawarcia obopólnie satysfakcjonującego kontraktu.
Dla badacza, zwłaszcza młodego, największą trudnością jest syntetyczne ujmowanie
wniosków z przeprowadzonych analiz oraz próba oceny badanego zjawiska. Jeszcze kilka lat temu koncepcja partnerstwa publiczno-prywatnego była dla autorki rozprawy zupełnie obcym pojęciem, ponadto niewiele było teoretycznych analiz, które pozwalałyby na zapoznanie się z jego istotą. Dokonując wyboru obszaru badawczego, autorka nie do końca
zdawała sobie sprawę z wielopłaszczyznowości problematyki oraz trudności analizy teoretycznej i empirycznej przedmiotowego zagadnienia. Nie roszcząc sobie prawa do miana
znawcy zasad funkcjonowania PPP, autorka pragnie wskazać na klika istotnych elementów, które wydają się przesądzać o powodzeniu realizacji partnerstwa, wskazać na zalety, a także na potencjalne obszary zagrożeń w efektywnym jego wdrażaniu.
Atrakcyjności i użyteczności koncepcji PPP można upatrywać w możliwości zastosowania różnorodnych rozwiązań, w zależności od potrzeb społecznych, rodzaju dostarczanego dobra lub świadczonej usługi, rodzaju projektu, a także od uwarunkowań społecznogospodarczych, woli partnerów oraz społecznej akceptowalności. Należy mieć jednak na
względzie, że przeniesienie znaczącej części ryzyka, związanego z realizacją inwestycji,
na partnera prywatnego nie zwalnia bynajmniej podmiotu publicznego z odpowiedzialności
za dostarczenie danego dobra lub usługi. Przy modelowaniu PPP należy wziąć pod uwagę
najlepsze cechy sektora publicznego – planowość, przewidywalność, ostrożność oraz
najlepsze cechy sektora prywatnego – elastyczność, efektywność, podejmowanie ryzyka,
szybkość działania. Efekt synergii obydwu tych sektorów pozwala na uzyskanie wartości
dodanej w postaci większej ilości dóbr publicznych i/lub wyższej jakości. Przeszkodami
w sprawnym wdrażaniu PPP mogą być z kolei przepisy prawne, które powodują, że proces przygotowania inwestycji w tym modelu jest czasochłonny i skomplikowany. Barierą
w rozwoju PPP jest niewątpliwie brak projektów pilotażowych oraz niedostateczny stopień
218
Recenzje i informacje
aprobaty ze strony rządzących, administracji publicznej oraz całego społeczeństwa. Jednak partnerstwo posiada ogromny potencjał wzrostu. Mając na uwadze regulacje unijne
dotyczące PPP, trzeba dążyć do stworzenia właściwych ram jego wykorzystania.
Na zakończenie autorka pragnie wskazać kierunki przyszłych badań nad partnerstwem
publiczno-prywatnym, które powinny wiązać się w Polsce z doskonaleniem środowiska
prawnego, procesem standaryzacji umów, czyli doskonaleniem kontraktów PPP, stworzeniem
optymalnej struktury instytucjonalnej partnerstwa, co jest istotne z punktu widzenia możliwości wykorzystania partnerstwa grantowego, które dotyczy wykorzystywania środków publicznych krajowych i wspólnotowych oraz środków prywatnych. Warto też rozwijać wiedzę z obszaru modelowania partnerstwa jako gry społecznej.
Mierzenie skali osiągnięć PPP w Polsce jest niemożliwe ze względu na niewielkie doświadczenie w zakresie wdrażania takich rozwiązań. Jest to również bardzo utrudnione
w skali całej Europy, ze względu na brak bazy empirycznej, w której gromadzone byłyby
dane o projektach PPP. Poza tym, problemem jest niejednolitość koncepcji PPP. Owszem,
zaletą jest różnorodność modeli partnerstwa, ale warto podjąć wysiłek w celu ujednolicenia rozumienia tej koncepcji.
Wobec niewielkich możliwości wnioskowania, w oparciu o dane empiryczne, charakter przedmiotowej rozprawy oraz związany z nim typ zebranego materiału teoretycznego
i empirycznego upoważniają jedynie do formułowania wniosków i rekomendacji o ograniczonym stopniu pewności. Zebrany materiał badawczy, jakim są literatura światowa i krajowa, opinie ekspertów (udział w konferencjach i seminariach zorganizowanych przez ekspertów brytyjskich, konsultacje z ekspertem z Banku Światowego – P. Noumba Um oraz
z ekspertem z Australii – M.K. Lewisem), a także dane statystyczne pochodzące z HM
Treasury w Wielkiej Brytanii, dokumenty pochodzące z ministerstw oraz agencji rządowych, a także dokumenty Komisji Europejskiej, stanowiące ramy regulacyjne i umowne,
oraz percepcja nowych regulacji prawnych w Polsce nie pozwalają mierzyć poziomu efektywności i skuteczności funkcjonowania PPP. Można natomiast wskazać na spiętrzenie problemów związanych z jego realizacją oraz określić właściwe kierunki zmian w celu stworzenia pożądanej struktury instytucjonalnej, umożliwiającej sprawne wdrożenie PPP i czerpanie korzyści z jego zastosowania. PPP można bowiem traktować jako przykład zmiany
instytucjonalnej w ramach koncepcji new public governance.
Przedstawione wnioski i rekomendacje stanowią podsumowanie realizacji projektu
badawczego, będąc próbą przedstawienia kwestii najbardziej istotnych. Analiza zgromadzonego materiału nie pozwala na sformułowanie oceny skutków wejścia w życie ustawy
o PPP w Polsce oraz aktów wykonawczych do przedmiotowej ustawy, ze względu na krótki
okres ich funkcjonowania. Umożliwia jednak określenie potencjalnych, pozytywnych zmian
w podejściu zarówno władz rządowych i samorządowych, jak i podmiotów prywatnych do
idei samej koncepcji PPP. Walorem pracy może być jej porządkujący i edukacyjny charakter.
Zrealizowany projekt badawczy, jako próba przedstawienia dorobku teoretycznego w zakresie PPP i jego konfrontacji z ograniczoną empirią, może pobudzić zmianę w myśleniu,
w postrzeganiu sposobu funkcjonowania sektora publicznego i instytucji sfery publicznej
oraz zmianę rozumienia idei partnerstwa. Autorka stawia zatem tezę o powstaniu nowej
subdyscypliny naukowej – ekonomii partnerstwa publiczno-prywatnego. Ekonomia PPP
nie ma jeszcze formy „nauki instytucjonalnej” w znaczeniu T. Kuhna. Jest to stan rozwoju
nauki, który nazywany jest niekiedy stanem przedparadygmatowym.
OPTIMUM – STUDIA EKONOMICZNE NR 1 (37) 2008
Praca doktorska
Promotor:
Recenzenci:
mgr Anety Ejsmont
dr hab. Henryk Wnorowski (prof. UwB)
dr hab. Teresa Łuczka (prof. PP)
prof. dr hab. Jerzy Sikorski (UwB)
CZYNNIKI ROZWOJU SEKTORA MAŁYCH I ŚREDNICH
PRZEDSIĘBIORSTW W POLSKIEJ GOSPODARCE
Publiczna obrona rozprawy doktorskiej odbyła się 10 grudnia 2007 roku
na Wydziale Ekonomii i Zarządzania Uniwersytetu w Białymstoku
Małe i średnie przedsiębiorstwa zawsze były i nadal są bardzo ważnym elementem każdej gospodarki. Wydaje się, że waga tego sektora, a przynajmniej zainteresowanie nim, ciągle rośnie. Sektor MŚP dynamicznie podchodzi do otoczenia, gdyż jest w stanie najszybciej
reagować na powstające potrzeby konsumentów. Firmy te najczęściej świadomie poszukują okazji rynkowych, które są w mniemaniu dużych firm niszami rynkowymi, a z których
to duże firmy świadomie rezygnują, gdyż działanie w określonych segmentach jest dla nich
nieopłacalne.
Rozwój małej i średniej przedsiębiorczości w Polsce napotyka jednak szereg ograniczeń i barier, w wyniku których średnio 40% MŚP upada w pierwszym roku działalności.
Zasadniczym problemem podnoszonym w niniejszej pracy jest ciągle niezadowalający
poziom rozwoju sektora MŚP w Polsce, mierzony wskaźnikiem dynamiki przychodów ze
sprzedaży oraz aktywów obrotowych. W 1994 r. dynamika tegoż sektora w przychodach ze
sprzedaży ogółem wynosiła 98,2, w 2004 r., zaś 102,2. Wskaźnik przyrostu aktywów w 1994 r.
wynosił 89,9, w roku 2004 ukształtował się on zaledwie na poziomie 117,4. Tymczasem
w krajach Unii Europejskiej dynamika przychodów ze sprzedaży w sektorze MŚP wynosiła 163,5. Wskaźnik przyrostu aktywów kształtował się z kolei na poziomie 187,8 (dane na koniec 2004r.).
Tymczasem szczególnie niekorzystnym zjawiskiem, zaistniałym wśród małych i średnich firm, jest obniżenie obrotów w handlu z odbiorcami zagranicznymi, mierzonych ogólną dynamiką eksportu, która w latach 1994-2004 wynosiła kolejno: 123,6; 136,2; 110,1; 114,6;
112,3; 96,2; 111,6; 108,6; 115,1; 110,0; 117,4. W 1995 roku osiągnęła ona najwyższy wzrost,
w 2003 roku, zaś- spadek. Niepokój budzi fakt, iż w latach 1996-2004 zmalała ekspansja
zagraniczna polskiego sektora MŚP, zahamowana dodatkowo w 1998r. słabą koniunkturą w krajach zachodnich oraz kryzysem rosyjskim.
Celem niniejszej pracy jest zweryfikowanie hipotezy, iż niezbędnym warunkiem rozwoju małych i średnich przedsiębiorstw w Polsce jest poprawa zarówno aktywności, jak
i atrakcyjności ich oferty rynkowej. Aby zweryfikować przyjętą hipotezę, dokonano jej dezagregacji na cztery hipotezy szczegółowe. Zbudowany w ten sposób zestaw czterech szczegółowych funkcji analitycznych został następnie poddany procesowi weryfikacji kolejno
w rozdziałach 3-6.
Dla potrzeb badania, w ramach weryfikacji hipotezy głównej oraz hipotez szczegółowych, autorka dokonuje podziału działalności sektora małych i średnich przedsiębiorstw
na sektor MŚP o charakterze usługowym oraz sektor MŚP wytwarzający produkty materialne. Działalność usługową tych firm przypisuje do takich sekcji EKD, jak: „Handel i nap-
220
Recenzje i informacje
rawy”(G), „Edukacja”(M), „Pośrednictwo finansowe”(J), „Obsługa nieruchomości i firm, nauka”(K), „Budownictwo”(F), „Transport, gospodarka magazynowa i łączność”(I), „Ochrona
zdrowia”(N), „Hotele i restauracje”(H) oraz „Pozostała działalność usługowa”(O). Działalność małych i średnich przedsiębiorstw, wytwarzających produkty materialne, przypisywana jest z kolei do takich sekcji EKD, jak: „Górnictwo i kopalnictwo”(C), „Przetwórstwo
przemysłowe” oraz „Wytwarzanie i zaopatrywanie w energię elektryczną, gaz i wodę”(E).
W pierwszej hipotezie szczegółowej formułuje się przypuszczenie, iż jakość oraz innowacyjność produktów i usług oferowanych przez sektor MŚP zapewni zwiększenie dynamiki sprzedaży tego sektora, także na eksport, a tym samym przyczyni się do jego
rozwoju. W Unii Europejskiej przywiązuje się coraz większą wagę do usprawnienia procesów produkcyjnych poprzez systemy zapewnienia jakości. Uzyskanie certyfikatów ISO
zarówno serii 9000, 9001, 14000, 18000, jak też 22000, daje korzyści zewnętrzne w postaci budowania pozytywnego wizerunku firmy, zwiększa zaufanie do produktu wprowadzanego na rynek. W polskich przedsiębiorstwach z sektora MŚP poziom uzyskiwania certyfikatów ISO nadal jest stosunkowo niski w porównaniu z krajami Unii Europejskiej. Na
prawie 2,3 mln zarejestrowanych firm ok. 20% uzyskało certyfikaty ISO (9000 oraz 14000),
gdy np. w Niemczech – ok. 80% (stan na koniec 2004 roku). Małe i średnie przedsiębiorstwa, działające w Polsce, mają trudności, a wręcz nie mogą wprowadzać rozwiązań innowacyjnych. Sytuacja ta znajduje odzwierciedlenie w wielkości wskaźnika innowacyjności,
którego wartość w badanym okresie (lata 1994 – 2004) nie przekroczyła 20 punktów procentowych. W latach 1994 – 2004 zwiększył się on z 4,2% w 1994r. do 16,7% (wzrost o 12 p. p.).
Badaniu powyższych zależności został poświęcony trzeci rozdział niniejszej rozprawy.
Kluczowe znaczenie dla weryfikacji drugiej hipotezy szczegółowej ma pokazanie
wpływu cen na rozwój małych i średnich firm. W gospodarce rynkowej ceny ustala rynek
dokonujący alokacji wyrobów i usług między różne konkurujące między sobą zastosowania. Mimo to zarówno produkty materialne, jak i usługi oferowane odbiorcom przez przedsiębiorstwa z sektora MŚP często nie spełniają ich wymagań. Ze względu na zbyt wysokie koszty produkcji nie są one konkurencyjne cenowo, natomiast konkurencja pozacenowa też nie jest możliwa ze względu na trudności przedsiębiorstw w kształtowaniu produktu. Coraz częściej dostawcy, klienci i konkurenci małej i średniej firmy są nie tylko z sąsiedztwa, ale i z drugiej części globu. Biorąc pod uwagę stale wzrastającą liczbę konkurentów, firmy są zmuszone obniżać koszty, oferować nowe produkty, bądź usługi lub wychodzić na zagraniczne rynki zbytu.
Trzecia hipoteza szczegółowa stwierdza, iż ważnym czynnikiem dynamiki rozwoju
sektora MŚP jest efektywne wykorzystanie kanałów dystrybucji. W warunkach gospodarki
rynkowej, gdy funkcjonuje wolna przedsiębiorczość i konkurencja – rośnie skala działalności marketingowej firm, zwiększa się też różnorodność stosowanych narzędzi marketingu. Choć w części polskich firm dominują ciągle postawy i działania przedmarketingowe, np.
podejście „produktowe” a w najlepszym razie – orientacja dystrybucyjna, to jednak coraz
więcej firm dostrzega konieczność stosowania marketingu. Ponad 80% małych i średnich
firm potwierdziło, iż eksport przede wszystkim neutralizuje barierę popytu na rynku krajowym i pozwala na zwiększenie rozmiarów produkcji. Wybór tego najkrótszego kanału dystrybucji – czyli obrotu bez udziału jakichkolwiek pośredników – jest na ogół ekonomicznie
uzasadniony z punktu widzenia zarówno odbiorcy, jak i dostawcy. W Polsce obrót ten
obejmuje nie więcej niż 15% całości obrotu środkami produkcji, a w Niemczech ok. 23%
(dane na koniec 2004 r.). Badania rynków i tworzenie własnej sieci dystrybucji jest przedsięwzięciem bardzo kosztownym, w związku z powyższym żadne przedsiębiorstwo z sektora MŚP nie ma szans na tworzenie silnych kanałów dystrybucji. Badaniu powyższych
zależności został poświęcony piąty rozdział niniejszej rozprawy.
W trakcie weryfikacji czwartej hipotezy szczegółowej podkreśla się, iż promocja rozumiana jako ogół środków, za pomocą których firma komunikuje się z rynkiem jest jednym
z głównych czynników wzrostu dynamiki sektora MŚP. Z kolei głównym jej narzędziem jest
reklama. Relacja wydatków na reklamę do PKB ukazuje, jaką rolę pełni reklama w kształ-
Recenzje i informacje
221
towaniu rozwoju danego przedsiębiorstwa. Promocja eksportu z kolei skierowana jest głównie do sektora MŚP, a jej celem jest wspieranie eksportu poprzez udzielanie dotacji na
realizację działań ukierunkowanych na rozwój rynków eksportowych. W latach 1994-2004
dynamika wydatków na promocję eksportu zmniejszyła się z 141,4 w 1994r. do 98,1
w 2004 r. (spadek o 43,3 p. p.). Public Relations (PR) jest kolejnym instrumentem komunikacji marketingowej, który zmierza do kreowania, utrwalania i rozszerzania społecznego
zaufania i pozytywnego wizerunku przedsiębiorstwa. Szefowie wielu małych i średnich
firm przypominają sobie o PR w chwili, gdy ich firma znajduje się w stanie zagrożenia,
jest atakowana przez określone środowiska, w prasie pojawiają się negatywne informacje, co ich zdaniem, wymaga natychmiastowej reakcji. Wtedy właśnie agencja specjalizująca się w PR otrzymuje polecenie „załatwienia sprawy” (a wtedy jest już najczęściej za
późno).Właściciele tychże przedsiębiorstw z przyczyn wzrostu kosztów nie zatrudniają
specjalisty do spraw PR, który na bieżąco prowadziłby sprawy tego typu. Zgodnie z założeniami powyższej hipotezy, szósty rozdział pracy poświęcony został omówieniu sposobów promowania małych i średnich firm działających zarówno na rynku krajowym, jak i na
rynkach międzynarodowych.
Pracę zamyka zakończenie oceniające stopień weryfikacji, wcześniej sformułowanej,
hipotezy głównej oraz hipotez szczegółowych. Wnioski oparte na dostępnym materiale
statystycznym oraz bogatych danych, obliczonych na podstawie popularnych źródeł naukowych, pozwoliły na jednoznaczne stwierdzenie, iż atrakcyjność oferty rynkowej małych
i średnich przedsiębiorstw jest stosunkowo niska. Wyniki analiz, przeprowadzonych przez
autorkę dla lat 1994-2004, potwierdzają fakt, iż powodem niedostatecznego wykorzystania potencjału eksportowego sektora MŚP są zbyt wysokie koszty produkcji oraz często
niewystarczająca jakość oferowanych usług i produktów materialnych. Możliwość wchodzenia na rynki międzynarodowe poprzez stworzenie własnej sieci dystrybucji oraz promocję produktów i usług jest dla wielu małych i średnich firm szansą na rozwój, jednak z powodu braku środków ekspansja sektora MŚP na rynki zagraniczne często staje się
niemożliwa.
W niniejszej rozprawie zastosowano metodę hipotetyczno-dedukcyjną. Autorka pozytywnie zweryfikowała przyjętą hipotezę, iż niezbędnym warunkiem rozwoju sektora małych
i średnich przedsiębiorstw jest pobudzenie aktywności rynkowej tych firm oraz uatrakcyjnienie oferty kierowanej zarówno na rynki lokalne, krajowe, jak i zagraniczne. W procesie
badawczym wykorzystała obcojęzyczną literaturę, posługiwała się także dostępnymi wynikami badań nt. opisywanego sektora. Hipotezy szczegółowe, jakimi są poszczególne
instrumenty mix-u marketingowego, czyli: produkt, cena, dystrybucja oraz promocja, sformułowane zostały na podstawie logicznych przesłanek sugerujących, iż przyczyniają się
one do ogólnego rozwoju sektora MŚP.
Metodyka badań zastosowana w niniejszej rozprawie – oprócz analizy literaturowej
przedmiotu badań, oceny dostępnych materiałów informacyjnych – zawiera także analizę
opublikowanych materiałów statystycznych, opartą na zastosowanej w tym celu metodzie
reprezentacyjnej. Prowadząc badania nad wpływem aktywności rynkowej na rozwój sektora MŚP w latach 1994-2004, autorka posługiwała się analizą wskaźnikową polegającą
na obliczeniu odpowiednio dobranych mierników, charakteryzujących różne aspekty działalności małych i średnich przedsiębiorstw w Polsce.
OPTIMUM – STUDIA EKONOMICZNE NR 1 (37) 2008
Praca doktorska
Promotor:
Recenzenci:
mgr Teresy Mikulskiej
prof. dr hab. Jerzy Sikorski (UwB)
prof. dr hab. Kazimiera Winiarska (Uniw. Szczeciński)
dr hab. Aleksander Maksimczuk (prof. UwB)
BUDŻETOWANIE KOSZTÓW JAKO METODA ZARZĄDZANIA
PRZEDSIĘBIORSTWEM
Publiczna obrona rozprawy doktorskiej odbyła się 17 grudnia 2007 roku
na Wydziale Ekonomii i Zarządzania Uniwersytetu w Białymstoku
Przedsiębiorstwa działające na dynamicznym rynku, w klimacie ciągłej walki konkurencyjnej i ryzyka podejmowanych przedsięwzięć biznesowych, dostrzegają coraz częściej, że wąskim gardłem staje się dla nich precyzyjna i szybka informacja planistyczna.
W szczególności dotyczy ona sytuacji ekonomicznej i finansowej, wielkości oraz struktury
sprzedaży, ponoszonych kosztów, efektywności działania poszczególnych segmentów
organizacji, odchyleń od przyjętych założeń operacyjnych i strategicznych. Nowe warunki,
w jakich działają jednostki gospodarcze, zmieniły w zasadniczy sposób zapotrzebowanie
na informacje zgłaszane zarówno przez użytkowników zewnętrznych, jak i kadrę zarządzającą. Spowodowało to wzrost rangi i wymagań kierowanych pod adresem kompleksowego systemu informacyjnego.
Potrzeby informacyjne podmiotów funkcjonujących w epoce informacji, w której kluczowymi czynnikami sukcesu są innowacje, wysoka jakość produktów, szybkość dostarczania danych i dzielenie się wiedzą w firmie, powinny zaspokajać współczesne narzędzia
zarządzania przedsiębiorstwem. Zarządzanie przedsiębiorstwem spełnia bowiem właściwie stawiane mu zadania, jeżeli odzwierciedla bieżącą strukturę i zakres działalności, co
może prowadzić do zmian metod i technik zarządzania. Jednym z narzędzi wspomagających rozwój przedsiębiorstwa jest budżetowanie działalności jednostek gospodarczych.
Podstawowym zadaniem budżetowania jest wspomaganie procesu decyzyjnego, poprzez sprawne zarządzanie jednostką gospodarczą, oparte na systematycznym planowaniu oraz regularnym kontrolowaniu wyników, co w konsekwencji prowadzi do utrzymania
kosztów na optymalnym poziomie i do poprawy rentowności. Budżetowanie jest jedną z metod agregujących wszystkie funkcje zarządzania: planowanie, organizowanie, motywowanie i kontrolę. Dlatego też, stosując tę metodę, można sprawnie i skutecznie kierować
realizacją wyznaczonego zadania.
W warunkach ciągłego usprawniania firmy, budżetowanie należy rozumieć jako metodę zarządzania przedsiębiorstwem, umożliwiającą tworzenie warunków niezbędnych do
kształtowania ekonomicznie najkorzystniejszego rozwoju firmy w warunkach narzucanych
przez otoczenie. Aby w sposób ciągły osiągnąć najkorzystniejszy rozwój firmy, tworzeniem tych warunków należy obejmować wszystkie obszary działalności przedsiębiorstwa.
Termin budżetowanie podkreśla aspekt czynnościowy, obejmujący stosowanie różnych
metod i technik związanych z przygotowaniem, realizacją i kontrolą budżetu.
Tradycyjne podejście do budżetowania łączy je z poziomem operacyjnym zarządzania, na którym realizowane działania mają charakter krótkookresowy, a podejmowane decyzje są oparte na informacjach, które są dokładne i szczegółowe. Zarazem wdrożenie
Recenzje i informacje
223
systemu budżetowania na poziomie operacyjnym jest warunkiem koniecznym dla sprawnego zarządzania taktycznego i strategicznego, gdyż jedynie informacja dokładna i szczegółowa, zasilająca poziom operacyjny, po agregacji może właściwie obsłużyć pozostałe
poziomy zarządzania.
Prawidłowo zaprojektowany i wdrożony proces budżetowania kosztów przynosi bezpośrednie efekty w postaci oszczędności i poprawy efektywności gospodarowania. Jednym z istotnych elementów mających wpływ na poprawność procesu budżetowania jest
rachunek kosztów, w ramach którego prowadzony jest pomiar kosztów, ich transformacja
umożliwiająca ocenę sytuacji i podejmowanie właściwych decyzji.
Przekroje budżetowania kosztów zależą w dużym stopniu od zadań stawianych budżetowaniu, w ramach poszczególnych funkcji rachunku kosztów. Obserwacja wielu przedsiębiorstw wskazuje, że rośnie udział kosztów stałych w kosztach ogółem. Jest to w dużej mierze związane z zastępowaniem pracy ludzi przez maszyny, co najczęściej jest połączone
ze stosowaniem zaawansowanych technologii. W takich warunkach informacje generowane przez tradycyjne systemy rachunku kosztów, które stosują uproszczenia w rozliczaniu kosztów pośrednich, nie stanowią dobrej podstawy do podejmowania decyzji gospodarczych. Systemy tradycyjne bazują najczęściej na jednej podstawie rozliczania kosztów, proporcjonalnej do ilości produkcji. Coraz większego znaczenia nabiera skuteczne
zarządzanie kosztami pośrednimi.
W warunkach gospodarki rynkowej planowanie i kontrola działalności przedsiębiorstwa na podstawie budżetów są jednym z podstawowych elementów prawidłowego zarządzania. Budżetowanie wymaga jednak nowego podejścia do złożonej problematyki powstawania kosztów. Powinno ono dostarczać nowych jakościowo informacji, niezbędnych
do podejmowania decyzji w złożonym otoczeniu przedsiębiorstwa. Narzędziem wspomagającym zarządzanie w tym zakresie jest rachunek kosztów działań, którego zastosowanie w procesie budżetowania może przyczynić się do powiązania kosztów z przyczynami
ich powstawania i w efekcie doprowadzić do skutecznego zarządzania przedsiębiorstwem. W różnych przedsiębiorstwach zasadność wykorzystania rachunku kosztów działań
i ewentualne korzyści, wynikające z jego wdrożenia, będą odmienne.
Celem głównym pracy było zdiagnozowanie stopnia wykorzystania procedury budżetowania kosztów w wybranych przedsiębiorstwach oraz propozycja zmian zarówno w procesie budżetowania, jak i w stosowanych systemach rachunku kosztów.
Cele szczegółowe pracy to:
1.
Przedstawienie procesu budżetowania kosztów jako metody zarządzania przedsiębiorstwem.
2.
Ocena funkcjonowania systemów rachunku kosztów i ich wykorzystania w procesie budżetowania w firmach województwa podlaskiego.
3.
Ustalenie kierunków zmian rachunku kosztów w aspekcie budżetowania, niezbędnych do zarządzania jednostką w warunkach zmieniającej się gospodarki rynkowej.
Na podstawie wcześniej wymienionych celów za tezę główną przyjęto następujące
stwierdzenie:
Budżetowanie oparte na rachunku kosztów działań pozwala sprawniej zarządzać
przedsiębiorstwem niż tradycyjne budżetowanie, gdzie szacowanie kosztów odbywa się
na bazie struktury funkcjonalnej przedsiębiorstwa.
Obok tezy głównej, w pracy postawiono następujące hipotezy szczegółowe:
1.
Przedsiębiorstwa wprowadzają budżetowanie kosztów jako metodę zarządzania,
modyfikując tylko rozwiązania ewidencyjno-rozliczeniowe w zakresie stosowanego
rachunku kosztów, nie wprowadzając nowych rozwiązań w tym zakresie.
2.
Istnieje potrzeba doskonalenia procesu budżetowania, a środkiem do realizacji tego
celu może być wdrożenie budżetowania bazującego na rachunku kosztów działań.
3.
Systemy budżetowania kosztów w przedsiębiorstwach przynoszą pożądane efekty
pod warunkiem zastosowania odpowiednio dobranych procedur i narzędzi.
224
Recenzje i informacje
Prawdziwość hipotez zweryfikowano na podstawie przeprowadzonych badań empirycznych w wybranych podmiotach gospodarczych, funkcjonujących na terenie województwa podlaskiego oraz studium przypadku prezentującego budżetowanie tradycyjne
i budżetowanie oparte na działaniach. Wyboru podmiotów dokonano z punktu widzenia
wielkości zatrudnienia. Zgodnie z wykazem otrzymanym z Urzędu Statystycznego w Białymstoku, w województwie podlaskim na dzień 30 marca 2005 roku działały 103 przedsiębiorstwa zatrudniające powyżej 250 osób.
Treść pracy obejmuje sześć rozdziałów umożliwiających całościowe ujęcie omawianej
problematyki oraz weryfikację hipotez badawczych.
Rozdział pierwszy ma charakter wprowadzająco-przeglądowy. Zaprezentowano w nim
teoretyczne podstawy zarządzania, planowania i budżetowania w przedsiębiorstwie. Zwrócono uwagę na znaczenie informacji, jako podstawowego źródła przewagi konkurencyjnej
przedsiębiorstwa. W rozdziale tym pokazano również funkcje budżetowania oraz różnice
między planowaniem a budżetowaniem.
W rozdziale drugim przedstawiono przekroje klasyfikacyjne kosztów na potrzeby budżetowania oraz ogólną charakterystykę rachunku kosztów, jako podstawowego źródła informacji o kosztach w danym podmiocie gospodarującym. Scharakteryzowano również tradycyjne i nowoczesne systemy rachunku kosztów wykorzystywane w firmie w dobie nieustającego rozwoju technologicznego, rosnącej konkurencji oraz wzrostu wymagań ze strony klientów oraz pokazano ich przydatność w procesie budżetowania. Omówiono także wpływ
rachunku kosztów na proces zarządzania przedsiębiorstwem.
Rozdział trzeci jest opisem procedury budżetowania kosztów w przedsiębiorstwie.
W rozdziale tym, oprócz organizacyjnych aspektów budżetowania, zaprezentowane zostały także metody i zasady stosowane w procesie budżetowania. Przedstawiono również
strukturę budżetu głównego jednostki oraz sposób sporządzania budżetów cząstkowych.
Rozdział czwarty prezentuje wyniki badań empirycznych z zakresu budżetowania i stosowanych systemów rachunku kosztów. Badania zostały przeprowadzone w wybranych
podmiotach zatrudniających powyżej 250 osób, działających na terenie województwa
podlaskiego w roku 2005.
W rozdziale piątym omówiono procedurę tradycyjnego budżetowania kosztów oraz
budżetowania wykorzystującego rachunek kosztów działań. W celu zobrazowania różnic
między tymi dwoma sposobami budżetowania posłużono się studium przypadku. Przedstawiono również wady tradycyjnego budżetowania i korzyści wynikające z prowadzenia
budżetowania opartego na działaniach.
W rozdziale szóstym podjęto próbę ustalenia przewidywanych kierunków zmian zarówno w procesie budżetowania, jak i w systemach rachunku kosztów stosowanych w badanych przedsiębiorstwach. Zwrócono uwagę na warunki organizacyjne i techniczne,
jakie muszą zostać spełnione, aby proces budżetowania funkcjonował sprawnie.
W zakończeniu przedstawiono wnioski dotyczące stosowanych systemów rachunku
kosztów w procesie budżetowania w badanych podmiotach, a także wykorzystywanych metod i narzędzi budżetowania kosztów.
Przedstawione wyniki badań ankietowych pozwoliły na przybliżoną orientację w zakresie rodzaju i stopnia szczegółowości prowadzonego rachunku kosztów oraz organizacji
i metod budżetowania kosztów w podmiotach działających na terenie województwa podlaskiego. Umożliwiło to również weryfikację postawionej wcześniej tezy głównej i hipotez
szczegółowych. Wnioski z przeprowadzonych badań ankietowych zostały podzielone na
dwie grupy. Pierwsza grupa dotyczy wyników badań w zakresie stosowanych systemów
rachunku kosztów rozpatrywanych jako źródło informacji niezbędnych w procesie budżetowania kosztów, natomiast druga grupa wniosków skupia się na zagadnieniach budżetowej metody zarządzania przedsiębiorstwem.
W zakresie stosowanych systemów rachunku kosztów można stwierdzić, że:
1.
W większości badanych przedsiębiorstw ewidencja kosztów działalności operacyjnej odbywa się w dwóch układach: rodzajowym i kalkulacyjnym. Tylko jedno
Recenzje i informacje
225
przedsiębiorstwo ogranicza się do rejestracji kosztów według rodzaju, a dwa
podmioty stosują ewidencję kosztów wyłącznie w układzie kalkulacyjnym. 3/4
przedsiębiorstw księguje koszty z wyodrębnieniem miejsc ich powstania i nośników, a co czwarta firma uwzględnia tylko miejsca powstawania kosztów.
2.
W podlaskich przedsiębiorstwach dominuje tradycyjny rachunek kosztów. Jednakże, obok rachunku kosztów pełnych, 32% respondentów wykorzystuje równocześnie inne systemy rachunku kosztów: rachunek kosztów zmiennych, rachunek kosztów działań oraz rachunek kosztów jakości. Tylko 11% badanych
podmiotów nie stosuje tradycyjnych metod rozliczania kosztów, a ewidencję
kosztów prowadzi w oparciu o rachunek kosztów docelowych oraz rachunek redukcji kosztów i rachunek kosztów działań.
3.
Nowoczesne systemy rachunku kosztów wdrożyły u siebie przede wszystkim
spółki akcyjne. Wyjątkiem jest tu jedna spółka z o.o., w której stosowany jest rachunek kosztów docelowych i szpital, wykorzystujący rachunek kosztów działań.
Podmioty preferujące nowoczesne rozwiązania w zakresie rachunku kosztów za
podstawowe korzyści uznają: tworzenie informacji niezbędnej w procesie podejmowania decyzji, redukcję poziomu kosztów oraz dostarczanie istotnych danych kosztowych o aktualnie realizowanych procesach i działaniach.
4.
Prawie 70% badanych przedsiębiorstw nie rozważała możliwości wprowadzenia
rachunku kosztów działań, który jest coraz częściej stosowany w Polsce, co wynika z przytoczonych w pracy wyników badań różnych autorów. Tylko 14% firm
rozważało możliwość wdrożenia tego systemu rachunku kosztów. Zdaniem respondentów, spowodowane jest to między innymi: wysokimi kosztami wdrażania
nowych rozwiązań, brakiem dostatecznej znajomości zasad rachunku kosztów
działań oraz brakiem odpowiednich narzędzi informatycznych, niezbędnych do
zastosowania tego systemu rachunku kosztów w praktyce.
5.
Większość ankietowanych firm wysoko ocenia przydatność stosowanego obecnie systemu rachunku kosztów w podejmowaniu decyzji. Stanowisko takie wyraziły nie tylko podmioty, które już zastosowały nowoczesne rozwiązania w zakresie ewidencji kosztów, ale również firmy wykorzystujące sprawozdawczy rachunek kosztów. Pozytywne opinie respondentów na temat stosowanych systemów
rachunku kosztów są jedną z przyczyn braku zainteresowania wprowadzaniem
nowych koncepcji zarządzania kosztami. Tylko co piąte przedsiębiorstwo planuje zmiany w tym zakresie.
6.
Intensywność i zakres dokonywanych modyfikacji rachunku kosztów przy wdrażaniu procesu budżetowania w przedsiębiorstwach województwa podlaskiego nie
jest zadowalająca. Wprawdzie 60% ankietowanych przedsiębiorstw uznało, że
dokonało zmiany systemu rachunku kosztów przy wdrażaniu procesu budżetowania, jednak w większości przypadków zmiany te polegały jedynie na uszczegółowieniu ewidencji kosztów w ramach stosowanego już systemu.
Analiza wykorzystania budżetowania kosztów prowadzi do następujących wniosków:
1.
Około 80% badanych podmiotów wykorzystuje budżetową metodę zarządzania,
w tym prawie połowę stanowią spółki akcyjne. W 45% tych firm sporządza budżety dłużej niż 5 lat, natomiast w pozostałych podmiotach proces ten trwa od roku
do 5 lat. Najczęściej wymieniane powody, dla których przedsiębiorstwa zdecydowały się wdrożyć proces budżetowania, to: oszczędność kosztów działalności, usprawnienie procesu zarządzania przedsiębiorstwem, stabilność i poprawa
sytuacji finansowej firmy, kontrola działalności, motywowanie kadry do efektywnego i racjonalnego działania.
2.
Wprowadzając proces budżetowania, niezbędne jest dokonanie zmian w strukturze organizacyjnej przedsiębiorstwa poprzez wyodrębnienie ośrodków odpowiedzialności. We wszystkich badanych podmiotach zostały utworzone centra
226
3.
4.
5.
6.
7.
8.
Recenzje i informacje
kosztów. W 77% firm funkcjonują centra przychodów, w 41% – centra zysku, a
w 36% – centra inwestycji. Dodatkowo, w jednym przedsiębiorstwie zostało wyodrębnione centrum odpowiedzialne za rozwój produktu i centrum zapasów.
Tworząc ośrodki odpowiedzialności, przedsiębiorstwa najczęściej miały problemy z: budową odpowiedniego systemu motywacyjnego, doborem właściwych
celów i zadań dla poszczególnych ośrodków, wyznaczeniem stopnia samodzielności decyzyjnej kierowników ośrodków poprzez ustalenie zakresu ich uprawnień i odpowiedzialności.
Roczny budżet operacyjno-finansowy dla całego przedsiębiorstwa sporządza 1/4
respondentów. W pozostałych podmiotach wykorzystuje się zróżnicowaną liczbę
budżetów cząstkowych. Najczęściej są to: budżety kosztów, budżety sprzedaży
i budżety produkcji. W badanych przedsiębiorstwach budżetowanie działalności
finansowej opiera się przede wszystkim na budżecie rachunku wyników oraz
budżecie wpływów i wydatków. Rzadkością jest natomiast sporządzanie budżetu inwestycyjnego czy budżetu przepływu środków pieniężnych.
Zdobywanie wiedzy i doświadczenia pracowników sporządzających budżety powoduje, że przedsiębiorstwa coraz częściej wykorzystują metody, które w znacznym stopniu angażują kadrę niższego szczebla, czego przykładem jest stosowanie w większości badanych firm metody budżetowania partycypacyjnego.
Wdrażanie nowoczesnych, zintegrowanych systemów informatycznych, które
dają większe możliwości pozyskania informacji niezbędnych w procesie budżetowania, wpłynęło między innymi na zmianę w proporcji stosowania budżetów
sztywnych i elastycznych. Przeprowadzone badania wskazują, że obecnie przedsiębiorstwa częściej decydują się na sporządzanie budżetów elastycznych (przeliczonych) niż budżetów sztywnych. Pracochłonność metody budżetowania „od
zera”, mimo że daje większe możliwości poszukiwania nowatorskich rozwiązań,
nie skłania przedsiębiorstw do zaniechania stosowania metody przyrostowej.
Kontrola wykonania budżetu, uważana za jeden z ważniejszych etapów procesu
budżetowania, w badanych przedsiębiorstwach odbywa się przede wszystkim
w oparciu o ustalenie i analizę odchyleń oraz wyciągnięcie wniosków i dokonanie działań korygujących. Tylko w kilku jednostkach rozlicza się osoby odpowiedzialne za zaistniałe odchylenia. Za główne przyczyny powstawania odchyleń między planem a wykonaniem budżetu ankietowani uznali: wzrost cen surowców, niewłaściwą realizację budżetu oraz błędy w planowaniu przychodów i kosztów.
Budżetowanie kosztów nie jest procesem pozbawionym wad. Zdaniem respondentów, za podstawowe mankamenty tego procesu należy uznać: dostarczanie
spóźnionych danych, trudności w objęciu kontrolą niektórych grup kosztów, problemy z odpowiednią klasyfikacją kosztów oraz wysokie koszty wdrożenia i obsługi procesu. Respondenci nie zamierzają jednak zrezygnować z tej metody zarządzania.
Do usprawnienia procesu budżetowania kosztów, według większości badanych
przedsiębiorstw, niezbędne jest: uszczegółowienie informacji kosztowych, zwiększenie udziału pracowników w procesie budżetowania, wprowadzenie budżetowania kroczącego, bardziej szczegółowa analiza odchyleń, podniesienie stopnia informatyzacji w przedsiębiorstwie. Tylko 14% badanych firm nie widzi potrzeby wprowadzania zmian w zakresie budżetowania kosztów. Są to przedsiębiorstwa, które wdrożyły nowoczesne systemy rachunku kosztów, a tym samym
usprawniły już proces budżetowania kosztów.
Warunki rynkowe i związana z tym niepewność planowania wymuszają na
przedsiębiorstwach konieczność uwzględniania czynnika ryzyka w sporządzanych budżetach. Ograniczenie ryzyka w procesie budżetowania, zmierzającym
do zapewnienia realności budżetu, powinno nastąpić już na etapie planowania
poprzez rozpoznanie rozkładu zjawisk ekonomicznych, np. dotyczących wielko-
Recenzje i informacje
227
ści produkcji i sprzedaży, kształtowania się cen wyrobów, kosztów, zapasów,
itp.
Rola budżetowania operacyjnego ulega współcześnie znaczącej transformacji. Z instrumentu postrzeganego jako pełniącego przede wszystkim funkcję kontrolną, budżetowanie ewoluuje w kierunku instrumentu planistycznego zapobiegającego nieprawidłowościom, wspierającego inicjatywę i gotowość innowacyjną, umożliwiając w ten sposób nie
tylko zwiększenie sprawności operacyjnej, ale również umocnienie pozycji strategicznej
przedsiębiorstwa. Aby osiągnąć taki efekt, budżetowanie powinno opierać się na rachunku kosztów działań, który umożliwi sprawne zarządzanie przedsiębiorstwem.
Wydział Ekonomii i Zarządzania Uniwersytetu w Białymstoku
poleca publikacje naukowe:
Ryta Iwona Dziemianowicz
Efektywność systemu opodatkowania rolnictwa
Spis treści: 1. Rola państwa i polityki podatkowej w gospodarce,
2. Teoretyczne podstawy konstrukcji optymalnego systemu podatkowego, 3. Teoretyczne podstawy opodatkowania rolnictwa,
4. Opodatkowanie rolnictwa – doświadczenia krajów Unii Europejskiej i USA, 5. Konstrukcja systemu opodatkowania rolnictwa w Polsce, 6. Budżetowe i sektorowe skutki opodatkowania
rolnictwa w Polsce.
Ewa Roszkowska
Modelowanie procesów decyzyjnych oraz negocjacji za
pomocą kompleksów reguł
Spis treści: 1. Pojęcie uogólnionej gry z wykorzystaniem
kompleksów reguł; 2. Negocjacje. Zagadnienia podstawowe.
Ekonomiczne aspekty negocjacji; 3. Negocjacje jako
uogólniona gra; 4. Zastosowanie kompleksów reguł do analizy
procesu negocjacji; 5. Zastosowanie zbiorów rozmytych do
modelowania procesu negocjacji; 6. Modele przetargu.
Renata Przygodzka
Fiskalne instrumenty wspierania rozwoju rolnictwa –
przyczyny stosowania, mechanizmy i skutki
Spis treści: 1. Państwo a rolnictwo – przesłanki aktywności; 2.
Rola państwa w rozwoju rolnictwa; 3. Fiskalne instrumenty
oddziaływania na rolnictwo; 4. Metodologiczne podstawy
oceny skuteczności fiskalnych działań państwa; 5. System
opodatkowania i jego rola w rozwoju rolnictwa; 6. System
transferów socjalnych i jego oddziaływanie na rozwój rolnictwa; 7. Pozasocjalne transfery do rolnictwa i ich wpływ na
rozwój rolnictwa
Wydział Ekonomii i Zarządzania Uniwersytetu w Białymstoku
poleca publikacje dydaktyczne:
Kazimierz Meredyk (red.)
Ekonomia ogólna
Białystok 2007, ISBN 978-83-7431-114-4
Spis treści: Cz. I - Mikroekonomia, Cz. II- Makroekonomia
Elżbieta Sulima (red.)
Obszary integracji Unii Europejskiej. Wybrane zagadnienia
rok wydania 2006, ISBN 978-83-7431-082-6
Spis treści: 1. Międzynarodowa integracja gospodarcza w Europie
w ujęciu historycznym, 2. Unia Europejska i jej prawo, 3. System instytucjonalny Unii Europejskiej, 4. Prawo gospodarcze, 5. Polityka
budżetowa, 6. Polityka monetarna, 7. Polityka regionalna, 8. Polityka
rolna, 9. Polityka zatrudnienia, 10. Polityka ochrony środowiska,
11. Polityka wobec małych i średnich przedsiębiorstw
Ewa Roszkowska
Zadania z analizy matematycznej dla ekonomistów
rok wydania 2006, ISBN 978-83-7431-063-5
Spis treści: 1. Elementy logiki, 2. Zbiory. Działania na zbiorach.
Równoliczność zbiorów. Zbiory przeliczalne i nieprzeliczalne, 3. Pojęcie i podstawowe własności funkcji, 4. Ciąg i jego własności, 5.
Granice i ciągłość funkcji. Asymptoty, 6. Rachunek różniczkowy
funkcji jednej zmiennej, 7. Rachunek całkowy funkcji jednej zmiennej,
8. Szeregi liczbowe, 9. Funkcje wielu zmiennych, 10. Całki podwójne
PODYPLOMOWE STUDIA
FINANSÓW I RACHUNKOWOŚCI
PRZEDSIĘBIORSTW
15-062 Białystok
ul. Warszawska 63
pok. 208
tel. (085) 7457702,
fax (085) 7457702
Kierownik: dr Ryta I. Dziemianowicz
Sekretariat: Grażyna Majewska
Podyplomowe Studia Finansów i Rachunkowości Przedsiębiorstw istnieją
od roku akademickiego 1992/1993. Przeznaczone są dla absolwentów szkół
wyższych różnej specjalności.
Celem studiów jest przygotowanie kadr dla przedsiębiorstw i instytucji
w zakresie finansów i rachunkowości oraz przygotowanie słuchaczy do
działalności usługowej w zakresie prowadzenia ksiąg rachunkowych.
Studia trwają dwa semestry, kończą się zaliczeniami lub egzaminami z poszczególnych przedmiotów. Zajęcia odbywają się w formie 7 dwudniowych zjazdów
w weekendy w każdym semestrze i obejmują ponad 300 godz. zajęć dydaktycznych. Studia kończą się wydaniem świadectwa ukończenia studiów podyplomowych.
Wykładane są następujące przedmioty:
- rachunkowość finansowa,
- sprawozdawczość finansowa,
- rachunek kosztów,
- system podatkowy,
- papiery wartościowe,
- prawo cywilne, gospodarcze i administracyjne,
- system informatyczny i podstawy informatyki,
- wykłady okolicznościowe.
Zasady naboru:
- decyduje kolejność zgłoszeń.
Warunki rekrutacji:
- odpis dyplomu,
- kwestionariusz osobowy,
- podanie,
- poświadczenie opłaty manipulacyjnej oraz pierwszej wpłaty czesnego.
PODYPLOMOWE STUDIA MENEDŻERSKIE
15-062 Białystok
ul. Warszawska 63
pok. 229
tel. (0~85) 745 77 25
fax (0~85) 741 46 85
Kierownik: dr hab. Tadeusz Truskolaski
Sekretariat: Anna Kitlasz
Podyplomowe Studia Menedżerskie istnieją od roku 1992. Przeznaczone jest dla
absolwentów szkół wyższych, różnych specjalności.
Wykładowcami są pracownicy naukowi oraz praktycy, dyrektorzy banków i specjaliści
z poszczególnych dziedzin. Program i treści nauczania dostosowane są do potrzeb i wymagań rynku. Studium daje szansę nawiązania ciekawych kontaktów oraz konsultacji z wieloma specjalistami z różnych branż.
Zasady naboru: decyduje kolejność zgłoszeń.
Warunki rekrutacji:
odpis dyplomu,
kwestionariusz osobowy,
podanie,
opłata manipulacyjna.
Studia trwają dwa semestry. Zajęcia odbywają się w formie 2-dniowych zjazdów
(w soboty i niedziele) i obejmują 256 godzin zajęć dydaktycznych. Studia kończą się egzaminem i wydaniem świadectwa ukończenia studiów podyplomowych.
Wykładane są następujące przedmioty:
•
Organizacja i zarządzanie
•
Zarządzanie finansami i rynek kapitałowy
•
Marketing
•
Zarządzanie zasobami pracy
•
Zarządzanie strategiczne
•
Biznes plan
•
System podatkowy
•
Funkcjonowanie gospodarki rynkowej
•
Rachunkowość zarządcza
•
Negocjacje w biznesie
•
Public relations
•
Prawo pracy
•
Zamówienia publiczne
•
Rynek i wycena nieruchomości
•
Zajęcia komputerowe
•
Seminaria - wykłady okolicznościowe
Podyplomowe Studia
Zarządzania Projektami Unii Europejskiej
15-062 Białystok, ul. Warszawska 63, pok. 234,
tel. (085) 7457721, fax (085) 7414685
e-mail: [email protected]
http://www.weko.uwb.edu.pl/
Kierownik: dr Elżbieta Sulima
Sekretariat: mgr Jolanta Wiszniewska
Cele studiów
Przekazanie praktycznych umiejętności opracowania projektu i jego zarządzania (w
tym finansowego) oraz wypełniania wniosków, gwarantujących pozyskanie
środków finansowych z Unii Europejskiej.
Adresaci
Wszystkie osoby, które są zobowiązane lub pragną z tytułu potrzeb lub planów
zawodowych otrzymać wiedzę dotyczącą pozyskiwania środków finansowych
z Unii Europejskiej.
W szczególności program kierowany jest do:
–
przedsiębiorców,
–
pracowników administracji samorządowej, organizacji pozarządowych,
–
nauczycieli
–
absolwentów szkół wyższych
–
i innych osób zamierzających uzyskać kwalifikacje niezbędne do pozyskiwania środków finansowych z UE
Korzyści
Przygotowanie specjalistów w dziedzinie zarządzania projektami Unii Europejskiej.
Studia dają możliwość nawiązania kontaktów z osobami bezpośrednio zaangażowanymi w realizację projektów finansowanych z funduszy strukturalnych
Zasady naboru: decyduje kolejność zgłoszeń.
Należy złożyć następujące dokumenty:
–
odpis dyplomu
–
podanie – kwestionariusz osobowy
–
oświadczenie
–
opłata manipulacyjna (85 zł wpłacona na konto)
–
do 21 września opłata I raty czesnego (875,-).

Podobne dokumenty