numer 2/2014 - studia oeconomica posnaniensia

Transkrypt

numer 2/2014 - studia oeconomica posnaniensia
STUDIA OECONOMICA
POSNANIENSIA
2014, vol. 2, no. 2 (263)
Spis treści
Wprowadzenie (Sławomir Kalinowski) ............................................................................... 3
ARTYKUŁY
Tomasz Strózik
System wartości a ocena jakości życia młodzieży akademickiej w świetle badań ankietowych studentów uczelni Poznania .................................................................................... 5
Tomasz Gabrusewicz
Kategoria wartości w nauce rachunkowości ....................................................................... 24
Kinga Dropek
Działania samorządu terytorialnego wspierające przedsiębiorczość w gminach województwa wielkopolskiego ...................................................................................................... 36
Joanna Biernacka
Analiza innowacyjności turystyki medycznej w regionie zachodniopomorskim ......... 55
Marta Pszczółkowska
Analiza alternatywnych wskaźników indeksacji obligacji skarbowych........................... 68
Jadwiga Borucka
Methods for Handling Tied Events in the Cox Proportional Hazard Model ................. 91
Jan Polowczyk
Zarządzanie strategiczne jako wielowymiarowa przestrzeń paradoksów ....................... 107
RECENZJE I REKOMENDACJE
Jerzy Schroeder
Jacek Miroński, Homo administratus czyli człowiek w naukach o zarządzaniu,
Warszawa 2013 ........................................................................................................................ 126
WPROWADZENIE
Kolejny numer STUDIA OECONOMICA POSNANIENSIA, który oddajemy
w ręce czytelników, jest przykładem różnorodności zainteresowań badawczych
tworzącej zakres merytoryczny czasopisma. Pomieszcza on artykuły z zakresu
finansów publicznych, przedsiębiorczości, zarządzania strategicznego, rachunkowości, modelowania ekonometrycznego i turystyki.
Pierwsze dwa artykuły stanowią o wieloznaczności pojęcia wartość, obecnego w aparacie pojęciowym filozofii, socjologii, psychologii i ekonomii.
Najpierw czytelnik ma możliwość poznania zależności między religijnością
i charakterem wyznawanych wartości a jakością życia studentów. Artykuł
Tomasza Strózika jest interesującym studium łączącym dziedzinę aksjologii
w ujęciu filozoficznym z ekonomicznymi koncepcjami jakości życia. Wyniki
badań pokazują, że wybór systemu wartości może determinować zdolność
budowania satysfakcji z życia.
Drugi artykuł, napisany przez Tomasza Gabrusewicza, dotyka problemu ujęcia wartości w nauce rachunkowości. Autor konfrontuje tradycyjne
podejście z nowymi potrzebami ewidencji zjawisk gospodarczych w przedsiębiorstwach. W jego opinii, rachunkowość coraz częściej zaczyna zwracać
uwagę nie tylko na mierzalne efekty działalności gospodarczej dające się
zapisać w sprawozdaniu finansowym, ale i na te niemierzalne, którymi są
odpowiedzialność i ekologia.
Kolejne dwa artykuły dotykają szeroko rozumianej problematyki przedsiębiorczości. Trzeci w kolejności artykuł tego numeru to prezentacja badań
Kingi Dropek nad praktyką stosowania instrumentów wspierania przedsiębiorczości przez jednostki samorządu terytorialnego w Wielkopolsce. Autorka
przeprowadziła badania ankietowe, z których wynika skala powszechności
stosowania i skuteczności różnorodnych narzędzi. Ponadto ważnym jej wnioskiem jest zapóźnienie gmin wiejskich w porównaniu z gminami miejskimi
i miejsko-wiejskimi.
Inny aspekt przedsiębiorczości to innowacje. Joanna Biernacka za innowacyjne uznaje odkrycie niszy rynkowej, którą jest turystyka medyczna. Autorka
wskazuje na rosnące znaczenie tego rynku w obliczu przemian demograficznych, ekonomicznych i postępującego wzrostu mobilności społeczeństw.
4
Wprowadzenie
Piąty artykuł dotyczy problematyki obligacji indeksowanych. Marta
Pszczółkowska przeprowadziła w nim studium porównawcze alternatywnych
wariantów formuły indeksacji obligacji Skarbu Państwa. Najczęściej stosowaną bazę w postaci CPI przeciwstawia możliwości wyboru w jej miejsce stopy
wzrostu PKB lub CPI bez cen administrowanych. Wnioski z badań wskazują
na silną zależność kwoty obciążeń budżetu z tytułu obsługi długu publicznego
od formuły indeksowania obligacji Skarbu Państwa.
Szósty artykuł dotyczy wyboru najwłaściwszego narzędzia ekonometrycznego do prognozowania czasu trwania zjawisk. Jadwiga Borucka poruszyła
problematykę statystycznej analizy przeżycia. Biorąc pod uwagę różne narzędzia estymacji, autorka wskazała na szczególną jakość modelu proporcjonalnego hazardu Coxa. Model jest oparty na kilku restrykcyjnych założeniach;
jedno z nich dotyczy występowania tzw. zdarzeń powiązanych, tzn. zdarzeń
zaobserwowanych dokładnie w tym samym momencie. Artykuł Jadwigi Boruckiej prezentuje pięć sposobów proponowanych w literaturze dla zbiorów
zawierających zdarzenia powiązane.
Ostatni w kolejności artykuł to interesujące studium proponujące nowatorskie podejście do zarządzania strategicznego. Jan Polowczyk przedstawił
w nim złożoność zarządzania strategicznego przy wykorzystaniu koncepcji
paradoksu. Autor opisał znaczenie paradoksów, wykorzystując konfucjańską
koncepcję filozoficzną yin i yang. To drugi obok artykułu Tomasza Strózika
tekst łączący świat idei ze światem nauki.
Proponowane artykuły stanowią zbiór zróżnicowany nie tylko pod względem merytorycznym, ale również metodologicznym. Autorzy w swoim dociekaniu posługiwali się bardzo zróżnicowanym zbiorem metod badawczych.
Numer zamyka recenzja książki Jacka Mirońskiego Homo administratus,
czyli człowiek w naukach o zarządzaniu napisana przez Jerzego Schroedera.
Autor recenzji zwraca szczególną uwagę na przesunięciu punktu skupienia
badaczy zajmujących się zarządzaniem z organizacji jako całości na człowieka,
który jest jej konstytutywnym podmiotem. Recenzja zachęca do lektury tej
interesującej książki.
Sławomir Kalinowski
STUDIA OECONOMICA POSNANIENSIA
2014, vol. 2, no. 2 (263)
Tomasz Strózik
Uniwersytet Ekonomiczny w Poznaniu, Wydział Towaroznawstwa,
Katedra Koniunktury Gospodarczej
[email protected]
SYSTEM WARTOŚCI
A OCENA JAKOŚCI ŻYCIA
MŁODZIEŻY AKADEMICKIEJ
W ŚWIETLE BADAŃ ANKIETOWYCH
STUDENTÓW UCZELNI POZNANIA
Streszczenie: W artykule podjęto próbę identyfikacji zależności pomiędzy poziomem
zadowolenia młodzieży akademickiej z własnego życia jako całości a jej religijnością oraz
hierarchią najważniejszych życiowych wartości. Prezentowane analizy zostały oparte na
rezultatach reprezentatywnego badania ankietowego, które przeprowadzono wśród studentów studiów stacjonarnych uczelni miasta Poznania, przyjmując za moment krytyczny
obserwacji dzień 30.06.2007 roku. W opracowaniu zostały wykorzystane podstawowe
miary statystyki opisowej, metody analizy wariancji oraz analiza korespondencji.
Słowa kluczowe: jakość życia, system wartości, młodzież akademicka.
Klasyfikacja JEL: C38, I31.
THE RELATIONSHIP BETWEEN VALUES SYSTEMS AND
QUALITY OF LIFE ASSESSMENTS IN THE LIGHT OF A SURVEY
AMONG THE STUDENTS OF ACADEMIC INSTITUTIONS IN
POZNAŃ
Abstract: The main aim of this paper is to identify a relationship between the students’
satisfaction with life in general and their religiosity and hierarchy of values. The study was
based on a survey conducted among full-time students from various academic institutions
in Poznań, with all the observations being conducted on 30.06.2007. The tools used in
the research include standard statistical methods, ANOVA, MANOVA and correspondence analysis.
Keywords: quality of life, value system, university students.
6
Tomasz Strózik
Wstęp
W naukach społecznych przyjmuje się powszechnie, że badania aksjologiczne
pozwalają na wyjaśnienie i przewidywanie zachowań ludzi oraz całych społeczeństw poprzez identyfikację właściwych im systemów wartości. Wartościowanie jest uniwersalnym procesem wpływającym w sposób bezpośredni na
podejmowane przez człowieka decyzje i prezentowane przezeń postawy. Sam
proces wartościowania oznacza zarówno formułowanie sądów oceniających,
jak i akceptowanie lub negowanie pewnych stanów rzeczy. Wszystkie poczynania jednostki są podyktowane preferowaniem pewnych wartości – dążeniem
do tego, co dobre, słuszne bądź korzystne [Ross 1973].
Pojęcie wartości nie jest jednoznaczne, a tym samym rodzi pewne problemy
w procesie badawczym. W ujęciu socjologicznym terminem wartość określa
się ideę lub instytucję, przedmiot rzeczywisty lub wyimaginowany, w stosunku
do których jednostki lub zbiorowości przyjmują postawę szacunku, przypisując im ważną rolę w swoim życiu, a dążenie do ich osiągnięcia odczuwają
jako swoisty przymus [Szczepański 1967, s. 58].
Przez system wartości rozumiemy zazwyczaj systemy kategorii poznawczych człowieka, służące mu do opisu i oceny świata oraz stanowiące podstawę
dokonywanych przezeń wyborów pomiędzy pewną liczbą stanów docelowych.
Systemy te nie są kategorią uniwersalną i nie we wszystkich subpopulacjach
określone cele mają taką samą ważność. Dany system wartości w dużym
stopniu kształtuje się pod wpływem zindywidualizowanych potrzeb, postaw
i aspiracji jednostki [Ignatczyk 2002, s. 17–22].
Kwestie systemów wartości, determinujących społeczno-ekonomiczne
zachowania ludności, stanowią jeden z ważniejszych problemów teoretycznych związanych ze zrozumieniem istoty oraz z pomiarem jakości życia
człowieka. Jakość życia jest pojęciem względnym, które zależy nie tylko od
zakresu objętych obserwacją i pomiarem obszarów ludzkiej egzystencji, lecz
również od aspektów aksjologicznych i praktykowanych w życiu systemów
wartości [Borys 2004, s. 30]. Każdy człowiek dąży w życiu do pewnych wartości, które kształtują jego decyzje i determinują postawy wobec otaczającej
go rzeczywistości. Tym samym indywidualna ocena jakości życia powinna
uwzględniać odpowiedzi na pytania: jakiej postaci życia własnego i życia
innych ludzi pragniemy oraz do jakiego kształtu ludzkiego świata i własnego
życia chcemy się przyczynić [Grzegorczyk 1993, s. 96]. Wyznawane systemy
wartości stanowią przesłankę do zróżnicowania percepcji jakości życia ludności przy względnie takich samych warunkach życia w ich obiektywnym
ujęciu, a tym samym decydują o komplementarnym charakterze obiektywi-
System wartości a ocena jakości życia młodzieży akademickiej
7
stycznych i subiektywistycznych koncepcji pomiaru tej kategorii [Campbell
1976].
Jedną z ważniejszych grup społecznych, z punktu widzenia każdego kraju, jest młodzież, a zwłaszcza ta jej część, która pozostaje na ostatnim etapie
procesu kształcenia – młodzież studiująca. Szczególną rolę młodzieży akademickiej określają, jak pisze J. Piechnik-Borusowska [1998], „korelaty procesu
jej funkcjonowania – […] pozorna samodzielność (»dorosłość«) nieobciążona szerszymi obowiązkami i niezmuszająca do stabilizacji psychologia
»wszechobecności studentów«, względnie duża ruchliwość, obecność silnych
autorytetów społecznych, swoista »otwartość« na nowe pomysły i propozycje
społeczne, kulturowe i ideowe”. Młodzież stanowi też naturalny, choć nie
zawsze wystarczająco doceniany, kapitał każdego społeczeństwa, a zarazem
jest swoistym barometrem społecznym, który odgrywa rolę wyraziciela opinii
znacznej części społeczeństwa [Wawro 2004, s. 7].
Odrębność populacji młodzieży oraz potencjał, jakim ta warstwa społeczna dysponuje w procesie tworzenia oraz przekazu dziedzictwa kulturowego
i cywilizacyjnego, czynią ją istotnym podmiotem badawczym w obszarze
badań nad jakością życia.
Celem niniejszego artykułu jest próba identyfikacji istniejących zależności
pomiędzy poziomem zadowolenia młodzieży akademickiej z życia jako całości
a jej religijnością i hierarchią najważniejszych życiowych wartości. Badanie
zostało oparte na założeniu, że hierarchia wyznawanych wartości stanowi
swego rodzaju pryzmat oceny własnej egzystencji, a jednocześnie determinuje
postawy studentów i ich przyszłe zachowania. Przyjęte podejście jest zgodne
z obecnym w naukach społecznych przekonaniem, że wyjaśnienia i przewidywania zachowań ludzi, jak i całych społeczeństw, można dokonać właśnie
poprzez identyfikację wyznawanego systemu wartości [Ignatczyk 2002, s. 17].
1. Dane źródłowe i metody badawcze
Próba rozpoznania zależności pomiędzy percepcją jakości życia młodzieży
akademickiej a jej systemem wartości była jednym z kluczowych aspektów
większego badania, którego celem było rozpoznanie uwarunkowań szeroko
rozumianej jakości życia młodzieży akademickiej. Ze względu na niemożność przeprowadzenia wyczerpującego badania podjęto decyzję o wyborze
niepełnej metody obserwacji w formie badania reprezentacyjnego. Badanie
to zostało przeprowadzone na populacji studentów studiów stacjonarnych
dwunastu uczelni miasta Poznania – jednego z najprężniejszych ośrodków
8
Tomasz Strózik
akademickich kraju, z największym udziałem młodzieży studiującej w ogólnej liczbie mieszkańców, przyjmując za moment krytyczny obserwacji dzień
30.06.2007 roku. W badaniu wykorzystano technikę ankiety środowiskowej,
a kanwą do pozyskania informacji był autorski, standaryzowany kwestionariusz ankiety „Jak żyją studenci?”.
Jakość życia to istotne zagadnienie badawcze o charakterze interdyscyplinarnym, będące w ostatnim czasie przedmiotem zainteresowania niemal
każdej dyscypliny nauki. W przyjętej koncepcji badania jakość życia potraktowano jako kategorię złożoną, odzwierciedlającą kombinację subiektywnych
odczuć i obiektywnego stanu dobrobytu człowieka oraz środowiska, w którym
żyje w danym momencie, wyrażoną jako funkcja dwóch czynników: fizycznego i psychicznego. Czynnik fizyczny jakości życia obejmuje wiązkę dóbr
materialnych i usług, które zaspokajają większość podstawowych potrzeb
człowieka, podczas gdy czynnik psychiczny jest związany przede wszystkim
z jego samorealizacją i rozwojem [Liu 1975].
Młodzież akademicka została dla potrzeb postępowania badawczego zdefiniowana jako populacja studentów dziennych studiów licencjackich i magisterskich podejmujących edukację na wyższej uczelni [Pająk 2007, s. 31–33],
charakteryzujących się pełnoletniością, ale też względną niesamodzielnością
ekonomiczną oraz społeczną, którzy pod względem prawnym pozostawali
w stanie wolnym.
Ze względu na wieloaspektowy charakter zjawiska jakości życia w badaniu
znalazły zastosowanie przede wszystkim metody wielowymiarowej analizy
statystycznej, służące wykrywaniu prawidłowości w zbiorowościach opisywanych przez rozbudowany zestaw cech.
Do uchwycenia istniejących zależności pomiędzy percepcją jakości życia a systemem wartości studentów posłużono się wieloczynnikową analizą
wariancji MANOVA – statystyczną metodą rozstrzygania o istnieniu różnic
pomiędzy średnimi w kilku (sub-)populacjach. Wieloczynnikowa analiza
wariancji umożliwia jednoczesną analizę wpływu więcej niż jednego czynnika
o charakterze egzogenicznym na zmienną zależną, której wartości pochodzą
z tzw. skal mocnych, przy czym badane czynniki mogą mieć więcej niż dwie
kategorie.
Do identyfikacji związków występujących pomiędzy wskaźnikami i czynnikami o charakterze jakościowym posłużono się z kolei analizą korespondencji. Analiza korespondencji należy do opisowych technik analizy tablic
wielodzielczych, dostarczających informacji o charakterze powiązań między
kolumnami i wierszami. Metoda jest oparta na teście niezależności χ2, a jej
podstawowym celem jest odtworzenie odległości pomiędzy punktami repre-
System wartości a ocena jakości życia młodzieży akademickiej
9
zentującymi wiersze i kolumny tabeli wielodzielczej w przestrzeni o mniejszej
liczbie wymiarów przy jednoczesnym zachowaniu jak największej ilości pierwotnej informacji. Atrakcyjność analizy korespondencji wynika z szerokiego
zakresu jej zastosowań oraz możliwości graficznej, bardzo czytelnej prezentacji
wyników w postaci tzw. mapy punktów. Mapa ta pozwala na identyfikację
występujących skupień kategorii zmiennych oraz intuicyjne wnioskowanie
o powiązaniach zachodzących pomiędzy nimi [Stanisz 2007, s. 307].
2. Profil populacji młodzieży akademickiej uczelni Poznania
Badaną zbiorowość tworzyła młodzież akademicka stanu wolnego. Obserwacją objęto 1516 respondentów kształcących się w trybie dziennym na
dwunastu uczelniach miasta Poznania. Po kontroli merytoryczno-formalnej
materiału źródłowego do analizy uwarunkowań jakości życia młodzieży
akademickiej zakwalifikowano 1455 prawidłowo wypełnionych kwestionariuszy ankiety.
Ocena struktury badanej zbiorowości młodzieży akademickiej przeprowadzona według płci wykazała, że blisko 58,6% stanowiła młodzież żeńska,
a 41,4% młodzież męska. Niemal 22% młodzieży akademickiej wywodziło się
ze środowisk wiejskich, a około 78% badanych osób wskazało na miasto jako
miejsce swojego zameldowania. Uwzględniając kryterium wielkości miasta,
stwierdzono, że blisko 47% respondentów zamieszkiwało miasta do 100 tys.
mieszkańców, a niemal co trzeci badany student wywodził się ze środowisk
wielkomiejskich – z miast o liczbie ludności przekraczającej 100 tys.
Nakreślona problematyka badawcza wzbudziła zainteresowanie co do
charakteru rodzin, z jakich wywodziła się młodzież akademicka. Środowisko
pochodzenia stanowi bowiem jeden z ważniejszych czynników wpływających
na percepcję życia młodego człowieka.
Rezultaty badania struktury studentów według charakteru rodziny pochodzenia ukazały, że 15,1% z nich pochodziło z rodzin niepełnych, czyli
takich, w których przynajmniej jeden z rodziców biologicznych nie żyje bądź
też oboje rodzice żyją, ale są rozwiedzeni, w separacji lub też nie mieszkają
razem z innych powodów. Udział młodzieży akademickiej niemieszkającej
z obojgiem rodziców był większy wśród respondentów wywodzących się ze
środowisk miejskich i wynosił 16,5% wobec 10,3% wśród mieszkańców wsi.
Należy podkreślić, że w środowiskach miejskich ponaddwukrotnie większy
był też udział respondentów pochodzących z rodzin rozbitych poprzez rozwód lub separację.
10
Tomasz Strózik
3. System wartości i światopogląd młodzieży akademickiej
Podejmując się badania szeroko rozumianych uwarunkowań jakości życia
studentów uczelni Poznania, uznano, że do potencjalnych czynników determinujących zróżnicowanie jakości życia młodzieży akademickiej należą jej
system wartości oraz prezentowany światopogląd.
Przyjmuje się, że światopogląd oznacza sposób postrzegania świata poprzez
pryzmat wyznawanych wartości oraz stanowi zespół przekonań dotyczących
natury świata, społeczeństwa. Światopogląd, przez który człowiek wyraża swój
stosunek do świata i samego siebie, jest integralną częścią osobowości, tworzy
swoistą ramę dla systemu wartości jednostki, dla prezentowanych przez nią
postaw i podejmowanych działań [Jaspers 1919].
W procesie identyfikacji światopoglądu badanej populacji młodzieży
akademickiej, rozumianego jako zespół poglądów na charakter otaczającej
nas rzeczywistości, dokonano na potrzeby artykułu pewnego uproszczenia,
koncentrując uwagę na (deklarowanej) religijności studentów. Identyfikacja
zróżnicowania badanej populacji studentów ze względu na deklarowaną religijność wykazała, że ponad 90% z nich uznawało się za osoby wierzące (rysunek 1). Tylko co trzeci respondent przyznał, że jest osobą głęboko wierzącą
i praktykującą. Ponad 40% młodzieży akademickiej określiło się jako osoby
wierzące, ale mało praktykujące, a 17% jako osoby wierzące i niepraktykujące.
8,9%
osoby niewierzące
17,2%
osoby wierzące,
ale niepraktykujące
32,9%
osoby głęboko wierzące
i praktykujące
41,0%
osoby wierzące, ale mało praktykujące
Rysunek 1. Deklarowana religijność respondentów
Źródło: Obliczenia własne z wykorzystaniem pakietu STATISTICA 8.0
11
System wartości a ocena jakości życia młodzieży akademickiej
Udział osób głęboko wierzących był wyraźnie wyższy w gronie kobiet
(36,2%), z kolei wśród mężczyzn ponaddwukrotnie więcej było osób niewierzących. Równocześnie udział respondentów, którzy określili się jako
niewierzący lub wierzących, lecz niepraktykujący, był wyraźnie wyższy wśród
osób pochodzenia miejskiego. W środowiskach wiejskich z kolei relatywnie
więcej było osób głęboko wierzących i praktykujących (39,4%).
Kolejnym etapem podjętej analizy była próba identyfikacji hierarchii
najważniejszych życiowych wartości młodzieży akademickiej. W tym celu
poproszono studentów o wskazanie trzech spośród dwunastu podanych życiowych wartości, mających dla nich największe znaczenie. Wybrane wartości
zostały przez respondentów uszeregowane według skali: bardzo ważna, ważna
i średnio ważna (tabela 1). Takie podejście wpisuje się w koncepcję, według
której wartości w życiu każdego człowieka nie występują w izolacji, lecz tworzą pewną hierarchię. Człowiek przyznaje wartościom różną rangę i stopień
przydatności dla swego istnienia i rozwoju [Baniak 1986, s. 85].
Tabela 1. Najważniejsze wartości życiowe a płeć respondentów
(odsetek wskazań)
Wartości życiowe
Rodzina
Zdrowie
Przyjaciele
Udane małżeństwo
Wolność, swoboda
Wykształcenie
Pieniądze
Bóg, opatrzność
Kariera zawodowa
Praca
Szacunek otoczenia
Pomoc innym
Inne
Brak odpowiedzi
Ogółem
skala ważności*
1
2
3
32,0
21,6
12,6
19,2
16,3
11,6
4,6
15,5
13,3
10,0
9,9
7,2
7,1
5,7
6,2
2,7
6,7
9,3
4,6
3,8
10,1
9,5
4,0
4,6
1,9
3,7
5,9
0,9
2,8
4,5
1,2
2,5
3,7
0,2
0,5
2,2
0,2
0,2
0,1
–
–
–
Mężczyźni
ra­
zem**
66,2
47,1
33,3
27,1
19,0
18,7
18,5
18,1
11,5
8,2
7,4
2,9
0,5
5,9
Kobiety
1
ra­
zem**
1*
ra­
zem**
23,3
19,9
5,0
8,6
10,1
2,8
8,0
9,6
2,0
1,5
1,5
0,2
0,5
–
57,8
44,2
32,9
24,6
24,8
17,4
25,9
16,8
11,0
8,0
8,8
2,0
0,8
7,0
38,1
18,8
4,3
11,0
4,9
2,6
2,2
9,4
1,9
0,5
0,9
0,2
.
–
72,1
49,2
33,6
29,0
14,9
19,6
13,2
19,0
12,0
8,3
6,3
3,5
0,2
5,2
*
* Skala ważności: 1 – wartość bardzo ważna, 2 – wartość ważna, 3 – wartość średnio ważna.
** Odsetki nie sumują się do 100%, gdyż respondenci dokonali wyboru 1–3 wartości.
Źródło: Obliczenia własne z wykorzystaniem pakietu STATISTICA 8.0.
12
Tomasz Strózik
Próba rozpoznania preferencji wartości życiowych studentów ukazała
swoistą hierarchię (tabela 1), na której szczycie znalazła się rodzina, wybrana
przez 2/3 respondentów (dla 32% badanej populacji młodzieży była to wartość
najważniejsza). Uwagę zwraca wysokie uplasowanie zdrowia, które znalazło się
na drugim miejscu i było cenione przez ponad 47% studentów. Można uznać,
że taki wybór jest wyrazem docenienia znaczenia zdrowia dla egzystencji
człowieka. Na trzecim miejscu w hierarchii wartości młodych ludzi znalazła
się przyjaźń, preferowana przez co trzeciego respondenta. Na dalszych pozycjach uplasowały się kolejno: udane małżeństwo (27,1%), wolność, swoboda
(19%), wykształcenie (18,7% ), a także pieniądze (18,5%) oraz Bóg, opatrzność
(18,1% wskazań). Zaledwie co dziesiąty respondent cenił karierę zawodową
(11,5%), tylko 8,2% studentów wybrało pracę, a 7,4% szacunek otoczenia.
Jednakową kolejność trzech najważniejszych wartości (rodzina, zdrowie,
przyjaciele) zaobserwowano zarówno wśród młodych kobiet, jak i mężczyzn.
Warto jednak nadmienić, że udział studiujących kobiet, które uznały rodzinę
za wartość najważniejszą, wyniósł aż 38,1% i był tym samym o blisko 15 p.p.
większy niż wśród mężczyzn. Mężczyźni z kolei zdecydowanie bardziej cenili
pieniądze (25,9%) oraz wolność i swobodę (24,8% wskazań), które uplasowały się na czwartym i piątym miejscu w hierarchii wartości tej subpopulacji. Kobiety nad aspekt materialny swojej egzystencji przedkładały udane
małżeństwo (29,0%), a także wykształcenie (19,6%) oraz Boga i opatrzność
(19,0% wskazań).
Podjęte badanie potwierdziło ponadto, że istnieją wyraźne zależności
pomiędzy hierarchią wartości a religijnością człowieka [Feather 2005; Krok
2010]. Młodzież akademicka uczelni Poznania za najważniejszą wartość życiową uznała rodzinę, przy czym udział studentów, którzy wskazali na tę kategorię, był o blisko 20 p.p. większy w gronie respondentów głęboko wierzących
aniżeli wśród młodzieży niewierzącej (tabela 2). Na kolejnym miejscu znalazło
się zdrowie, cenione przede wszystkim przez głęboko wierzących (46,1%)
oraz mało praktykujących (52,2%), a rzadziej przez osoby niewierzące (36,9%
wskazań). Trzecią wartością w hierarchii osób głęboko wierzących był Bóg
i opatrzność, którą wybrało blisko 42% tej subpopulacji. Istotną wartością
w życiu osób wierzących i praktykujących było udane małżeństwo, preferowane przez odpowiednio 30,5% studentów głęboko wierzących oraz 28,5%
mało praktykujących. W gronie młodzieży niewierzącej wartość tę wskazało
zaledwie 16,2%, co można uznać za przejaw co najwyżej neutralnego stosunku
do samej instytucji małżeństwa w tej subpopulacji. Osoby niewierzące zdecydowanie bardziej ceniły wolność i swobodę – 40,8% oraz pieniądze – 33,8%
wskazań.
13
System wartości a ocena jakości życia młodzieży akademickiej
Tabela 2. Najważniejsze wartości życiowe a deklarowana religijność
respondentów (odsetek wskazań)
Wartości życiowe
Rodzina
Zdrowie
Przyjaciele
Udane małżeństwo
Wolność, swoboda
Wykształcenie
Pieniądze
Bóg, opatrzność
Kariera zawodowa
Praca
Szacunek otoczenia
Pomoc innym
Inne
Brak odpowiedzi
Głęboko
wierzący
ra­
1*
zem**
33,4
71,0
17,3
46,1
1,5
27,8
9,2
30,5
3,1
9,6
1,3
15,0
2,3
12,1
24,4
41,8
0,8
9,0
0,8
7,9
0,8
5,6
0,2
4,2
0,2
0,4
–
4,6
Mało
praktykujący
ra­
1*
zem**
31,2
66,4
23,0
52,2
4,5
34,1
11,7
28,5
6,7
19,6
3,2
20,8
5,2
17,4
3,2
9,4
2,5
10,9
0,8
7,7
1,3
8,9
0,2
1,5
.
.
–
6,4
Niepraktyku­
jący
ra­
1*
zem**
33,6
64,4
16,0
42,4
8,4
38,8
10,4
23,2
9,2
24,0
3,6
19,6
5,6
25,2
0,8
2,0
2,0
16,0
1,2
8,8
1,2
6,4
0,8
4,4
.
0,4
–
7,2
Niewierzący
1*
26,9
15,4
9,2
4,6
19,2
3,8
8,5
.
3,1
0,8
1,5
0,8
.
–
ra­
zem**
50,8
36,9
40,0
16,2
40,8
20,8
33,8
1,5
15,4
10,0
8,5
3,1
1,5
6,2
* Skala ważności: 1 – wartość bardzo ważna.
** Odsetki nie sumują się do 100%, gdyż respondenci dokonali wyboru 1–3 wartości.
Źródło: Jak do tabeli 1.
Interesujących spostrzeżeń dostarczyła analiza hierarchii tych obszarów
życia, które młodzież akademicka uznała za najistotniejsze w chwili badania
(w czasie kontynuowania edukacji na wyższej uczelni). Na pierwszym miejscu
w swoistym rankingu najistotniejszych obszarów życia studentów (podobnie
jak w hierarchii najważniejszych życiowych wartości) znalazła się rodzina,
wybrana przez 66,4% respondentów. Blisko 62% młodzieży akademickiej za
jeden z najważniejszych obszarów swojego życia uznało podjętą edukację na
wyższej uczelni, 37,4% wskazało na relacje z przyjaciółmi, a 36,2% na własne
życie osobiste. Na dalszych miejscach w powstałej hierarchii znalazły się
kolejno: perspektywy na przyszłość (28,2%), zdrowie (19,1%), korzystanie
z uroków życia (13,0%), a także życie religijne (6,2%), hobby (5,6%), czas
wolny (4,9%) oraz sytuacja w kraju (2,3% wskazań).
Udział osób podkreślających rolę relacji rodzinnych w swoim życiu był
o blisko 12 p.p. wyższy wśród studiujących kobiet. Młodzież płci żeńskiej rela-
14
Tomasz Strózik
tywnie bardziej ceniła też własne życie osobiste (39,4%) oraz zdrowie (21,5%).
Mężczyźni z kolei zdecydowanie częściej wskazywali na hobby (9,6%), czas
wolny (7,3%) oraz sytuację w kraju (4,3% wskazań) jako te obszary własnego
życia, które były dla nich najważniejsze.
Uzyskane efekty badania dokonywanych przez studentów wyborów wartości życiowych oraz tych obszarów życia, które są dla nich najważniejsze,
pokazały, że system wartości młodzieży akademickiej początków XX wieku
można uznać za tradycyjny [Ignatczyk 2005]. Pomimo obserwowanego kryzysu rodziny wartości rodzinne nadal stanowią dla młodzieży akademic­
kiej, podobnie jak dla reszty polskiego społeczeństwa [Czapiński i Panek
2011; CBOS 2013], najważniejsze obok zdrowia czynniki warunkujące udane
i szczęśliwe życie. Ważną rolę w życiu studentów odgrywają ponadto przyjaźń
i wykształcenie, a zdecydowanie mniejszą wagę przypisują oni wartościom
związanym z zaspokajaniem potrzeb materialnych (np. pracy i pieniądzom).
Ujawniające się preferowanie przez studentów wartości postmaterialistyczych
można wszak uznać za cechę charakterystyczną dla młodego pokolenia wychowanego na bazie innych doświadczeń aniżeli ich rodzice oraz dziadkowie
[Inglehart 2000, s. 222].
Warto ponadto podkreślić zaobserwowane zależności pomiędzy hierarchią wartości a deklarowaną religijnością młodzieży akademickiej. Uzyskane
rezultaty badania potwierdziły podkreślane w wielu pracach [m.in. S­ chwartz
i Huismans 1995; Roccas 2005] pozytywne związki religijności jednostki
z wartościami o charakterze tradycyjnym, takimi jak rodzina, zdrowie i przyjaźń, oraz jej negatywne powiązania z wartościami hedonizmu oraz samodzielności.
4. Ocena jakości życia młodzieży akademickiej
Indywidualna ocena jakości życia człowieka wypływa zarówno z jego zadowolenia z poszczególnych sfer własnej egzystencji (m.in. warunków materialnych,
zdrowia, życia rodzinnego i towarzyskiego) czy ich – implikowanego przez
system wartości – znaczenia dla jednostki, jak i z doświadczanych bolesnych
oraz radosnych przeżyć, z radości z życia, poczucia szczęścia oraz zaufania
do ludzi.
W podjętym badaniu do identyfikacji percepcji indywidualnej globalnej
jakości życia młodzieży akademickiej uczelni Poznania wykorzystano wskaźniki obrazujące oceny studentów dotyczące ich dobrostanu psychicznego –
zadowolenia z własnego życia jako całości.
System wartości a ocena jakości życia młodzieży akademickiej
15
Przeprowadzone badania ukazały, że dokonując łącznej oceny wszystkich
aspektów własnej egzystencji, zdecydowana większość studentów zaopiniowała swoje życie pozytywnie – aż 46% badanej populacji młodzieży uznało
je za dość dobre, a ponad 36% za udane. Tylko niecałe 15% respondentów
określiło swoje dotychczasowe życie jako ani dobre, ani złe, a zaledwie
nieco ponad 3% udzieliło odpowiedzi o wydźwięku negatywnym (rysunek 2). Można więc stwierdzić, że poziom zadowolenia z życia był wśród
badanych studentów bardzo wysoki. Potwierdziła to też średnia wartość
uzyskanych ocen, która osiągnęła poziom 1,851, nieznacznie powyżej oceny
„dość udane”.
3,0%
niezbyt udane
14,7%
ani dobre, ani złe
0,2%
nieudane
36,2%
udane
46,0%
dość dobre
Rysunek 2. Subiektywne oceny respondentów
dotyczące ich życia jako całości
Źródło: Obliczenia własne z wykorzystaniem pakietu
STATISTICA 8.0
Otrzymane rezultaty dotyczące percepcji życia studentów wpisują się w wyniki badań nad poziomem zadowolenia z życia polskiego społeczeństwa,
wskazujące na sukcesywny wzrost satysfakcji życiowej Polaków – już ponad
70% z nich odczuwa zadowolenie z własnej egzystencji, a w subpopulacji ludzi młodych wskaźnik ten jest jeszcze nieco większy [CBOS 2011; Czapiński
i Panek 2011]. Podobne trendy są obserwowane w Stanach Zjednoczonych
i w krajach Europy Zachodniej – badania dowodzą, że ponad 80% ludzi odczuwa satysfakcję z własnego życia i to niezależnie od płci, wieku bądź rasy
[Inglehart 1990; Diener i Diener 1996; OECD 2013].
16
Tomasz Strózik
Jakkolwiek poziom satysfakcji z życia studentów był wysoki we wszystkich wyróżnionych pod względem cech demograficzno-społecznych grupach
respondentów, to zaobserwowano też pewien stopień jego zróżnicowania.
Odnotować należy, że choć frakcja osób określających swoje życie pozytywnie
była jednakowa w subpopulacjach studentów płci męskiej i żeńskiej, to jednak udział respondentów, którzy ocenili je bardzo wysoko − jako udane, był
o blisko 6 p.p. większy w subpopulacji studiujących kobiet. Również średnia
ocena życia jako całości była wyższa w gronie młodzieży akademickiej płci
żeńskiej, a przeprowadzona analiza wariancji potwierdziła istotność tych
różnic (F = 3,879, p = 0,0490). Szukając przyczyn istniejących dysproporcji,
można przywołać wyniki badań zrealizowanych przez A. Plagnol z University
of Cambridge oraz R. Esterlina z University of Southern California, które wskazywały, że relatywnie mniejszy poziom zadowolenia z życia wśród
młodych mężczyzn wynikał w dużej mierze z ich samotności w tym okresie
[Women End Up Less Happy 2008]. Wnioski te korespondują z wynikami analizy dotyczącej sieci wsparcia wśród badanych studentów, które pokazywały
przewagę osób płci męskiej w gronie respondentów, wśród których główną
i najczęstszą przyczyną poczucia osamotnienia był brak bliskiej osoby, bratniej
duszy [Strózik 2011, s. 225].
Charakterystyczne, że zmienną różnicującą poziom satysfakcji z życia
młodzieży akademickiej było środowisko ich miejsca stałego zamieszkania.
Udział osób zadowolonych z własnego życia był relatywnie najmniejszy wśród
studentów pochodzenia wiejskiego – około 77% z nich uznało swoje dotychczasowe życie za udane lub dość dobre, podczas gdy w gronie młodzieży
wywodzącej się z miast frakcja ocen o wydźwięku pozytywnym była o około
5–6 p.p. większa. Również średnia ocena własnego życia jako całości była,
jak wykazała wieloczynnikowa analiza wariancji, relatywnie niższa wśród
mieszkańców wsi (F = 2,589, p = 0,0754).
Znamienne, że poziom satysfakcji życiowej był zdecydowanie niższy w gronie młodzieży akademickiej wywodzącej się z rodzin niepełnych. Frakcja osób
określających swoje życie jako udane osiągnęła w tej subpopulacji studentów
poziom 27,3% i była tym samym o ponad 10 p.p. niższa aniżeli w gronie studentów pochodzących z rodzin pełnych. Również średnia ocena zadowolenia
z życia była istotnie wyższa wśród osób zamieszkujących z obojgiem rodziców
(F = 5,778, p = 0,0164). Rezultaty badania potwierdziły po raz kolejny, że życie
rodzinne należało do ważniejszych aspektów warunkujących jakość życia
młodego człowieka, a dezintegracja życia rodzinnego stanowi istotny czynnik
obniżający dobrostan psychiczny człowieka [­Czapiński i ­Panek 2011, s. 457].
System wartości a ocena jakości życia młodzieży akademickiej
17
5. Jakość życia a system wartości młodzieży akademickiej
Subiektywna ocena jakości życia jest swego rodzaju efektem konfrontacji
obiektywnych warunków życia jednostki i poziomu zaspokojenia różnorodnych potrzeb z aspiracjami, normami i wyznawanymi przez nią wartościami.
To indywidualna hierarchia wartości człowieka determinuje jego sposób
postrzegania i oceny otaczającej go rzeczywistości, jego percepcję świata
i własnego życia. Dlatego też poszukiwanie zależności pomiędzy systemem
wartości człowieka a jego dobrostanem psychicznym stanowi jeden z ciekawszych nurtów badań związanych z problematyką jakości życia.
Przyjmując założenie o potencjalnym istotnym wpływie wyznawanego
przez badaną populację studentów systemu wartości na jej postrzeganie własnej egzystencji, podjęto próbę identyfikacji stopnia zależności pomiędzy poziomem zadowolenia z życia jako całości a jej światopoglądem (deklarowaną
religijnością) i hierarchią najważniejszych życiowych wartości.
Wiele badań dowodzi wpływu religijności człowieka na jego percepcję
własnego życia, a większość z nich mówi o wpływie pozytywnym [Myers
2008; Clark i Lelkes 2009; Hoverd i Sibley 2013]. Podobne wnioski można
wysunąć z podjętego badania, które ukazało wyraźną zależność pomiędzy
światopoglądem (deklarowaną religijnością) młodzieży akademickiej a jej
subiektywnymi ocenami własnego życia jako całości. Najwyższy przeciętny
poziom zadowolenia z życia charakteryzował studentów głęboko wierzących
i praktykujących (tabela 3). Ponad 86% z nich oceniło swoje dotychczasowe
życie jako udane (43,2%) lub dość udane (43,2% wskazań), a tylko 11,7% jako
ani dobre, ani złe. Relatywnie mniejszym poziomem satysfakcji z własnego
życia odznaczały się osoby niewierzące. Około 33% tej subpopulacji młodzieży
uznało swoje dotychczasowe życie za udane, a blisko 8% za niezbyt udane.
Również średnia ocena własnej egzystencji była, jak wykazała analiza wariancji
(F = 2,942, p = 0,0320), istotnie niższa wśród studentów niewierzących.
Bardziej szczegółowe analizy ukazały, że istniejące dysproporcje w ocenie własnego życia pomiędzy osobami głęboko wierzącymi i niewierzącymi
były szczególnie widoczne wśród młodych ludzi o relatywnie niekorzystnych
warunkach życia w ich obiektywnym ujęciu. Ujawniła się więc buforowa
rola religijności, która osobom wierzącym ułatwia zmaganie się z trudami
codziennego życia [Helliwell, Layard i Sachs 2012, s. 72].
Bardzo interesujących spostrzeżeń dostarczyła próba identyfikacji powiązań pomiędzy satysfakcją z życia studiującej młodzieży a jej hierarchią
najważniejszych życiowych wartości.
18
Tomasz Strózik
Tabela 3. Subiektywna ocena własnego życia jako całości a deklarowana
religijność respondentów
Deklarowana
religijność
Głęboko wierzący
i praktykujący
Wierzący, ale mało
praktykujący
Wierzący, lecz niepraktykujący
Niewierzący
1
Ocena własnego życia* (% odpowiedzi)
2
3
4
5
Średnia
ocen
43,2
43,2
11,7
1,7
0,2
1,724
31,0
49,8
16,0
3,0
0,2
1,914
36,4
33,1
42,8
44,6
17,6
14,6
2,8
7,7
0,4
.
1,880
1,969
* Skala ocen: 1 – udane, 2 – dość udane, 3 – ani dobre, ani złe, 4 – niezbyt udane, 5 – nieudane.
Źródło: Obliczenia własne z wykorzystaniem pakietu STATISTICA 8.0.
Jak pokazało podjęte badanie uwarunkowań jakości życia studentów, większość młodzieży zadeklarowała, że relacje z własną rodziną pochodzenia
odgrywały w jej życiu priorytetową rolę. To rodzice stanowili dla młodych
ludzi źródło wsparcia, nie tylko materialnego [Strózik 2011, s. 226]. Bardzo
silnie zaangażowanie znacznej części studentów w życie rodzinne oraz wysokie
miejsce rodziny w ich hierarchii najbardziej cenionych wartości znalazły odzwierciedlenie w przeciętnym poziomie dobrostanu psychicznego (F = 18,187,
p = 0,0000). Równocześnie frakcja osób zadowolonych z własnego życia była
o blisko 10 p.p. większa w subpopulacji młodzieży akademickiej, dla której
rodzina jako wartość odgrywała szczególną rolę, aniżeli w gronie studentów,
którzy, dokonując wyboru trzech najważniejszych wartości w swym życiu,
rodzinę pominęli (tabela 4).
Również umiejscowienie zdrowia w systemie wartości młodzieży akademickiej stanowiło istotny czynnik warunkujący zróżnicowanie ocen respondentów dotyczących ich losu. Udział osób oceniających swoje życie jako
udane był większy w subpopulacji osób uznających zdrowie za jedną z trzech
najważniejszych wartości w swym życiu (tabela 4). Równocześnie, jak ukazała wieloczynnikowa analiza wariancji MANOVA (F = 4,715, p = 0,0412),
średnia ocena satysfakcji życiowej była, przy uwzględnieniu stopnia zróżnicowania subiektywnego stanu zdrowia studentów, relatywnie wyższa wśród
osób szczególnie ceniących zdrowie. Można zatem wnioskować, że wśród
studentów dokonujących jednakowej oceny swojego stanu zdrowia wyższym
poziomem zadowolenia z własnej egzystencji odznaczały się osoby uznające zdrowie za wartość fundamentalną. Takie rozumienie wartości zdrowia
sprzyja angażowaniu się człowieka w aktywność prozdrowotną oraz unikanie
19
System wartości a ocena jakości życia młodzieży akademickiej
Tabela 4. Subiektywna ocena życia jako całości a system wartości respondentów
Wartości
życiowe
Zdrowie
tak
nie
Rodzina
tak
nie
Przyjaciele
tak
nie
Pieniądze
tak
nie
1
Ocena własnego życia* (% odpowiedzi)
2
3
4
5
Średnia
ocen
38,5
34,1
45,8
46,2
12,8
16,4
2,5
3,4
0,4
.
1,806
1,891
39,5
29,7
45,8
46,3
12,3
19,5
2,3
4,3
0,2
0,2
1,780
1,990
34,2
37,1
45,8
46,1
16,9
13,6
2,9
3,0
0,2
0,2
1,891
1,831
31,6
37,2
44,2
46,4
17,5
14,1
6,7
2,1
.
0,3
1,993
1,819
* Skala ocen: 1 – udane, 2 – dość udane, 3 – ani dobre, ani złe, 4 – niezbyt udane, 5 – nieudane.
Tak oznacza, że dana wartość znalazła się wśród trzech najważniejszych życiowych wartości wskazywanych przez respondentów, nie, że wśród pozostałych.
Źródło: Obliczenia własne z wykorzystaniem pakietu STATISTICA 8.0.
zachowań zdrowotnie ryzykownych, co nie tylko wzmacnia zdrowie fizyczne,
ale i psychiczne, zwiększając prawdopodobieństwo dobrego samopoczucia.
Interesujących rezultatów dostarczyła analiza zróżnicowania satysfakcji
życiowej studentów ze względu na miejsce dóbr materialnych w ich systemie
wartości. O ile, jak pokazały szczegółowe badania, wzrost poziomu zamożności studiującej młodzieży w sposób pozytywny oddziaływał na jej stopień zadowolenia z własnego życia, o tyle jednak umiejscowienie pieniędzy
w gronie trzech najbardziej cenionych wartości wywierało zgoła odmienny
skutek (tabela 4). Średni poziom satysfakcji z własnej egzystencji był istotnie
wyższy w gronie młodzieży akademickiej, dla której dobra materialne nie
przedstawiały największej wartości (F = 7,798, p = 0,0053). Również udział
osób oceniających swoje dotychczasowe życie jako udane był o niemal 8 p.p.
wyższy wśród respondentów, którzy, wskazując na najważniejsze wartości
swojego życia, pominęli zasobność finansową.
O ile poziom satysfakcji młodzieży akademickiej z własnej sytuacji finansowej przekładał się na jej zadowolenie z własnego życia jako całości, o tyle,
przy takim samym poziomie zamożności (w obiektywnym i subiektywnym
ujęciu), wyższym stopniem życiowej satysfakcji wyróżniały się osoby, dla
których pieniądze nie były najważniejsze. Przeprowadzone analizy potwier-
20
Tomasz Strózik
dziły płynący z różnych badań [Kasser i Ahuvia 2002; Konow i Earley 2008;
Miesen 2009] wniosek, że swoisty kult dóbr materialnych może powodować
nadmierne rozbudzenie życiowych aspiracji, utrudniając tym samym czerpanie radości i satysfakcji z własnego faktycznego stanu posiadania, z dotychczasowego życia.
Zależności pomiędzy dobrostanem psychicznym a światopoglądem (wyrażonym deklarowaną religijnością) i hierarchią życiowych wartości respondentów oraz ich cechami o demograficznym i społecznym charakterze potwierdziła przeprowadzona analiza korespondencji (rysunek 3). Całkowita
bezwładność układu wynosiła 1,82, a pierwsze dwa wymiary odwzorowywały
21,15% tej wielkości. Można przyjąć, że pierwsza pozioma oś (wyjaśniająca
największy procent bezwładności) rozdzielała grupę respondentów niewierzących, często płci męskiej, którzy w gronie trzech najważniejszych życiowych wartości umieścili pieniądze, pominęli zaś wartości rodzinne, a swoje dotychczasowe życie relatywnie częściej oceniali jako niezbyt udane, od
1,5
niepełna
Wymiar 2 (8,983% bezwładności)
1,0
ani dobre, ani złe
niepubliczna
wierzący i nieprakt.
0,5
wierzący i mało prakt.
dość dobre
0,0
pieniądze +
–0,5
rodzina –
zdrowie –
M
K
zdrowie +
rodzina +
pieniądze –
pełna
publiczna
gł. wierzący i prakt.
udane
niezbyt udane
–1,0
niewierzący
–1,5
–2,0
–2,0
–1,5
–1,0
–0,5
0,0
Wymiar 1 (12,17% bezwładności)
0,5
Rysunek 3. Subiektywne oceny życia jako całości a płeć, rodzaj uczelni
oraz charakter rodziny pochodzenia, deklarowana religijność i system
wartości respondentów
Źródło: Obliczenia własne z wykorzystaniem pakietu STATISTICA 8.0
1,0
System wartości a ocena jakości życia młodzieży akademickiej
21
głęboko wierzącej i praktykującej młodzieży, nierzadko płci żeńskiej, która,
ceniąc sobie wartości rodzinne bardziej aniżeli dobra materialne, wyraźnie
częściej uznawała swój los za udany. Analiza wykresu pozwoliła ponadto zaobserwować dysproporcje w poziomie satysfakcji z własnej egzystencji jako
całości pomiędzy osobami różniącymi się miejscem zdrowia w hierarchii ich
najważniejszych życiowych wartości.
Podsumowanie
Podjęte analizy mające na celu identyfikację hierarchii wartości życiowych
studiującej młodzieży pozwoliły ustalić, że wyznawany przez nią system wartości może być określany jako tradycyjny. Młodzi dorośli prezentują postawy
nastawione głównie na regulowanie kontaktów społecznych, ale takich, które
odnoszą się do raczej wąskiego grona ludzi. Wartościami życiowymi najwyżej
cenionymi przez studentów poznańskich uczelni okazały się wartości rodzinne, takie jak rodzina i udane małżeństwo, oraz przyjaźń, a także zdrowie
i wykształcenie, czyli wartości uznawane w polskim społeczeństwie od lat.
Uzyskane rezultaty postępowania badawczego dotyczącego globalnego
wymiaru jakości życia młodzieży akademickiej uczelni miasta Poznania,
wpisując się w wyniki badań nad percepcją życia polskiego społeczeństwa,
pokazały z kolei bardzo wysoki poziom satysfakcji życiowej studentów. Dokonując łącznej oceny wszystkich aspektów własnej egzystencji, zdecydowana
większość badanej młodzieży zaopiniowała swoje dotychczasowe życie jednoznacznie pozytywnie.
Indywidualna ocena studentów dotycząca ich własnej egzystencji była
implikowana wyznawanym przez młodych ludzi systemem wartości. Podjęte
badanie ukazało, że zdecydowanie bardziej zadowoleni z życia są studenci,
których można zaliczyć do zwolenników eudajmonistycznego podejścia do
życia, zorientowanego na dążenie do celów nadających życiu sens. Postawy
eudajmonistyczne relatywnie częściej prezentowały młode kobiety i osoby
religijne, ceniące przede wszystkim wartości rodzinne oraz zdrowie.
Na przeciwległym biegunie znaleźli się młodzi mężczyźni i osoby niewierzące, relatywnie częściej prezentujące postawy hedonistyczne i materialistyczne. Osoby te, nastawione przede wszystkim na maksymalizację przyjemności,
wyraźnie częściej do warunków udanego życia zaliczały wolność i dobra
materialne. Potwierdziło się jednak, że takie podejście nie sprzyja, jak pokazują badania [Czapiński 2004; Czapiński i Panek 2011], poczuciu szczęściu
i zadowoleniu z życia człowieka.
22
Tomasz Strózik
Bibliografia
Baniak, J., 1986, Studenci a wartości naczelne, Studia Socjologiczne, nr 4, s. 81–102.
Borys, T., 2004, Jakość, jakość życia oraz pojęcia i relacje pochodne, w: Ostasiewicz, W.
(red.), Ocena i analiza jakości życia, Wydawnictwo Akademii Ekonomciznej we
Wrocławiu, Wrocław.
Campbell, A., 1976, Subjective Measures of Well-being, American Psychologist, vol. 31,
iss. 2, s. 117–124.
CBOS, 2011, Polacy o swoim szczęściu i pechu oraz zadowoleniu z życia 2011. Komunikat z badań, CBOS, Warszawa.
CBOS, 2013, Wartości i normy, Komunikat z badań, CBOS, Warszawa.
Clark, A.E., Lelkes, O., 2009, Let Us Pray: Religious Interactions in Life Satisfaction,
PSE Working Paper No. 2009–01, Paris.
Czapiński, J., Panek, T., 2011, Diagnoza społeczna 2011. Warunki i jakość życia Polaków, Rada Monitoringu Społecznego, Warszawa.
Czapiński, J., 2004, Spotkanie dwóch tradycji: hedonizmu i eudajmonizmu, w: Czapiński, J. (red.), Psychologia pozytywna. Nauka o szczęściu, zdrowiu, sile i cnotach
człowieka, Wydawnictwo Naukowe PWN, Warszawa, s. 13–17.
Diener, E., Diener, C., 1996, Most People are Happy, Psychological Science, vol. 7,
no. 3, s. 181–185.
Feather, N.T., 2005, Values, Religion, and Motivation, w: Maehr, M.L., Karabenick, S.A.
(eds.), Motivations and Religion, Advances in Motivation and Achievement, vol. 14,
Elsevier, New York.
Grzegorczyk, A., 1993, Życie jako wyzwanie, Wydawnicwto IFIS, Warszawa.
Helliwell, J.F., Layard, R., Sachs, J., 2012, World Happiness Report, The Earth Institute,
Columbia University, New York.
Hoverd, W.J., Sibley, C.G., 2013, Religion, Deprivation and Subjective Wellbeing Testing
a Religious Buffering Hypothesis, International Journal of Wellbeing, vol. 3, no. 2,
s. 182–196.
Ignatczyk, W., 2002, System wartości rodzinnych młodzieży polskiej końca XX wieku,
Wydawnictwo Akadaemii Ekonomicznej w Poznaniu, Centrum Badań nad Rodziną, Poznań.
Ignatczyk, W., 2005, Postawy młodzieży akademickiej miasta Poznania wobec instytucji
małżeństwa, Ruch Prawniczy, Ekonomiczny i Socjologiczny, nr 4, s. 267–286.
Inglehart, R., 1990, Culture Shift in Advanced Industrial Society, Princeton University
Press, New York.
Inglehart, R., 2000, Globalization and Postmodern Values, The Washington Quarterly,
vol. 23, no. 1, s. 215–228.
Jaspers, K., 1919, Psychologie der Weltanschauungen, University of Göttingen, Göttingen.
Kasser, T., Ahuvia, A., 2002, Materialistic Values and Well-being in Business Students,
European Journal of Social Psychology, vol. 32, s. 137–146.
System wartości a ocena jakości życia młodzieży akademickiej
23
Konow, J., Earley, J., 2008, The Hedonistic Paradox: Is Homo Economicus Happier?,
Journal of Public Economics, vol. 92, s. 1–33.
Krok, D., 2010, System wartości a społeczne i poznawcze wymiary religijności, Roczniki
Psychologiczne, nr 2, s. 161–182.
Liu, B. C., 1975, Differential Net Migration Rates and the Quality of Life, The Review
of Economics and Statistics, vol. 57, s. 329–337.
Miesen, H., 2009, “Love Is All You Need”: Social Relatedness Needs, Materialism and
Subjective Well-being, Happiness and Relational Goods Conference, Venezia.
Myers, D.G., 2008, Religion and Human Flourishing, w: Eid, M., Larsen, R.J. (eds.),
The Science of Subjective Well-being, Guilford Press, New York, s. 323–346.
OECD 2013, How’s Life? 2013 – Measuring Well-being, OECD Publishing.
Pająk, J., 2007, Młodzież studencka jako kategoria socjologiczna, Zeszyty Naukowe
WSZ w Częstochowie, nr 2, s. 30–38.
Piechnik-Borusowska, J., 1998, Życie rodzinne i małżeńskie studentów Opola, Wydawnictwo Uniwersytetu Opolskiego, Opole.
Roccas, S., 2005, Religion and Values System, Journal of Social Issues, vol. 61, no. 4,
s. 747–759.
Ross, W.D., 1973, The Right and the Good, Oxford Press, Oxford.
Schwartz, S.H., Huismans, S., 1995, Value Priorities and Religiosity in Four Western
Religions, Social Psychology Quarterly, vol. 58, s. 88–107.
Stanisz, A., 2007, Przystępny kurs statystyki z zastosowaniem STATISTICA PL na
przykładach z medycyny. Analizy wielowymiarowe, t. 3, StatSoft, Kraków.
Strózik, T., 2011, Społeczny wymiar jakości życia młodzieży z poznańskiego środowiska
akademickiego, w: Roeske-Słomka, I. (red.), Prace statystyczne i demograficzne,
Zeszyty Naukowe nr 195, Wydawnictwo Uniwersytetu Ekonomicznego w Poznaniu, Poznań, s. 212–227.
Szczepański, J., 1967, Elementarne pojęcia socjologii, PWN, Warszawa.
Wawro, F.W., 2004, Młodzież w kontekście formowania się nowoczesnych społeczeństw,
Wydawnictwo KUL, Lublin.
Women End Up Less Happy than Men, 2008, ScienceDaily, http://www.sciencedaily.
com/releases/2008/07/080729133605.htm [dostęp: 30.06.2012].
STUDIA OECONOMICA POSNANIENSIA
2014, vol. 2, no. 2 (263)
Tomasz Gabrusewicz
Uniwersytet Ekonomiczny w Poznaniu, Wydział Ekonomii, Katedra Teorii
Pieniądza i Polityki Pieniężnej
[email protected]
KATEGORIA WARTOŚCI
W NAUCE RACHUNKOWOŚCI
Wartościowe wyniki można niekiedy osiągnąć,
działając z niskich pobudek.
Leszek Kołakowski
Streszczenie: Głównym celem artykułu jest identyfikacja pojęcia wartości i umiejscowienie
go w teorii rachunkowości na tle najnowszych rozwiązań w tym zakresie. Omówiono
w nim pojęcie wartości. Ponadto wskazano obszary współczesnej rachunkowości, w której wartość rodzi niejako nowe paradygmaty. W badaniach zastosowano takie metody
badawcze, jak metoda indukcji oraz metoda analizy krytycznej.
Słowa kluczowe: wartość, rachunkowość, zrównoważony rozwój.
Klasyfikacja JEL: M4.
THE CATEGORY OF VALUE IN THE SCIENCE OF ACCOUNTING
Abstract: The main objective of this paper is to identify the concept of value and place it
within the theory of accounting against a background of the latest developments in this
field. The paper, in addition to discussing the concept of value, indicates areas of modern
accounting in which value creates new paradigms. The paper utilises research methods
such as induction and critical analysis.
Keywords: value, accounting, sustainable development.
Wstęp
Wartość jest jednym z najważniejszych pojęć w całej dziedzinie rachunkowości. Kalkulacja i wartościowanie zasobów majątkowych i rezultatów osiąganych
z prowadzonej działalności gospodarczej stanowiły fundament rachunkowości
Kategoria wartości w nauce rachunkowości
25
w gospodarce kształtowanej przez handel wymienny. W erze współczesnej
ekonomii, w której podstawę stanowią wiedza i informacja, rachunkowość
musi się zmierzyć z niezwykle trudnym zadaniem, którym jest stworzenie
podstaw w zakresie kwantyfikacji wartości [Karmańska 2009]. Rachunkowość
stworzyła dużo technik służących pomiarowi wartości, które tworzą zestaw
zasad wyceny. Techniki te w swojej mnogości i zakresie nie są tożsame z cechami przypisywanymi paradygmatowi, gdyż w zakresie paradygmatu nie
zezwala się na wieloznaczność1.
Przedsiębiorstwa, realizując założoną misję, muszą się starać, by udało im
się osiągać wyznaczone cele oraz wykonywać założone zadania przy zachowaniu wewnętrznej równowagi. Henri Fayol w pracy pod tytułem Administration Industrielle et Generale [Fayol 1972] wskazał regułę, że w podmiocie
gospodarującym korzyści, jakie mogą osiągnąć pracownicy (indywidualnie
lub jako związek), nie powinny stawać ponad korzyściami, jakie z działalności mogą płynąć dla podmiotu gospodarującego, że dobro rodziny jako
komórki społecznej musi być stawiane przed dobrem pojedynczej jednostki
(osoby). Podobnie interes państwa powinien brać górę nad interesem grupy
lub jednost­ki społecznej. Z tego powodu do celu pierwotnego gospodarowania
oprócz zysku należy zaliczyć przetrwanie i rozwój. Zysk sam w sobie nie powinien być celem nadrzędnym, ale okazuje się, że jest środkiem do osiągnięcia
bardziej ogólnego i często mniej oczywistego celu.
Głównym celem artykułu jest identyfikacja pojęcia wartości i umiejscowienie go w teorii rachunkowości na tle najnowszych rozwiązań w tym zakresie.
Teoria rachunkowości jest w artykule obszarem badawczym.
1. Próba charakterystyki pojęcia wartości
Piśmiennictwo z zakresu aksjologii prezentuje dużo propozycji podziału
wartości. Ogólnie przyjęło się rozdzielenie wartości na odczuwane, deklarowane i uznawane. Wartości deklarowane to te, o których wiedzę pozyskujemy
z opowiadań czy szczerych lub nie deklaracji zamieszczanych w różnego
rodzaju ankietach. Szczegółową wiedzę z zakresu charakterystyki wartości
uznawanych ma ich podmiot.
Adresat lub osoba obserwująca ma prawo uważać, że owe wartości są
zgodne z tymi, które głosi konkretny obiekt (osoba/podmiot gospodarujący).
Możliwe w tym wypadku jest również, że adresat, analizując, wnioskuje o war1
A. Karmańska twierdzi, że wartość ekonomiczna może być (potencjalnie) nowym paradygmatem rachunkowości.
26
Tomasz Gabrusewicz
tościach uznawanych z postępowania obiektu. Wnioskowanie przeprowadzone
przez adresata/obserwatora może nie być do końca obiektywne. Dzieje się tak
z powodu tendencji adresata/obserwatora do oceniania innych przy użyciu
własnego systemu wartości.
Kolejna klasyfikacja pojęcia wartości w piśmiennictwie z zakresu aksjologii
to klasyfikacja na tzw. wartości absolutne, bazowe (inaczej określane jako ostateczne) oraz wartości określane mianem instrumentalnych, pragmatycznych
lub uznawalnych.
Niezwykle ważna w nauce aksjologii jest segmentacja wartości, jaką otrzymujemy, próbując rozwiązać następujący problem [Puzynina 1992, s. 32]:
Wartość – kto jest odbiorcą informacji? Czy są to inne jednostki? Czy może
jest to całe społeczeństwo? A może są to wszyscy ludzie?
W literaturze można spotkać podział wartości ze względu na jej treść. Max
Scheler grupuje wartości w następujący sposób:
–– wartości najniższe – mowa tu o wartościach sybarytystycznych, związanych z przyjemnością, np. żal, szczęście,
–– górujące nad poprzednimi wartości utylitarne, tzn. praktyczne, np. przydatność, niezawodność,
–– kolejne to wartości życiowe, określane mianem biologicznych, m.in. wydolność, wigor,
–– następne to wartości w sferze ducha; przyporządkowuje się do nich następujące grupy: wartości sfery estetycznej (urok, szpetota), wartości aksjomatyczne (wartość tego, co poprawne i co niepoprawne), wartości sfery
poznania (prawda, bezstronność),
–– najważniejsze są wartości sacrum i profanum, czyli wartości obrzędowe;
są traktowane jako wartości o charakterze absolutu [za: Sokół b.r.].
Za fundamentalne2 uważane są te wartości, dzięki którym mamy możliwość tworzenia pozostałych wartości. Stają się one najpoważniejsze z tego
powodu, że nie ma jak bez nich osiągnąć wartości z kategorii wyższych [Galarowicz 1992, s. 575].
Podział systematyczny przedstawiony przez R. Ingardena3 obejmuje trzy
grupy. Są to: wartości żywotne, kulturowe i moralne. Z kolei W. Tatarkiewicz
[1992, s. 72; 2010, s. 322 i dalsze] uważa, że wartość zaliczana do kategorii
moralnej to wartość drugorzędna. Mamy z nią do czynienia w momencie,
w którym dostajemy/wchodzimy w posiadanie lub chcemy dostać/wejść w posiadanie określoną rzecz.
2
Dobrym przykładem uniwersalnego istnienia podziału w zakresie wartości i ich istnienia
z uwzględnieniem dualnego charakteru na przykład w sztuce jest piękno i szpetota.
3
Wnioski na podstawie analizy materiałów K.P. Skowrońskiego [2010].
Kategoria wartości w nauce rachunkowości
27
Niektórzy badacze, m.in. M. Rokeach, nie stosują obszernych klasyfikacji
w zakresie zawartości treści w tłumaczeniu pojęcia wartości. Według wspomnianego badacza wartości decydujące rozpoznajemy w sytuacji, gdy jesteśmy
w stanie określić, do jakiej sytuacji dana jednostka podąża, co jest jej celem
[za: Puzynina 1992, s. 37].
Za myśl przewodnią w rozważaniach w zakresie fragmentaryzacji wartości
prezentowanych przez J. Puzyninę trzeba obrać obecność wartości przedmiotowych oraz wartości o charakterze absolutnym. Istnienie tych dwóch klas
wartości autorka traktuje jako łączne i podkreśla w ich obszarze wartości,
które noszą cechy pozytywne lub negatywne, a wśród nich – uniwersalne
i ostateczne [Puzynina 1992, s. 39].
Aksjologia, która rozwijała się dynamicznie, znacząco korzystała z rozwiązań proponowanych w XVII i XVIII wieku przez angielskich przedstawicieli
empiryzmu, a w jego obszarze największe znaczenie miał utylitaryzm. David
Hurne negował możliwość perspektywy sądów moralnych z jakichkolwiek
stwierdzeń opisowych, tak zwanych sądów o faktach. Uświadomił wszystkim,
że noeza łączy się jedynie z zagadnieniami opisowymi, z kolei wartości – z odczuciem w obszarze moralności, bazującym na odczuwaniu radości i korzyści
dobra ogółu [Puzynina 1992, s. 21–22 i dalsze].
Przedstawiciele naturalistów łączą perspektywę transferu prostych ocen
faktów do sądów wartościujących. Dalej należy rozumieć to tak, że sądy wartościujące obejmują pomiar zadowolenia/radości (utylitaryzm), lub tak jak
tłumaczy to ewolucjonizm, że weryfikacja ocen wartościujących umożliwia
egzystencję. Rozumowym rozwiązaniem tej kwestii jest to, że wartości są umotywowaniem działań w powiązaniu z możliwością dotarcia do oznaczonego
celu dzięki ich umiejętnemu wykorzystaniu w procesie egzystencji.
Pozycję racjonalisty, która nie uwzględnia poznawczej funkcji uczuć, przyjął E. Kant. Twierdził on, że przewagę w poznawaniu rzeczywistości dawał
umysł i jego „praktyczne” możliwości, jednocząc świadomość z tzw. czystą
wolą.
Sformułowanie „wartość” weszło do słownika filozoficznego z końcem
XIX wieku. Jednocześnie w filozofii wyodrębniła się dyscyplina, której głównym zadaniem było poznanie pojęcia wartości – aksjologia. Pierwotna definicja wartości została sformułowana przez R.B. Perry’ego w 1926 roku [za:
Najder 1971, s. 61] „Wartość jest tedy szczególnym stosunkiem, w której
wchodzić mogą rzeczy posiadające jakikolwiek status ontologiczny, rzeczywiste lub wyobrażane, z zainteresowanym przedmiotem”.
Z. Najder w swoim opracowaniu twierdzi, że wartość to pojęcie o wielu
znaczeniach. Zasadniczo jest charakteryzowane w następujący sposób:
28
Tomasz Gabrusewicz
–– wartość w znaczeniu wymiernym, możliwym do prezentacji w formie
liczbowej, np. cena jednostkowa,
–– wartość w znaczeniu rzeczowym, czyli wartościowe przypisanie cechy
jakiemuś obiektowi,
–– wartość prezentowana jako koncepcja, dzięki której przedmiot, jego atrybut są uznawane za wartościowe [Najder 1971, s. 46 i n.].
Z punktu widzenia aksjologii wartości nawiązują głównie do sytuacji (fortuna, poczucie własnej godności), jak również do modelu sposobu bycia (poświęcenie, empatia), systemów formalnych (przeciwności, równowaga). Najder
określa omówione wcześniej postawy jako „idealne/ideały” [Najder 1971, s. 66].
W obszarze nauk społecznych wartość jest prezentowana w następujący
sposób [Murray 1979, s. 16–17, Najder 1971, s. 66 i dalsze]:
–– wartość jako motywator – H.A. Murray określa wartości jako tę część
świata, w obszarze której człowiek definiuje swoje zapotrzebowanie, wyróżnia tu respekt, poważanie i posiadanie,
–– wartość określana nośnikiem dodatniej ceny – powiązać ją należy z osądami, które wartościują świat aktywów/rzeczy z pułapu ogólnego przyzwolenia społecznego,
–– wartość jako kanon dodatniej oceny przedmiotów – w rozumieniu tego
pojęcia wartość to coś na kształt poprawnego wizerunku.
W konsekwencji wcześniejszej analizy wielu podejść z zakresu filozofii
na temat terminu wartości, należy podjąć dyskusję o wartości w rachunkowości. Nauka rachunkowości weszła w dość interesujący i dynamiczny
czas. Naukowcy zajmujący się rachunkowością badają najistotniejsze obszary
­teorii i praktyki tej niezwykle ważnej dziedziny ekonomii – mowa tu choćby
o badaniach w zakresie konserwatywnego podziału rachunkowości na rachunkowość finansową i zarządczą. Tarcia na tle wyników osiąganych badań
w podanym zakresie mogą rokować kryzys w nauce normalnej [Gabrusewicz
2009 i Masztalerz 2012].
2. Rachunkowe koncepcje pomiaru wartości – paradygmaty4
Rachunkowość może być rozumiana jako historyczna ewidencja. Można
też przyjąć, że rachunkowość jako nauka jest ukierunkowana praktycznie,
co oznacza, że jej zadaniem jest mierzenie i prezentowanie zmian wartości
majątku będącego we władaniu podmiotu gospodarującego zarówno w skali
4
Więcej na ten temat w kontekście zrównoważonego rozwoju można znaleźć w pracy
T. Gabrusewicza [2011, s. 7 i n.].
Kategoria wartości w nauce rachunkowości
29
mikro, jak i makro. Pomiar ten jest dokonywany, by usprawnić w podmiocie
proces decyzyjny [Jarugowa 1991, s. 13].
Obserwując kierunek zmian i koncentrację na wycenie, można zaryzykować stwierdzenie, że jesteśmy świadkami rodzącego się nowego paradygmatu
w rachunkowości – paradygmatu pomiaru wartości ekonomicznej [Karmańska 2009, s. 164].
Paradygmat w rozumieniu wprowadzonym przez filozofa Thomasa Kuhna
w książce Struktura rewolucji naukowych (The Structure of Scientific Revolutions) opublikowanej w 1962 roku to zbiór pojęć i teorii tworzących podstawy
danej nauki. Teorii i pojęć tworzących paradygmat raczej się nie kwestionuje,
przynajmniej do czasu, gdy paradygmat jest twórczy poznawczo. Oznacza
to, że za jego pomocą można tworzyć teorie szczegółowe zgodne z danymi
doświadczalnymi (historycznymi), którymi zajmuje się dana nauka.
P. Wójtowicz [2010, s. 20] twierdzi, że używanie terminu „paradygmat”
w kontekście rachunkowości jest pewnym nadużyciem – w sensie pojęcia paradygmatu Kuhna z 1968 roku [Kuhn 2009]. Jednak podaje również, że prób
sformułowania paradygmatów rachunkowości w literaturze można znaleźć
wiele (wymienia prace M.C. Wellsa z 1976 roku, A.R. Belkaoui z 1981 roku
oraz J.E. Butterwortha i H. Falka z 1986 roku oraz Statement of Accounting
Theory and Theory Acceptance z 1997 roku).
Nowy paradygmat w rachunkowości powstaje, ponieważ nowa rzeczywistość wymaga kolejnej zmiany w systemie informacyjnym rachunkowości.
Waga tej zmiany jest kardynalna, ponieważ wynika z jakościowo nowych
tendencji obserwowanych w zarządzaniu przedsiębiorstwem i w zachowaniach różnych grup interesariuszy.
Rachunkowość jako nauka społeczna swoje podstawy, normy i wytyczne
opiera na paradygmacie społeczno-ekonomicznym. Z tego paradygmatu wyrósł paradygmat metody bilansowej [Karmańska 2009, s. 157–166].
Mając na uwadze globalizację operacji gospodarczych i potrzebę zapewniania przez rachunkowość takiego ich opisu, aby odpowiadał on potrzebom
informacyjnym globalnych interesariuszy, łatwo zauważyć, że paradygmat
społeczno-ekonomiczny nie dość, że ciągle jest aktualny, to nabiera ogromnego znaczenia. Wskazuje bowiem na potrzebę nowych poszukiwań w zakresie
opisu rzeczywistości gospodarczej, której „światowy wymiar” stał się już oczywistą cechą. Żeby opis nowej rzeczywistości gospodarczej w systemie rachunkowości mógł służyć wypełnianiu przypisanych jej funkcji informacyjnych dla
globalnych interesariuszy rachunkowości, musi być tak dokonywany, aby nikt
nie kwestionował wiążących się z nim paradygmatów. Każda teoria odnosząca
się do tego opisu musi więc być tak samo bezwarunkowo akceptowana jak
paradygmat społeczno-ekonomiczny i paradygmat metody bilansowej.
30
Tomasz Gabrusewicz
Na tym tle w sposób niejako naturalny we współczesnych uwarunkowaniach gospodarczych szczególnie silnie pojawia się problem pomiaru wartości
ekonomicznej i konieczność wypracowania teorii pomiaru tej wartości, która
mogłaby być zastosowana w rachunkowości [Karmańska 2009, s. 164]. Prawie
wszystkie międzynarodowe standardy rachunkowości zajmują się kwestiami
pomiaru wartości ekonomicznej. Pokazują podejścia, modele, kryteria i różne
sposoby, dzięki którym trzeba wartości wyrażać w rachunkowości.
Konkludując, poszukiwanie paradygmatu pomiaru wartości ekonomicznej
mogą wyrażać różne teorie wyceny. Paradygmatem może być jednak tylko
jedna teoria pomiaru i to taka, która będzie naturalną pochodną paradygmatu metody bilansowej i która pogodzi dwa aspekty wartości ekonomicznej:
przedmiotowy i własnościowy.
Jeżeli nauka rachunkowości wypracuje spójną (w takim rozumieniu) teorię
pomiaru wartości ekonomicznej, to dopiero taka teoria będzie zasługiwała
na miano kolejnego paradygmatu w nauce rachunkowości, choć należałoby
już zacząć mówić o wyłanianiu się w rachunkowości paradygmatu wyceny.
3. Wartość finansowa (sprawozdawcza) i wartość
do zarządzania5
W ogólnym ujęciu zagadnienie wartości i jego znaczenie w dziedzinie rachunkowości dotyczy pomiaru składników majątku i zobowiązań oraz ekonomicznych rezultatów prowadzonych działań. Pomiar jako zagadnienie od
samego początku stanowił niezwykle interesujący obszar badawczy zarówno
w obszarze rachunkowości finansowej, jak i zarządczej. W tabeli 1 zaprezentowano oryginalne zestawienie różnic pomiędzy oboma obszarami rachunkowości z podziałem na główne kierunki pomiaru. Rachunkowość finansowa
jest skoncentrowana na pomiarze wartości aktywów i źródeł ich finansowania
oraz na ustalaniu wysokości wyniku osiąganego na działalności podmiotu,
podczas gdy w obszarze rachunkowości zarządczej koncentracja skupia się
na procedurze kreowania wartości (dla zainteresowanych odbiorców) oraz na
określeniu wartości (wewnętrznej) konkretnego podmiotu.
Wycena podmiotu gospodarującego nie jest zadaniem stawianym przed
rachunkowością finansową. Ona koncentruje się na tym, by w odpowiedniej
formie i w odpowiednim czasie przedstawić zainteresowanym stronom (od5
W tej części artykułu wyrażone poglądy pozostają w pełnej zgodności z poglądami wyrażonymi przez M. Masztalerza [2012, s. 101 i dalsze].
Kategoria wartości w nauce rachunkowości
31
Tabela 1. Wartość w ujęciu rachunkowości finansowej i zarządczej według
M. Masztalerza
Kryterium porównania
Przedmiot/podmiot
pomiaru
Metoda pomiaru
Wartość przedsiębiorstwa
Konkurencyjne metody
pomiaru
Wykorzystanie cen
rynkowych
Jednostki pomiaru
Pomiar dokonań
Odbiorcy informacji
Rachunkowość finansowa
wynik finansowy, wartość
składników bilansu
koszt historyczny, wartość
godziwa
wartość księgowa
koszt historyczny / wartość
godziwa
duże
Rachunkowość zarządcza
wartość procesów, klientów,
konkurencji itp.
bieżąca wartość przyszłych
korzyści ekonomicznych
wartość wewnętrzna
przepływy pieniężne / zysk
rezydualny
małe
pieniężne
zysk netto, dochód całkowity itp.
użytkownicy sprawozdania
finansowego
pieniężne i niepieniężne
mierniki korelacji wartości,
np. EVA, MVA, SVA itp.
interesariusze
Źródło: Opracowanie własne na podstawie [Masztalerz 2012, s. 205].
biorcom) sprawozdanie finansowe, w którym mamy informacje o wartości
poszczególnych zasobów podmiotu.
Zgodnie z IASB [2010], w sprawozdaniu finansowym nie prezentuje się
danych (wartościowo) dotyczących podmiotu tworzącego to sprawozdanie,
a prezentuje się dane, które są użyteczne dla różnych odbiorców (banków,
ubezpieczycieli, inwestorów), którzy są w stanie wykorzystać je do wyceny
wartości podmiotu.
Należy też podkreślić, że potrzeba ustalania wartości podmiotu gospodarującego jest rezultatem braku jedności pomiędzy wartościami: księgową
i rynkową. W wypadku wartości księgowej pomija się takie elementy (istotne
zdaniem autora) istniejące w obszarze podmiotu gospodarującego, jak intelekt,
wykształcenie, doświadczenie kadry pracowniczej czy opinia o podmiocie
wśród kontrahentów. Ponadto, zachowując zasadę ostrożności, wartość księgowa może korzystać z koncepcji kosztu historycznego.
Wartość rynkową można rozumieć jako „uśredniony pogląd inwestorów”
[Masztalerz 2012] o wartości podmiotu gospodarującego. Pogląd ten – głównie w kontekście badań z zakresu finansów behawioralnych, które odnoszą
się do anomalii występujących na rynkach kapitałowych, oraz możliwości
podejmowania nieracjonalnych decyzji przez inwestorów – zwraca naszą
uwagę na rzetelność wyceny dokonywanej na rynku. Zredukowanie tej różnicy
to chyba najważniejsze zadanie stawiane aktualnie rachunkowości.
32
Tomasz Gabrusewicz
W artykule już wcześniej wskazano, że celem rachunkowości finansowej
nie jest raportowanie wartości przedsiębiorstwa [Gabrusewicz 2010b, s. 29
i n.], a tylko zaopatrywanie w informacje przydatne do oceny tej wartości
przez zainteresowanego odbiorcę informacji (z przyjęciem przez niego na
siebie tego ryzyka). Co więcej, nawet gdyby powstał szablon sprawozdawczy
spajający całość zasobów (nie pomijając kapitału intelektualnego) i prezentujący „prawdziwą” wartość podmiotu gospodarującego, jaki sens miałaby
wtedy giełda? [Masztalerz 2010, s. 76 i n.].
Wartość wykazywana w księgach rachunkowych prezentowana w corocznym końcowym sprawozdaniu finansowym, które jest efektem pracy całej
jednostki, to suma wartości zasobów jednostki w postaci aktywów, którą
umniejsza się o wartość zobowiązań. W rachunkowości zarządczej przez wartość przedsiębiorstwa rozumie się często bieżącą wartość zdyskontowanych
przyszłych korzyści ekonomicznych, które jednostka osiągnie w przyszłości.
Rachunkowość finansowa oraz rachunkowość zarządcza posługują się wieloma technikami mierzenia, ale trzeba też wiedzieć, że w zakresie rachunkowości wewnętrznej (zarządczej) przyjęcie konkretnej metody wyznacza kierunek
w wycenie jednostki opartej na ujednoliconych zasadach odpowiadających
przyjętemu modelowi wyceny. Natomiast w rachunkowości finansowej w zakresie rocznego sprawozdania finansowego zarówno aktywa, jak i składniki
zobowiązań i rezerw mogą być wyceniane przy użyciu różnych metod. Ta
sytuacja w konsekwencji prowadzi do niezgodności w obszarze metodologii
i ma ujemny wpływ na możliwość efektywnego wykorzystania informacji
przez użytkownika [Gabrusewicz 2010a; Masztalerz 2012].
Debata traktująca na temat pomiaru wartości w zakresie rachunkowości
­finansowej i menedżerskiej dotyka różnych zagadnień. W obszarze rachunkowości finansowej zagadnieniem wiodącym stała się dyskusja przeciwstawiająca sobie
koszt historyczny i wartość godziwą. W rachunkowości zarządczej, badania są
skoncentrowane na pomiarze wartości z wykorzystaniem cash flow albo – w przeciwieństwie do tego, z wykorzystaniem zysku ekonomicznego (rezydualnego).
Niezwykle interesujące porównanie podawane jest w zakresie użyteczności
ustalania wartości ceny rynkowej. W tym miejscu trzeba jasno wskazać, że
procedury stosowane w rachunkowości finansowej, gdy tylko jest taka możliwość, odnoszą się do wolnego rynku. Jeżeli chodzi o koncepcję wyceny wykorzystującą koszt historyczny, wartość przykładowego aktywa (w momencie
powstania) to wartość ustalona na poziomie ceny rynkowej. W przypadku
wyceny według wartości godziwej, zgodnie z jej definicją, za wartość początkową przykładowego aktywa uważa się wartość ustaloną przy zastosowaniu
metody wyceny według ceny rynkowej.
Kategoria wartości w nauce rachunkowości
33
W zakresie rachunkowości zarządczej – zdaniem autora – w większości
nie wykorzystuje się możliwości stosowania wyceny wartości firmy z zastosowaniem ceny rynkowej, za to w swoich wynikach stara się oszacować profity
natury ekonomicznej.
Gdybyśmy nie ustalali wartości tak, jak to wskazano powyżej, jedyną
poprawną metodą stałaby się metoda wyceny ustalonej za pomocą wartości
rynkowej; i nie dałoby to możliwości poszukiwania nowych rozwiązań w zakresie metod wyceny.
Kolejnym obszarem, który w tym miejscu wart jest zaprezentowania, są
badania dotyczące związków zachodzących pomiędzy informacją pochodzącą
z systemu rachunkowości a wyceną podmiotu gospodarującego ustalaną na
rynku. W piśmiennictwie zagranicznym poświęconym omawianemu zagadnieniu [Aboody, Hughes i Liu 2002; Ball i Brown 1968 i Ohlson 1995] autorzy
za pomocą pojęcia value relevance charakteryzują poziom tożsamości danych
pochodzących z systemu rachunkowości (wartościowo) z tzw. prawdziwą wartością podmiotu gospodarującego. Co zatem należy rozumieć jako „prawdziwą”
wartość? M. Masztalerz [2012] tłumaczy, że jest to wartość ustalona wewnątrz
jednostki albo wartość bieżąca cash flow oczekiwanych w przyszłości lub też
wartość, jaką jednostka może osiągnąć, będąc uczestnikiem rynku kapitałowego.
Problematyka value relevance w nauce ekonomii istnieje już od prawie pięćdziesięciu lat i w głównej mierze dotyczy relacji pomiędzy kursami czy zmianami
kursów akcji a wartościami prezentowanymi w sprawozdaniach finansowych
badanych jednostek. W badaniach tych poczyniono istotne założenie. Przyjęto
minimalną średnią efektywność rynków kapitałowych, co oznacza, że ceny akcji
oddają całość informacji dostępnych na rynku i nie istnieje perspektywa osiągania zysków o ponadprzeciętnej wartości przy wykorzystaniu wspomnianych
informacji. Zdaniem autora, badania w przedmiotowym obszarze są niezwykle
ważne dla rozwoju zarówno myśli rachunkowej, jak i ekonomicznej. Rodzi się
jednak pytanie, jak bardzo przydatne są wyniki osiągane w tych badaniach, bo
przy założeniu średniej efektywności rynków wycena na nich przeprowadzona
nie zawsze będzie tożsama z „prawdziwą” wyceną wartości jednostki.
Zakończenie
Rachunkowość od samego początku swojego istnienia traktowała wartość
jako najważniejszy, obok ewidencji, obszar badawczy. W dzisiejszych czasach – przy zaprezentowanym w artykule podziale wewnątrz rachunkowości,
gdzie wartość nie zawsze jest rozumiana w ten sam sposób, mierniki warto-
34
Tomasz Gabrusewicz
ści posiadanego majątku i osiąganych rezultatów ekonomicznych jednostki
stanowią podstawę decyzji podejmowanych w podmiocie gospodarującym.
W artykule przedstawiono pojęcie wartości w świetle badań różnych nauk,
wskazano rozbieżności w prezentacji wartości w zakresie rachunkowości
finansowej oraz dokonano oceny założeń wartości rynkowej.
Rachunkowość coraz częściej zaczyna zwracać uwagę nie tylko na mierzalne efekty działalności gospodarczej dające się skodyfikować w sprawozdanie
finansowe, ale i na te niemierzalne, którymi są odpowiedzialność i ekologia
[Gabrusewicz 2010a, s. 56–63]. Daje to szerokie możliwości wykorzystania
instrumentów rachunkowości, takich jak rachunkowość odpowiedzialności
społecznej [Gabrusewicz 2010a, s. 165 i n.], do skutecznego, efektywnego
i zgodnego z założeniami koncepcji zrównoważonego rozwoju zarządzania
przedsiębiorstwami.
Bibliografia
Aboody, D., Hughes, J., Liu, J., 2002, Measuring Value Relevance in a (Possibly) Inefficient Market, Journal of Accounting Research, vol. 40, no. 4.
Ball, R., Brown, P., 1968, An Empirical Evaluation of Accounting Income Numbers,
Journal of Accounting Research, vol. 6, no. 2.
Belkaoui, A.R., 1992, Accounting Theory, Academic Press, London.
Butterworth, J.E., Falk, H., 1986, Financial Reporting – Theory and Application to the
Oil and Gas Industry in Canada, Society of Management Accountants of Canada,
Hamilton, Ontario, s. 9–29.
Fayol, H., 1972, Ogólne zasady administracji, w: Kurnal, J. (red.), Twórcy naukowych
podstaw organizacji, Wybór pism, PWE, Warszawa.
Gabrusewicz, T., 2009, Paradygmat wyceny wartości ekonomicznej w rachunkowości – wartość godziwa a kryzys finansowy, w: Kamela-Sowińska, A. (red.), Czy
to kryzys, czy recesja?, Wydawnictwo Wyższej Szkoły Handlu i Rachunkowości
w Poznaniu, Poznań.
Gabrusewicz, T., 2010a, Rachunkowość odpowiedzialności społecznej w kształtowaniu
zasad nadzoru korporacyjnego, C.H. Beck, Warszawa.
Gabrusewicz, T., 2010b, The Principle of True and Fair Presentation in Relation to
the Process of Harmonization and Standardization af Accounting, Wydawnictwo
Uniwersytetu Ekonomicznego w Poznaniu, Poznań.
Gabrusewicz, T., 2011, Pomiar w zrównoważonym rozwoju i rachunkowości – w poszukiwaniu wspólnej koncepcji, w: Czternasty, W. (red.), Gospodarka Polski po
Kategoria wartości w nauce rachunkowości
35
akcesji do Unii Europejskiej – wymiar finansowy, Wydawnictwo Uniwersytetu
Ekonomicznego w Poznaniu, Poznań.
Galarowicz, J., 1992, Na ścieżkach prawdy. Wprowadzenie do filozofii, Wydawnictwo
Naukowe Papieskiej Akademii Teologicznej w Krakowie, Kraków.
IASB, 2010, The Conceptual Framework for Financial Reporting 2010, International
Accounting Standards Board, London.
Jarugowa, A. (red.), 1991, Współczesne problemy rachunkowości, PWE, Warszawa,
Karmańska, A., 2009, Wartość ekonomiczna w systemie informacyjnym rachunkowości
finansowej, Difin, Warszawa.
Kuhn, T.S., 2009, Struktura rewolucji naukowych, Wydawnictwo Aletheya, Warszawa.
Masztalerz, M., 2010, Accounting and Capital Market – The Usefulness of Financial
Statements for Investors, w: Gabrusewicz, W., Samelak, J. (eds.), Selected Problems
and Perspectives of the Process of Global Harmonization and Standardization of
Accounting, Zeszyty Naukowe nr 163, Wydawnictwo Uniwersytetu Ekonomicznego w Poznaniu, Poznań.
Masztalerz, M., 2012, Pomiar wartości – w kierunku integracji rachunkowości finansowej i zarządczej, KIBR, Poznań.
Najder, Z., 1971, Wartości i oceny, PWN, Warszawa.
Ohlson, J.A., 1995, Earnings, Book Value and Dividends in Equity Valuation, Contemporary Accounting Research, no. 11.
Perry, R.B., 1926, General Theory of Value, Cambridge, Mass.
Puzynina, J., 1992, Język wartości, Wydawnictwo Naukowe PWN, Warszawa.
Skowroński, K.P., 2010, Estetyka. Wartości artystyczne a estetyczne, wykłady dla III
roku filozofii, http://skowronski.krzysztof.w.interii.pl/Estetyka%202010%20Wartosci.htm [dostęp: 22.12.2012].
Sokół, A., b.r., Wartość – próba charakterystyki pojęcia, profesor.pl serwis edukacyjny, www.profesor.pl/mat/na8/na8_a_sokol_030925_2.php?id_m=7113 [dostęp:
23.12.2012].
Statement of Accounting Theory and Theory Acceptance. Accounting Eduaction, Research and Practice, 1997, American Accounting Association, Committee on
Concepts and Standards for External Financial Reports.
Tatarkiewicz, W., 1992, Pisma z etyki i teorii szczęścia, wybór i opracowanie P.J. Smoczyński, Ossolineum, Wrocław–Warszawa–Kraków.
Tatarkiewicz, W., 2010, O szczęściu, wyd. 11, Wydawnictwo Naukowe PWN, Warszawa.
Wells, M.C., 1976. A Revolution in Accounting Thought?, The Accounting Review,
vol. 51, no. 3, s. 471–482.
Wójtowicz, P., 2010, Wiarygodność sprawozdań finansowych wobec aktywnego kształtowania wyniku finansowego, Wydawnictwo Uniwersytetu Ekonomicznego w Krakowie, Kraków.
STUDIA OECONOMICA POSNANIENSIA
2014, vol. 2, no. 2 (263)
Kinga Dropek
Uniwersytet Ekonomiczny w Poznaniu, Wydział Gospodarki Międzynarodowej,
Katedra Konkurencyjności Międzynarodowej
[email protected]
DZIAŁANIA SAMORZĄDU
TERYTORIALNEGO WSPIERAJĄCE
PRZEDSIĘBIORCZOŚĆ W GMINACH
WOJEWÓDZTWA WIELKOPOLSKIEGO
Streszczenie: Kategoria przedsiębiorczości nie ma jednoznacznej i uniwersalnej interpretacji, jest definiowana i analizowana bardzo szeroko. Problemami przedsiębiorczości
zajmują się przedstawiciele wielu dyscyplin naukowych, co stanowi o jej wielowymiarowym charakterze, dlatego też trudno jest znaleźć jednolite stanowisko w kwestii pojęcia
przedsiębiorczości.
Coraz częściej odchodzi się od nawyku mówienia o przedsiębiorczości tylko w odniesieniu do biznesu. Pojęcie to odnosi się również do sektora publicznego czy też
sektora społecznego. Oprócz klasycznych przedsiębiorców rozwijających biznes coraz
częściej pojawiają się przedsiębiorcy publiczni, społeczni, obywatelscy, a nawet polityczni.
Przedsiębiorczość w odniesieniu do władz samorządowych oznacza przede wszystkim
inicjatywy poprawiające standardy społeczne i socjalne często w sposób uzupełniający
inicjatywy publiczne lub prywatne w innowacyjny pod względem instytucjonalnym sposób, wypełniające niezagospodarowane „nisze” usług i projektów społecznych. Zadaniem
samorządu lokalnego jest rozwój przedsiębiorczości, a także jej wspieranie za pomocą
instrumentów będących w dyspozycji władzy gminy. Każda gmina ma szeroki wachlarz
instrumentarium wspierania przedsiębiorczości. Klimat sprzyjający przedsiębiorczości
zależy od niemal każdej, nawet codziennej decyzji władz samorządowych oraz działań
innych instytucji.
W literaturze przedmiotu można się spotkać z różnymi klasyfikacjami instrumentów
wspierania przedsiębiorczości. Powszechnie przyjętym kryterium jest jednak podział
na instrumenty dochodowe, do których zaliczane są przede wszystkim ulgi i zwolnienia
podatkowe, oraz instrumenty wydatkowe, wśród których naczelną pozycję zajmują wydatki inwestycyjne.
W opracowaniu wykorzystano materiał empiryczny zgromadzony w badaniach ankietowych przeprowadzonych w 68 gminach województwa wielkopolskiego.
Działania samorządu terytorialnego wspierające przedsiębiorczość
37
Słowa kluczowe: przedsiębiorczość, działania gminy wspierające przedsiębiorczość, instrumenty dochodowe i wydatkowe gminy, formy zachęt dla potencjalnych przedsiębiorców.
Klasyfikacja JEL: L26, R11, R58.
THE ACTIVITIES OF LOCAL GOVERNMENT WITH
REGARD TO SUPPORTING ENTREPRENEURSHIP IN THE
MUNICIPALITIES OF WIELKOPOLSKA PROVINCE
Abstract: There is no clear or universal interpretation of entrepreneurship, though a range
of definitions and analyses of the concept exist. Representatives of many scientific disciplines have explored this multidimensional issue and therefore it is difficult to find
a common position regarding the concept of entrepreneurship.
Increasingly, rather than being restricted just to the business sector, entrepreneurship
is also being applied to the public and the social sectors. In addition to classical business
entrepreneurs, public, social, civic and even political entrepreneurs have also appeared.
Entrepreneurship in relation to local government concerns primarily initiatives, often
supplementing public or private initiatives, which aim to improve the standards of social
welfare and, in an institutionally innovative way, fill unoccupied “niches” in respect of
services and social projects. One of the tasks of local governments is the development of
entrepreneurship and its support by means of the available instruments, and every local
government has a wide range of instruments at their disposal for the promotion of entrepreneurship. The climate for entrepreneurship depends on almost every, even minor,
decision by local governments and other institutions.
In the literature, various classifications of instruments for promoting entrepreneurship can be found. Typically, however, they are divided into income instruments, which
primarily include tax reductions and exemptions; and expenditure instruments, the most
important one being capital expenditure.
The study analyses empirical data collected from 68 municipalities in the Wielkopolska region.
Keywords: entrepreneurship, entrepreneurship supporting activities of municipalities,
income and expenditure instruments of municipalities, forms of incentives for nascent
entrepreneurs.
Wstęp
Działalność samorządu lokalnego jest istotnym ogniwem systemu wspierania
przedsiębiorczości. Samorząd ma możliwość kształtowania sytuacji na lokalnym rynku poprzez instrumenty wspierające przedsiębiorczość. Dostępna
literatura nie rozwiązuje wszystkich kwestii w tym zakresie, w związku z czym
postanowiono zidentyfikować działania samorządu lokalnego, ograniczając
się do terenu gmin zlokalizowanych w województwie wielkopolskim.
38
Kinga Dropek
Celem niniejszego artykułu jest identyfikacja działań oraz form wspierania
przedsiębiorczości w gminach miejskich, miejsko-wiejskich oraz wiejskich
województwa wielkopolskiego.
W celu zidentyfikowania działań samorządu terytorialnego wspierających
przedsiębiorczość w gminach województwa wielkopolskiego przeprowadzono
badania ankietowe. Kwestionariusz ankiety został rozesłany pocztą tradycyjną do 226 gmin w województwie wielkopolskim w 2010 roku. Otrzymano
68 wypełnionych kwestionariuszy zwrotnych. Pytania skierowane do gmin
dotyczyły działań i form, które gminy stosowały w celu wspierania przedsiębiorczości w latach 2007–2009.
1. Pojęcie przedsiębiorczości
Przedsiębiorczość, choć jest jednym z najważniejszych atrybutów gospodarki
rynkowej, to jest koncepcją nieuchwytną i wielowymiarową. Stąd też w literaturze można spotkać wiele różnych definicji przedsiębiorczości w zależności
od pola zainteresowań autora w tej dziedzinie.
Pojęcie przedsiębiorczości w literaturze ekonomicznej pojawiło się w połowie XVIII wieku, a wprowadził je francuski ekonomista R. Cantillon, który
jako pierwszy użył terminu „przedsiębiorca” i określił, na czym polega jego
aktywność. Cantillon nazywał przedsiębiorcami kupców dostrzegających
różnice cen na różnych rynkach i potrafiących wykorzystać je dla własnej
korzyści, czyli kupić tanio, a sprzedać drogo [Koźmiński 2005, s. 162].
Studia literatury związanej z problematyką przedsiębiorczości wskazują
na różne płaszczyzny badań nad przedsiębiorczością, co pozwala wyodrębnić
koncepcje:
–– powstałe na gruncie ekonomii,
–– psychologiczne,
–– o charakterze kulturowym,
–– powstałe na gruncie nauk o zarządzaniu [Kraśnicka 2002, s. 20].
Najobszerniejszy jednak zbiór stanowią koncepcje stworzone w ramach różnych nurtów ekonomii.
Spotykane w literaturze ekonomicznej postrzeganie przedsiębiorczości
można sklasyfikować w trzy grupy:
–– definicje skonstruowane na podstawie ekonomicznych funkcji działań
przedsiębiorczych w gospodarce, według których przedsiębiorczość to
proces kreowania czegoś odmiennego ze względu na wartość, wymagający
poświęcenia koniecznego do tego czasu i wysiłku, zakładający towarzyszą-
Działania samorządu terytorialnego wspierające przedsiębiorczość
39
ce temu finansowe, psychiczne i społeczne ryzyko oraz uzyskanie dzięki
temu nagrody finansowej i osobistej satysfakcji, lub też przedsiębiorczość
to zorganizowany społeczny proces tworzenia i wykorzystywania szans,
–– definicje oparte na osobistych atrybutach przedsiębiorcy i jego funkcjach
społecznych, które odwołują się do predyspozycji osobowościowych oraz
warunków otoczenia determinujących powodzenie w biznesie; przedsiębiorczość to połączenie różnych talentów, umiejętności i energii z wyobraźnią, dobrym planowaniem i zdrowym rozsądkiem,
–– podejście behawioralne oparte na sposobie pełnienia funkcji kierowniczych, które traktuje przedsiębiorczość jako rodzaj menedżerskiego zachowania i podejścia do zarządzania [Matusiak 2006, s. 18–21].
W literaturze dotyczącej zagadnień związanych z przedsiębiorczością można znaleźć wiele rodzajów przedsiębiorczości wyróżnianych na podstawie
wielorakich kryteriów podziału. Do najczęściej występujących kryteriów
podziału przedsiębiorczości, podążając za K.B. Matusiakiem, można zaliczyć:
–– charakter – ze względu na to kryterium wyróżnia się przedsiębiorczość
gospodarczą, czyli zorientowaną na zysk, oraz działalność pozagospodarczą, która zakłada inne efekty,
–– skalę i formę aktywności – ze względu na to kryterium wyróżnia się przedsiębiorczość indywidualną, małą przedsiębiorczość (czyli sektor małych
i średnich przedsiębiorstw), przedsiębiorczość korporacyjną, społeczną
oraz administracyjną,
–– legalizację – przyjmując to kryterium, można wyróżnić przedsiębiorczość
rejestrowaną oraz przedsiębiorczość nierejestrowaną, czyli tzw. działalność
czarnorynkową,
–– zaawansowanie organizacyjne – można wyróżnić przedsiębiorczość założycielską oraz odnowy organizacyjnej,
–– zasięg terytorialny – ze względu na takie kryterium wyróżnia się przedsiębiorczość lokalną, krajową, międzynarodową oraz globalną,
–– rodzaj – można wyróżnić tu przedsiębiorczość produkcyjną, handlową
i usługową,
–– strukturę własności – ze względu na to kryterium wyróżnić można przedsiębiorczość prywatną, społeczną oraz publiczną [Matusiak 2006, s. 97].
Przedsiębiorczość, a także jej rozwój, można rozpatrywać w sześciu wymiarach:
–– wymiarze ekonomicznym, który postrzega przedsiębiorczość za pomocą
wskaźnika przedsiębiorczości, czyli liczby przedsiębiorstw w danym okresie przypadających na określoną liczbę mieszkańców (najczęściej 1000) na
danym obszarze geograficznym,
40
Kinga Dropek
–– wymiarze społecznym upatrującym przedsiębiorczość jako działalność
osób, które mają na celu stworzenie społecznej wartości, wykazują zdolność
rozpoznawania występujących możliwości, a także są w stanie zaakceptować ponadprzeciętny poziom ryzyka w tworzeniu i rozpowszechnianiu
wartości społecznej,
–– wymiarze cywilnym odnoszącym się do przedsiębiorczości w obywatelskim społeczeństwie, czyli działań w określonych organizacjach społecznych,
–– wymiarze politycznym, który nie ma jednoznacznej definicji; D. Buchanau
i R. Badham upatrują przedsiębiorczości w wykorzystaniu przez przedsiębiorcę w sposób etyczny lub nie pojawiających się możliwości, które mogą
się przyczynić do wzrostu jego pozycji rynkowej, gdyż żadna organizacja
nie może istnieć bez powiązań z podmiotami zewnętrznymi,
–– wymiarze akademickim, czyli prowadzeniu działalności gospodarczej
w postaci firm spin-off,
–– wymiarze innowacyjnym, który postrzega przedsiębiorczość jako ocenianie wykorzystania możliwości wynikających z potencjału komercjalizacji
wynalazków, a miarą przedsiębiorczości innowacyjnej jest liczba patentów
przypadająca na mieszkańca [Westlund 2011, s. 2–3].
Podążając za poglądami R.D. Hisricha i M.P. Petersa [1992], można przyjąć, że przedsiębiorczość to proces kreowania czegoś odmiennego, przede
wszystkim ze względu na wartość, wymagający poświęcenia koniecznego do
tego czasu i wysiłku, a także zakładający towarzyszące temu finansowe, psychiczne i społeczne ryzyko oraz uzyskanie dzięki temu nagrody finansowej
oraz osobistej satysfakcji.
Przedsiębiorczość jest bez wątpienia jednym z najważniejszych współczesnych nośników zdobywania i utrzymywania przewagi konkurencyjnej.
Organizacje przedsiębiorcze są skłonne do podejmowania ryzyka i eksperymentowania, są zdolne do samodzielnego działania i do innowacji, mają
skłonność do identyfikowania i wykorzystywania szans, zanim zrobią to konkurenci, uczą się tworzenia nowych interpretacji, a także są gotowe do zmian
[Bratnicki 2002, s. 24].
Przedsiębiorczość uwidacznia się w zarządzaniu poprzez na przykład wybór odpowiedniej strategii, tworzenie elastycznych struktur, promowanie
innowacyjności, inicjatywy, samodzielności, unikanie przerostu administracji oraz wybór właściwych form kontroli. Przedsiębiorczość w zarządzaniu
polega zatem na znajdowaniu bardziej skutecznych niż dotychczas sposobów
prowadzenia działalności gospodarczej w konkurencyjnym otoczeniu [Strużycki 2002, s. 107].
Działania samorządu terytorialnego wspierające przedsiębiorczość
41
Termin przedsiębiorczość odnosi się do osób, które potrafią przełożyć
dobre idee na zyskowny biznes. W przypadku niekomercyjnych dokonań
myśli się zazwyczaj o pionierach, przywódcach i działaczach obdarzonych
charyzmą, zdolnych do przeprowadzenia zmian drogą nierutynowych działań, którzy sięgają po zaskakujące sposoby mobilizacji środków [Barczyk
2010, s. 64].
Obecnie przedsiębiorczość odnosi się nie tylko do biznesu, ale coraz czę­
ściej również do sektora publicznego czy społecznego. Przedsiębiorczość
w odniesieniu do władz samorządowych oznacza przede wszystkim inicjatywy
poprawiające standardy społeczne i socjalne [Barczyk 2010, s. 71].
Działania przedsiębiorcze podejmowane są przez władze lokalne, które
dysponują pewnym majątkiem, funkcjonujące na określonym rynku. Władze lokalne, które prowadzą politykę przedsiębiorczą, powinny być otwarte
na innowacyjność, partnerstwo oraz reagować na zmieniające się otoczenie.
2. Wspieranie przedsiębiorczości przez samorząd lokalny
opisane w literaturze
Władze samorządowe najczęściej stosują działania, które mają na celu pobudzanie rozwoju gminy poprzez wpływ na warunki działalności gospodarczej. Wspieranie rozwoju przedsiębiorczości powinno uwzględniać zarówno
czynniki zewnętrzne (takie jak globalizacja gospodarki czy ogólnoświatowa
konkurencja o inwestycje zagraniczne, powiązania gospodarcze Polski z zagranicą oraz restrukturyzacja polskiej gospodarki), jak i czynniki wewnętrzne
charakterystyczne dla danej gminy. Oprócz gmin zasobnych w różnego rodzaju atuty, które sprzyjają prowadzeniu działalności gospodarczej, funkcjonują
gminy leżące na uboczu, z dala od wielkich aglomeracji miejskich i głównych
ciągów komunikacyjnych. Gminy te starają się zapobiec upadkowi zakładów
pracy, starają się nie dopuścić do wzrostu bezrobocia, boją się wzrostu patologii. Poszukują różnego rodzaju rozwiązań, które mogłyby wpłynąć na poprawę
sytuacji społeczno-ekonomicznej. Rozwój społeczno-gospodarczy jest celem
zarówno gmin zasobnych od wieków, jak i liderów transformacji. Gminom
zasobnym łatwiej jest jednak niż gminom biednym zastosować poszczególne
rozwiązania [Dziemianowicz i in. 2000, s. 7–8].
W literaturze przedmiotu można się spotkać z różnymi klasyfikacjami instrumentów wspierania przedsiębiorczości. Powszechnie przyjętym kryterium
jest podział na instrumenty:
42
Kinga Dropek
–– dochodowe – to przede wszystkim zwolnienia i ulgi podatkowe,
–– wydatkowe – przede wszystkim wydatki inwestycyjne [Krajewski i Śliwa
2004, s. 70].
Zdaniem K. Krajewskiego i J. Śliwy [2004, s. 70–71], instrumenty wspierania
przedsiębiorczości można również podzielić według ich charakteru na:
–– instrumenty o charakterze infrastrukturalnym – są to: kondycja miejscowych przedsiębiorstw oraz ich zdolność do utrzymywania i tworzenia
miejsc pracy dla miejscowej ludności, infrastruktura techniczna czy poprawa wyglądu gminy,
–– instrumenty o charakterze prawno-administracyjnym, do których zalicza się pozwolenia administracyjne, decyzje administracyjne ułatwiające
podejmowanie działań inwestycyjnych, okienka przedsiębiorczości czy
lokalne programy wspierające przedsiębiorczość,
–– instrumenty o charakterze finansowym, do których zalicza się przede
wszystkim podatki i opłaty lokalne,
–– instrumenty o charakterze miękkiego wsparcia, które można podzielić na
trzy główne grupy:
• doradztwo i szkolenia, przede wszystkim dla przedsiębiorców należących do sektora MŚP,
• instrumenty informacyjne,
• instrumenty promocyjne.
Z kolei do czynników lokalnych, które oddziałują na rozwój przedsiębiorczości, zdaniem K. Krajewskiego i J. Śliwy [2004, s. 49] można zaliczyć:
–– stosunek władz do kreowania przedsiębiorczości przejawiający się między
innymi w stosowaniu preferencyjnych stawek podatkowych, ułatwianiu
dostępu do terenów inwestycyjnych czy w uzgodnieniach dotyczących
powoływania biur obsługi klienta,
–– zasoby gminy, które są bardzo ważnym elementem rozwoju przedsiębiorczości lokalnej, a zalicza się do nich między innymi bogactwa naturalne,
zasoby leśne, walory turystyczne, zbiorniki wodne czy zasoby ludzkie i ich
kwalifikacje,
–– lokalizację gminy i prestiż w regionie,
–– infrastrukturę gminy, czyli przede wszystkim gęstość i rodzaje dróg, różnorodność połączeń komunikacyjnych, uzbrojenie terenu, bazę turystyczno-wypoczynkową, odległości od rynków zbytu,
–– wsparcie miękkie, do którego zalicza się szkolnictwo zawodowe i wyższe,
ośrodki szkoleniowe i doradcze, infrastrukturę informacyjną.
Przepisy prawne, nakładając na organy jednostek samorządu terytorialnego
obowiązek wykonywania pewnych zadań związanych ze wspieraniem dzia-
Działania samorządu terytorialnego wspierające przedsiębiorczość
43
łalności gospodarczej, nie precyzują form tej działalności, czyli nie określają
katalogu instrumentów, którymi organy jednostek samorządu terytorialnego
mogą się posługiwać w celu wykonania nałożonych na nie działań.
Gmina ma dużo możliwości wspierania przedsiębiorczości na własnym
terenie. Władze lokalne powinny stworzyć i uchwalić przede wszystkim miejscowy plan zagospodarowania przestrzennego i plan rozwoju gospodarczego.
Zadaniem gminy jest inwestowanie w infrastrukturę techniczną oraz przygotowanie terenu pod inwestycje. Jednym z głównych zadań gminy powinno
być tworzenie korzystnych warunków rozwoju lokalnej przedsiębiorczości.
Konieczne jest na przykład niwelowanie bariery administracyjnej. Urząd
gminy powinien być przyjazny przedsiębiorcom. Na stronach internetowych
gminy można udostępnić między innymi niezbędne informacje o warunkach
działalności gospodarczej, potrzebne druki czy dokumenty. Konieczne jest
również tworzenie warunków do rozwoju inwestycji. Niezbędny jest w tym
wypadku miejscowy plan zagospodarowania przestrzennego [Okrasiński
2007].
Władze samorządowe mają do dyspozycji kilka instrumentów, które mogą
oddziaływać na lokalne życie gospodarcze. Stosowane kompleksowo, planowo
i z rozwagą w znacznym stopniu mogą się przyczynić do stworzenia dobrych
warunków do rozwoju przedsiębiorczości. Najważniejszym instrumentem
wspierania przedsiębiorczości jest budżet gminy. To przy jego konstruowaniu
zarząd gminy może zaplanować wsparcie dla lokalnej przedsiębiorczości,
które nie musi się opierać tylko na obniżaniu podatków i opłat lokalnych.
Takie rozwiązania nie są obecnie decydujące, choć mogą na początku zachęcić
przedsiębiorców na przykład do inwestycji na obszarze danej gminy. Bardzo
ważnym punktem budżetu jest wydatkowanie środków na rozwój infrastruktury technicznej, w tym głównie drogowej i kanalizacyjno-wodociągowej.
Gmina powinna zadbać o zbudowanie sieci dróg gminnych, które połączą
konkretną gminę z siecią dróg wojewódzkich i krajowych. Sprawna sieć drogowa to magnes dla inwestorów. Drugim takim magnesem jest sprawna sieć
kanalizacyjno-wodociągowa, a trzecim – posiadanie terenów uzbrojonych
pod inwestycje [Okrasiński 2007].
Władze gminy mają jeszcze inny ważny instrument wspierania lokalnej
przedsiębiorczości, którym jest witryna internetowa. Na stronach gminy
można umieścić wszelkiego rodzaju elementy graficzne sprzyjające rozwojowi
miejscowych firm. Oprócz witryny, innym istotnym narzędziem, szczególnie
w przyciąganiu inwestorów z zewnątrz, jest utworzenie i uchwalenie przez
władze samorządowe miejscowego planu zagospodarowania przestrzennego.
Przedsiębiorcy na podstawie tych dokumentów dowiadują się, gdzie, w jakich
44
Kinga Dropek
miejscach, na jakich terenach można budować zakłady pracy, fabryki, zakłady
usługowe lub handlowe. Dobrze, gdy tereny wyznaczone w miejscowym planie
zagospodarowania przestrzennego pod inwestycje są już uzbrojone za środki
gminne lub za środki pozyskane przez gminę. Po pierwsze rośnie cena takich
działek, po drugie na takie tereny chętnie patrzą inwestorzy [Okrasiński 2007].
Działalność władz w zakresie kreowania przedsiębiorczości można określić
mianem budowania i umacniania klimatu sprzyjającego rozwojowi społeczno-gospodarczemu. Podstawy ku temu stwarzają: rozwój wiedzy wspierającej
innowacje, przepływ doświadczeń płynących z innych krajów i regionów,
dotyczących m.in. korzyści, jakie wynikają z procesów integracyjnych, czy
też wzrost świadomości co do pożytków wynikających z nasilania się konkurencji. Korzystny klimat dla rozwoju przedsiębiorczości lokalnej, podobnie
jak korzystny klimat dla szeroko pojętego lokalnego rozwoju gospodarczego
i społecznego, wymaga zaistnienia szczególnych okoliczności, takich jak:
–– istnienie struktur społecznych realizujących bądź popierających ideę
wszechstronnego rozwoju gminy,
–– dające się zaobserwować inicjatywność i aktywność mieszkańców,
–– występowanie prawnych, organizacyjnych, technologicznych i technicznych możliwości wspierania inicjatyw,
–– występowanie materialno-finansowych możliwości wspierania inicjatyw,
–– doświadczenie i chęć władz gminy do stymulowania rozwoju [Słomińska
2007, s. 20].
Wykorzystując te okoliczności, samorząd gminny powinien podejmować
różnokierunkowe działania istotne w procesie stymulowania rozwoju gospodarczego. Z przeprowadzonych dotąd badań wynika, że należą do nich:
–– koordynowanie działalności podmiotów gospodarujących na danym terenie w celu osiągnięcia przez nie maksimum korzyści dla całego systemu,
–– rozwiązywanie sprzeczności i konfliktów, które mogą się pojawić między
zróżnicowanymi podmiotami lokalnymi,
–– inicjowanie przedsięwzięć gospodarczych korzystnych z punktu widzenia
harmonizacji rozwoju,
–– inicjowanie współpracy między przedsiębiorcami, instytucjami z otoczenia
biznesu, organizacjami konsumenckimi itp.,
–– współudział w inwestycjach celowych o szczególnym znaczeniu dla gminy,
–– kreowanie korzystnych warunków dla powstawania i rozwoju przedsiębiorstw na terytorium gminy [Słomińska 2007, s. 20].
Władze lokalne powinny za pomocą różnego rodzaju środków wpływać
na decyzje nie tylko potencjalnych przedsiębiorców, ale także podmiotów już
działających na obszarze gminy. Nie może dojść do sytuacji, w której wysiłki
Działania samorządu terytorialnego wspierające przedsiębiorczość
45
samorządu zostaną wyraźnie ukierunkowane na tworzenie preferencyjnych
warunków dla firm zewnętrznych, gdyż w ten sposób wzmocniona zostanie
ich przewaga konkurencyjna nad firmami lokalnymi, które mogą wypaść
z rynku. A to właśnie te firmy stanowią najczęściej fundament gospodarki
lokalnej. Władze samorządowe są obowiązane wspierać ich rozwój, stymulując
zmiany strukturalne i w razie potrzeby procesy restrukturyzacji gospodarki.
Gminy w sposób szczególny dbające o rozwój lokalnej przedsiębiorczości
to gminy aktywnie zabiegające o nowe inwestycje, otwarte na nowe inicjatywy gospodarcze zapewniające przyjazny klimat i profesjonalną obsługę
dla inwestorów, ale także wspierające przedsiębiorców już funkcjonujących
[Słomińska 2007, s. 20].
Polityka rządu w wielu krajach ma na celu zwiększenie i wspieranie przedsiębiorczości w regionach. Jest oczywiste, że regionalna polityka będzie miała
na celu zwiększanie liczby nowych przedsiębiorstw w obszarach peryferyjnych, co będzie pożądanym skutkiem dla gospodarki regionalnej. Jednak nie
wszystkie programy dotyczące promocji przedsiębiorczości nie były lub nie są
skuteczne. Jednym ze sposobów, w który rządy mogą skutecznie promować
sektor przedsiębiorczości poprzez politykę, są przepisy prawa, które ułatwią na
przykład licencjonowanie technologii z uniwersytetów [Felzensztein, Gimmon
i Aqueveque 2013, s. 818].
3. Działania samorządu wspierające przedsiębiorczość
w gminach – badania empiryczne
Podmiotem badań ankietowych było 226 gmin w województwie wielkopolskim. Wcześniej sprawdzono jednak strukturę gmin Polski i porównano ze
strukturą gmin Wielkopolski, co obrazuje tabela 1. Na podstawie informacji
w tabeli można stwierdzić, że przeprowadzone badania są reprezentatywne.
Tabela 1. Struktura gmin w Polsce i Wielkopolsce
Wyszczególnienie
Gminy miejskie
Gminy miejsko-wiejskie
Gminy miejskie
Razem
Polska
liczba
306
587
1586
2479
Źródło: www.stat.gov.pl/bip/36_PKL_HTML.htm.
odsetek
12,34
23,68
63,98
100,00
Wielkopolska
liczba
odsetek
19
8,41
90
39,82
117
51,77
226
100,00
46
Kinga Dropek
Przedmiotem badań ankietowych były narzędzia stosowane przez jednost­
ki samorządu lokalnego w celu wspierania przedsiębiorczości. Narzędzia są
rozumiane jako układ bezpośredniego lub pośredniego oddziaływania, którego struktura i cechy są zdeterminowane przez cel, który ma być osiągnięty
przy jego zastosowaniu.
Odpowiedź na wysłane kwestionariusze otrzymano z 68 gmin, wśród
których znalazło się osiem gmin miejskich, które stanowią 3,54% gmin Wielkopolski, 29 gmin miejsko-wiejskich, czyli 12,83% gmin województwa, oraz
Rysunek 1. Wskaźnik przedsiębiorczości w 2009 roku w badanych gminach
Źródło: Na podstawie wyników badań
47
Działania samorządu terytorialnego wspierające przedsiębiorczość
31 gmin wiejskich, czyli 13,72% wszystkich gmin położonych w województwie
wielkopolskim.
Na podstawie informacji o liczbie mieszkańców oraz liczbie podmiotów
gospodarczych uzyskanych podczas badania obliczono wskaźnik przedsiębiorczości w 2009 roku, czyli liczbę zarejestrowanych podmiotów gospodarczych
w przeliczeniu na 1000 mieszkańców dla poszczególnych gmin, co obrazuje
rysunek 1. Jak widać, wskaźnik przedsiębiorczości przybiera różne wielkości w poszczególnych gminach. Najwyższą wartość przybiera w gminach:
Rawicz, Kórnik (gminy miejsko-wiejskie) i Przemęt (gmina wiejska), czyli
w gminach zlokalizowanych w południowo-zachodniej części Wielkopolski. Z kolei najniższe wartości wskaźnik przyjmuje w gminach: Szamocin,
Trzemeszno (gminy miejsko-wiejskie) i Zakrzewo (gmina wiejska), czyli
w gminach zlokalizowanych w północno-wschodniej części Wielkopolski.
Wskaźnik przedsiębiorczości o wartości najwyższej i najniższej występuje
w gminach miejsko-wiejskich oraz wiejskich.
Każda gmina ma możliwość stosowania różnego rodzaju narzędzi, których zadaniem jest pobudzanie przedsiębiorczości. Narzędzia te w badanych
gminach zestawiono w tabeli 2. Dla gmin miejskich, wiejskich oraz miejskoTabela 2. Narzędzia stosowane przez gminę w celu pobudzania
przedsiębiorczości (odsetek wskazań)
Wyszczególnienie
Obniżone stawki podatku
Współpraca z przedsiębiorcami
Współudział w gazecie lokalnej
Poszukiwanie krajowych partnerów
Poszukiwanie zagranicznych partnerów
Upowszechnianie systemów jakości
Konkursy popularyzujące przedsiębiorczość
Inne
––zwolnienia podatkowe dla rozpoczynających działalność gospodarczą
––przygotowanie terenów inwestycyjnych
––utworzenie Stowarzyszenia Ostrzeszowskie Centrum Przedsiębiorczości
––wyróżnienie dla rozwijających się firm
––pomoc finansowa
Brak odpowiedzi
Gminy
miejskie
Gminy
wiejskie
8,82
11,76
4,41
8,82
5,88
2,94
2,94
22,06
30,88
13,24
7,35
8,82
1,47
1,47
Gminy
miejsko­
‑wiejskie
29,41
35,29
20,59
17,65
14,71
8,82
11,76
–
1,47
1,47
–
–
–
–
–
–
–
–
–
1,47
1,47
1,47
–
1,47
1,47
Źródło: Obliczenia na podstawie wyników badań własnych.
48
Kinga Dropek
-wiejskich najistotniejszym narzędziem stosowanym w celu pobudzania
przedsiębiorczości są przede wszystkim kontakty z przedsiębiorcami, a także
niższe stawki podatku, pozyskiwanie krajowych partnerów czy współudział
w gazecie lokalnej.
Jak widać narzędzia stosowane w celu pobudzania przedsiębiorczości
nie zależą od rodzaju gminy, na każdym terenie, przybierają one jednakową
postać, mimo że ich intensywność jest różna. Okazuje się, że najważniejszym
narzędziem są kontakty z przedsiębiorcami, gdyż to właśnie podczas spotkań
z przedsiębiorcami władze gminy mogą uzyskać informacje na temat skuteczności podejmowanych działań.
Gminy mogą również zachęcać potencjalnych przedsiębiorców do rozpoczęcia działalności gospodarczej na ich terenie, stosując różnego rodzaju
formy zachęt, które zestawiono w tabeli 3. Można wyróżnić kilka różnych
zachęt stosowanych przez gminy dla kandydatów na przedsiębiorców. We
wszystkich rodzajach gmin dominującą formą stosowaną dla zachęcenia do
rozpoczęcia działalności jest przygotowanie terenów inwestycyjnych, a także
wydawanie różnego typu katalogów i prospektów promujących gminę, zarazem zachęcających do rozpoczęcia działalności gospodarczej na jej terenie.
Wśród gmin miejsko-wiejskich dość ważną formą jest również organizacja
lokalnych targów czy uruchomienie centrum informacyjnego, natomiast
nieistotne okazuje się tworzenie spółek w ramach partnerstwa publiczno-prywatnego. Także w gminach miejskich mało istotną formą okazało się
tworzenie spółek w ramach partnerstwa publiczno-prywatnego czy uruchomienie centrum informacyjnego.
Tabela 3. Formy zachęt stosowanych przez gminę dla kandydatów
na przedsiębiorców (odsetek wskazań)
Wyszczególnienie
Przygotowywanie terenów inwestycyjnych
Wydawanie katalogów i prospektów
Organizowanie lokalnych targów
Uruchomienie centrum informacyjnego
Tworzenie spółek w ramach partnerstwa
publiczno-prywatnego
Inne
––uzbrajanie terenów inwestycyjnych
––obniżenie stawek podatku lokalnego
Gminy
miejsko­
‑wiejskie
27,94
14,71
8,82
7,35
Gminy
miejskie
Gminy
wiejskie
10,29
7,35
4,41
1,47
19,12
14,71
4,41
1,47
1,47
–
2,94
–
–
–
1,47
1,47
–
Źródło: Obliczenia na podstawie wyników badań własnych.
49
Działania samorządu terytorialnego wspierające przedsiębiorczość
Gmina ma szeroki wachlarz działań możliwych do zastosowania w celu
wspierania przedsiębiorczości. W niniejszej pracy przyjęto za W. Dziemianowiczem, że działania te mają charakter dochodowy oraz wydatkowy. Wśród
działań o charakterze dochodowych najistotniejsze znaczenie mają podatki
lokalne i związane z nimi ulgi i zwolnienia. Z kolei dla instrumentów wydatkowych najistotniejszego znaczenia nabierają wydatki inwestycyjne, a przede
wszystkim wydatki związane z infrastrukturą.
Zestaw działań o charakterze wydatkowym stosowanych przez badane
gminy zestawiono w tabeli 4. Dla gmin miejskich największego znaczenia
nabierają działania związane z dbałością o rozwój dróg, działania promujące
gminę, a także wydzielanie atrakcyjnie położonych działek pod inwestycje,
wprowadzanie ułatwień w procedurze urzędowej, organizacja banku danych
i łatwego dostępu do informacji (wiele istotnych danych zamieszczanych jest
na stronach internetowych gmin) czy udzielanie inwestorom ulg podatkowych.
Najmniejsze znaczenie wśród działań sprzyjających aktywności gospodarczej w gminach miejskich mają: inicjowanie ośrodków wspierania przedTabela 4. Działania wydatkowe podejmowane przez gminę, które sprzyjają
aktywności gospodarczej w gminie
Wyszczególnienie
Gminy
miejskie
Wydzielenie pod inwestycje atrakcyjnie
położonych działek
Dbałość o rozwój dróg
Dbałość o rozwój telekomunikacji
Dbałość o podnoszenie kwalifikacji lokalnych kadr
Wprowadzanie ułatwień w procedurze
urzędowej
Inicjowanie ośrodków wspierania przedsiębiorczości
Działania promujące gminę
Rozwój instytucji poręczeń i gwarancji
Inne
––gazociągi gminne
––współpraca z organizacjami poza­
rządowymi
Źródło: Obliczenia na podstawie wyników badań własnych.
Gminy
wiejskie
Gminy
miejsko­
‑wiejskie
7
8
5
12
27
19
21
25
17
6
16
17
7
22
24
4
8
5
7
27
3
12
25
11
1
1
50
Kinga Dropek
siębiorczości, rozwój instytucji poręczeń i gwarancji, polityka niskich cen za
usługi komunalne czy dbałość o rozwój telekomunikacji.
Dla gmin wiejskich, podobnie jak miejskich, największe znaczenie mają:
dbałość o rozwój dróg, działania promujące gminę, wprowadzenie ułatwień
w procedurze urzędowej, dbałość o rozwój telekomunikacji, a także dbałość
o podnoszenie kwalifikacji lokalnych kadr. Natomiast najmniejsze znaczenie mają: rozwój instytucji poręczeń i gwarancji, organizacja banku danych
i łatwego dostępu do informacji, inicjowanie ośrodków wspierania przedsiębiorczości czy udzielanie inwestorom ulg podatkowych.
Z kolei dla gmin miejsko-wiejskich największe znaczenie mają takie działania, jak dbałość o rozwój dróg, wprowadzanie ułatwień w procedurze urzędowej, działania promujące gminę czy wydzielanie atrakcyjnie położonych
terenów pod inwestycje. Działania, które mają najmniejsze znaczenie, to przede wszystkim rozwój instytucji poręczeń i gwarancji, inicjowanie ośrodków
wspierania przedsiębiorczości, polityka niskich cen za usługi komunalne czy
organizacja banku danych i łatwego dostępu do informacji.
Jak wynika z powyższej analizy, dla gmin, które poddano badaniu, naj­
istotniejsze są: dbałość o rozwój dróg, wydzielanie terenów pod inwestycje
czy działania promujące gminę. Działania te z całą pewnością można zaliczyć
do działań o charakterze wydatkowym.
Drugi rodzaj działań stosowany przez gminy w celu wspierania przedsiębiorczości to działania o charakterze dochodowym. Do tego rodzaju instrumentów zalicza się przede wszystkim podatki i opłaty lokalne. Jeżeli gmina
nie stosuje wygórowanych stawek podatkowych, jest to dobry sygnał dla firm.
Jeszcze bardziej istotna jest stabilność polityki podatkowej. Ważniejsze dla
firmy chyba są stabilność i klarowność polityki podatkowej (nawet jeśli są to
wysokie stawki) niż skoki w tej polityce. Gmina może stosować również politykę ulg przy określonym poziomie inwestycji lub określonej liczbie nowych
miejsc pracy. W tym wypadku jest bardzo ważne, aby kryteria tych ulg były
jasne i ścisłe. Stabilność polityki podatkowej zasadniczo wpływa na wspieranie
przedsiębiorczości. Ma to znaczenie zarówno dla lokalnych przedsiębiorców,
jak i dla potencjalnych inwestorów z zewnątrz. Inwestorzy chętniej będą inwestowali w gminie o stabilnej i jasnej polityce [Bończak-Kucharczyk, Herbst
i Chmura 1998, s. 148–149].
Problem polityki podatkowej w badanych gminach przedstawiono w tabeli 5. Zgodnie z obowiązującym prawem, gminy mogą stosować stawki niższe
od maksymalnych. Przeprowadzone badania potwierdzają ten fakt – 62,5%
badanych gmin miejskich, 96,77% badanych gmin wiejskich oraz 96,55% gmin
miejsko-wiejskich potwierdziło stosowanie stawek niższych od maksymalnych
51
Działania samorządu terytorialnego wspierające przedsiębiorczość
Tabela 5. Stosowane stawki podatków (odsetek wskazań)
Wyszczególnienie
Stawki maksymalne
Stawki niższe od maksymalnych
Brak odpowiedzi
Razem
Gminy
miejskie
Gminy
wiejskie
–
62,50
37,50
100,00
–
96,77
3,23
100,00
Gminy
miejsko­
‑wiejskie
–
96,55
3,45
100,00
Źródło: Obliczenia na podstawie wyników badań własnych.
w poszczególnych rodzajach podatków lokalnych. Zastanawiający jest tu duży
odsetek odpowiedzi, który jest dość znaczący wśród gmin miejskich.
Jeżeli natomiast przyjrzymy się specyfice rodzajowej podatków, to wśród
stawek obniżonych dominuje podatek od nieruchomości (86,76% wskazań
wszystkich gmin) oraz podatek od środków transportu (82,35% wskazań
wszystkich gmin).
Gminy mogą również stosować ulgi i zwolnienia podatkowe dla lokalnych
przedsiębiorstw, których zestawienie w badanych gminach przedstawiają
tabele 6 i 7.
Tabela 6. Ulgi podatkowe dla lokalnych przedsiębiorców (odsetek wskazań)
Wyszczególnienie
Podatek od nieruchomości
Podatek rolny
Brak ulgi
Brak odpowiedzi
Gminy
miejskie
Gminy
wiejskie
2,94
–
2,94
4,41
5,88
–
30,88
8,82
Gminy
miejsko­
‑wiejskie
10,29
1,47
27,94
2,94
Źródło: Obliczenia na podstawie wyników badań własnych.
Tabela 7. Zwolnienia podatkowe dla lokalnych przedsiębiorców (odsetek
wskazań)
Wyszczególnienie
Podatek od nieruchomości
Brak zwolnienia
Brak odpowiedzi
Gminy
miejskie
Gminy
wiejskie
5,88
–
4,41
13,24
17,65
14,71
Źródło: Obliczenia na podstawie wyników badań własnych.
Gminy
miejsko­
‑wiejskie
14,71
23,53
4,41
52
Kinga Dropek
Wśród wskazań podanych przez gminy miejskie można zauważyć, że
jedyną występującą ulgą jest ulga w podatku od nieruchomości. Znaczący
jest także brak odpowiedzi ze strony respondentów. Znaczna liczba gmin
wiejskich z kolei wskazuje na brak występowania ulgi podatkowej. Jeżeli już
owa ulga występuje, to tylko w podatku od nieruchomości.
Gminy miejsko-wiejskie, podobnie jak gminy wiejskie, wskazują na brak
występowania ulg podatkowych, a jeśli już taka ulga występuje, to jest to ulga
w podatku od nieruchomości.
Jak pokazuje tabela 6, stosowane ulgi podatkowe to przede wszystkim ulgi
w podatku od nieruchomości. Jednak większość gmin takich ulg nie stosuje.
Podobnie dzieje się ze stosowaniem zwolnień od podatków dla lokalnych
przedsiębiorców. Tylko badane gminy miejskie nie wykazały braku stosowania
zwolnienia, jednak zauważalny jest wśród tych gmin znaczny brak odpowiedzi.
Dla gmin wiejskich dość istotnego znaczenia nabierają zwolnienia od podatku od nieruchomości. Jednak znaczny jest wśród tych gmin brak udzielenia
odpowiedzi. Z kolei wśród gmin miejsko-wiejskich znaczący jest udział braku
stosowania zwolnienia dla lokalnych przedsiębiorców. Jeśli jest stosowane
zwolnienie od podatku lokalnego, to jest to przede wszystkim zwolnienie od
podatku od nieruchomości.
Gminy mogą stosować zwolnienia od podatku lokalnego i są to przede
wszystkim zwolnienia od podatku od nieruchomości. Jednak znacznie czę­
ściej gminy nie stosują takich zwolnień, gdyż dla przedsiębiorcy nie jest ważne
zwolnienie czy ulga w podatku, a przejrzystość i stabilność polityki lokalnej,
natomiast dla gminy oznacza to mniejsze wpływy do budżetu.
Podsumowanie
Jednostki samorządu terytorialnego dysponują dostatecznie szerokim zestawem instrumentów, które umożliwiają prowadzenie aktywnych działań na
rzecz wspierania przedsiębiorczości. W zestawie tym znajdują się instrumenty
o charakterze zarówno dochodowym, jak i wydatkowym. Wśród instrumentów dochodowych gminy nie mają szerokiego spektrum działania, gdyż do
tej grupy można zaliczyć działania w zakresie polityki podatkowej. Natomiast
za pomocą instrumentów wydatkowych gminy mogą znacznie efektywniej
działać w kierunku wspierania przedsiębiorczości, gdyż są to wszelkiego rodzaju działania inwestycyjne.
Z przeprowadzonych badań wynika, że najważniejszym narzędziem stosowanym przez gminy w celu pobudzania przedsiębiorczości są kontakty
Działania samorządu terytorialnego wspierające przedsiębiorczość
53
z przedsiębiorcami oraz niższe stawki podatku. Najcenniejszą formą zachęty
stosowaną przez gminy dla kandydatów na przedsiębiorców są przygotowane
tereny inwestycyjne, a także katalogi czy prospekty gminne.
Z badań wynika też rozwarstwienie stosowanych działań wśród gmin
miejskich, wiejskich i miejsko-wiejskich. Gminy miejskie i miejsko-wiejskie
intensywniej działają w celu wspierania przedsiębiorczości w porównaniu
z gminami wiejskimi.
Bibliografia
Barczyk, S., 2010, Przedsiębiorczy samorząd lokalny i jego instytucje, Wydawnictwo
Akademii Ekonomicznej im. Karola Adamieckiego w Katowicach, Katowice.
Bończak-Kucharczyk, E., Herbst, K., Chmura, K., 1998, Jak władze lokalne mogą
wspierać przedsiębiorczość, Fundacja Inicjatyw Społeczno-Ekonomicznych Polska
Fundacja Promocji Małych i Średnich Przedsiębiorstw, Warszawa.
Bratnicki, M., 2002, Przedsiębiorczość i przedsiębiorcy współczesnych organizacji,
Wydawnictwo Akademii Ekonomicznej im. Karola Adamieckiego w Katowicach,
Katowice.
Dziemianowicz, W., Mackiewicz, M., Malinowska, E., Misiąg, W., Tomalak, M., 2000,
Wspieranie przedsiębiorczości przez samorząd terytorialny, Polska Fundacja Promocji i Rozwoju Małych i Średnich Przedsiębiorstw, Warszawa.
Felzensztein, Ch., Gimmon, E., Aqueveque, C., 2013, Entrepreneurship at The Periphery: Exploring Framework Conditions in Core and Peripheral Locations, Entrepreneurship Theory and Practice, vol. 37, iss. 4.
Hisrich, R.D., Peters, M.P., 1992, Entrepreeneurship. Starting, Developing and Managing a New Enterprise, 2nd ed., Irwing, Boston.
Koźmiński, A.K., 2005, Zarządzanie w warunkach niepewności. Podręcznik dla zaawansowanych, Wydawnictwo Naukowe PWN, Warszawa.
Krajewski, K., Śliwa, J., 2004, Lokalna przedsiębiorczość w Polsce. Uwarunkowania
rozwoju, Wydawnictwo Naukowe Wydziału Zarządzania Uniwersytetu Warszawskiego, Warszawa.
Kraśnicka, T., 2002, Koncepcja rozwoju przedsiębiorczości ekonomicznej i pozaekonomicznej, Wydawnictwo Akademii Ekonomicznej im. Karola Adamieckiego
w Katowicach, Katowice.
Matusiak, K.B., 2006, Rozwój systemów wsparcia przedsiębiorczości – przesłanki, polityka i instytucje, Instytut Technologii Eksploatacji – Państwowy Instytut Badawczy,
Radom–Łódź.
Okrasiński, A., 2007, Jak gmina powinna wspierać lokalną przedsiębiorczość,
­INFOR.PL, http://samorzad.infor.pl/sektor/rozwoj_i_promocja/wspolpraca/
54
Kinga Dropek
artykuly/388965,jak_gmina_powinna_wspierac_lokalna_przedsiebiorczosc.html
[dostęp: 15.12.2013].
Słomińska, B., 2007, Gmina w procesach stymulowania przedsiębiorczości, Samorząd
Terytorialny, nr 3.
Strużycki, M. (red.), 2002, Zarządzanie małym i średnim przedsiębiorstwem. Uwarunkowania europejskie, Difin, Warszawa.
Westlund, H., 2011, Multidimensional Entrepreneurship: Theoretical Considerations
and Swedish Empirics, Regional Science Policy & Pracice, vol. 3, iss. 3.
STUDIA OECONOMICA POSNANIENSIA
2014, vol. 2, no. 2 (263)
Joanna Biernacka
Zachodniopomorski Uniwersytet Technologiczny w Szczecinie,
Wydział Ekonomiczny, Zakład Polityki Gospodarczej i Turystyki
[email protected]
ANALIZA INNOWACYJNOŚCI
TURYSTYKI MEDYCZNEJ
W REGIONIE ZACHODNIOPOMORSKIM
Streszczenie: Niniejsza praca podejmuje tematykę innowacyjności usług w turystyce
medycznej. Określono tu definicję turystyki medycznej oraz umiejscowiono ją jako jedną
z form turystyki zdrowotnej. Praca przedstawia ogólne pojęcie i znaczenie innowacyjności
usług turystycznych, szczególnie w kontekście turystyki medycznej. Szczegółowa analiza
innowacyjności tego typu turystyki objęła województwo zachodniopomorskie jako wiodący region oferujący usługi z tego zakresu. Określono wpływ, jaki turystyka medyczna
wywiera na możliwość rozwoju regionu zachodniopomorskiego.
Słowa kluczowe: turystyka, medycyna, innowacyjność, usługi, województwo zachodniopomorskie.
Klasyfikacja JEL: A12, F23, H00, I11, O19, Z1.
ANALYSIS OF INNOVATION IN MEDICAL TOURISM IN THE
ZACHODNIOPOMORSKIE REGION
Abstract: This paper discusses the subject of innovation in medical tourism services.
It defines the concept of medical tourism and positions it as one of the forms of health
tourism. The paper presents the general concept as well as the importance of innovation
in tourism services, especially in the context of medical tourism. It contains a detailed
analysis of innovation in medical tourism covering the Zachodniopomorskie region as
this is the leading area for such services in Poland. The influence of medical tourism on
the development of the region is also examined.
Keywords: tourism, medicine, innovation, services, Zachodniopomorskie region.
56
Joanna Biernacka
Wstęp
Turystyka medyczna jest ogólnoświatowym trendem. Coraz więcej ludzi,
planując wypoczynek, łączy go z różnego rodzaju zabiegami dla zdrowia
i urody. Turystyka zdrowotna, a w jej ramach medyczna, ma w Polsce ponaddwustuletnią historię i rozwija się bardzo dynamicznie. Sektor polskiej
turystyki medycznej jest obecnie wart kilkaset milionów złotych, co zostało
dostrzeżone przez Ministerstwo Gospodarki, które intensywnie promuje polskie usługi medyczne.
Tajemnicą sukcesu polskiej oferty turystycznej jest jej innowacyjność.
W turystyce medycznej wydzielone zostały aż cztery rodzaje innowacji: produktowe, organizacyjne, procesowe (technologiczne) i marketingowe. Efektem
innowacji jest atrakcyjna oferta medyczna, która w zestawieniu z atrakcyjnymi
cenami, bogactwem krajobrazu i pozytywnym obrazem polskiej medycyny
w oczach zagranicznych turystów stanowi o sukcesie i dynamicznym rozwoju
tego sektora.
Zgodnie z przeglądem turystyki medycznej dokonanym przez Medi-Tour,
województwo zachodniopomorskie jest najlepiej wypromowanym regionem
w Polsce. Zajmuje wiodącą pozycję wśród regionów, w których świadczone
są usługi z zakresu turystyki medycznej. Niniejsza praca przybliża tematykę
wpływu innowacyjności turystyki medycznej na możliwość rozwoju regionu
zachodniopomorskiego.
1. Pojęcie turystyki medycznej
Turystyka medyczna jest jedną z trzech form turystyki zdrowotnej. Poza nią
funkcjonują turystyka uzdrowiskowa oraz spa i welness. Jest ona jednocześnie
elementem turystyki narodowej, międzynarodowej i wewnątrzkrajowej. W literaturze przedmiotu można się spotkać z podejściem traktującym turystykę
medyczną jako:
–– obowiązkowy punkt wakacyjnego programu wyjazdu turystycznego [Rab-Przybyłowicz 2010, s. 695–696];
–– pojęcie tożsame z globalną opieką zdrowotną [Lunt i Carrera 2010, s. 28].
Problematyką badawczą z zakresu turystyki medycznej zajmowali się dotychczas głównie ekonomiści. M. Prochorowicz [2008, s. 133] na przykład
uznaje, że turystyka medyczna to nic innego jak łączenie leczenia z turystyką.
Analizując zakres świadczonych usług medycznych, należy wskazać, że tury-
Analiza innowacyjności turystyki medycznej w regionie zachodniopomorskim
57
styka medyczna nie zawsze jest powiązana jedynie z przywracaniem komuś
zdrowia. M. Sztorc [2008, s. 567–579] określenie „turystyka medyczna” stosuje
jako synonim turystyki zdrowotnej, uzdrowiskowej oraz spa i welness, traktując osoby uczestniczące w turystyce zdrowotnej jako turystów medycznych.
A. Białk-Wolf [2010, s. 655] z kolei stwierdza, że „turystyka medyczna
polega na dobrowolnym przemieszczaniu się do obcego państwa w celu poddania się tam planowanemu leczeniu w celu ratowania zdrowia, podniesienia
jakości życia lub poprawy wyglądu, z przyczyn finansowych, jakościowych lub
ze względu na niedostępność świadczeń w miejscu zamieszkania, niejednokrotnie połączonym ze zwiedzaniem odwiedzanego miejsca”. Według autora
artykułu za najbardziej trafną definicję turystyki medycznej należy uznać tę
sformułowaną przez J. Rab-Przybyłowicz [2010, s. 695], która wskazuje, że
turystyka medyczna dotyczy wyjazdów poza granice swojego regionu lub
kraju, których motywem staje się pobyt w gabinecie, klinice lub szpitalu w celu
poprawy zdrowia lub urody pod opieką lekarzy specjalistów.
Określenie „turystyka medyczna” jest powszechnie używane przez pacjentów, którzy podróżują poza miejsce realizowania stałej opieki zdrowotnej. Celem takich wyjazdów jest dostęp do szeroko rozumianych usług medycznych, które są oferowane za granicą i za które pacjenci najczęściej płacą
sami.
Z ekonomicznego punktu widzenia wymienia się dwie formy turystyki
medycznej, które wynikają z:
–– orientacji na jakość, w odniesieniu do turystów medycznych z krajów słabo
rozwiniętych gospodarczo, którzy wyrażają chęć przybycia do innego kraju,
gdzie usługi medyczne są świadczone na najwyższym poziomie lub z chęci
zaakcentowania własnego statusu społeczno-zawodowego;
–– orientacji na koszt, co oznacza formę turystyki ukierunkowanej na takich
turystów medycznych, którzy pochodzą z krajów o wysokim poziomie
innowacyjności medycznej i zamożności gospodarczej i ze względu na
niższą cenę usługi podróżują do krajów, w których usługi medyczne są
tańsze [Białk-Wolf 2010, s. 655].
Zakres oferowanych usług medycznych jest dość szeroki, bowiem potrzeby zdrowotne i oczekiwania współczesnych konsumentów są coraz bardziej
zindywidualizowane. W zakres najważniejszych usług turystyki medycznej
można wliczyć badania diagnostyczne, chirurgię plastyczną w formie modelowania ciała i twarzy, korekt wad wrodzonych, ginekomastii, odsysania tkanki
tłuszczowej, liolizy iniekcyjnej bądź intralipoterapii, chirurgii bariatrycznej,
medycynę i dermatologię, ortopedię, okulistykę, stomatologię, laryngologię
oraz ginekologię [Bukowska-Piestrzyńska 2008, s. 58].
58
Joanna Biernacka
2. Pojęcie innowacyjności usług turystycznych
Innowacyjność jest w ostatnich latach postrzegana jako jedno z podstawowych
źródeł przewagi konkurencyjnej. Pojęcie to jest powiązane z wprowadzeniem
czegoś nowego, nowatorstwem, ulepszeniem i reformą. Zgodnie z przykładową definicją, innowacją jest „istotna zmiana funkcji produkcji, polegająca na
odmiennym niż uprzednio kombinowaniu, czyli łączeniu ze sobą czynników
produkcji” [Gaworecki 2010, s. 35–39].
Obecnie uznaje się znaczenie innowacyjności w usługach, w tym także turystycznych i medycznych. Innowacje w obszarze turystyki oznaczają zmiany
w metodach produkcji oraz procesie świadczenia usług, które wykorzystują
do tego celu nową bądź niestosowaną wcześniej wiedzę. Najważniejszym
przedmiotem innowacji w usługach jest kontakt z klientem usługodawcy, który
stanowi istotę produktu – usługi oraz ważne źródło innowacji [Boruszczak
2011, s. 32–35].
W przypadku turystyki medycznej innowacją jest nie tylko wszystko to,
co pacjent rozumie pod tym kątem, ale także to, o czym pacjenci często nie
wiedzą. Tego rodzaju innowacje wpływają na funkcjonowanie podmiotów
leczniczych. Jako przykład można podać wirtualny obieg dokumentów w szpitalu. Innowacje zauważane przez pacjentów odnoszą się do oferowanych usług,
zarządzania nimi i do ich promocji.
Według danych szacunkowych wartość segmentu turystyki medycznej
w Polsce w 2011 roku wynosiła blisko 800 mln zł, a liczba zagranicznych
pacjentów około 300 tysięcy [Medycyna estetyczna 2012]. Dane Instytutu Turystyki wskazują, że każdego roku w celach leczniczych do Polski przyjeżdża
około 3 milionów cudzoziemców. Powodem zainteresowania polską medycyną
są, poza wysoką jakością usług, także różnice w cenach, które sięgają nawet
80% w porównaniu z Wielkią Brytanią, Niemcami czy Stanami Zjednoczonymi. Liczba uczestników takiej formy turystyki nadal się zwiększa, również
w obszarze turystyki krajowej, co potwierdzają dane Instytutu Turystyki.
Biorąc pod uwagę charakter i rodzaje wdrażanych innowacji w zakresie
turystyki medycznej, można je pogrupować w innowacje produktowe, organizacyjne, marketingowe i procesowe. Przykłady takich innowacji przedstawiono w tabeli 1.
Należy uznać, że szczególne znaczenie mają obecnie innowacje organizacyjne i marketingowe. Działaniem pomocnym w ich wprowadzaniu może
być najnowszy projekt Ministerstwa Gospodarki, które przeznaczyło 4 mln zł
na promocję na świecie polskiego sektora turystyki medycznej o wysokim
potencjale eksportowym [PAIiZ 2012].
Analiza innowacyjności turystyki medycznej w regionie zachodniopomorskim
59
Tabela 1. Innowacje w turystyce medycznej
Innowacje
Produktowe
Procesowe
Organizacyjne
Marketingowe
Przykłady faktyczne lub propozycje
––opatrunek kolagenowy [Baczko 2011, s. 328–329]
––stosowanie produktów i składników regionalnych do produkcji kosmetyków
––oferowanie innowacyjnych zabiegów, mniej inwazyjnych, zastępujących
tradycyjne
––dostęp do nowoczesnych leków
––pogłębianie wiedzy przez specjalistów na szkoleniach i seminariach
medycznych
––konsultacje z najlepszymi specjalistami, także zagranicznymi
––działania zmierzające do skrócenia procesu rekonwalescencji
––nowy sprzęt i aparatura medyczna
––nowe oprogramowanie
––innowacje technologiczne w ofercie turystyki medycznej, głównie dla
osób niepełnosprawnych
––skracanie procesu leczenia
––skracanie kolejek
––zmiany związane z prywatyzacją klinik i gabinetów lekarskich
––elektroniczny obieg dokumentów
––elektroniczne bazy danych pacjentów
––elektroniczne rezerwacje
––elektroniczne przesyłanie badań do dalszej analizy
––zaangażowanie się Polskiej Agencji Informacji i Inwestycji Zagranicznych w program promocji turystyki medycznej w świecie finansowany
z funduszy unijnych [Trendbook Poland 2010, s. 43–47]
––łączenie medycyny estetycznej ze sztuką
––uczestniczenie w organizacjach pozarządowych i klastrach w celu poszukiwania nowych pacjentów [Żołnierski 2011, s. 190]
––programy lojalnościowe
Źródło: Opracowano na podstawie zgromadzonych danych.
Istotne znaczenie w zakresie innowacyjności w turystyce medycznej ma
MedCluster, który jest unikatowym w skali kraju klastrem medycznym. Sieć
współpracy została nawiązana w 2007 roku jako „Klaster Medycyna Polska Południowy Wschód”. Jest to inicjatywa przedstawicieli zakładów opieki
zdrowotnej. Skupia on w swoim kręgu przychodnie, uzdrowiska, jednostki
badawczo-naukowe i firmy doradcze. Jako jeden z najważniejszych efektów
jego działalności wskazuje się powstanie nowoczesnej opieki medycznej,
świadczenie kompleksowych usług medycznych i usług turystyki medycznej,
przy zastosowaniu najnowocześniejszych metod i innowacyjnych technologii
[Medcluster 2014].
60
Joanna Biernacka
Misją Klastra jest rozwój współpracy i integracji środowisk, które działają
w zakresie innowacyjnych rozwiązań w obszarze ochrony zdrowia. Celem jego
działalności jest dodatkowo generowanie innowacyjnych rozwiązań.
3. Analiza innowacyjności turystyki medycznej
w województwie zachodniopomorskim
Województwo zachodniopomorskie słynie z najlepszych warunków klimatycznych nad Bałtykiem. Duży poziom wilgotności powietrza jest efektem
niewielkiej odległości dużych zbiorników wodnych i bardzo dużego zalesienia.
Na tym terenie panuje zdecydowanie łagodny klimat. Powietrze bogate w jod
oraz cieplejsza woda są atutami, które przekonują turystów [medi-tour.pl b.r.].
Największym powodzeniem wśród zagranicznych pacjentów cieszą się
usługi stomatologiczne. Do klinik stomatologicznych znajdujących się w województwie zachodniopomorskim w 2012 roku przybyło blisko 8 tys. turystów.
Wartość ta w porównaniu z 2011 rokiem nie uległa istotnym zmianom. Innymi
dziedzinami, które przyciągają turystów z całej Europy, są chirurgia estetyczna
i plastyczna, kardiologia i kardiochirurgia, wczasy lecznice oraz spa i welness,
a także rehabilitacja, bariatria, okulistyka i traumatologia. Z usług medycyny
estetycznej skorzystało w 2012 roku przeszło 5 tys. turystów. W 2011 roku
wartość ta była większa i przekraczała 5,5 tys. [medi-tour.pl b.r.]. Udział
pozostałych usług z zakresu turystyki medycznej w ogólnej wartości jest
znacznie mniejszy.
W zakres największych korzyści, jakie przynosi rozwój turystyki medycznej w województwie zachodniopomorskim, wlicza się przystosowanie
klinik i szpitali do funkcjonowania w roli placówek o charakterze międzynarodowym. Regularnie zwiększany zostaje także komfort pobytu w nich,
a także dokonywane są inwestycje w sprzęt najnowszej technologii. Wartość
inwestycji zrealizowanych w tym zakresie w latach 2010–2013 szacuje się na
7,5 mln złotych [Audyt turystyczny województwa zachodniopomorskiego 2005,
s. 108–109] i z każdym rokiem wzrasta. Inwestycje te dotyczyły w głównej
mierze specjalistycznej aparatury diagnostycznej i wyposażenia oddziałów
szpitalnych.
Placówki medyczne z województwa zachodniopomorskiego zrealizowały
wszelkie inwestycje w innowacje wskazane w tabeli 1. Na przykład w zakresie chirurgii estetycznej i plastycznej wprowadzono nowoczesne metody
wykonywania zabiegów, które całkowicie eliminują ryzyko pozostawienia
Analiza innowacyjności turystyki medycznej w regionie zachodniopomorskim
61
blizn, a także uzupełniono je o dodatkowe zabiegi kosmetyczne oparte na
naturalnych produktach, których celem jest skrócenie czasu rekonwalescen­cji.
W przypadku kardiologii i kardiochirurgii, kliniki regionu posiadają wysoko wykwalifikowaną kadrę i nowoczesną aparaturę badawczą. Dzięki temu
badania są bardzo szczegółowe, a zatem niemal całkowicie eliminują możliwość nierozpoznania jakiegokolwiek schorzenia w tym zakresie. Placówki te
korzystają dodatkowo z najnowocześniejszych implantów stosowanych przy
operacjach serca.
Odnosząc się do stomatologii, standardem jest bezbolesne przeprowadzanie zabiegów. Dodatkowo istnieje wiele pracowni protetycznych, które wykonują implanty zębów z najnowszych tworzyw o bardzo dużej wytrzymałości.
Wszelkie zabiegi są wykonywane nowoczesną aparaturą.
W każdej pozostałej gałęzi medycznej, która przyciąga turystów do regionu, wprowadzono przede wszystkim nowoczesne sprzęty oraz rozwiązania,
które zwiększają komfort pacjentów oraz ryzyko wystąpienia komplikacji.
Inwestycje w tej sferze zostały zrealizowane między innymi w klinice
Celcus Bis S.C. w Sarbinowie, w Niepublicznym Zakładzie Opieki Zdrowie
w Zegrzu Pomorskim, a także szpitala w Kamieniu Pomorskim. Nie sposób
wymienić wszystkich podmiotów medycznych, które wdrażają w swoją działalność innowacje. Wskazane powyżej zostały zatem podane jako przykładowe, które charakteryzują się największą innowacyjnością [medi-tour.pl b.r.].
Drugi kierunek dotyczy ogólnie pojmowanej infrastruktury turystycznej.
Hotele oraz pensjonaty, w których zatrzymują się pacjenci, dbają o zapewnienie gościom wygody i atrakcji [Audyt turystyczny województwa zachodnio­
pomorskiego 2005, s. 112–115]. W tym wypadku wartość inwestycji nie jest
znana.
Województwo zachodniopomorskie jest najlepiej wypromowanym regionem w Polsce [medi-tour.pl b.r.]. Ośrodki lecznicze wprowadzają coraz
nowsze i bardziej zaawansowane usługi, których celem jest zwiększenie innowacyjności. Modyfikowane i urozmaicane są także oferty dla pacjentów.
Często przeprowadzane są badania rynków zagranicznych w zakresie usług
medycznych, co jest dokonywane głównie przez Instytut Turystyki oraz menedżerów dużych placówek szpitalnych. Na tej podstawie czerpane są informacje
o nowych możliwościach, które są następnie wdrażane [medi-tour.pl b.r.].
W wielu miejscach wdrożono również strategie zarządzania jakością
oraz podjęto działania marketingowe, których celem jest zwiększenie liczby
pacjentów przyjeżdżających do regionu. Poszerzono również dostępność
poszczególnych kanałów informacyjnych, w szczególności internetowych
[medi-tour.pl b.r.].
62
Joanna Biernacka
W ośrodkach oferujących turystykę medyczną wprowadzane są również
innowacje produktowe, które nawiązują do elementów lokalnych i regionalnych Zachodniopomorskiego. Jako przykład można w tym zakresie wskazać
wykorzystanie wody morskiej i oczyszczonego piasku morskiego do zabiegów
skórnych czy wykorzystanie panującego mikroklimatu w leczeniu chorób płuc.
Często pojawiają się przypadki produkcji kosmetyków z naturalnych bogactw.
Działania te mają także charakter marketingowy, który ma zachęcić turystów
do korzystania z oferowanych w tym zakresie usług.
Większość obiektów znajdujących się w województwie zachodniopomorskim oferuje zestawy zabiegów nakierowane na leczenie konkretnego schorzenia. Podmioty medyczne nie ograniczają jednak świadczonych usług. Na
przykład, zabiegi skórne zostają uzupełnione o „rehabilitację kosmetyczną”
nakierowaną na pielęgnację skóry produktami pochodzenia naturalnego
[medi-tour.pl b.r.].
Dla szczegółowej analizy problemu innowacyjności w turystyce medycznej
regionu zachodniopomorskiego dokonano krótkiego porównania z regionem
południowym, czyli województwem dolnośląskim. Największym uznaniem
pośród turystów cieszy się bowiem wrocławska kadra medyczna. Kliniki
stomatologiczne z tego regionu są coraz częściej odwiedzane także przez
obcokrajowców. Najlepszym przykładem może być ośrodek Clinident, który
w każdym roku przyjmuje kilkanaście tysięcy turystów medycznych, w tym
także zagranicznych. Region ten odwiedzają również pacjenci przyjeżdżający
na zabiegi chirurgii plastycznej i ginekologii estetycznej. Największym zainteresowaniem w tym względzie cieszą się kliniki Optimus i Medic-Beauty.
Wskazane podmioty medyczne są uznawane za jedne z najbardziej innowacyjnych w Polsce. Ich roczne inwestycje w tę sferę kształtują się na poziomie
nawet kilku milionów. Dzięki temu podmioty te jako działające w formie
prywatnej wprowadzają wszelkie popularne innowacje nie tylko z zakresu
organizacyjnego, ale przede wszystkim dotyczącego bezpośrednio świadczenia
usług medycznych. Przykładem mogą być laserowe zabiegi estetyczne czy
zastąpienie inwazyjnych zabiegów zdrowotnych bezinwazyjnymi, głównie
laserowymi, lub mniej inwazyjnymi, czyli laparoskopowymi.
Jak wskazuje IMAJ (International Medical Travel Journal), jednym z pierwszych krajów, które zauważyły potencjał turystyki medycznej i wykorzystały go
do zainteresowania tą sferą turystów, były Indie. Światowym liderem turystyki
medycznej jest Singapur. Wyposażenie tamtejszych klinik jest uznawane za
najlepsze w Azji, podobnie jak umiejętności i wiedza specjalistów. Czołowe
miejsce w rankingu najczęściej odwiedzanych krajów ma również Tajlandia.
Coraz więcej cudzoziemców podróżuje w celach medycznych również do Ma-
Analiza innowacyjności turystyki medycznej w regionie zachodniopomorskim
63
lezji. Znaczny wpływ na zainteresowanie malezyjskimi usługami medycznymi
miały rządowe programy na rzecz promocji turystyki medycznej za granicą.
Do najchętniej odwiedzanych krajów Europy należą Turcja, Węgry i Czechy. Zasadniczym powodem podróży jest istotna różnica cenowa w stosunku
do kosztów zabiegów przeprowadzanych na przykład w Wielkiej Brytanii czy
Niemczech.
Medycyna we wskazanych krajach jest bardzo wysoko rozwinięta. Korzysta
z najnowszych wynalazków i rozwiązań, które znacznie zmniejszają ryzyko
skutków ubocznych i zagrożenie niepowodzeniem. Dodatkowo turyści często
mają większe szanse na wykonanie zabiegu za granicą w krótkim czasie niż we
własnym kraju. To w połączeniu z innowacyjnością usług medycznych oraz
stosunkowo niskimi cenami zabiegów warunkuje wysoki potencjał rozwojowy turystyki medycznej na świecie. Biorąc jednak pod uwagę województwo
zachodniopomorskie, region ten dość znacznie odbiega od standardów światowych. Jednak w porównaniu ze standardem krajowym jest on uznawany za
najlepszy kierunek turystyki medycznej.
4. Wpływ innowacyjności turystyki medycznej na możliwość
rozwoju regionu zachodniopomorskiego
Turystyka medyczna województwa zachodniopomorskiego jest uznawana za
innowacyjną. W związku z tym ma ona duże szanse na zyskanie zainteresowania ze strony pacjentów. Dzięki wdrażaniu wszelkiego rodzaju innowacyjnych
rozwiązań turystyka medyczna wpływa na rozwój całego regionu. Najważniejszym aspektem jest to, że turystyka jako całość jest istotnym czynnikiem
rozwoju każdego regionu. Turystyka medyczna ma zatem swój udział w tym
względzie, a jej wysoki potencjał rozwojowy jest tym elementem, który ma
istotne znaczenie w rozwoju regionu jako turystycznego, nie tylko z zakresu
medycyny.
Dzięki dużemu zainteresowaniu pacjentów przyjazdem do Zachodniopomorskiego, a także działaniom ukierunkowanym na realizację tego celu,
wiele zyskuje także cały region. Korzysta przede wszystkim baza noclegowa,
dla której zakładany wzrost dochodów do 2018 roku może wynieść nawet
45–50%. Nie wszystkie obiekty oferują możliwość noclegu, a często sami pacjenci podejmują decyzję o zatrzymaniu się w innym miejscu. W ten sposób
dostępna baza turystyczna jest lepiej wykorzystana, co zwiększa dochody
takich obiektów [medi-tour.pl b.r.].
64
Joanna Biernacka
Zyskują także baza gastronomiczna i infrastruktura transportowa. Ich
wykorzystanie jest najczęściej nieodłącznym elementem realizacji turystyki,
także medycznej. Pacjenci często podróżują w inne miejsca regionu, gdzie
chętnie korzystają z lokalnej kuchni. Jednocześnie odwiedzają wiele atrakcji
turystycznych. Wciąż zwiększające się zainteresowanie turystów medycznych
tym regionem warunkuje konieczność dalszego rozwoju wszelkiej infrastruktury turystycznej. W ten sposób wzrasta jej poziom, co odzwierciedla się
w zainteresowaniu wszystkich rodzajów turystów.
W regionie zachodniopomorskim z każdym rokiem przybywa turystów. Jednak w przypadku turystyki medycznej sytuacja jest zróżnicowana.
W 2012 roku na przykład region ten w celach medycznych odwiedziło blisko
15 tys. turystów polskich. Wartość ta w 2011 roku jednak była znacznie większa i wynosiła blisko 20 tys. [Turystyka w województwie zachodniopomorskim
w 2012 roku, s. 10]. Liczba turystów zagranicznych przybywających do regionu
w celach medycznych wyniosła z kolei w 2012 roku około 25 tys., co dało
spadek w porównaniu do 2011 roku, gdzie ich liczba wyniosła blisko 50 tys.
[Turystyka w województwie zachodniopomorskim w 2012 roku, s. 12].
Na zakończenie niezbędne jest dokonanie analizy SWOT dla turystyki
medycznej w województwie zachodniopomorskim, co przedstawiono poniżej.
Mocne strony
––atrakcyjne położenie
––dobre położenie komunikacyjne
––wysoka innowacyjność świadczonych
usług medycznych
––inwestowanie znacznych środków finansowych w innowacje medyczne
––wysoko rozwinięty gospodarczo region
––korzystny klimat
––dostępność infrastruktury
Szanse
––rozwój medycyny w Polsce
––inwestowanie w rozwój medycyny
––ciągłe dokształcanie lekarzy i uczestniczenie w międzynarodowych szkoleniach
Słabe strony
––wysoka konkurencyjność innych regionów i krajów
––wysokie ceny świadczeń medycznych
––często niskie kwalifikacje kadry medycznej
––niski standard szpitali
––brak znajomości języków obcych przez
personel medyczny
––niewielki udział produktów naturalnych
w medycynie
Zagrożenia
––konkurencyjność ze strony innych regionów
––niskie zainteresowanie Polską jako kierunkiem turystycznym
Wszelkie innowacje wprowadzane do oferty turystycznej obiektów medycznych mają na celu zwiększenie ich atrakcyjności w świadomości potencjalnych i dotychczasowych pacjentów. W efekcie zakładane jest zwiększenie
liczby osób odwiedzających region do około 30 tys. osób w 2015 roku oraz
Analiza innowacyjności turystyki medycznej w regionie zachodniopomorskim
65
35 tys. do 2018 roku [Audyt turystyczny województwa zachodniopomorskiego
2005, s. 112–115]. W ten sposób umożliwiony zostaje przede wszystkim
rozwój samych ośrodków turystyki medycznej, co w efekcie zwiększa ich
pozycję na świecie.
Podsumowanie
Turystyka medyczna jest w ostatnich czasach uznawana za jedną z najszybciej
rozwijających się sfer turystyki. Jest ona podejmowana najczęściej w związku
z podjęciem leczenia poza miejscem zamieszkania. Możliwości korzystania
z turystyki medycznej są uwarunkowane przede wszystkim jej dostępnością
oraz innowacyjnością. Wyposażenie prywatnych klinik czy państwowych
szpitali w najnowsze i wysoce nowoczesne urządzenia i standardy zachęcają
pacjentów do skorzystania z ich usług.
Działalność lecznicza związana z turystyką medyczną jest oferowana nie
tylko mieszkańcom Polski, ale również całego świata. Obcokrajowcy najczę­
ściej samodzielnie finansują takie usługi. Podmioty medyczne województwa
zachodniopomorskiego najczęściej odwiedzają turyści z Niemiec. Główną
zachętą są niskie ceny świadczonych usług w porównaniu z obowiązującymi
na terenie Niemiec, a także wysoka jakość tych usług. Zachodniopomorskie
placówki medyczne odwiedza także wielu turystów z całej Europy. Korzystają oni najczęściej z chirurgii estetycznej i plastycznej, usług kardiologów
i kardiochirurgów oraz z rehabilitacji, bariatrii, okulistyki i traumatologii.
Dzięki zainteresowaniu zachodniopomorskim rynkiem medycznym, rejon ten zyskuje także ogromne uznanie jako miejsce ogólnie pojmowanej
turystyki.
Najważniejszymi korzyściami z innowacyjności w produktach turystyki
medycznej są jednak względy finansowe. Duża wielkość przyjazdowa generuje
duże zyski, które są następnie inwestowane w dalszy rozwój. Zgodnie z szacunkami marszałka województwa zachodniopomorskiego, aż 65% zysków jest
przeznaczana na dalszy rozwój placówek medycznych. Wartość tych zysków
nie jest jednak do końca znana, a różne źródła wskazują na kwoty rzędu kilku,
a nawet kilkunastu milionów złotych rocznie. W ten sposób powstaje pewnego
rodzaju spirala, która warunkuje rozwój regionu.
Podsumowując analizowaną problematykę, należy zaznaczyć, że w artykule
nie wyczerpano wszystkich aspektów związanych z innowacyjnością w turystyce medycznej. Wywód ograniczono do informacji powszechnie dostępnych oraz związanych z atrakcyjnością regionu dla pacjentów realizujących
66
Joanna Biernacka
turystykę medyczną. Implikacją dla dalszych rozważań z tego zakresu jest
przeprowadzenie szczegółowych badań obejmujących turystów korzystających
z usług medycznych, a także dyrektorów poszczególnych placówek.
Bibliografia
Audyt turystyczny województwa zachodniopomorskiego. Strategia rozwoju turystyki
w Województwie Zachodniopomorskim do 2015 roku, 2005, Zachodniopomorska
Regionalna Organizacja Turystyczna, Szczecin.
Białk-Wolf, A., 2010, Potencjał rozwojowy turystyki medycznej, w: Panasiuk, A. (red.),
Potencjał turystyczny – zagadnienia ekonomiczne, Zeszyty Naukowe Uniwersytetu Szczecińskiego, nr 591, Ekonomiczne Problemy Usług, nr 53, Wydawnictwo
Uniwersytetu Szczecińskiego, Szczecin.
Baczko, T., 2011, Raport z innowacyjności gospodarki Polski w 2010 roku, Instytut
Nauk Ekonomicznych Polskiej Akademii Nauk, Warszawa.
Bukowska-Piestrzyńska, A., 2008, Marketing usług zdrowotnych. Od budowania wizerunku placówki do zadowolenia klientów, CeDeWu, Warszawa.
Boruszczak, M., 2011, Turystyka zdrowotna i uzdrowiskowa, Wyższa Szkoła Turystyki
i Hotelarstwa w Gdańsku, Gdańsk.
Gaworecki, W., 2010, Turystyka, PWE, Warszawa.
Lunt, N., Carrera, P., 2010, Medical Tourism: Assessing the Evidence on Treatment
Abroad, Maturitas, vol. 66, no. 1.
Medcluster – Klaster Medyczny, 2014, MedycynaPolska, http://www.medycynapolska.
pl/index.php/top-block/item/71-medcluster [dostęp: 15.11.2013].
medi-tour.pl, b.r., Turystyka zdrowotna i medyczna – Szczecin i Zachodniopomorskie, http://www.medi-tour.pl/253,0,turystyka-zdrowotna-medyczna-szczecin-zachodniopomorskie.html [dostęp: 15.11.2013].
Medycyna estetyczna skorzysta na programie promocji turystyki medycznej, 2012,
Rynek Estetyczny, 31 maja, http://www.rynekestetyczny.pl/medycyna-estetyczna-skorzysta-na-programie-promocji-turystyki-medycznej/ [dostęp: 10.05.2012].
PAIiZ, 2012, PAIiIZ promuje turystykę medyczną, Polska Agencja Informacji i Inwestycji Zagranicznych, 17 kwietnia, http:www.paiz.gov.pl/20120417/paiiiz_promuje_turystyke_medyczna [dostęp: 5.11.2013].
Panasiuk, A., 2010, Potencjał turystyczny – zagadnienia ekonomiczne, Ekonomiczne
Problemy Usług, nr 53.
Prochorowicz, M., 2008, Turystyka medyczna nową perspektywą dla polskich placówek służby zdrowia, w: Grzywacz, R. (red.), Turystyka i rekreacja szansą rozwoju
aktywności społecznej, Wydawnictwo Wyższej Szkoły Informatyki i Zarządzania
w Rzeszowie, Rzeszów.
Analiza innowacyjności turystyki medycznej w regionie zachodniopomorskim
67
Rab-Przybyłowicz, J., 2010, Tworzenie produktu dla turystyki medycznej w Szczecinie,
w: Panasiuk, A. (red.), Potencjał turystyczny – zagadnienia ekonomiczne, Zeszyty
Naukowe Uniwersytetu Szczecińskiego, nr 591, Ekonomiczne Problemy Usług,
nr 53, Wydawnictwo Uniwersytetu Szczecińskiego, Szczecin.
Sztorc, M., 2008, Podróże turystyczne obcokrajowców w celach zdrowotnych do Polski,
w: Gaworecki, W., Mroczyński, Z. (red.), Turystyka i sport dla wszystkich w promocji zdrowego stylu życia, Wydawnictwo Wyższej Szkoły Turystyki i Hotelarstwa
w Gdańsku, Gdańsk.
Trendbook Poland 2010, Polska Agencja Informacji i Inwestycji Zagranicznych, Warszawa.
Turystyka w województwie zachodniopomorskim w 2012 roku, 2013, Urząd Statystyczny w Szczecinie, Szczecin.
Żołnierski, A., 2011, Koncepcja popytowego podejścia do innowacji w produkcji aparatury medycznej w świetle badań jakościowych, w: Baczko, T. (red.), Raport z innowacyjności gospodarki Polski w 2010 roku, Instytut Nauk Ekonomicznych Polskiej
Akademii Nauk, Warszawa.
STUDIA OECONOMICA POSNANIENSIA
2014, vol. 2, no. 2 (263)
Marta Pszczółkowska
Uniwersytet Ekonomiczny w Poznaniu, Wydział Ekonomii, Katedra Teorii
Pieniądza i Polityki Pieniężnej
[email protected]
ANALIZA ALTERNATYWNYCH
WSKAŹNIKÓW INDEKSACJI
OBLIGACJI SKARBOWYCH
Streszczenie: Obligacje indeksowane są emitowane w Polsce od 1994 roku. Mimo że
instytucje międzynarodowe oraz ekonomiści w wielu artykułach wskazują pozytywne
aspekty ich wykorzystania, w ostatnim dziesięcioleciu nie były one często emitowane.
Finansowano nimi średnio mniej niż 4% zadłużenia Skarbu Państwa. Charakterystyczne dla tych obligacji jest oprocentowanie, które składa się ze stałej marży odsetkowej
powiększonej o zmienną wartość wskaźnika referencyjnego. W praktyce jest nim najczęściej inflacja, mierzona jako średni wzrost cen towarów i usług konsumpcyjnych.
Jednak możliwe jest zastosowanie innych wartości odniesienia. Przeprowadzona analiza
dotyczy lat 2005–2012 oraz czterech alternatywnych rozwiązań: dla inflacji bazowej bez
cen administracyjnych oraz bez cen sezonowych, stopy wzrostu PKB dla szeregu wyrównanego sezonowo oraz surowego. W porównaniu z wartościami wypłacanych odsetek
według stanu bieżącego, wymienione warianty okazały się mniej kosztowne dla budżetu
państwa (emitenta) w istniejących w tym czasie warunkach gospodarczych. Wyzwaniem
dla zarządzających długiem jest dobór właściwej formuły indeksowania ze względu na
koszty obsługi długu publicznego oraz wysokość ceny bieżącej sprzedaży obligacji przez
emitenta, która miałaby wpływ na wysokość zadłużenia. Ponadto wybrane rozwiązanie
powinno uwzględniać reakcję inwestorów. Częste zmiany wskaźnika indeksacji mogą być
przez nich negatywnie odbierane.
Słowa kluczowe: dług Skarbu Państwa, obligacje skarbowe, obligacje indeksowane, wskaźnik indeksacji.
Klasyfikacja JEL: H63.
Analiza alternatywnych wskaźników indeksacji obligacji skarbowych
69
ALTERNATIVE INDEX RATIO OF TREASURY BONDS
Abstract: Indexed bonds have been issued in Poland since 1994. Despite the positive
opinions of international institutions and economists regarding such bonds, in the last
decade they were issued to cover an average of less than 4% of Treasury debt. The interest
rate of these bonds is composed of a fixed interest margin and a variable margin dependent on the inflation rate, measured by the Consumer Price Index. However, it is possible
to use different reference values. The analysis presented in this paper covers the period
2005–2012 and includes four alternative solutions: inflation rate without administrative
prices; inflation rate without seasonal prices; as well as GDP growth rate for seasonally
adjusted and raw data series. Compared with the value of interest payments according to
the current system, it can be concluded that the use of the CPI was more expensive for
the state than the other four options would have been in the economic conditions during
the analysed period. Other macroeconomic conditions could also influence the results
but a key issue is the difficulty in predicting them.
Keywords: Treasury debt, Treasury bonds, indexed bonds, index rate.
Wstęp
Dług sektora finansów publicznych w latach 2001–2012 wynosił średnio
47,74% PKB (blisko tyle co w 2006 roku1). Na koniec 2012 roku państwowy
dług publiczny (PDP) osiągnął wartość 840,5 mld zł, czyli 52,67% PKB2. Ministerstwo Finansów prognozuje dalszy nominalny wzrost zadłużenia, przy jednoczesnym wzroście PKB. Według projekcji zawartej w Strategii zarządzania
długiem sektora finansów publicznych w latach 2013–2016 z 2012 roku spadek
relacji PDP do PKB poniżej pierwszego ustawowego progu ostrożnościowego3 (do poziomu 49,6% PKB, nominalnie ok. 991,4 mld zł) ma nastąpić do
2016 roku4 [Ministerstwo Finansów 2012, s. 4]. Jednak mniej korzystne niż
przewidywano dane makroekonomiczne warunkują wciąż rosnącą relację
wskaźników budżetowych. Informacje Eurostatu o zadłużeniu w I kwartale
1
Państwowy dług publiczny w Polsce w 2006 roku wyniósł 47,76% PKB (dane ze strony
Ministerstwa Finansów www.mf.gov.pl, dostęp: 15.03.2013).
2
Według metodologii stosowanej przez Eurostat dług publiczny wynosił na koniec
2012 roku 55,6% PKB (szczegóły na stronie Eurostatu http://appsso.eurostat.ec.europa.eu,
dostęp: 4.09.2013).
3
Pierwszy próg ostrożnościowy wynosi 50% PKB, drugi – 55% PKB, trzeci – 60% PKB.
Pierwszy próg został przekroczony w 2010 roku. Od tej pory stosunek deficytu do dochodów
w kolejnym roku (x + 1) nie może być większy niż w roku poprzednim (x) [Ustawa z dnia
27 sierpnia 2009 roku].
4
W Strategii zarządzania długiem sektora finansów publicznych wydanej w grudniu
2011 roku zakładano, że już w 2013 roku państwowy dług publiczny wyniesie 50,3% PKB,
a w 2014 – 48,3% PKB (przy wielkości nominalnej PDP – 864,8 mld zł).
70
Marta Pszczółkowska
2013 roku pokazują, że dług publiczny w Polsce przekroczył w tym okresie
już 57,3% PKB. Ponadto w lipcu 2013 roku Sejm przegłosował zawieszenie
pierwszego progu ostrożnościowego, co umożliwia dalsze zadłużanie.
Przeważającą część państwowego długu publicznego stanowi zadłużenie
sektora rządowego. W latach 2001–2012 ten udział wahał się w granicach
91,84–95,44%. Procent długu zaciąganego przez jednostki samorządu terytorialnego (JST) oscylował wokół średniej na poziomie 4,84%. Pozostałe
zadłużenie sektora finansów publicznych sięgało maksymalnie niecałych 3%.
Mimo powolnej tendencji rosnącej długu JST (na koniec 2011 roku – 7,88%)
dwie ostatnie wymienione grupy można uznać za mniej istotne podmioty
generujące zadłużenie ogółem. Stąd przeprowadzana analiza dotyczy tylko
długu Skarbu Państwa (dane pochodzą ze strony internetowej Ministerstwa
Finansów www.finanse.mf.gov.pl, dostęp: 2.05.2013).
Szeroki wachlarz instrumentów możliwych do zaoferowania na rynku
finansowym sprawia, że kluczowym zadaniem organów zarządzających długiem publicznym jest wybór takiego sposobu finansowania (w tym konstrukcji
instrumentów transferu kapitału), który generowałby niskie koszty odsetkowe
dla budżetu państwa, wystarczające zainteresowanie wśród dawców kapitału,
nie zaburzałby mechanizmu rynkowego i nie ograniczał inwestycji prywatnych. Dwa podstawowe źródła to kredyt i emisja papierów wartościowych
(bonów i obligacji skarbowych).
Struktura finansowania długu Skarbu Państwa na koniec 2012 roku kształtowała się następująco: zadłużenie krajowe – 68,4%, z czego 96,89% stanowiły
rynkowe skarbowe papiery wartościowe (SPW), a tylko 1,36% – oszczędno­
ściowe SPW (detaliczne), pozostała część to przyjęte depozyty (przede wszystkim wolne środki jednostek sektora finansów publicznych (SFP); zadłużenie
zagraniczne – 31,6%, z czego 80% zostało pokryte emisją SPW w walutach
obcych, a tylko 20% kredytami. Ze względu na rodzaj oprocentowania przeważa oprocentowanie stałe – blisko 79% ogólnego zadłużenia, oprocentowanie
zmienne to ok. 18%. Trzecią formą oprocentowania jest indeksacja obligacji,
których rentowność w praktyce najczęściej zależy od inflacji, lecz nie jest to
jedyny możliwy punkt odniesienia.
Celem niniejszego artykułu jest zwrócenie uwagi na odpowiedni dobór
wskaźników indeksacji ze względu na koszty generowane dla emitenta obligacji indeksowanych przez sprawdzenie, jak kształtowałyby się odsetki od tych
obligacji w latach 2005–2012, gdyby został zmieniony wskaźnik referencyjny.
Zostały przeanalizowane cztery alternatywne rozwiązania: dla inflacji bazowej
bez cen administracyjnych oraz bez cen sezonowych, stopy wzrostu PKB dla
szeregu wyrównanego sezonowo oraz surowego. Wyniki zostały porównane
z wartością wypłacanych odsetek według stanu bieżącego.
71
Analiza alternatywnych wskaźników indeksacji obligacji skarbowych
1. Obligacje indeksowane w Polsce
Historia obligacji indeksowanych sięga XVIII wieku, gdy po raz pierwszy
zostały wyemitowane w 1790 roku przez stan Massachusetts (Stany Zjednoczone) [ECB 2007]. Pierwsza emisja tego typu obligacji w Polsce została
przeprowadzona w 1994 roku. Obligacje indeksowane można przypisać do
grupy obligacji zmiennoprocentowych. Ich oprocentowanie składa się z dwóch
części: stawki bazowej, obliczonej na podstawie wybranego wskaźnika referencyjnego, którego wartość ulega ciągłym wahaniom (w każdym momencie
wyceny), oraz marży odsetkowej, która stanowi dochód dodatkowy oferowany
przez emitenta. W płaszczu obligacji emitent może opisać dowolną miarę
odniesienia, na podstawie której dokonywane będą periodyczne zmiany oprocentowania obligacji [Gruszczyńska-Brożbar 2002, s. 31–33].
Najpopularniejszym (stosowanym również w Polsce) wskaźnikiem referencyjnym jest inflacja, mierzona indeksem wzrostu cen towarów i usług
19
4
77
2012
2011
83
4
13
2010
84
3
13
2
86
2009
11
2008
84
3
13
2007
84
2
14
2006
87
2005
88
2
2
0 7
93
2003
0
90
2002
0
84
2001
0
20
oprocentowanie stałe
40
11
1 8
91
2004
11
60
obligacje indeksowane
80
10
16
100
oprocentowanie zmienne
Rysunek 1. Udział obligacji indeksowanych w zadłużeniu krajowym
finansowanym emisją rynkowych SPW w latach 2001–2012 – stan na
koniec roku (w %)
Źródło: Opracowano na podstawie danych Ministerstwa Finansów na stronie www.mf.gov.pl
[dostęp: 3.05.2013]
72
Marta Pszczółkowska
konsumpcyjnych (customer price index – CPI). To rozwiązanie ma chronić
wierzycieli przed realnym spadkiem wartości należności. Stąd ich angielska
nazwa treasury inflation protected securities – TIPS [Pflueger i Viceira 2011,
s. 3]. Wraz ze wzrostem inflacji na rynku rośnie stawka bazowa i tym samym
oprocentowanie nominalne tej obligacji. Odwrotne zjawisko wywołuje spadek
inflacji.
Udział obligacji indeksowanych w zadłużeniu publicznym w Polsce (wg
wartości rynkowych SPW) na koniec 2012 roku wyniósł zaledwie 4,39% i jest
on najwyższy w analizowanym okresie od 2001 do 2012 roku. Struktura zadłużenia według formy oprocentowania została przedstawiona na rysunku 1.
Od czerwca 1994 do marca 1999 roku obligacje indeksowane w Polsce były
emitowane co kwartał na okres jednego roku z jednorazową wypłatą odsetek.
Szczegóły tych historycznych emisji (z uwzględnieniem realnych wartości
kuponów) zostały przedstawione w tabeli 1.
Po ponadczteroletniej przerwie w sierpniu 2004 roku wyemitowano obligacje indeksowane z datą wykupu 24 sierpnia 2016 roku. Minimalna wartość
jednej obligacji to 1000 zł, a minimalna oferta jednego uczestnika nie może być
mniejsza niż 1 mln zł. Pewny dochód odpowiada marży odsetkowej równej
3%. Wartość nominalna obligacji podlega indeksacji o współczynnik skonstruowany na bazie narastającego miesięcznie wskaźnika cen towarów i usług
konsumpcyjnych ogłaszanego przez Główny Urząd Statystyczny. W wypadku
braku publikacji tego wskaźnika w odpowiednim terminie (do 22 dnia danego miesiąca, czyli na dwa dni przed wyceną odsetek) wskaźnik zastępczy
jest obliczany przez Ministerstwo Finansów5. Jeśli współczynnik indeksacji
na dzień wykupu obligacji przyjmie wartość mniejszą od 1, to świadczenie
z tytułu wykupu zostanie wypłacone według wartości nominalnej obligacji
wraz ze stałymi odsetkami [Ministerstwo Finansów 2004]. Na tych samych
warunkach6 w kolejnych latach przygotowano jeszcze 15 serii obligacji o łącznej wartości blisko 10 mld zł, z czego sprzedaż wyniosła ponad 8,4 mld zł.
W liście emisyjnym przewidziano podaż w wysokości 30 mld, stąd wysoko
prawdopodobne są dalsze emisje. Ponadto w sierpniu 2008 roku wprowadzono
obligacje, których wykup nastąpi 25 sierpnia 2023 roku. Do 2012 roku w 5 seriach tych obligacji pozyskano ponad 3,77 mld zł. W stosunku do poprzedniej
emisji obniżono oprocentowanie podstawowe tych instrumentów do 2,75%.
Pozostałe warunki, łącznie ze sposobem indeksacji nie zostały zmienione
5
6
Wzór został podany w punkcie 1.1.
Na podstawie tego samego listu emisyjnego (z 4 sierpnia 2004 roku, nr 29/2004).
Analiza alternatywnych wskaźników indeksacji obligacji skarbowych
73
Tabela 1. Zestawienie emisji obligacji indeksowanych w Polsce w latach 1994–2000
Lp.
Seria
ISIN
Data
pierwszej
emisji
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
IR0695
IR0995
IR1295
IR0396
IR0696
IR0996
IR1296
IR0397
IR0697
IR0997
IR1297
IR0398
IR0698
IR0998
IR1298
IR0399
IR0699
IR0999
IR1299
IR0300
IZ0816
IZ0823
PL0000100090
PL0000100108
PL0000100116
PL0000100124
PL0000100376
PL0000100392
PL0000100459
PL0000100483
PL0000100533
PL0000100582
PL0000100657
PL0000100681
PL0000100764
PL0000100830
PL0000100889
PL0000100947
PL0000101002
PL0000101010
PL0000101028
PL0000101036
PL0000103529
PL0000105359
1.06.1994
1.09.1994
1.12.1994
1.03.1995
1.06.1995
1.09.1995
1.12.1995
1.03.1996
3.06.1996
2.09.1996
2.12.1996
3.03.1997
3.06.1997
2.09.1997
2.12.1997
3.03.1998
1.06.1998
1.09.1998
1.12.1998
1.03.1999
24.08.2004
25.08.2008
Data
wykupu
2.06.1995
2.09.1995
2.12.1995
2.03.1996
2.06.1996
2.09.1996
2.12.1996
2.03.1997
4.06.1997
3.09.1997
3.12.1997
4.03.1998
3.06.1998
4.09.1998
3.12.1998
1.03.1999
1.06.1999
1.09.1999
1.12.1999
1.03.2000
24.08.2016
25.08.2023
Kupon po
Skumulowa­
uwzględnie­
ny wskaźnik
niu indeksa­
inflacji (%)
cji (%)
37,99
33,24
35,66
30,91
30,26
24,37
27,83
21,96
26,52
20,19
25,92
19,60
24,75
19,40
24,04
18,69
19,96
16,84
18,24
15,13
17,22
13,99
16,43
13,21
14,21
13,87
12,41
12,08
11,64
10,42
9,66
8,46
8,40
6,04
8,73
6,25
9,48
8,29
10,90
9,80
3,00×SI
2,75×SI
SI – współczynnik indeksacji wyrażony w procentach (tu: inflacja).
Źródło: Jak do rysunku 1.
[Ministerstwo Finansów 2008]. W tabeli 2 zostały zaprezentowane niewykupione emisje obligacji indeksowanych.
Metodyka naliczania odsetek w 2004 roku zmieniła się w stosunku do
emisji z lat 90. Różnica dotyczy sposobu liczenia współczynnika indeksacji.
Według listów emisyjnych z 2004 i z 2008 roku opiera się on na porównaniu
inflacji z dwóch miesięcy (z drugiego i trzeciego miesiąca przed terminem
wypłaty odsetek), według wzoru przedstawionego w punkcie 1.1. Wcześniej odnosił się do skumulowanego wskaźnika z 12 miesięcy, począwszy od
drugiego miesiąca poprzedzającego miesiąc rozpoczęcia sprzedaży przez
74
Marta Pszczółkowska
Tabela 2. Wielkość i cena przetargowa emisji obligacji indeksowanych
w latach 2004–2012 (drugi przetarg o tym samym numerze oznacza przetarg
uzupełniający)
Seria
Data przetargu
IZ0816
1
2
2
3
3
4
4
18.08.2004
22.09.2004
22.09.2004
10.11.2004
10.11.2004
8.12.2004
8.12.2004
5
5
6
7
8
9
10
11
12
13
14
14
15
15
16
9.02.2005
9.02.2005
11.05.2005
10.08.2005
9.11.2005
8.02.2006
10.05.2006
14.06.2006
8.11.2006
9.05.2007
14.11.2007
14.11.2007
4.06.2008
4.06.2008
12.01.2012
IZ0823
1
2
3
4
5
6
6
7
7
łączna sprzedaż
średnia cena
13.08.2008
8.12.2010
16.02.2011
16.03.2011
15.06.2011
14.06.2012
14.06.2012
19.09.2012
19.09.2012
łączna sprzedaż
średnia cena
Źródło: Jak do rysunku 1.
Sprzedaż (w mln zł)
Cena średnia 1 obligacji
(w zł)
500
500
70
500
100
800
160
średnie dyskonto:
800
160
0
500
491,5
493
500
500
0,00
498
500
78
505
100
657
średnia premia:
8 412,5
904,10
928,48
928,48
936,53
936,53
963,69
963,69
62,64
1002,10
1002,10
–
1027,32
1004,72
1020,47
1017,81
1001,66
–
1020,03
1019,66
1019,66
1015,44
1015,44
1021,50
13,87
451,5
978,4
1 137
320,79
125
163,55
b.d.
średnie dyskonto:
100
500
3 776,24
967,58
965,75
970,86
968,49
973,25
995,68
b.d.
26,398
1010,20
1 010,20
939,53
982,75
Analiza alternatywnych wskaźników indeksacji obligacji skarbowych
75
agenta emisji obligacji serii o danym terminie wykupu. W okresie marzec
1994 – marzec 1996 dodatkowa marża oferowana przy tych obligacjach wynosiła 5%, przy czym wypłacana ona była do marca 1997 roku, a od czerwca
1996 roku do marca 1997 roku – 3%, przy czym ich wypłata zakończyła się
w marcu 1998 roku).
1.1. Zestawienie wzorów
W Liście emisyjnym nr 29/2004 Ministerstwa Finansów publikowane są informacje o sposobie obliczania wskaźnika referencyjnego, odsetek oraz cen
obligacji. Poniżej zaprezentowano najważniejsze z nich
1) wskaźnik miesięczny
n
∏(1 + WRk ),
Wn = 100 ⋅ k =1
gdzie:
n – liczba miesięcy,
k – miesiąc
WRk – wskaźnik referencyjny opublikowany dla miesiąca k,
2) bazowy wskaźnik referencyjny na dzień emisji
WB = Wa +
23
⋅ (Wb − Wa ),
31
gdzie:
Wb – wskaźnik miesięczny dla drugiego miesiąca poprzedzającego miesiąc emisji,
Wa – wskaźnik miesięczny dla trzeciego miesiąca poprzedzającego miesiąc emisji,
3) współczynnik indeksacji
SI(d , D , m) =
Wm−3 +
gdzie:
d – dzień wypłaty odsetek,
m – miesiąc,
d −1
⋅ (Wm−2 − Wm−3 )
D
,
WB
76
Marta Pszczółkowska
D – liczba dni w miesiącu,
Wm–2 – wskaźnik dla miesiąca o dwa miesiące poprzedzającego miesiąc m,
Wm–3 – wskaźnikiem o trzy miesiące poprzedzającym miesiąc m,
WB – bazowy wskaźnik referencyjny na dzień emisji.
4) współczynnik zastępczy
WZn = Wn−1 ⋅ 12
Wn−1
,
Wn−13
gdzie:
n – miesiąc
Wn–1 – wskaźnik dla miesiąca o jeden miesiąc poprzedzającego miesiąc n,
Wn–13 – wskaźnik dla miesiąca o trzynaście miesięcy poprzedzającego miesiąc n.
5) odsetki od jednej obligacji
Od = N ⋅ SI d ⋅ r ⋅
a
,
ACT
gdzie:
N – wartość nominalna jednej obligacji,
SId – współczynnik indeksacji,
r – oprocentowanie obligacji,
a – rzeczywista liczba dni od pierwszego dnia danego okresu odsetkowego, z włączeniem tego dnia, do dnia d z wyłączeniem dnia d,
ACT – rzeczywista liczba dni w danym okresie odsetkowym z włączeniem
pierwszego dnia okresu odsetkowego oraz wyłączeniem ostatniego
dnia okresu odsetkowego.
Na podstawie powyższych wzorów można obliczyć współczynnik indeksacji, a następnie wypłacone odsetki, stanowiące koszt dla emitenta, porównać
je z innymi obligacjami, co zostanie przestawione w kolejnej części artykułu.
2. Alternatywne wskaźniki indeksacji
Indeksy, na podstawie których mogą być dokonywane okresowe zmiany oprocentowania obligacji, należą do katalogu otwartego. Istnieje dowolność w ich
wyborze. W literaturze najczęściej są sugerowane wskaźniki makroekonomicz-
Analiza alternatywnych wskaźników indeksacji obligacji skarbowych
Wskaźniki makroekonomiczne
dynamika nominalnego PKB
dynamika potencjalnego PKB
77
Indeksy rynkowe
kurs walutowy
dynamika eksportu
inflacja (CPI)
inflacja bazowa
ceny wybranych towarów/surowców
Rysunek 2. Przykładowe wskaźniki indeksacji
Źródło: Na postawie: [Barro 2003, s. 2; Borensztein i Maurol 2002, s. 3; IMF 2004, s. 10]
ne opisujące stan gospodarki lub indeksy cen. Przykłady zostały przedstawione
na rysunku 2. Najczęściej stosowanym rozwiązaniem jest indeksacja o przeciętny wzrost cen mierzony wskaźnikiem CPI, który przedstawia zmiany cen
koszyka towarów i usług konsumpcyjnych. Jednak miary inflacji mogą być
różne. W Wielkiej Brytanii wykorzystywany jest RPI (retail price index), który
dotyczy zmian cen towarów i usług dla odbiorców detalicznych. We Francji,
Niemczech (w krajach strefy euro) podstawiany jest zharmonizowany CPI po
wyłączeniu cen produktów tytoniowych (HICP ex–tobacco). W Polsce poza
CPI obliczana jest (lecz niestosowana jako wskaźnik referencyjny) inflacja
bazowa, czyli skorygowana o ceny administracyjne albo sezonowe (ceny
żywności i energii) albo ceny najbardziej zmienne.
R. Barro wśród potencjalnych wskaźników indeksacji wymienia kurs walutowy, którego wprowadzenie miałoby na celu stabilizowanie wysokości
płatności z tytułu długu w walutach obcych. Cykl koniunkturalny również
może być dobrą podstawą dla tych instrumentów. W fazie ożywienia odsetki
od zaciągniętego długu byłyby wyższe, a w czasie spadku i recesji – niższe.
Dostosowanie do sytuacji gospodarczej pozwala zachować stabilność finansów publicznych [Barro 2003, s. 2]. Podobna zasada odnosi się do indeksacji
według wzrostu nominalnego PKB [IMF 2004, s. 10] i potencjalnego PKB.
Indeks może się opierać również na cenach wybranych towarów lub surowców. Odwołując się do przykładów historycznych, można wymienić obligacje
indeksowane o wskaźnik cen takich dóbr, jak:
–– ropa naftowa (Meksyk) [Borensztein i Maurol 2002, s. 4],
–– miedź (część przedsiębiorstw w Chile) [Borensztein i Maurol 2002, s. 4],
–– bawełna (Confederate States of America, 1863) [European Central Bank
2007],
78
Marta Pszczółkowska
–– srebro (Sunshine Mining Company, US, 1980) [European Central Bank
2007].
Takie rozwiązanie jest korzystne, gdy dochody państwa są silnie uzależnione
od wpływów ze sprzedaży takich towarów lub surowców.
3. Inflacja
Indeksacja na podstawie wskaźnika wzrostu cen była polecana przez takich
ekonomistów, jak: Joseph Lowe (1822), William S. Jevons (1875), Alfred Marshall (1925), Irving Fisher (1927), John M. Keynes (1927), Milton Friedman,
oraz przez instytucje międzynarodowe, takie jak Europejski Bank Centralny (EBC) czy Międzynarodowy Fundusz Walutowy (IMF). EBC w swoich
opracowaniach z 2007 roku wskazywał, że ze względu na zachodzące zmiany
demograficzne, takie jak starzenie się społeczeństwa oraz wzrost oczekiwanej
długości życia, popyt na aktywa o długim terminie zapadalności, które odpowiadałyby wartości zobowiązań emerytalnych, będzie rósł. Takimi aktywami
mogą być obligacje indeksowane o wskaźnik inflacji. Szczególnie aktywne
na tym rynku powinny być fundusze emerytalne i zakłady ubezpieczeń, co
wynika z ich profilu działalności [European Central Bank 2007].
Wśród argumentów przemawiających za emisją obligacji indeksowanych o stopę inflacji eksponuje się przede wszystkim zachowanie realnej
wartości aktywów i optymalnego podziału ryzyka inflacyjnego [Fischer
1982, s. 4]. Jednym z podstawowych celów inwestowania jest uzyskanie
zysku z alokowanego kapitału, w tym (co nastąpi wcześniej) ochrona jego
wartości realnej. Ze względu na inflację część korzyści zostaje transferowana z wierzyciela na dłużnika, ponieważ w momencie spłaty zadłużenia
dług wyrażony nominalnie, realnie jest wart mniej niż w momencie jego
zaciągnięcia i wykorzystania w poprzednim okresie. Dzięki wprowadzeniu obligacji indeksowanych następuje podział tego ryzyka między strony
transakcji. Spadek wartości pieniądza w czasie zostanie zrekompensowany
inwestorowi w postaci zwiększonego oprocentowania, a deflacja nie spowoduje dodatkowego kosztu dla emitenta.
Ważnym argumentem za indeksacją długu jest potencjalna możliwość
zmniejszenia kosztów jego obsługi. Na wymaganą przez inwestora stopę
zwrotu z przekazanego kapitału składają się premie za poszczególne czynniki
ryzyka, na które jest narażony. W zamian za eliminację ryzyka inflacyjnego inwestor powinien się zgodzić na niższą rentowność zakupionych instrumentów
[European Central Bank 2007]. Pozytywny wpływ obligacji indeksowanych
Analiza alternatywnych wskaźników indeksacji obligacji skarbowych
79
został zauważony w zakresie wydłużania duracji7 portfela wyemitowanych
obligacji oraz efektu wygładzania podatków [Barro 2003].
Według R. Barro ten typ obligacji pozwoli na lepsze dopasowanie aktywów
(szczególnie należności) do pasywów (szczególnie zobowiązań). Znaczna
część dochodów państwa w mniejszym lub większym stopniu naturalnie ulega
indeksacji o występującą inflację, jak wpływy z tytułu VAT, opłat skarbowych.
Stąd powstał postulat, by zobowiązania państwa również doprowadzać do
wartości realnej. Emisja obligacji indeksowanych będzie miała na celu zniwelowanie różnicy między urealnionymi wpływami a nominalnymi wydatkami
[European Central Bank 2007].
Zmiany stopy realnego oprocentowania obligacji indeksowanych są informacjami, na podstawie których można szacować (przy znanych innych założeniach)
potencjalną wielkość inwestycji, oszczędności oraz wzrostu gospodarczego.
Ponadto są źródłem informacji o oczekiwaniach inflacyjnych [Price 1997].
Obligacje indeksowane zostały uznane za lepszy odpowiednik wartości
kapitału niż inne rodzaje obligacji. Dlatego niektórzy ekonomiści uważają, że
kształtowanie polityki pieniężnej i fiskalnej z wykorzystaniem tego rodzaju
instrumentów będzie bardziej efektywnie wpływało na utrzymanie stabilności
cen kapitału. Są również przeciwne opinie, których zwolennicy argumentują
między innymi, że oczekiwania inflacyjne mogą być błędne [Price 1997].
Mimo przedstawionych zalet obligacje indeksowane nie są szeroko rozpowszechnionym instrumentem. Jego ograniczenia mogą wynikać z niskiej
płynności. Obniżona rentowność (przez odjęcie premii za ryzyko inflacyjne)
może zostać podniesiona przez konieczność zaoferowania przez emitenta
premii z tytułu niskiej płynności. Jednakże siła nacisku na taką dodatkową
premię może nie być duża, przy założeniu, że celem potencjalnych nabywców
jest utrzymanie ich do terminu do wykupu, co oznacza, że płynność nie jest
dla nich istotna [European Central Bank 2007].
Nawiązując do zjawiska iluzji pieniężnej opisanego przez Irvinga Fishera,
ujawnia się inna przyczyna braku zainteresowania obligacjami indeksowanymi. Inwestorzy prywatni mogą nie ufać tego rodzaju instrumentom, ponieważ
sądzą, że pieniądz ma stałą wartość mimo upływu czasu i wybierają instrumenty stałoprocentowe, których nominalne oprocentowanie jest wyższe.
7
Duracja (duration) oznacza długość przeciętnego okresu dostosowania kosztów (w tym
wypadku obsługi długu publicznego) do zmiany poziomu stóp procentowych. Wyrażona
jest w latach. Stanowi miarę ryzyka stopy procentowej. Niższa duracja jest interpretowana
jako wzrost ryzyka stopy procentowej, które może być wywołane wzrostem poziomu stóp
procentowych, większym zaangażowaniem w instrumenty krótkoterminowe i o zmiennym
oprocentowaniu [Ministerstwo Finansów 2012, s. 47].
80
Marta Pszczółkowska
W ten sposób ulegają iluzji pieniężnej, co jest częste w okresach o niskiej
inflacji. Jednak nawet nieznaczny jej poziom utrzymujący się w długim okresie
spowoduje erozje oszczędności. Gdy inflacja jest silnie odczuwana przez społeczeństwo, chęć zabezpieczenia się przed nią również jest większa. Niektórzy
ekonomiści rekomendują, by do zadań rządu należało uświadamianie społeczeństwa o zachodzących procesach ekonomicznych i zachęcanie do ochrony
swoich funduszy przed inflacją [European Central Bank 2007]. Ponadto może
panować obawa przed manipulacją wskaźnikiem referencyjnym przez emitenta. W przypadku obligacji skarbowych emitent może mieć większy wpływ
na prezentacje wartości wskaźników niż emitent prywatny. Zniechęcająca
może być również skomplikowana procedura naliczania wartości odsetek i jej
niezrozumienie przez inwestora [European Central Bank 2007].
Tabela 3. Zalety i wady miar inflacji jako wskaźników referencyjnych z punktu
widzenia emitenta i inwestora
Wyszczególnienie
Zalety
Emitent
––lepsze dopasowanie polityki
monetarnej
––informacja o oczekiwaniach inflacyjnych
––redukcja presji inflacyjnej
––wydłużanie czasu zapadalności SPW
––wspieranie efektu wygładzania
podatków
––brak premii za ryzyko inflacyjne – zmniejszenie kosztów obsługi długu
––lepsze dopasowanie aktywów
do pasywów budżetu państwa
Inwestor
––zachowanie realnej wartości aktywów
––podział ryzyka inflacyjnego
Wady
––błędne oczekiwania inflacyjne
––mniejsza płynność – wyższy
koszt dla emitenta
––niepewność wielkości przyszłych kosztów
––obawa przed manipulacją
wskaźnikiem
––niezrozumienie formuły naliczania odsetek
Źródło: Na podstawie: [Fischer 1982; Barro 2003; IMF, The World Bank 2002; IMF 2004; European
Central Bank 2007].
Podsumowanie zalet i wad wskaźników opartych na inflacji przedstawiono
w tabeli 3.
Inflacja jest mierzona przez porównanie poziomu cen danych dóbr w okresie obecnym z poziomem cen tych dóbr w okresie porównywanym. Problem
81
Analiza alternatywnych wskaźników indeksacji obligacji skarbowych
pojawia się przy doborze dóbr do porównywanego koszyka, dlatego powstało
wiele miar tego zjawiska. W statystykach publikowane są najczęściej:
–– wskaźnik cen towarów i usług konsumpcyjnych (CPI),
–– wskaźnik CPI skorygowany o ceny produktów najbardziej zmiennych,
–– wskaźnik CPI skorygowany o ceny administracyjne,
–– wskaźnik CPI skorygowany o ceny żywności i energii,
–– zharmonizowany wskaźnik cen towarów i usług konsumpcyjnych (HICP)
dla porównań inflacji w państwach UE.
Ich wzajemne zależności oraz wielkości zostały przedstawione na rysunku 3.
101,5
101,0
100,5
100,0
inflacja po wyłączeniu
cen administrowanych
CPI
1.9.2012
1.11.2011
1.1.2011
1.2.2010
1.5.2009
1.7.2008
1.9.2007
1.11.2006
1.1.2006
1.3.2005
1.5.2004
1.7.2003
1.9.2002
1.11.2001
99,0
1.1.2001
99,5
inflacja po wyłączeniu
cen żywności i energii
Rysunek 3. Porównanie inflacji CPI oraz inflacji bazowej skorygowa­
nej o ceny administracyjne, ceny żywności i energii w latach 2001–2012
(miesiąc poprzedni = 100)
Źródło: Na podstawie danych NBP [2013]
W latach 2001–2012 inflacja po wyłączeniu cen żywności i energii (miesiąc
do miesiąca) średnio wynosiła 0,16% i charakteryzowała się mniejszymi wahaniami niż CPI oraz inflacja bez cen administrowanych, co obrazuje bardziej
wygładzona linia na rysunku 3. Odchylenie standardowe wymienionych wyżej
wskaźników wyniosło kolejno: 0,21 p.p., 0,36 p.p., 0,41 p.p. Bez wątpienia
zmienność cen sezonowych ma znaczący wpływ na wartość inflacji CPI. Mniejsze wahania wskaźnika referencyjnego to bardziej stabilny dochód dla inwestora. Należy rozważyć przede wszystkim odchylenia d
­ odatnie, ­ponieważ zgodnie
82
Marta Pszczółkowska
2012
2012
2011
2010
2009
2008
2007
2006
2005
2004
2003
2002
2001
101,4
101,2
101,0
100,8
100,6
100,4
100,2
100,0
99,8
99,6
99,4
99,2
99,0
98,8
2001
z wydanymi listami emisyjnymi, odchylenia ujemne nie będą zmniejszać kosztu
odsetkowego dla emitenta (obligatariusz otrzyma wypłatę w wysokości podanej w liście emisyjnym marży odsetkowej). Gdyby odchylenia ujemne były
uwzględniane, mogłoby dojść do sytuacji, w której inwestor odniósłby stratę.
By móc dokładniej się przyjrzeć kształtowaniu się omawianych wskaźników,
ich wykresy zamieszczono oddzielnie na rysunkach 4 i 5.
Rysunek 4. Inflacja po wyłączeniu cen administro­
wanych w latach 2001–2012
Rysunek 5. Inflacja po wyłączeniu cen żywności
i energii w latach 2001–2012
Źródło: Jak do rysunku 3
2013
2012
2011
2010
2009
2008
2007
2006
2005
2004
2003
2002
101,4
101,2
101,0
100,8
100,6
100,4
100,2
100,0
99,8
99,6
99,4
99,2
99,0
98,8
2001
Źródło: Jak do rysunku 3
83
Analiza alternatywnych wskaźników indeksacji obligacji skarbowych
Przedstawione typy inflacji bazowej różnią się skalą odchyleń oraz momentem ich występowania, co miałoby wpływ na wysokość płaconych odsetek. Maksymalna miesięczna zmiana cen (bez cen administrowanych)
w analizowanym okresie miała miejsce w maju 2004 roku i była równa 1,2%.
W tym czasie inflacja bez cen sezonowych wynosiła 1,04%, a jej najwyższa
wartość (1,1%) została zanotowana na początku badanego okresu (w styczniu
2001 roku), kiedy porównywana inflacja była równa 0,4%.
W tabeli 4 zostały porównane szacunkowe odsetki (w złotych) należne od
jednej zakupionej obligacji w pierwszej emisji serii IZ0816 i IZ0823, gdyby
wskaźnikiem referencyjnym były opisywane rodzaje inflacji bazowej oraz
możliwe do osiągnięcia oszczędności z tego tytułu (przy założeniu, że popyt na
te obligacje i ich cena nie uległyby zmianie). Podstawową informacją płynącą
z tego zestawienia jest to, że indeksacja oparta na inflacji po wyłączeniu cen
żywności i energii łączyłaby się z niższymi kosztami dla emitenta w porówTabela 4. Porównanie szacunkowych kosztów odsetkowych przy wskaźniku
referencyjnym opartym na inflacji (CPI), inflacji skorygowanej o ceny
administracyjne i o ceny po wyłączeniu cen żywności i energii w latach
2005–2012 dla pierwszej emisji serii IZ0816 i IZ0823 (z jednej obligacji, w zł)
Data
wypłaty
odsetek
IZ0816
24.08.2005
24.08.2006
24.08.2007
24.08.2008
24.08.2009
24.08.2010
24.08.2011
24.08.2012
IZ0823
25.08.2009
25.08.2010
25.08.2011
25.08.2012
CPI
(A)
CPI bez
cen admi­
nistrowa­
nych
(B)
30,51
30,85
31,67
33,17
34,48
35,2
36,7
38,21
30,45
30,49
31,21
32,47
33,52
34,16
35,51
36,74
28,59
29,19
30,42
31,68
28,39
28,93
30,06
31,12
CPI
bez cen
A–B
żywności
i energii
(C)
Data przetargu: 8.08.2004
0,06
30,35
0,36
30,34
0,46
30,79
0,7
31,5
0,96
32,44
1,04
32,96
1,19
33,75
1,47
34,54
Data przetargu: 13.08.2008
0,2
28,32
0,26
28,77
0,36
29,46
0,56
30,15
Źródło: Na podstawie danych Ministerstwa Finansów i NBP.
A–C
C–B
0,16
0,51
0,88
1,67
2,04
2,24
2,95
3,67
0,10
0,15
0,42
0,97
1,08
1,20
1,76
2,20
0,27
0,42
0,96
1,53
0,07
0,16
0,60
0,97
84
Marta Pszczółkowska
naniu z obecnie stosowanym wskaźnikiem. W kolejnych okresach odsetkowych różnice w dochodzie z jednej obligacji wynoszą od 0,6 zł w pierwszym
roku do 1,47 zł w ósmym roku trwania obligacji IZ0816 (przy CPI bez cen
administrowanych) oraz odpowiednio od 20 do 56 groszy dla IZ0823. Gdyby
wskaźnikiem referencyjnym było CPI bez cen sezonowych, koszt odsetkowy
(w 2012 roku) byłby niższy nawet o 3,67 zł dla IZ0816. Biorąc pod uwagę
wielkość sprzedaży tych instrumentów, oszczędności teoretycznie mogłyby
być istotne. Ze względu na przeprowadzanie dodatkowych przetargów sprzedaży tych serii obligacji w ciągu ich trwania podstawa naliczania odsetek
będzie różna dla każdego okresu odsetkowego. Zbadanie globalnej wielkości
potencjalnych oszczędności wymaga oddzielnego przeanalizowania 23 emisji
i odpowiedniej agregacji wyników.
Założenie o braku zmienności innych parametrów sprzedaży obligacji
może prowadzić do błędnych wniosków. Oprócz wartości kuponu odsetkowego kosztem dla emitenta jest dyskonto od ceny nominalnej sprzedawanej
obligacji. Dlatego należałoby rozważyć, czy w odpowiedzi na zmniejszenie
wartości odsetek (w wyniku zmiany wskaźnika referencyjnego) inwestorzy
będą oczekiwali wyższego dyskonta w porównaniu z poprzednim (w pierwszej
emisji IZ0816 dyskonto dla jednej obligacji wyniosło 95,90 zł, a dla IZ0823
– 32,42 zł).
4. Wzrost gospodarczy
Indeksacja oprocentowania obligacji oparta na wskaźniku wzrostu PKB była
popularna w krajach rozwijających się (emerging markets). Charakteryzują
się one wyższym wzrostem gospodarczym niż kraje rozwinięte, ale również
wyższym ryzykiem inwestycyjnym [IMF 2004, s. 10]. Szczególną zaletą dla
państwa emitującego takie obligacje jest ochrona przed pogłębiającymi się
problemami finansowymi w razie spowolnienia czy też kryzysu gospodarczego. Gdy sytuacja gospodarcza pogarsza się, ryzyko dla inwestora rośnie,
dlatego koszt pozyskania kapitału jest wyższy, co dodatkowo obciąża budżet
państwa i często wywołuje konieczność dalszego zadłużania się w celu spłaty
wysokich odsetek. Z kolei obligacje indeksowane o wzrost PKB powodują,
że w okresie dobrej koniunktury inwestorzy otrzymują wyższe wynagrodzenie (obligacje są konkurencyjne w stosunku do instrumentów rynkowych),
a w czasie dekoniunktury niższe [IMF, The World Bank 2002].
Podsumowanie zalet i wad zastosowania wzrostu gospodarczego jako
wskaźnika indeksacji zostało zaprezentowane w tabeli 5.
Analiza alternatywnych wskaźników indeksacji obligacji skarbowych
85
Tabela 5. Zalety i wady wykorzystania wskaźników opartych na wzroście
gospodarczym jako indeksów referencyjnych z punktu widzenia emitenta
i inwestora
Wyszczególnienie
Zalety
Wady
Emitent
––mniejsze obciążenie dla budżetu ––wysoki koszt obsługi długu
w okresie recesji
w okresie rosnącej koniunktu––zapewnienie konkurencyjności
ry w porównaniu z pozostałymi
obligacji wobec instrumentów
wskaźnikami
finansowych emitowanych przez
podmioty prywatne w okresie
hossy
Inwestor
––możliwość bezpiecznej alokacji ––brak alternatywnej formy inśrodków przy konkurencyjnym
westycji w przypadku słabnądochodzie w czasie hossy
cej koniunktury (rentowność
instrumentów emitowanych zarówno przez podmioty prywatne, jak i przez publiczne spada)
––obawa przed manipulacją
wskaźnikiem
––niezrozumienie formuły naliczania odsetek
Źródło: Na podstawie: [Fischer 1982; Barro 2003; IMF, The World Bank 2002; IMF 2004; ECB 2007].
Produkt krajowy brutto jest wskaźnikiem często wykorzystywanym do
oceny sytuacji gospodarczej państwa. W zależności od potrzeb informacyjnych wyodrębnionych zostało kilka postaci tego wskaźnika, w tym:
–– PKB surowy,
–– PKB wyrównany sezonowo,
–– PKB według cen bieżących,
–– PKB według cen stałych,
–– PKB potencjalny.
Na rysunku 6 przedstawiono, jak kształtowała się w Polsce dynamika PKB
(na podstawie danych wyrównanych sezonowo) i inflacja mierzona wskaźnikiem cen towarów i usług konsumpcyjnych. Rozbieżności ich rozkładu
wskazują, że należy się spodziewać różnić w kosztach odsetkowych przy
ich zastosowaniu jako wskaźników odniesienia. Gdy inflacja jest wyższa od
dynamiki PKB, wypłacane odsetki obliczone na podstawie wskaźnika CPI
w odpowiednim okresie, który jest warunkowany tą zmianą wskaźników,
będą wyższe, niż gdyby wskaźnikiem referencyjnym była dynamika PKB.
W analizowanym okresie maksymalna różnica między tymi parametrami
wynosiła ok. 1,5 p.p. W przypadku szeregu surowego PKB odchylenia w po-
86
Marta Pszczółkowska
102
101
100
99
I II III IV I II III IV I II III IV I II III IV I II III IV
2008
2009
2010
2011
kwartały
2012
PKB (szereg wyrównany sezonowo)
inflacja CPI
Rysunek 6. Dynamika realna produktu krajowego brutto (ceny stałe,
rok odniesienia 2005) i inflacji CPI (okres poprzedni = 100) w latach
2008–2012
Źródło: Na podstawie danych GUS, www.stat.gov.pl [dostęp: 30.04.2013]
szczególnych kwartałach były jeszcze wyższe. Wyniki porównawcze wartości
odsetek zostały zawarte w tabeli 6.
Dane dotyczące PKB są podawane kwartalnie, dlatego w celu obliczania
współczynnika indeksacji, a na jego podstawie odsetek, dokonana została
modyfikacja wzoru podanego w p. 1.1. Przy miesięcznych danych o inflacji
opierał się on na różnicy między wskaźnikiem dla miesiąca o dwa miesiące
poprzedzającego miesiąc wypłaty odsetek a wskaźnikiem o trzy miesiące poprzedzającym ten miesiąc. W analizowanym przypadku odsetki są wypłacane
w połowie III kwartału, dlatego obliczenia zostały przeprowadzone na bazie
różnicy między wskaźnikiem PKB dla kwartału II i kwartału I.
Na podstawie obliczonych odsetek w tabeli 6 można zauważyć, że wahania
koniunktury znacząco mogą zmienić koszt obsługi długu. W sytuacji wzrostu
gospodarczego emitentowi bardziej opłacałoby się emitować obligacje indeksowane o wskaźnik inflacji (przy wypłacie odsetek w 2007 roku oszczędzałby
nawet ponad 6 zł na jednej obligacji w porównaniu z indeksacjią o PKB surowe). Natomiast przy spadku koniunktury lepiej byłoby posiadać zobowiązania z tytułu obligacji indeksowanych o dynamikę PKB, ponieważ koszty
odsetek nie obciążają tak budżetu państwa. Zależnie od innych warunków
emisji, jak minimalna wartość wypłacanych odsetek, zmniejszenie kosztów
będzie różne. Wyrównanie dynamiki PKB o efekt sezonowości zmniejszy
rozbieżność między kosztami odsetkowymi indeksowanymi o ten wskaźnik
a indeksowanymi o wskaźnik CPI.
87
Analiza alternatywnych wskaźników indeksacji obligacji skarbowych
Tabela 6. Porównanie szacunkowych kosztów odsetkowych przy wskaźniku
referencyjnym opartym na inflacji CPI i stopie wzrostu PKB w latach 2005–
2012 dla pierwszej emisji serii IZ0816 i IZ0823 (z jednej obligacji, w zł)
Koniec
okresu
odsetko­
wego
IZ0816
24.08.2005
24.08.2006
24.08.2007
24.08.2008
24.08.2009
24.08.2010
24.08.2011
24.08.2012
IZ0823
25.08.2009
25.08.2010
25.08.2011
25.08.2012
CPI
(A)
Dynamika
PKB (szereg
wyrównany
sezonowo)*
(B)
30,51
30,85
31,67
33,17
34,48
35,2
36,7
38,21
–
–
–
–
30,39
31,45
32,94
33,85
28,59
29,19
30,42
31,68
27,85
28,83
30,2
31,03
Dynamika
PKB (sze­
reg surowy
A–B
w cenach
bieżących)
(C)
Data przetargu: 8.08.2004
31,99
34,13
37,87
26,02**
4,09
27,23**
3,75
28,55**
3,76
30,64
4,36
32,39
Data przetargu: 13.08.2008
0,74
24,97**
0,36
26,19**
0,22
28,11
0,65
29,71
A–C
C–B
–1,48
–3,28
–6,2
7,15
7,25
6,65
6,06
5,82
–3,16
–2,90
–2,30
–1,46
3,62
3,00
2,31
1,97
–2,88
–2,64
–2,09
–1,32
* Dynamika realna produktu krajowego brutto (ceny stałe, rok odniesienia 2005) przy podstawie kwartał poprzedni = 100.
** Odsetki teoretyczne. Zgodnie z zapisami listów emisyjnych, minimalne odsetki dla serii IZ0816 wynoszą 30 zł, a dla serii IZ0823 – 27,5 zł. Jeżeli z formuły obliczeń wynikają mniejsze wartości, emitent jest
zobowiązany do wypłaty wskazanych wartości minimalnych.
Źródło: Na podstawie danych Ministerstwa Finansów i GUS.
Obligacje indeksowane mogą być długoterminowe, stąd należałoby
uwzględniać zarówno zmniejszenie odsetek w okresie recesji, jak i ich zwiększenie w okresie boomu gospodarczego. Dostępne do porównań dane nie
obejmują pełnego cyklu gospodarczego. Przy ocenie wykorzystania wymienionych wskaźników odniesienia należy uwzględnić to, że w analizowanym
okresie wystąpił silny kryzys finansowy, tym samym znaczny spadek PKB, co
miało wpływ na niskie wartości odsetek. Ponadto oferowana gwarantowana
stawka odsetek powoduje, że koszty będą wyższe niż wynikające z obliczeń.
W ostatnich latach coraz bardziej popularną miarą produktu krajowego
brutto staje się jego wymiar potencjalny, czyli wielkość produkcji, którą
88
Marta Pszczółkowska
gospodarka jest w stanie wytworzyć w długim okresie przy istniejących
czynnikach wytwórczych. Jest ona publikowana i prognozowana w okresach
rocznych.
Podsumowanie
Przedstawiona analiza pokazała, że koszty odsetkowe z tytułu obligacji indeksowanych są bardzo wrażliwe na zmiany wskaźników referencyjnych.
W ekstremalnym momencie różnica wypłacanych odsetek sięgała nawet 20%
kwoty odsetek przy obecnie stosowanym wskaźniku referencyjnym (CPI), co
po uwzględnieniu wolumenu sprzedaży obligacji nominalnie mogłoby sięgać
kilku milionów złotych. Ze względu na brak danych powyższa analiza nie
obejmuje całego cyklu koniunkturalnego, co szczególnie wpływa na analizę
indeksacji o wskaźnik PKB. Na podstawie przedstawionych danych możliwa
jest tylko analiza historyczna (jaka byłaby wysokość odsetek, gdyby w danym
okresie została zastosowana indeksacja o inny wskaźnik).
W tabeli 7 analizowane wskaźniki zostały uszeregowane pod względem
średnich (w opisywanym okresie) kosztów odsetkowych, które w danym okresie musiałby ponieść emitent. Przedstawiona hierarchia jest wiążąca tylko dla
wskazanego okresu, ponieważ zmiana danych gospodarczych może zmienić
wszystkie wartości. Najniższe średnie koszty w tym okresie niosłaby indeksacja
o dynamikę PKB w cenach bieżących, niewyrównaną o efekt sezonowości, co
wynika z wystąpienia w analizowanym okresie znacznego spadku koniunktury
Tabela 7. Porównanie teoretycznych średnich wypłat odsetkowych
przy analizowanych wskaźnikach referencyjnych
Wskaźnik referencyjny
Dynamika PKB (szereg surowy
w cenach bieżących)
CPI bez cen sezonowych
Dynamika PKB (szereg wyrównany sezonowo)
CPI bez cen administrowanych
CPI
Źródło: Obliczenia własne.
Średni koszt odsetek
w latach 2005–2012
z jednej obligacji
dla IZ0816 (w zł)
Średni koszt odsetek
w latach 2009–2012
z jednej obligacji
dla IZ0823 (w zł)
31,1025
32,083
27,245
29,175
32,1575
33,068
33,848
29,4775
29,625
29,97
Analiza alternatywnych wskaźników indeksacji obligacji skarbowych
89
związanego z globalnym kryzysem finansowym. Ze względu na tak szczególne
warunki gospodarcze obecnie stosowane rozwiązanie (indeksacja o CPI) jest
związana z najwyższymi kosztami odsetkowymi.
Wybór indeksu, na podstawie którego koszty odsetkowe będą najniższe, nie
musi prowadzić do minimalizacji kosztów obsługi długu. Niski oczekiwany
kupon może się przekładać na zwiększone dyskonto przy zakupie obligacji.
Inwestorzy, chcąc osiągnąć wymagany przez siebie poziom rentowności, na
przetargu będą oferować niższe ceny. Ponadto popyt może być niewystarczający w stosunku do wielkości oferty sprzedaży, tym samym nie będzie możliwe
pozyskanie taniego kapitału.
W celu zwiększenia zainteresowania inwestorów, w liście emisyjnym takich
obligacji często dodawana jest gwarancja wypłaty określonego poziomu odsetek, mimo że z wyliczeń może wynikać wartość niższa. W ten sposób można
określić minimalne koszty ponoszone przez emitenta. W rozwiązaniach stosowanych obecnie nie istnieje ograniczenie kosztów od góry.
Obligacje indeksowane, mimo że znane na świecie od XVIII wieku i rekomendowane przez ekonomistów, nie są popularne na polskim rynku. Formuła
dokonywania indeksacji jest kluczowym aspektem ponoszonych kosztów,
w tym wybór wskaźnika referencyjnego i schemat obliczeń. Najczęściej stosowane są wskaźniki odnoszące się do inflacji oraz wzrostu gospodarczego.
Jednak ze względu na wiele ich modyfikacji gama tych wskaźników jest szeroka, a ich najlepsze dopasowanie (minimalizujące koszty i zapewniające popyt
na obligacje) może stanowić trudność.
Bibliografia
Barro, R., 2003, Optimal Management of Indexed and Nominal Debt, Annals of Economics and Finance, vol. 4, s. 1–15, http://ftp.aefweb.net/AefArticles/aef040101.
pdf [dostęp: 2.05.2013].
Borensztein, E., Maurol, P., 2002, Reviving the Case for GDP-indexed Bonds, IMF Policy
Discussion Paper, no. 02/10, http://www.iadb.org/res/centralbanks/ publications/
cbm34_165.pdf [dostęp: 10.05.2013].
ECB, 2007, Inlation-linked Bonds from a Central Bank Perspective, European Central
Bank, Occasional Paper Series, no. 62/June, http://www.ecb.int/pub/scientific/
ops/date/html/opsall.en.html [dostęp: 10.05.2013].
Fischer, S., 1982, Welfare Aspects of Government Issue of Indexed Bonds, NBER Working Paper, no. 874, http://www.nber.org/papers/w0874 [dostęp: 10.05.2013].
90
Marta Pszczółkowska
Gruszczyńska-Brożbar, E., 2002, Giełdowa alokacja kapitałów pieniężnych, Wydawnictwo Akademii Ekonomicznej w Poznaniu, Poznań.
IMF, The World Bank, 2002, Guidelines for Public Debt Management: Accompanying
Document, www.imf.org/external/np/mae/pdebt/2002/eng/pdf/112102.pdf [dostęp: 13.01.2012].
IMF, 2004, Sovereign Debt Structure for Crisis Prevention, http://www.imf.org/external/
np/res/docs/2004 /070204.pdf [dostęp: 10.05.2013].
Ministerstwo Finansów, 2004, List emisyjny nr 29/2004, http://www.finanse.mf.gov.
pl/pl/dlug-publiczny/bony-i-obligacjehurtowe/wyszukiwarka-listow-emisyjnych
[dostęp: 17.05.2012].
Ministerstwo Finansów, 2008, List emisyjny nr 28/2008, http://www.finanse.mf.gov.
pl/pl/dlug-publiczny/bony-i-obligacjehurtowe/wyszukiwarka-listow-emisyjnych
[dostęp: 17.05.2012].
Ministerstwo Finansów, 2012, Strategia zarządzania długiem sektora finansów publicznych w latach 2013–2016, Warszawa, http://www.finanse.mf.gov.pl/dlugpubliczny/
publikacje/strategie- zarzadzania-dlugiem [dostęp: 10.03.2013].
NBP, 2013, Szeregi czasowe miar inflacji bazowej w ujęciu miesięcznym, http://www.
nbp.pl/home.aspx?f=/statystyka/bazowa/bazowa.htm [dostęp: 30.04.2013].
Pflueger, C.E., Viceira, L.M., 2011, Inflation-indexed Bonds and the Expectations Hypothesis, NBER Working Paper, no. 16903, http://www.nber.org/papers/w16903
[dostęp: 10.05.2013].
Price, R., 1997, The Rationale and Design of Inflation-indexed Bonds, IMF Working
Paper, no. 97/12, http://www.imf.org/external/pubs/ft/wp/wp9712.pdf [dostęp:
10.05.2013].
Ustawa z dnia 27 sierpnia 2009 roku o finansach publicznych, Dz.U. nr 157, poz. 1240.
STUDIA OECONOMICA POSNANIENSIA
2014, vol. 2, no. 2 (263)
Jadwiga Borucka
Warsaw School of Economics, Institute of Statistics and Demography,
Event History and Multilevel Analysis Unit
[email protected]
METHODS FOR HANDLING TIED EVENTS
IN THE COX PROPORTIONAL HAZARD
MODEL
Abstract: The Cox proportional hazard model is one of the most common methods used
in time to event data analysis. The model is based on several restrictive assumptions one
of which concerns tied events, i.e. events with exactly the same survival time. If time were
measured in a perfectly continuous scale, such cases would never occur. In real applications time is usually measured in a discrete manner which results in the existence of ties
in most survival data. However, if this assumption is violated, it should not necessarily
prevent analysis by using the Cox model. The current paper presents and compares five
ways proposed for handling tied events. On the basis of the calculations performed it can
be stated that exact expression and the discrete model give the best results in terms of fit
statistics; however, they are the most time-consuming. Efron and Breslow approximations
are much faster but result in worse model fit. In the case analysed the Efron method seems
to be the best choice, taking into account differences in parameters estimates, fit statistics
and calculation time. What is more, a simple method based on subtracting a tiny random
value from each tied survival time performed surprisingly well; both in terms of parameter
estimates compared with the exact expression, as well as fit statistics. In general, in the case
of large datasets and/or a large number of ties, if estimation precision is not as important
as estimation time, Breslow or – more preferably – Efron approximations might be used.
However, if time is not limited, one should consider choosing an exact method or discrete
model that can provide better fit statistics and more efficient parameter estimates.
Keywords: Cox model, tied events, applied survival analysis, partial likelihood function.
JEL Classification: C13, C14.
92
Jadwiga Borucka
METODY ESTYMACJI MODELU PROPORCJONALNYCH
HAZARDÓW COXA W WYPADKU WYSTĘPOWANIA ZDARZEŃ
POWIĄZANYCH
Streszczenie: Model proporcjonalnych hazardów Coxa jest jedną z najczęściej wykorzystywanych metod w analizie czasu przeżycia. Jest oparty na kilku restrykcyjnych założeniach;
jedno z nich dotyczy występowania tzw. zdarzeń powiązanych, tzn. zdarzeń zaobserwowanych dokładnie w tym samym momencie. Gdyby czas był mierzony w sposób ciągły,
taka sytuacja nie miałaby miejsca. W zastosowaniach praktycznych jednakże czas jest
zazwyczaj mierzony w sposób dyskretny, co skutkuje występowaniem zdarzeń powiązanych
w większości zbiorów wykorzystywanych w analizie czasu przeżycia. Niemniej jednak,
odchylenie od tego założenia nie musi stanowić przeszkody w stosowaniu modelu Coxa.
Niniejszy artykuł prezentuje pięć sposóbów proponowanych w literaturze dla zbiorów
zawierających zdarzenia powiązane. Na podstawie przeprowadzonych obliczeń można
stwierdzić, że metoda exact oraz model dyskretny dają najlepsze rezultaty pod względem
statystyk dopasowania, jednakże są najbardziej czasochłonne. Przybliżenia Breslowa
i Efrona pozwalają otrzymać oszacowania znacznie szybciej, ale skutkują gorszą jakością
dopasowania modelu. W rozważanym przykładzie przybliżenie Efrona jest najlepszym
wyborem, biorąc pod uwagę różnice w oszacowaniach parametrów, statystyki dopasowania
modelu oraz czas obliczeń. Ponadto prosta metoda oparta na odjęciu od każdej wartości
zmiennej czasowej pośród zdarzeń powiązanych niewielkiej wartości wylosowanej z rozkładu jednostajnego, daje zaskakująco dobre wyniki zarówno pod względem oszacowań
parametrów, jak i statystyk dopasowania modelu. Ogólnie rzecz biorąc, w przypadku
dużych zbiorów i/lub dużej liczby zdarzeń powiązanych, jeśli precyzja estymacji nie jest
priorytetem, a ważniejszy jest czas obliczeń, przybliżenia Breslowa lub Efrona mogą być
wykorzystane. Jednakże jeśli czas nie jest ograniczony, warto rozważyć wybór metody exact
lub modelu dyskretnego, które umożliwiają otrzymanie lepszych statystyk dopasowania
modelu oraz wyższej efektywności oszacowań parametrów.
Słowa kluczowe: model Coxa, zdarzenia powiązane, analiza czasu przeżycia, funkcja
częściowej wiarygodności.
Introduction
The Cox proportional hazard model is one of the most common methods
used in time to event data analysis. The idea of the model is to define hazard
level as a dependent variable which is being explained by the time-related
component (so called baseline hazard) and covariate-related component. The
model is defined as follows:
h(t, x, β) = h0(t) exp(βx),
where:
h(t, x, β) – hazard function that depends on timepoint t and vector of
covariates x,
Methods for Handling Tied Events in the Cox Proportional Hazard Model
93
h0(t) – baseline hazard function that depends on time only,
exp(βx) – covariate-related component,
β – vector of parameter estimates.
The model is based on several restrictive assumptions one of which concerns tied events, i.e. events with exactly the same survival time. This assumption is directly related to the method of Cox model estimation. The parameter
estimates are obtained through the use of the maximum likelihood method, as
suggested by Cox [1972]. Assuming a simple model for one event with right
censoring, including a single covariate and using the following relationship
between the probability density function of the time variable, hazard function
and survival function:
f (t, x, β) = h(t, x, β) ∙ S(t, x, β)
the likelihood function for Cox model can be derived as follows [Hosmer &
Lemeshow 1999]:
l (β ) =
∏{h(t i , x i , β)
n
i =1
ci
1−ci
S (t i , x i , β )
},
where:
l(β) – likelihood function depending on parameter β,
i = 1, 2, …, n – observations ordered by time (actual or censored),
h(ti, xi, β) – hazard function at timepoint ti for subject with covariate
value xi,
S(ti, xi, β) – survival function at timepoint ti for subject with covariate
value xi,
ci – censoring indicator (equal to 1 if subject experienced the
event and 0 if subject is censored).
After taking the logarithm and doing certain transformations the following expression is obtained:
n
∑{ci ln h0 (ti ) + ci xi β + e x β ln S0 (t i )}.
L(β ) = i
i =1
The full likelihood function as defined above requires maximization with
respect to the parameter β as well as to the baseline hazard function which
94
Jadwiga Borucka
is unspecified. Cox [1972] suggests using an alternative expression, called by
him the partial likelihood function, which depends on the parameter β only.
He argues that the estimation of parameter β obtained through the use of the
function proposed by him should have the same properties as one that would
result from the full likelihood function. This thesis is proved in Andersen et al.
[1993] as well as Fleming and Harrington [1991]. The approach presented by
Cox leads to the following formula for the partial likelihood function:
l p ( β) =
c
n
∏
i =1

 i
xi β
e


x β ,

e j 


 j∈R(ti )

∑
where R(ti) – risk set at timepoint ti, which can also be rewritten, taking into
account only non-censored observations, as follows:
l p (β ) =
m
e xi*β
∏
i =1
∑
e
x jβ
,
j∈R(ti * )
where:
lp(β) – partial likelihood function depending on parameter β,
i = 1, 2, …, n – non-censored observations ordered by time (actual),
ti * – survival time of ith subject who experienced the event.
The above formula results in the following form for the logarithm of partial
likelihood function:
L p (β ) =



xjβ 



x
β
−
ln
e
 i*
 j∈R(ti* )

i =1 



m
∑
∑
and – after differentiating with respect to β [Hosmer & Lemeshow 1999]:


m
∂L p ( β)

=  xi * −
∂β
i =1 

∑
∑
x je
xjβ 


=
xj
e β 

j∈R(ti * )
j∈R(ti * )
∑


wij ( β)x j  =
 xi * −

i =1 
j∈R(ti * )

m
∑
∑
=
m
∑{xi* − xw },
i =1
i
Methods for Handling Tied Events in the Cox Proportional Hazard Model
95
where:
wij ( β) = e
x jβ
∑
l∈R(ti * )
e xl β
and
xwi =
∑
j∈R(ti * )
wij ( β)x j .
On the basis of the equation above it can be seen that the order of events
does matter: each subject who experiences the event has their own contribution to the partial likelihood function which includes summing up some expressions for all the subjects who are at risk at the moment at which the event
for this particular subject is being observed. Let us say there are two subjects
A and B experiencing an event at exactly the same time. In such a situation
it is not clear whether subject A should be considered as being at risk while
subject B is experiencing the event and vice versa. Thus, the partial likelihood
function defined as above assumes that there are no tied events among the
observations. If time were measured in a perfectly continuous scale, such cases
would never occur and a proper ordering of events would not be a problem. In
fact, in most applications, time is being measured in a discrete manner which
results in the existence of ties in most survival data. However, even if the assumption of lack of tied events is violated, it does not exclude the Cox model
as a potential tool in an analysis of time to event data, although deviation
from the assumption should not be neglected. So far there have been several
methods developed to handle tied events in proportional hazard models. The
next section of the current paper presents a theoretical background for four
of them: the Breslow approximation, the Efron approximation, Kalbfleisch
and Prentice exact expression, as well as the discrete model. Additionally,
a simple alternative method based on subtracting tiny random value from
each tied survival time is described. In the subsequent part of the article, these
methods are implemented in practice and compared in terms of differences
in parameter estimates, efficiency of parameters estimates, fit statistics and
computational time.
1. Handling tied events – theoretical background
In order to take into account tied events in Cox model estimation it is necessary to adjust the partial likelihood function appropriately. As Kalbfleisch
and Prentice [2002] argue, the most natural way to do this is to consider all
possible orders of event occurrences for subjects having the same survival
96
Jadwiga Borucka
time. Their idea can be described as follows by assuming there are m distinct
observed survival times ordered as follows: t1 < … < tm and that di events happen at ti, where i = 1, 2, …, m. Furthermore, Kalbfleisch and Prentice define
D(ti ) = {i1 , …, idi } as the set of labels of failing observations at ti. Taking Qi as
the set of di! permutations for di events observed at ti, P is one element of Qi
( p1, , …
and is defined as PP==( p
…,, pdi ) and finally R(ti, P, k) = R(ti) – {p1, …, pk–1}.
Then, each subject with an observed survival time equal to ti has a contribution to the partial likelihood function equal to:
1 xi + β
e
di !
P∈Q
−1


e xl β  ,

l∈R(ti , P , k )
k =1 

di
∑∏
i
where xi + =
∑
di
∑ x j , which results in the following formula for the partial likelij =1
hood function:
l (β ) =
m
∏
i =1
e xi + β


x β

e j 

k =1 
 j∈R(ti , P , k )

di
∑∏
P∈Qi
.
∑
Maximization of the function defined as above might be time-consuming,
especially in the case of a large number of ties. This fact led to the derivation
of some approximate expressions for the partial likelihood function. One of
them is presented by Breslow [1975] who suggests summing up covariaterelated components for all subjects experiencing the event at a given timepoint
ti and raising the result to a power equal to the number of events tied at ti.
The partial likelihood function that uses this approach is defined as follows:
l( β) =
m
∏
i =1
e xi + β

x β

e j 
 j∈R(ti )



∑
di
.
However, if the number of tied events for any timepoint is relatively large, this
method might not give a good approximation of the partial likelihood function as defined by Kalbfleisch and Prentice. An alternative suggestion comes
Methods for Handling Tied Events in the Cox Proportional Hazard Model
97
from Efron [1977]. According to his idea, the partial likelihood function can
be approximated as follows:
l(β ) =
m
∏
i =1
e xi+ β


x β k −1
x β

e j −
e j 


di j∈D (t )
k =1  j∈R(ti )
i

di
∏ ∑
.
∑
As Kalbfleisch and Prentice point out, obtaining parameter estimates on
the basis of the above defined approximation is not particularly complicated;
however, the estimators resulting from Efron and Breslow approximations
might be biased. What is more, estimator of the variance of parameter β̂ is
not consistent [Kalbfleisch & Prentice 2002]. On the basis of numerous calculations it has been shown that the Breslow method causes severe bias for
datasets with large fraction of di /ni, where ni is the number of subjects at risk
at ti; while Efron approximation and exact expression still perform well, even
if number of ties is high. If the number of tied events is very small, all three
methods give very similar results. For datasets with no ties, all methods lead
to exactly the same results.
As an alternative for approximations of the partial likelihood function,
applicable especially for datasets with a large number of ties (which might
suggest the fact that tied events do not result from insufficient precision in
time measurement but rather from the discrete character of the time variable),
one can consider choosing the approach suggested by Cox [1972], i.e. using
a discrete logistic model defined as follows:
h(t , x , β)
h (t ) xβ
= 0
e .
1 − h(t , x , β ) 1 − h 0 (t ) Kalbfleisch and Prentice provide a generalization of the partial likelihood
function applicable to the model defined above. It enables a calculation of the
probability that, given the risk set at timepoint ti and the number of events di
occurring at this timepoint, the events will be experienced by exactly these
subjects who have an observed survival time equal to ti. The conditional probability is given by [Kalbfleisch & Prentice 2002]:
m
∏
i =1
e xi + β
∑
j∈Rd (t )
i i
e xi + β
,
98
Jadwiga Borucka
where Rd (t ) constitutes the set of all possible subsets including exactly di
i i
distinct subjects selected out of units who are at risk at ti, denoted as R(tj).
The methods described above are usually mentioned in the literature as
far as the handling of tied events in the Cox model is concerned. As a simple
alternative, there is another way proposed in the current paper. The method
itself is suggested by Hosmer and Lemeshow [1999] as the way to break ties
for the purpose of non-parametric survival function estimation. The idea is
to subtract a tiny random value from each tied survival time. In this way, tied
events will be uniquely ordered with respect to each other but their position
in relation to all remaining observations remains unchanged. Hosmer and
Lemeshow argue that this solution has no effect when estimating the survival
function as the estimate for the last tied event at ti is exactly the same as if it
were calculated for all ties at ti considered simultaneously. They do not analyse
however the utility of this method in terms of breaking ties in the Cox model.
In the current paper, the idea of this method is being applied for a Cox model
where tied events cannot be neglected due to partial likelihood function requirements. In order to break ties, a random value from the uniform distribution defined at the interval [0, 0.001] is subtracted from each tied observed
survival time. In this case, it does not matter which version of the partial
likelihood function is being used (Efron, Breslow or exact expression) as all
of them lead to the same results if there are no ties among the observations.
2. Methods of tied events handling – application and results
As has been mentioned, the main aim of the present paper is to compare
five methods described above in terms of parameter estimates, efficiency of
estimators, fit statistics, as well as computational time. In order to do this, the
same Cox proportional hazard model was estimated through the use of each
of these methods. Additionally, for each method the estimation was repeated
10 times and the average computational time per method was calculated. The
dataset used for analysis contained artificially generated data including the
following: time variable, censoring indicator and 7 covariates that are consider­
ed as potential explanatory variables in time to event analysis. The dataset
contains 6500 observations, out of which 1700 are censored. The number of
ties is relatively high: there are 31 distinct observed survival times, their counts
ranging from 100 to 500. Due to the fact that the present paper is focused
on the methodology rather than on empirical results, using artificial data is
justified. Parameter estimates are not supposed to be interpreted as the main
Methods for Handling Tied Events in the Cox Proportional Hazard Model
99
aim is to compare the five methods of handling tied events with regard to
the estimator efficiency and fit statistics, thus, the variables in the dataset are
not named directly but are referred to as time variable, censoring indicator
and covariates (or explanatory variables) numbered from 1 to 7. All calculations were performed using the SAS® Base 9.3 module. The SAS code that
enabled the model estimation using all of these methods and to modify the
time variable by subtracting a random value from the uniform distribution is
included in the Appendix. As far as the method based on subtracting a tiny
random value is concerned, the Breslow version of partial likelihood function
was used as in the case of a lack of tied events all approximations lead to the
same results; however, the algorithm for Breslow approximation embedded
in the PHREG procedure is the fastest out of all four methods.
Table 1 presents parameter estimates with p-values and Table 2 standard
errors of parameter estimates obtained through the use of each of five methods
of tied events handling.
There are some visible differences between parameter estimates obtained
through the use of different methods. Efron approximation gives results that
are very close to those generated by exact expression. Estimates from Breslow
Table 1. Parameter estimates for the Cox model
Covariate
Exact
Efron
Breslow
Discrete
Covariate 1
Covariate 2
Covariate 3
Covariate 4
Covariate 5
Covariate 6
Covariate 7
–0.0250
0.0171
–0.1438
0.0811
0.1510
–0.2642
3.8732
–0.0250
0.0171
–0.1438
0.0812
0.1510
–0.2650
3.8692
–0.0248
0.0234
–0.1573
0.0915
0.1707
–0.2700
4.0210
Covariate 1
Covariate 2
Covariate 3
Covariate 4
Covariate 5
Covariate 6
Covariate 7
< 0.0001
< 0.0001
< 0.0001
0.101
< 0.0001
< 0.0001
< 0.0001
< 0.0001
< 0.0001
< 0.0001
0.1004
< 0.0001
< 0.0001
< 0.0001
–0.0230
0.0198
–0.1394
0.0915
0.1479
–0.2636
3.6705
p-value
< 0.0001
< 0.0001
< 0.0001
0.0617
< 0.0001
< 0.0001
< 0.0001
Random
value
–0.0250
0.0170
–0.1437
0.0812
0.1512
–0.2648
3.8672
< 0.0001
< 0.0001
< 0.0001
0.0791
< 0.0001
< 0.0001
< 0.0001
< 0.0001
< 0.0001
< 0.0001
0.0804
< 0.0001
< 0.0001
< 0.0001
Source: Own calculation.
100
Jadwiga Borucka
Table 2. Standard errors of parameter estimates for the Cox model
Covariate
Exact
Efron
Breslow
Discrete
Covariate 1
Covariate 2
Covariate 3
Covariate 4
Covariate 5
Covariate 6
Covariate 7
0.0016
0.0042
0.0075
0.0495
0.0094
0.0552
0.1410
0.0016
0.0041
0.0075
0.0495
0.0094
0.0552
0.1409
0.0016
0.0041
0.0074
0.0490
0.0092
0.0547
0.1389
0.0017
0.0044
0.0078
0.0521
0.0098
0.0570
0.1475
Random
value
0.0016
0.0041
0.0075
0.0495
0.0094
0.0552
0.1408
Source: Own calculation.
approximation seem to give underestimations for five out of seven variables,
as compared with exact expression or the Efron method. This observation is
in accordance with the conclusions drawn by Hertz-Picciotto and Rockhill
[1977] who also indicate a tendency for Breslow approximation to underestimate parameters in the Cox model. The discrete model tends to give higher
absolute values for parameter estimates (with the exception of covariate 7).
In this case, however, it should be noted that the discrete model is based on
a different likelihood function than the Cox proportional hazard model which
uses a partial likelihood function (with potential modification such as exact expression, the Breslow or Efron approximation), thus the parameters obtained
from these models do not have exactly the same interpretation [Kalbfleisch &
Prentice 2002]. The results obtained through the use of random value methods
do not represent any systematic pattern, as some estimates are higher than for
exact expression and some are lower; however, parameter estimates are very
close to those coming from the Efron or exact method. What is interesting,
is the fact that differences between the parameters obtained through the use
of exact expression and the random value method are in most cases lower
than the differences between parameters coming from the exact method,
Breslow approximation or the discrete model, which might indicate that
simply subtracting a tiny random value might even give better results than
some more formal methods of handling tied events. As far as standard errors
are concerned, the results obtained do not differ between the five methods
to a great extent, only the discrete method shows slightly higher errors, but
these differences are not very high. What is worth being mentioned is that the
p‑value for covariate 3 differs between all five methods to the extent that could
even lead to different conclusions concerning the statistical significance of
Methods for Handling Tied Events in the Cox Proportional Hazard Model
101
the covariates, depending on the significance level. Assuming alpha = 0.05 all
methods indicate a lack of significance, however taking alpha = 0.1 we would
have to change this decision on the basis of Breslow, discrete and random value
methods. The results obtained through the use of Breslow approximation gave
the strongest reason for a rejection of the null hypothesis, while those from
the discrete model and random value method are not that obvious.
Additionally, standardized measures of variability, as suggested by Nardi
and ­Schemper [2003] and defined as:
∧
σβ
SV =
| βˆ |
were obtained. They can be used to assess efficiency of parameter estimators.
Their values are presented in Table 3.
Table 3. Standardized measure of variability
Covariate
Exact
Efron
Breslow
Discrete
Covariate 1
Covariate 2
Covariate 3
Covariate 4
Covariate 5
Covariate 6
Covariate 7
0.0657
0.2427
0.0522
0.6098
0.0622
0.2089
0.0364
0.0657
0.2420
0.0522
0.6088
0.0621
0.2081
0.0364
0.0705
0.2056
0.0531
0.5352
0.0623
0.2074
0.0378
0.0685
0.1881
0.0496
0.5694
0.0576
0.2112
0.0367
Random
value
0.0657
0.2432
0.0522
0.6090
0.0621
0.2082
0.0364
Source: Own calculation.
On the basis of the standardized measure of variability, it is hard to interchangeably indicate the best method. What is worth being mentioned is
that the Breslow method gave the highest value for the coefficient the most
often: for four out of seven variables; however, variability is also the lowest
for two variables when the Breslow approximation is applied. The lowest
SV values are displayed by the discrete model in three variables; and in the
random value method, exact expression and Efron approximation – in two
out of seven covariates.
Additionally, fit statistics including doubled negative logarithm of likelihood function as well as the information criteria AIC and SBC were calculated – see Table 4.
102
Jadwiga Borucka
Table 4. Fit statistics
Statistics
-2 LOG L
AIC
SBC
Exact
Efron
Breslow
Discrete
32 187.43
32 201.43
32 246.77
72 707.39
72 721.39
72 766.72
73 424.65
73 438.65
73 483.99
32 098.36
32 112.36
32 157.70
Random
value
72 708.11
72 722.11
72 767.45
Source: Own calculations.
The discrete model guarantees the best values for fit statistics; however,
the difference between the discrete model and exact expression is very slight.1
Breslow and Efron approximations, as well as the random value method, result
in much higher values for fit statistics, even more than twice as much as those
coming from the exact or discrete models. The worst results come from the
Breslow method. What is worth paying attention to is that the random value
method enables not only better results to be obtained as compared with the
Breslow method, but also values that are very close to those coming from
Efron approximation.
Finally, the computational time that was needed to obtain the parameter
estimates through the use of each of the five methods was compared. Estimation was performed by using the SAS PHREG procedure (Table 5; details
concerning the SAS code that was used is included in the Appendix).
Table 5. Computational time (SAS PHREG procedure)
Time
Exact
Efron
Breslow
Discrete
Real Time (sec.)
CPU Time (sec.)
2.984
2.980
0.099
0.092
0.075
0.068
4.191
4.181
Random
value
0.101
0.085
Source: Own calculations.
As was expected, more complicated methods such as exact expression
or the discrete model were the most time-consuming. It took the most time
to estimate the discrete model. Exact expression was faster than the discrete
model but was still considerably slower than Breslow and Efron approximations. Estimation of the model with a partial likelihood based on Breslow
approximation was the fastest, the method subtracting random value from
1
It should be noted that comparisons of statistical fit between the discrete model and other
methods that use a partial likelihood function should be performed with caution, as other
models are based on different likelihood functions.
Methods for Handling Tied Events in the Cox Proportional Hazard Model
103
tied event times was slightly slower, as was the Efron approximation; however,
these differences were very slight. In general, the discrete model and exact
expression provide the best fit statistics but the estimation time needed to use
these methods is visibly higher as compared with other methods. The exact
values of estimation time depend obviously on the computer parameters;
however, using the same equipment to estimate all the models enabled such
comparisons to be performed. It should also be taken into account that the
dataset used in the calculations had only 6500 records and the model contains
7 covariates, thus even the slowest method allows results to be obtained in
a very short period of time. For more complex analysis designs and/or larger
datasets, and/or a larger numbers of tied events, these differences might be
even more visible and as such might constitute a more important factor when
choosing the best methods for a given analysis. In the scientific field, precision
of estimation is usually more important than the time that is needed to get the
results; however, as far as practical applications are concerned, computational
time might also need to be taken into account.
Conclusions
This simple empirical study showed that in the case of a relatively high number
of ties, results obtained through the use of different methods lead to visibly different results. Efron approximation seems to give results that are the closest to
the ones obtained through the use of exact expression as derived by Kalbfleisch
and Prentice. On the other hand, a simple method based on subtracting tiny
random value from each tied survival time provides results that do not differ
from the exact results to a great extent. A comparison of standard errors and
of parameter estimates indicates that the discrete model might be performing
a little worse as compared with other methods. It would be hard, however, to
choose the best method on the basis of standard errors as well as standardiz­
ed measures of variability. In terms of fit statistics, exact expression and the
discrete model are superior when compared with the others. Surprisingly, the
random value method leads to a better fit than Breslow and is comparable
to Efron approximation; however, these differences are not very great. When
it comes to computational time, more sophisticated methods such as exact
expression and the discrete model require substantially longer period of time
to obtain estimates. Breslow and Efron approximations as well as the random
value method took more or less the same time to perform calculations, which
was visibly shorter when compared to exact expression. Considering all the
104
Jadwiga Borucka
statistics analysed, in this instance the Efron method seems to be the best
choice: fit statistics are visibly worse than for the exact or discrete methods;
however, efficiency and the values of parameter estimates are nearly equal to
the results of obtained through the use of the exact method, while the estimation time for the Efron method is remarkably shorter than for the model
with partial likelihood based on the exact expression. What is worth being
mentioned is that the simple random value method seems to be an attractive
alternative here, taking into account the fact that parameter estimates were
very close to those obtained through the use of exact expression, fit statistics
were better than in Breslow approximation and almost equal to the ones obtained through the use of the Efron method, and the very short period of time
needed to perform calculations. In general, in the case of large datasets and/
or a large number of ties, if estimation precision is not extremely important
but the estimation time is, the Breslow method might be used as it guarantees
a relatively short calculation time. Efron approximation, which requires only
a little more time to obtain results and provides a visibly better fit as well as
results that are much closer to the ones coming from exact expression, might
be an even better choice. If time is not that limited and estimation precision
is a more important factor – which should usually be the case in scientific
research – the exact method would be the most desirable one as it provides
a much better fit statistics and higher efficiency of parameter estimates. Exact
expression could also be considered as the best choice due to a construction
that is based on the assumption that every ordering of tied events can happen with exactly the same probability, which is reasonable and ‘the most safe’
approach in the case of ties. Apart from the four methods that are usually
described in the literature in the context of ties in the Cox model, a simple
method based on subtracting a tiny random value from each tied survival
time seems to be an attractive alternative. This method performs surprisingly
well when compared to more formal ways of handling tied events, taking far
less time to perform calculations, thus it might be considered as well, especially for certain preliminary analyses that do not require a strong theoretical
foundation but where results are expected quite quickly.
Methods for Handling Tied Events in the Cox Proportional Hazard Model
105
References
Andersen, P.K., Borgan, Ø., Gill, R.D., Keiding, N., 1993, Statistical Models Based on
Counting Processes, Springer-Verlag, New York.
Breslow, N., 1975, Covariance Analysis of Censored Survival Data, Biometrics, vol. 30,
no. 1, s. 89–99.
Cox, D.R., 1972, Regression Models and Life-Tables, Journal of the Royal Statistical
Society. Series B (Methodological), vol. 34, no. 2, s. 187–220.
Efron, B., 1977, The Efficiency of Cox’s Likelihood Function for Censored Data, Journal
of the American Statistical Association, vol. 72, no. 359, s. 557–565.
Fleming, T.R., Harrington, D.P., 1991, Counting Process and Survival Analysis, John
Wiley & Sons, New York.
Hertz-Picciotto, I., Rockhill, B., 1977, Validity and Efficiency of Approximation Methods
for Tied Survival Times in Cox Regression, Biometrics, vol. 53, no. 3, s. 1151–1156.
Hosmer, D.W., Lemeshow, S., 1999, Applied Survival Analysis. Regression Modelling
of Time to Event Data, John Wiley & Sons, New York.
Kalbfleisch, J.D., Prentice, R.L., 2002, The Statistical Analysis of Failure Time Data,
John Wiley & Sons, New York.
Nardi, A., Schemper, M., 2003, Comparing Cox and Parametric Models in Clinical
Studies, Statistics in Medicine, vol. 22, s. 3597–3610, DOI: 10.1002/sim.1592.
Appendix
/*STEP 1
Modify time variable for tied events by subtracting small value from
uniform distribution [0, 1000]*/
proc sql;
create table dist as select time, count(*) as count
from Tied_events where censor = 1 group by time;
create table Tied_events as select a.*, b.count
from Tied_events as a left join dist as b
on a.time = b.time;
quit;
data Tied_events;
set Tied_events;
if count>1 and censor = 1 then time_mod = time-ranuni(1234)/1000;
else time_mod = time;
run;
/*STEP 2
Estimation*/
/*Exact expression: option ties = exact*/
ods output ParameterEstimates = est_ex FitStatistics = fit_ex;
106
Jadwiga Borucka
proc phreg data= Tied_events;
model Time*Censor(0) = Age Ind1 Ind2 Ind3 Ind4 Ind5 Ind6
/ties = exact;
run;
ods output close;
/*Breslow approximation: option ties = Breslow*/
ods output ParameterEstimates = est_br FitStatistics = fit_br;
proc phreg data= Tied_events;
model Time*Censor(0) = Age Ind1 Ind2 Ind3 Ind4 Ind5 Ind6
/ties = Breslow;
run;
ods output close;
/*Efron approximation: option ties = Efron*/
ods output ParameterEstimates = est_ef FitStatistics = fit_ef;
proc phreg data= Tied_events;
model Time*Censor(0) = Age Ind1 Ind2 Ind3 Ind4 Ind5 Ind6
/ties = Efron;
run;
ods output close;
/*Discrete model: option ties = disctete*/
ods output ParameterEstimates = est_dis FitStatistics = fit_dis;
proc phreg data= Tied_events;
model Time*Censor(0) = Age Ind1 Ind2 Ind3 Ind4 Ind5 Ind6
/ties = discrete;
run;
ods output close;
/*Random value method: modified time variable*/
ods output ParameterEstimates = est_ran FitStatistics = fit_ran;
proc phreg data= Tied_events;
model Time_mod*Censor(0) = Age Ind1 Ind2 Ind3 Ind4 Ind5 Ind6
/ties = Breslow;
run;
ods output close;
STUDIA OECONOMICA POSNANIENSIA
2014, vol. 2, no. 2 (263)
Jan Polowczyk
Uniwersytet Ekonomiczny w Poznaniu, Wydział Gospodarki Międzynarodowej,
Katedra Konkurencyjności Międzynarodowej
[email protected]
ZARZĄDZANIE STRATEGICZNE
JAKO WIELOWYMIAROWA
PRZESTRZEŃ PARADOKSÓW
Streszczenie: Nie ma optymalnych i uniwersalnych strategii, które można byłoby zalecać
przedsiębiorstwom w konkretnych warunkach. Zarządzanie strategiczne jest tym obszarem zarządzania, w którym największe znaczenie ma kreatywność zarządów przedsiębiorstw. Celem artykułu jest przedstawienie złożoności zarządzania strategicznego przy
wykorzystaniu koncepcji paradoksu. Artykuł składa się z czterech części i zakończenia.
W pierwszej części przedstawiono pozycję zarządzania strategicznego jako subdyscypliny zarządzania, w drugiej opisano znaczenie paradoksów, wykorzystując konfucjańską
koncepcję filozoficzną yin i yang. Część trzecia przedstawia zarządzanie strategiczne jako
zbiór paradoksów. Z kolei w części czwartej sformułowano koncepcję wielowymiarowej
przestrzeni paradoksów strategicznych.
Słowa kluczowe: zarządzanie, zarządzanie strategiczne, paradoks.
Klasyfikacja JEL: D01, L2.
STRATEGIC MANAGEMENT AS A MULTIDIMENSIONAL SPACE
OF PARADOXES
Abstract: There are no optimal or universal strategies that could be recommended to
companies in specific conditions. Strategic management is an area of management in
which the creativity of top managers is the most important. The purpose of this paper
is to present the complexity of strategic management using the concept of paradox. The
article consists of four parts, followed by some final remarks. The first part presents the
position of strategic management as a sub-discipline of management. The second part
describes the notion of a paradox by means of the Confucian philosophical concept of
yin and yang. The third part explains strategic management as a set of paradoxes. Finally,
the fourth part formulates the concept of a multidimensional space of strategic paradoxes.
Keywords: management, strategic management, paradox.
108
Jan Polowczyk
Wstęp
Zarządzanie jest nauką praktyczną, w której dominującym względem badawczym jest sprawność w osiąganiu zamierzonych celów [Koźmiński 2008,
s. 227]. Wiedza dotycząca zarządzania ewoluuje wraz z rozwojem cywilizacji, a w szczególności z postępem techniki, który przesądza w dużej mierze
o formach organizacyjnych. Nie umniejszając w niczym rangi zarządzania
jako przedmiotu nauczania akademickiego, należy jednak podkreślić, że nieustannie toczy się dyskusja nad tym, czym jest w istocie zarządzanie.
Wielu autorów traktuje zarządzanie jako połączenie wiedzy i sztuki [Griffin
2005; Mintzberg 2012]. Według H. Mintzberga [2012, s. 29], odkąd F. Taylor
nazwał swoją koncepcję racjonalizacji pracy metodą naukową, „uważaliśmy,
że Święty Graal zarządzania tkwi w nauce i profesjonalizmie”. Niewątpliwie
prace Taylora wywarły wielki wpływ na przemysł w Stanach Zjednoczonych
i Europie. Wiele organizacji, stosując jego zasady, osiągnęło wzrost efektywności. Jednak po wielu dekadach „szukania Świętego Graala przyszedł
moment, by powiedzieć sobie, że zarządzanie nie jest nauką ani zawodem,
lecz praktyką, której można się nauczyć głównie z doświadczenia i która jest
mocno osadzona w kontekście. […] Skuteczne zarządzanie jest […] w większym stopniu sztuką, a w szczególności opiera się na rzemiośle. Sztuka jest
dziedziną olśnień, wizji, które mają charakter intuicyjny. Rzemiosło z kolei
polega na uczeniu się na podstawie doświadczenia – znajdowania rozwiązań
w walce z realnymi problemami” [Mintzberg 2012, s. 27]. Koncepcję zarządzania jako praktyki Mintzberg wpisał w trójkąt, którego wierzchołkami są:
sztuka, rzemiosło i nauka. Sztuka jest źródłem pomysłów i ma siłę integrującą.
Dzięki rzemiosłu, nabywanemu doświadczeniu, powtarzalności i rutynie może
następować ewolucyjne doskonalenie. Z kolei nauka wprowadza porządek
dzięki usystematyzowanej analizie opartej na wiedzy, a przede wszystkim
dąży do ustalenia powiązań przyczynowo-skutkowych i do sformułowania
możliwie stałych reguł postępowania.
Każda organizacja jest unikatowa. Zachowanie menedżera jest uwarunkowane elementami niepowtarzalnymi, szczególnymi dla danego momentu
i w specyficznym otoczeniu. W związku z tym decyzje menedżerskie trafne
w pewnej konkretnej sytuacji, w innych uwarunkowaniach mogą być zupełnie
nieskuteczne. Nie istnieje coś takiego, jak „najlepsza metoda zarządzania”.
Stosowana metoda powinna zależeć od sytuacji [Mintzberg 2012, s. 28–29;
Polowczyk 2008, s. 279–280]. W zawodzie menedżera w większym stopniu niż
w przypadku inżyniera lub lekarza mają znaczenie intuicja, doświadczenie,
kreatywność oraz umiejętność kojarzenia faktów i wykorzystywania okazji.
Zarządzanie strategiczne jako wielowymiarowa przestrzeń paradoksów
109
Trudno sobie wyobrazić dobrego konstruktora czy chirurga, którzy nie ukończyliby specjalistycznych uczelni. Często natomiast podziwiamy menedżerów,
którzy nie spędzili ani jednego dnia w szkole zarządzania.
Podstawowym celem artykułu jest przedstawienie specyfiki i złożoności
zarządzania strategicznego za pomocą koncepcji paradoksu. Artykuł składa
się z czterech części i podsumowania. W pierwszej części przedstawiono
usytuowanie subdyscypliny zarządzania strategicznego w ramach dyscypliny
zarządzania. W części drugiej opisano znaczenie paradoksów, wykorzystując starożytną konfucjańską koncepcję filozoficzną yin i yang. Trzecia część
przedstawia zarządzanie strategiczne jako zbiór paradoksów. Z kolei w części
czwartej zaproponowano koncepcję wielowymiarowej przestrzeni paradoksów
strategicznych.
1. Pozycja zarządzania strategicznego
Zarządzanie strategiczne jest subdyscypliną nauk o zarządzaniu integrującą
wiedzę z różnych dziedzin, w tym przede wszystkim ekonomii, finansów,
marketingu, socjologii, psychologii, antropologii, a także innych. Można zatem powiedzieć, że zarządzanie strategiczne ma charakter interdyscyplinarny
i w związku z tym wymaga różnych teoretycznych perspektyw badawczych.
Zarządzanie strategiczne jest nowoczesną nauką powstałą z zapotrzebowania
praktyki, a w szczególności współczesnych korporacji przemysłowych.
Nie ma jednej powszechnie akceptowanej definicji zarządzania strategicznego, ale wśród badaczy jest ogólne porozumienie co do tego, czym się
zajmuje. R. Nag, D.C. Hambrick i M.J. Chen [2007] sformułowali konsensualną definicję, biorącą pod uwagę różnorodne poglądy, szkoły i podejścia,
w następujący sposób:
Zarządzanie strategiczne zajmuje się ważnymi zamierzonymi i ujaw­
nionymi inicjatywami podjętymi przez zarządy firm w imieniu ich właści­
cieli, wykorzystując posiadane zasoby, ażeby umocnić pozycję firmy w jej
zewnętrznym środowisku, a w tym także poprawić jej wyniki.
Strategia przedsiębiorstwa jest narzędziem komunikacji. Stratedzy firmy,
czyli członkowie zarządu na czele z jego prezesem, muszą mieć pewność,
że interesariusze znają cel organizacji i to, jak będzie realizowany. Strategię
muszą znać niewątpliwie menedżerowie, przedstawiciele handlowi i wszyscy pracownicy. Ponadto strategię powinni znać akcjonariusze, dostawcy,
klienci i inni partnerzy. Oczywiście, nie wszystkie szczegóły strategii muszą
lub powinny być znane wszystkim interesariuszom w jednakowym stopniu.
110
Jan Polowczyk
Władze lokalne powinny znać na przykład skalę inwestycji, a społeczności
lokalne – wiedzieć, jak bardzo wpłynie ona na jakość ich życia.
Niewątpliwie naturalnym oczekiwaniem wobec zarządzania strategicznego jest wskazanie najlepszej strategii, którą można zastosować w danym
przedsiębiorstwie i w konkretnych warunkach otoczenia. Powstaje oczywiste
pytanie, jak definiować najlepszą strategię. Tu przyjmiemy, że najlepsza strategia realizuje w największym stopniu cele zarządu, który z kolei reprezentuje
interesy właścicieli. A zatem najlepsza strategia to taka, która najskuteczniej
realizuje cele właścicieli.
Celem setek milionów małych, rodzinnych firm we wszystkich krajach jest
przede wszystkim utrzymanie godziwego poziomu życia. We współczesnym
świecie decydujące znaczenie mają jednak wielkie korporacje międzynarodowe, które w większości są spółkami giełdowymi. W ich wypadku podstawowym celem jest powiększanie wartości zainwestowanego kapitału, co jest
możliwe tylko wtedy, gdy wartość giełdowa spółki rośnie szybciej niż wartość
akcji innych spółek. Z kolei tempo wzrostu akcji jest wypadkową co najmniej
trzech podstawowych elementów: wzrostu zysku netto na jedną akcję (earnings
per share – EPS), wielkości firmy mierzonej udziałami w rynku (lub wartością
sprzedaży), a także zaufania akcjonariuszy do zarządu, że będzie on zdolny
do zapewnienia zyskowności firmy w przyszłości.
Trzeba pamiętać, że nie ma jedynych, uniwersalnych i zawsze sprawdzających się strategii. Historia biznesu ostatnich dekad pokazuje, że w tej samej
branży, w tym samym czasie i na tych samych rynkach funkcjonują z powodzeniem firmy stosujące różne strategie. Nie ma strategii optymalnych, opracowanych wcześniej, a potem wdrożonych. Skuteczna strategia to taka, która
napełnia zaangażowanych ludzi energią: to oni ją urzeczywistniają, sprawiając,
że na koniec okazuje się skuteczna [Mintzberg, Ahlstrand i Lampel 1998,
s. 116]. O tym, czy i w jakim stopniu strategia jest skuteczna, dowiadujemy
się ex post, po jej zrealizowaniu. A priori nie jesteśmy w stanie tego określić
[Beinhocker 2007, s. 280–281]1.
1
Dobrym przykładem jest Federal Express (FedEx), lider na rynku ekspresowych przesyłek,
założony przez F. Smitha. Smith, rozpoznawszy okazję na rynku, przygotował biznes plan w ramach studiów MBA. Otrzymał ocenę negatywną, ponieważ wykładowca uznał projekt za mało
realny. Smith przedstawił swój projekt także zarządom UPS i U.S. Postal Service. Te jednak go
odrzuciły, uważając, że nie ma takiej potrzeby na rynku. A zatem znający rynek menedżerowie
i profesor nie dostrzegli w projekcie okazji na biznes. F. Smith był jednak mocno przekonany
co do słuszności swoich pomysłów i w 1971 roku sam założył firmę, która odniosła wielki
sukces, działa w skali globalnej, zatrudnia 290 tys. pracowników i w 2012 roku osiągnęła prawie
43 mld USD wartości sprzedaży. Jej strategia była kopiowana przez konkurentów [Singh 2001].
Zarządzanie strategiczne jako wielowymiarowa przestrzeń paradoksów
111
M. Porter [1992] wyróżnił dwa podstawowe rodzaje strategii, które można
stosować indywidualnie lub w kombinacjach, a które umożliwiają utrzymywanie przez dłuższy czas wyników lepszych od uzyskiwanych przez konkurentów:
–– przywództwo kosztowe – najniższe koszty w branży (cost leadership),
–– wyróżnianie się wysoką jakością produktów i wysokimi cenami (differentiation).
Dwie powyższe strategie są krańcowo różne. Pierwsza polega na produkcji
i/lub sprzedaży produktów jak najtaniej i w jak największych ilościach. Druga
natomiast jest związana z produkcją i/lub sprzedażą produktów ekskluzywnych, bardzo drogich i w relatywnie niedużych seriach. Obie strategie wymagają od firm innych umiejętności i zasobów. Stosowane konsekwentnie prowadzą
do trwałych sukcesów. Największa amerykańska sieć detaliczna Wal-Mart
założona przez Samuela Waltona, zatrudniająca ponad 2 mln pracowników,
stosuje od swoich początków w latach 60. XX wieku strategię przywództwa
kosztowego. Suma bogactwa Waltona odziedziczona przez jego potomków
przewyższa bogactwo zgromadzone przez B. Gatesa czy C.S. Helu [Forbes
2014]. Najbogatszymi Niemcami są założyciele sieci dyskontów: K. Albrecht
(sieć Aldi) oraz D. Schwarz (sieci: Lidl i Kaufland). Na przeciwnym biegunie
strategii znajduje się francuskie przedsiębiorstwo LVMH wyspecjalizowane
w sprzedaży marek luksusowych, a jego założyciel, B. Arnault, jest drugim
najbogatszym Francuzem po L. Bettencourt, głównej właścicielce koncernu
L’Oreal [Forbes 2014].
2. Znaczenie paradoksów w zarządzaniu strategicznym
Jak już zaznaczono, nie ma optymalnych i uniwersalnych strategii, które można byłoby zalecać przedsiębiorstwom w konkretnych warunkach. Zarządzanie
strategiczne jest tym obszarem zarządzania, w którym największe znaczenie
ma kreatywność zarządów przedsiębiorstw. Historia biznesu XX wieku pokazuje, że względnie trwałe sukcesy odnosiły te firmy, które były pionierami
we wdrażaniu nowych modeli biznesowych (np. Ford, General Motors, Dell,
Wal-Mart, Apple, Amazon) lub nowych technologii (np. 3M, General Electric,
IBM, Kodak, Apple, Microsoft, Nokia). Firmy pionierskie szybko znajdowały
naśladowców, którzy często przerastali owych pionierów (np. Dell w latach
90. ub. wieku wyprzedził IBM i Apple, a po kilkunastu latach został pokonany przez HP). W każdej dziedzinie ludzkiej działalności mamy do czynienia
z efektem imitacji najlepszych wzorców technicznych lub kulturowych. Nie
inaczej jest w biznesie. Możemy mówić zatem o zjawisku mody biznesowej
112
Jan Polowczyk
polegającym na naśladownictwie najlepszych praktyk. W ten sposób rozpowszechniane są koncepcje strategiczne, w tym modele biznesowe i wynalazki
techniczne.
T.J. Peters i R.H. Waterman [1982], na podstawie badań najlepszych amerykańskich korporacji, doszli do wniosku, że podstawową wspólną cechą doskonałych firm jest zdolność do zarządzania wieloznacznością i paradoksem.
Było to niewątpliwie oryginalne i odkrywcze stwierdzenie, niezgodne z panującymi poglądami na zarządzanie, a w szczególności zarządzanie strategiczne2.
Pojęcie „paradoks” wywodzi się od greckiego słowa paradoksos (nieoczekiwany, nieprawdopodobny). Paradoksem nazywamy sformułowania zaskakujące w treści, wydające się w pierwszej chwili nieprawdziwe lub bezsensowne,
oparte na zestawieniu ze sobą dwóch członów z pozoru wykluczających się
treściowo, niezgodne z przekonaniami powszechnie przyjętymi. Trafnym
określeniem paradoksu może być łacińskie wyrażenie przypisywane poecie
rzymskiemu Horacemu (65–8 p.n.e.) concordia discors, czyli: niezgodna zgoda
lub rozbieżna jednomyślność [Kopaliński 1983]. Można to też interpretować
jako harmonię sprzeczności.
Przykładem równoczesnych działań sprzecznych (paradoksalnych) może
być maksyma przypisywana starożytnym Rzymianom: „chcesz mieć pokój –
gotów się do wojny” (łac. si vis pacem, para bellum). Dzisiaj maksyma ta
stanowi podstawową obronną doktrynę odstraszania przyjętą przez państwa
członkowskie Organizacji Paktu Północnoatlantyckiego (NATO).
Z kolei w antycznej dualistycznej filozofii chińskiej istniała koncepcja yin
i yang. Opisuje ona dwie pierwotne i przeciwne, lecz uzupełniające się siły,
które odnaleźć można w całym wszechświecie [Li i in. 2012]. Ich symbolem
jest ikona przedstawiona na rysunku 1.
Rysunek 1. Symbol graficzny koncepcji yin i yang
Źródło: Li i in. [2012]
W filozofii Wschodu dominuje podejście holistyczne: harmonijna, wzajemna zależność między różnymi bytami. Wszelkie elementy natury są ze sobą
ściśle powiązane i podlegają nieustannym przemianom. Yin i yang wzbogaca
zachodnie myślenie o przeciwieństwach: każde z nich zawiera w sobie ziarno
2
„To, o czym nasi racjonalni przyjaciele ekonomiści mówią nam, że jest niemożliwe, doskonałe firmy robią rutynowo” [Peters i Waterman 1982].
Zarządzanie strategiczne jako wielowymiarowa przestrzeń paradoksów
113
drugiego przeciwieństwa. Objaśnia dynamiczną równowagę (harmonijną
integrację) przeciwieństw.
Yang jest reprezentowane przez biel i oznacza Słońce, siłę, aktywność, radość,
ciepło i lato, symbolizuje męski aspekt natury, ekstrawersję oraz liczby nieparzyste. Symbolizuje ogień lub wiatr. Z kolei yin jest reprezentowane przez czerń
i oznacza Księżyc, bierność, uległość, smutek, chłód i zimę; symbolizuje żeński
aspekt natury, introwersję oraz liczby parzyste. Yin symbolizuje wodę lub ziemię.
Wzajemne oddziaływanie yin i yang jest przyczyną powstawania i zmiany
wszystkich rzeczy. Z nich powstaje pięć pierwiastków: ogień, woda, ziemia,
metal i drewno. Wśród sił natury można zauważyć stany yin i yang będące
w ciągłym ruchu. Podstawowym wykładem nauki o yin i yang jest Księga
przemian Yijing [Li i in. 2012].
J. Collins oraz J.I. Porras [2008], podkreślają, że wizjonerskie firmy cechują
się dualistycznym podejściem podobnym do yang i yin. Nie ulegają tzw. tyranii ALBO, czyli racjonalnemu poglądowi mówiącemu, że nie da się połączyć
w jedną całość dwóch przeciwstawnych sił, ponieważ byłby to paradoks.
Tyrania ALBO skłania ludzi do wierzenia, że można mieć A albo B, ale nie
można mieć jednego i drugiego. Collins i Porras przedstawili, jak najlepsze
wizjonerskie firmy radzą sobie z paradoksem łączenia biznesowych sprzeczności (wymienili ich 11).
Każdy paradoks ma dwa przeciwstawne bieguny. Oto kilka przykładów:
–– tradycja – postęp,
–– wiara – wiedza,
–– nauka – sztuka,
–– analiza – intuicja,
–– egoizm – altruizm [Smith 1989],
–– kreatywna destrukcja [Schumpeter 1995],
–– teoria X i Y D. McGregora [Griffin 2005],
–– osobista skromność i profesjonalna siła (w odniesieniu do najlepszych
menedżerów) [Collins 2001].
Jack i Suzy Welch [2005, s. 84] stwierdzają, że słowo paradoks nieodłącznie
wiąże się z przywództwem w biznesie. Na przykład bardzo często pada pytanie,
jak połączyć krótkookresowe zarządzanie wynikami kwartalnymi z realizowaniem zamierzeń długookresowych. Według Welchów zadaniem każdego
lidera jest równoważenie tych sprzecznych celów. Nazywają to codziennym
poszukiwaniem złotego środka.
Wielkie międzynarodowe korporacje są potężnymi siłami napędowymi
rozwoju gospodarczego, dają pracę setkom milionom ludzi, tworzą nowe
wynalazki, przyczyniają się do poprawy warunków życia, ale jednocześnie
114
Jan Polowczyk
pożerają nieproporcjonalnie dużo światowych nieodnawialnych zasobów.
Równolegle generują innowacje, które redukują zużycie surowców i zmniejszają emisję zanieczyszczeń. Korporacje są zatem źródłem zarówno degradacji przyrody, jak i rozwiązań jej przeciwdziałających. Wiele przełomowych
wynalazków w dziejach ludzkości może jednocześnie dawać wzrost dobrobytu i postępu, ale też może być przyczyną nieszczęść (np. energia jądrowa,
samochód, internet itp.).
Paradoksy są wszechobecne. Podstawowym dylematem, przed którym
stoi nasza cywilizacja, jest sposób dalszego rozwoju. Są dwie sprzeczne teorie:
teoria Thomasa Malthusa i teoria Roberta Solowa [Martin i Kemper 2012].
Zgodnie z tokiem rozumowania Malthusa, zasoby są wyczerpywalne i trzeba
nimi oszczędnie gospodarować: konsumenci i korporacje muszą pracować nad
bardziej efektywnym zużyciem zasobów, recyklingiem, i poskromić apetyty
w tej konsumpcji. Ten argument odwołuje się bezpośrednio do tradycyjnej
cnoty powściągliwości. Malthus obawiał się, że nadmierny przyrost ludności
spowoduje niemożliwość wyżywienia rosnącej populacji, ponieważ liczba
ludności niepoddana kontroli rośnie w tempie geometrycznym, a żywność
przyrasta w tempie arytmetycznym. Jest to teoria pesymistyczna.
Zgodnie z drugim nurtem argumentacji, wypływającym z prac dwudziestowiecznego ekonomisty Roberta Solowa, laureata Nagrody Nobla z 1987 roku,
problemy środowiskowe i inne są zawsze rozwiązywalne dzięki ludzkiej pomysłowości. Ten pogląd odwołuje się do ludzkiego naturalnego optymizmu,
wspiera deregulację gospodarki i promuje wzrost. Nietrudno zauważyć, że
poglądy Malthusa i Solowa są trudne do pogodzenia. Jednakże, chcąc osiągnąć
realny postęp w rozwiązywaniu światowych problemów, musimy wykorzystać
oba opisane ujęcia.
Efekt paradoksu występuje w tzw. austriackiej szkole ekonomii, szczególnie
w koncepcji „twórczej destrukcji” J.A. Schumpetera. W swojej wizji kapitalizmu Schumpeter zakłada, że ciągłe pojawianie się nowych przedsiębiorców
z rewolucyjnymi pomysłami, które niszczą stare biznesy, stanowi siłę, która
jest w stanie podtrzymywać długotrwały rozwój ekonomiczny.
Każdy człowiek w swoim postępowaniu, codziennym czy też zawodowym,
musi dokonywać ciągłych wyborów, między innymi: konsumować, czy oszczędzać, zabezpieczając się na przyszłość. Jesteśmy optymistami albo pesymistami. Realizm wymaga umiejętnego połączenia tych postaw. Niekiedy muszą to
być wybory zero-jedynkowe (nie–tak), ale najczęściej decyzją powinna być
jakaś dowolna kombinacja pośrednia dwóch przeciwstawnych rozwiązań.
Według H. Mintzberga [2012, s. 226] paradoksy są wpisane w zarządzanie –
one są zarządzaniem. Zarządzanie to nie tylko zwykła akrobatyka polegająca
Zarządzanie strategiczne jako wielowymiarowa przestrzeń paradoksów
115
na chodzeniu po linie, lecz balansowanie w wielowymiarowej przestrzeni na
wielu różnych linach. Wiąże się to w dużym stopniu z koncepcją ograniczonej
racjonalności H.A. Simona [Kowalski 2002].
Inne znaczenie paradoksowi w zarządzaniu strategicznym nadaje M.R. Raynor [2008]. Pisze on o paradoksie strategii, który polega na tym, że podobna
lub nawet ta sama strategia dobrze zaplanowana i skutecznie wdrożona może
poprowadzić przedsiębiorstwo zarówno do wielkiego sukcesu, jak i spektakularnej porażki. Albo inaczej: strategie z największymi szansami na sukces
niosą ze sobą także duże ryzyko porażki [Raynor 2008, s. 19].
3. Zarządzanie strategiczne jako zbiór paradoksów
Według W. Czakona [2012] paradoksy odnoszą się do sprzeczności, które
oddziałują na zachowanie w organizacjach, towarzyszą decyzjom menedżerów lub też są wywoływane przez strategie przedsiębiorstw. Paradoks łączy
sprzeczności i jest wyrazem postawy poznawczej, która odrzuca redukcjonizm
nadmiernie upraszczający rzeczywistość. W biznesie (i szerzej, w ekonomii)
mówimy o napięciu (tension) albo napięciu strategicznym między dwoma
sprzecznymi postawami (poglądami, koncepcjami czy decyzjami) [De Wit
i Meyer 2007, s. 32]3. Niekiedy mówimy o dualizmie [Peters i Waterman 1982,
s. 31]. Godzenie sprzeczności (krańcowo różnych poglądów) jest podstawową
umiejętnością w biznesie i przejawem kreatywności (zarządzanie jako sztuka).
Jedną z takich najbardziej dyskutowanych sprzeczności w zarządzaniu
strategicznym jest przekonanie o potrzebie eksploatacji bieżących kompetencji
przy jednoczesnej eksploracji nowych kompetencji. Utrzymanie przewagi konkurencyjnej w długim okresie wymaga jednoczesnego dążenia w obu kierunkach. Nie jest to zatem alternatywa, nie można zrezygnować ani z eksploatacji,
ani z eksploracji. Umiejętność prowadzącą do adaptacyjnego poszukiwania tej
idealnej równowagi nazwano ambidexterity, czyli dosłownie oburęcznością,
co obrazuje sprawne wykorzystywanie skrajnie różnych opcji.
Historia biznesu ostatnich dekad pokazuje, że w tej samej branży, w tym
samym czasie i na tych samych rynkach funkcjonują z powodzeniem firmy
stosujące różne strategie. Nie ma zatem strategii optymalnej, opracowanej
wcześniej, a potem wdrożonej. Firmy konsultingowe, które stworzyły branżę
doradztwa strategicznego (np. Boston Consulting Group, McKinsey, Booz
Allen Hamilton), prześcigają się w wymyślaniu nowych koncepcji strate3
Potocznie używane jest sformułowanie: „zjeść ciastko i mieć ciastko”.
116
Jan Polowczyk
gicznych, jak outsourcing, zarządzanie firmą przez wartość, wyszczuplanie
firmy itp. Żywot poszczególnych koncepcji jest krótszy lub dłuższy. Bardzo
trwały wydawał się outsourcing, kiedy to Chiny dzięki niskim kosztom stały
się fabryką świata, ale wiele wskazuje, że początek drugiej dekady XXI wieku
przyniósł odwrót od tej mody biznesowej i firmy wracają z produkcją na
swoje ojczyste rynki. Niewątpliwie outsourcing nie zaniknie, ale przestanie
dominować.
Stwierdziliśmy powyżej, że zarządzanie jest połączeniem teorii, praktyki
i sztuki. W zarządzaniu strategicznym elementy praktyki i sztuki są szczególnie
ważne. Wiedza, doświadczenie oraz intuicja menedżerów zarządzających są
podstawą w kreowaniu skutecznych strategii biznesowych. Sukces w biznesie,
nawet w tej samej branży, można odnieść w różny sposób. Każda przewaga
konkurencyjna jest przemijająca. Wynika to z różnych powodów: konkurenci
naśladują innowatora, pojawia się kolejny innowator z nowym wynalazkiem
lub modelem biznesowym, wreszcie ciągłym zmianom ulega otoczenie.
Paradoksy w zarządzaniu strategicznym (czy bardziej ogólnie – w zarządzaniu) są nieuniknione ze względu na przedstawiony powyżej opis zarządzania
jako połączenia sztuki, rzemiosła i nauki. Wiele firm uzyskiwało sukcesy dzięki
temu, że przełamywało powszechnie przyjęte schematy i wzorce zarządzania.
Można zatem mówić o rencie „kreatywnej destrukcji” w zarządzaniu strategicznym. Dobrym tego przykładem jest południowokoreański Samsung Electronics, który swoją silną pozycję zbudował dzięki hybrydowemu systemowi
zarządzania [Khanna, Song i Lee 2011]. System ten jest oparty na umiejętnym połączeniu dwóch różnych kultur zarządzania: wschodniej i zachodniej.
Samsung połączył dwa niekompatybilne systemy wartości, m.in. zachodnie
dążenie do organizacyjnej doskonałości poprzez premiowanie pracowników
za osiągnięcia bez względu na wiek ze wschodnią tradycją poszanowania
starszych pracowników4.
4. Wielowymiarowa przestrzeń paradoksów strategicznych
Paradoksy w biznesie są nieuniknione, ponieważ problemy strategiczne charakteryzuje duża złożoność. W związku z tym powinny być rozpatrywane
z różnych perspektyw zawierających wewnętrzne sprzeczności (np. krótki
okres – długi okres). Zarządzanie strategiczne jest sztuką rozwiązywania owych
4
Warto dodać, że Korea Południowa jest jedynym krajem, na którego fladze znajduje się
symbol yin i yang.
Zarządzanie strategiczne jako wielowymiarowa przestrzeń paradoksów
117
paradoksów, czyli sztuką poszukiwania tzw. złotego środka. Obrazowo możemy
powiedzieć, że zarządzanie strategiczne w przedsiębiorstwie to sztuka biznesowej nawigacji między różnymi opcjami. W niektórych wypadkach stosowanie
jednej opcji wyklucza stosowanie drugiej. Jednak w bardzo wielu sytuacjach
biznesowych jest możliwe umiejętne wykorzystywanie obu opcji jednocześnie.
Dla zilustrowania wywodów rozważymy paradoks strategiczny na przykładzie podstawowego celu funkcjonowania przedsiębiorstw notowanych
na giełdach, czyli spółek publicznych. Jest on często nazywany paradoksem
krótkiej i długiej perspektywy czasowej [Welch i Welch 2005, s. 84]. Okres
krótki jest związany z celami akcjonariuszy (inwestorów), którym zależy na
szybkim zwrocie zainwestowanego kapitału, czyli wzroście wartości spółki.
Okres długi jest kojarzony z celami interesariuszy, dla których priorytetem
jest możliwie najtrwalsze funkcjonowanie spółki.
Działanie publicznych spółek amerykańskich i europejskich jest zdominowane przez presję na osiąganie kwartalnych wyników. Pomimo kilku silnych
wstrząsów na rykach kapitałowych i wprowadzenia ustawy Sarbanesa–Oxleya
w 2002 roku, istota gry w zyski nie uległa zmianie. J.R. Graham, C.R. Harvey
i S. Rajgopal [2004] z amerykańskiego National Bureau of Economic Research
zebrali opinie od ponad czterystu dyrektorów finansowych (CFO) spółek giełdowych, aby określić kluczowe czynniki mające wpływ na decyzje dotyczące
raportów kwartalnych. Stwierdzono, że ze względu na silne reakcje rynku
wynikające z odchyleń rzeczywistych zysków od prognozowanych, firmy
wolą poświęcić wartość długookresową, aby tylko osiągnąć krótkookresowe
cele w zyskach. Okazało się, że aż 78% CFO woli zrezygnować ze wzrostu
ekonomicznej wartości firmy na rzecz „gładkiej” tendencji zmian zysków,
które nie zaskakują inwestorów. Ponadto 55% menedżerów wolałoby zrezygnować z bardzo dobrze zapowiadającego się projektu, jeżeli spowodowałby
on pogorszenie zysków w stosunku do założeń kwartalnych. Nieuzyskanie
planowanych zysków kwartalnych podważa wiarygodność zarządu, co z kolei
obniża kurs akcji, ponieważ inwestorzy najbardziej nie lubią niepewności, co
wynika z ich awersji do ryzyka [Kahneman i Tversky 1979].
Większość zarządów uważa, że wybiera mniejsze zło, poświęcając długookresową wartość, aby uniknąć krótkookresowego zamieszania, które
niechybnie doprowadziłoby do spadku wartości. Wielu argumentuje, że to
system (presja rynku finansowego i stadne reakcje inwestorów) wymusza
takie decyzje.
Zarządy są przekonane, że osiąganie planowanych kwartalnych zysków
przez spółkę buduje dla niej zaufanie rynku i pomaga utrzymać, a nawet
stopniowo podwyższać kurs akcji. Określenie równowagi między wynikami
118
Jan Polowczyk
z bieżącej działalności a inwestycjami w wielce niepewną przyszłość należy
do najbardziej ryzykownych wyborów, jakich dokonuje każdy prezes spółki.
Według A.G. Lafleya [2009], wieloletniego prezesa Procter and Gamble: „Jest
w tym więcej sztuki niż nauki. Presja będzie zawsze na teraźniejszość, ponieważ interesy większości akcjonariuszy są krótkookresowe. Tylko nieliczni
z nich inwestują w firmę na dłużej niż rok lub dwa. W czasach kryzysu i globalnej recesji, każdy szef firmy czuje jeszcze większą presję koncentrowania
się na krótkim okresie: tygodniu, miesiącu czy kwartale”.
Do standardowych reakcji akcjonariuszy na decyzje zarządów w sytuacjach kryzysowych należy wzrost kursu akcji, jeżeli zarząd ogłosi redukcję
zatrudnienia. W ten sposób przyjmują z zadowoleniem obniżenie kosztów.
D. Kahneman, J.L. Knetsch i R.H. Thaler [1986], na podstawie przeprowadzonych eksperymentów, przedstawili argumenty za ograniczaniem takich
działań w celu utrzymania dobrej reputacji i możliwości maksymalizacji zysków w długim okresie. Przykłady wspierające powyższe wywody przedstawił
także F. ­Fukuyama [1997, s. 17–18]. Dlatego w niektórych firmach w sytuacjach kryzysowych zamiast zwolnień stosuje się obniżkę płac dla wszystkich
pracowników.
Leszek Czarnecki, jeden z najwybitniejszych polskich menedżerów w branży finansów, przedstawił swoje poglądy dotyczące procesów zachodzących
w gospodarce światowej [Czarnecki 2011]. Krytycznie ustosunkował się do
nowych technologii finansowych, tj. transakcji wysokiej częstotliwości (high-frequency trading – HFT). Czarnecki ubolewał, że zanika etos odpowiedzialnego właściciela firmy i zaproponował: spowolnijmy rzeczywistość. Uważa, że
potrzebujemy mechanizmów powstrzymujących główne procesy i że trzeba
wdrożyć pewne narzędzia na szczeblu Komisji Europejskiej, na przykład
podatek od niektórych transakcji finansowych.
Zaraz potem przyznał się, że sam jest przeciwnikiem wieloletnich planów
budżetowych. Każda firma, którą budował lub kupował, musiała przynosić dochód w ciągu roku, maksymalnie dwóch lat. Podkreślił: „zysk musimy osiągać
teraz, a nie w przyszłości”. I dodał: „trzeba więcej energii wkładać w bieżące
zarządzanie, a nie w realizację wieloletnich skomplikowanych biznesplanów”.
Trudno nie zauważyć, że w swoich wywodach L. Czarnecki popadł
w sprzeczność. Z jednej strony namawia do spowolnienia rozpędzonych
rynków, a z drugiej przekonuje, że nie czas na myślenie w kategoriach długoletnich celów. Wyciska ze swoich firm zyski najszybciej jak tylko można.
W ten sposób potwierdza paradoks krótkiego i długiego okresu w zarządzaniu.
Czarnecki w swoich firmach zarządza tym paradoksem bardzo skutecznie,
o czym świadczy zgromadzony przez niego majątek.
Zarządzanie strategiczne jako wielowymiarowa przestrzeń paradoksów
119
Należy zaznaczyć, że konkurencja w świecie finansów została w ostatnich
kilku latach wzmocniona przez intensywną komputeryzację rynków kapitałowych i wprowadzenie transakcji algorytmicznych HFT. Są one przejawem
hiperkonkurencji na rynkach finansowych. Wykorzystują programy komputerowe do przeprowadzania operacji kupna-sprzedaży bez udziału ludzi.
Są wykorzystywane głównie przez inwestorów instytucjonalnych: fundusze
emerytalne i fundusze powiernicze.
Transakcje HFT błyskawicznie opanowały Wall Street w latach 2007–2009.
Jeszcze w 2004 roku HFT było uważane za strategię niszową i mniej niż 25%
wolumenu transakcji zawierana była w tym trybie. Obecnie obejmuje ponad
70% amerykańskiego rynku kapitałowego. Podobnie sytuacja wygląda na
giełdzie w Londynie. Dzięki HFT obniżane są koszty transakcji i podwyższany
jest zwrot dla akcjonariuszy. Poprawiło to znakomicie rentowność sektora
finansowego, który wydał setki milionów dolarów na udziały w firmach HFT.
Operatorzy, którzy nie rozwinęli swoich własnych algorytmów, kupowali posiadające je firmy. Na przykład Citigroup zakupił Automated Trading Desk.
Jednym z największych inwestorów w tym segmencie jest Goldman Sachs.
Następuje szybkie odejście od „fundamentalnego” modelu inwestowania,
który zdominował rynek akcji w minionym wieku. Transakcje HFT wzbudzają sporo kontrowersji. Uważane są przez wielu obserwatorów za narzędzie
spekulacji niszczące relacje między inwestorem a spółką. Istnieją też obawy,
że mogą się wymknąć spod kontroli i doprowadzić do krachu na giełdach.
Jak każdy wynalazek, HFT wzbudzają emocje pozytywne związane z większą
efektywnością spółek finansowych i negatywne dotyczące obaw o wypuszczenie „dżina z butelki”, mają swoje wady i zalety.
Spójrzmy jednak na inne branże. W wypadkach na drogach ginie wielu
ludzi, ale nie powstrzymało to rozwoju branży samochodowej, a dzięki kolejnym innowacjom zwiększył się komfort i bezpieczeństwo jazdy. Dalszego
rozwoju technologii HFT nie da się powstrzymać. Jest on konsekwencją ewolucyjnych procesów informatyzacji, która będzie postępowała we wszystkich
dziedzinach.
W tabeli 1 przedstawiono przykłady paradoksów strategicznych, jakie
napotykają zarządy przedsiębiorstw przy podejmowaniu kluczowych decyzji
związanych z dalszym rozwojem. Nie wyczerpuje ona, oczywiście, wszystkich
możliwych paradoksów strategicznych, jakie napotykają w realiach biznesowych zarządy przedsiębiorstw. Dualizm paradoksów powoduje, że można
z nich zbudować teoretyczną przestrzeń wielowymiarową wszystkich możliwych strategii. Dla przykładu zawartego w tabeli 1 przestrzeń będzie zatem
10-wymiarowa. Mieszczą się w niej wszystkie zrealizowane i realizowane
120
Jan Polowczyk
Tabela 1. Przykłady dziesięciu wybranych paradoksów strategicznych
Lp.
Obszar strategiczny
1 Realizacja podstawowego
celu przedsiębiorstwa
2 Myślenie strategiczne
3 Myślenie strategiczne
4 Zmiana strategiczna
5 Decyzje strategiczne
6 Decyzje strategiczne
7 Decyzje strategiczne
8 Decyzje strategiczne
9 Realizacja strategii
10 Realizacja decyzji strategicznych
Yin
okres krótki (wartość dla
akcjonariuszy)
analityczne/logika
eksploracja
rewolucyjna/gwałtowna
centralizacja
specjalizacja
przywództwo kosztowe
rozwój poprzez akwizycje
swoboda w adaptacji
konkurencja
Yang
okres długi (wartość dla
interesariuszy)
intuicyjne/kreatywność
eksploatacja
ewolucyjna/stopniowa
decentralizacja
dywersyfikacja
przywództwo jakościowe
rozwój organiczny
rygoryzm wykonawczy
kooperacja
Źródło: Na podstawie: [De Wit i Meyer 2007, s. 33].
strategie, a także te niezrealizowane do tej pory. Liczba możliwych strategii
w takiej przestrzeni jest bliska nieskończoności.
Wprowadzanie nowych modeli biznesowych i nowych strategii można
uznać za efekt eksploracji wielowymiarowej przestrzeni strategii. Co więcej,
każdy nowy znaczący wynalazek techniczny (np. grafen) lub organizacyjny
(np. telepraca) może spowodować rozszerzenie owej przestrzeni poprzez
dodanie nowego, dotąd nieznanego wymiaru. Na przykład, wynalazienie
internetu wprowadziło wymiar związany z cyfryzacją aktywności gospodarczej. Można zatem sformułować wniosek o nieustannym rozszerzaniu
wielowymiarowej przestrzeni paradoksów strategicznych.
Każde przedsiębiorstwo realizuje swoją niepowtarzalną strategię nawet
wówczas, gdy w tym samym czasie, na tym samym rynku i w tej samej branży działa wielu konkurentów. Heterogeniczność ta wynika z różnorodności
zasobów, w tym zasobów ludzkich, czyli także zarządów, a przede wszystkim
osobowości prezesa zarządu, który jest zwykle głównym strategiem przedsiębiorstwa. J. Welch w swoich autobiograficznych książkach wielokrotnie
podkreślał, że podstawową rolą prezesa firmy jest zarządzanie wartościami
organizacji. Wspomniani już wcześniej Peters i Waterman [1982] przyznają,
że prawie w każdej doskonałej firmie był na początku silny lider (lub dwóch).
Doskonałe firmy rozwinęły kulturę, która obejmuje wartości i praktyki owych
wielkich liderów. I właśnie dlatego te wspólne wartości przetrwały nawet całe
dekady po odejściu założyciela. Najlepszą ilustracją powyższego wniosku może
być sieć detaliczna Wal-Mart założona przez Samuela Waltona w 1962 roku.
Zarządzanie strategiczne jako wielowymiarowa przestrzeń paradoksów
121
Walton kierował firmą do 1988 roku, a potem, aż do śmierci w 1992 roku, był
przewodniczącym rady dyrektorów. Jego kolejni następcy (i jednocześnie wieloletni współpracownicy) D. Glass, L. Scott, M. Duke, a obecnie D. ­McMillon,
bazując na dziele Waltona i dopasowując strategie do realiów kolejnych dekad,
spowodowali, że od 2001 roku sieć Wal-Mart znajduje się na pierwszych
trzech miejscach w rankingu największych firm świata pod względem wielkości sprzedaży i zatrudnienia. W 1996 roku obroty Wal-Martu przekroczyły
100 mld USD, a w 2013 roku osiągnęły prawie 470 mld USD.
We wspomnianej powyżej abstrakcyjnej wielowymiarowej przestrzeni
wszystkich możliwych strategii są i takie, które w pewnych wymiarach nie
szukają złotego środka, ale zdecydowanie wybierają jedną z przeciwstawnych
alternatyw. Takim wymiarem jest paradoks strategii przywództwa kosztowego i strategii wyróżniania się. Obie strategie zostały zdefiniowane i opisane
przez M. Portera jako strategie podstawowe. Na liście najbogatszych ludzi
znajdujemy przedsiębiorców, którzy – wykorzystując strategię przywództwa
kosztowego – zbudowali wielkie firmy (np. Wal-Mart, Aldi, IKEA, Inditex,
H&M, Southwest Airlines). Są na niej także tacy przedsiębiorcy, którzy do
bogactwa dochodzili poprzez strategię wyróżniania się, a zatem produkcję
i sprzedaż dóbr ekskluzywnych i drogich (B. Arnault – LVMH, L. Bettencourt –
L’Oreal, rodzina Pinault – PPR). Tym, co ich wszystkich łączy, jest wielka
konsekwencja i mistrzostwo w realizacji wybranych podstawowych strategii
porterowskich.
Potwierdzeniem powyższych uwag mogą być przypadki dwóch amerykańskich przedsiębiorstw z branży komputerowej: Apple i Dell. Branża ta bez
wątpienia była najbardziej innowacyjną branżą w drugiej połowie XX wieku
i zapoczątkowała okres postindustrialny. Obie firmy powstały mniej więcej
w tym samym czasie (Apple – w 1976 roku, Dell – w 1984 roku). Obie były
założone przez młodych entuzjastów nowej techniki, niemających wykształcenia technicznego, co zastępowali niezwykłymi talentami biznesowymi.
Strategie, które te firmy realizowały, były bardzo różne. W skrócie można
powiedzieć, że Apple od samego początku dążył do technicznej perfekcji, produkowania wyjątkowych komputerów, dla wąskiego grona specjalistów i po
wysokich cenach. Realizował zatem strategię wyróżniania się. Dell odwrotnie,
nie wprowadzał nowinek technologicznych, ale dążył do produkowania komputerów po jak najniższych kosztach i sprzedawania po jak najniższych cenach.
Współcześnie psychologowie odnośnie do dwóch typów przetwarzania
informacji w ludzkim mózgu przyjęli koncepcję dualnego procesu. Pierwotny
system przetwarzania wiąże się z procesami automatycznymi, niewymagającymi wysiłku, i z uczeniem się na podstawie doświadczeń, bez świadomej
122
Jan Polowczyk
uwagi. Większa część życia człowieka opiera się na tych procesach. Intuicja
jest ściśle związana właśnie z tymi procesami [Kahneman 2003; 2011]. Drugi
system przetwarzania informacji umożliwia ludziom świadome poznawanie
i uczenie się, a także prowadzenie analiz w sposób usystematyzowany. Ten
system przetwarzania informacji wykorzystują modele podejmowania decyzji,
które zdominowały teorię procesów decyzyjnych w zarządzaniu.
Badania pokazują, że menedżerowie zarządzający rutynowo, gdy muszą
rozwiązywać złożone problemy, polegają na intuicji. Ogólnie przyjmuje się,
że im wyższy szczebel zarządzania, tym menedżerowie bardziej polegają na
intuicji [Hayashi 2001]. Wymaga tego specyfika decyzji strategicznych (planowanie strategiczne, fuzje, zmiany organizacyjne, marketing, zasoby ludzkie,
badania nad nowymi produktami itp.). Zdecydowana większość tych decyzji
ma charakter jednorazowy i unikatowy.
Wnioski końcowe
Nauki o zarządzaniu powinny nie tylko opisywać i wyjaśniać funkcjonowanie
systemów zarządzania, ale także formułować zalecenia praktyczne. Naturalnym oczekiwaniem wobec zarządzania strategicznego jest wskazanie najlepszej
strategii, którą można zastosować: w danym przedsiębiorstwie, w danym czasie
i w konkretnych warunkach otoczenia. Tymczasem nie istnieje coś takiego jak
„najlepsza metoda zarządzania”. W zarządzaniu nie ma praw uniwersalnych.
Każdy rzeczywisty i znaczący problem jest wyjątkowy, ma kilka rozwiązań,
i to szybko tracących aktualność. Są natomiast dobre praktyki zarządzania
wynikające z doświadczenia: zarządzanie zasobami ludzkimi, przywództwo,
planowanie budżetowe, struktury organizacyjne, finanse, marketing, sprzedaż
itp. Nie można mówić o uniwersalnych, optymalnych zasadach zarządzania.
Można natomiast mówić o dobrych praktykach i dostosowywać je do konkretnej firmy. Historia biznesu ostatnich dekad pokazuje, że w tej samej branży,
w tym samym czasie i na tych samych rynkach funkcjonują z powodzeniem
firmy stosujące różne strategie. O tym, czy i w jakim stopniu strategia jest
skuteczna, dowiadujemy się ex post, po jej zrealizowaniu.
Paradoksy muszą być rozwiązywane przez każdy zarząd przedsiębiorstwa
przy wykorzystaniu indywidualnych ram poznawczych menedżerów zarządzających. Decyzjom tym trudno narzucić normatywny rygor. Przypadki
najlepszych firm pokazują, że w tej sferze decyzyjnej większą rolę odgrywa
intuicja (doświadczenie i talent) niż trzymanie się teoretycznych wzorców,
które szybko ulegają dezaktualizacji. Dlatego nie jest celowe zalecanie przed-
Zarządzanie strategiczne jako wielowymiarowa przestrzeń paradoksów
123
siębiorstwu stosowania jakiejś konkretnej strategii ze zbioru przestrzeni strategii. Historia biznesu ostatnich dekad pokazuje, że wiele wyróżniających się
modeli biznesowych i rewolucyjnych wynalazków powstało wbrew opiniom
ekspertów i powszechnym praktykom [Collins i Hansen 2011; Singh 2001].
Wprowadzanie nowych modeli biznesowych i nowych strategii można nazwać
efektem odkrywania (eksploracji) wielowymiarowej przestrzeni strategii.
Każdy nowy znaczący wynalazek techniczny może spowodować rozszerzenie
owej przestrzeni poprzez dodanie nowego, dotąd nieznanego wymiaru. Można
zatem sformułować wniosek o nieustannym rozszerzaniu wielowymiarowej
przestrzeni paradoksów strategicznych.
Zarządzanie strategiczne polega na rozwiązywaniu paradoksów. Należy
zatem dążyć do obiektywizacji procedur rozwiązywania owych paradoksów. Rosnąca liczba publikacji na temat zastosowań ekonomii behawioralnej
w zarządzaniu strategicznym zaczyna generować nową jakość. Na przykład
D. Kahneman wraz z zespołem przedstawił procedurę kontroli jakości podejmowania decyzji strategicznych [Kahneman, Lovallo i Sibony 2011]. Za
wzór posłużyły im procedury kontrolowania jakości między innymi w produkcji, logistyce, zarządzaniu projektami, w budownictwie czy w medycynie.
W związku z tym można oczekiwać, że kolejne publikacje przyczynią się do
wzmocnienia normatywnego fundamentu zarządzania strategicznego. Teoria
zarządzania strategicznego musi rozwiązywać nieustannie swój podstawowy
paradoks, którym jest wykorzystywanie normatywnych zasad (nauka), a także
kreowanie nowych rozwiązań (sztuka).
Bibliografia
Beinhocker, E.D., 2007, The Origin of Wealth. The Radical Remaking of Economics and
What It Means for Business and Society, Harvard Business School Press, Boston,
Massachusetts.
Forbes, 2014, Billionaires 2014 Ranking, http://www.forbes.com/billionaires/gallery
[dostęp: 6.03.2014].
Collins, J., 2001, Good to Great. Why Some Companies Make the Leap… and Others
Don’t, Happer Business, New York.
Collins, J., Hansen, M.T., 2011, Great by Choice. Uncertainty, Chaos, and Luck – Why
Some Thrive Despite Them All, Happer Business, New York.
Collins, J., Porras, J.I., 2008, Wizjonerskie organizacje. Skuteczne praktyki najlepszych
z najlepszych, Wydawnictwo MT Biznes, Warszawa.
124
Jan Polowczyk
Czakon, W., 2012, Równowaga a wzrost – relacja odwróconego U w naukach o zarządzaniu, Przegląd Organizacji, nr 10, s. 7–10.
Czarnecki, L., 2011, Złotym cielcem stał się trend giełdowy, Gazeta Wyborcza, 24 października.
De Wit, B., Meyer, R., 2007, Synteza strategii, PWE, Warszawa.
Fukuyama, F., 1997, Zaufanie. Kapitał społeczny a droga do dobrobytu, Wydawnictwo
Naukowe PWN, Warszawa–Wrocław.
Graham, J.R., Harvey, C.R., Rajgopal, S., 2004, The Economic Implications of Corporate Financial Reporting, National Bureau of Economic Research, Working Paper
Series, paper no. 10550.
Griffin, R.W., 2005. Podstawy zarządzania organizacjami, Wydawnictwo Naukowe
PWN, Warszawa.
Hayashi, A.M., 2001, When to Trust Your Gut, Harvard Business Review, February.
Kahneman, D., 2003, A Perspective on Judgment and Choice, American Psychologist,
vol. 58, s. 697–720.
Kahneman, D., 2011, Thinking, Fast and Slow, Farrar, Straus and Giroux, New York.
Kahneman, D., Tversky, A., 1979, Prospect Theory: An Analysis of Decision under Risk,
Econometrica, vol. 47, no. 2, s. 263–291.
Kahneman, D., Knetsch, J.L., Thaler, R.H., 1986, Fairness as a Constraint on Profit-seeking: Entitlements in the Market, American Economic Review, vol. 76, no. 4,
s. 728–741.
Kahneman, D., Lovallo, D., Sibony, O., 2011, Before You Make that Big Decision…,
Harvard Business Review, June, s. 50–60.
Khanna, T., Song J., Lee, K., 2011, The Paradox of Samsung Rise, Harvard Business
Review, July–August, s. 142–147.
Kopaliński, W., 1983, Słownik wyrazów obcych i zwrotów obcojęzycznych, Wiedza
Powszechna, Warszawa.
Kowalski, T., 2002, The Simonian Bounded Rationality Hypothesis and Expectation
Formation, Poznań University of Economics Review, vol. 1, no. 2.
Koźmiński, A.K., 2008, Koniec świata menedżerów, Wydawnictwa Akademickie i Profesjonalne, Warszawa.
Lafley, A.G., 2009, What Only the CEO Can Do, Harvard Business Review, May,
s. 54–62.
Li, J., Leung, A.S.M., Young, M., Xin, Y., Cai, Z., Huang, J., 2012, A Yin/Yang Perspective on the 2008 Global Financial Crisis, British Journal of Management, vol. 23,
s. 119–125.
Martin, R., Kemper, A., 2012, Saving the Planet: A Tale of Two Strategies, Harvard
Business Review, April, s. 48–56.
Mintzberg, H., 2012, Zarządzanie, Oficyna a Wolters Kluwer business, Warszawa.
Mintzberg, H., Ahlstrand, B., Lampel, J., 1998, Strategy Safari: A Guided Tour through
the Wilds of Strategic Management, Free Press, New York.
Zarządzanie strategiczne jako wielowymiarowa przestrzeń paradoksów
125
Nag, R., Hambrick, D.C., Chen, M.J., 2007, What is Strategic Management, Really?
Inductive Derivation of a Consensus Definition of the Field, Strategic Management
Journal, vol. 28, no. 9, s. 935–955.
Peters, T.J., Waterman, R.H., 1982, In Search of Excellence: Lessons from America’s Best
Run Companies, Harper & Row, New York.
Polowczyk, J., 2008, Skuteczne strategie biznesowe. Praktyka i teoria, Wydawnictwo
Wyższej Szkoły Bankowej, Poznań.
Porter, M.E., 1992, Strategia konkurencji. Metody analizy sektorów i konkurentów,
PWE, Warszawa.
Raynor, M.E., 2008, Paradoks strategii, Studio Emka, Warszawa.
Schumpeter, J.A., 1995, Kapitalizm, socjalizm, demokracja, Wydawnictwo Naukowe
PWN, Warszawa.
Singh, R.P., 2001, A Comment on Developing the Field of Entrepreneurship through
the Study of Opportunity Recognition and Exploitation, Academy of Management
Review, vol. 26, no. 1.
Smith, A., 1989, Teoria uczuć moralnych, PWN, Warszawa.
Welch, J., Welch, S., 2005, Winning znaczy zwyciężać, Studio Emka, Warszawa.
STUDIA OECONOMICA POSNANIENSIA
2014, vol. 2, no. 2 (263)
RECENZJE I REKOMENDACJE
Jacek Miroński, Homo administratus
czyli człowiek w naukach o zarządzaniu, Oficyna Wydawnicza, Szkoła Główna Handlowa w Warszawie,
Warszawa 2013, ss. 190, ISBN 97883-7378-855-8
Celem recenzowanej pracy jest, jak pisze
autor, poznanie i analiza założeń dotyczących natury ludzkiej leżących u podstaw teorii i praktyki nauk o zarządzaniu.
W centrum zainteresowania autora znajdują się menedżerowie rozumiani jako
osoby zarządzające innymi ludźmi. Dlatego rozważania zawarte w recenzowanej
pracy koncentrują się wokół dwóch zasadniczych obszarów teorii zarządzania:
zachowań organizacyjnych i zarządzania
zasobami ludzkimi.
Przyjęta struktura pracy jest konsekwencją założonego przez autora celu.
Pierwsze trzy rozdziały zostały poświęcone teoretycznej podbudowie prowadzonych badań empirycznych, których
omówienia i przedstawienia wyników
dotyczy rozdział czwarty.
Wysoką ocenę należy postawić autorowi za bardzo wnikliwe, rzeczowe
i zwarte, przeprowadzone z dużą znajomością tematu omówienie podstaw teoretycznych analizowanej problematyki,
świadczące o pogłębionych i poszerzonych studiach literaturowych, nieograniczających się wyłącznie do dziedziny
nauk o zarządzaniu, a mających istotne
znaczenie dla podjętego tematu badawczego.
W pierwszym rozdziale, poświęconym roli menedżerów w zarządzaniu
ludźmi, należy szczególnie docenić
podkreślony przez autora problem konieczności większego zaangażowania
menedżerów liniowych w zarządzanie
zasobami ludzkimi. W wielu firmach
nie są oni przygotowani do podjęcia zadań kadrowych. Ważne w tym kontekście byłoby również traktowanie działu
personalnego jako partnera biznesowego menedżerów. Analizując chociażby
pu­blikacje polskich autorów podejmujących problematykę kompetencji menedżerskich, łatwo można zauważyć, że
do tego problemu przykłada się małą
wagę i jest on traktowany jako drugorzędny. Bardzo często zadania z zakresu
gospodarowania zasobami ludzkimi nie
są postrzegane jako znaczący element
zarządzania organizacją. Ważne w tym
kontekście jest także zwrócenie przez autora uwagi i omówienie bardzo ważnej
dla omawianej problematyki koncepcji
organizacyjnych zachowań obywatelskich i wyzwań, jakie ona niesie dla menedżerów liniowych.
Rozdział drugi pracy, traktujący
o koncepcjach człowieka w różnych
dziedzinach nauk społecznych, pozwala określić nie tylko rolę człowieka
w naukach o zarządzaniu, ale także integralność tej roli z rolami pełnionym
w innych sferach życia człowieka. Takie
interdyscyplinarne ujęcie rozważanego
problemu, przyjęte przez autora, jest
w pełni uzasadnione i świadczy o dojrzałości badawczej poprzez dostrzeganie
Recenzje i rekomendacje
wzajemnych związków różnych dziedzin
nauk społecznych w kontekście rozważań
nad naturą człowieka.
Rozdział trzeci pozostaje w ścisłym
związku z rozważaniami rozdziału
pierwszego, stanowiąc – poprzez dokonanie przeglądu występujących w naukach o zarządzaniu koncepcji człowieka – jego ważne z punktu widzenia
podjętych badań uzupełnienie, wskazując jednocześnie na relatywnie skromny
w tej mierze dorobek nauk o zarządzaniu,
co podkreśla znaczenie badań podjętych
przez autora. Należy docenić podkreślenie i poruszenie przez autora w tym
rozdziale problemu dehumanizacji pracy
i zagrożeń, jakie ten proces może przynieść. Na wysoką ocenę zasługuje także
bardzo interesujące i kompleksowe przeprowadzenie rozważań na temat koncepcji natury ludzkiej w kształceniu menedżerów, co nie jest zadaniem prostym, ale
autor dobrze sobie z nim poradził, w tym
w sposób bardzo przejrzysty i kompleksowy omówił tematykę przywództwa.
Rozdział czwarty zawiera omówienie
metodologii badań i wyników badania.
Autor w sposób wyczerpujący omawia
przyjęte założenia metodologiczne, uzasadniając przyjęte przez siebie teoretyczne podstawy badań empirycznych,
zasady budowy kwestionariusza wykorzystanego do badań empirycznych i charakterystykę dobranej próby respondentów. Te trzy elementy są ze sobą logicznie
powiązane, a punktem wyjścia jest teoria
X/Y McGregora. Dobór techniki badań
należy uznać za prawidłowy. Autor wykorzystuje sprawdzone w badaniach
wcześniej prowadzonych przez Kopelmana kwestionariusze, co oprócz sprawdzonej ich przydatności pozwala porów-
127
nać wyniki badań polskich menedżerów
z badaniami menedżerów prowadzonymi
za granicą. W sposób wystarczający uzasadnia również zastosowane przez niego
statystyczne miary interpretacji danych.
Interpretacja wyników badań została
przeprowadzona w sposób prawidłowy
i w wielu przekrojach pozwalających
wszechstronnie spojrzeć na uzyskane wyniki. Autor wskazuje na pewne ograniczenia wynikające z doboru próby (tylko
menedżerów) oraz struktury (wiek, płeć,
staż pracy, wielkość przedsiębiorstwa)
uzyskanych od niej zwrotnie kwestionariuszy. Zwraca między innymi uwagę
na nadreprezentację menedżerów pracujących w dużych przedsiębiorstwach.
Zdaniem recenzenta, nie jest to akurat
zbyt duże ograniczenie, gdyż pozwala lepiej poznać badane relacje w odniesieniu
do specjalizacji menedżera, jego miejsca
w strukturze organizacyjnej. Takich możliwości nie stwarzają małe przedsiębiorstwa. Prezentowane wyniki należy uznać
za istotne dla poszerzenia wiedzy na podjęty przez autora temat, wnoszące wiele
ciekawych wniosków zarówno z punktu
widzenia weryfikacji istniejących koncepcji teoretycznych, jak i praktyki zarządzania zasobami ludzkimi. Wyniki badań
potwierdzają między innymi podkreślane przez wielu autorów duże znaczenie
komunikacji menedżerów z pracownikami jako istotny element relacji pracowniczych w przedsiębiorstwie. Ważne
dla praktyki zarządzania są wynikające
z badania wnioski, zwłaszcza dotyczące
systemów zachęt i wynagrodzeń, pracowitości pracowników, poglądów menedżerów z różnych grup wiekowych oraz
z punktu widzenia pełnionych przez nich
funkcji na temat cech natury ludzkiej.
128
Recenzje i rekomendacje
Ostatnia część pracy – „Zakończenie
i wnioski” – jest podsumowaniem rozważań, zawiera oprócz wniosków autorskie
uogólnienie koncepcji homo administratus w naukach o zarządzaniu.
W rozwoju każdej dyscypliny naukowej duże znaczenie mają badania
poświęcone próbom uporządkowania
dotychczasowego stanu wiedzy oraz
opracowania nowych, uwzględniających postęp wiedzy i zmiany zachodzące
w otoczeniu gospodarczym, koncepcji
teoretycznych zmiany te objaśniających.
Takie wyzwanie podjął w swoim opracowaniu Jacek Miroński, starając się
chociaż po części zanalizować założenia
dotyczące natury ludzkiej mające miejsce
w teorii i praktyce nauk o zarządzaniu.
Proponowana przez niego koncepcja
homo administratus, będąca swoistym
novum w rozważaniach teoretycznych
w sferze nauk o zarządzaniu, i podjęta
przez niego próba empirycznej weryfikacji tych rozważań pozwoliły stworzyć
podstawę dla dalszych, bardziej pogłębionych badań w tym zakresie. Oznacza
to, że recenzowana praca stanowi swo-
isty ważny krok w rozwoju dziedziny
nauk o zarządzaniu i dotyczy problemu
dotąd nieznajdującego podejścia tak
kompleksowego i w takim ujęciu, jak
to czyni autor. Podjęta problematyka
badawcza nie tylko jest ważna, jak wyżej stwierdzono, dla rozwoju nauki, ale
jednocześnie może stanowić podstawę
dla formułowania praktycznych zaleceń
w sferze zarządzania zasobami ludzkimi. Prawidłowo ukształtowane relacje
pomiędzy przełożonymi a podwładnymi
są szczególnie ważnym instrumentem inspirowania personelu do realizacji celów
organizacji. Budowa prawidłowych relacji wymaga od przywódców posiadania
określonych umiejętności, a te są między
innymi pochodną wiedzy będącej wynikiem przeprowadzonych badań. Badania empiryczne przeprowadzone przez
Autora pozwoliły na wysunięcie wielu
interesujących wniosków odnoszących
się do postaw menedżerów firm polskich
wobec pracowników.
Jerzy Schroeder
Uniwersytet Ekonomiczny
w Poznaniu

Podobne dokumenty