numer 2/2014 - studia oeconomica posnaniensia
Transkrypt
numer 2/2014 - studia oeconomica posnaniensia
STUDIA OECONOMICA POSNANIENSIA 2014, vol. 2, no. 2 (263) Spis treści Wprowadzenie (Sławomir Kalinowski) ............................................................................... 3 ARTYKUŁY Tomasz Strózik System wartości a ocena jakości życia młodzieży akademickiej w świetle badań ankietowych studentów uczelni Poznania .................................................................................... 5 Tomasz Gabrusewicz Kategoria wartości w nauce rachunkowości ....................................................................... 24 Kinga Dropek Działania samorządu terytorialnego wspierające przedsiębiorczość w gminach województwa wielkopolskiego ...................................................................................................... 36 Joanna Biernacka Analiza innowacyjności turystyki medycznej w regionie zachodniopomorskim ......... 55 Marta Pszczółkowska Analiza alternatywnych wskaźników indeksacji obligacji skarbowych........................... 68 Jadwiga Borucka Methods for Handling Tied Events in the Cox Proportional Hazard Model ................. 91 Jan Polowczyk Zarządzanie strategiczne jako wielowymiarowa przestrzeń paradoksów ....................... 107 RECENZJE I REKOMENDACJE Jerzy Schroeder Jacek Miroński, Homo administratus czyli człowiek w naukach o zarządzaniu, Warszawa 2013 ........................................................................................................................ 126 WPROWADZENIE Kolejny numer STUDIA OECONOMICA POSNANIENSIA, który oddajemy w ręce czytelników, jest przykładem różnorodności zainteresowań badawczych tworzącej zakres merytoryczny czasopisma. Pomieszcza on artykuły z zakresu finansów publicznych, przedsiębiorczości, zarządzania strategicznego, rachunkowości, modelowania ekonometrycznego i turystyki. Pierwsze dwa artykuły stanowią o wieloznaczności pojęcia wartość, obecnego w aparacie pojęciowym filozofii, socjologii, psychologii i ekonomii. Najpierw czytelnik ma możliwość poznania zależności między religijnością i charakterem wyznawanych wartości a jakością życia studentów. Artykuł Tomasza Strózika jest interesującym studium łączącym dziedzinę aksjologii w ujęciu filozoficznym z ekonomicznymi koncepcjami jakości życia. Wyniki badań pokazują, że wybór systemu wartości może determinować zdolność budowania satysfakcji z życia. Drugi artykuł, napisany przez Tomasza Gabrusewicza, dotyka problemu ujęcia wartości w nauce rachunkowości. Autor konfrontuje tradycyjne podejście z nowymi potrzebami ewidencji zjawisk gospodarczych w przedsiębiorstwach. W jego opinii, rachunkowość coraz częściej zaczyna zwracać uwagę nie tylko na mierzalne efekty działalności gospodarczej dające się zapisać w sprawozdaniu finansowym, ale i na te niemierzalne, którymi są odpowiedzialność i ekologia. Kolejne dwa artykuły dotykają szeroko rozumianej problematyki przedsiębiorczości. Trzeci w kolejności artykuł tego numeru to prezentacja badań Kingi Dropek nad praktyką stosowania instrumentów wspierania przedsiębiorczości przez jednostki samorządu terytorialnego w Wielkopolsce. Autorka przeprowadziła badania ankietowe, z których wynika skala powszechności stosowania i skuteczności różnorodnych narzędzi. Ponadto ważnym jej wnioskiem jest zapóźnienie gmin wiejskich w porównaniu z gminami miejskimi i miejsko-wiejskimi. Inny aspekt przedsiębiorczości to innowacje. Joanna Biernacka za innowacyjne uznaje odkrycie niszy rynkowej, którą jest turystyka medyczna. Autorka wskazuje na rosnące znaczenie tego rynku w obliczu przemian demograficznych, ekonomicznych i postępującego wzrostu mobilności społeczeństw. 4 Wprowadzenie Piąty artykuł dotyczy problematyki obligacji indeksowanych. Marta Pszczółkowska przeprowadziła w nim studium porównawcze alternatywnych wariantów formuły indeksacji obligacji Skarbu Państwa. Najczęściej stosowaną bazę w postaci CPI przeciwstawia możliwości wyboru w jej miejsce stopy wzrostu PKB lub CPI bez cen administrowanych. Wnioski z badań wskazują na silną zależność kwoty obciążeń budżetu z tytułu obsługi długu publicznego od formuły indeksowania obligacji Skarbu Państwa. Szósty artykuł dotyczy wyboru najwłaściwszego narzędzia ekonometrycznego do prognozowania czasu trwania zjawisk. Jadwiga Borucka poruszyła problematykę statystycznej analizy przeżycia. Biorąc pod uwagę różne narzędzia estymacji, autorka wskazała na szczególną jakość modelu proporcjonalnego hazardu Coxa. Model jest oparty na kilku restrykcyjnych założeniach; jedno z nich dotyczy występowania tzw. zdarzeń powiązanych, tzn. zdarzeń zaobserwowanych dokładnie w tym samym momencie. Artykuł Jadwigi Boruckiej prezentuje pięć sposobów proponowanych w literaturze dla zbiorów zawierających zdarzenia powiązane. Ostatni w kolejności artykuł to interesujące studium proponujące nowatorskie podejście do zarządzania strategicznego. Jan Polowczyk przedstawił w nim złożoność zarządzania strategicznego przy wykorzystaniu koncepcji paradoksu. Autor opisał znaczenie paradoksów, wykorzystując konfucjańską koncepcję filozoficzną yin i yang. To drugi obok artykułu Tomasza Strózika tekst łączący świat idei ze światem nauki. Proponowane artykuły stanowią zbiór zróżnicowany nie tylko pod względem merytorycznym, ale również metodologicznym. Autorzy w swoim dociekaniu posługiwali się bardzo zróżnicowanym zbiorem metod badawczych. Numer zamyka recenzja książki Jacka Mirońskiego Homo administratus, czyli człowiek w naukach o zarządzaniu napisana przez Jerzego Schroedera. Autor recenzji zwraca szczególną uwagę na przesunięciu punktu skupienia badaczy zajmujących się zarządzaniem z organizacji jako całości na człowieka, który jest jej konstytutywnym podmiotem. Recenzja zachęca do lektury tej interesującej książki. Sławomir Kalinowski STUDIA OECONOMICA POSNANIENSIA 2014, vol. 2, no. 2 (263) Tomasz Strózik Uniwersytet Ekonomiczny w Poznaniu, Wydział Towaroznawstwa, Katedra Koniunktury Gospodarczej [email protected] SYSTEM WARTOŚCI A OCENA JAKOŚCI ŻYCIA MŁODZIEŻY AKADEMICKIEJ W ŚWIETLE BADAŃ ANKIETOWYCH STUDENTÓW UCZELNI POZNANIA Streszczenie: W artykule podjęto próbę identyfikacji zależności pomiędzy poziomem zadowolenia młodzieży akademickiej z własnego życia jako całości a jej religijnością oraz hierarchią najważniejszych życiowych wartości. Prezentowane analizy zostały oparte na rezultatach reprezentatywnego badania ankietowego, które przeprowadzono wśród studentów studiów stacjonarnych uczelni miasta Poznania, przyjmując za moment krytyczny obserwacji dzień 30.06.2007 roku. W opracowaniu zostały wykorzystane podstawowe miary statystyki opisowej, metody analizy wariancji oraz analiza korespondencji. Słowa kluczowe: jakość życia, system wartości, młodzież akademicka. Klasyfikacja JEL: C38, I31. THE RELATIONSHIP BETWEEN VALUES SYSTEMS AND QUALITY OF LIFE ASSESSMENTS IN THE LIGHT OF A SURVEY AMONG THE STUDENTS OF ACADEMIC INSTITUTIONS IN POZNAŃ Abstract: The main aim of this paper is to identify a relationship between the students’ satisfaction with life in general and their religiosity and hierarchy of values. The study was based on a survey conducted among full-time students from various academic institutions in Poznań, with all the observations being conducted on 30.06.2007. The tools used in the research include standard statistical methods, ANOVA, MANOVA and correspondence analysis. Keywords: quality of life, value system, university students. 6 Tomasz Strózik Wstęp W naukach społecznych przyjmuje się powszechnie, że badania aksjologiczne pozwalają na wyjaśnienie i przewidywanie zachowań ludzi oraz całych społeczeństw poprzez identyfikację właściwych im systemów wartości. Wartościowanie jest uniwersalnym procesem wpływającym w sposób bezpośredni na podejmowane przez człowieka decyzje i prezentowane przezeń postawy. Sam proces wartościowania oznacza zarówno formułowanie sądów oceniających, jak i akceptowanie lub negowanie pewnych stanów rzeczy. Wszystkie poczynania jednostki są podyktowane preferowaniem pewnych wartości – dążeniem do tego, co dobre, słuszne bądź korzystne [Ross 1973]. Pojęcie wartości nie jest jednoznaczne, a tym samym rodzi pewne problemy w procesie badawczym. W ujęciu socjologicznym terminem wartość określa się ideę lub instytucję, przedmiot rzeczywisty lub wyimaginowany, w stosunku do których jednostki lub zbiorowości przyjmują postawę szacunku, przypisując im ważną rolę w swoim życiu, a dążenie do ich osiągnięcia odczuwają jako swoisty przymus [Szczepański 1967, s. 58]. Przez system wartości rozumiemy zazwyczaj systemy kategorii poznawczych człowieka, służące mu do opisu i oceny świata oraz stanowiące podstawę dokonywanych przezeń wyborów pomiędzy pewną liczbą stanów docelowych. Systemy te nie są kategorią uniwersalną i nie we wszystkich subpopulacjach określone cele mają taką samą ważność. Dany system wartości w dużym stopniu kształtuje się pod wpływem zindywidualizowanych potrzeb, postaw i aspiracji jednostki [Ignatczyk 2002, s. 17–22]. Kwestie systemów wartości, determinujących społeczno-ekonomiczne zachowania ludności, stanowią jeden z ważniejszych problemów teoretycznych związanych ze zrozumieniem istoty oraz z pomiarem jakości życia człowieka. Jakość życia jest pojęciem względnym, które zależy nie tylko od zakresu objętych obserwacją i pomiarem obszarów ludzkiej egzystencji, lecz również od aspektów aksjologicznych i praktykowanych w życiu systemów wartości [Borys 2004, s. 30]. Każdy człowiek dąży w życiu do pewnych wartości, które kształtują jego decyzje i determinują postawy wobec otaczającej go rzeczywistości. Tym samym indywidualna ocena jakości życia powinna uwzględniać odpowiedzi na pytania: jakiej postaci życia własnego i życia innych ludzi pragniemy oraz do jakiego kształtu ludzkiego świata i własnego życia chcemy się przyczynić [Grzegorczyk 1993, s. 96]. Wyznawane systemy wartości stanowią przesłankę do zróżnicowania percepcji jakości życia ludności przy względnie takich samych warunkach życia w ich obiektywnym ujęciu, a tym samym decydują o komplementarnym charakterze obiektywi- System wartości a ocena jakości życia młodzieży akademickiej 7 stycznych i subiektywistycznych koncepcji pomiaru tej kategorii [Campbell 1976]. Jedną z ważniejszych grup społecznych, z punktu widzenia każdego kraju, jest młodzież, a zwłaszcza ta jej część, która pozostaje na ostatnim etapie procesu kształcenia – młodzież studiująca. Szczególną rolę młodzieży akademickiej określają, jak pisze J. Piechnik-Borusowska [1998], „korelaty procesu jej funkcjonowania – […] pozorna samodzielność (»dorosłość«) nieobciążona szerszymi obowiązkami i niezmuszająca do stabilizacji psychologia »wszechobecności studentów«, względnie duża ruchliwość, obecność silnych autorytetów społecznych, swoista »otwartość« na nowe pomysły i propozycje społeczne, kulturowe i ideowe”. Młodzież stanowi też naturalny, choć nie zawsze wystarczająco doceniany, kapitał każdego społeczeństwa, a zarazem jest swoistym barometrem społecznym, który odgrywa rolę wyraziciela opinii znacznej części społeczeństwa [Wawro 2004, s. 7]. Odrębność populacji młodzieży oraz potencjał, jakim ta warstwa społeczna dysponuje w procesie tworzenia oraz przekazu dziedzictwa kulturowego i cywilizacyjnego, czynią ją istotnym podmiotem badawczym w obszarze badań nad jakością życia. Celem niniejszego artykułu jest próba identyfikacji istniejących zależności pomiędzy poziomem zadowolenia młodzieży akademickiej z życia jako całości a jej religijnością i hierarchią najważniejszych życiowych wartości. Badanie zostało oparte na założeniu, że hierarchia wyznawanych wartości stanowi swego rodzaju pryzmat oceny własnej egzystencji, a jednocześnie determinuje postawy studentów i ich przyszłe zachowania. Przyjęte podejście jest zgodne z obecnym w naukach społecznych przekonaniem, że wyjaśnienia i przewidywania zachowań ludzi, jak i całych społeczeństw, można dokonać właśnie poprzez identyfikację wyznawanego systemu wartości [Ignatczyk 2002, s. 17]. 1. Dane źródłowe i metody badawcze Próba rozpoznania zależności pomiędzy percepcją jakości życia młodzieży akademickiej a jej systemem wartości była jednym z kluczowych aspektów większego badania, którego celem było rozpoznanie uwarunkowań szeroko rozumianej jakości życia młodzieży akademickiej. Ze względu na niemożność przeprowadzenia wyczerpującego badania podjęto decyzję o wyborze niepełnej metody obserwacji w formie badania reprezentacyjnego. Badanie to zostało przeprowadzone na populacji studentów studiów stacjonarnych dwunastu uczelni miasta Poznania – jednego z najprężniejszych ośrodków 8 Tomasz Strózik akademickich kraju, z największym udziałem młodzieży studiującej w ogólnej liczbie mieszkańców, przyjmując za moment krytyczny obserwacji dzień 30.06.2007 roku. W badaniu wykorzystano technikę ankiety środowiskowej, a kanwą do pozyskania informacji był autorski, standaryzowany kwestionariusz ankiety „Jak żyją studenci?”. Jakość życia to istotne zagadnienie badawcze o charakterze interdyscyplinarnym, będące w ostatnim czasie przedmiotem zainteresowania niemal każdej dyscypliny nauki. W przyjętej koncepcji badania jakość życia potraktowano jako kategorię złożoną, odzwierciedlającą kombinację subiektywnych odczuć i obiektywnego stanu dobrobytu człowieka oraz środowiska, w którym żyje w danym momencie, wyrażoną jako funkcja dwóch czynników: fizycznego i psychicznego. Czynnik fizyczny jakości życia obejmuje wiązkę dóbr materialnych i usług, które zaspokajają większość podstawowych potrzeb człowieka, podczas gdy czynnik psychiczny jest związany przede wszystkim z jego samorealizacją i rozwojem [Liu 1975]. Młodzież akademicka została dla potrzeb postępowania badawczego zdefiniowana jako populacja studentów dziennych studiów licencjackich i magisterskich podejmujących edukację na wyższej uczelni [Pająk 2007, s. 31–33], charakteryzujących się pełnoletniością, ale też względną niesamodzielnością ekonomiczną oraz społeczną, którzy pod względem prawnym pozostawali w stanie wolnym. Ze względu na wieloaspektowy charakter zjawiska jakości życia w badaniu znalazły zastosowanie przede wszystkim metody wielowymiarowej analizy statystycznej, służące wykrywaniu prawidłowości w zbiorowościach opisywanych przez rozbudowany zestaw cech. Do uchwycenia istniejących zależności pomiędzy percepcją jakości życia a systemem wartości studentów posłużono się wieloczynnikową analizą wariancji MANOVA – statystyczną metodą rozstrzygania o istnieniu różnic pomiędzy średnimi w kilku (sub-)populacjach. Wieloczynnikowa analiza wariancji umożliwia jednoczesną analizę wpływu więcej niż jednego czynnika o charakterze egzogenicznym na zmienną zależną, której wartości pochodzą z tzw. skal mocnych, przy czym badane czynniki mogą mieć więcej niż dwie kategorie. Do identyfikacji związków występujących pomiędzy wskaźnikami i czynnikami o charakterze jakościowym posłużono się z kolei analizą korespondencji. Analiza korespondencji należy do opisowych technik analizy tablic wielodzielczych, dostarczających informacji o charakterze powiązań między kolumnami i wierszami. Metoda jest oparta na teście niezależności χ2, a jej podstawowym celem jest odtworzenie odległości pomiędzy punktami repre- System wartości a ocena jakości życia młodzieży akademickiej 9 zentującymi wiersze i kolumny tabeli wielodzielczej w przestrzeni o mniejszej liczbie wymiarów przy jednoczesnym zachowaniu jak największej ilości pierwotnej informacji. Atrakcyjność analizy korespondencji wynika z szerokiego zakresu jej zastosowań oraz możliwości graficznej, bardzo czytelnej prezentacji wyników w postaci tzw. mapy punktów. Mapa ta pozwala na identyfikację występujących skupień kategorii zmiennych oraz intuicyjne wnioskowanie o powiązaniach zachodzących pomiędzy nimi [Stanisz 2007, s. 307]. 2. Profil populacji młodzieży akademickiej uczelni Poznania Badaną zbiorowość tworzyła młodzież akademicka stanu wolnego. Obserwacją objęto 1516 respondentów kształcących się w trybie dziennym na dwunastu uczelniach miasta Poznania. Po kontroli merytoryczno-formalnej materiału źródłowego do analizy uwarunkowań jakości życia młodzieży akademickiej zakwalifikowano 1455 prawidłowo wypełnionych kwestionariuszy ankiety. Ocena struktury badanej zbiorowości młodzieży akademickiej przeprowadzona według płci wykazała, że blisko 58,6% stanowiła młodzież żeńska, a 41,4% młodzież męska. Niemal 22% młodzieży akademickiej wywodziło się ze środowisk wiejskich, a około 78% badanych osób wskazało na miasto jako miejsce swojego zameldowania. Uwzględniając kryterium wielkości miasta, stwierdzono, że blisko 47% respondentów zamieszkiwało miasta do 100 tys. mieszkańców, a niemal co trzeci badany student wywodził się ze środowisk wielkomiejskich – z miast o liczbie ludności przekraczającej 100 tys. Nakreślona problematyka badawcza wzbudziła zainteresowanie co do charakteru rodzin, z jakich wywodziła się młodzież akademicka. Środowisko pochodzenia stanowi bowiem jeden z ważniejszych czynników wpływających na percepcję życia młodego człowieka. Rezultaty badania struktury studentów według charakteru rodziny pochodzenia ukazały, że 15,1% z nich pochodziło z rodzin niepełnych, czyli takich, w których przynajmniej jeden z rodziców biologicznych nie żyje bądź też oboje rodzice żyją, ale są rozwiedzeni, w separacji lub też nie mieszkają razem z innych powodów. Udział młodzieży akademickiej niemieszkającej z obojgiem rodziców był większy wśród respondentów wywodzących się ze środowisk miejskich i wynosił 16,5% wobec 10,3% wśród mieszkańców wsi. Należy podkreślić, że w środowiskach miejskich ponaddwukrotnie większy był też udział respondentów pochodzących z rodzin rozbitych poprzez rozwód lub separację. 10 Tomasz Strózik 3. System wartości i światopogląd młodzieży akademickiej Podejmując się badania szeroko rozumianych uwarunkowań jakości życia studentów uczelni Poznania, uznano, że do potencjalnych czynników determinujących zróżnicowanie jakości życia młodzieży akademickiej należą jej system wartości oraz prezentowany światopogląd. Przyjmuje się, że światopogląd oznacza sposób postrzegania świata poprzez pryzmat wyznawanych wartości oraz stanowi zespół przekonań dotyczących natury świata, społeczeństwa. Światopogląd, przez który człowiek wyraża swój stosunek do świata i samego siebie, jest integralną częścią osobowości, tworzy swoistą ramę dla systemu wartości jednostki, dla prezentowanych przez nią postaw i podejmowanych działań [Jaspers 1919]. W procesie identyfikacji światopoglądu badanej populacji młodzieży akademickiej, rozumianego jako zespół poglądów na charakter otaczającej nas rzeczywistości, dokonano na potrzeby artykułu pewnego uproszczenia, koncentrując uwagę na (deklarowanej) religijności studentów. Identyfikacja zróżnicowania badanej populacji studentów ze względu na deklarowaną religijność wykazała, że ponad 90% z nich uznawało się za osoby wierzące (rysunek 1). Tylko co trzeci respondent przyznał, że jest osobą głęboko wierzącą i praktykującą. Ponad 40% młodzieży akademickiej określiło się jako osoby wierzące, ale mało praktykujące, a 17% jako osoby wierzące i niepraktykujące. 8,9% osoby niewierzące 17,2% osoby wierzące, ale niepraktykujące 32,9% osoby głęboko wierzące i praktykujące 41,0% osoby wierzące, ale mało praktykujące Rysunek 1. Deklarowana religijność respondentów Źródło: Obliczenia własne z wykorzystaniem pakietu STATISTICA 8.0 11 System wartości a ocena jakości życia młodzieży akademickiej Udział osób głęboko wierzących był wyraźnie wyższy w gronie kobiet (36,2%), z kolei wśród mężczyzn ponaddwukrotnie więcej było osób niewierzących. Równocześnie udział respondentów, którzy określili się jako niewierzący lub wierzących, lecz niepraktykujący, był wyraźnie wyższy wśród osób pochodzenia miejskiego. W środowiskach wiejskich z kolei relatywnie więcej było osób głęboko wierzących i praktykujących (39,4%). Kolejnym etapem podjętej analizy była próba identyfikacji hierarchii najważniejszych życiowych wartości młodzieży akademickiej. W tym celu poproszono studentów o wskazanie trzech spośród dwunastu podanych życiowych wartości, mających dla nich największe znaczenie. Wybrane wartości zostały przez respondentów uszeregowane według skali: bardzo ważna, ważna i średnio ważna (tabela 1). Takie podejście wpisuje się w koncepcję, według której wartości w życiu każdego człowieka nie występują w izolacji, lecz tworzą pewną hierarchię. Człowiek przyznaje wartościom różną rangę i stopień przydatności dla swego istnienia i rozwoju [Baniak 1986, s. 85]. Tabela 1. Najważniejsze wartości życiowe a płeć respondentów (odsetek wskazań) Wartości życiowe Rodzina Zdrowie Przyjaciele Udane małżeństwo Wolność, swoboda Wykształcenie Pieniądze Bóg, opatrzność Kariera zawodowa Praca Szacunek otoczenia Pomoc innym Inne Brak odpowiedzi Ogółem skala ważności* 1 2 3 32,0 21,6 12,6 19,2 16,3 11,6 4,6 15,5 13,3 10,0 9,9 7,2 7,1 5,7 6,2 2,7 6,7 9,3 4,6 3,8 10,1 9,5 4,0 4,6 1,9 3,7 5,9 0,9 2,8 4,5 1,2 2,5 3,7 0,2 0,5 2,2 0,2 0,2 0,1 – – – Mężczyźni ra zem** 66,2 47,1 33,3 27,1 19,0 18,7 18,5 18,1 11,5 8,2 7,4 2,9 0,5 5,9 Kobiety 1 ra zem** 1* ra zem** 23,3 19,9 5,0 8,6 10,1 2,8 8,0 9,6 2,0 1,5 1,5 0,2 0,5 – 57,8 44,2 32,9 24,6 24,8 17,4 25,9 16,8 11,0 8,0 8,8 2,0 0,8 7,0 38,1 18,8 4,3 11,0 4,9 2,6 2,2 9,4 1,9 0,5 0,9 0,2 . – 72,1 49,2 33,6 29,0 14,9 19,6 13,2 19,0 12,0 8,3 6,3 3,5 0,2 5,2 * * Skala ważności: 1 – wartość bardzo ważna, 2 – wartość ważna, 3 – wartość średnio ważna. ** Odsetki nie sumują się do 100%, gdyż respondenci dokonali wyboru 1–3 wartości. Źródło: Obliczenia własne z wykorzystaniem pakietu STATISTICA 8.0. 12 Tomasz Strózik Próba rozpoznania preferencji wartości życiowych studentów ukazała swoistą hierarchię (tabela 1), na której szczycie znalazła się rodzina, wybrana przez 2/3 respondentów (dla 32% badanej populacji młodzieży była to wartość najważniejsza). Uwagę zwraca wysokie uplasowanie zdrowia, które znalazło się na drugim miejscu i było cenione przez ponad 47% studentów. Można uznać, że taki wybór jest wyrazem docenienia znaczenia zdrowia dla egzystencji człowieka. Na trzecim miejscu w hierarchii wartości młodych ludzi znalazła się przyjaźń, preferowana przez co trzeciego respondenta. Na dalszych pozycjach uplasowały się kolejno: udane małżeństwo (27,1%), wolność, swoboda (19%), wykształcenie (18,7% ), a także pieniądze (18,5%) oraz Bóg, opatrzność (18,1% wskazań). Zaledwie co dziesiąty respondent cenił karierę zawodową (11,5%), tylko 8,2% studentów wybrało pracę, a 7,4% szacunek otoczenia. Jednakową kolejność trzech najważniejszych wartości (rodzina, zdrowie, przyjaciele) zaobserwowano zarówno wśród młodych kobiet, jak i mężczyzn. Warto jednak nadmienić, że udział studiujących kobiet, które uznały rodzinę za wartość najważniejszą, wyniósł aż 38,1% i był tym samym o blisko 15 p.p. większy niż wśród mężczyzn. Mężczyźni z kolei zdecydowanie bardziej cenili pieniądze (25,9%) oraz wolność i swobodę (24,8% wskazań), które uplasowały się na czwartym i piątym miejscu w hierarchii wartości tej subpopulacji. Kobiety nad aspekt materialny swojej egzystencji przedkładały udane małżeństwo (29,0%), a także wykształcenie (19,6%) oraz Boga i opatrzność (19,0% wskazań). Podjęte badanie potwierdziło ponadto, że istnieją wyraźne zależności pomiędzy hierarchią wartości a religijnością człowieka [Feather 2005; Krok 2010]. Młodzież akademicka uczelni Poznania za najważniejszą wartość życiową uznała rodzinę, przy czym udział studentów, którzy wskazali na tę kategorię, był o blisko 20 p.p. większy w gronie respondentów głęboko wierzących aniżeli wśród młodzieży niewierzącej (tabela 2). Na kolejnym miejscu znalazło się zdrowie, cenione przede wszystkim przez głęboko wierzących (46,1%) oraz mało praktykujących (52,2%), a rzadziej przez osoby niewierzące (36,9% wskazań). Trzecią wartością w hierarchii osób głęboko wierzących był Bóg i opatrzność, którą wybrało blisko 42% tej subpopulacji. Istotną wartością w życiu osób wierzących i praktykujących było udane małżeństwo, preferowane przez odpowiednio 30,5% studentów głęboko wierzących oraz 28,5% mało praktykujących. W gronie młodzieży niewierzącej wartość tę wskazało zaledwie 16,2%, co można uznać za przejaw co najwyżej neutralnego stosunku do samej instytucji małżeństwa w tej subpopulacji. Osoby niewierzące zdecydowanie bardziej ceniły wolność i swobodę – 40,8% oraz pieniądze – 33,8% wskazań. 13 System wartości a ocena jakości życia młodzieży akademickiej Tabela 2. Najważniejsze wartości życiowe a deklarowana religijność respondentów (odsetek wskazań) Wartości życiowe Rodzina Zdrowie Przyjaciele Udane małżeństwo Wolność, swoboda Wykształcenie Pieniądze Bóg, opatrzność Kariera zawodowa Praca Szacunek otoczenia Pomoc innym Inne Brak odpowiedzi Głęboko wierzący ra 1* zem** 33,4 71,0 17,3 46,1 1,5 27,8 9,2 30,5 3,1 9,6 1,3 15,0 2,3 12,1 24,4 41,8 0,8 9,0 0,8 7,9 0,8 5,6 0,2 4,2 0,2 0,4 – 4,6 Mało praktykujący ra 1* zem** 31,2 66,4 23,0 52,2 4,5 34,1 11,7 28,5 6,7 19,6 3,2 20,8 5,2 17,4 3,2 9,4 2,5 10,9 0,8 7,7 1,3 8,9 0,2 1,5 . . – 6,4 Niepraktyku jący ra 1* zem** 33,6 64,4 16,0 42,4 8,4 38,8 10,4 23,2 9,2 24,0 3,6 19,6 5,6 25,2 0,8 2,0 2,0 16,0 1,2 8,8 1,2 6,4 0,8 4,4 . 0,4 – 7,2 Niewierzący 1* 26,9 15,4 9,2 4,6 19,2 3,8 8,5 . 3,1 0,8 1,5 0,8 . – ra zem** 50,8 36,9 40,0 16,2 40,8 20,8 33,8 1,5 15,4 10,0 8,5 3,1 1,5 6,2 * Skala ważności: 1 – wartość bardzo ważna. ** Odsetki nie sumują się do 100%, gdyż respondenci dokonali wyboru 1–3 wartości. Źródło: Jak do tabeli 1. Interesujących spostrzeżeń dostarczyła analiza hierarchii tych obszarów życia, które młodzież akademicka uznała za najistotniejsze w chwili badania (w czasie kontynuowania edukacji na wyższej uczelni). Na pierwszym miejscu w swoistym rankingu najistotniejszych obszarów życia studentów (podobnie jak w hierarchii najważniejszych życiowych wartości) znalazła się rodzina, wybrana przez 66,4% respondentów. Blisko 62% młodzieży akademickiej za jeden z najważniejszych obszarów swojego życia uznało podjętą edukację na wyższej uczelni, 37,4% wskazało na relacje z przyjaciółmi, a 36,2% na własne życie osobiste. Na dalszych miejscach w powstałej hierarchii znalazły się kolejno: perspektywy na przyszłość (28,2%), zdrowie (19,1%), korzystanie z uroków życia (13,0%), a także życie religijne (6,2%), hobby (5,6%), czas wolny (4,9%) oraz sytuacja w kraju (2,3% wskazań). Udział osób podkreślających rolę relacji rodzinnych w swoim życiu był o blisko 12 p.p. wyższy wśród studiujących kobiet. Młodzież płci żeńskiej rela- 14 Tomasz Strózik tywnie bardziej ceniła też własne życie osobiste (39,4%) oraz zdrowie (21,5%). Mężczyźni z kolei zdecydowanie częściej wskazywali na hobby (9,6%), czas wolny (7,3%) oraz sytuację w kraju (4,3% wskazań) jako te obszary własnego życia, które były dla nich najważniejsze. Uzyskane efekty badania dokonywanych przez studentów wyborów wartości życiowych oraz tych obszarów życia, które są dla nich najważniejsze, pokazały, że system wartości młodzieży akademickiej początków XX wieku można uznać za tradycyjny [Ignatczyk 2005]. Pomimo obserwowanego kryzysu rodziny wartości rodzinne nadal stanowią dla młodzieży akademic kiej, podobnie jak dla reszty polskiego społeczeństwa [Czapiński i Panek 2011; CBOS 2013], najważniejsze obok zdrowia czynniki warunkujące udane i szczęśliwe życie. Ważną rolę w życiu studentów odgrywają ponadto przyjaźń i wykształcenie, a zdecydowanie mniejszą wagę przypisują oni wartościom związanym z zaspokajaniem potrzeb materialnych (np. pracy i pieniądzom). Ujawniające się preferowanie przez studentów wartości postmaterialistyczych można wszak uznać za cechę charakterystyczną dla młodego pokolenia wychowanego na bazie innych doświadczeń aniżeli ich rodzice oraz dziadkowie [Inglehart 2000, s. 222]. Warto ponadto podkreślić zaobserwowane zależności pomiędzy hierarchią wartości a deklarowaną religijnością młodzieży akademickiej. Uzyskane rezultaty badania potwierdziły podkreślane w wielu pracach [m.in. S chwartz i Huismans 1995; Roccas 2005] pozytywne związki religijności jednostki z wartościami o charakterze tradycyjnym, takimi jak rodzina, zdrowie i przyjaźń, oraz jej negatywne powiązania z wartościami hedonizmu oraz samodzielności. 4. Ocena jakości życia młodzieży akademickiej Indywidualna ocena jakości życia człowieka wypływa zarówno z jego zadowolenia z poszczególnych sfer własnej egzystencji (m.in. warunków materialnych, zdrowia, życia rodzinnego i towarzyskiego) czy ich – implikowanego przez system wartości – znaczenia dla jednostki, jak i z doświadczanych bolesnych oraz radosnych przeżyć, z radości z życia, poczucia szczęścia oraz zaufania do ludzi. W podjętym badaniu do identyfikacji percepcji indywidualnej globalnej jakości życia młodzieży akademickiej uczelni Poznania wykorzystano wskaźniki obrazujące oceny studentów dotyczące ich dobrostanu psychicznego – zadowolenia z własnego życia jako całości. System wartości a ocena jakości życia młodzieży akademickiej 15 Przeprowadzone badania ukazały, że dokonując łącznej oceny wszystkich aspektów własnej egzystencji, zdecydowana większość studentów zaopiniowała swoje życie pozytywnie – aż 46% badanej populacji młodzieży uznało je za dość dobre, a ponad 36% za udane. Tylko niecałe 15% respondentów określiło swoje dotychczasowe życie jako ani dobre, ani złe, a zaledwie nieco ponad 3% udzieliło odpowiedzi o wydźwięku negatywnym (rysunek 2). Można więc stwierdzić, że poziom zadowolenia z życia był wśród badanych studentów bardzo wysoki. Potwierdziła to też średnia wartość uzyskanych ocen, która osiągnęła poziom 1,851, nieznacznie powyżej oceny „dość udane”. 3,0% niezbyt udane 14,7% ani dobre, ani złe 0,2% nieudane 36,2% udane 46,0% dość dobre Rysunek 2. Subiektywne oceny respondentów dotyczące ich życia jako całości Źródło: Obliczenia własne z wykorzystaniem pakietu STATISTICA 8.0 Otrzymane rezultaty dotyczące percepcji życia studentów wpisują się w wyniki badań nad poziomem zadowolenia z życia polskiego społeczeństwa, wskazujące na sukcesywny wzrost satysfakcji życiowej Polaków – już ponad 70% z nich odczuwa zadowolenie z własnej egzystencji, a w subpopulacji ludzi młodych wskaźnik ten jest jeszcze nieco większy [CBOS 2011; Czapiński i Panek 2011]. Podobne trendy są obserwowane w Stanach Zjednoczonych i w krajach Europy Zachodniej – badania dowodzą, że ponad 80% ludzi odczuwa satysfakcję z własnego życia i to niezależnie od płci, wieku bądź rasy [Inglehart 1990; Diener i Diener 1996; OECD 2013]. 16 Tomasz Strózik Jakkolwiek poziom satysfakcji z życia studentów był wysoki we wszystkich wyróżnionych pod względem cech demograficzno-społecznych grupach respondentów, to zaobserwowano też pewien stopień jego zróżnicowania. Odnotować należy, że choć frakcja osób określających swoje życie pozytywnie była jednakowa w subpopulacjach studentów płci męskiej i żeńskiej, to jednak udział respondentów, którzy ocenili je bardzo wysoko − jako udane, był o blisko 6 p.p. większy w subpopulacji studiujących kobiet. Również średnia ocena życia jako całości była wyższa w gronie młodzieży akademickiej płci żeńskiej, a przeprowadzona analiza wariancji potwierdziła istotność tych różnic (F = 3,879, p = 0,0490). Szukając przyczyn istniejących dysproporcji, można przywołać wyniki badań zrealizowanych przez A. Plagnol z University of Cambridge oraz R. Esterlina z University of Southern California, które wskazywały, że relatywnie mniejszy poziom zadowolenia z życia wśród młodych mężczyzn wynikał w dużej mierze z ich samotności w tym okresie [Women End Up Less Happy 2008]. Wnioski te korespondują z wynikami analizy dotyczącej sieci wsparcia wśród badanych studentów, które pokazywały przewagę osób płci męskiej w gronie respondentów, wśród których główną i najczęstszą przyczyną poczucia osamotnienia był brak bliskiej osoby, bratniej duszy [Strózik 2011, s. 225]. Charakterystyczne, że zmienną różnicującą poziom satysfakcji z życia młodzieży akademickiej było środowisko ich miejsca stałego zamieszkania. Udział osób zadowolonych z własnego życia był relatywnie najmniejszy wśród studentów pochodzenia wiejskiego – około 77% z nich uznało swoje dotychczasowe życie za udane lub dość dobre, podczas gdy w gronie młodzieży wywodzącej się z miast frakcja ocen o wydźwięku pozytywnym była o około 5–6 p.p. większa. Również średnia ocena własnego życia jako całości była, jak wykazała wieloczynnikowa analiza wariancji, relatywnie niższa wśród mieszkańców wsi (F = 2,589, p = 0,0754). Znamienne, że poziom satysfakcji życiowej był zdecydowanie niższy w gronie młodzieży akademickiej wywodzącej się z rodzin niepełnych. Frakcja osób określających swoje życie jako udane osiągnęła w tej subpopulacji studentów poziom 27,3% i była tym samym o ponad 10 p.p. niższa aniżeli w gronie studentów pochodzących z rodzin pełnych. Również średnia ocena zadowolenia z życia była istotnie wyższa wśród osób zamieszkujących z obojgiem rodziców (F = 5,778, p = 0,0164). Rezultaty badania potwierdziły po raz kolejny, że życie rodzinne należało do ważniejszych aspektów warunkujących jakość życia młodego człowieka, a dezintegracja życia rodzinnego stanowi istotny czynnik obniżający dobrostan psychiczny człowieka [Czapiński i Panek 2011, s. 457]. System wartości a ocena jakości życia młodzieży akademickiej 17 5. Jakość życia a system wartości młodzieży akademickiej Subiektywna ocena jakości życia jest swego rodzaju efektem konfrontacji obiektywnych warunków życia jednostki i poziomu zaspokojenia różnorodnych potrzeb z aspiracjami, normami i wyznawanymi przez nią wartościami. To indywidualna hierarchia wartości człowieka determinuje jego sposób postrzegania i oceny otaczającej go rzeczywistości, jego percepcję świata i własnego życia. Dlatego też poszukiwanie zależności pomiędzy systemem wartości człowieka a jego dobrostanem psychicznym stanowi jeden z ciekawszych nurtów badań związanych z problematyką jakości życia. Przyjmując założenie o potencjalnym istotnym wpływie wyznawanego przez badaną populację studentów systemu wartości na jej postrzeganie własnej egzystencji, podjęto próbę identyfikacji stopnia zależności pomiędzy poziomem zadowolenia z życia jako całości a jej światopoglądem (deklarowaną religijnością) i hierarchią najważniejszych życiowych wartości. Wiele badań dowodzi wpływu religijności człowieka na jego percepcję własnego życia, a większość z nich mówi o wpływie pozytywnym [Myers 2008; Clark i Lelkes 2009; Hoverd i Sibley 2013]. Podobne wnioski można wysunąć z podjętego badania, które ukazało wyraźną zależność pomiędzy światopoglądem (deklarowaną religijnością) młodzieży akademickiej a jej subiektywnymi ocenami własnego życia jako całości. Najwyższy przeciętny poziom zadowolenia z życia charakteryzował studentów głęboko wierzących i praktykujących (tabela 3). Ponad 86% z nich oceniło swoje dotychczasowe życie jako udane (43,2%) lub dość udane (43,2% wskazań), a tylko 11,7% jako ani dobre, ani złe. Relatywnie mniejszym poziomem satysfakcji z własnego życia odznaczały się osoby niewierzące. Około 33% tej subpopulacji młodzieży uznało swoje dotychczasowe życie za udane, a blisko 8% za niezbyt udane. Również średnia ocena własnej egzystencji była, jak wykazała analiza wariancji (F = 2,942, p = 0,0320), istotnie niższa wśród studentów niewierzących. Bardziej szczegółowe analizy ukazały, że istniejące dysproporcje w ocenie własnego życia pomiędzy osobami głęboko wierzącymi i niewierzącymi były szczególnie widoczne wśród młodych ludzi o relatywnie niekorzystnych warunkach życia w ich obiektywnym ujęciu. Ujawniła się więc buforowa rola religijności, która osobom wierzącym ułatwia zmaganie się z trudami codziennego życia [Helliwell, Layard i Sachs 2012, s. 72]. Bardzo interesujących spostrzeżeń dostarczyła próba identyfikacji powiązań pomiędzy satysfakcją z życia studiującej młodzieży a jej hierarchią najważniejszych życiowych wartości. 18 Tomasz Strózik Tabela 3. Subiektywna ocena własnego życia jako całości a deklarowana religijność respondentów Deklarowana religijność Głęboko wierzący i praktykujący Wierzący, ale mało praktykujący Wierzący, lecz niepraktykujący Niewierzący 1 Ocena własnego życia* (% odpowiedzi) 2 3 4 5 Średnia ocen 43,2 43,2 11,7 1,7 0,2 1,724 31,0 49,8 16,0 3,0 0,2 1,914 36,4 33,1 42,8 44,6 17,6 14,6 2,8 7,7 0,4 . 1,880 1,969 * Skala ocen: 1 – udane, 2 – dość udane, 3 – ani dobre, ani złe, 4 – niezbyt udane, 5 – nieudane. Źródło: Obliczenia własne z wykorzystaniem pakietu STATISTICA 8.0. Jak pokazało podjęte badanie uwarunkowań jakości życia studentów, większość młodzieży zadeklarowała, że relacje z własną rodziną pochodzenia odgrywały w jej życiu priorytetową rolę. To rodzice stanowili dla młodych ludzi źródło wsparcia, nie tylko materialnego [Strózik 2011, s. 226]. Bardzo silnie zaangażowanie znacznej części studentów w życie rodzinne oraz wysokie miejsce rodziny w ich hierarchii najbardziej cenionych wartości znalazły odzwierciedlenie w przeciętnym poziomie dobrostanu psychicznego (F = 18,187, p = 0,0000). Równocześnie frakcja osób zadowolonych z własnego życia była o blisko 10 p.p. większa w subpopulacji młodzieży akademickiej, dla której rodzina jako wartość odgrywała szczególną rolę, aniżeli w gronie studentów, którzy, dokonując wyboru trzech najważniejszych wartości w swym życiu, rodzinę pominęli (tabela 4). Również umiejscowienie zdrowia w systemie wartości młodzieży akademickiej stanowiło istotny czynnik warunkujący zróżnicowanie ocen respondentów dotyczących ich losu. Udział osób oceniających swoje życie jako udane był większy w subpopulacji osób uznających zdrowie za jedną z trzech najważniejszych wartości w swym życiu (tabela 4). Równocześnie, jak ukazała wieloczynnikowa analiza wariancji MANOVA (F = 4,715, p = 0,0412), średnia ocena satysfakcji życiowej była, przy uwzględnieniu stopnia zróżnicowania subiektywnego stanu zdrowia studentów, relatywnie wyższa wśród osób szczególnie ceniących zdrowie. Można zatem wnioskować, że wśród studentów dokonujących jednakowej oceny swojego stanu zdrowia wyższym poziomem zadowolenia z własnej egzystencji odznaczały się osoby uznające zdrowie za wartość fundamentalną. Takie rozumienie wartości zdrowia sprzyja angażowaniu się człowieka w aktywność prozdrowotną oraz unikanie 19 System wartości a ocena jakości życia młodzieży akademickiej Tabela 4. Subiektywna ocena życia jako całości a system wartości respondentów Wartości życiowe Zdrowie tak nie Rodzina tak nie Przyjaciele tak nie Pieniądze tak nie 1 Ocena własnego życia* (% odpowiedzi) 2 3 4 5 Średnia ocen 38,5 34,1 45,8 46,2 12,8 16,4 2,5 3,4 0,4 . 1,806 1,891 39,5 29,7 45,8 46,3 12,3 19,5 2,3 4,3 0,2 0,2 1,780 1,990 34,2 37,1 45,8 46,1 16,9 13,6 2,9 3,0 0,2 0,2 1,891 1,831 31,6 37,2 44,2 46,4 17,5 14,1 6,7 2,1 . 0,3 1,993 1,819 * Skala ocen: 1 – udane, 2 – dość udane, 3 – ani dobre, ani złe, 4 – niezbyt udane, 5 – nieudane. Tak oznacza, że dana wartość znalazła się wśród trzech najważniejszych życiowych wartości wskazywanych przez respondentów, nie, że wśród pozostałych. Źródło: Obliczenia własne z wykorzystaniem pakietu STATISTICA 8.0. zachowań zdrowotnie ryzykownych, co nie tylko wzmacnia zdrowie fizyczne, ale i psychiczne, zwiększając prawdopodobieństwo dobrego samopoczucia. Interesujących rezultatów dostarczyła analiza zróżnicowania satysfakcji życiowej studentów ze względu na miejsce dóbr materialnych w ich systemie wartości. O ile, jak pokazały szczegółowe badania, wzrost poziomu zamożności studiującej młodzieży w sposób pozytywny oddziaływał na jej stopień zadowolenia z własnego życia, o tyle jednak umiejscowienie pieniędzy w gronie trzech najbardziej cenionych wartości wywierało zgoła odmienny skutek (tabela 4). Średni poziom satysfakcji z własnej egzystencji był istotnie wyższy w gronie młodzieży akademickiej, dla której dobra materialne nie przedstawiały największej wartości (F = 7,798, p = 0,0053). Również udział osób oceniających swoje dotychczasowe życie jako udane był o niemal 8 p.p. wyższy wśród respondentów, którzy, wskazując na najważniejsze wartości swojego życia, pominęli zasobność finansową. O ile poziom satysfakcji młodzieży akademickiej z własnej sytuacji finansowej przekładał się na jej zadowolenie z własnego życia jako całości, o tyle, przy takim samym poziomie zamożności (w obiektywnym i subiektywnym ujęciu), wyższym stopniem życiowej satysfakcji wyróżniały się osoby, dla których pieniądze nie były najważniejsze. Przeprowadzone analizy potwier- 20 Tomasz Strózik dziły płynący z różnych badań [Kasser i Ahuvia 2002; Konow i Earley 2008; Miesen 2009] wniosek, że swoisty kult dóbr materialnych może powodować nadmierne rozbudzenie życiowych aspiracji, utrudniając tym samym czerpanie radości i satysfakcji z własnego faktycznego stanu posiadania, z dotychczasowego życia. Zależności pomiędzy dobrostanem psychicznym a światopoglądem (wyrażonym deklarowaną religijnością) i hierarchią życiowych wartości respondentów oraz ich cechami o demograficznym i społecznym charakterze potwierdziła przeprowadzona analiza korespondencji (rysunek 3). Całkowita bezwładność układu wynosiła 1,82, a pierwsze dwa wymiary odwzorowywały 21,15% tej wielkości. Można przyjąć, że pierwsza pozioma oś (wyjaśniająca największy procent bezwładności) rozdzielała grupę respondentów niewierzących, często płci męskiej, którzy w gronie trzech najważniejszych życiowych wartości umieścili pieniądze, pominęli zaś wartości rodzinne, a swoje dotychczasowe życie relatywnie częściej oceniali jako niezbyt udane, od 1,5 niepełna Wymiar 2 (8,983% bezwładności) 1,0 ani dobre, ani złe niepubliczna wierzący i nieprakt. 0,5 wierzący i mało prakt. dość dobre 0,0 pieniądze + –0,5 rodzina – zdrowie – M K zdrowie + rodzina + pieniądze – pełna publiczna gł. wierzący i prakt. udane niezbyt udane –1,0 niewierzący –1,5 –2,0 –2,0 –1,5 –1,0 –0,5 0,0 Wymiar 1 (12,17% bezwładności) 0,5 Rysunek 3. Subiektywne oceny życia jako całości a płeć, rodzaj uczelni oraz charakter rodziny pochodzenia, deklarowana religijność i system wartości respondentów Źródło: Obliczenia własne z wykorzystaniem pakietu STATISTICA 8.0 1,0 System wartości a ocena jakości życia młodzieży akademickiej 21 głęboko wierzącej i praktykującej młodzieży, nierzadko płci żeńskiej, która, ceniąc sobie wartości rodzinne bardziej aniżeli dobra materialne, wyraźnie częściej uznawała swój los za udany. Analiza wykresu pozwoliła ponadto zaobserwować dysproporcje w poziomie satysfakcji z własnej egzystencji jako całości pomiędzy osobami różniącymi się miejscem zdrowia w hierarchii ich najważniejszych życiowych wartości. Podsumowanie Podjęte analizy mające na celu identyfikację hierarchii wartości życiowych studiującej młodzieży pozwoliły ustalić, że wyznawany przez nią system wartości może być określany jako tradycyjny. Młodzi dorośli prezentują postawy nastawione głównie na regulowanie kontaktów społecznych, ale takich, które odnoszą się do raczej wąskiego grona ludzi. Wartościami życiowymi najwyżej cenionymi przez studentów poznańskich uczelni okazały się wartości rodzinne, takie jak rodzina i udane małżeństwo, oraz przyjaźń, a także zdrowie i wykształcenie, czyli wartości uznawane w polskim społeczeństwie od lat. Uzyskane rezultaty postępowania badawczego dotyczącego globalnego wymiaru jakości życia młodzieży akademickiej uczelni miasta Poznania, wpisując się w wyniki badań nad percepcją życia polskiego społeczeństwa, pokazały z kolei bardzo wysoki poziom satysfakcji życiowej studentów. Dokonując łącznej oceny wszystkich aspektów własnej egzystencji, zdecydowana większość badanej młodzieży zaopiniowała swoje dotychczasowe życie jednoznacznie pozytywnie. Indywidualna ocena studentów dotycząca ich własnej egzystencji była implikowana wyznawanym przez młodych ludzi systemem wartości. Podjęte badanie ukazało, że zdecydowanie bardziej zadowoleni z życia są studenci, których można zaliczyć do zwolenników eudajmonistycznego podejścia do życia, zorientowanego na dążenie do celów nadających życiu sens. Postawy eudajmonistyczne relatywnie częściej prezentowały młode kobiety i osoby religijne, ceniące przede wszystkim wartości rodzinne oraz zdrowie. Na przeciwległym biegunie znaleźli się młodzi mężczyźni i osoby niewierzące, relatywnie częściej prezentujące postawy hedonistyczne i materialistyczne. Osoby te, nastawione przede wszystkim na maksymalizację przyjemności, wyraźnie częściej do warunków udanego życia zaliczały wolność i dobra materialne. Potwierdziło się jednak, że takie podejście nie sprzyja, jak pokazują badania [Czapiński 2004; Czapiński i Panek 2011], poczuciu szczęściu i zadowoleniu z życia człowieka. 22 Tomasz Strózik Bibliografia Baniak, J., 1986, Studenci a wartości naczelne, Studia Socjologiczne, nr 4, s. 81–102. Borys, T., 2004, Jakość, jakość życia oraz pojęcia i relacje pochodne, w: Ostasiewicz, W. (red.), Ocena i analiza jakości życia, Wydawnictwo Akademii Ekonomciznej we Wrocławiu, Wrocław. Campbell, A., 1976, Subjective Measures of Well-being, American Psychologist, vol. 31, iss. 2, s. 117–124. CBOS, 2011, Polacy o swoim szczęściu i pechu oraz zadowoleniu z życia 2011. Komunikat z badań, CBOS, Warszawa. CBOS, 2013, Wartości i normy, Komunikat z badań, CBOS, Warszawa. Clark, A.E., Lelkes, O., 2009, Let Us Pray: Religious Interactions in Life Satisfaction, PSE Working Paper No. 2009–01, Paris. Czapiński, J., Panek, T., 2011, Diagnoza społeczna 2011. Warunki i jakość życia Polaków, Rada Monitoringu Społecznego, Warszawa. Czapiński, J., 2004, Spotkanie dwóch tradycji: hedonizmu i eudajmonizmu, w: Czapiński, J. (red.), Psychologia pozytywna. Nauka o szczęściu, zdrowiu, sile i cnotach człowieka, Wydawnictwo Naukowe PWN, Warszawa, s. 13–17. Diener, E., Diener, C., 1996, Most People are Happy, Psychological Science, vol. 7, no. 3, s. 181–185. Feather, N.T., 2005, Values, Religion, and Motivation, w: Maehr, M.L., Karabenick, S.A. (eds.), Motivations and Religion, Advances in Motivation and Achievement, vol. 14, Elsevier, New York. Grzegorczyk, A., 1993, Życie jako wyzwanie, Wydawnicwto IFIS, Warszawa. Helliwell, J.F., Layard, R., Sachs, J., 2012, World Happiness Report, The Earth Institute, Columbia University, New York. Hoverd, W.J., Sibley, C.G., 2013, Religion, Deprivation and Subjective Wellbeing Testing a Religious Buffering Hypothesis, International Journal of Wellbeing, vol. 3, no. 2, s. 182–196. Ignatczyk, W., 2002, System wartości rodzinnych młodzieży polskiej końca XX wieku, Wydawnictwo Akadaemii Ekonomicznej w Poznaniu, Centrum Badań nad Rodziną, Poznań. Ignatczyk, W., 2005, Postawy młodzieży akademickiej miasta Poznania wobec instytucji małżeństwa, Ruch Prawniczy, Ekonomiczny i Socjologiczny, nr 4, s. 267–286. Inglehart, R., 1990, Culture Shift in Advanced Industrial Society, Princeton University Press, New York. Inglehart, R., 2000, Globalization and Postmodern Values, The Washington Quarterly, vol. 23, no. 1, s. 215–228. Jaspers, K., 1919, Psychologie der Weltanschauungen, University of Göttingen, Göttingen. Kasser, T., Ahuvia, A., 2002, Materialistic Values and Well-being in Business Students, European Journal of Social Psychology, vol. 32, s. 137–146. System wartości a ocena jakości życia młodzieży akademickiej 23 Konow, J., Earley, J., 2008, The Hedonistic Paradox: Is Homo Economicus Happier?, Journal of Public Economics, vol. 92, s. 1–33. Krok, D., 2010, System wartości a społeczne i poznawcze wymiary religijności, Roczniki Psychologiczne, nr 2, s. 161–182. Liu, B. C., 1975, Differential Net Migration Rates and the Quality of Life, The Review of Economics and Statistics, vol. 57, s. 329–337. Miesen, H., 2009, “Love Is All You Need”: Social Relatedness Needs, Materialism and Subjective Well-being, Happiness and Relational Goods Conference, Venezia. Myers, D.G., 2008, Religion and Human Flourishing, w: Eid, M., Larsen, R.J. (eds.), The Science of Subjective Well-being, Guilford Press, New York, s. 323–346. OECD 2013, How’s Life? 2013 – Measuring Well-being, OECD Publishing. Pająk, J., 2007, Młodzież studencka jako kategoria socjologiczna, Zeszyty Naukowe WSZ w Częstochowie, nr 2, s. 30–38. Piechnik-Borusowska, J., 1998, Życie rodzinne i małżeńskie studentów Opola, Wydawnictwo Uniwersytetu Opolskiego, Opole. Roccas, S., 2005, Religion and Values System, Journal of Social Issues, vol. 61, no. 4, s. 747–759. Ross, W.D., 1973, The Right and the Good, Oxford Press, Oxford. Schwartz, S.H., Huismans, S., 1995, Value Priorities and Religiosity in Four Western Religions, Social Psychology Quarterly, vol. 58, s. 88–107. Stanisz, A., 2007, Przystępny kurs statystyki z zastosowaniem STATISTICA PL na przykładach z medycyny. Analizy wielowymiarowe, t. 3, StatSoft, Kraków. Strózik, T., 2011, Społeczny wymiar jakości życia młodzieży z poznańskiego środowiska akademickiego, w: Roeske-Słomka, I. (red.), Prace statystyczne i demograficzne, Zeszyty Naukowe nr 195, Wydawnictwo Uniwersytetu Ekonomicznego w Poznaniu, Poznań, s. 212–227. Szczepański, J., 1967, Elementarne pojęcia socjologii, PWN, Warszawa. Wawro, F.W., 2004, Młodzież w kontekście formowania się nowoczesnych społeczeństw, Wydawnictwo KUL, Lublin. Women End Up Less Happy than Men, 2008, ScienceDaily, http://www.sciencedaily. com/releases/2008/07/080729133605.htm [dostęp: 30.06.2012]. STUDIA OECONOMICA POSNANIENSIA 2014, vol. 2, no. 2 (263) Tomasz Gabrusewicz Uniwersytet Ekonomiczny w Poznaniu, Wydział Ekonomii, Katedra Teorii Pieniądza i Polityki Pieniężnej [email protected] KATEGORIA WARTOŚCI W NAUCE RACHUNKOWOŚCI Wartościowe wyniki można niekiedy osiągnąć, działając z niskich pobudek. Leszek Kołakowski Streszczenie: Głównym celem artykułu jest identyfikacja pojęcia wartości i umiejscowienie go w teorii rachunkowości na tle najnowszych rozwiązań w tym zakresie. Omówiono w nim pojęcie wartości. Ponadto wskazano obszary współczesnej rachunkowości, w której wartość rodzi niejako nowe paradygmaty. W badaniach zastosowano takie metody badawcze, jak metoda indukcji oraz metoda analizy krytycznej. Słowa kluczowe: wartość, rachunkowość, zrównoważony rozwój. Klasyfikacja JEL: M4. THE CATEGORY OF VALUE IN THE SCIENCE OF ACCOUNTING Abstract: The main objective of this paper is to identify the concept of value and place it within the theory of accounting against a background of the latest developments in this field. The paper, in addition to discussing the concept of value, indicates areas of modern accounting in which value creates new paradigms. The paper utilises research methods such as induction and critical analysis. Keywords: value, accounting, sustainable development. Wstęp Wartość jest jednym z najważniejszych pojęć w całej dziedzinie rachunkowości. Kalkulacja i wartościowanie zasobów majątkowych i rezultatów osiąganych z prowadzonej działalności gospodarczej stanowiły fundament rachunkowości Kategoria wartości w nauce rachunkowości 25 w gospodarce kształtowanej przez handel wymienny. W erze współczesnej ekonomii, w której podstawę stanowią wiedza i informacja, rachunkowość musi się zmierzyć z niezwykle trudnym zadaniem, którym jest stworzenie podstaw w zakresie kwantyfikacji wartości [Karmańska 2009]. Rachunkowość stworzyła dużo technik służących pomiarowi wartości, które tworzą zestaw zasad wyceny. Techniki te w swojej mnogości i zakresie nie są tożsame z cechami przypisywanymi paradygmatowi, gdyż w zakresie paradygmatu nie zezwala się na wieloznaczność1. Przedsiębiorstwa, realizując założoną misję, muszą się starać, by udało im się osiągać wyznaczone cele oraz wykonywać założone zadania przy zachowaniu wewnętrznej równowagi. Henri Fayol w pracy pod tytułem Administration Industrielle et Generale [Fayol 1972] wskazał regułę, że w podmiocie gospodarującym korzyści, jakie mogą osiągnąć pracownicy (indywidualnie lub jako związek), nie powinny stawać ponad korzyściami, jakie z działalności mogą płynąć dla podmiotu gospodarującego, że dobro rodziny jako komórki społecznej musi być stawiane przed dobrem pojedynczej jednostki (osoby). Podobnie interes państwa powinien brać górę nad interesem grupy lub jednostki społecznej. Z tego powodu do celu pierwotnego gospodarowania oprócz zysku należy zaliczyć przetrwanie i rozwój. Zysk sam w sobie nie powinien być celem nadrzędnym, ale okazuje się, że jest środkiem do osiągnięcia bardziej ogólnego i często mniej oczywistego celu. Głównym celem artykułu jest identyfikacja pojęcia wartości i umiejscowienie go w teorii rachunkowości na tle najnowszych rozwiązań w tym zakresie. Teoria rachunkowości jest w artykule obszarem badawczym. 1. Próba charakterystyki pojęcia wartości Piśmiennictwo z zakresu aksjologii prezentuje dużo propozycji podziału wartości. Ogólnie przyjęło się rozdzielenie wartości na odczuwane, deklarowane i uznawane. Wartości deklarowane to te, o których wiedzę pozyskujemy z opowiadań czy szczerych lub nie deklaracji zamieszczanych w różnego rodzaju ankietach. Szczegółową wiedzę z zakresu charakterystyki wartości uznawanych ma ich podmiot. Adresat lub osoba obserwująca ma prawo uważać, że owe wartości są zgodne z tymi, które głosi konkretny obiekt (osoba/podmiot gospodarujący). Możliwe w tym wypadku jest również, że adresat, analizując, wnioskuje o war1 A. Karmańska twierdzi, że wartość ekonomiczna może być (potencjalnie) nowym paradygmatem rachunkowości. 26 Tomasz Gabrusewicz tościach uznawanych z postępowania obiektu. Wnioskowanie przeprowadzone przez adresata/obserwatora może nie być do końca obiektywne. Dzieje się tak z powodu tendencji adresata/obserwatora do oceniania innych przy użyciu własnego systemu wartości. Kolejna klasyfikacja pojęcia wartości w piśmiennictwie z zakresu aksjologii to klasyfikacja na tzw. wartości absolutne, bazowe (inaczej określane jako ostateczne) oraz wartości określane mianem instrumentalnych, pragmatycznych lub uznawalnych. Niezwykle ważna w nauce aksjologii jest segmentacja wartości, jaką otrzymujemy, próbując rozwiązać następujący problem [Puzynina 1992, s. 32]: Wartość – kto jest odbiorcą informacji? Czy są to inne jednostki? Czy może jest to całe społeczeństwo? A może są to wszyscy ludzie? W literaturze można spotkać podział wartości ze względu na jej treść. Max Scheler grupuje wartości w następujący sposób: –– wartości najniższe – mowa tu o wartościach sybarytystycznych, związanych z przyjemnością, np. żal, szczęście, –– górujące nad poprzednimi wartości utylitarne, tzn. praktyczne, np. przydatność, niezawodność, –– kolejne to wartości życiowe, określane mianem biologicznych, m.in. wydolność, wigor, –– następne to wartości w sferze ducha; przyporządkowuje się do nich następujące grupy: wartości sfery estetycznej (urok, szpetota), wartości aksjomatyczne (wartość tego, co poprawne i co niepoprawne), wartości sfery poznania (prawda, bezstronność), –– najważniejsze są wartości sacrum i profanum, czyli wartości obrzędowe; są traktowane jako wartości o charakterze absolutu [za: Sokół b.r.]. Za fundamentalne2 uważane są te wartości, dzięki którym mamy możliwość tworzenia pozostałych wartości. Stają się one najpoważniejsze z tego powodu, że nie ma jak bez nich osiągnąć wartości z kategorii wyższych [Galarowicz 1992, s. 575]. Podział systematyczny przedstawiony przez R. Ingardena3 obejmuje trzy grupy. Są to: wartości żywotne, kulturowe i moralne. Z kolei W. Tatarkiewicz [1992, s. 72; 2010, s. 322 i dalsze] uważa, że wartość zaliczana do kategorii moralnej to wartość drugorzędna. Mamy z nią do czynienia w momencie, w którym dostajemy/wchodzimy w posiadanie lub chcemy dostać/wejść w posiadanie określoną rzecz. 2 Dobrym przykładem uniwersalnego istnienia podziału w zakresie wartości i ich istnienia z uwzględnieniem dualnego charakteru na przykład w sztuce jest piękno i szpetota. 3 Wnioski na podstawie analizy materiałów K.P. Skowrońskiego [2010]. Kategoria wartości w nauce rachunkowości 27 Niektórzy badacze, m.in. M. Rokeach, nie stosują obszernych klasyfikacji w zakresie zawartości treści w tłumaczeniu pojęcia wartości. Według wspomnianego badacza wartości decydujące rozpoznajemy w sytuacji, gdy jesteśmy w stanie określić, do jakiej sytuacji dana jednostka podąża, co jest jej celem [za: Puzynina 1992, s. 37]. Za myśl przewodnią w rozważaniach w zakresie fragmentaryzacji wartości prezentowanych przez J. Puzyninę trzeba obrać obecność wartości przedmiotowych oraz wartości o charakterze absolutnym. Istnienie tych dwóch klas wartości autorka traktuje jako łączne i podkreśla w ich obszarze wartości, które noszą cechy pozytywne lub negatywne, a wśród nich – uniwersalne i ostateczne [Puzynina 1992, s. 39]. Aksjologia, która rozwijała się dynamicznie, znacząco korzystała z rozwiązań proponowanych w XVII i XVIII wieku przez angielskich przedstawicieli empiryzmu, a w jego obszarze największe znaczenie miał utylitaryzm. David Hurne negował możliwość perspektywy sądów moralnych z jakichkolwiek stwierdzeń opisowych, tak zwanych sądów o faktach. Uświadomił wszystkim, że noeza łączy się jedynie z zagadnieniami opisowymi, z kolei wartości – z odczuciem w obszarze moralności, bazującym na odczuwaniu radości i korzyści dobra ogółu [Puzynina 1992, s. 21–22 i dalsze]. Przedstawiciele naturalistów łączą perspektywę transferu prostych ocen faktów do sądów wartościujących. Dalej należy rozumieć to tak, że sądy wartościujące obejmują pomiar zadowolenia/radości (utylitaryzm), lub tak jak tłumaczy to ewolucjonizm, że weryfikacja ocen wartościujących umożliwia egzystencję. Rozumowym rozwiązaniem tej kwestii jest to, że wartości są umotywowaniem działań w powiązaniu z możliwością dotarcia do oznaczonego celu dzięki ich umiejętnemu wykorzystaniu w procesie egzystencji. Pozycję racjonalisty, która nie uwzględnia poznawczej funkcji uczuć, przyjął E. Kant. Twierdził on, że przewagę w poznawaniu rzeczywistości dawał umysł i jego „praktyczne” możliwości, jednocząc świadomość z tzw. czystą wolą. Sformułowanie „wartość” weszło do słownika filozoficznego z końcem XIX wieku. Jednocześnie w filozofii wyodrębniła się dyscyplina, której głównym zadaniem było poznanie pojęcia wartości – aksjologia. Pierwotna definicja wartości została sformułowana przez R.B. Perry’ego w 1926 roku [za: Najder 1971, s. 61] „Wartość jest tedy szczególnym stosunkiem, w której wchodzić mogą rzeczy posiadające jakikolwiek status ontologiczny, rzeczywiste lub wyobrażane, z zainteresowanym przedmiotem”. Z. Najder w swoim opracowaniu twierdzi, że wartość to pojęcie o wielu znaczeniach. Zasadniczo jest charakteryzowane w następujący sposób: 28 Tomasz Gabrusewicz –– wartość w znaczeniu wymiernym, możliwym do prezentacji w formie liczbowej, np. cena jednostkowa, –– wartość w znaczeniu rzeczowym, czyli wartościowe przypisanie cechy jakiemuś obiektowi, –– wartość prezentowana jako koncepcja, dzięki której przedmiot, jego atrybut są uznawane za wartościowe [Najder 1971, s. 46 i n.]. Z punktu widzenia aksjologii wartości nawiązują głównie do sytuacji (fortuna, poczucie własnej godności), jak również do modelu sposobu bycia (poświęcenie, empatia), systemów formalnych (przeciwności, równowaga). Najder określa omówione wcześniej postawy jako „idealne/ideały” [Najder 1971, s. 66]. W obszarze nauk społecznych wartość jest prezentowana w następujący sposób [Murray 1979, s. 16–17, Najder 1971, s. 66 i dalsze]: –– wartość jako motywator – H.A. Murray określa wartości jako tę część świata, w obszarze której człowiek definiuje swoje zapotrzebowanie, wyróżnia tu respekt, poważanie i posiadanie, –– wartość określana nośnikiem dodatniej ceny – powiązać ją należy z osądami, które wartościują świat aktywów/rzeczy z pułapu ogólnego przyzwolenia społecznego, –– wartość jako kanon dodatniej oceny przedmiotów – w rozumieniu tego pojęcia wartość to coś na kształt poprawnego wizerunku. W konsekwencji wcześniejszej analizy wielu podejść z zakresu filozofii na temat terminu wartości, należy podjąć dyskusję o wartości w rachunkowości. Nauka rachunkowości weszła w dość interesujący i dynamiczny czas. Naukowcy zajmujący się rachunkowością badają najistotniejsze obszary teorii i praktyki tej niezwykle ważnej dziedziny ekonomii – mowa tu choćby o badaniach w zakresie konserwatywnego podziału rachunkowości na rachunkowość finansową i zarządczą. Tarcia na tle wyników osiąganych badań w podanym zakresie mogą rokować kryzys w nauce normalnej [Gabrusewicz 2009 i Masztalerz 2012]. 2. Rachunkowe koncepcje pomiaru wartości – paradygmaty4 Rachunkowość może być rozumiana jako historyczna ewidencja. Można też przyjąć, że rachunkowość jako nauka jest ukierunkowana praktycznie, co oznacza, że jej zadaniem jest mierzenie i prezentowanie zmian wartości majątku będącego we władaniu podmiotu gospodarującego zarówno w skali 4 Więcej na ten temat w kontekście zrównoważonego rozwoju można znaleźć w pracy T. Gabrusewicza [2011, s. 7 i n.]. Kategoria wartości w nauce rachunkowości 29 mikro, jak i makro. Pomiar ten jest dokonywany, by usprawnić w podmiocie proces decyzyjny [Jarugowa 1991, s. 13]. Obserwując kierunek zmian i koncentrację na wycenie, można zaryzykować stwierdzenie, że jesteśmy świadkami rodzącego się nowego paradygmatu w rachunkowości – paradygmatu pomiaru wartości ekonomicznej [Karmańska 2009, s. 164]. Paradygmat w rozumieniu wprowadzonym przez filozofa Thomasa Kuhna w książce Struktura rewolucji naukowych (The Structure of Scientific Revolutions) opublikowanej w 1962 roku to zbiór pojęć i teorii tworzących podstawy danej nauki. Teorii i pojęć tworzących paradygmat raczej się nie kwestionuje, przynajmniej do czasu, gdy paradygmat jest twórczy poznawczo. Oznacza to, że za jego pomocą można tworzyć teorie szczegółowe zgodne z danymi doświadczalnymi (historycznymi), którymi zajmuje się dana nauka. P. Wójtowicz [2010, s. 20] twierdzi, że używanie terminu „paradygmat” w kontekście rachunkowości jest pewnym nadużyciem – w sensie pojęcia paradygmatu Kuhna z 1968 roku [Kuhn 2009]. Jednak podaje również, że prób sformułowania paradygmatów rachunkowości w literaturze można znaleźć wiele (wymienia prace M.C. Wellsa z 1976 roku, A.R. Belkaoui z 1981 roku oraz J.E. Butterwortha i H. Falka z 1986 roku oraz Statement of Accounting Theory and Theory Acceptance z 1997 roku). Nowy paradygmat w rachunkowości powstaje, ponieważ nowa rzeczywistość wymaga kolejnej zmiany w systemie informacyjnym rachunkowości. Waga tej zmiany jest kardynalna, ponieważ wynika z jakościowo nowych tendencji obserwowanych w zarządzaniu przedsiębiorstwem i w zachowaniach różnych grup interesariuszy. Rachunkowość jako nauka społeczna swoje podstawy, normy i wytyczne opiera na paradygmacie społeczno-ekonomicznym. Z tego paradygmatu wyrósł paradygmat metody bilansowej [Karmańska 2009, s. 157–166]. Mając na uwadze globalizację operacji gospodarczych i potrzebę zapewniania przez rachunkowość takiego ich opisu, aby odpowiadał on potrzebom informacyjnym globalnych interesariuszy, łatwo zauważyć, że paradygmat społeczno-ekonomiczny nie dość, że ciągle jest aktualny, to nabiera ogromnego znaczenia. Wskazuje bowiem na potrzebę nowych poszukiwań w zakresie opisu rzeczywistości gospodarczej, której „światowy wymiar” stał się już oczywistą cechą. Żeby opis nowej rzeczywistości gospodarczej w systemie rachunkowości mógł służyć wypełnianiu przypisanych jej funkcji informacyjnych dla globalnych interesariuszy rachunkowości, musi być tak dokonywany, aby nikt nie kwestionował wiążących się z nim paradygmatów. Każda teoria odnosząca się do tego opisu musi więc być tak samo bezwarunkowo akceptowana jak paradygmat społeczno-ekonomiczny i paradygmat metody bilansowej. 30 Tomasz Gabrusewicz Na tym tle w sposób niejako naturalny we współczesnych uwarunkowaniach gospodarczych szczególnie silnie pojawia się problem pomiaru wartości ekonomicznej i konieczność wypracowania teorii pomiaru tej wartości, która mogłaby być zastosowana w rachunkowości [Karmańska 2009, s. 164]. Prawie wszystkie międzynarodowe standardy rachunkowości zajmują się kwestiami pomiaru wartości ekonomicznej. Pokazują podejścia, modele, kryteria i różne sposoby, dzięki którym trzeba wartości wyrażać w rachunkowości. Konkludując, poszukiwanie paradygmatu pomiaru wartości ekonomicznej mogą wyrażać różne teorie wyceny. Paradygmatem może być jednak tylko jedna teoria pomiaru i to taka, która będzie naturalną pochodną paradygmatu metody bilansowej i która pogodzi dwa aspekty wartości ekonomicznej: przedmiotowy i własnościowy. Jeżeli nauka rachunkowości wypracuje spójną (w takim rozumieniu) teorię pomiaru wartości ekonomicznej, to dopiero taka teoria będzie zasługiwała na miano kolejnego paradygmatu w nauce rachunkowości, choć należałoby już zacząć mówić o wyłanianiu się w rachunkowości paradygmatu wyceny. 3. Wartość finansowa (sprawozdawcza) i wartość do zarządzania5 W ogólnym ujęciu zagadnienie wartości i jego znaczenie w dziedzinie rachunkowości dotyczy pomiaru składników majątku i zobowiązań oraz ekonomicznych rezultatów prowadzonych działań. Pomiar jako zagadnienie od samego początku stanowił niezwykle interesujący obszar badawczy zarówno w obszarze rachunkowości finansowej, jak i zarządczej. W tabeli 1 zaprezentowano oryginalne zestawienie różnic pomiędzy oboma obszarami rachunkowości z podziałem na główne kierunki pomiaru. Rachunkowość finansowa jest skoncentrowana na pomiarze wartości aktywów i źródeł ich finansowania oraz na ustalaniu wysokości wyniku osiąganego na działalności podmiotu, podczas gdy w obszarze rachunkowości zarządczej koncentracja skupia się na procedurze kreowania wartości (dla zainteresowanych odbiorców) oraz na określeniu wartości (wewnętrznej) konkretnego podmiotu. Wycena podmiotu gospodarującego nie jest zadaniem stawianym przed rachunkowością finansową. Ona koncentruje się na tym, by w odpowiedniej formie i w odpowiednim czasie przedstawić zainteresowanym stronom (od5 W tej części artykułu wyrażone poglądy pozostają w pełnej zgodności z poglądami wyrażonymi przez M. Masztalerza [2012, s. 101 i dalsze]. Kategoria wartości w nauce rachunkowości 31 Tabela 1. Wartość w ujęciu rachunkowości finansowej i zarządczej według M. Masztalerza Kryterium porównania Przedmiot/podmiot pomiaru Metoda pomiaru Wartość przedsiębiorstwa Konkurencyjne metody pomiaru Wykorzystanie cen rynkowych Jednostki pomiaru Pomiar dokonań Odbiorcy informacji Rachunkowość finansowa wynik finansowy, wartość składników bilansu koszt historyczny, wartość godziwa wartość księgowa koszt historyczny / wartość godziwa duże Rachunkowość zarządcza wartość procesów, klientów, konkurencji itp. bieżąca wartość przyszłych korzyści ekonomicznych wartość wewnętrzna przepływy pieniężne / zysk rezydualny małe pieniężne zysk netto, dochód całkowity itp. użytkownicy sprawozdania finansowego pieniężne i niepieniężne mierniki korelacji wartości, np. EVA, MVA, SVA itp. interesariusze Źródło: Opracowanie własne na podstawie [Masztalerz 2012, s. 205]. biorcom) sprawozdanie finansowe, w którym mamy informacje o wartości poszczególnych zasobów podmiotu. Zgodnie z IASB [2010], w sprawozdaniu finansowym nie prezentuje się danych (wartościowo) dotyczących podmiotu tworzącego to sprawozdanie, a prezentuje się dane, które są użyteczne dla różnych odbiorców (banków, ubezpieczycieli, inwestorów), którzy są w stanie wykorzystać je do wyceny wartości podmiotu. Należy też podkreślić, że potrzeba ustalania wartości podmiotu gospodarującego jest rezultatem braku jedności pomiędzy wartościami: księgową i rynkową. W wypadku wartości księgowej pomija się takie elementy (istotne zdaniem autora) istniejące w obszarze podmiotu gospodarującego, jak intelekt, wykształcenie, doświadczenie kadry pracowniczej czy opinia o podmiocie wśród kontrahentów. Ponadto, zachowując zasadę ostrożności, wartość księgowa może korzystać z koncepcji kosztu historycznego. Wartość rynkową można rozumieć jako „uśredniony pogląd inwestorów” [Masztalerz 2012] o wartości podmiotu gospodarującego. Pogląd ten – głównie w kontekście badań z zakresu finansów behawioralnych, które odnoszą się do anomalii występujących na rynkach kapitałowych, oraz możliwości podejmowania nieracjonalnych decyzji przez inwestorów – zwraca naszą uwagę na rzetelność wyceny dokonywanej na rynku. Zredukowanie tej różnicy to chyba najważniejsze zadanie stawiane aktualnie rachunkowości. 32 Tomasz Gabrusewicz W artykule już wcześniej wskazano, że celem rachunkowości finansowej nie jest raportowanie wartości przedsiębiorstwa [Gabrusewicz 2010b, s. 29 i n.], a tylko zaopatrywanie w informacje przydatne do oceny tej wartości przez zainteresowanego odbiorcę informacji (z przyjęciem przez niego na siebie tego ryzyka). Co więcej, nawet gdyby powstał szablon sprawozdawczy spajający całość zasobów (nie pomijając kapitału intelektualnego) i prezentujący „prawdziwą” wartość podmiotu gospodarującego, jaki sens miałaby wtedy giełda? [Masztalerz 2010, s. 76 i n.]. Wartość wykazywana w księgach rachunkowych prezentowana w corocznym końcowym sprawozdaniu finansowym, które jest efektem pracy całej jednostki, to suma wartości zasobów jednostki w postaci aktywów, którą umniejsza się o wartość zobowiązań. W rachunkowości zarządczej przez wartość przedsiębiorstwa rozumie się często bieżącą wartość zdyskontowanych przyszłych korzyści ekonomicznych, które jednostka osiągnie w przyszłości. Rachunkowość finansowa oraz rachunkowość zarządcza posługują się wieloma technikami mierzenia, ale trzeba też wiedzieć, że w zakresie rachunkowości wewnętrznej (zarządczej) przyjęcie konkretnej metody wyznacza kierunek w wycenie jednostki opartej na ujednoliconych zasadach odpowiadających przyjętemu modelowi wyceny. Natomiast w rachunkowości finansowej w zakresie rocznego sprawozdania finansowego zarówno aktywa, jak i składniki zobowiązań i rezerw mogą być wyceniane przy użyciu różnych metod. Ta sytuacja w konsekwencji prowadzi do niezgodności w obszarze metodologii i ma ujemny wpływ na możliwość efektywnego wykorzystania informacji przez użytkownika [Gabrusewicz 2010a; Masztalerz 2012]. Debata traktująca na temat pomiaru wartości w zakresie rachunkowości finansowej i menedżerskiej dotyka różnych zagadnień. W obszarze rachunkowości finansowej zagadnieniem wiodącym stała się dyskusja przeciwstawiająca sobie koszt historyczny i wartość godziwą. W rachunkowości zarządczej, badania są skoncentrowane na pomiarze wartości z wykorzystaniem cash flow albo – w przeciwieństwie do tego, z wykorzystaniem zysku ekonomicznego (rezydualnego). Niezwykle interesujące porównanie podawane jest w zakresie użyteczności ustalania wartości ceny rynkowej. W tym miejscu trzeba jasno wskazać, że procedury stosowane w rachunkowości finansowej, gdy tylko jest taka możliwość, odnoszą się do wolnego rynku. Jeżeli chodzi o koncepcję wyceny wykorzystującą koszt historyczny, wartość przykładowego aktywa (w momencie powstania) to wartość ustalona na poziomie ceny rynkowej. W przypadku wyceny według wartości godziwej, zgodnie z jej definicją, za wartość początkową przykładowego aktywa uważa się wartość ustaloną przy zastosowaniu metody wyceny według ceny rynkowej. Kategoria wartości w nauce rachunkowości 33 W zakresie rachunkowości zarządczej – zdaniem autora – w większości nie wykorzystuje się możliwości stosowania wyceny wartości firmy z zastosowaniem ceny rynkowej, za to w swoich wynikach stara się oszacować profity natury ekonomicznej. Gdybyśmy nie ustalali wartości tak, jak to wskazano powyżej, jedyną poprawną metodą stałaby się metoda wyceny ustalonej za pomocą wartości rynkowej; i nie dałoby to możliwości poszukiwania nowych rozwiązań w zakresie metod wyceny. Kolejnym obszarem, który w tym miejscu wart jest zaprezentowania, są badania dotyczące związków zachodzących pomiędzy informacją pochodzącą z systemu rachunkowości a wyceną podmiotu gospodarującego ustalaną na rynku. W piśmiennictwie zagranicznym poświęconym omawianemu zagadnieniu [Aboody, Hughes i Liu 2002; Ball i Brown 1968 i Ohlson 1995] autorzy za pomocą pojęcia value relevance charakteryzują poziom tożsamości danych pochodzących z systemu rachunkowości (wartościowo) z tzw. prawdziwą wartością podmiotu gospodarującego. Co zatem należy rozumieć jako „prawdziwą” wartość? M. Masztalerz [2012] tłumaczy, że jest to wartość ustalona wewnątrz jednostki albo wartość bieżąca cash flow oczekiwanych w przyszłości lub też wartość, jaką jednostka może osiągnąć, będąc uczestnikiem rynku kapitałowego. Problematyka value relevance w nauce ekonomii istnieje już od prawie pięćdziesięciu lat i w głównej mierze dotyczy relacji pomiędzy kursami czy zmianami kursów akcji a wartościami prezentowanymi w sprawozdaniach finansowych badanych jednostek. W badaniach tych poczyniono istotne założenie. Przyjęto minimalną średnią efektywność rynków kapitałowych, co oznacza, że ceny akcji oddają całość informacji dostępnych na rynku i nie istnieje perspektywa osiągania zysków o ponadprzeciętnej wartości przy wykorzystaniu wspomnianych informacji. Zdaniem autora, badania w przedmiotowym obszarze są niezwykle ważne dla rozwoju zarówno myśli rachunkowej, jak i ekonomicznej. Rodzi się jednak pytanie, jak bardzo przydatne są wyniki osiągane w tych badaniach, bo przy założeniu średniej efektywności rynków wycena na nich przeprowadzona nie zawsze będzie tożsama z „prawdziwą” wyceną wartości jednostki. Zakończenie Rachunkowość od samego początku swojego istnienia traktowała wartość jako najważniejszy, obok ewidencji, obszar badawczy. W dzisiejszych czasach – przy zaprezentowanym w artykule podziale wewnątrz rachunkowości, gdzie wartość nie zawsze jest rozumiana w ten sam sposób, mierniki warto- 34 Tomasz Gabrusewicz ści posiadanego majątku i osiąganych rezultatów ekonomicznych jednostki stanowią podstawę decyzji podejmowanych w podmiocie gospodarującym. W artykule przedstawiono pojęcie wartości w świetle badań różnych nauk, wskazano rozbieżności w prezentacji wartości w zakresie rachunkowości finansowej oraz dokonano oceny założeń wartości rynkowej. Rachunkowość coraz częściej zaczyna zwracać uwagę nie tylko na mierzalne efekty działalności gospodarczej dające się skodyfikować w sprawozdanie finansowe, ale i na te niemierzalne, którymi są odpowiedzialność i ekologia [Gabrusewicz 2010a, s. 56–63]. Daje to szerokie możliwości wykorzystania instrumentów rachunkowości, takich jak rachunkowość odpowiedzialności społecznej [Gabrusewicz 2010a, s. 165 i n.], do skutecznego, efektywnego i zgodnego z założeniami koncepcji zrównoważonego rozwoju zarządzania przedsiębiorstwami. Bibliografia Aboody, D., Hughes, J., Liu, J., 2002, Measuring Value Relevance in a (Possibly) Inefficient Market, Journal of Accounting Research, vol. 40, no. 4. Ball, R., Brown, P., 1968, An Empirical Evaluation of Accounting Income Numbers, Journal of Accounting Research, vol. 6, no. 2. Belkaoui, A.R., 1992, Accounting Theory, Academic Press, London. Butterworth, J.E., Falk, H., 1986, Financial Reporting – Theory and Application to the Oil and Gas Industry in Canada, Society of Management Accountants of Canada, Hamilton, Ontario, s. 9–29. Fayol, H., 1972, Ogólne zasady administracji, w: Kurnal, J. (red.), Twórcy naukowych podstaw organizacji, Wybór pism, PWE, Warszawa. Gabrusewicz, T., 2009, Paradygmat wyceny wartości ekonomicznej w rachunkowości – wartość godziwa a kryzys finansowy, w: Kamela-Sowińska, A. (red.), Czy to kryzys, czy recesja?, Wydawnictwo Wyższej Szkoły Handlu i Rachunkowości w Poznaniu, Poznań. Gabrusewicz, T., 2010a, Rachunkowość odpowiedzialności społecznej w kształtowaniu zasad nadzoru korporacyjnego, C.H. Beck, Warszawa. Gabrusewicz, T., 2010b, The Principle of True and Fair Presentation in Relation to the Process of Harmonization and Standardization af Accounting, Wydawnictwo Uniwersytetu Ekonomicznego w Poznaniu, Poznań. Gabrusewicz, T., 2011, Pomiar w zrównoważonym rozwoju i rachunkowości – w poszukiwaniu wspólnej koncepcji, w: Czternasty, W. (red.), Gospodarka Polski po Kategoria wartości w nauce rachunkowości 35 akcesji do Unii Europejskiej – wymiar finansowy, Wydawnictwo Uniwersytetu Ekonomicznego w Poznaniu, Poznań. Galarowicz, J., 1992, Na ścieżkach prawdy. Wprowadzenie do filozofii, Wydawnictwo Naukowe Papieskiej Akademii Teologicznej w Krakowie, Kraków. IASB, 2010, The Conceptual Framework for Financial Reporting 2010, International Accounting Standards Board, London. Jarugowa, A. (red.), 1991, Współczesne problemy rachunkowości, PWE, Warszawa, Karmańska, A., 2009, Wartość ekonomiczna w systemie informacyjnym rachunkowości finansowej, Difin, Warszawa. Kuhn, T.S., 2009, Struktura rewolucji naukowych, Wydawnictwo Aletheya, Warszawa. Masztalerz, M., 2010, Accounting and Capital Market – The Usefulness of Financial Statements for Investors, w: Gabrusewicz, W., Samelak, J. (eds.), Selected Problems and Perspectives of the Process of Global Harmonization and Standardization of Accounting, Zeszyty Naukowe nr 163, Wydawnictwo Uniwersytetu Ekonomicznego w Poznaniu, Poznań. Masztalerz, M., 2012, Pomiar wartości – w kierunku integracji rachunkowości finansowej i zarządczej, KIBR, Poznań. Najder, Z., 1971, Wartości i oceny, PWN, Warszawa. Ohlson, J.A., 1995, Earnings, Book Value and Dividends in Equity Valuation, Contemporary Accounting Research, no. 11. Perry, R.B., 1926, General Theory of Value, Cambridge, Mass. Puzynina, J., 1992, Język wartości, Wydawnictwo Naukowe PWN, Warszawa. Skowroński, K.P., 2010, Estetyka. Wartości artystyczne a estetyczne, wykłady dla III roku filozofii, http://skowronski.krzysztof.w.interii.pl/Estetyka%202010%20Wartosci.htm [dostęp: 22.12.2012]. Sokół, A., b.r., Wartość – próba charakterystyki pojęcia, profesor.pl serwis edukacyjny, www.profesor.pl/mat/na8/na8_a_sokol_030925_2.php?id_m=7113 [dostęp: 23.12.2012]. Statement of Accounting Theory and Theory Acceptance. Accounting Eduaction, Research and Practice, 1997, American Accounting Association, Committee on Concepts and Standards for External Financial Reports. Tatarkiewicz, W., 1992, Pisma z etyki i teorii szczęścia, wybór i opracowanie P.J. Smoczyński, Ossolineum, Wrocław–Warszawa–Kraków. Tatarkiewicz, W., 2010, O szczęściu, wyd. 11, Wydawnictwo Naukowe PWN, Warszawa. Wells, M.C., 1976. A Revolution in Accounting Thought?, The Accounting Review, vol. 51, no. 3, s. 471–482. Wójtowicz, P., 2010, Wiarygodność sprawozdań finansowych wobec aktywnego kształtowania wyniku finansowego, Wydawnictwo Uniwersytetu Ekonomicznego w Krakowie, Kraków. STUDIA OECONOMICA POSNANIENSIA 2014, vol. 2, no. 2 (263) Kinga Dropek Uniwersytet Ekonomiczny w Poznaniu, Wydział Gospodarki Międzynarodowej, Katedra Konkurencyjności Międzynarodowej [email protected] DZIAŁANIA SAMORZĄDU TERYTORIALNEGO WSPIERAJĄCE PRZEDSIĘBIORCZOŚĆ W GMINACH WOJEWÓDZTWA WIELKOPOLSKIEGO Streszczenie: Kategoria przedsiębiorczości nie ma jednoznacznej i uniwersalnej interpretacji, jest definiowana i analizowana bardzo szeroko. Problemami przedsiębiorczości zajmują się przedstawiciele wielu dyscyplin naukowych, co stanowi o jej wielowymiarowym charakterze, dlatego też trudno jest znaleźć jednolite stanowisko w kwestii pojęcia przedsiębiorczości. Coraz częściej odchodzi się od nawyku mówienia o przedsiębiorczości tylko w odniesieniu do biznesu. Pojęcie to odnosi się również do sektora publicznego czy też sektora społecznego. Oprócz klasycznych przedsiębiorców rozwijających biznes coraz częściej pojawiają się przedsiębiorcy publiczni, społeczni, obywatelscy, a nawet polityczni. Przedsiębiorczość w odniesieniu do władz samorządowych oznacza przede wszystkim inicjatywy poprawiające standardy społeczne i socjalne często w sposób uzupełniający inicjatywy publiczne lub prywatne w innowacyjny pod względem instytucjonalnym sposób, wypełniające niezagospodarowane „nisze” usług i projektów społecznych. Zadaniem samorządu lokalnego jest rozwój przedsiębiorczości, a także jej wspieranie za pomocą instrumentów będących w dyspozycji władzy gminy. Każda gmina ma szeroki wachlarz instrumentarium wspierania przedsiębiorczości. Klimat sprzyjający przedsiębiorczości zależy od niemal każdej, nawet codziennej decyzji władz samorządowych oraz działań innych instytucji. W literaturze przedmiotu można się spotkać z różnymi klasyfikacjami instrumentów wspierania przedsiębiorczości. Powszechnie przyjętym kryterium jest jednak podział na instrumenty dochodowe, do których zaliczane są przede wszystkim ulgi i zwolnienia podatkowe, oraz instrumenty wydatkowe, wśród których naczelną pozycję zajmują wydatki inwestycyjne. W opracowaniu wykorzystano materiał empiryczny zgromadzony w badaniach ankietowych przeprowadzonych w 68 gminach województwa wielkopolskiego. Działania samorządu terytorialnego wspierające przedsiębiorczość 37 Słowa kluczowe: przedsiębiorczość, działania gminy wspierające przedsiębiorczość, instrumenty dochodowe i wydatkowe gminy, formy zachęt dla potencjalnych przedsiębiorców. Klasyfikacja JEL: L26, R11, R58. THE ACTIVITIES OF LOCAL GOVERNMENT WITH REGARD TO SUPPORTING ENTREPRENEURSHIP IN THE MUNICIPALITIES OF WIELKOPOLSKA PROVINCE Abstract: There is no clear or universal interpretation of entrepreneurship, though a range of definitions and analyses of the concept exist. Representatives of many scientific disciplines have explored this multidimensional issue and therefore it is difficult to find a common position regarding the concept of entrepreneurship. Increasingly, rather than being restricted just to the business sector, entrepreneurship is also being applied to the public and the social sectors. In addition to classical business entrepreneurs, public, social, civic and even political entrepreneurs have also appeared. Entrepreneurship in relation to local government concerns primarily initiatives, often supplementing public or private initiatives, which aim to improve the standards of social welfare and, in an institutionally innovative way, fill unoccupied “niches” in respect of services and social projects. One of the tasks of local governments is the development of entrepreneurship and its support by means of the available instruments, and every local government has a wide range of instruments at their disposal for the promotion of entrepreneurship. The climate for entrepreneurship depends on almost every, even minor, decision by local governments and other institutions. In the literature, various classifications of instruments for promoting entrepreneurship can be found. Typically, however, they are divided into income instruments, which primarily include tax reductions and exemptions; and expenditure instruments, the most important one being capital expenditure. The study analyses empirical data collected from 68 municipalities in the Wielkopolska region. Keywords: entrepreneurship, entrepreneurship supporting activities of municipalities, income and expenditure instruments of municipalities, forms of incentives for nascent entrepreneurs. Wstęp Działalność samorządu lokalnego jest istotnym ogniwem systemu wspierania przedsiębiorczości. Samorząd ma możliwość kształtowania sytuacji na lokalnym rynku poprzez instrumenty wspierające przedsiębiorczość. Dostępna literatura nie rozwiązuje wszystkich kwestii w tym zakresie, w związku z czym postanowiono zidentyfikować działania samorządu lokalnego, ograniczając się do terenu gmin zlokalizowanych w województwie wielkopolskim. 38 Kinga Dropek Celem niniejszego artykułu jest identyfikacja działań oraz form wspierania przedsiębiorczości w gminach miejskich, miejsko-wiejskich oraz wiejskich województwa wielkopolskiego. W celu zidentyfikowania działań samorządu terytorialnego wspierających przedsiębiorczość w gminach województwa wielkopolskiego przeprowadzono badania ankietowe. Kwestionariusz ankiety został rozesłany pocztą tradycyjną do 226 gmin w województwie wielkopolskim w 2010 roku. Otrzymano 68 wypełnionych kwestionariuszy zwrotnych. Pytania skierowane do gmin dotyczyły działań i form, które gminy stosowały w celu wspierania przedsiębiorczości w latach 2007–2009. 1. Pojęcie przedsiębiorczości Przedsiębiorczość, choć jest jednym z najważniejszych atrybutów gospodarki rynkowej, to jest koncepcją nieuchwytną i wielowymiarową. Stąd też w literaturze można spotkać wiele różnych definicji przedsiębiorczości w zależności od pola zainteresowań autora w tej dziedzinie. Pojęcie przedsiębiorczości w literaturze ekonomicznej pojawiło się w połowie XVIII wieku, a wprowadził je francuski ekonomista R. Cantillon, który jako pierwszy użył terminu „przedsiębiorca” i określił, na czym polega jego aktywność. Cantillon nazywał przedsiębiorcami kupców dostrzegających różnice cen na różnych rynkach i potrafiących wykorzystać je dla własnej korzyści, czyli kupić tanio, a sprzedać drogo [Koźmiński 2005, s. 162]. Studia literatury związanej z problematyką przedsiębiorczości wskazują na różne płaszczyzny badań nad przedsiębiorczością, co pozwala wyodrębnić koncepcje: –– powstałe na gruncie ekonomii, –– psychologiczne, –– o charakterze kulturowym, –– powstałe na gruncie nauk o zarządzaniu [Kraśnicka 2002, s. 20]. Najobszerniejszy jednak zbiór stanowią koncepcje stworzone w ramach różnych nurtów ekonomii. Spotykane w literaturze ekonomicznej postrzeganie przedsiębiorczości można sklasyfikować w trzy grupy: –– definicje skonstruowane na podstawie ekonomicznych funkcji działań przedsiębiorczych w gospodarce, według których przedsiębiorczość to proces kreowania czegoś odmiennego ze względu na wartość, wymagający poświęcenia koniecznego do tego czasu i wysiłku, zakładający towarzyszą- Działania samorządu terytorialnego wspierające przedsiębiorczość 39 ce temu finansowe, psychiczne i społeczne ryzyko oraz uzyskanie dzięki temu nagrody finansowej i osobistej satysfakcji, lub też przedsiębiorczość to zorganizowany społeczny proces tworzenia i wykorzystywania szans, –– definicje oparte na osobistych atrybutach przedsiębiorcy i jego funkcjach społecznych, które odwołują się do predyspozycji osobowościowych oraz warunków otoczenia determinujących powodzenie w biznesie; przedsiębiorczość to połączenie różnych talentów, umiejętności i energii z wyobraźnią, dobrym planowaniem i zdrowym rozsądkiem, –– podejście behawioralne oparte na sposobie pełnienia funkcji kierowniczych, które traktuje przedsiębiorczość jako rodzaj menedżerskiego zachowania i podejścia do zarządzania [Matusiak 2006, s. 18–21]. W literaturze dotyczącej zagadnień związanych z przedsiębiorczością można znaleźć wiele rodzajów przedsiębiorczości wyróżnianych na podstawie wielorakich kryteriów podziału. Do najczęściej występujących kryteriów podziału przedsiębiorczości, podążając za K.B. Matusiakiem, można zaliczyć: –– charakter – ze względu na to kryterium wyróżnia się przedsiębiorczość gospodarczą, czyli zorientowaną na zysk, oraz działalność pozagospodarczą, która zakłada inne efekty, –– skalę i formę aktywności – ze względu na to kryterium wyróżnia się przedsiębiorczość indywidualną, małą przedsiębiorczość (czyli sektor małych i średnich przedsiębiorstw), przedsiębiorczość korporacyjną, społeczną oraz administracyjną, –– legalizację – przyjmując to kryterium, można wyróżnić przedsiębiorczość rejestrowaną oraz przedsiębiorczość nierejestrowaną, czyli tzw. działalność czarnorynkową, –– zaawansowanie organizacyjne – można wyróżnić przedsiębiorczość założycielską oraz odnowy organizacyjnej, –– zasięg terytorialny – ze względu na takie kryterium wyróżnia się przedsiębiorczość lokalną, krajową, międzynarodową oraz globalną, –– rodzaj – można wyróżnić tu przedsiębiorczość produkcyjną, handlową i usługową, –– strukturę własności – ze względu na to kryterium wyróżnić można przedsiębiorczość prywatną, społeczną oraz publiczną [Matusiak 2006, s. 97]. Przedsiębiorczość, a także jej rozwój, można rozpatrywać w sześciu wymiarach: –– wymiarze ekonomicznym, który postrzega przedsiębiorczość za pomocą wskaźnika przedsiębiorczości, czyli liczby przedsiębiorstw w danym okresie przypadających na określoną liczbę mieszkańców (najczęściej 1000) na danym obszarze geograficznym, 40 Kinga Dropek –– wymiarze społecznym upatrującym przedsiębiorczość jako działalność osób, które mają na celu stworzenie społecznej wartości, wykazują zdolność rozpoznawania występujących możliwości, a także są w stanie zaakceptować ponadprzeciętny poziom ryzyka w tworzeniu i rozpowszechnianiu wartości społecznej, –– wymiarze cywilnym odnoszącym się do przedsiębiorczości w obywatelskim społeczeństwie, czyli działań w określonych organizacjach społecznych, –– wymiarze politycznym, który nie ma jednoznacznej definicji; D. Buchanau i R. Badham upatrują przedsiębiorczości w wykorzystaniu przez przedsiębiorcę w sposób etyczny lub nie pojawiających się możliwości, które mogą się przyczynić do wzrostu jego pozycji rynkowej, gdyż żadna organizacja nie może istnieć bez powiązań z podmiotami zewnętrznymi, –– wymiarze akademickim, czyli prowadzeniu działalności gospodarczej w postaci firm spin-off, –– wymiarze innowacyjnym, który postrzega przedsiębiorczość jako ocenianie wykorzystania możliwości wynikających z potencjału komercjalizacji wynalazków, a miarą przedsiębiorczości innowacyjnej jest liczba patentów przypadająca na mieszkańca [Westlund 2011, s. 2–3]. Podążając za poglądami R.D. Hisricha i M.P. Petersa [1992], można przyjąć, że przedsiębiorczość to proces kreowania czegoś odmiennego, przede wszystkim ze względu na wartość, wymagający poświęcenia koniecznego do tego czasu i wysiłku, a także zakładający towarzyszące temu finansowe, psychiczne i społeczne ryzyko oraz uzyskanie dzięki temu nagrody finansowej oraz osobistej satysfakcji. Przedsiębiorczość jest bez wątpienia jednym z najważniejszych współczesnych nośników zdobywania i utrzymywania przewagi konkurencyjnej. Organizacje przedsiębiorcze są skłonne do podejmowania ryzyka i eksperymentowania, są zdolne do samodzielnego działania i do innowacji, mają skłonność do identyfikowania i wykorzystywania szans, zanim zrobią to konkurenci, uczą się tworzenia nowych interpretacji, a także są gotowe do zmian [Bratnicki 2002, s. 24]. Przedsiębiorczość uwidacznia się w zarządzaniu poprzez na przykład wybór odpowiedniej strategii, tworzenie elastycznych struktur, promowanie innowacyjności, inicjatywy, samodzielności, unikanie przerostu administracji oraz wybór właściwych form kontroli. Przedsiębiorczość w zarządzaniu polega zatem na znajdowaniu bardziej skutecznych niż dotychczas sposobów prowadzenia działalności gospodarczej w konkurencyjnym otoczeniu [Strużycki 2002, s. 107]. Działania samorządu terytorialnego wspierające przedsiębiorczość 41 Termin przedsiębiorczość odnosi się do osób, które potrafią przełożyć dobre idee na zyskowny biznes. W przypadku niekomercyjnych dokonań myśli się zazwyczaj o pionierach, przywódcach i działaczach obdarzonych charyzmą, zdolnych do przeprowadzenia zmian drogą nierutynowych działań, którzy sięgają po zaskakujące sposoby mobilizacji środków [Barczyk 2010, s. 64]. Obecnie przedsiębiorczość odnosi się nie tylko do biznesu, ale coraz czę ściej również do sektora publicznego czy społecznego. Przedsiębiorczość w odniesieniu do władz samorządowych oznacza przede wszystkim inicjatywy poprawiające standardy społeczne i socjalne [Barczyk 2010, s. 71]. Działania przedsiębiorcze podejmowane są przez władze lokalne, które dysponują pewnym majątkiem, funkcjonujące na określonym rynku. Władze lokalne, które prowadzą politykę przedsiębiorczą, powinny być otwarte na innowacyjność, partnerstwo oraz reagować na zmieniające się otoczenie. 2. Wspieranie przedsiębiorczości przez samorząd lokalny opisane w literaturze Władze samorządowe najczęściej stosują działania, które mają na celu pobudzanie rozwoju gminy poprzez wpływ na warunki działalności gospodarczej. Wspieranie rozwoju przedsiębiorczości powinno uwzględniać zarówno czynniki zewnętrzne (takie jak globalizacja gospodarki czy ogólnoświatowa konkurencja o inwestycje zagraniczne, powiązania gospodarcze Polski z zagranicą oraz restrukturyzacja polskiej gospodarki), jak i czynniki wewnętrzne charakterystyczne dla danej gminy. Oprócz gmin zasobnych w różnego rodzaju atuty, które sprzyjają prowadzeniu działalności gospodarczej, funkcjonują gminy leżące na uboczu, z dala od wielkich aglomeracji miejskich i głównych ciągów komunikacyjnych. Gminy te starają się zapobiec upadkowi zakładów pracy, starają się nie dopuścić do wzrostu bezrobocia, boją się wzrostu patologii. Poszukują różnego rodzaju rozwiązań, które mogłyby wpłynąć na poprawę sytuacji społeczno-ekonomicznej. Rozwój społeczno-gospodarczy jest celem zarówno gmin zasobnych od wieków, jak i liderów transformacji. Gminom zasobnym łatwiej jest jednak niż gminom biednym zastosować poszczególne rozwiązania [Dziemianowicz i in. 2000, s. 7–8]. W literaturze przedmiotu można się spotkać z różnymi klasyfikacjami instrumentów wspierania przedsiębiorczości. Powszechnie przyjętym kryterium jest podział na instrumenty: 42 Kinga Dropek –– dochodowe – to przede wszystkim zwolnienia i ulgi podatkowe, –– wydatkowe – przede wszystkim wydatki inwestycyjne [Krajewski i Śliwa 2004, s. 70]. Zdaniem K. Krajewskiego i J. Śliwy [2004, s. 70–71], instrumenty wspierania przedsiębiorczości można również podzielić według ich charakteru na: –– instrumenty o charakterze infrastrukturalnym – są to: kondycja miejscowych przedsiębiorstw oraz ich zdolność do utrzymywania i tworzenia miejsc pracy dla miejscowej ludności, infrastruktura techniczna czy poprawa wyglądu gminy, –– instrumenty o charakterze prawno-administracyjnym, do których zalicza się pozwolenia administracyjne, decyzje administracyjne ułatwiające podejmowanie działań inwestycyjnych, okienka przedsiębiorczości czy lokalne programy wspierające przedsiębiorczość, –– instrumenty o charakterze finansowym, do których zalicza się przede wszystkim podatki i opłaty lokalne, –– instrumenty o charakterze miękkiego wsparcia, które można podzielić na trzy główne grupy: • doradztwo i szkolenia, przede wszystkim dla przedsiębiorców należących do sektora MŚP, • instrumenty informacyjne, • instrumenty promocyjne. Z kolei do czynników lokalnych, które oddziałują na rozwój przedsiębiorczości, zdaniem K. Krajewskiego i J. Śliwy [2004, s. 49] można zaliczyć: –– stosunek władz do kreowania przedsiębiorczości przejawiający się między innymi w stosowaniu preferencyjnych stawek podatkowych, ułatwianiu dostępu do terenów inwestycyjnych czy w uzgodnieniach dotyczących powoływania biur obsługi klienta, –– zasoby gminy, które są bardzo ważnym elementem rozwoju przedsiębiorczości lokalnej, a zalicza się do nich między innymi bogactwa naturalne, zasoby leśne, walory turystyczne, zbiorniki wodne czy zasoby ludzkie i ich kwalifikacje, –– lokalizację gminy i prestiż w regionie, –– infrastrukturę gminy, czyli przede wszystkim gęstość i rodzaje dróg, różnorodność połączeń komunikacyjnych, uzbrojenie terenu, bazę turystyczno-wypoczynkową, odległości od rynków zbytu, –– wsparcie miękkie, do którego zalicza się szkolnictwo zawodowe i wyższe, ośrodki szkoleniowe i doradcze, infrastrukturę informacyjną. Przepisy prawne, nakładając na organy jednostek samorządu terytorialnego obowiązek wykonywania pewnych zadań związanych ze wspieraniem dzia- Działania samorządu terytorialnego wspierające przedsiębiorczość 43 łalności gospodarczej, nie precyzują form tej działalności, czyli nie określają katalogu instrumentów, którymi organy jednostek samorządu terytorialnego mogą się posługiwać w celu wykonania nałożonych na nie działań. Gmina ma dużo możliwości wspierania przedsiębiorczości na własnym terenie. Władze lokalne powinny stworzyć i uchwalić przede wszystkim miejscowy plan zagospodarowania przestrzennego i plan rozwoju gospodarczego. Zadaniem gminy jest inwestowanie w infrastrukturę techniczną oraz przygotowanie terenu pod inwestycje. Jednym z głównych zadań gminy powinno być tworzenie korzystnych warunków rozwoju lokalnej przedsiębiorczości. Konieczne jest na przykład niwelowanie bariery administracyjnej. Urząd gminy powinien być przyjazny przedsiębiorcom. Na stronach internetowych gminy można udostępnić między innymi niezbędne informacje o warunkach działalności gospodarczej, potrzebne druki czy dokumenty. Konieczne jest również tworzenie warunków do rozwoju inwestycji. Niezbędny jest w tym wypadku miejscowy plan zagospodarowania przestrzennego [Okrasiński 2007]. Władze samorządowe mają do dyspozycji kilka instrumentów, które mogą oddziaływać na lokalne życie gospodarcze. Stosowane kompleksowo, planowo i z rozwagą w znacznym stopniu mogą się przyczynić do stworzenia dobrych warunków do rozwoju przedsiębiorczości. Najważniejszym instrumentem wspierania przedsiębiorczości jest budżet gminy. To przy jego konstruowaniu zarząd gminy może zaplanować wsparcie dla lokalnej przedsiębiorczości, które nie musi się opierać tylko na obniżaniu podatków i opłat lokalnych. Takie rozwiązania nie są obecnie decydujące, choć mogą na początku zachęcić przedsiębiorców na przykład do inwestycji na obszarze danej gminy. Bardzo ważnym punktem budżetu jest wydatkowanie środków na rozwój infrastruktury technicznej, w tym głównie drogowej i kanalizacyjno-wodociągowej. Gmina powinna zadbać o zbudowanie sieci dróg gminnych, które połączą konkretną gminę z siecią dróg wojewódzkich i krajowych. Sprawna sieć drogowa to magnes dla inwestorów. Drugim takim magnesem jest sprawna sieć kanalizacyjno-wodociągowa, a trzecim – posiadanie terenów uzbrojonych pod inwestycje [Okrasiński 2007]. Władze gminy mają jeszcze inny ważny instrument wspierania lokalnej przedsiębiorczości, którym jest witryna internetowa. Na stronach gminy można umieścić wszelkiego rodzaju elementy graficzne sprzyjające rozwojowi miejscowych firm. Oprócz witryny, innym istotnym narzędziem, szczególnie w przyciąganiu inwestorów z zewnątrz, jest utworzenie i uchwalenie przez władze samorządowe miejscowego planu zagospodarowania przestrzennego. Przedsiębiorcy na podstawie tych dokumentów dowiadują się, gdzie, w jakich 44 Kinga Dropek miejscach, na jakich terenach można budować zakłady pracy, fabryki, zakłady usługowe lub handlowe. Dobrze, gdy tereny wyznaczone w miejscowym planie zagospodarowania przestrzennego pod inwestycje są już uzbrojone za środki gminne lub za środki pozyskane przez gminę. Po pierwsze rośnie cena takich działek, po drugie na takie tereny chętnie patrzą inwestorzy [Okrasiński 2007]. Działalność władz w zakresie kreowania przedsiębiorczości można określić mianem budowania i umacniania klimatu sprzyjającego rozwojowi społeczno-gospodarczemu. Podstawy ku temu stwarzają: rozwój wiedzy wspierającej innowacje, przepływ doświadczeń płynących z innych krajów i regionów, dotyczących m.in. korzyści, jakie wynikają z procesów integracyjnych, czy też wzrost świadomości co do pożytków wynikających z nasilania się konkurencji. Korzystny klimat dla rozwoju przedsiębiorczości lokalnej, podobnie jak korzystny klimat dla szeroko pojętego lokalnego rozwoju gospodarczego i społecznego, wymaga zaistnienia szczególnych okoliczności, takich jak: –– istnienie struktur społecznych realizujących bądź popierających ideę wszechstronnego rozwoju gminy, –– dające się zaobserwować inicjatywność i aktywność mieszkańców, –– występowanie prawnych, organizacyjnych, technologicznych i technicznych możliwości wspierania inicjatyw, –– występowanie materialno-finansowych możliwości wspierania inicjatyw, –– doświadczenie i chęć władz gminy do stymulowania rozwoju [Słomińska 2007, s. 20]. Wykorzystując te okoliczności, samorząd gminny powinien podejmować różnokierunkowe działania istotne w procesie stymulowania rozwoju gospodarczego. Z przeprowadzonych dotąd badań wynika, że należą do nich: –– koordynowanie działalności podmiotów gospodarujących na danym terenie w celu osiągnięcia przez nie maksimum korzyści dla całego systemu, –– rozwiązywanie sprzeczności i konfliktów, które mogą się pojawić między zróżnicowanymi podmiotami lokalnymi, –– inicjowanie przedsięwzięć gospodarczych korzystnych z punktu widzenia harmonizacji rozwoju, –– inicjowanie współpracy między przedsiębiorcami, instytucjami z otoczenia biznesu, organizacjami konsumenckimi itp., –– współudział w inwestycjach celowych o szczególnym znaczeniu dla gminy, –– kreowanie korzystnych warunków dla powstawania i rozwoju przedsiębiorstw na terytorium gminy [Słomińska 2007, s. 20]. Władze lokalne powinny za pomocą różnego rodzaju środków wpływać na decyzje nie tylko potencjalnych przedsiębiorców, ale także podmiotów już działających na obszarze gminy. Nie może dojść do sytuacji, w której wysiłki Działania samorządu terytorialnego wspierające przedsiębiorczość 45 samorządu zostaną wyraźnie ukierunkowane na tworzenie preferencyjnych warunków dla firm zewnętrznych, gdyż w ten sposób wzmocniona zostanie ich przewaga konkurencyjna nad firmami lokalnymi, które mogą wypaść z rynku. A to właśnie te firmy stanowią najczęściej fundament gospodarki lokalnej. Władze samorządowe są obowiązane wspierać ich rozwój, stymulując zmiany strukturalne i w razie potrzeby procesy restrukturyzacji gospodarki. Gminy w sposób szczególny dbające o rozwój lokalnej przedsiębiorczości to gminy aktywnie zabiegające o nowe inwestycje, otwarte na nowe inicjatywy gospodarcze zapewniające przyjazny klimat i profesjonalną obsługę dla inwestorów, ale także wspierające przedsiębiorców już funkcjonujących [Słomińska 2007, s. 20]. Polityka rządu w wielu krajach ma na celu zwiększenie i wspieranie przedsiębiorczości w regionach. Jest oczywiste, że regionalna polityka będzie miała na celu zwiększanie liczby nowych przedsiębiorstw w obszarach peryferyjnych, co będzie pożądanym skutkiem dla gospodarki regionalnej. Jednak nie wszystkie programy dotyczące promocji przedsiębiorczości nie były lub nie są skuteczne. Jednym ze sposobów, w który rządy mogą skutecznie promować sektor przedsiębiorczości poprzez politykę, są przepisy prawa, które ułatwią na przykład licencjonowanie technologii z uniwersytetów [Felzensztein, Gimmon i Aqueveque 2013, s. 818]. 3. Działania samorządu wspierające przedsiębiorczość w gminach – badania empiryczne Podmiotem badań ankietowych było 226 gmin w województwie wielkopolskim. Wcześniej sprawdzono jednak strukturę gmin Polski i porównano ze strukturą gmin Wielkopolski, co obrazuje tabela 1. Na podstawie informacji w tabeli można stwierdzić, że przeprowadzone badania są reprezentatywne. Tabela 1. Struktura gmin w Polsce i Wielkopolsce Wyszczególnienie Gminy miejskie Gminy miejsko-wiejskie Gminy miejskie Razem Polska liczba 306 587 1586 2479 Źródło: www.stat.gov.pl/bip/36_PKL_HTML.htm. odsetek 12,34 23,68 63,98 100,00 Wielkopolska liczba odsetek 19 8,41 90 39,82 117 51,77 226 100,00 46 Kinga Dropek Przedmiotem badań ankietowych były narzędzia stosowane przez jednost ki samorządu lokalnego w celu wspierania przedsiębiorczości. Narzędzia są rozumiane jako układ bezpośredniego lub pośredniego oddziaływania, którego struktura i cechy są zdeterminowane przez cel, który ma być osiągnięty przy jego zastosowaniu. Odpowiedź na wysłane kwestionariusze otrzymano z 68 gmin, wśród których znalazło się osiem gmin miejskich, które stanowią 3,54% gmin Wielkopolski, 29 gmin miejsko-wiejskich, czyli 12,83% gmin województwa, oraz Rysunek 1. Wskaźnik przedsiębiorczości w 2009 roku w badanych gminach Źródło: Na podstawie wyników badań 47 Działania samorządu terytorialnego wspierające przedsiębiorczość 31 gmin wiejskich, czyli 13,72% wszystkich gmin położonych w województwie wielkopolskim. Na podstawie informacji o liczbie mieszkańców oraz liczbie podmiotów gospodarczych uzyskanych podczas badania obliczono wskaźnik przedsiębiorczości w 2009 roku, czyli liczbę zarejestrowanych podmiotów gospodarczych w przeliczeniu na 1000 mieszkańców dla poszczególnych gmin, co obrazuje rysunek 1. Jak widać, wskaźnik przedsiębiorczości przybiera różne wielkości w poszczególnych gminach. Najwyższą wartość przybiera w gminach: Rawicz, Kórnik (gminy miejsko-wiejskie) i Przemęt (gmina wiejska), czyli w gminach zlokalizowanych w południowo-zachodniej części Wielkopolski. Z kolei najniższe wartości wskaźnik przyjmuje w gminach: Szamocin, Trzemeszno (gminy miejsko-wiejskie) i Zakrzewo (gmina wiejska), czyli w gminach zlokalizowanych w północno-wschodniej części Wielkopolski. Wskaźnik przedsiębiorczości o wartości najwyższej i najniższej występuje w gminach miejsko-wiejskich oraz wiejskich. Każda gmina ma możliwość stosowania różnego rodzaju narzędzi, których zadaniem jest pobudzanie przedsiębiorczości. Narzędzia te w badanych gminach zestawiono w tabeli 2. Dla gmin miejskich, wiejskich oraz miejskoTabela 2. Narzędzia stosowane przez gminę w celu pobudzania przedsiębiorczości (odsetek wskazań) Wyszczególnienie Obniżone stawki podatku Współpraca z przedsiębiorcami Współudział w gazecie lokalnej Poszukiwanie krajowych partnerów Poszukiwanie zagranicznych partnerów Upowszechnianie systemów jakości Konkursy popularyzujące przedsiębiorczość Inne ––zwolnienia podatkowe dla rozpoczynających działalność gospodarczą ––przygotowanie terenów inwestycyjnych ––utworzenie Stowarzyszenia Ostrzeszowskie Centrum Przedsiębiorczości ––wyróżnienie dla rozwijających się firm ––pomoc finansowa Brak odpowiedzi Gminy miejskie Gminy wiejskie 8,82 11,76 4,41 8,82 5,88 2,94 2,94 22,06 30,88 13,24 7,35 8,82 1,47 1,47 Gminy miejsko ‑wiejskie 29,41 35,29 20,59 17,65 14,71 8,82 11,76 – 1,47 1,47 – – – – – – – – – 1,47 1,47 1,47 – 1,47 1,47 Źródło: Obliczenia na podstawie wyników badań własnych. 48 Kinga Dropek -wiejskich najistotniejszym narzędziem stosowanym w celu pobudzania przedsiębiorczości są przede wszystkim kontakty z przedsiębiorcami, a także niższe stawki podatku, pozyskiwanie krajowych partnerów czy współudział w gazecie lokalnej. Jak widać narzędzia stosowane w celu pobudzania przedsiębiorczości nie zależą od rodzaju gminy, na każdym terenie, przybierają one jednakową postać, mimo że ich intensywność jest różna. Okazuje się, że najważniejszym narzędziem są kontakty z przedsiębiorcami, gdyż to właśnie podczas spotkań z przedsiębiorcami władze gminy mogą uzyskać informacje na temat skuteczności podejmowanych działań. Gminy mogą również zachęcać potencjalnych przedsiębiorców do rozpoczęcia działalności gospodarczej na ich terenie, stosując różnego rodzaju formy zachęt, które zestawiono w tabeli 3. Można wyróżnić kilka różnych zachęt stosowanych przez gminy dla kandydatów na przedsiębiorców. We wszystkich rodzajach gmin dominującą formą stosowaną dla zachęcenia do rozpoczęcia działalności jest przygotowanie terenów inwestycyjnych, a także wydawanie różnego typu katalogów i prospektów promujących gminę, zarazem zachęcających do rozpoczęcia działalności gospodarczej na jej terenie. Wśród gmin miejsko-wiejskich dość ważną formą jest również organizacja lokalnych targów czy uruchomienie centrum informacyjnego, natomiast nieistotne okazuje się tworzenie spółek w ramach partnerstwa publiczno-prywatnego. Także w gminach miejskich mało istotną formą okazało się tworzenie spółek w ramach partnerstwa publiczno-prywatnego czy uruchomienie centrum informacyjnego. Tabela 3. Formy zachęt stosowanych przez gminę dla kandydatów na przedsiębiorców (odsetek wskazań) Wyszczególnienie Przygotowywanie terenów inwestycyjnych Wydawanie katalogów i prospektów Organizowanie lokalnych targów Uruchomienie centrum informacyjnego Tworzenie spółek w ramach partnerstwa publiczno-prywatnego Inne ––uzbrajanie terenów inwestycyjnych ––obniżenie stawek podatku lokalnego Gminy miejsko ‑wiejskie 27,94 14,71 8,82 7,35 Gminy miejskie Gminy wiejskie 10,29 7,35 4,41 1,47 19,12 14,71 4,41 1,47 1,47 – 2,94 – – – 1,47 1,47 – Źródło: Obliczenia na podstawie wyników badań własnych. 49 Działania samorządu terytorialnego wspierające przedsiębiorczość Gmina ma szeroki wachlarz działań możliwych do zastosowania w celu wspierania przedsiębiorczości. W niniejszej pracy przyjęto za W. Dziemianowiczem, że działania te mają charakter dochodowy oraz wydatkowy. Wśród działań o charakterze dochodowych najistotniejsze znaczenie mają podatki lokalne i związane z nimi ulgi i zwolnienia. Z kolei dla instrumentów wydatkowych najistotniejszego znaczenia nabierają wydatki inwestycyjne, a przede wszystkim wydatki związane z infrastrukturą. Zestaw działań o charakterze wydatkowym stosowanych przez badane gminy zestawiono w tabeli 4. Dla gmin miejskich największego znaczenia nabierają działania związane z dbałością o rozwój dróg, działania promujące gminę, a także wydzielanie atrakcyjnie położonych działek pod inwestycje, wprowadzanie ułatwień w procedurze urzędowej, organizacja banku danych i łatwego dostępu do informacji (wiele istotnych danych zamieszczanych jest na stronach internetowych gmin) czy udzielanie inwestorom ulg podatkowych. Najmniejsze znaczenie wśród działań sprzyjających aktywności gospodarczej w gminach miejskich mają: inicjowanie ośrodków wspierania przedTabela 4. Działania wydatkowe podejmowane przez gminę, które sprzyjają aktywności gospodarczej w gminie Wyszczególnienie Gminy miejskie Wydzielenie pod inwestycje atrakcyjnie położonych działek Dbałość o rozwój dróg Dbałość o rozwój telekomunikacji Dbałość o podnoszenie kwalifikacji lokalnych kadr Wprowadzanie ułatwień w procedurze urzędowej Inicjowanie ośrodków wspierania przedsiębiorczości Działania promujące gminę Rozwój instytucji poręczeń i gwarancji Inne ––gazociągi gminne ––współpraca z organizacjami poza rządowymi Źródło: Obliczenia na podstawie wyników badań własnych. Gminy wiejskie Gminy miejsko ‑wiejskie 7 8 5 12 27 19 21 25 17 6 16 17 7 22 24 4 8 5 7 27 3 12 25 11 1 1 50 Kinga Dropek siębiorczości, rozwój instytucji poręczeń i gwarancji, polityka niskich cen za usługi komunalne czy dbałość o rozwój telekomunikacji. Dla gmin wiejskich, podobnie jak miejskich, największe znaczenie mają: dbałość o rozwój dróg, działania promujące gminę, wprowadzenie ułatwień w procedurze urzędowej, dbałość o rozwój telekomunikacji, a także dbałość o podnoszenie kwalifikacji lokalnych kadr. Natomiast najmniejsze znaczenie mają: rozwój instytucji poręczeń i gwarancji, organizacja banku danych i łatwego dostępu do informacji, inicjowanie ośrodków wspierania przedsiębiorczości czy udzielanie inwestorom ulg podatkowych. Z kolei dla gmin miejsko-wiejskich największe znaczenie mają takie działania, jak dbałość o rozwój dróg, wprowadzanie ułatwień w procedurze urzędowej, działania promujące gminę czy wydzielanie atrakcyjnie położonych terenów pod inwestycje. Działania, które mają najmniejsze znaczenie, to przede wszystkim rozwój instytucji poręczeń i gwarancji, inicjowanie ośrodków wspierania przedsiębiorczości, polityka niskich cen za usługi komunalne czy organizacja banku danych i łatwego dostępu do informacji. Jak wynika z powyższej analizy, dla gmin, które poddano badaniu, naj istotniejsze są: dbałość o rozwój dróg, wydzielanie terenów pod inwestycje czy działania promujące gminę. Działania te z całą pewnością można zaliczyć do działań o charakterze wydatkowym. Drugi rodzaj działań stosowany przez gminy w celu wspierania przedsiębiorczości to działania o charakterze dochodowym. Do tego rodzaju instrumentów zalicza się przede wszystkim podatki i opłaty lokalne. Jeżeli gmina nie stosuje wygórowanych stawek podatkowych, jest to dobry sygnał dla firm. Jeszcze bardziej istotna jest stabilność polityki podatkowej. Ważniejsze dla firmy chyba są stabilność i klarowność polityki podatkowej (nawet jeśli są to wysokie stawki) niż skoki w tej polityce. Gmina może stosować również politykę ulg przy określonym poziomie inwestycji lub określonej liczbie nowych miejsc pracy. W tym wypadku jest bardzo ważne, aby kryteria tych ulg były jasne i ścisłe. Stabilność polityki podatkowej zasadniczo wpływa na wspieranie przedsiębiorczości. Ma to znaczenie zarówno dla lokalnych przedsiębiorców, jak i dla potencjalnych inwestorów z zewnątrz. Inwestorzy chętniej będą inwestowali w gminie o stabilnej i jasnej polityce [Bończak-Kucharczyk, Herbst i Chmura 1998, s. 148–149]. Problem polityki podatkowej w badanych gminach przedstawiono w tabeli 5. Zgodnie z obowiązującym prawem, gminy mogą stosować stawki niższe od maksymalnych. Przeprowadzone badania potwierdzają ten fakt – 62,5% badanych gmin miejskich, 96,77% badanych gmin wiejskich oraz 96,55% gmin miejsko-wiejskich potwierdziło stosowanie stawek niższych od maksymalnych 51 Działania samorządu terytorialnego wspierające przedsiębiorczość Tabela 5. Stosowane stawki podatków (odsetek wskazań) Wyszczególnienie Stawki maksymalne Stawki niższe od maksymalnych Brak odpowiedzi Razem Gminy miejskie Gminy wiejskie – 62,50 37,50 100,00 – 96,77 3,23 100,00 Gminy miejsko ‑wiejskie – 96,55 3,45 100,00 Źródło: Obliczenia na podstawie wyników badań własnych. w poszczególnych rodzajach podatków lokalnych. Zastanawiający jest tu duży odsetek odpowiedzi, który jest dość znaczący wśród gmin miejskich. Jeżeli natomiast przyjrzymy się specyfice rodzajowej podatków, to wśród stawek obniżonych dominuje podatek od nieruchomości (86,76% wskazań wszystkich gmin) oraz podatek od środków transportu (82,35% wskazań wszystkich gmin). Gminy mogą również stosować ulgi i zwolnienia podatkowe dla lokalnych przedsiębiorstw, których zestawienie w badanych gminach przedstawiają tabele 6 i 7. Tabela 6. Ulgi podatkowe dla lokalnych przedsiębiorców (odsetek wskazań) Wyszczególnienie Podatek od nieruchomości Podatek rolny Brak ulgi Brak odpowiedzi Gminy miejskie Gminy wiejskie 2,94 – 2,94 4,41 5,88 – 30,88 8,82 Gminy miejsko ‑wiejskie 10,29 1,47 27,94 2,94 Źródło: Obliczenia na podstawie wyników badań własnych. Tabela 7. Zwolnienia podatkowe dla lokalnych przedsiębiorców (odsetek wskazań) Wyszczególnienie Podatek od nieruchomości Brak zwolnienia Brak odpowiedzi Gminy miejskie Gminy wiejskie 5,88 – 4,41 13,24 17,65 14,71 Źródło: Obliczenia na podstawie wyników badań własnych. Gminy miejsko ‑wiejskie 14,71 23,53 4,41 52 Kinga Dropek Wśród wskazań podanych przez gminy miejskie można zauważyć, że jedyną występującą ulgą jest ulga w podatku od nieruchomości. Znaczący jest także brak odpowiedzi ze strony respondentów. Znaczna liczba gmin wiejskich z kolei wskazuje na brak występowania ulgi podatkowej. Jeżeli już owa ulga występuje, to tylko w podatku od nieruchomości. Gminy miejsko-wiejskie, podobnie jak gminy wiejskie, wskazują na brak występowania ulg podatkowych, a jeśli już taka ulga występuje, to jest to ulga w podatku od nieruchomości. Jak pokazuje tabela 6, stosowane ulgi podatkowe to przede wszystkim ulgi w podatku od nieruchomości. Jednak większość gmin takich ulg nie stosuje. Podobnie dzieje się ze stosowaniem zwolnień od podatków dla lokalnych przedsiębiorców. Tylko badane gminy miejskie nie wykazały braku stosowania zwolnienia, jednak zauważalny jest wśród tych gmin znaczny brak odpowiedzi. Dla gmin wiejskich dość istotnego znaczenia nabierają zwolnienia od podatku od nieruchomości. Jednak znaczny jest wśród tych gmin brak udzielenia odpowiedzi. Z kolei wśród gmin miejsko-wiejskich znaczący jest udział braku stosowania zwolnienia dla lokalnych przedsiębiorców. Jeśli jest stosowane zwolnienie od podatku lokalnego, to jest to przede wszystkim zwolnienie od podatku od nieruchomości. Gminy mogą stosować zwolnienia od podatku lokalnego i są to przede wszystkim zwolnienia od podatku od nieruchomości. Jednak znacznie czę ściej gminy nie stosują takich zwolnień, gdyż dla przedsiębiorcy nie jest ważne zwolnienie czy ulga w podatku, a przejrzystość i stabilność polityki lokalnej, natomiast dla gminy oznacza to mniejsze wpływy do budżetu. Podsumowanie Jednostki samorządu terytorialnego dysponują dostatecznie szerokim zestawem instrumentów, które umożliwiają prowadzenie aktywnych działań na rzecz wspierania przedsiębiorczości. W zestawie tym znajdują się instrumenty o charakterze zarówno dochodowym, jak i wydatkowym. Wśród instrumentów dochodowych gminy nie mają szerokiego spektrum działania, gdyż do tej grupy można zaliczyć działania w zakresie polityki podatkowej. Natomiast za pomocą instrumentów wydatkowych gminy mogą znacznie efektywniej działać w kierunku wspierania przedsiębiorczości, gdyż są to wszelkiego rodzaju działania inwestycyjne. Z przeprowadzonych badań wynika, że najważniejszym narzędziem stosowanym przez gminy w celu pobudzania przedsiębiorczości są kontakty Działania samorządu terytorialnego wspierające przedsiębiorczość 53 z przedsiębiorcami oraz niższe stawki podatku. Najcenniejszą formą zachęty stosowaną przez gminy dla kandydatów na przedsiębiorców są przygotowane tereny inwestycyjne, a także katalogi czy prospekty gminne. Z badań wynika też rozwarstwienie stosowanych działań wśród gmin miejskich, wiejskich i miejsko-wiejskich. Gminy miejskie i miejsko-wiejskie intensywniej działają w celu wspierania przedsiębiorczości w porównaniu z gminami wiejskimi. Bibliografia Barczyk, S., 2010, Przedsiębiorczy samorząd lokalny i jego instytucje, Wydawnictwo Akademii Ekonomicznej im. Karola Adamieckiego w Katowicach, Katowice. Bończak-Kucharczyk, E., Herbst, K., Chmura, K., 1998, Jak władze lokalne mogą wspierać przedsiębiorczość, Fundacja Inicjatyw Społeczno-Ekonomicznych Polska Fundacja Promocji Małych i Średnich Przedsiębiorstw, Warszawa. Bratnicki, M., 2002, Przedsiębiorczość i przedsiębiorcy współczesnych organizacji, Wydawnictwo Akademii Ekonomicznej im. Karola Adamieckiego w Katowicach, Katowice. Dziemianowicz, W., Mackiewicz, M., Malinowska, E., Misiąg, W., Tomalak, M., 2000, Wspieranie przedsiębiorczości przez samorząd terytorialny, Polska Fundacja Promocji i Rozwoju Małych i Średnich Przedsiębiorstw, Warszawa. Felzensztein, Ch., Gimmon, E., Aqueveque, C., 2013, Entrepreneurship at The Periphery: Exploring Framework Conditions in Core and Peripheral Locations, Entrepreneurship Theory and Practice, vol. 37, iss. 4. Hisrich, R.D., Peters, M.P., 1992, Entrepreeneurship. Starting, Developing and Managing a New Enterprise, 2nd ed., Irwing, Boston. Koźmiński, A.K., 2005, Zarządzanie w warunkach niepewności. Podręcznik dla zaawansowanych, Wydawnictwo Naukowe PWN, Warszawa. Krajewski, K., Śliwa, J., 2004, Lokalna przedsiębiorczość w Polsce. Uwarunkowania rozwoju, Wydawnictwo Naukowe Wydziału Zarządzania Uniwersytetu Warszawskiego, Warszawa. Kraśnicka, T., 2002, Koncepcja rozwoju przedsiębiorczości ekonomicznej i pozaekonomicznej, Wydawnictwo Akademii Ekonomicznej im. Karola Adamieckiego w Katowicach, Katowice. Matusiak, K.B., 2006, Rozwój systemów wsparcia przedsiębiorczości – przesłanki, polityka i instytucje, Instytut Technologii Eksploatacji – Państwowy Instytut Badawczy, Radom–Łódź. Okrasiński, A., 2007, Jak gmina powinna wspierać lokalną przedsiębiorczość, INFOR.PL, http://samorzad.infor.pl/sektor/rozwoj_i_promocja/wspolpraca/ 54 Kinga Dropek artykuly/388965,jak_gmina_powinna_wspierac_lokalna_przedsiebiorczosc.html [dostęp: 15.12.2013]. Słomińska, B., 2007, Gmina w procesach stymulowania przedsiębiorczości, Samorząd Terytorialny, nr 3. Strużycki, M. (red.), 2002, Zarządzanie małym i średnim przedsiębiorstwem. Uwarunkowania europejskie, Difin, Warszawa. Westlund, H., 2011, Multidimensional Entrepreneurship: Theoretical Considerations and Swedish Empirics, Regional Science Policy & Pracice, vol. 3, iss. 3. STUDIA OECONOMICA POSNANIENSIA 2014, vol. 2, no. 2 (263) Joanna Biernacka Zachodniopomorski Uniwersytet Technologiczny w Szczecinie, Wydział Ekonomiczny, Zakład Polityki Gospodarczej i Turystyki [email protected] ANALIZA INNOWACYJNOŚCI TURYSTYKI MEDYCZNEJ W REGIONIE ZACHODNIOPOMORSKIM Streszczenie: Niniejsza praca podejmuje tematykę innowacyjności usług w turystyce medycznej. Określono tu definicję turystyki medycznej oraz umiejscowiono ją jako jedną z form turystyki zdrowotnej. Praca przedstawia ogólne pojęcie i znaczenie innowacyjności usług turystycznych, szczególnie w kontekście turystyki medycznej. Szczegółowa analiza innowacyjności tego typu turystyki objęła województwo zachodniopomorskie jako wiodący region oferujący usługi z tego zakresu. Określono wpływ, jaki turystyka medyczna wywiera na możliwość rozwoju regionu zachodniopomorskiego. Słowa kluczowe: turystyka, medycyna, innowacyjność, usługi, województwo zachodniopomorskie. Klasyfikacja JEL: A12, F23, H00, I11, O19, Z1. ANALYSIS OF INNOVATION IN MEDICAL TOURISM IN THE ZACHODNIOPOMORSKIE REGION Abstract: This paper discusses the subject of innovation in medical tourism services. It defines the concept of medical tourism and positions it as one of the forms of health tourism. The paper presents the general concept as well as the importance of innovation in tourism services, especially in the context of medical tourism. It contains a detailed analysis of innovation in medical tourism covering the Zachodniopomorskie region as this is the leading area for such services in Poland. The influence of medical tourism on the development of the region is also examined. Keywords: tourism, medicine, innovation, services, Zachodniopomorskie region. 56 Joanna Biernacka Wstęp Turystyka medyczna jest ogólnoświatowym trendem. Coraz więcej ludzi, planując wypoczynek, łączy go z różnego rodzaju zabiegami dla zdrowia i urody. Turystyka zdrowotna, a w jej ramach medyczna, ma w Polsce ponaddwustuletnią historię i rozwija się bardzo dynamicznie. Sektor polskiej turystyki medycznej jest obecnie wart kilkaset milionów złotych, co zostało dostrzeżone przez Ministerstwo Gospodarki, które intensywnie promuje polskie usługi medyczne. Tajemnicą sukcesu polskiej oferty turystycznej jest jej innowacyjność. W turystyce medycznej wydzielone zostały aż cztery rodzaje innowacji: produktowe, organizacyjne, procesowe (technologiczne) i marketingowe. Efektem innowacji jest atrakcyjna oferta medyczna, która w zestawieniu z atrakcyjnymi cenami, bogactwem krajobrazu i pozytywnym obrazem polskiej medycyny w oczach zagranicznych turystów stanowi o sukcesie i dynamicznym rozwoju tego sektora. Zgodnie z przeglądem turystyki medycznej dokonanym przez Medi-Tour, województwo zachodniopomorskie jest najlepiej wypromowanym regionem w Polsce. Zajmuje wiodącą pozycję wśród regionów, w których świadczone są usługi z zakresu turystyki medycznej. Niniejsza praca przybliża tematykę wpływu innowacyjności turystyki medycznej na możliwość rozwoju regionu zachodniopomorskiego. 1. Pojęcie turystyki medycznej Turystyka medyczna jest jedną z trzech form turystyki zdrowotnej. Poza nią funkcjonują turystyka uzdrowiskowa oraz spa i welness. Jest ona jednocześnie elementem turystyki narodowej, międzynarodowej i wewnątrzkrajowej. W literaturze przedmiotu można się spotkać z podejściem traktującym turystykę medyczną jako: –– obowiązkowy punkt wakacyjnego programu wyjazdu turystycznego [Rab-Przybyłowicz 2010, s. 695–696]; –– pojęcie tożsame z globalną opieką zdrowotną [Lunt i Carrera 2010, s. 28]. Problematyką badawczą z zakresu turystyki medycznej zajmowali się dotychczas głównie ekonomiści. M. Prochorowicz [2008, s. 133] na przykład uznaje, że turystyka medyczna to nic innego jak łączenie leczenia z turystyką. Analizując zakres świadczonych usług medycznych, należy wskazać, że tury- Analiza innowacyjności turystyki medycznej w regionie zachodniopomorskim 57 styka medyczna nie zawsze jest powiązana jedynie z przywracaniem komuś zdrowia. M. Sztorc [2008, s. 567–579] określenie „turystyka medyczna” stosuje jako synonim turystyki zdrowotnej, uzdrowiskowej oraz spa i welness, traktując osoby uczestniczące w turystyce zdrowotnej jako turystów medycznych. A. Białk-Wolf [2010, s. 655] z kolei stwierdza, że „turystyka medyczna polega na dobrowolnym przemieszczaniu się do obcego państwa w celu poddania się tam planowanemu leczeniu w celu ratowania zdrowia, podniesienia jakości życia lub poprawy wyglądu, z przyczyn finansowych, jakościowych lub ze względu na niedostępność świadczeń w miejscu zamieszkania, niejednokrotnie połączonym ze zwiedzaniem odwiedzanego miejsca”. Według autora artykułu za najbardziej trafną definicję turystyki medycznej należy uznać tę sformułowaną przez J. Rab-Przybyłowicz [2010, s. 695], która wskazuje, że turystyka medyczna dotyczy wyjazdów poza granice swojego regionu lub kraju, których motywem staje się pobyt w gabinecie, klinice lub szpitalu w celu poprawy zdrowia lub urody pod opieką lekarzy specjalistów. Określenie „turystyka medyczna” jest powszechnie używane przez pacjentów, którzy podróżują poza miejsce realizowania stałej opieki zdrowotnej. Celem takich wyjazdów jest dostęp do szeroko rozumianych usług medycznych, które są oferowane za granicą i za które pacjenci najczęściej płacą sami. Z ekonomicznego punktu widzenia wymienia się dwie formy turystyki medycznej, które wynikają z: –– orientacji na jakość, w odniesieniu do turystów medycznych z krajów słabo rozwiniętych gospodarczo, którzy wyrażają chęć przybycia do innego kraju, gdzie usługi medyczne są świadczone na najwyższym poziomie lub z chęci zaakcentowania własnego statusu społeczno-zawodowego; –– orientacji na koszt, co oznacza formę turystyki ukierunkowanej na takich turystów medycznych, którzy pochodzą z krajów o wysokim poziomie innowacyjności medycznej i zamożności gospodarczej i ze względu na niższą cenę usługi podróżują do krajów, w których usługi medyczne są tańsze [Białk-Wolf 2010, s. 655]. Zakres oferowanych usług medycznych jest dość szeroki, bowiem potrzeby zdrowotne i oczekiwania współczesnych konsumentów są coraz bardziej zindywidualizowane. W zakres najważniejszych usług turystyki medycznej można wliczyć badania diagnostyczne, chirurgię plastyczną w formie modelowania ciała i twarzy, korekt wad wrodzonych, ginekomastii, odsysania tkanki tłuszczowej, liolizy iniekcyjnej bądź intralipoterapii, chirurgii bariatrycznej, medycynę i dermatologię, ortopedię, okulistykę, stomatologię, laryngologię oraz ginekologię [Bukowska-Piestrzyńska 2008, s. 58]. 58 Joanna Biernacka 2. Pojęcie innowacyjności usług turystycznych Innowacyjność jest w ostatnich latach postrzegana jako jedno z podstawowych źródeł przewagi konkurencyjnej. Pojęcie to jest powiązane z wprowadzeniem czegoś nowego, nowatorstwem, ulepszeniem i reformą. Zgodnie z przykładową definicją, innowacją jest „istotna zmiana funkcji produkcji, polegająca na odmiennym niż uprzednio kombinowaniu, czyli łączeniu ze sobą czynników produkcji” [Gaworecki 2010, s. 35–39]. Obecnie uznaje się znaczenie innowacyjności w usługach, w tym także turystycznych i medycznych. Innowacje w obszarze turystyki oznaczają zmiany w metodach produkcji oraz procesie świadczenia usług, które wykorzystują do tego celu nową bądź niestosowaną wcześniej wiedzę. Najważniejszym przedmiotem innowacji w usługach jest kontakt z klientem usługodawcy, który stanowi istotę produktu – usługi oraz ważne źródło innowacji [Boruszczak 2011, s. 32–35]. W przypadku turystyki medycznej innowacją jest nie tylko wszystko to, co pacjent rozumie pod tym kątem, ale także to, o czym pacjenci często nie wiedzą. Tego rodzaju innowacje wpływają na funkcjonowanie podmiotów leczniczych. Jako przykład można podać wirtualny obieg dokumentów w szpitalu. Innowacje zauważane przez pacjentów odnoszą się do oferowanych usług, zarządzania nimi i do ich promocji. Według danych szacunkowych wartość segmentu turystyki medycznej w Polsce w 2011 roku wynosiła blisko 800 mln zł, a liczba zagranicznych pacjentów około 300 tysięcy [Medycyna estetyczna 2012]. Dane Instytutu Turystyki wskazują, że każdego roku w celach leczniczych do Polski przyjeżdża około 3 milionów cudzoziemców. Powodem zainteresowania polską medycyną są, poza wysoką jakością usług, także różnice w cenach, które sięgają nawet 80% w porównaniu z Wielkią Brytanią, Niemcami czy Stanami Zjednoczonymi. Liczba uczestników takiej formy turystyki nadal się zwiększa, również w obszarze turystyki krajowej, co potwierdzają dane Instytutu Turystyki. Biorąc pod uwagę charakter i rodzaje wdrażanych innowacji w zakresie turystyki medycznej, można je pogrupować w innowacje produktowe, organizacyjne, marketingowe i procesowe. Przykłady takich innowacji przedstawiono w tabeli 1. Należy uznać, że szczególne znaczenie mają obecnie innowacje organizacyjne i marketingowe. Działaniem pomocnym w ich wprowadzaniu może być najnowszy projekt Ministerstwa Gospodarki, które przeznaczyło 4 mln zł na promocję na świecie polskiego sektora turystyki medycznej o wysokim potencjale eksportowym [PAIiZ 2012]. Analiza innowacyjności turystyki medycznej w regionie zachodniopomorskim 59 Tabela 1. Innowacje w turystyce medycznej Innowacje Produktowe Procesowe Organizacyjne Marketingowe Przykłady faktyczne lub propozycje ––opatrunek kolagenowy [Baczko 2011, s. 328–329] ––stosowanie produktów i składników regionalnych do produkcji kosmetyków ––oferowanie innowacyjnych zabiegów, mniej inwazyjnych, zastępujących tradycyjne ––dostęp do nowoczesnych leków ––pogłębianie wiedzy przez specjalistów na szkoleniach i seminariach medycznych ––konsultacje z najlepszymi specjalistami, także zagranicznymi ––działania zmierzające do skrócenia procesu rekonwalescencji ––nowy sprzęt i aparatura medyczna ––nowe oprogramowanie ––innowacje technologiczne w ofercie turystyki medycznej, głównie dla osób niepełnosprawnych ––skracanie procesu leczenia ––skracanie kolejek ––zmiany związane z prywatyzacją klinik i gabinetów lekarskich ––elektroniczny obieg dokumentów ––elektroniczne bazy danych pacjentów ––elektroniczne rezerwacje ––elektroniczne przesyłanie badań do dalszej analizy ––zaangażowanie się Polskiej Agencji Informacji i Inwestycji Zagranicznych w program promocji turystyki medycznej w świecie finansowany z funduszy unijnych [Trendbook Poland 2010, s. 43–47] ––łączenie medycyny estetycznej ze sztuką ––uczestniczenie w organizacjach pozarządowych i klastrach w celu poszukiwania nowych pacjentów [Żołnierski 2011, s. 190] ––programy lojalnościowe Źródło: Opracowano na podstawie zgromadzonych danych. Istotne znaczenie w zakresie innowacyjności w turystyce medycznej ma MedCluster, który jest unikatowym w skali kraju klastrem medycznym. Sieć współpracy została nawiązana w 2007 roku jako „Klaster Medycyna Polska Południowy Wschód”. Jest to inicjatywa przedstawicieli zakładów opieki zdrowotnej. Skupia on w swoim kręgu przychodnie, uzdrowiska, jednostki badawczo-naukowe i firmy doradcze. Jako jeden z najważniejszych efektów jego działalności wskazuje się powstanie nowoczesnej opieki medycznej, świadczenie kompleksowych usług medycznych i usług turystyki medycznej, przy zastosowaniu najnowocześniejszych metod i innowacyjnych technologii [Medcluster 2014]. 60 Joanna Biernacka Misją Klastra jest rozwój współpracy i integracji środowisk, które działają w zakresie innowacyjnych rozwiązań w obszarze ochrony zdrowia. Celem jego działalności jest dodatkowo generowanie innowacyjnych rozwiązań. 3. Analiza innowacyjności turystyki medycznej w województwie zachodniopomorskim Województwo zachodniopomorskie słynie z najlepszych warunków klimatycznych nad Bałtykiem. Duży poziom wilgotności powietrza jest efektem niewielkiej odległości dużych zbiorników wodnych i bardzo dużego zalesienia. Na tym terenie panuje zdecydowanie łagodny klimat. Powietrze bogate w jod oraz cieplejsza woda są atutami, które przekonują turystów [medi-tour.pl b.r.]. Największym powodzeniem wśród zagranicznych pacjentów cieszą się usługi stomatologiczne. Do klinik stomatologicznych znajdujących się w województwie zachodniopomorskim w 2012 roku przybyło blisko 8 tys. turystów. Wartość ta w porównaniu z 2011 rokiem nie uległa istotnym zmianom. Innymi dziedzinami, które przyciągają turystów z całej Europy, są chirurgia estetyczna i plastyczna, kardiologia i kardiochirurgia, wczasy lecznice oraz spa i welness, a także rehabilitacja, bariatria, okulistyka i traumatologia. Z usług medycyny estetycznej skorzystało w 2012 roku przeszło 5 tys. turystów. W 2011 roku wartość ta była większa i przekraczała 5,5 tys. [medi-tour.pl b.r.]. Udział pozostałych usług z zakresu turystyki medycznej w ogólnej wartości jest znacznie mniejszy. W zakres największych korzyści, jakie przynosi rozwój turystyki medycznej w województwie zachodniopomorskim, wlicza się przystosowanie klinik i szpitali do funkcjonowania w roli placówek o charakterze międzynarodowym. Regularnie zwiększany zostaje także komfort pobytu w nich, a także dokonywane są inwestycje w sprzęt najnowszej technologii. Wartość inwestycji zrealizowanych w tym zakresie w latach 2010–2013 szacuje się na 7,5 mln złotych [Audyt turystyczny województwa zachodniopomorskiego 2005, s. 108–109] i z każdym rokiem wzrasta. Inwestycje te dotyczyły w głównej mierze specjalistycznej aparatury diagnostycznej i wyposażenia oddziałów szpitalnych. Placówki medyczne z województwa zachodniopomorskiego zrealizowały wszelkie inwestycje w innowacje wskazane w tabeli 1. Na przykład w zakresie chirurgii estetycznej i plastycznej wprowadzono nowoczesne metody wykonywania zabiegów, które całkowicie eliminują ryzyko pozostawienia Analiza innowacyjności turystyki medycznej w regionie zachodniopomorskim 61 blizn, a także uzupełniono je o dodatkowe zabiegi kosmetyczne oparte na naturalnych produktach, których celem jest skrócenie czasu rekonwalescencji. W przypadku kardiologii i kardiochirurgii, kliniki regionu posiadają wysoko wykwalifikowaną kadrę i nowoczesną aparaturę badawczą. Dzięki temu badania są bardzo szczegółowe, a zatem niemal całkowicie eliminują możliwość nierozpoznania jakiegokolwiek schorzenia w tym zakresie. Placówki te korzystają dodatkowo z najnowocześniejszych implantów stosowanych przy operacjach serca. Odnosząc się do stomatologii, standardem jest bezbolesne przeprowadzanie zabiegów. Dodatkowo istnieje wiele pracowni protetycznych, które wykonują implanty zębów z najnowszych tworzyw o bardzo dużej wytrzymałości. Wszelkie zabiegi są wykonywane nowoczesną aparaturą. W każdej pozostałej gałęzi medycznej, która przyciąga turystów do regionu, wprowadzono przede wszystkim nowoczesne sprzęty oraz rozwiązania, które zwiększają komfort pacjentów oraz ryzyko wystąpienia komplikacji. Inwestycje w tej sferze zostały zrealizowane między innymi w klinice Celcus Bis S.C. w Sarbinowie, w Niepublicznym Zakładzie Opieki Zdrowie w Zegrzu Pomorskim, a także szpitala w Kamieniu Pomorskim. Nie sposób wymienić wszystkich podmiotów medycznych, które wdrażają w swoją działalność innowacje. Wskazane powyżej zostały zatem podane jako przykładowe, które charakteryzują się największą innowacyjnością [medi-tour.pl b.r.]. Drugi kierunek dotyczy ogólnie pojmowanej infrastruktury turystycznej. Hotele oraz pensjonaty, w których zatrzymują się pacjenci, dbają o zapewnienie gościom wygody i atrakcji [Audyt turystyczny województwa zachodnio pomorskiego 2005, s. 112–115]. W tym wypadku wartość inwestycji nie jest znana. Województwo zachodniopomorskie jest najlepiej wypromowanym regionem w Polsce [medi-tour.pl b.r.]. Ośrodki lecznicze wprowadzają coraz nowsze i bardziej zaawansowane usługi, których celem jest zwiększenie innowacyjności. Modyfikowane i urozmaicane są także oferty dla pacjentów. Często przeprowadzane są badania rynków zagranicznych w zakresie usług medycznych, co jest dokonywane głównie przez Instytut Turystyki oraz menedżerów dużych placówek szpitalnych. Na tej podstawie czerpane są informacje o nowych możliwościach, które są następnie wdrażane [medi-tour.pl b.r.]. W wielu miejscach wdrożono również strategie zarządzania jakością oraz podjęto działania marketingowe, których celem jest zwiększenie liczby pacjentów przyjeżdżających do regionu. Poszerzono również dostępność poszczególnych kanałów informacyjnych, w szczególności internetowych [medi-tour.pl b.r.]. 62 Joanna Biernacka W ośrodkach oferujących turystykę medyczną wprowadzane są również innowacje produktowe, które nawiązują do elementów lokalnych i regionalnych Zachodniopomorskiego. Jako przykład można w tym zakresie wskazać wykorzystanie wody morskiej i oczyszczonego piasku morskiego do zabiegów skórnych czy wykorzystanie panującego mikroklimatu w leczeniu chorób płuc. Często pojawiają się przypadki produkcji kosmetyków z naturalnych bogactw. Działania te mają także charakter marketingowy, który ma zachęcić turystów do korzystania z oferowanych w tym zakresie usług. Większość obiektów znajdujących się w województwie zachodniopomorskim oferuje zestawy zabiegów nakierowane na leczenie konkretnego schorzenia. Podmioty medyczne nie ograniczają jednak świadczonych usług. Na przykład, zabiegi skórne zostają uzupełnione o „rehabilitację kosmetyczną” nakierowaną na pielęgnację skóry produktami pochodzenia naturalnego [medi-tour.pl b.r.]. Dla szczegółowej analizy problemu innowacyjności w turystyce medycznej regionu zachodniopomorskiego dokonano krótkiego porównania z regionem południowym, czyli województwem dolnośląskim. Największym uznaniem pośród turystów cieszy się bowiem wrocławska kadra medyczna. Kliniki stomatologiczne z tego regionu są coraz częściej odwiedzane także przez obcokrajowców. Najlepszym przykładem może być ośrodek Clinident, który w każdym roku przyjmuje kilkanaście tysięcy turystów medycznych, w tym także zagranicznych. Region ten odwiedzają również pacjenci przyjeżdżający na zabiegi chirurgii plastycznej i ginekologii estetycznej. Największym zainteresowaniem w tym względzie cieszą się kliniki Optimus i Medic-Beauty. Wskazane podmioty medyczne są uznawane za jedne z najbardziej innowacyjnych w Polsce. Ich roczne inwestycje w tę sferę kształtują się na poziomie nawet kilku milionów. Dzięki temu podmioty te jako działające w formie prywatnej wprowadzają wszelkie popularne innowacje nie tylko z zakresu organizacyjnego, ale przede wszystkim dotyczącego bezpośrednio świadczenia usług medycznych. Przykładem mogą być laserowe zabiegi estetyczne czy zastąpienie inwazyjnych zabiegów zdrowotnych bezinwazyjnymi, głównie laserowymi, lub mniej inwazyjnymi, czyli laparoskopowymi. Jak wskazuje IMAJ (International Medical Travel Journal), jednym z pierwszych krajów, które zauważyły potencjał turystyki medycznej i wykorzystały go do zainteresowania tą sferą turystów, były Indie. Światowym liderem turystyki medycznej jest Singapur. Wyposażenie tamtejszych klinik jest uznawane za najlepsze w Azji, podobnie jak umiejętności i wiedza specjalistów. Czołowe miejsce w rankingu najczęściej odwiedzanych krajów ma również Tajlandia. Coraz więcej cudzoziemców podróżuje w celach medycznych również do Ma- Analiza innowacyjności turystyki medycznej w regionie zachodniopomorskim 63 lezji. Znaczny wpływ na zainteresowanie malezyjskimi usługami medycznymi miały rządowe programy na rzecz promocji turystyki medycznej za granicą. Do najchętniej odwiedzanych krajów Europy należą Turcja, Węgry i Czechy. Zasadniczym powodem podróży jest istotna różnica cenowa w stosunku do kosztów zabiegów przeprowadzanych na przykład w Wielkiej Brytanii czy Niemczech. Medycyna we wskazanych krajach jest bardzo wysoko rozwinięta. Korzysta z najnowszych wynalazków i rozwiązań, które znacznie zmniejszają ryzyko skutków ubocznych i zagrożenie niepowodzeniem. Dodatkowo turyści często mają większe szanse na wykonanie zabiegu za granicą w krótkim czasie niż we własnym kraju. To w połączeniu z innowacyjnością usług medycznych oraz stosunkowo niskimi cenami zabiegów warunkuje wysoki potencjał rozwojowy turystyki medycznej na świecie. Biorąc jednak pod uwagę województwo zachodniopomorskie, region ten dość znacznie odbiega od standardów światowych. Jednak w porównaniu ze standardem krajowym jest on uznawany za najlepszy kierunek turystyki medycznej. 4. Wpływ innowacyjności turystyki medycznej na możliwość rozwoju regionu zachodniopomorskiego Turystyka medyczna województwa zachodniopomorskiego jest uznawana za innowacyjną. W związku z tym ma ona duże szanse na zyskanie zainteresowania ze strony pacjentów. Dzięki wdrażaniu wszelkiego rodzaju innowacyjnych rozwiązań turystyka medyczna wpływa na rozwój całego regionu. Najważniejszym aspektem jest to, że turystyka jako całość jest istotnym czynnikiem rozwoju każdego regionu. Turystyka medyczna ma zatem swój udział w tym względzie, a jej wysoki potencjał rozwojowy jest tym elementem, który ma istotne znaczenie w rozwoju regionu jako turystycznego, nie tylko z zakresu medycyny. Dzięki dużemu zainteresowaniu pacjentów przyjazdem do Zachodniopomorskiego, a także działaniom ukierunkowanym na realizację tego celu, wiele zyskuje także cały region. Korzysta przede wszystkim baza noclegowa, dla której zakładany wzrost dochodów do 2018 roku może wynieść nawet 45–50%. Nie wszystkie obiekty oferują możliwość noclegu, a często sami pacjenci podejmują decyzję o zatrzymaniu się w innym miejscu. W ten sposób dostępna baza turystyczna jest lepiej wykorzystana, co zwiększa dochody takich obiektów [medi-tour.pl b.r.]. 64 Joanna Biernacka Zyskują także baza gastronomiczna i infrastruktura transportowa. Ich wykorzystanie jest najczęściej nieodłącznym elementem realizacji turystyki, także medycznej. Pacjenci często podróżują w inne miejsca regionu, gdzie chętnie korzystają z lokalnej kuchni. Jednocześnie odwiedzają wiele atrakcji turystycznych. Wciąż zwiększające się zainteresowanie turystów medycznych tym regionem warunkuje konieczność dalszego rozwoju wszelkiej infrastruktury turystycznej. W ten sposób wzrasta jej poziom, co odzwierciedla się w zainteresowaniu wszystkich rodzajów turystów. W regionie zachodniopomorskim z każdym rokiem przybywa turystów. Jednak w przypadku turystyki medycznej sytuacja jest zróżnicowana. W 2012 roku na przykład region ten w celach medycznych odwiedziło blisko 15 tys. turystów polskich. Wartość ta w 2011 roku jednak była znacznie większa i wynosiła blisko 20 tys. [Turystyka w województwie zachodniopomorskim w 2012 roku, s. 10]. Liczba turystów zagranicznych przybywających do regionu w celach medycznych wyniosła z kolei w 2012 roku około 25 tys., co dało spadek w porównaniu do 2011 roku, gdzie ich liczba wyniosła blisko 50 tys. [Turystyka w województwie zachodniopomorskim w 2012 roku, s. 12]. Na zakończenie niezbędne jest dokonanie analizy SWOT dla turystyki medycznej w województwie zachodniopomorskim, co przedstawiono poniżej. Mocne strony ––atrakcyjne położenie ––dobre położenie komunikacyjne ––wysoka innowacyjność świadczonych usług medycznych ––inwestowanie znacznych środków finansowych w innowacje medyczne ––wysoko rozwinięty gospodarczo region ––korzystny klimat ––dostępność infrastruktury Szanse ––rozwój medycyny w Polsce ––inwestowanie w rozwój medycyny ––ciągłe dokształcanie lekarzy i uczestniczenie w międzynarodowych szkoleniach Słabe strony ––wysoka konkurencyjność innych regionów i krajów ––wysokie ceny świadczeń medycznych ––często niskie kwalifikacje kadry medycznej ––niski standard szpitali ––brak znajomości języków obcych przez personel medyczny ––niewielki udział produktów naturalnych w medycynie Zagrożenia ––konkurencyjność ze strony innych regionów ––niskie zainteresowanie Polską jako kierunkiem turystycznym Wszelkie innowacje wprowadzane do oferty turystycznej obiektów medycznych mają na celu zwiększenie ich atrakcyjności w świadomości potencjalnych i dotychczasowych pacjentów. W efekcie zakładane jest zwiększenie liczby osób odwiedzających region do około 30 tys. osób w 2015 roku oraz Analiza innowacyjności turystyki medycznej w regionie zachodniopomorskim 65 35 tys. do 2018 roku [Audyt turystyczny województwa zachodniopomorskiego 2005, s. 112–115]. W ten sposób umożliwiony zostaje przede wszystkim rozwój samych ośrodków turystyki medycznej, co w efekcie zwiększa ich pozycję na świecie. Podsumowanie Turystyka medyczna jest w ostatnich czasach uznawana za jedną z najszybciej rozwijających się sfer turystyki. Jest ona podejmowana najczęściej w związku z podjęciem leczenia poza miejscem zamieszkania. Możliwości korzystania z turystyki medycznej są uwarunkowane przede wszystkim jej dostępnością oraz innowacyjnością. Wyposażenie prywatnych klinik czy państwowych szpitali w najnowsze i wysoce nowoczesne urządzenia i standardy zachęcają pacjentów do skorzystania z ich usług. Działalność lecznicza związana z turystyką medyczną jest oferowana nie tylko mieszkańcom Polski, ale również całego świata. Obcokrajowcy najczę ściej samodzielnie finansują takie usługi. Podmioty medyczne województwa zachodniopomorskiego najczęściej odwiedzają turyści z Niemiec. Główną zachętą są niskie ceny świadczonych usług w porównaniu z obowiązującymi na terenie Niemiec, a także wysoka jakość tych usług. Zachodniopomorskie placówki medyczne odwiedza także wielu turystów z całej Europy. Korzystają oni najczęściej z chirurgii estetycznej i plastycznej, usług kardiologów i kardiochirurgów oraz z rehabilitacji, bariatrii, okulistyki i traumatologii. Dzięki zainteresowaniu zachodniopomorskim rynkiem medycznym, rejon ten zyskuje także ogromne uznanie jako miejsce ogólnie pojmowanej turystyki. Najważniejszymi korzyściami z innowacyjności w produktach turystyki medycznej są jednak względy finansowe. Duża wielkość przyjazdowa generuje duże zyski, które są następnie inwestowane w dalszy rozwój. Zgodnie z szacunkami marszałka województwa zachodniopomorskiego, aż 65% zysków jest przeznaczana na dalszy rozwój placówek medycznych. Wartość tych zysków nie jest jednak do końca znana, a różne źródła wskazują na kwoty rzędu kilku, a nawet kilkunastu milionów złotych rocznie. W ten sposób powstaje pewnego rodzaju spirala, która warunkuje rozwój regionu. Podsumowując analizowaną problematykę, należy zaznaczyć, że w artykule nie wyczerpano wszystkich aspektów związanych z innowacyjnością w turystyce medycznej. Wywód ograniczono do informacji powszechnie dostępnych oraz związanych z atrakcyjnością regionu dla pacjentów realizujących 66 Joanna Biernacka turystykę medyczną. Implikacją dla dalszych rozważań z tego zakresu jest przeprowadzenie szczegółowych badań obejmujących turystów korzystających z usług medycznych, a także dyrektorów poszczególnych placówek. Bibliografia Audyt turystyczny województwa zachodniopomorskiego. Strategia rozwoju turystyki w Województwie Zachodniopomorskim do 2015 roku, 2005, Zachodniopomorska Regionalna Organizacja Turystyczna, Szczecin. Białk-Wolf, A., 2010, Potencjał rozwojowy turystyki medycznej, w: Panasiuk, A. (red.), Potencjał turystyczny – zagadnienia ekonomiczne, Zeszyty Naukowe Uniwersytetu Szczecińskiego, nr 591, Ekonomiczne Problemy Usług, nr 53, Wydawnictwo Uniwersytetu Szczecińskiego, Szczecin. Baczko, T., 2011, Raport z innowacyjności gospodarki Polski w 2010 roku, Instytut Nauk Ekonomicznych Polskiej Akademii Nauk, Warszawa. Bukowska-Piestrzyńska, A., 2008, Marketing usług zdrowotnych. Od budowania wizerunku placówki do zadowolenia klientów, CeDeWu, Warszawa. Boruszczak, M., 2011, Turystyka zdrowotna i uzdrowiskowa, Wyższa Szkoła Turystyki i Hotelarstwa w Gdańsku, Gdańsk. Gaworecki, W., 2010, Turystyka, PWE, Warszawa. Lunt, N., Carrera, P., 2010, Medical Tourism: Assessing the Evidence on Treatment Abroad, Maturitas, vol. 66, no. 1. Medcluster – Klaster Medyczny, 2014, MedycynaPolska, http://www.medycynapolska. pl/index.php/top-block/item/71-medcluster [dostęp: 15.11.2013]. medi-tour.pl, b.r., Turystyka zdrowotna i medyczna – Szczecin i Zachodniopomorskie, http://www.medi-tour.pl/253,0,turystyka-zdrowotna-medyczna-szczecin-zachodniopomorskie.html [dostęp: 15.11.2013]. Medycyna estetyczna skorzysta na programie promocji turystyki medycznej, 2012, Rynek Estetyczny, 31 maja, http://www.rynekestetyczny.pl/medycyna-estetyczna-skorzysta-na-programie-promocji-turystyki-medycznej/ [dostęp: 10.05.2012]. PAIiZ, 2012, PAIiIZ promuje turystykę medyczną, Polska Agencja Informacji i Inwestycji Zagranicznych, 17 kwietnia, http:www.paiz.gov.pl/20120417/paiiiz_promuje_turystyke_medyczna [dostęp: 5.11.2013]. Panasiuk, A., 2010, Potencjał turystyczny – zagadnienia ekonomiczne, Ekonomiczne Problemy Usług, nr 53. Prochorowicz, M., 2008, Turystyka medyczna nową perspektywą dla polskich placówek służby zdrowia, w: Grzywacz, R. (red.), Turystyka i rekreacja szansą rozwoju aktywności społecznej, Wydawnictwo Wyższej Szkoły Informatyki i Zarządzania w Rzeszowie, Rzeszów. Analiza innowacyjności turystyki medycznej w regionie zachodniopomorskim 67 Rab-Przybyłowicz, J., 2010, Tworzenie produktu dla turystyki medycznej w Szczecinie, w: Panasiuk, A. (red.), Potencjał turystyczny – zagadnienia ekonomiczne, Zeszyty Naukowe Uniwersytetu Szczecińskiego, nr 591, Ekonomiczne Problemy Usług, nr 53, Wydawnictwo Uniwersytetu Szczecińskiego, Szczecin. Sztorc, M., 2008, Podróże turystyczne obcokrajowców w celach zdrowotnych do Polski, w: Gaworecki, W., Mroczyński, Z. (red.), Turystyka i sport dla wszystkich w promocji zdrowego stylu życia, Wydawnictwo Wyższej Szkoły Turystyki i Hotelarstwa w Gdańsku, Gdańsk. Trendbook Poland 2010, Polska Agencja Informacji i Inwestycji Zagranicznych, Warszawa. Turystyka w województwie zachodniopomorskim w 2012 roku, 2013, Urząd Statystyczny w Szczecinie, Szczecin. Żołnierski, A., 2011, Koncepcja popytowego podejścia do innowacji w produkcji aparatury medycznej w świetle badań jakościowych, w: Baczko, T. (red.), Raport z innowacyjności gospodarki Polski w 2010 roku, Instytut Nauk Ekonomicznych Polskiej Akademii Nauk, Warszawa. STUDIA OECONOMICA POSNANIENSIA 2014, vol. 2, no. 2 (263) Marta Pszczółkowska Uniwersytet Ekonomiczny w Poznaniu, Wydział Ekonomii, Katedra Teorii Pieniądza i Polityki Pieniężnej [email protected] ANALIZA ALTERNATYWNYCH WSKAŹNIKÓW INDEKSACJI OBLIGACJI SKARBOWYCH Streszczenie: Obligacje indeksowane są emitowane w Polsce od 1994 roku. Mimo że instytucje międzynarodowe oraz ekonomiści w wielu artykułach wskazują pozytywne aspekty ich wykorzystania, w ostatnim dziesięcioleciu nie były one często emitowane. Finansowano nimi średnio mniej niż 4% zadłużenia Skarbu Państwa. Charakterystyczne dla tych obligacji jest oprocentowanie, które składa się ze stałej marży odsetkowej powiększonej o zmienną wartość wskaźnika referencyjnego. W praktyce jest nim najczęściej inflacja, mierzona jako średni wzrost cen towarów i usług konsumpcyjnych. Jednak możliwe jest zastosowanie innych wartości odniesienia. Przeprowadzona analiza dotyczy lat 2005–2012 oraz czterech alternatywnych rozwiązań: dla inflacji bazowej bez cen administracyjnych oraz bez cen sezonowych, stopy wzrostu PKB dla szeregu wyrównanego sezonowo oraz surowego. W porównaniu z wartościami wypłacanych odsetek według stanu bieżącego, wymienione warianty okazały się mniej kosztowne dla budżetu państwa (emitenta) w istniejących w tym czasie warunkach gospodarczych. Wyzwaniem dla zarządzających długiem jest dobór właściwej formuły indeksowania ze względu na koszty obsługi długu publicznego oraz wysokość ceny bieżącej sprzedaży obligacji przez emitenta, która miałaby wpływ na wysokość zadłużenia. Ponadto wybrane rozwiązanie powinno uwzględniać reakcję inwestorów. Częste zmiany wskaźnika indeksacji mogą być przez nich negatywnie odbierane. Słowa kluczowe: dług Skarbu Państwa, obligacje skarbowe, obligacje indeksowane, wskaźnik indeksacji. Klasyfikacja JEL: H63. Analiza alternatywnych wskaźników indeksacji obligacji skarbowych 69 ALTERNATIVE INDEX RATIO OF TREASURY BONDS Abstract: Indexed bonds have been issued in Poland since 1994. Despite the positive opinions of international institutions and economists regarding such bonds, in the last decade they were issued to cover an average of less than 4% of Treasury debt. The interest rate of these bonds is composed of a fixed interest margin and a variable margin dependent on the inflation rate, measured by the Consumer Price Index. However, it is possible to use different reference values. The analysis presented in this paper covers the period 2005–2012 and includes four alternative solutions: inflation rate without administrative prices; inflation rate without seasonal prices; as well as GDP growth rate for seasonally adjusted and raw data series. Compared with the value of interest payments according to the current system, it can be concluded that the use of the CPI was more expensive for the state than the other four options would have been in the economic conditions during the analysed period. Other macroeconomic conditions could also influence the results but a key issue is the difficulty in predicting them. Keywords: Treasury debt, Treasury bonds, indexed bonds, index rate. Wstęp Dług sektora finansów publicznych w latach 2001–2012 wynosił średnio 47,74% PKB (blisko tyle co w 2006 roku1). Na koniec 2012 roku państwowy dług publiczny (PDP) osiągnął wartość 840,5 mld zł, czyli 52,67% PKB2. Ministerstwo Finansów prognozuje dalszy nominalny wzrost zadłużenia, przy jednoczesnym wzroście PKB. Według projekcji zawartej w Strategii zarządzania długiem sektora finansów publicznych w latach 2013–2016 z 2012 roku spadek relacji PDP do PKB poniżej pierwszego ustawowego progu ostrożnościowego3 (do poziomu 49,6% PKB, nominalnie ok. 991,4 mld zł) ma nastąpić do 2016 roku4 [Ministerstwo Finansów 2012, s. 4]. Jednak mniej korzystne niż przewidywano dane makroekonomiczne warunkują wciąż rosnącą relację wskaźników budżetowych. Informacje Eurostatu o zadłużeniu w I kwartale 1 Państwowy dług publiczny w Polsce w 2006 roku wyniósł 47,76% PKB (dane ze strony Ministerstwa Finansów www.mf.gov.pl, dostęp: 15.03.2013). 2 Według metodologii stosowanej przez Eurostat dług publiczny wynosił na koniec 2012 roku 55,6% PKB (szczegóły na stronie Eurostatu http://appsso.eurostat.ec.europa.eu, dostęp: 4.09.2013). 3 Pierwszy próg ostrożnościowy wynosi 50% PKB, drugi – 55% PKB, trzeci – 60% PKB. Pierwszy próg został przekroczony w 2010 roku. Od tej pory stosunek deficytu do dochodów w kolejnym roku (x + 1) nie może być większy niż w roku poprzednim (x) [Ustawa z dnia 27 sierpnia 2009 roku]. 4 W Strategii zarządzania długiem sektora finansów publicznych wydanej w grudniu 2011 roku zakładano, że już w 2013 roku państwowy dług publiczny wyniesie 50,3% PKB, a w 2014 – 48,3% PKB (przy wielkości nominalnej PDP – 864,8 mld zł). 70 Marta Pszczółkowska 2013 roku pokazują, że dług publiczny w Polsce przekroczył w tym okresie już 57,3% PKB. Ponadto w lipcu 2013 roku Sejm przegłosował zawieszenie pierwszego progu ostrożnościowego, co umożliwia dalsze zadłużanie. Przeważającą część państwowego długu publicznego stanowi zadłużenie sektora rządowego. W latach 2001–2012 ten udział wahał się w granicach 91,84–95,44%. Procent długu zaciąganego przez jednostki samorządu terytorialnego (JST) oscylował wokół średniej na poziomie 4,84%. Pozostałe zadłużenie sektora finansów publicznych sięgało maksymalnie niecałych 3%. Mimo powolnej tendencji rosnącej długu JST (na koniec 2011 roku – 7,88%) dwie ostatnie wymienione grupy można uznać za mniej istotne podmioty generujące zadłużenie ogółem. Stąd przeprowadzana analiza dotyczy tylko długu Skarbu Państwa (dane pochodzą ze strony internetowej Ministerstwa Finansów www.finanse.mf.gov.pl, dostęp: 2.05.2013). Szeroki wachlarz instrumentów możliwych do zaoferowania na rynku finansowym sprawia, że kluczowym zadaniem organów zarządzających długiem publicznym jest wybór takiego sposobu finansowania (w tym konstrukcji instrumentów transferu kapitału), który generowałby niskie koszty odsetkowe dla budżetu państwa, wystarczające zainteresowanie wśród dawców kapitału, nie zaburzałby mechanizmu rynkowego i nie ograniczał inwestycji prywatnych. Dwa podstawowe źródła to kredyt i emisja papierów wartościowych (bonów i obligacji skarbowych). Struktura finansowania długu Skarbu Państwa na koniec 2012 roku kształtowała się następująco: zadłużenie krajowe – 68,4%, z czego 96,89% stanowiły rynkowe skarbowe papiery wartościowe (SPW), a tylko 1,36% – oszczędno ściowe SPW (detaliczne), pozostała część to przyjęte depozyty (przede wszystkim wolne środki jednostek sektora finansów publicznych (SFP); zadłużenie zagraniczne – 31,6%, z czego 80% zostało pokryte emisją SPW w walutach obcych, a tylko 20% kredytami. Ze względu na rodzaj oprocentowania przeważa oprocentowanie stałe – blisko 79% ogólnego zadłużenia, oprocentowanie zmienne to ok. 18%. Trzecią formą oprocentowania jest indeksacja obligacji, których rentowność w praktyce najczęściej zależy od inflacji, lecz nie jest to jedyny możliwy punkt odniesienia. Celem niniejszego artykułu jest zwrócenie uwagi na odpowiedni dobór wskaźników indeksacji ze względu na koszty generowane dla emitenta obligacji indeksowanych przez sprawdzenie, jak kształtowałyby się odsetki od tych obligacji w latach 2005–2012, gdyby został zmieniony wskaźnik referencyjny. Zostały przeanalizowane cztery alternatywne rozwiązania: dla inflacji bazowej bez cen administracyjnych oraz bez cen sezonowych, stopy wzrostu PKB dla szeregu wyrównanego sezonowo oraz surowego. Wyniki zostały porównane z wartością wypłacanych odsetek według stanu bieżącego. 71 Analiza alternatywnych wskaźników indeksacji obligacji skarbowych 1. Obligacje indeksowane w Polsce Historia obligacji indeksowanych sięga XVIII wieku, gdy po raz pierwszy zostały wyemitowane w 1790 roku przez stan Massachusetts (Stany Zjednoczone) [ECB 2007]. Pierwsza emisja tego typu obligacji w Polsce została przeprowadzona w 1994 roku. Obligacje indeksowane można przypisać do grupy obligacji zmiennoprocentowych. Ich oprocentowanie składa się z dwóch części: stawki bazowej, obliczonej na podstawie wybranego wskaźnika referencyjnego, którego wartość ulega ciągłym wahaniom (w każdym momencie wyceny), oraz marży odsetkowej, która stanowi dochód dodatkowy oferowany przez emitenta. W płaszczu obligacji emitent może opisać dowolną miarę odniesienia, na podstawie której dokonywane będą periodyczne zmiany oprocentowania obligacji [Gruszczyńska-Brożbar 2002, s. 31–33]. Najpopularniejszym (stosowanym również w Polsce) wskaźnikiem referencyjnym jest inflacja, mierzona indeksem wzrostu cen towarów i usług 19 4 77 2012 2011 83 4 13 2010 84 3 13 2 86 2009 11 2008 84 3 13 2007 84 2 14 2006 87 2005 88 2 2 0 7 93 2003 0 90 2002 0 84 2001 0 20 oprocentowanie stałe 40 11 1 8 91 2004 11 60 obligacje indeksowane 80 10 16 100 oprocentowanie zmienne Rysunek 1. Udział obligacji indeksowanych w zadłużeniu krajowym finansowanym emisją rynkowych SPW w latach 2001–2012 – stan na koniec roku (w %) Źródło: Opracowano na podstawie danych Ministerstwa Finansów na stronie www.mf.gov.pl [dostęp: 3.05.2013] 72 Marta Pszczółkowska konsumpcyjnych (customer price index – CPI). To rozwiązanie ma chronić wierzycieli przed realnym spadkiem wartości należności. Stąd ich angielska nazwa treasury inflation protected securities – TIPS [Pflueger i Viceira 2011, s. 3]. Wraz ze wzrostem inflacji na rynku rośnie stawka bazowa i tym samym oprocentowanie nominalne tej obligacji. Odwrotne zjawisko wywołuje spadek inflacji. Udział obligacji indeksowanych w zadłużeniu publicznym w Polsce (wg wartości rynkowych SPW) na koniec 2012 roku wyniósł zaledwie 4,39% i jest on najwyższy w analizowanym okresie od 2001 do 2012 roku. Struktura zadłużenia według formy oprocentowania została przedstawiona na rysunku 1. Od czerwca 1994 do marca 1999 roku obligacje indeksowane w Polsce były emitowane co kwartał na okres jednego roku z jednorazową wypłatą odsetek. Szczegóły tych historycznych emisji (z uwzględnieniem realnych wartości kuponów) zostały przedstawione w tabeli 1. Po ponadczteroletniej przerwie w sierpniu 2004 roku wyemitowano obligacje indeksowane z datą wykupu 24 sierpnia 2016 roku. Minimalna wartość jednej obligacji to 1000 zł, a minimalna oferta jednego uczestnika nie może być mniejsza niż 1 mln zł. Pewny dochód odpowiada marży odsetkowej równej 3%. Wartość nominalna obligacji podlega indeksacji o współczynnik skonstruowany na bazie narastającego miesięcznie wskaźnika cen towarów i usług konsumpcyjnych ogłaszanego przez Główny Urząd Statystyczny. W wypadku braku publikacji tego wskaźnika w odpowiednim terminie (do 22 dnia danego miesiąca, czyli na dwa dni przed wyceną odsetek) wskaźnik zastępczy jest obliczany przez Ministerstwo Finansów5. Jeśli współczynnik indeksacji na dzień wykupu obligacji przyjmie wartość mniejszą od 1, to świadczenie z tytułu wykupu zostanie wypłacone według wartości nominalnej obligacji wraz ze stałymi odsetkami [Ministerstwo Finansów 2004]. Na tych samych warunkach6 w kolejnych latach przygotowano jeszcze 15 serii obligacji o łącznej wartości blisko 10 mld zł, z czego sprzedaż wyniosła ponad 8,4 mld zł. W liście emisyjnym przewidziano podaż w wysokości 30 mld, stąd wysoko prawdopodobne są dalsze emisje. Ponadto w sierpniu 2008 roku wprowadzono obligacje, których wykup nastąpi 25 sierpnia 2023 roku. Do 2012 roku w 5 seriach tych obligacji pozyskano ponad 3,77 mld zł. W stosunku do poprzedniej emisji obniżono oprocentowanie podstawowe tych instrumentów do 2,75%. Pozostałe warunki, łącznie ze sposobem indeksacji nie zostały zmienione 5 6 Wzór został podany w punkcie 1.1. Na podstawie tego samego listu emisyjnego (z 4 sierpnia 2004 roku, nr 29/2004). Analiza alternatywnych wskaźników indeksacji obligacji skarbowych 73 Tabela 1. Zestawienie emisji obligacji indeksowanych w Polsce w latach 1994–2000 Lp. Seria ISIN Data pierwszej emisji 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 IR0695 IR0995 IR1295 IR0396 IR0696 IR0996 IR1296 IR0397 IR0697 IR0997 IR1297 IR0398 IR0698 IR0998 IR1298 IR0399 IR0699 IR0999 IR1299 IR0300 IZ0816 IZ0823 PL0000100090 PL0000100108 PL0000100116 PL0000100124 PL0000100376 PL0000100392 PL0000100459 PL0000100483 PL0000100533 PL0000100582 PL0000100657 PL0000100681 PL0000100764 PL0000100830 PL0000100889 PL0000100947 PL0000101002 PL0000101010 PL0000101028 PL0000101036 PL0000103529 PL0000105359 1.06.1994 1.09.1994 1.12.1994 1.03.1995 1.06.1995 1.09.1995 1.12.1995 1.03.1996 3.06.1996 2.09.1996 2.12.1996 3.03.1997 3.06.1997 2.09.1997 2.12.1997 3.03.1998 1.06.1998 1.09.1998 1.12.1998 1.03.1999 24.08.2004 25.08.2008 Data wykupu 2.06.1995 2.09.1995 2.12.1995 2.03.1996 2.06.1996 2.09.1996 2.12.1996 2.03.1997 4.06.1997 3.09.1997 3.12.1997 4.03.1998 3.06.1998 4.09.1998 3.12.1998 1.03.1999 1.06.1999 1.09.1999 1.12.1999 1.03.2000 24.08.2016 25.08.2023 Kupon po Skumulowa uwzględnie ny wskaźnik niu indeksa inflacji (%) cji (%) 37,99 33,24 35,66 30,91 30,26 24,37 27,83 21,96 26,52 20,19 25,92 19,60 24,75 19,40 24,04 18,69 19,96 16,84 18,24 15,13 17,22 13,99 16,43 13,21 14,21 13,87 12,41 12,08 11,64 10,42 9,66 8,46 8,40 6,04 8,73 6,25 9,48 8,29 10,90 9,80 3,00×SI 2,75×SI SI – współczynnik indeksacji wyrażony w procentach (tu: inflacja). Źródło: Jak do rysunku 1. [Ministerstwo Finansów 2008]. W tabeli 2 zostały zaprezentowane niewykupione emisje obligacji indeksowanych. Metodyka naliczania odsetek w 2004 roku zmieniła się w stosunku do emisji z lat 90. Różnica dotyczy sposobu liczenia współczynnika indeksacji. Według listów emisyjnych z 2004 i z 2008 roku opiera się on na porównaniu inflacji z dwóch miesięcy (z drugiego i trzeciego miesiąca przed terminem wypłaty odsetek), według wzoru przedstawionego w punkcie 1.1. Wcześniej odnosił się do skumulowanego wskaźnika z 12 miesięcy, począwszy od drugiego miesiąca poprzedzającego miesiąc rozpoczęcia sprzedaży przez 74 Marta Pszczółkowska Tabela 2. Wielkość i cena przetargowa emisji obligacji indeksowanych w latach 2004–2012 (drugi przetarg o tym samym numerze oznacza przetarg uzupełniający) Seria Data przetargu IZ0816 1 2 2 3 3 4 4 18.08.2004 22.09.2004 22.09.2004 10.11.2004 10.11.2004 8.12.2004 8.12.2004 5 5 6 7 8 9 10 11 12 13 14 14 15 15 16 9.02.2005 9.02.2005 11.05.2005 10.08.2005 9.11.2005 8.02.2006 10.05.2006 14.06.2006 8.11.2006 9.05.2007 14.11.2007 14.11.2007 4.06.2008 4.06.2008 12.01.2012 IZ0823 1 2 3 4 5 6 6 7 7 łączna sprzedaż średnia cena 13.08.2008 8.12.2010 16.02.2011 16.03.2011 15.06.2011 14.06.2012 14.06.2012 19.09.2012 19.09.2012 łączna sprzedaż średnia cena Źródło: Jak do rysunku 1. Sprzedaż (w mln zł) Cena średnia 1 obligacji (w zł) 500 500 70 500 100 800 160 średnie dyskonto: 800 160 0 500 491,5 493 500 500 0,00 498 500 78 505 100 657 średnia premia: 8 412,5 904,10 928,48 928,48 936,53 936,53 963,69 963,69 62,64 1002,10 1002,10 – 1027,32 1004,72 1020,47 1017,81 1001,66 – 1020,03 1019,66 1019,66 1015,44 1015,44 1021,50 13,87 451,5 978,4 1 137 320,79 125 163,55 b.d. średnie dyskonto: 100 500 3 776,24 967,58 965,75 970,86 968,49 973,25 995,68 b.d. 26,398 1010,20 1 010,20 939,53 982,75 Analiza alternatywnych wskaźników indeksacji obligacji skarbowych 75 agenta emisji obligacji serii o danym terminie wykupu. W okresie marzec 1994 – marzec 1996 dodatkowa marża oferowana przy tych obligacjach wynosiła 5%, przy czym wypłacana ona była do marca 1997 roku, a od czerwca 1996 roku do marca 1997 roku – 3%, przy czym ich wypłata zakończyła się w marcu 1998 roku). 1.1. Zestawienie wzorów W Liście emisyjnym nr 29/2004 Ministerstwa Finansów publikowane są informacje o sposobie obliczania wskaźnika referencyjnego, odsetek oraz cen obligacji. Poniżej zaprezentowano najważniejsze z nich 1) wskaźnik miesięczny n ∏(1 + WRk ), Wn = 100 ⋅ k =1 gdzie: n – liczba miesięcy, k – miesiąc WRk – wskaźnik referencyjny opublikowany dla miesiąca k, 2) bazowy wskaźnik referencyjny na dzień emisji WB = Wa + 23 ⋅ (Wb − Wa ), 31 gdzie: Wb – wskaźnik miesięczny dla drugiego miesiąca poprzedzającego miesiąc emisji, Wa – wskaźnik miesięczny dla trzeciego miesiąca poprzedzającego miesiąc emisji, 3) współczynnik indeksacji SI(d , D , m) = Wm−3 + gdzie: d – dzień wypłaty odsetek, m – miesiąc, d −1 ⋅ (Wm−2 − Wm−3 ) D , WB 76 Marta Pszczółkowska D – liczba dni w miesiącu, Wm–2 – wskaźnik dla miesiąca o dwa miesiące poprzedzającego miesiąc m, Wm–3 – wskaźnikiem o trzy miesiące poprzedzającym miesiąc m, WB – bazowy wskaźnik referencyjny na dzień emisji. 4) współczynnik zastępczy WZn = Wn−1 ⋅ 12 Wn−1 , Wn−13 gdzie: n – miesiąc Wn–1 – wskaźnik dla miesiąca o jeden miesiąc poprzedzającego miesiąc n, Wn–13 – wskaźnik dla miesiąca o trzynaście miesięcy poprzedzającego miesiąc n. 5) odsetki od jednej obligacji Od = N ⋅ SI d ⋅ r ⋅ a , ACT gdzie: N – wartość nominalna jednej obligacji, SId – współczynnik indeksacji, r – oprocentowanie obligacji, a – rzeczywista liczba dni od pierwszego dnia danego okresu odsetkowego, z włączeniem tego dnia, do dnia d z wyłączeniem dnia d, ACT – rzeczywista liczba dni w danym okresie odsetkowym z włączeniem pierwszego dnia okresu odsetkowego oraz wyłączeniem ostatniego dnia okresu odsetkowego. Na podstawie powyższych wzorów można obliczyć współczynnik indeksacji, a następnie wypłacone odsetki, stanowiące koszt dla emitenta, porównać je z innymi obligacjami, co zostanie przestawione w kolejnej części artykułu. 2. Alternatywne wskaźniki indeksacji Indeksy, na podstawie których mogą być dokonywane okresowe zmiany oprocentowania obligacji, należą do katalogu otwartego. Istnieje dowolność w ich wyborze. W literaturze najczęściej są sugerowane wskaźniki makroekonomicz- Analiza alternatywnych wskaźników indeksacji obligacji skarbowych Wskaźniki makroekonomiczne dynamika nominalnego PKB dynamika potencjalnego PKB 77 Indeksy rynkowe kurs walutowy dynamika eksportu inflacja (CPI) inflacja bazowa ceny wybranych towarów/surowców Rysunek 2. Przykładowe wskaźniki indeksacji Źródło: Na postawie: [Barro 2003, s. 2; Borensztein i Maurol 2002, s. 3; IMF 2004, s. 10] ne opisujące stan gospodarki lub indeksy cen. Przykłady zostały przedstawione na rysunku 2. Najczęściej stosowanym rozwiązaniem jest indeksacja o przeciętny wzrost cen mierzony wskaźnikiem CPI, który przedstawia zmiany cen koszyka towarów i usług konsumpcyjnych. Jednak miary inflacji mogą być różne. W Wielkiej Brytanii wykorzystywany jest RPI (retail price index), który dotyczy zmian cen towarów i usług dla odbiorców detalicznych. We Francji, Niemczech (w krajach strefy euro) podstawiany jest zharmonizowany CPI po wyłączeniu cen produktów tytoniowych (HICP ex–tobacco). W Polsce poza CPI obliczana jest (lecz niestosowana jako wskaźnik referencyjny) inflacja bazowa, czyli skorygowana o ceny administracyjne albo sezonowe (ceny żywności i energii) albo ceny najbardziej zmienne. R. Barro wśród potencjalnych wskaźników indeksacji wymienia kurs walutowy, którego wprowadzenie miałoby na celu stabilizowanie wysokości płatności z tytułu długu w walutach obcych. Cykl koniunkturalny również może być dobrą podstawą dla tych instrumentów. W fazie ożywienia odsetki od zaciągniętego długu byłyby wyższe, a w czasie spadku i recesji – niższe. Dostosowanie do sytuacji gospodarczej pozwala zachować stabilność finansów publicznych [Barro 2003, s. 2]. Podobna zasada odnosi się do indeksacji według wzrostu nominalnego PKB [IMF 2004, s. 10] i potencjalnego PKB. Indeks może się opierać również na cenach wybranych towarów lub surowców. Odwołując się do przykładów historycznych, można wymienić obligacje indeksowane o wskaźnik cen takich dóbr, jak: –– ropa naftowa (Meksyk) [Borensztein i Maurol 2002, s. 4], –– miedź (część przedsiębiorstw w Chile) [Borensztein i Maurol 2002, s. 4], –– bawełna (Confederate States of America, 1863) [European Central Bank 2007], 78 Marta Pszczółkowska –– srebro (Sunshine Mining Company, US, 1980) [European Central Bank 2007]. Takie rozwiązanie jest korzystne, gdy dochody państwa są silnie uzależnione od wpływów ze sprzedaży takich towarów lub surowców. 3. Inflacja Indeksacja na podstawie wskaźnika wzrostu cen była polecana przez takich ekonomistów, jak: Joseph Lowe (1822), William S. Jevons (1875), Alfred Marshall (1925), Irving Fisher (1927), John M. Keynes (1927), Milton Friedman, oraz przez instytucje międzynarodowe, takie jak Europejski Bank Centralny (EBC) czy Międzynarodowy Fundusz Walutowy (IMF). EBC w swoich opracowaniach z 2007 roku wskazywał, że ze względu na zachodzące zmiany demograficzne, takie jak starzenie się społeczeństwa oraz wzrost oczekiwanej długości życia, popyt na aktywa o długim terminie zapadalności, które odpowiadałyby wartości zobowiązań emerytalnych, będzie rósł. Takimi aktywami mogą być obligacje indeksowane o wskaźnik inflacji. Szczególnie aktywne na tym rynku powinny być fundusze emerytalne i zakłady ubezpieczeń, co wynika z ich profilu działalności [European Central Bank 2007]. Wśród argumentów przemawiających za emisją obligacji indeksowanych o stopę inflacji eksponuje się przede wszystkim zachowanie realnej wartości aktywów i optymalnego podziału ryzyka inflacyjnego [Fischer 1982, s. 4]. Jednym z podstawowych celów inwestowania jest uzyskanie zysku z alokowanego kapitału, w tym (co nastąpi wcześniej) ochrona jego wartości realnej. Ze względu na inflację część korzyści zostaje transferowana z wierzyciela na dłużnika, ponieważ w momencie spłaty zadłużenia dług wyrażony nominalnie, realnie jest wart mniej niż w momencie jego zaciągnięcia i wykorzystania w poprzednim okresie. Dzięki wprowadzeniu obligacji indeksowanych następuje podział tego ryzyka między strony transakcji. Spadek wartości pieniądza w czasie zostanie zrekompensowany inwestorowi w postaci zwiększonego oprocentowania, a deflacja nie spowoduje dodatkowego kosztu dla emitenta. Ważnym argumentem za indeksacją długu jest potencjalna możliwość zmniejszenia kosztów jego obsługi. Na wymaganą przez inwestora stopę zwrotu z przekazanego kapitału składają się premie za poszczególne czynniki ryzyka, na które jest narażony. W zamian za eliminację ryzyka inflacyjnego inwestor powinien się zgodzić na niższą rentowność zakupionych instrumentów [European Central Bank 2007]. Pozytywny wpływ obligacji indeksowanych Analiza alternatywnych wskaźników indeksacji obligacji skarbowych 79 został zauważony w zakresie wydłużania duracji7 portfela wyemitowanych obligacji oraz efektu wygładzania podatków [Barro 2003]. Według R. Barro ten typ obligacji pozwoli na lepsze dopasowanie aktywów (szczególnie należności) do pasywów (szczególnie zobowiązań). Znaczna część dochodów państwa w mniejszym lub większym stopniu naturalnie ulega indeksacji o występującą inflację, jak wpływy z tytułu VAT, opłat skarbowych. Stąd powstał postulat, by zobowiązania państwa również doprowadzać do wartości realnej. Emisja obligacji indeksowanych będzie miała na celu zniwelowanie różnicy między urealnionymi wpływami a nominalnymi wydatkami [European Central Bank 2007]. Zmiany stopy realnego oprocentowania obligacji indeksowanych są informacjami, na podstawie których można szacować (przy znanych innych założeniach) potencjalną wielkość inwestycji, oszczędności oraz wzrostu gospodarczego. Ponadto są źródłem informacji o oczekiwaniach inflacyjnych [Price 1997]. Obligacje indeksowane zostały uznane za lepszy odpowiednik wartości kapitału niż inne rodzaje obligacji. Dlatego niektórzy ekonomiści uważają, że kształtowanie polityki pieniężnej i fiskalnej z wykorzystaniem tego rodzaju instrumentów będzie bardziej efektywnie wpływało na utrzymanie stabilności cen kapitału. Są również przeciwne opinie, których zwolennicy argumentują między innymi, że oczekiwania inflacyjne mogą być błędne [Price 1997]. Mimo przedstawionych zalet obligacje indeksowane nie są szeroko rozpowszechnionym instrumentem. Jego ograniczenia mogą wynikać z niskiej płynności. Obniżona rentowność (przez odjęcie premii za ryzyko inflacyjne) może zostać podniesiona przez konieczność zaoferowania przez emitenta premii z tytułu niskiej płynności. Jednakże siła nacisku na taką dodatkową premię może nie być duża, przy założeniu, że celem potencjalnych nabywców jest utrzymanie ich do terminu do wykupu, co oznacza, że płynność nie jest dla nich istotna [European Central Bank 2007]. Nawiązując do zjawiska iluzji pieniężnej opisanego przez Irvinga Fishera, ujawnia się inna przyczyna braku zainteresowania obligacjami indeksowanymi. Inwestorzy prywatni mogą nie ufać tego rodzaju instrumentom, ponieważ sądzą, że pieniądz ma stałą wartość mimo upływu czasu i wybierają instrumenty stałoprocentowe, których nominalne oprocentowanie jest wyższe. 7 Duracja (duration) oznacza długość przeciętnego okresu dostosowania kosztów (w tym wypadku obsługi długu publicznego) do zmiany poziomu stóp procentowych. Wyrażona jest w latach. Stanowi miarę ryzyka stopy procentowej. Niższa duracja jest interpretowana jako wzrost ryzyka stopy procentowej, które może być wywołane wzrostem poziomu stóp procentowych, większym zaangażowaniem w instrumenty krótkoterminowe i o zmiennym oprocentowaniu [Ministerstwo Finansów 2012, s. 47]. 80 Marta Pszczółkowska W ten sposób ulegają iluzji pieniężnej, co jest częste w okresach o niskiej inflacji. Jednak nawet nieznaczny jej poziom utrzymujący się w długim okresie spowoduje erozje oszczędności. Gdy inflacja jest silnie odczuwana przez społeczeństwo, chęć zabezpieczenia się przed nią również jest większa. Niektórzy ekonomiści rekomendują, by do zadań rządu należało uświadamianie społeczeństwa o zachodzących procesach ekonomicznych i zachęcanie do ochrony swoich funduszy przed inflacją [European Central Bank 2007]. Ponadto może panować obawa przed manipulacją wskaźnikiem referencyjnym przez emitenta. W przypadku obligacji skarbowych emitent może mieć większy wpływ na prezentacje wartości wskaźników niż emitent prywatny. Zniechęcająca może być również skomplikowana procedura naliczania wartości odsetek i jej niezrozumienie przez inwestora [European Central Bank 2007]. Tabela 3. Zalety i wady miar inflacji jako wskaźników referencyjnych z punktu widzenia emitenta i inwestora Wyszczególnienie Zalety Emitent ––lepsze dopasowanie polityki monetarnej ––informacja o oczekiwaniach inflacyjnych ––redukcja presji inflacyjnej ––wydłużanie czasu zapadalności SPW ––wspieranie efektu wygładzania podatków ––brak premii za ryzyko inflacyjne – zmniejszenie kosztów obsługi długu ––lepsze dopasowanie aktywów do pasywów budżetu państwa Inwestor ––zachowanie realnej wartości aktywów ––podział ryzyka inflacyjnego Wady ––błędne oczekiwania inflacyjne ––mniejsza płynność – wyższy koszt dla emitenta ––niepewność wielkości przyszłych kosztów ––obawa przed manipulacją wskaźnikiem ––niezrozumienie formuły naliczania odsetek Źródło: Na podstawie: [Fischer 1982; Barro 2003; IMF, The World Bank 2002; IMF 2004; European Central Bank 2007]. Podsumowanie zalet i wad wskaźników opartych na inflacji przedstawiono w tabeli 3. Inflacja jest mierzona przez porównanie poziomu cen danych dóbr w okresie obecnym z poziomem cen tych dóbr w okresie porównywanym. Problem 81 Analiza alternatywnych wskaźników indeksacji obligacji skarbowych pojawia się przy doborze dóbr do porównywanego koszyka, dlatego powstało wiele miar tego zjawiska. W statystykach publikowane są najczęściej: –– wskaźnik cen towarów i usług konsumpcyjnych (CPI), –– wskaźnik CPI skorygowany o ceny produktów najbardziej zmiennych, –– wskaźnik CPI skorygowany o ceny administracyjne, –– wskaźnik CPI skorygowany o ceny żywności i energii, –– zharmonizowany wskaźnik cen towarów i usług konsumpcyjnych (HICP) dla porównań inflacji w państwach UE. Ich wzajemne zależności oraz wielkości zostały przedstawione na rysunku 3. 101,5 101,0 100,5 100,0 inflacja po wyłączeniu cen administrowanych CPI 1.9.2012 1.11.2011 1.1.2011 1.2.2010 1.5.2009 1.7.2008 1.9.2007 1.11.2006 1.1.2006 1.3.2005 1.5.2004 1.7.2003 1.9.2002 1.11.2001 99,0 1.1.2001 99,5 inflacja po wyłączeniu cen żywności i energii Rysunek 3. Porównanie inflacji CPI oraz inflacji bazowej skorygowa nej o ceny administracyjne, ceny żywności i energii w latach 2001–2012 (miesiąc poprzedni = 100) Źródło: Na podstawie danych NBP [2013] W latach 2001–2012 inflacja po wyłączeniu cen żywności i energii (miesiąc do miesiąca) średnio wynosiła 0,16% i charakteryzowała się mniejszymi wahaniami niż CPI oraz inflacja bez cen administrowanych, co obrazuje bardziej wygładzona linia na rysunku 3. Odchylenie standardowe wymienionych wyżej wskaźników wyniosło kolejno: 0,21 p.p., 0,36 p.p., 0,41 p.p. Bez wątpienia zmienność cen sezonowych ma znaczący wpływ na wartość inflacji CPI. Mniejsze wahania wskaźnika referencyjnego to bardziej stabilny dochód dla inwestora. Należy rozważyć przede wszystkim odchylenia d odatnie, ponieważ zgodnie 82 Marta Pszczółkowska 2012 2012 2011 2010 2009 2008 2007 2006 2005 2004 2003 2002 2001 101,4 101,2 101,0 100,8 100,6 100,4 100,2 100,0 99,8 99,6 99,4 99,2 99,0 98,8 2001 z wydanymi listami emisyjnymi, odchylenia ujemne nie będą zmniejszać kosztu odsetkowego dla emitenta (obligatariusz otrzyma wypłatę w wysokości podanej w liście emisyjnym marży odsetkowej). Gdyby odchylenia ujemne były uwzględniane, mogłoby dojść do sytuacji, w której inwestor odniósłby stratę. By móc dokładniej się przyjrzeć kształtowaniu się omawianych wskaźników, ich wykresy zamieszczono oddzielnie na rysunkach 4 i 5. Rysunek 4. Inflacja po wyłączeniu cen administro wanych w latach 2001–2012 Rysunek 5. Inflacja po wyłączeniu cen żywności i energii w latach 2001–2012 Źródło: Jak do rysunku 3 2013 2012 2011 2010 2009 2008 2007 2006 2005 2004 2003 2002 101,4 101,2 101,0 100,8 100,6 100,4 100,2 100,0 99,8 99,6 99,4 99,2 99,0 98,8 2001 Źródło: Jak do rysunku 3 83 Analiza alternatywnych wskaźników indeksacji obligacji skarbowych Przedstawione typy inflacji bazowej różnią się skalą odchyleń oraz momentem ich występowania, co miałoby wpływ na wysokość płaconych odsetek. Maksymalna miesięczna zmiana cen (bez cen administrowanych) w analizowanym okresie miała miejsce w maju 2004 roku i była równa 1,2%. W tym czasie inflacja bez cen sezonowych wynosiła 1,04%, a jej najwyższa wartość (1,1%) została zanotowana na początku badanego okresu (w styczniu 2001 roku), kiedy porównywana inflacja była równa 0,4%. W tabeli 4 zostały porównane szacunkowe odsetki (w złotych) należne od jednej zakupionej obligacji w pierwszej emisji serii IZ0816 i IZ0823, gdyby wskaźnikiem referencyjnym były opisywane rodzaje inflacji bazowej oraz możliwe do osiągnięcia oszczędności z tego tytułu (przy założeniu, że popyt na te obligacje i ich cena nie uległyby zmianie). Podstawową informacją płynącą z tego zestawienia jest to, że indeksacja oparta na inflacji po wyłączeniu cen żywności i energii łączyłaby się z niższymi kosztami dla emitenta w porówTabela 4. Porównanie szacunkowych kosztów odsetkowych przy wskaźniku referencyjnym opartym na inflacji (CPI), inflacji skorygowanej o ceny administracyjne i o ceny po wyłączeniu cen żywności i energii w latach 2005–2012 dla pierwszej emisji serii IZ0816 i IZ0823 (z jednej obligacji, w zł) Data wypłaty odsetek IZ0816 24.08.2005 24.08.2006 24.08.2007 24.08.2008 24.08.2009 24.08.2010 24.08.2011 24.08.2012 IZ0823 25.08.2009 25.08.2010 25.08.2011 25.08.2012 CPI (A) CPI bez cen admi nistrowa nych (B) 30,51 30,85 31,67 33,17 34,48 35,2 36,7 38,21 30,45 30,49 31,21 32,47 33,52 34,16 35,51 36,74 28,59 29,19 30,42 31,68 28,39 28,93 30,06 31,12 CPI bez cen A–B żywności i energii (C) Data przetargu: 8.08.2004 0,06 30,35 0,36 30,34 0,46 30,79 0,7 31,5 0,96 32,44 1,04 32,96 1,19 33,75 1,47 34,54 Data przetargu: 13.08.2008 0,2 28,32 0,26 28,77 0,36 29,46 0,56 30,15 Źródło: Na podstawie danych Ministerstwa Finansów i NBP. A–C C–B 0,16 0,51 0,88 1,67 2,04 2,24 2,95 3,67 0,10 0,15 0,42 0,97 1,08 1,20 1,76 2,20 0,27 0,42 0,96 1,53 0,07 0,16 0,60 0,97 84 Marta Pszczółkowska naniu z obecnie stosowanym wskaźnikiem. W kolejnych okresach odsetkowych różnice w dochodzie z jednej obligacji wynoszą od 0,6 zł w pierwszym roku do 1,47 zł w ósmym roku trwania obligacji IZ0816 (przy CPI bez cen administrowanych) oraz odpowiednio od 20 do 56 groszy dla IZ0823. Gdyby wskaźnikiem referencyjnym było CPI bez cen sezonowych, koszt odsetkowy (w 2012 roku) byłby niższy nawet o 3,67 zł dla IZ0816. Biorąc pod uwagę wielkość sprzedaży tych instrumentów, oszczędności teoretycznie mogłyby być istotne. Ze względu na przeprowadzanie dodatkowych przetargów sprzedaży tych serii obligacji w ciągu ich trwania podstawa naliczania odsetek będzie różna dla każdego okresu odsetkowego. Zbadanie globalnej wielkości potencjalnych oszczędności wymaga oddzielnego przeanalizowania 23 emisji i odpowiedniej agregacji wyników. Założenie o braku zmienności innych parametrów sprzedaży obligacji może prowadzić do błędnych wniosków. Oprócz wartości kuponu odsetkowego kosztem dla emitenta jest dyskonto od ceny nominalnej sprzedawanej obligacji. Dlatego należałoby rozważyć, czy w odpowiedzi na zmniejszenie wartości odsetek (w wyniku zmiany wskaźnika referencyjnego) inwestorzy będą oczekiwali wyższego dyskonta w porównaniu z poprzednim (w pierwszej emisji IZ0816 dyskonto dla jednej obligacji wyniosło 95,90 zł, a dla IZ0823 – 32,42 zł). 4. Wzrost gospodarczy Indeksacja oprocentowania obligacji oparta na wskaźniku wzrostu PKB była popularna w krajach rozwijających się (emerging markets). Charakteryzują się one wyższym wzrostem gospodarczym niż kraje rozwinięte, ale również wyższym ryzykiem inwestycyjnym [IMF 2004, s. 10]. Szczególną zaletą dla państwa emitującego takie obligacje jest ochrona przed pogłębiającymi się problemami finansowymi w razie spowolnienia czy też kryzysu gospodarczego. Gdy sytuacja gospodarcza pogarsza się, ryzyko dla inwestora rośnie, dlatego koszt pozyskania kapitału jest wyższy, co dodatkowo obciąża budżet państwa i często wywołuje konieczność dalszego zadłużania się w celu spłaty wysokich odsetek. Z kolei obligacje indeksowane o wzrost PKB powodują, że w okresie dobrej koniunktury inwestorzy otrzymują wyższe wynagrodzenie (obligacje są konkurencyjne w stosunku do instrumentów rynkowych), a w czasie dekoniunktury niższe [IMF, The World Bank 2002]. Podsumowanie zalet i wad zastosowania wzrostu gospodarczego jako wskaźnika indeksacji zostało zaprezentowane w tabeli 5. Analiza alternatywnych wskaźników indeksacji obligacji skarbowych 85 Tabela 5. Zalety i wady wykorzystania wskaźników opartych na wzroście gospodarczym jako indeksów referencyjnych z punktu widzenia emitenta i inwestora Wyszczególnienie Zalety Wady Emitent ––mniejsze obciążenie dla budżetu ––wysoki koszt obsługi długu w okresie recesji w okresie rosnącej koniunktu––zapewnienie konkurencyjności ry w porównaniu z pozostałymi obligacji wobec instrumentów wskaźnikami finansowych emitowanych przez podmioty prywatne w okresie hossy Inwestor ––możliwość bezpiecznej alokacji ––brak alternatywnej formy inśrodków przy konkurencyjnym westycji w przypadku słabnądochodzie w czasie hossy cej koniunktury (rentowność instrumentów emitowanych zarówno przez podmioty prywatne, jak i przez publiczne spada) ––obawa przed manipulacją wskaźnikiem ––niezrozumienie formuły naliczania odsetek Źródło: Na podstawie: [Fischer 1982; Barro 2003; IMF, The World Bank 2002; IMF 2004; ECB 2007]. Produkt krajowy brutto jest wskaźnikiem często wykorzystywanym do oceny sytuacji gospodarczej państwa. W zależności od potrzeb informacyjnych wyodrębnionych zostało kilka postaci tego wskaźnika, w tym: –– PKB surowy, –– PKB wyrównany sezonowo, –– PKB według cen bieżących, –– PKB według cen stałych, –– PKB potencjalny. Na rysunku 6 przedstawiono, jak kształtowała się w Polsce dynamika PKB (na podstawie danych wyrównanych sezonowo) i inflacja mierzona wskaźnikiem cen towarów i usług konsumpcyjnych. Rozbieżności ich rozkładu wskazują, że należy się spodziewać różnić w kosztach odsetkowych przy ich zastosowaniu jako wskaźników odniesienia. Gdy inflacja jest wyższa od dynamiki PKB, wypłacane odsetki obliczone na podstawie wskaźnika CPI w odpowiednim okresie, który jest warunkowany tą zmianą wskaźników, będą wyższe, niż gdyby wskaźnikiem referencyjnym była dynamika PKB. W analizowanym okresie maksymalna różnica między tymi parametrami wynosiła ok. 1,5 p.p. W przypadku szeregu surowego PKB odchylenia w po- 86 Marta Pszczółkowska 102 101 100 99 I II III IV I II III IV I II III IV I II III IV I II III IV 2008 2009 2010 2011 kwartały 2012 PKB (szereg wyrównany sezonowo) inflacja CPI Rysunek 6. Dynamika realna produktu krajowego brutto (ceny stałe, rok odniesienia 2005) i inflacji CPI (okres poprzedni = 100) w latach 2008–2012 Źródło: Na podstawie danych GUS, www.stat.gov.pl [dostęp: 30.04.2013] szczególnych kwartałach były jeszcze wyższe. Wyniki porównawcze wartości odsetek zostały zawarte w tabeli 6. Dane dotyczące PKB są podawane kwartalnie, dlatego w celu obliczania współczynnika indeksacji, a na jego podstawie odsetek, dokonana została modyfikacja wzoru podanego w p. 1.1. Przy miesięcznych danych o inflacji opierał się on na różnicy między wskaźnikiem dla miesiąca o dwa miesiące poprzedzającego miesiąc wypłaty odsetek a wskaźnikiem o trzy miesiące poprzedzającym ten miesiąc. W analizowanym przypadku odsetki są wypłacane w połowie III kwartału, dlatego obliczenia zostały przeprowadzone na bazie różnicy między wskaźnikiem PKB dla kwartału II i kwartału I. Na podstawie obliczonych odsetek w tabeli 6 można zauważyć, że wahania koniunktury znacząco mogą zmienić koszt obsługi długu. W sytuacji wzrostu gospodarczego emitentowi bardziej opłacałoby się emitować obligacje indeksowane o wskaźnik inflacji (przy wypłacie odsetek w 2007 roku oszczędzałby nawet ponad 6 zł na jednej obligacji w porównaniu z indeksacjią o PKB surowe). Natomiast przy spadku koniunktury lepiej byłoby posiadać zobowiązania z tytułu obligacji indeksowanych o dynamikę PKB, ponieważ koszty odsetek nie obciążają tak budżetu państwa. Zależnie od innych warunków emisji, jak minimalna wartość wypłacanych odsetek, zmniejszenie kosztów będzie różne. Wyrównanie dynamiki PKB o efekt sezonowości zmniejszy rozbieżność między kosztami odsetkowymi indeksowanymi o ten wskaźnik a indeksowanymi o wskaźnik CPI. 87 Analiza alternatywnych wskaźników indeksacji obligacji skarbowych Tabela 6. Porównanie szacunkowych kosztów odsetkowych przy wskaźniku referencyjnym opartym na inflacji CPI i stopie wzrostu PKB w latach 2005– 2012 dla pierwszej emisji serii IZ0816 i IZ0823 (z jednej obligacji, w zł) Koniec okresu odsetko wego IZ0816 24.08.2005 24.08.2006 24.08.2007 24.08.2008 24.08.2009 24.08.2010 24.08.2011 24.08.2012 IZ0823 25.08.2009 25.08.2010 25.08.2011 25.08.2012 CPI (A) Dynamika PKB (szereg wyrównany sezonowo)* (B) 30,51 30,85 31,67 33,17 34,48 35,2 36,7 38,21 – – – – 30,39 31,45 32,94 33,85 28,59 29,19 30,42 31,68 27,85 28,83 30,2 31,03 Dynamika PKB (sze reg surowy A–B w cenach bieżących) (C) Data przetargu: 8.08.2004 31,99 34,13 37,87 26,02** 4,09 27,23** 3,75 28,55** 3,76 30,64 4,36 32,39 Data przetargu: 13.08.2008 0,74 24,97** 0,36 26,19** 0,22 28,11 0,65 29,71 A–C C–B –1,48 –3,28 –6,2 7,15 7,25 6,65 6,06 5,82 –3,16 –2,90 –2,30 –1,46 3,62 3,00 2,31 1,97 –2,88 –2,64 –2,09 –1,32 * Dynamika realna produktu krajowego brutto (ceny stałe, rok odniesienia 2005) przy podstawie kwartał poprzedni = 100. ** Odsetki teoretyczne. Zgodnie z zapisami listów emisyjnych, minimalne odsetki dla serii IZ0816 wynoszą 30 zł, a dla serii IZ0823 – 27,5 zł. Jeżeli z formuły obliczeń wynikają mniejsze wartości, emitent jest zobowiązany do wypłaty wskazanych wartości minimalnych. Źródło: Na podstawie danych Ministerstwa Finansów i GUS. Obligacje indeksowane mogą być długoterminowe, stąd należałoby uwzględniać zarówno zmniejszenie odsetek w okresie recesji, jak i ich zwiększenie w okresie boomu gospodarczego. Dostępne do porównań dane nie obejmują pełnego cyklu gospodarczego. Przy ocenie wykorzystania wymienionych wskaźników odniesienia należy uwzględnić to, że w analizowanym okresie wystąpił silny kryzys finansowy, tym samym znaczny spadek PKB, co miało wpływ na niskie wartości odsetek. Ponadto oferowana gwarantowana stawka odsetek powoduje, że koszty będą wyższe niż wynikające z obliczeń. W ostatnich latach coraz bardziej popularną miarą produktu krajowego brutto staje się jego wymiar potencjalny, czyli wielkość produkcji, którą 88 Marta Pszczółkowska gospodarka jest w stanie wytworzyć w długim okresie przy istniejących czynnikach wytwórczych. Jest ona publikowana i prognozowana w okresach rocznych. Podsumowanie Przedstawiona analiza pokazała, że koszty odsetkowe z tytułu obligacji indeksowanych są bardzo wrażliwe na zmiany wskaźników referencyjnych. W ekstremalnym momencie różnica wypłacanych odsetek sięgała nawet 20% kwoty odsetek przy obecnie stosowanym wskaźniku referencyjnym (CPI), co po uwzględnieniu wolumenu sprzedaży obligacji nominalnie mogłoby sięgać kilku milionów złotych. Ze względu na brak danych powyższa analiza nie obejmuje całego cyklu koniunkturalnego, co szczególnie wpływa na analizę indeksacji o wskaźnik PKB. Na podstawie przedstawionych danych możliwa jest tylko analiza historyczna (jaka byłaby wysokość odsetek, gdyby w danym okresie została zastosowana indeksacja o inny wskaźnik). W tabeli 7 analizowane wskaźniki zostały uszeregowane pod względem średnich (w opisywanym okresie) kosztów odsetkowych, które w danym okresie musiałby ponieść emitent. Przedstawiona hierarchia jest wiążąca tylko dla wskazanego okresu, ponieważ zmiana danych gospodarczych może zmienić wszystkie wartości. Najniższe średnie koszty w tym okresie niosłaby indeksacja o dynamikę PKB w cenach bieżących, niewyrównaną o efekt sezonowości, co wynika z wystąpienia w analizowanym okresie znacznego spadku koniunktury Tabela 7. Porównanie teoretycznych średnich wypłat odsetkowych przy analizowanych wskaźnikach referencyjnych Wskaźnik referencyjny Dynamika PKB (szereg surowy w cenach bieżących) CPI bez cen sezonowych Dynamika PKB (szereg wyrównany sezonowo) CPI bez cen administrowanych CPI Źródło: Obliczenia własne. Średni koszt odsetek w latach 2005–2012 z jednej obligacji dla IZ0816 (w zł) Średni koszt odsetek w latach 2009–2012 z jednej obligacji dla IZ0823 (w zł) 31,1025 32,083 27,245 29,175 32,1575 33,068 33,848 29,4775 29,625 29,97 Analiza alternatywnych wskaźników indeksacji obligacji skarbowych 89 związanego z globalnym kryzysem finansowym. Ze względu na tak szczególne warunki gospodarcze obecnie stosowane rozwiązanie (indeksacja o CPI) jest związana z najwyższymi kosztami odsetkowymi. Wybór indeksu, na podstawie którego koszty odsetkowe będą najniższe, nie musi prowadzić do minimalizacji kosztów obsługi długu. Niski oczekiwany kupon może się przekładać na zwiększone dyskonto przy zakupie obligacji. Inwestorzy, chcąc osiągnąć wymagany przez siebie poziom rentowności, na przetargu będą oferować niższe ceny. Ponadto popyt może być niewystarczający w stosunku do wielkości oferty sprzedaży, tym samym nie będzie możliwe pozyskanie taniego kapitału. W celu zwiększenia zainteresowania inwestorów, w liście emisyjnym takich obligacji często dodawana jest gwarancja wypłaty określonego poziomu odsetek, mimo że z wyliczeń może wynikać wartość niższa. W ten sposób można określić minimalne koszty ponoszone przez emitenta. W rozwiązaniach stosowanych obecnie nie istnieje ograniczenie kosztów od góry. Obligacje indeksowane, mimo że znane na świecie od XVIII wieku i rekomendowane przez ekonomistów, nie są popularne na polskim rynku. Formuła dokonywania indeksacji jest kluczowym aspektem ponoszonych kosztów, w tym wybór wskaźnika referencyjnego i schemat obliczeń. Najczęściej stosowane są wskaźniki odnoszące się do inflacji oraz wzrostu gospodarczego. Jednak ze względu na wiele ich modyfikacji gama tych wskaźników jest szeroka, a ich najlepsze dopasowanie (minimalizujące koszty i zapewniające popyt na obligacje) może stanowić trudność. Bibliografia Barro, R., 2003, Optimal Management of Indexed and Nominal Debt, Annals of Economics and Finance, vol. 4, s. 1–15, http://ftp.aefweb.net/AefArticles/aef040101. pdf [dostęp: 2.05.2013]. Borensztein, E., Maurol, P., 2002, Reviving the Case for GDP-indexed Bonds, IMF Policy Discussion Paper, no. 02/10, http://www.iadb.org/res/centralbanks/ publications/ cbm34_165.pdf [dostęp: 10.05.2013]. ECB, 2007, Inlation-linked Bonds from a Central Bank Perspective, European Central Bank, Occasional Paper Series, no. 62/June, http://www.ecb.int/pub/scientific/ ops/date/html/opsall.en.html [dostęp: 10.05.2013]. Fischer, S., 1982, Welfare Aspects of Government Issue of Indexed Bonds, NBER Working Paper, no. 874, http://www.nber.org/papers/w0874 [dostęp: 10.05.2013]. 90 Marta Pszczółkowska Gruszczyńska-Brożbar, E., 2002, Giełdowa alokacja kapitałów pieniężnych, Wydawnictwo Akademii Ekonomicznej w Poznaniu, Poznań. IMF, The World Bank, 2002, Guidelines for Public Debt Management: Accompanying Document, www.imf.org/external/np/mae/pdebt/2002/eng/pdf/112102.pdf [dostęp: 13.01.2012]. IMF, 2004, Sovereign Debt Structure for Crisis Prevention, http://www.imf.org/external/ np/res/docs/2004 /070204.pdf [dostęp: 10.05.2013]. Ministerstwo Finansów, 2004, List emisyjny nr 29/2004, http://www.finanse.mf.gov. pl/pl/dlug-publiczny/bony-i-obligacjehurtowe/wyszukiwarka-listow-emisyjnych [dostęp: 17.05.2012]. Ministerstwo Finansów, 2008, List emisyjny nr 28/2008, http://www.finanse.mf.gov. pl/pl/dlug-publiczny/bony-i-obligacjehurtowe/wyszukiwarka-listow-emisyjnych [dostęp: 17.05.2012]. Ministerstwo Finansów, 2012, Strategia zarządzania długiem sektora finansów publicznych w latach 2013–2016, Warszawa, http://www.finanse.mf.gov.pl/dlugpubliczny/ publikacje/strategie- zarzadzania-dlugiem [dostęp: 10.03.2013]. NBP, 2013, Szeregi czasowe miar inflacji bazowej w ujęciu miesięcznym, http://www. nbp.pl/home.aspx?f=/statystyka/bazowa/bazowa.htm [dostęp: 30.04.2013]. Pflueger, C.E., Viceira, L.M., 2011, Inflation-indexed Bonds and the Expectations Hypothesis, NBER Working Paper, no. 16903, http://www.nber.org/papers/w16903 [dostęp: 10.05.2013]. Price, R., 1997, The Rationale and Design of Inflation-indexed Bonds, IMF Working Paper, no. 97/12, http://www.imf.org/external/pubs/ft/wp/wp9712.pdf [dostęp: 10.05.2013]. Ustawa z dnia 27 sierpnia 2009 roku o finansach publicznych, Dz.U. nr 157, poz. 1240. STUDIA OECONOMICA POSNANIENSIA 2014, vol. 2, no. 2 (263) Jadwiga Borucka Warsaw School of Economics, Institute of Statistics and Demography, Event History and Multilevel Analysis Unit [email protected] METHODS FOR HANDLING TIED EVENTS IN THE COX PROPORTIONAL HAZARD MODEL Abstract: The Cox proportional hazard model is one of the most common methods used in time to event data analysis. The model is based on several restrictive assumptions one of which concerns tied events, i.e. events with exactly the same survival time. If time were measured in a perfectly continuous scale, such cases would never occur. In real applications time is usually measured in a discrete manner which results in the existence of ties in most survival data. However, if this assumption is violated, it should not necessarily prevent analysis by using the Cox model. The current paper presents and compares five ways proposed for handling tied events. On the basis of the calculations performed it can be stated that exact expression and the discrete model give the best results in terms of fit statistics; however, they are the most time-consuming. Efron and Breslow approximations are much faster but result in worse model fit. In the case analysed the Efron method seems to be the best choice, taking into account differences in parameters estimates, fit statistics and calculation time. What is more, a simple method based on subtracting a tiny random value from each tied survival time performed surprisingly well; both in terms of parameter estimates compared with the exact expression, as well as fit statistics. In general, in the case of large datasets and/or a large number of ties, if estimation precision is not as important as estimation time, Breslow or – more preferably – Efron approximations might be used. However, if time is not limited, one should consider choosing an exact method or discrete model that can provide better fit statistics and more efficient parameter estimates. Keywords: Cox model, tied events, applied survival analysis, partial likelihood function. JEL Classification: C13, C14. 92 Jadwiga Borucka METODY ESTYMACJI MODELU PROPORCJONALNYCH HAZARDÓW COXA W WYPADKU WYSTĘPOWANIA ZDARZEŃ POWIĄZANYCH Streszczenie: Model proporcjonalnych hazardów Coxa jest jedną z najczęściej wykorzystywanych metod w analizie czasu przeżycia. Jest oparty na kilku restrykcyjnych założeniach; jedno z nich dotyczy występowania tzw. zdarzeń powiązanych, tzn. zdarzeń zaobserwowanych dokładnie w tym samym momencie. Gdyby czas był mierzony w sposób ciągły, taka sytuacja nie miałaby miejsca. W zastosowaniach praktycznych jednakże czas jest zazwyczaj mierzony w sposób dyskretny, co skutkuje występowaniem zdarzeń powiązanych w większości zbiorów wykorzystywanych w analizie czasu przeżycia. Niemniej jednak, odchylenie od tego założenia nie musi stanowić przeszkody w stosowaniu modelu Coxa. Niniejszy artykuł prezentuje pięć sposóbów proponowanych w literaturze dla zbiorów zawierających zdarzenia powiązane. Na podstawie przeprowadzonych obliczeń można stwierdzić, że metoda exact oraz model dyskretny dają najlepsze rezultaty pod względem statystyk dopasowania, jednakże są najbardziej czasochłonne. Przybliżenia Breslowa i Efrona pozwalają otrzymać oszacowania znacznie szybciej, ale skutkują gorszą jakością dopasowania modelu. W rozważanym przykładzie przybliżenie Efrona jest najlepszym wyborem, biorąc pod uwagę różnice w oszacowaniach parametrów, statystyki dopasowania modelu oraz czas obliczeń. Ponadto prosta metoda oparta na odjęciu od każdej wartości zmiennej czasowej pośród zdarzeń powiązanych niewielkiej wartości wylosowanej z rozkładu jednostajnego, daje zaskakująco dobre wyniki zarówno pod względem oszacowań parametrów, jak i statystyk dopasowania modelu. Ogólnie rzecz biorąc, w przypadku dużych zbiorów i/lub dużej liczby zdarzeń powiązanych, jeśli precyzja estymacji nie jest priorytetem, a ważniejszy jest czas obliczeń, przybliżenia Breslowa lub Efrona mogą być wykorzystane. Jednakże jeśli czas nie jest ograniczony, warto rozważyć wybór metody exact lub modelu dyskretnego, które umożliwiają otrzymanie lepszych statystyk dopasowania modelu oraz wyższej efektywności oszacowań parametrów. Słowa kluczowe: model Coxa, zdarzenia powiązane, analiza czasu przeżycia, funkcja częściowej wiarygodności. Introduction The Cox proportional hazard model is one of the most common methods used in time to event data analysis. The idea of the model is to define hazard level as a dependent variable which is being explained by the time-related component (so called baseline hazard) and covariate-related component. The model is defined as follows: h(t, x, β) = h0(t) exp(βx), where: h(t, x, β) – hazard function that depends on timepoint t and vector of covariates x, Methods for Handling Tied Events in the Cox Proportional Hazard Model 93 h0(t) – baseline hazard function that depends on time only, exp(βx) – covariate-related component, β – vector of parameter estimates. The model is based on several restrictive assumptions one of which concerns tied events, i.e. events with exactly the same survival time. This assumption is directly related to the method of Cox model estimation. The parameter estimates are obtained through the use of the maximum likelihood method, as suggested by Cox [1972]. Assuming a simple model for one event with right censoring, including a single covariate and using the following relationship between the probability density function of the time variable, hazard function and survival function: f (t, x, β) = h(t, x, β) ∙ S(t, x, β) the likelihood function for Cox model can be derived as follows [Hosmer & Lemeshow 1999]: l (β ) = ∏{h(t i , x i , β) n i =1 ci 1−ci S (t i , x i , β ) }, where: l(β) – likelihood function depending on parameter β, i = 1, 2, …, n – observations ordered by time (actual or censored), h(ti, xi, β) – hazard function at timepoint ti for subject with covariate value xi, S(ti, xi, β) – survival function at timepoint ti for subject with covariate value xi, ci – censoring indicator (equal to 1 if subject experienced the event and 0 if subject is censored). After taking the logarithm and doing certain transformations the following expression is obtained: n ∑{ci ln h0 (ti ) + ci xi β + e x β ln S0 (t i )}. L(β ) = i i =1 The full likelihood function as defined above requires maximization with respect to the parameter β as well as to the baseline hazard function which 94 Jadwiga Borucka is unspecified. Cox [1972] suggests using an alternative expression, called by him the partial likelihood function, which depends on the parameter β only. He argues that the estimation of parameter β obtained through the use of the function proposed by him should have the same properties as one that would result from the full likelihood function. This thesis is proved in Andersen et al. [1993] as well as Fleming and Harrington [1991]. The approach presented by Cox leads to the following formula for the partial likelihood function: l p ( β) = c n ∏ i =1 i xi β e x β , e j j∈R(ti ) ∑ where R(ti) – risk set at timepoint ti, which can also be rewritten, taking into account only non-censored observations, as follows: l p (β ) = m e xi*β ∏ i =1 ∑ e x jβ , j∈R(ti * ) where: lp(β) – partial likelihood function depending on parameter β, i = 1, 2, …, n – non-censored observations ordered by time (actual), ti * – survival time of ith subject who experienced the event. The above formula results in the following form for the logarithm of partial likelihood function: L p (β ) = xjβ x β − ln e i* j∈R(ti* ) i =1 m ∑ ∑ and – after differentiating with respect to β [Hosmer & Lemeshow 1999]: m ∂L p ( β) = xi * − ∂β i =1 ∑ ∑ x je xjβ = xj e β j∈R(ti * ) j∈R(ti * ) ∑ wij ( β)x j = xi * − i =1 j∈R(ti * ) m ∑ ∑ = m ∑{xi* − xw }, i =1 i Methods for Handling Tied Events in the Cox Proportional Hazard Model 95 where: wij ( β) = e x jβ ∑ l∈R(ti * ) e xl β and xwi = ∑ j∈R(ti * ) wij ( β)x j . On the basis of the equation above it can be seen that the order of events does matter: each subject who experiences the event has their own contribution to the partial likelihood function which includes summing up some expressions for all the subjects who are at risk at the moment at which the event for this particular subject is being observed. Let us say there are two subjects A and B experiencing an event at exactly the same time. In such a situation it is not clear whether subject A should be considered as being at risk while subject B is experiencing the event and vice versa. Thus, the partial likelihood function defined as above assumes that there are no tied events among the observations. If time were measured in a perfectly continuous scale, such cases would never occur and a proper ordering of events would not be a problem. In fact, in most applications, time is being measured in a discrete manner which results in the existence of ties in most survival data. However, even if the assumption of lack of tied events is violated, it does not exclude the Cox model as a potential tool in an analysis of time to event data, although deviation from the assumption should not be neglected. So far there have been several methods developed to handle tied events in proportional hazard models. The next section of the current paper presents a theoretical background for four of them: the Breslow approximation, the Efron approximation, Kalbfleisch and Prentice exact expression, as well as the discrete model. Additionally, a simple alternative method based on subtracting tiny random value from each tied survival time is described. In the subsequent part of the article, these methods are implemented in practice and compared in terms of differences in parameter estimates, efficiency of parameters estimates, fit statistics and computational time. 1. Handling tied events – theoretical background In order to take into account tied events in Cox model estimation it is necessary to adjust the partial likelihood function appropriately. As Kalbfleisch and Prentice [2002] argue, the most natural way to do this is to consider all possible orders of event occurrences for subjects having the same survival 96 Jadwiga Borucka time. Their idea can be described as follows by assuming there are m distinct observed survival times ordered as follows: t1 < … < tm and that di events happen at ti, where i = 1, 2, …, m. Furthermore, Kalbfleisch and Prentice define D(ti ) = {i1 , …, idi } as the set of labels of failing observations at ti. Taking Qi as the set of di! permutations for di events observed at ti, P is one element of Qi ( p1, , … and is defined as PP==( p …,, pdi ) and finally R(ti, P, k) = R(ti) – {p1, …, pk–1}. Then, each subject with an observed survival time equal to ti has a contribution to the partial likelihood function equal to: 1 xi + β e di ! P∈Q −1 e xl β , l∈R(ti , P , k ) k =1 di ∑∏ i where xi + = ∑ di ∑ x j , which results in the following formula for the partial likelij =1 hood function: l (β ) = m ∏ i =1 e xi + β x β e j k =1 j∈R(ti , P , k ) di ∑∏ P∈Qi . ∑ Maximization of the function defined as above might be time-consuming, especially in the case of a large number of ties. This fact led to the derivation of some approximate expressions for the partial likelihood function. One of them is presented by Breslow [1975] who suggests summing up covariaterelated components for all subjects experiencing the event at a given timepoint ti and raising the result to a power equal to the number of events tied at ti. The partial likelihood function that uses this approach is defined as follows: l( β) = m ∏ i =1 e xi + β x β e j j∈R(ti ) ∑ di . However, if the number of tied events for any timepoint is relatively large, this method might not give a good approximation of the partial likelihood function as defined by Kalbfleisch and Prentice. An alternative suggestion comes Methods for Handling Tied Events in the Cox Proportional Hazard Model 97 from Efron [1977]. According to his idea, the partial likelihood function can be approximated as follows: l(β ) = m ∏ i =1 e xi+ β x β k −1 x β e j − e j di j∈D (t ) k =1 j∈R(ti ) i di ∏ ∑ . ∑ As Kalbfleisch and Prentice point out, obtaining parameter estimates on the basis of the above defined approximation is not particularly complicated; however, the estimators resulting from Efron and Breslow approximations might be biased. What is more, estimator of the variance of parameter β̂ is not consistent [Kalbfleisch & Prentice 2002]. On the basis of numerous calculations it has been shown that the Breslow method causes severe bias for datasets with large fraction of di /ni, where ni is the number of subjects at risk at ti; while Efron approximation and exact expression still perform well, even if number of ties is high. If the number of tied events is very small, all three methods give very similar results. For datasets with no ties, all methods lead to exactly the same results. As an alternative for approximations of the partial likelihood function, applicable especially for datasets with a large number of ties (which might suggest the fact that tied events do not result from insufficient precision in time measurement but rather from the discrete character of the time variable), one can consider choosing the approach suggested by Cox [1972], i.e. using a discrete logistic model defined as follows: h(t , x , β) h (t ) xβ = 0 e . 1 − h(t , x , β ) 1 − h 0 (t ) Kalbfleisch and Prentice provide a generalization of the partial likelihood function applicable to the model defined above. It enables a calculation of the probability that, given the risk set at timepoint ti and the number of events di occurring at this timepoint, the events will be experienced by exactly these subjects who have an observed survival time equal to ti. The conditional probability is given by [Kalbfleisch & Prentice 2002]: m ∏ i =1 e xi + β ∑ j∈Rd (t ) i i e xi + β , 98 Jadwiga Borucka where Rd (t ) constitutes the set of all possible subsets including exactly di i i distinct subjects selected out of units who are at risk at ti, denoted as R(tj). The methods described above are usually mentioned in the literature as far as the handling of tied events in the Cox model is concerned. As a simple alternative, there is another way proposed in the current paper. The method itself is suggested by Hosmer and Lemeshow [1999] as the way to break ties for the purpose of non-parametric survival function estimation. The idea is to subtract a tiny random value from each tied survival time. In this way, tied events will be uniquely ordered with respect to each other but their position in relation to all remaining observations remains unchanged. Hosmer and Lemeshow argue that this solution has no effect when estimating the survival function as the estimate for the last tied event at ti is exactly the same as if it were calculated for all ties at ti considered simultaneously. They do not analyse however the utility of this method in terms of breaking ties in the Cox model. In the current paper, the idea of this method is being applied for a Cox model where tied events cannot be neglected due to partial likelihood function requirements. In order to break ties, a random value from the uniform distribution defined at the interval [0, 0.001] is subtracted from each tied observed survival time. In this case, it does not matter which version of the partial likelihood function is being used (Efron, Breslow or exact expression) as all of them lead to the same results if there are no ties among the observations. 2. Methods of tied events handling – application and results As has been mentioned, the main aim of the present paper is to compare five methods described above in terms of parameter estimates, efficiency of estimators, fit statistics, as well as computational time. In order to do this, the same Cox proportional hazard model was estimated through the use of each of these methods. Additionally, for each method the estimation was repeated 10 times and the average computational time per method was calculated. The dataset used for analysis contained artificially generated data including the following: time variable, censoring indicator and 7 covariates that are consider ed as potential explanatory variables in time to event analysis. The dataset contains 6500 observations, out of which 1700 are censored. The number of ties is relatively high: there are 31 distinct observed survival times, their counts ranging from 100 to 500. Due to the fact that the present paper is focused on the methodology rather than on empirical results, using artificial data is justified. Parameter estimates are not supposed to be interpreted as the main Methods for Handling Tied Events in the Cox Proportional Hazard Model 99 aim is to compare the five methods of handling tied events with regard to the estimator efficiency and fit statistics, thus, the variables in the dataset are not named directly but are referred to as time variable, censoring indicator and covariates (or explanatory variables) numbered from 1 to 7. All calculations were performed using the SAS® Base 9.3 module. The SAS code that enabled the model estimation using all of these methods and to modify the time variable by subtracting a random value from the uniform distribution is included in the Appendix. As far as the method based on subtracting a tiny random value is concerned, the Breslow version of partial likelihood function was used as in the case of a lack of tied events all approximations lead to the same results; however, the algorithm for Breslow approximation embedded in the PHREG procedure is the fastest out of all four methods. Table 1 presents parameter estimates with p-values and Table 2 standard errors of parameter estimates obtained through the use of each of five methods of tied events handling. There are some visible differences between parameter estimates obtained through the use of different methods. Efron approximation gives results that are very close to those generated by exact expression. Estimates from Breslow Table 1. Parameter estimates for the Cox model Covariate Exact Efron Breslow Discrete Covariate 1 Covariate 2 Covariate 3 Covariate 4 Covariate 5 Covariate 6 Covariate 7 –0.0250 0.0171 –0.1438 0.0811 0.1510 –0.2642 3.8732 –0.0250 0.0171 –0.1438 0.0812 0.1510 –0.2650 3.8692 –0.0248 0.0234 –0.1573 0.0915 0.1707 –0.2700 4.0210 Covariate 1 Covariate 2 Covariate 3 Covariate 4 Covariate 5 Covariate 6 Covariate 7 < 0.0001 < 0.0001 < 0.0001 0.101 < 0.0001 < 0.0001 < 0.0001 < 0.0001 < 0.0001 < 0.0001 0.1004 < 0.0001 < 0.0001 < 0.0001 –0.0230 0.0198 –0.1394 0.0915 0.1479 –0.2636 3.6705 p-value < 0.0001 < 0.0001 < 0.0001 0.0617 < 0.0001 < 0.0001 < 0.0001 Random value –0.0250 0.0170 –0.1437 0.0812 0.1512 –0.2648 3.8672 < 0.0001 < 0.0001 < 0.0001 0.0791 < 0.0001 < 0.0001 < 0.0001 < 0.0001 < 0.0001 < 0.0001 0.0804 < 0.0001 < 0.0001 < 0.0001 Source: Own calculation. 100 Jadwiga Borucka Table 2. Standard errors of parameter estimates for the Cox model Covariate Exact Efron Breslow Discrete Covariate 1 Covariate 2 Covariate 3 Covariate 4 Covariate 5 Covariate 6 Covariate 7 0.0016 0.0042 0.0075 0.0495 0.0094 0.0552 0.1410 0.0016 0.0041 0.0075 0.0495 0.0094 0.0552 0.1409 0.0016 0.0041 0.0074 0.0490 0.0092 0.0547 0.1389 0.0017 0.0044 0.0078 0.0521 0.0098 0.0570 0.1475 Random value 0.0016 0.0041 0.0075 0.0495 0.0094 0.0552 0.1408 Source: Own calculation. approximation seem to give underestimations for five out of seven variables, as compared with exact expression or the Efron method. This observation is in accordance with the conclusions drawn by Hertz-Picciotto and Rockhill [1977] who also indicate a tendency for Breslow approximation to underestimate parameters in the Cox model. The discrete model tends to give higher absolute values for parameter estimates (with the exception of covariate 7). In this case, however, it should be noted that the discrete model is based on a different likelihood function than the Cox proportional hazard model which uses a partial likelihood function (with potential modification such as exact expression, the Breslow or Efron approximation), thus the parameters obtained from these models do not have exactly the same interpretation [Kalbfleisch & Prentice 2002]. The results obtained through the use of random value methods do not represent any systematic pattern, as some estimates are higher than for exact expression and some are lower; however, parameter estimates are very close to those coming from the Efron or exact method. What is interesting, is the fact that differences between the parameters obtained through the use of exact expression and the random value method are in most cases lower than the differences between parameters coming from the exact method, Breslow approximation or the discrete model, which might indicate that simply subtracting a tiny random value might even give better results than some more formal methods of handling tied events. As far as standard errors are concerned, the results obtained do not differ between the five methods to a great extent, only the discrete method shows slightly higher errors, but these differences are not very high. What is worth being mentioned is that the p‑value for covariate 3 differs between all five methods to the extent that could even lead to different conclusions concerning the statistical significance of Methods for Handling Tied Events in the Cox Proportional Hazard Model 101 the covariates, depending on the significance level. Assuming alpha = 0.05 all methods indicate a lack of significance, however taking alpha = 0.1 we would have to change this decision on the basis of Breslow, discrete and random value methods. The results obtained through the use of Breslow approximation gave the strongest reason for a rejection of the null hypothesis, while those from the discrete model and random value method are not that obvious. Additionally, standardized measures of variability, as suggested by Nardi and Schemper [2003] and defined as: ∧ σβ SV = | βˆ | were obtained. They can be used to assess efficiency of parameter estimators. Their values are presented in Table 3. Table 3. Standardized measure of variability Covariate Exact Efron Breslow Discrete Covariate 1 Covariate 2 Covariate 3 Covariate 4 Covariate 5 Covariate 6 Covariate 7 0.0657 0.2427 0.0522 0.6098 0.0622 0.2089 0.0364 0.0657 0.2420 0.0522 0.6088 0.0621 0.2081 0.0364 0.0705 0.2056 0.0531 0.5352 0.0623 0.2074 0.0378 0.0685 0.1881 0.0496 0.5694 0.0576 0.2112 0.0367 Random value 0.0657 0.2432 0.0522 0.6090 0.0621 0.2082 0.0364 Source: Own calculation. On the basis of the standardized measure of variability, it is hard to interchangeably indicate the best method. What is worth being mentioned is that the Breslow method gave the highest value for the coefficient the most often: for four out of seven variables; however, variability is also the lowest for two variables when the Breslow approximation is applied. The lowest SV values are displayed by the discrete model in three variables; and in the random value method, exact expression and Efron approximation – in two out of seven covariates. Additionally, fit statistics including doubled negative logarithm of likelihood function as well as the information criteria AIC and SBC were calculated – see Table 4. 102 Jadwiga Borucka Table 4. Fit statistics Statistics -2 LOG L AIC SBC Exact Efron Breslow Discrete 32 187.43 32 201.43 32 246.77 72 707.39 72 721.39 72 766.72 73 424.65 73 438.65 73 483.99 32 098.36 32 112.36 32 157.70 Random value 72 708.11 72 722.11 72 767.45 Source: Own calculations. The discrete model guarantees the best values for fit statistics; however, the difference between the discrete model and exact expression is very slight.1 Breslow and Efron approximations, as well as the random value method, result in much higher values for fit statistics, even more than twice as much as those coming from the exact or discrete models. The worst results come from the Breslow method. What is worth paying attention to is that the random value method enables not only better results to be obtained as compared with the Breslow method, but also values that are very close to those coming from Efron approximation. Finally, the computational time that was needed to obtain the parameter estimates through the use of each of the five methods was compared. Estimation was performed by using the SAS PHREG procedure (Table 5; details concerning the SAS code that was used is included in the Appendix). Table 5. Computational time (SAS PHREG procedure) Time Exact Efron Breslow Discrete Real Time (sec.) CPU Time (sec.) 2.984 2.980 0.099 0.092 0.075 0.068 4.191 4.181 Random value 0.101 0.085 Source: Own calculations. As was expected, more complicated methods such as exact expression or the discrete model were the most time-consuming. It took the most time to estimate the discrete model. Exact expression was faster than the discrete model but was still considerably slower than Breslow and Efron approximations. Estimation of the model with a partial likelihood based on Breslow approximation was the fastest, the method subtracting random value from 1 It should be noted that comparisons of statistical fit between the discrete model and other methods that use a partial likelihood function should be performed with caution, as other models are based on different likelihood functions. Methods for Handling Tied Events in the Cox Proportional Hazard Model 103 tied event times was slightly slower, as was the Efron approximation; however, these differences were very slight. In general, the discrete model and exact expression provide the best fit statistics but the estimation time needed to use these methods is visibly higher as compared with other methods. The exact values of estimation time depend obviously on the computer parameters; however, using the same equipment to estimate all the models enabled such comparisons to be performed. It should also be taken into account that the dataset used in the calculations had only 6500 records and the model contains 7 covariates, thus even the slowest method allows results to be obtained in a very short period of time. For more complex analysis designs and/or larger datasets, and/or a larger numbers of tied events, these differences might be even more visible and as such might constitute a more important factor when choosing the best methods for a given analysis. In the scientific field, precision of estimation is usually more important than the time that is needed to get the results; however, as far as practical applications are concerned, computational time might also need to be taken into account. Conclusions This simple empirical study showed that in the case of a relatively high number of ties, results obtained through the use of different methods lead to visibly different results. Efron approximation seems to give results that are the closest to the ones obtained through the use of exact expression as derived by Kalbfleisch and Prentice. On the other hand, a simple method based on subtracting tiny random value from each tied survival time provides results that do not differ from the exact results to a great extent. A comparison of standard errors and of parameter estimates indicates that the discrete model might be performing a little worse as compared with other methods. It would be hard, however, to choose the best method on the basis of standard errors as well as standardiz ed measures of variability. In terms of fit statistics, exact expression and the discrete model are superior when compared with the others. Surprisingly, the random value method leads to a better fit than Breslow and is comparable to Efron approximation; however, these differences are not very great. When it comes to computational time, more sophisticated methods such as exact expression and the discrete model require substantially longer period of time to obtain estimates. Breslow and Efron approximations as well as the random value method took more or less the same time to perform calculations, which was visibly shorter when compared to exact expression. Considering all the 104 Jadwiga Borucka statistics analysed, in this instance the Efron method seems to be the best choice: fit statistics are visibly worse than for the exact or discrete methods; however, efficiency and the values of parameter estimates are nearly equal to the results of obtained through the use of the exact method, while the estimation time for the Efron method is remarkably shorter than for the model with partial likelihood based on the exact expression. What is worth being mentioned is that the simple random value method seems to be an attractive alternative here, taking into account the fact that parameter estimates were very close to those obtained through the use of exact expression, fit statistics were better than in Breslow approximation and almost equal to the ones obtained through the use of the Efron method, and the very short period of time needed to perform calculations. In general, in the case of large datasets and/ or a large number of ties, if estimation precision is not extremely important but the estimation time is, the Breslow method might be used as it guarantees a relatively short calculation time. Efron approximation, which requires only a little more time to obtain results and provides a visibly better fit as well as results that are much closer to the ones coming from exact expression, might be an even better choice. If time is not that limited and estimation precision is a more important factor – which should usually be the case in scientific research – the exact method would be the most desirable one as it provides a much better fit statistics and higher efficiency of parameter estimates. Exact expression could also be considered as the best choice due to a construction that is based on the assumption that every ordering of tied events can happen with exactly the same probability, which is reasonable and ‘the most safe’ approach in the case of ties. Apart from the four methods that are usually described in the literature in the context of ties in the Cox model, a simple method based on subtracting a tiny random value from each tied survival time seems to be an attractive alternative. This method performs surprisingly well when compared to more formal ways of handling tied events, taking far less time to perform calculations, thus it might be considered as well, especially for certain preliminary analyses that do not require a strong theoretical foundation but where results are expected quite quickly. Methods for Handling Tied Events in the Cox Proportional Hazard Model 105 References Andersen, P.K., Borgan, Ø., Gill, R.D., Keiding, N., 1993, Statistical Models Based on Counting Processes, Springer-Verlag, New York. Breslow, N., 1975, Covariance Analysis of Censored Survival Data, Biometrics, vol. 30, no. 1, s. 89–99. Cox, D.R., 1972, Regression Models and Life-Tables, Journal of the Royal Statistical Society. Series B (Methodological), vol. 34, no. 2, s. 187–220. Efron, B., 1977, The Efficiency of Cox’s Likelihood Function for Censored Data, Journal of the American Statistical Association, vol. 72, no. 359, s. 557–565. Fleming, T.R., Harrington, D.P., 1991, Counting Process and Survival Analysis, John Wiley & Sons, New York. Hertz-Picciotto, I., Rockhill, B., 1977, Validity and Efficiency of Approximation Methods for Tied Survival Times in Cox Regression, Biometrics, vol. 53, no. 3, s. 1151–1156. Hosmer, D.W., Lemeshow, S., 1999, Applied Survival Analysis. Regression Modelling of Time to Event Data, John Wiley & Sons, New York. Kalbfleisch, J.D., Prentice, R.L., 2002, The Statistical Analysis of Failure Time Data, John Wiley & Sons, New York. Nardi, A., Schemper, M., 2003, Comparing Cox and Parametric Models in Clinical Studies, Statistics in Medicine, vol. 22, s. 3597–3610, DOI: 10.1002/sim.1592. Appendix /*STEP 1 Modify time variable for tied events by subtracting small value from uniform distribution [0, 1000]*/ proc sql; create table dist as select time, count(*) as count from Tied_events where censor = 1 group by time; create table Tied_events as select a.*, b.count from Tied_events as a left join dist as b on a.time = b.time; quit; data Tied_events; set Tied_events; if count>1 and censor = 1 then time_mod = time-ranuni(1234)/1000; else time_mod = time; run; /*STEP 2 Estimation*/ /*Exact expression: option ties = exact*/ ods output ParameterEstimates = est_ex FitStatistics = fit_ex; 106 Jadwiga Borucka proc phreg data= Tied_events; model Time*Censor(0) = Age Ind1 Ind2 Ind3 Ind4 Ind5 Ind6 /ties = exact; run; ods output close; /*Breslow approximation: option ties = Breslow*/ ods output ParameterEstimates = est_br FitStatistics = fit_br; proc phreg data= Tied_events; model Time*Censor(0) = Age Ind1 Ind2 Ind3 Ind4 Ind5 Ind6 /ties = Breslow; run; ods output close; /*Efron approximation: option ties = Efron*/ ods output ParameterEstimates = est_ef FitStatistics = fit_ef; proc phreg data= Tied_events; model Time*Censor(0) = Age Ind1 Ind2 Ind3 Ind4 Ind5 Ind6 /ties = Efron; run; ods output close; /*Discrete model: option ties = disctete*/ ods output ParameterEstimates = est_dis FitStatistics = fit_dis; proc phreg data= Tied_events; model Time*Censor(0) = Age Ind1 Ind2 Ind3 Ind4 Ind5 Ind6 /ties = discrete; run; ods output close; /*Random value method: modified time variable*/ ods output ParameterEstimates = est_ran FitStatistics = fit_ran; proc phreg data= Tied_events; model Time_mod*Censor(0) = Age Ind1 Ind2 Ind3 Ind4 Ind5 Ind6 /ties = Breslow; run; ods output close; STUDIA OECONOMICA POSNANIENSIA 2014, vol. 2, no. 2 (263) Jan Polowczyk Uniwersytet Ekonomiczny w Poznaniu, Wydział Gospodarki Międzynarodowej, Katedra Konkurencyjności Międzynarodowej [email protected] ZARZĄDZANIE STRATEGICZNE JAKO WIELOWYMIAROWA PRZESTRZEŃ PARADOKSÓW Streszczenie: Nie ma optymalnych i uniwersalnych strategii, które można byłoby zalecać przedsiębiorstwom w konkretnych warunkach. Zarządzanie strategiczne jest tym obszarem zarządzania, w którym największe znaczenie ma kreatywność zarządów przedsiębiorstw. Celem artykułu jest przedstawienie złożoności zarządzania strategicznego przy wykorzystaniu koncepcji paradoksu. Artykuł składa się z czterech części i zakończenia. W pierwszej części przedstawiono pozycję zarządzania strategicznego jako subdyscypliny zarządzania, w drugiej opisano znaczenie paradoksów, wykorzystując konfucjańską koncepcję filozoficzną yin i yang. Część trzecia przedstawia zarządzanie strategiczne jako zbiór paradoksów. Z kolei w części czwartej sformułowano koncepcję wielowymiarowej przestrzeni paradoksów strategicznych. Słowa kluczowe: zarządzanie, zarządzanie strategiczne, paradoks. Klasyfikacja JEL: D01, L2. STRATEGIC MANAGEMENT AS A MULTIDIMENSIONAL SPACE OF PARADOXES Abstract: There are no optimal or universal strategies that could be recommended to companies in specific conditions. Strategic management is an area of management in which the creativity of top managers is the most important. The purpose of this paper is to present the complexity of strategic management using the concept of paradox. The article consists of four parts, followed by some final remarks. The first part presents the position of strategic management as a sub-discipline of management. The second part describes the notion of a paradox by means of the Confucian philosophical concept of yin and yang. The third part explains strategic management as a set of paradoxes. Finally, the fourth part formulates the concept of a multidimensional space of strategic paradoxes. Keywords: management, strategic management, paradox. 108 Jan Polowczyk Wstęp Zarządzanie jest nauką praktyczną, w której dominującym względem badawczym jest sprawność w osiąganiu zamierzonych celów [Koźmiński 2008, s. 227]. Wiedza dotycząca zarządzania ewoluuje wraz z rozwojem cywilizacji, a w szczególności z postępem techniki, który przesądza w dużej mierze o formach organizacyjnych. Nie umniejszając w niczym rangi zarządzania jako przedmiotu nauczania akademickiego, należy jednak podkreślić, że nieustannie toczy się dyskusja nad tym, czym jest w istocie zarządzanie. Wielu autorów traktuje zarządzanie jako połączenie wiedzy i sztuki [Griffin 2005; Mintzberg 2012]. Według H. Mintzberga [2012, s. 29], odkąd F. Taylor nazwał swoją koncepcję racjonalizacji pracy metodą naukową, „uważaliśmy, że Święty Graal zarządzania tkwi w nauce i profesjonalizmie”. Niewątpliwie prace Taylora wywarły wielki wpływ na przemysł w Stanach Zjednoczonych i Europie. Wiele organizacji, stosując jego zasady, osiągnęło wzrost efektywności. Jednak po wielu dekadach „szukania Świętego Graala przyszedł moment, by powiedzieć sobie, że zarządzanie nie jest nauką ani zawodem, lecz praktyką, której można się nauczyć głównie z doświadczenia i która jest mocno osadzona w kontekście. […] Skuteczne zarządzanie jest […] w większym stopniu sztuką, a w szczególności opiera się na rzemiośle. Sztuka jest dziedziną olśnień, wizji, które mają charakter intuicyjny. Rzemiosło z kolei polega na uczeniu się na podstawie doświadczenia – znajdowania rozwiązań w walce z realnymi problemami” [Mintzberg 2012, s. 27]. Koncepcję zarządzania jako praktyki Mintzberg wpisał w trójkąt, którego wierzchołkami są: sztuka, rzemiosło i nauka. Sztuka jest źródłem pomysłów i ma siłę integrującą. Dzięki rzemiosłu, nabywanemu doświadczeniu, powtarzalności i rutynie może następować ewolucyjne doskonalenie. Z kolei nauka wprowadza porządek dzięki usystematyzowanej analizie opartej na wiedzy, a przede wszystkim dąży do ustalenia powiązań przyczynowo-skutkowych i do sformułowania możliwie stałych reguł postępowania. Każda organizacja jest unikatowa. Zachowanie menedżera jest uwarunkowane elementami niepowtarzalnymi, szczególnymi dla danego momentu i w specyficznym otoczeniu. W związku z tym decyzje menedżerskie trafne w pewnej konkretnej sytuacji, w innych uwarunkowaniach mogą być zupełnie nieskuteczne. Nie istnieje coś takiego, jak „najlepsza metoda zarządzania”. Stosowana metoda powinna zależeć od sytuacji [Mintzberg 2012, s. 28–29; Polowczyk 2008, s. 279–280]. W zawodzie menedżera w większym stopniu niż w przypadku inżyniera lub lekarza mają znaczenie intuicja, doświadczenie, kreatywność oraz umiejętność kojarzenia faktów i wykorzystywania okazji. Zarządzanie strategiczne jako wielowymiarowa przestrzeń paradoksów 109 Trudno sobie wyobrazić dobrego konstruktora czy chirurga, którzy nie ukończyliby specjalistycznych uczelni. Często natomiast podziwiamy menedżerów, którzy nie spędzili ani jednego dnia w szkole zarządzania. Podstawowym celem artykułu jest przedstawienie specyfiki i złożoności zarządzania strategicznego za pomocą koncepcji paradoksu. Artykuł składa się z czterech części i podsumowania. W pierwszej części przedstawiono usytuowanie subdyscypliny zarządzania strategicznego w ramach dyscypliny zarządzania. W części drugiej opisano znaczenie paradoksów, wykorzystując starożytną konfucjańską koncepcję filozoficzną yin i yang. Trzecia część przedstawia zarządzanie strategiczne jako zbiór paradoksów. Z kolei w części czwartej zaproponowano koncepcję wielowymiarowej przestrzeni paradoksów strategicznych. 1. Pozycja zarządzania strategicznego Zarządzanie strategiczne jest subdyscypliną nauk o zarządzaniu integrującą wiedzę z różnych dziedzin, w tym przede wszystkim ekonomii, finansów, marketingu, socjologii, psychologii, antropologii, a także innych. Można zatem powiedzieć, że zarządzanie strategiczne ma charakter interdyscyplinarny i w związku z tym wymaga różnych teoretycznych perspektyw badawczych. Zarządzanie strategiczne jest nowoczesną nauką powstałą z zapotrzebowania praktyki, a w szczególności współczesnych korporacji przemysłowych. Nie ma jednej powszechnie akceptowanej definicji zarządzania strategicznego, ale wśród badaczy jest ogólne porozumienie co do tego, czym się zajmuje. R. Nag, D.C. Hambrick i M.J. Chen [2007] sformułowali konsensualną definicję, biorącą pod uwagę różnorodne poglądy, szkoły i podejścia, w następujący sposób: Zarządzanie strategiczne zajmuje się ważnymi zamierzonymi i ujaw nionymi inicjatywami podjętymi przez zarządy firm w imieniu ich właści cieli, wykorzystując posiadane zasoby, ażeby umocnić pozycję firmy w jej zewnętrznym środowisku, a w tym także poprawić jej wyniki. Strategia przedsiębiorstwa jest narzędziem komunikacji. Stratedzy firmy, czyli członkowie zarządu na czele z jego prezesem, muszą mieć pewność, że interesariusze znają cel organizacji i to, jak będzie realizowany. Strategię muszą znać niewątpliwie menedżerowie, przedstawiciele handlowi i wszyscy pracownicy. Ponadto strategię powinni znać akcjonariusze, dostawcy, klienci i inni partnerzy. Oczywiście, nie wszystkie szczegóły strategii muszą lub powinny być znane wszystkim interesariuszom w jednakowym stopniu. 110 Jan Polowczyk Władze lokalne powinny znać na przykład skalę inwestycji, a społeczności lokalne – wiedzieć, jak bardzo wpłynie ona na jakość ich życia. Niewątpliwie naturalnym oczekiwaniem wobec zarządzania strategicznego jest wskazanie najlepszej strategii, którą można zastosować w danym przedsiębiorstwie i w konkretnych warunkach otoczenia. Powstaje oczywiste pytanie, jak definiować najlepszą strategię. Tu przyjmiemy, że najlepsza strategia realizuje w największym stopniu cele zarządu, który z kolei reprezentuje interesy właścicieli. A zatem najlepsza strategia to taka, która najskuteczniej realizuje cele właścicieli. Celem setek milionów małych, rodzinnych firm we wszystkich krajach jest przede wszystkim utrzymanie godziwego poziomu życia. We współczesnym świecie decydujące znaczenie mają jednak wielkie korporacje międzynarodowe, które w większości są spółkami giełdowymi. W ich wypadku podstawowym celem jest powiększanie wartości zainwestowanego kapitału, co jest możliwe tylko wtedy, gdy wartość giełdowa spółki rośnie szybciej niż wartość akcji innych spółek. Z kolei tempo wzrostu akcji jest wypadkową co najmniej trzech podstawowych elementów: wzrostu zysku netto na jedną akcję (earnings per share – EPS), wielkości firmy mierzonej udziałami w rynku (lub wartością sprzedaży), a także zaufania akcjonariuszy do zarządu, że będzie on zdolny do zapewnienia zyskowności firmy w przyszłości. Trzeba pamiętać, że nie ma jedynych, uniwersalnych i zawsze sprawdzających się strategii. Historia biznesu ostatnich dekad pokazuje, że w tej samej branży, w tym samym czasie i na tych samych rynkach funkcjonują z powodzeniem firmy stosujące różne strategie. Nie ma strategii optymalnych, opracowanych wcześniej, a potem wdrożonych. Skuteczna strategia to taka, która napełnia zaangażowanych ludzi energią: to oni ją urzeczywistniają, sprawiając, że na koniec okazuje się skuteczna [Mintzberg, Ahlstrand i Lampel 1998, s. 116]. O tym, czy i w jakim stopniu strategia jest skuteczna, dowiadujemy się ex post, po jej zrealizowaniu. A priori nie jesteśmy w stanie tego określić [Beinhocker 2007, s. 280–281]1. 1 Dobrym przykładem jest Federal Express (FedEx), lider na rynku ekspresowych przesyłek, założony przez F. Smitha. Smith, rozpoznawszy okazję na rynku, przygotował biznes plan w ramach studiów MBA. Otrzymał ocenę negatywną, ponieważ wykładowca uznał projekt za mało realny. Smith przedstawił swój projekt także zarządom UPS i U.S. Postal Service. Te jednak go odrzuciły, uważając, że nie ma takiej potrzeby na rynku. A zatem znający rynek menedżerowie i profesor nie dostrzegli w projekcie okazji na biznes. F. Smith był jednak mocno przekonany co do słuszności swoich pomysłów i w 1971 roku sam założył firmę, która odniosła wielki sukces, działa w skali globalnej, zatrudnia 290 tys. pracowników i w 2012 roku osiągnęła prawie 43 mld USD wartości sprzedaży. Jej strategia była kopiowana przez konkurentów [Singh 2001]. Zarządzanie strategiczne jako wielowymiarowa przestrzeń paradoksów 111 M. Porter [1992] wyróżnił dwa podstawowe rodzaje strategii, które można stosować indywidualnie lub w kombinacjach, a które umożliwiają utrzymywanie przez dłuższy czas wyników lepszych od uzyskiwanych przez konkurentów: –– przywództwo kosztowe – najniższe koszty w branży (cost leadership), –– wyróżnianie się wysoką jakością produktów i wysokimi cenami (differentiation). Dwie powyższe strategie są krańcowo różne. Pierwsza polega na produkcji i/lub sprzedaży produktów jak najtaniej i w jak największych ilościach. Druga natomiast jest związana z produkcją i/lub sprzedażą produktów ekskluzywnych, bardzo drogich i w relatywnie niedużych seriach. Obie strategie wymagają od firm innych umiejętności i zasobów. Stosowane konsekwentnie prowadzą do trwałych sukcesów. Największa amerykańska sieć detaliczna Wal-Mart założona przez Samuela Waltona, zatrudniająca ponad 2 mln pracowników, stosuje od swoich początków w latach 60. XX wieku strategię przywództwa kosztowego. Suma bogactwa Waltona odziedziczona przez jego potomków przewyższa bogactwo zgromadzone przez B. Gatesa czy C.S. Helu [Forbes 2014]. Najbogatszymi Niemcami są założyciele sieci dyskontów: K. Albrecht (sieć Aldi) oraz D. Schwarz (sieci: Lidl i Kaufland). Na przeciwnym biegunie strategii znajduje się francuskie przedsiębiorstwo LVMH wyspecjalizowane w sprzedaży marek luksusowych, a jego założyciel, B. Arnault, jest drugim najbogatszym Francuzem po L. Bettencourt, głównej właścicielce koncernu L’Oreal [Forbes 2014]. 2. Znaczenie paradoksów w zarządzaniu strategicznym Jak już zaznaczono, nie ma optymalnych i uniwersalnych strategii, które można byłoby zalecać przedsiębiorstwom w konkretnych warunkach. Zarządzanie strategiczne jest tym obszarem zarządzania, w którym największe znaczenie ma kreatywność zarządów przedsiębiorstw. Historia biznesu XX wieku pokazuje, że względnie trwałe sukcesy odnosiły te firmy, które były pionierami we wdrażaniu nowych modeli biznesowych (np. Ford, General Motors, Dell, Wal-Mart, Apple, Amazon) lub nowych technologii (np. 3M, General Electric, IBM, Kodak, Apple, Microsoft, Nokia). Firmy pionierskie szybko znajdowały naśladowców, którzy często przerastali owych pionierów (np. Dell w latach 90. ub. wieku wyprzedził IBM i Apple, a po kilkunastu latach został pokonany przez HP). W każdej dziedzinie ludzkiej działalności mamy do czynienia z efektem imitacji najlepszych wzorców technicznych lub kulturowych. Nie inaczej jest w biznesie. Możemy mówić zatem o zjawisku mody biznesowej 112 Jan Polowczyk polegającym na naśladownictwie najlepszych praktyk. W ten sposób rozpowszechniane są koncepcje strategiczne, w tym modele biznesowe i wynalazki techniczne. T.J. Peters i R.H. Waterman [1982], na podstawie badań najlepszych amerykańskich korporacji, doszli do wniosku, że podstawową wspólną cechą doskonałych firm jest zdolność do zarządzania wieloznacznością i paradoksem. Było to niewątpliwie oryginalne i odkrywcze stwierdzenie, niezgodne z panującymi poglądami na zarządzanie, a w szczególności zarządzanie strategiczne2. Pojęcie „paradoks” wywodzi się od greckiego słowa paradoksos (nieoczekiwany, nieprawdopodobny). Paradoksem nazywamy sformułowania zaskakujące w treści, wydające się w pierwszej chwili nieprawdziwe lub bezsensowne, oparte na zestawieniu ze sobą dwóch członów z pozoru wykluczających się treściowo, niezgodne z przekonaniami powszechnie przyjętymi. Trafnym określeniem paradoksu może być łacińskie wyrażenie przypisywane poecie rzymskiemu Horacemu (65–8 p.n.e.) concordia discors, czyli: niezgodna zgoda lub rozbieżna jednomyślność [Kopaliński 1983]. Można to też interpretować jako harmonię sprzeczności. Przykładem równoczesnych działań sprzecznych (paradoksalnych) może być maksyma przypisywana starożytnym Rzymianom: „chcesz mieć pokój – gotów się do wojny” (łac. si vis pacem, para bellum). Dzisiaj maksyma ta stanowi podstawową obronną doktrynę odstraszania przyjętą przez państwa członkowskie Organizacji Paktu Północnoatlantyckiego (NATO). Z kolei w antycznej dualistycznej filozofii chińskiej istniała koncepcja yin i yang. Opisuje ona dwie pierwotne i przeciwne, lecz uzupełniające się siły, które odnaleźć można w całym wszechświecie [Li i in. 2012]. Ich symbolem jest ikona przedstawiona na rysunku 1. Rysunek 1. Symbol graficzny koncepcji yin i yang Źródło: Li i in. [2012] W filozofii Wschodu dominuje podejście holistyczne: harmonijna, wzajemna zależność między różnymi bytami. Wszelkie elementy natury są ze sobą ściśle powiązane i podlegają nieustannym przemianom. Yin i yang wzbogaca zachodnie myślenie o przeciwieństwach: każde z nich zawiera w sobie ziarno 2 „To, o czym nasi racjonalni przyjaciele ekonomiści mówią nam, że jest niemożliwe, doskonałe firmy robią rutynowo” [Peters i Waterman 1982]. Zarządzanie strategiczne jako wielowymiarowa przestrzeń paradoksów 113 drugiego przeciwieństwa. Objaśnia dynamiczną równowagę (harmonijną integrację) przeciwieństw. Yang jest reprezentowane przez biel i oznacza Słońce, siłę, aktywność, radość, ciepło i lato, symbolizuje męski aspekt natury, ekstrawersję oraz liczby nieparzyste. Symbolizuje ogień lub wiatr. Z kolei yin jest reprezentowane przez czerń i oznacza Księżyc, bierność, uległość, smutek, chłód i zimę; symbolizuje żeński aspekt natury, introwersję oraz liczby parzyste. Yin symbolizuje wodę lub ziemię. Wzajemne oddziaływanie yin i yang jest przyczyną powstawania i zmiany wszystkich rzeczy. Z nich powstaje pięć pierwiastków: ogień, woda, ziemia, metal i drewno. Wśród sił natury można zauważyć stany yin i yang będące w ciągłym ruchu. Podstawowym wykładem nauki o yin i yang jest Księga przemian Yijing [Li i in. 2012]. J. Collins oraz J.I. Porras [2008], podkreślają, że wizjonerskie firmy cechują się dualistycznym podejściem podobnym do yang i yin. Nie ulegają tzw. tyranii ALBO, czyli racjonalnemu poglądowi mówiącemu, że nie da się połączyć w jedną całość dwóch przeciwstawnych sił, ponieważ byłby to paradoks. Tyrania ALBO skłania ludzi do wierzenia, że można mieć A albo B, ale nie można mieć jednego i drugiego. Collins i Porras przedstawili, jak najlepsze wizjonerskie firmy radzą sobie z paradoksem łączenia biznesowych sprzeczności (wymienili ich 11). Każdy paradoks ma dwa przeciwstawne bieguny. Oto kilka przykładów: –– tradycja – postęp, –– wiara – wiedza, –– nauka – sztuka, –– analiza – intuicja, –– egoizm – altruizm [Smith 1989], –– kreatywna destrukcja [Schumpeter 1995], –– teoria X i Y D. McGregora [Griffin 2005], –– osobista skromność i profesjonalna siła (w odniesieniu do najlepszych menedżerów) [Collins 2001]. Jack i Suzy Welch [2005, s. 84] stwierdzają, że słowo paradoks nieodłącznie wiąże się z przywództwem w biznesie. Na przykład bardzo często pada pytanie, jak połączyć krótkookresowe zarządzanie wynikami kwartalnymi z realizowaniem zamierzeń długookresowych. Według Welchów zadaniem każdego lidera jest równoważenie tych sprzecznych celów. Nazywają to codziennym poszukiwaniem złotego środka. Wielkie międzynarodowe korporacje są potężnymi siłami napędowymi rozwoju gospodarczego, dają pracę setkom milionom ludzi, tworzą nowe wynalazki, przyczyniają się do poprawy warunków życia, ale jednocześnie 114 Jan Polowczyk pożerają nieproporcjonalnie dużo światowych nieodnawialnych zasobów. Równolegle generują innowacje, które redukują zużycie surowców i zmniejszają emisję zanieczyszczeń. Korporacje są zatem źródłem zarówno degradacji przyrody, jak i rozwiązań jej przeciwdziałających. Wiele przełomowych wynalazków w dziejach ludzkości może jednocześnie dawać wzrost dobrobytu i postępu, ale też może być przyczyną nieszczęść (np. energia jądrowa, samochód, internet itp.). Paradoksy są wszechobecne. Podstawowym dylematem, przed którym stoi nasza cywilizacja, jest sposób dalszego rozwoju. Są dwie sprzeczne teorie: teoria Thomasa Malthusa i teoria Roberta Solowa [Martin i Kemper 2012]. Zgodnie z tokiem rozumowania Malthusa, zasoby są wyczerpywalne i trzeba nimi oszczędnie gospodarować: konsumenci i korporacje muszą pracować nad bardziej efektywnym zużyciem zasobów, recyklingiem, i poskromić apetyty w tej konsumpcji. Ten argument odwołuje się bezpośrednio do tradycyjnej cnoty powściągliwości. Malthus obawiał się, że nadmierny przyrost ludności spowoduje niemożliwość wyżywienia rosnącej populacji, ponieważ liczba ludności niepoddana kontroli rośnie w tempie geometrycznym, a żywność przyrasta w tempie arytmetycznym. Jest to teoria pesymistyczna. Zgodnie z drugim nurtem argumentacji, wypływającym z prac dwudziestowiecznego ekonomisty Roberta Solowa, laureata Nagrody Nobla z 1987 roku, problemy środowiskowe i inne są zawsze rozwiązywalne dzięki ludzkiej pomysłowości. Ten pogląd odwołuje się do ludzkiego naturalnego optymizmu, wspiera deregulację gospodarki i promuje wzrost. Nietrudno zauważyć, że poglądy Malthusa i Solowa są trudne do pogodzenia. Jednakże, chcąc osiągnąć realny postęp w rozwiązywaniu światowych problemów, musimy wykorzystać oba opisane ujęcia. Efekt paradoksu występuje w tzw. austriackiej szkole ekonomii, szczególnie w koncepcji „twórczej destrukcji” J.A. Schumpetera. W swojej wizji kapitalizmu Schumpeter zakłada, że ciągłe pojawianie się nowych przedsiębiorców z rewolucyjnymi pomysłami, które niszczą stare biznesy, stanowi siłę, która jest w stanie podtrzymywać długotrwały rozwój ekonomiczny. Każdy człowiek w swoim postępowaniu, codziennym czy też zawodowym, musi dokonywać ciągłych wyborów, między innymi: konsumować, czy oszczędzać, zabezpieczając się na przyszłość. Jesteśmy optymistami albo pesymistami. Realizm wymaga umiejętnego połączenia tych postaw. Niekiedy muszą to być wybory zero-jedynkowe (nie–tak), ale najczęściej decyzją powinna być jakaś dowolna kombinacja pośrednia dwóch przeciwstawnych rozwiązań. Według H. Mintzberga [2012, s. 226] paradoksy są wpisane w zarządzanie – one są zarządzaniem. Zarządzanie to nie tylko zwykła akrobatyka polegająca Zarządzanie strategiczne jako wielowymiarowa przestrzeń paradoksów 115 na chodzeniu po linie, lecz balansowanie w wielowymiarowej przestrzeni na wielu różnych linach. Wiąże się to w dużym stopniu z koncepcją ograniczonej racjonalności H.A. Simona [Kowalski 2002]. Inne znaczenie paradoksowi w zarządzaniu strategicznym nadaje M.R. Raynor [2008]. Pisze on o paradoksie strategii, który polega na tym, że podobna lub nawet ta sama strategia dobrze zaplanowana i skutecznie wdrożona może poprowadzić przedsiębiorstwo zarówno do wielkiego sukcesu, jak i spektakularnej porażki. Albo inaczej: strategie z największymi szansami na sukces niosą ze sobą także duże ryzyko porażki [Raynor 2008, s. 19]. 3. Zarządzanie strategiczne jako zbiór paradoksów Według W. Czakona [2012] paradoksy odnoszą się do sprzeczności, które oddziałują na zachowanie w organizacjach, towarzyszą decyzjom menedżerów lub też są wywoływane przez strategie przedsiębiorstw. Paradoks łączy sprzeczności i jest wyrazem postawy poznawczej, która odrzuca redukcjonizm nadmiernie upraszczający rzeczywistość. W biznesie (i szerzej, w ekonomii) mówimy o napięciu (tension) albo napięciu strategicznym między dwoma sprzecznymi postawami (poglądami, koncepcjami czy decyzjami) [De Wit i Meyer 2007, s. 32]3. Niekiedy mówimy o dualizmie [Peters i Waterman 1982, s. 31]. Godzenie sprzeczności (krańcowo różnych poglądów) jest podstawową umiejętnością w biznesie i przejawem kreatywności (zarządzanie jako sztuka). Jedną z takich najbardziej dyskutowanych sprzeczności w zarządzaniu strategicznym jest przekonanie o potrzebie eksploatacji bieżących kompetencji przy jednoczesnej eksploracji nowych kompetencji. Utrzymanie przewagi konkurencyjnej w długim okresie wymaga jednoczesnego dążenia w obu kierunkach. Nie jest to zatem alternatywa, nie można zrezygnować ani z eksploatacji, ani z eksploracji. Umiejętność prowadzącą do adaptacyjnego poszukiwania tej idealnej równowagi nazwano ambidexterity, czyli dosłownie oburęcznością, co obrazuje sprawne wykorzystywanie skrajnie różnych opcji. Historia biznesu ostatnich dekad pokazuje, że w tej samej branży, w tym samym czasie i na tych samych rynkach funkcjonują z powodzeniem firmy stosujące różne strategie. Nie ma zatem strategii optymalnej, opracowanej wcześniej, a potem wdrożonej. Firmy konsultingowe, które stworzyły branżę doradztwa strategicznego (np. Boston Consulting Group, McKinsey, Booz Allen Hamilton), prześcigają się w wymyślaniu nowych koncepcji strate3 Potocznie używane jest sformułowanie: „zjeść ciastko i mieć ciastko”. 116 Jan Polowczyk gicznych, jak outsourcing, zarządzanie firmą przez wartość, wyszczuplanie firmy itp. Żywot poszczególnych koncepcji jest krótszy lub dłuższy. Bardzo trwały wydawał się outsourcing, kiedy to Chiny dzięki niskim kosztom stały się fabryką świata, ale wiele wskazuje, że początek drugiej dekady XXI wieku przyniósł odwrót od tej mody biznesowej i firmy wracają z produkcją na swoje ojczyste rynki. Niewątpliwie outsourcing nie zaniknie, ale przestanie dominować. Stwierdziliśmy powyżej, że zarządzanie jest połączeniem teorii, praktyki i sztuki. W zarządzaniu strategicznym elementy praktyki i sztuki są szczególnie ważne. Wiedza, doświadczenie oraz intuicja menedżerów zarządzających są podstawą w kreowaniu skutecznych strategii biznesowych. Sukces w biznesie, nawet w tej samej branży, można odnieść w różny sposób. Każda przewaga konkurencyjna jest przemijająca. Wynika to z różnych powodów: konkurenci naśladują innowatora, pojawia się kolejny innowator z nowym wynalazkiem lub modelem biznesowym, wreszcie ciągłym zmianom ulega otoczenie. Paradoksy w zarządzaniu strategicznym (czy bardziej ogólnie – w zarządzaniu) są nieuniknione ze względu na przedstawiony powyżej opis zarządzania jako połączenia sztuki, rzemiosła i nauki. Wiele firm uzyskiwało sukcesy dzięki temu, że przełamywało powszechnie przyjęte schematy i wzorce zarządzania. Można zatem mówić o rencie „kreatywnej destrukcji” w zarządzaniu strategicznym. Dobrym tego przykładem jest południowokoreański Samsung Electronics, który swoją silną pozycję zbudował dzięki hybrydowemu systemowi zarządzania [Khanna, Song i Lee 2011]. System ten jest oparty na umiejętnym połączeniu dwóch różnych kultur zarządzania: wschodniej i zachodniej. Samsung połączył dwa niekompatybilne systemy wartości, m.in. zachodnie dążenie do organizacyjnej doskonałości poprzez premiowanie pracowników za osiągnięcia bez względu na wiek ze wschodnią tradycją poszanowania starszych pracowników4. 4. Wielowymiarowa przestrzeń paradoksów strategicznych Paradoksy w biznesie są nieuniknione, ponieważ problemy strategiczne charakteryzuje duża złożoność. W związku z tym powinny być rozpatrywane z różnych perspektyw zawierających wewnętrzne sprzeczności (np. krótki okres – długi okres). Zarządzanie strategiczne jest sztuką rozwiązywania owych 4 Warto dodać, że Korea Południowa jest jedynym krajem, na którego fladze znajduje się symbol yin i yang. Zarządzanie strategiczne jako wielowymiarowa przestrzeń paradoksów 117 paradoksów, czyli sztuką poszukiwania tzw. złotego środka. Obrazowo możemy powiedzieć, że zarządzanie strategiczne w przedsiębiorstwie to sztuka biznesowej nawigacji między różnymi opcjami. W niektórych wypadkach stosowanie jednej opcji wyklucza stosowanie drugiej. Jednak w bardzo wielu sytuacjach biznesowych jest możliwe umiejętne wykorzystywanie obu opcji jednocześnie. Dla zilustrowania wywodów rozważymy paradoks strategiczny na przykładzie podstawowego celu funkcjonowania przedsiębiorstw notowanych na giełdach, czyli spółek publicznych. Jest on często nazywany paradoksem krótkiej i długiej perspektywy czasowej [Welch i Welch 2005, s. 84]. Okres krótki jest związany z celami akcjonariuszy (inwestorów), którym zależy na szybkim zwrocie zainwestowanego kapitału, czyli wzroście wartości spółki. Okres długi jest kojarzony z celami interesariuszy, dla których priorytetem jest możliwie najtrwalsze funkcjonowanie spółki. Działanie publicznych spółek amerykańskich i europejskich jest zdominowane przez presję na osiąganie kwartalnych wyników. Pomimo kilku silnych wstrząsów na rykach kapitałowych i wprowadzenia ustawy Sarbanesa–Oxleya w 2002 roku, istota gry w zyski nie uległa zmianie. J.R. Graham, C.R. Harvey i S. Rajgopal [2004] z amerykańskiego National Bureau of Economic Research zebrali opinie od ponad czterystu dyrektorów finansowych (CFO) spółek giełdowych, aby określić kluczowe czynniki mające wpływ na decyzje dotyczące raportów kwartalnych. Stwierdzono, że ze względu na silne reakcje rynku wynikające z odchyleń rzeczywistych zysków od prognozowanych, firmy wolą poświęcić wartość długookresową, aby tylko osiągnąć krótkookresowe cele w zyskach. Okazało się, że aż 78% CFO woli zrezygnować ze wzrostu ekonomicznej wartości firmy na rzecz „gładkiej” tendencji zmian zysków, które nie zaskakują inwestorów. Ponadto 55% menedżerów wolałoby zrezygnować z bardzo dobrze zapowiadającego się projektu, jeżeli spowodowałby on pogorszenie zysków w stosunku do założeń kwartalnych. Nieuzyskanie planowanych zysków kwartalnych podważa wiarygodność zarządu, co z kolei obniża kurs akcji, ponieważ inwestorzy najbardziej nie lubią niepewności, co wynika z ich awersji do ryzyka [Kahneman i Tversky 1979]. Większość zarządów uważa, że wybiera mniejsze zło, poświęcając długookresową wartość, aby uniknąć krótkookresowego zamieszania, które niechybnie doprowadziłoby do spadku wartości. Wielu argumentuje, że to system (presja rynku finansowego i stadne reakcje inwestorów) wymusza takie decyzje. Zarządy są przekonane, że osiąganie planowanych kwartalnych zysków przez spółkę buduje dla niej zaufanie rynku i pomaga utrzymać, a nawet stopniowo podwyższać kurs akcji. Określenie równowagi między wynikami 118 Jan Polowczyk z bieżącej działalności a inwestycjami w wielce niepewną przyszłość należy do najbardziej ryzykownych wyborów, jakich dokonuje każdy prezes spółki. Według A.G. Lafleya [2009], wieloletniego prezesa Procter and Gamble: „Jest w tym więcej sztuki niż nauki. Presja będzie zawsze na teraźniejszość, ponieważ interesy większości akcjonariuszy są krótkookresowe. Tylko nieliczni z nich inwestują w firmę na dłużej niż rok lub dwa. W czasach kryzysu i globalnej recesji, każdy szef firmy czuje jeszcze większą presję koncentrowania się na krótkim okresie: tygodniu, miesiącu czy kwartale”. Do standardowych reakcji akcjonariuszy na decyzje zarządów w sytuacjach kryzysowych należy wzrost kursu akcji, jeżeli zarząd ogłosi redukcję zatrudnienia. W ten sposób przyjmują z zadowoleniem obniżenie kosztów. D. Kahneman, J.L. Knetsch i R.H. Thaler [1986], na podstawie przeprowadzonych eksperymentów, przedstawili argumenty za ograniczaniem takich działań w celu utrzymania dobrej reputacji i możliwości maksymalizacji zysków w długim okresie. Przykłady wspierające powyższe wywody przedstawił także F. Fukuyama [1997, s. 17–18]. Dlatego w niektórych firmach w sytuacjach kryzysowych zamiast zwolnień stosuje się obniżkę płac dla wszystkich pracowników. Leszek Czarnecki, jeden z najwybitniejszych polskich menedżerów w branży finansów, przedstawił swoje poglądy dotyczące procesów zachodzących w gospodarce światowej [Czarnecki 2011]. Krytycznie ustosunkował się do nowych technologii finansowych, tj. transakcji wysokiej częstotliwości (high-frequency trading – HFT). Czarnecki ubolewał, że zanika etos odpowiedzialnego właściciela firmy i zaproponował: spowolnijmy rzeczywistość. Uważa, że potrzebujemy mechanizmów powstrzymujących główne procesy i że trzeba wdrożyć pewne narzędzia na szczeblu Komisji Europejskiej, na przykład podatek od niektórych transakcji finansowych. Zaraz potem przyznał się, że sam jest przeciwnikiem wieloletnich planów budżetowych. Każda firma, którą budował lub kupował, musiała przynosić dochód w ciągu roku, maksymalnie dwóch lat. Podkreślił: „zysk musimy osiągać teraz, a nie w przyszłości”. I dodał: „trzeba więcej energii wkładać w bieżące zarządzanie, a nie w realizację wieloletnich skomplikowanych biznesplanów”. Trudno nie zauważyć, że w swoich wywodach L. Czarnecki popadł w sprzeczność. Z jednej strony namawia do spowolnienia rozpędzonych rynków, a z drugiej przekonuje, że nie czas na myślenie w kategoriach długoletnich celów. Wyciska ze swoich firm zyski najszybciej jak tylko można. W ten sposób potwierdza paradoks krótkiego i długiego okresu w zarządzaniu. Czarnecki w swoich firmach zarządza tym paradoksem bardzo skutecznie, o czym świadczy zgromadzony przez niego majątek. Zarządzanie strategiczne jako wielowymiarowa przestrzeń paradoksów 119 Należy zaznaczyć, że konkurencja w świecie finansów została w ostatnich kilku latach wzmocniona przez intensywną komputeryzację rynków kapitałowych i wprowadzenie transakcji algorytmicznych HFT. Są one przejawem hiperkonkurencji na rynkach finansowych. Wykorzystują programy komputerowe do przeprowadzania operacji kupna-sprzedaży bez udziału ludzi. Są wykorzystywane głównie przez inwestorów instytucjonalnych: fundusze emerytalne i fundusze powiernicze. Transakcje HFT błyskawicznie opanowały Wall Street w latach 2007–2009. Jeszcze w 2004 roku HFT było uważane za strategię niszową i mniej niż 25% wolumenu transakcji zawierana była w tym trybie. Obecnie obejmuje ponad 70% amerykańskiego rynku kapitałowego. Podobnie sytuacja wygląda na giełdzie w Londynie. Dzięki HFT obniżane są koszty transakcji i podwyższany jest zwrot dla akcjonariuszy. Poprawiło to znakomicie rentowność sektora finansowego, który wydał setki milionów dolarów na udziały w firmach HFT. Operatorzy, którzy nie rozwinęli swoich własnych algorytmów, kupowali posiadające je firmy. Na przykład Citigroup zakupił Automated Trading Desk. Jednym z największych inwestorów w tym segmencie jest Goldman Sachs. Następuje szybkie odejście od „fundamentalnego” modelu inwestowania, który zdominował rynek akcji w minionym wieku. Transakcje HFT wzbudzają sporo kontrowersji. Uważane są przez wielu obserwatorów za narzędzie spekulacji niszczące relacje między inwestorem a spółką. Istnieją też obawy, że mogą się wymknąć spod kontroli i doprowadzić do krachu na giełdach. Jak każdy wynalazek, HFT wzbudzają emocje pozytywne związane z większą efektywnością spółek finansowych i negatywne dotyczące obaw o wypuszczenie „dżina z butelki”, mają swoje wady i zalety. Spójrzmy jednak na inne branże. W wypadkach na drogach ginie wielu ludzi, ale nie powstrzymało to rozwoju branży samochodowej, a dzięki kolejnym innowacjom zwiększył się komfort i bezpieczeństwo jazdy. Dalszego rozwoju technologii HFT nie da się powstrzymać. Jest on konsekwencją ewolucyjnych procesów informatyzacji, która będzie postępowała we wszystkich dziedzinach. W tabeli 1 przedstawiono przykłady paradoksów strategicznych, jakie napotykają zarządy przedsiębiorstw przy podejmowaniu kluczowych decyzji związanych z dalszym rozwojem. Nie wyczerpuje ona, oczywiście, wszystkich możliwych paradoksów strategicznych, jakie napotykają w realiach biznesowych zarządy przedsiębiorstw. Dualizm paradoksów powoduje, że można z nich zbudować teoretyczną przestrzeń wielowymiarową wszystkich możliwych strategii. Dla przykładu zawartego w tabeli 1 przestrzeń będzie zatem 10-wymiarowa. Mieszczą się w niej wszystkie zrealizowane i realizowane 120 Jan Polowczyk Tabela 1. Przykłady dziesięciu wybranych paradoksów strategicznych Lp. Obszar strategiczny 1 Realizacja podstawowego celu przedsiębiorstwa 2 Myślenie strategiczne 3 Myślenie strategiczne 4 Zmiana strategiczna 5 Decyzje strategiczne 6 Decyzje strategiczne 7 Decyzje strategiczne 8 Decyzje strategiczne 9 Realizacja strategii 10 Realizacja decyzji strategicznych Yin okres krótki (wartość dla akcjonariuszy) analityczne/logika eksploracja rewolucyjna/gwałtowna centralizacja specjalizacja przywództwo kosztowe rozwój poprzez akwizycje swoboda w adaptacji konkurencja Yang okres długi (wartość dla interesariuszy) intuicyjne/kreatywność eksploatacja ewolucyjna/stopniowa decentralizacja dywersyfikacja przywództwo jakościowe rozwój organiczny rygoryzm wykonawczy kooperacja Źródło: Na podstawie: [De Wit i Meyer 2007, s. 33]. strategie, a także te niezrealizowane do tej pory. Liczba możliwych strategii w takiej przestrzeni jest bliska nieskończoności. Wprowadzanie nowych modeli biznesowych i nowych strategii można uznać za efekt eksploracji wielowymiarowej przestrzeni strategii. Co więcej, każdy nowy znaczący wynalazek techniczny (np. grafen) lub organizacyjny (np. telepraca) może spowodować rozszerzenie owej przestrzeni poprzez dodanie nowego, dotąd nieznanego wymiaru. Na przykład, wynalazienie internetu wprowadziło wymiar związany z cyfryzacją aktywności gospodarczej. Można zatem sformułować wniosek o nieustannym rozszerzaniu wielowymiarowej przestrzeni paradoksów strategicznych. Każde przedsiębiorstwo realizuje swoją niepowtarzalną strategię nawet wówczas, gdy w tym samym czasie, na tym samym rynku i w tej samej branży działa wielu konkurentów. Heterogeniczność ta wynika z różnorodności zasobów, w tym zasobów ludzkich, czyli także zarządów, a przede wszystkim osobowości prezesa zarządu, który jest zwykle głównym strategiem przedsiębiorstwa. J. Welch w swoich autobiograficznych książkach wielokrotnie podkreślał, że podstawową rolą prezesa firmy jest zarządzanie wartościami organizacji. Wspomniani już wcześniej Peters i Waterman [1982] przyznają, że prawie w każdej doskonałej firmie był na początku silny lider (lub dwóch). Doskonałe firmy rozwinęły kulturę, która obejmuje wartości i praktyki owych wielkich liderów. I właśnie dlatego te wspólne wartości przetrwały nawet całe dekady po odejściu założyciela. Najlepszą ilustracją powyższego wniosku może być sieć detaliczna Wal-Mart założona przez Samuela Waltona w 1962 roku. Zarządzanie strategiczne jako wielowymiarowa przestrzeń paradoksów 121 Walton kierował firmą do 1988 roku, a potem, aż do śmierci w 1992 roku, był przewodniczącym rady dyrektorów. Jego kolejni następcy (i jednocześnie wieloletni współpracownicy) D. Glass, L. Scott, M. Duke, a obecnie D. McMillon, bazując na dziele Waltona i dopasowując strategie do realiów kolejnych dekad, spowodowali, że od 2001 roku sieć Wal-Mart znajduje się na pierwszych trzech miejscach w rankingu największych firm świata pod względem wielkości sprzedaży i zatrudnienia. W 1996 roku obroty Wal-Martu przekroczyły 100 mld USD, a w 2013 roku osiągnęły prawie 470 mld USD. We wspomnianej powyżej abstrakcyjnej wielowymiarowej przestrzeni wszystkich możliwych strategii są i takie, które w pewnych wymiarach nie szukają złotego środka, ale zdecydowanie wybierają jedną z przeciwstawnych alternatyw. Takim wymiarem jest paradoks strategii przywództwa kosztowego i strategii wyróżniania się. Obie strategie zostały zdefiniowane i opisane przez M. Portera jako strategie podstawowe. Na liście najbogatszych ludzi znajdujemy przedsiębiorców, którzy – wykorzystując strategię przywództwa kosztowego – zbudowali wielkie firmy (np. Wal-Mart, Aldi, IKEA, Inditex, H&M, Southwest Airlines). Są na niej także tacy przedsiębiorcy, którzy do bogactwa dochodzili poprzez strategię wyróżniania się, a zatem produkcję i sprzedaż dóbr ekskluzywnych i drogich (B. Arnault – LVMH, L. Bettencourt – L’Oreal, rodzina Pinault – PPR). Tym, co ich wszystkich łączy, jest wielka konsekwencja i mistrzostwo w realizacji wybranych podstawowych strategii porterowskich. Potwierdzeniem powyższych uwag mogą być przypadki dwóch amerykańskich przedsiębiorstw z branży komputerowej: Apple i Dell. Branża ta bez wątpienia była najbardziej innowacyjną branżą w drugiej połowie XX wieku i zapoczątkowała okres postindustrialny. Obie firmy powstały mniej więcej w tym samym czasie (Apple – w 1976 roku, Dell – w 1984 roku). Obie były założone przez młodych entuzjastów nowej techniki, niemających wykształcenia technicznego, co zastępowali niezwykłymi talentami biznesowymi. Strategie, które te firmy realizowały, były bardzo różne. W skrócie można powiedzieć, że Apple od samego początku dążył do technicznej perfekcji, produkowania wyjątkowych komputerów, dla wąskiego grona specjalistów i po wysokich cenach. Realizował zatem strategię wyróżniania się. Dell odwrotnie, nie wprowadzał nowinek technologicznych, ale dążył do produkowania komputerów po jak najniższych kosztach i sprzedawania po jak najniższych cenach. Współcześnie psychologowie odnośnie do dwóch typów przetwarzania informacji w ludzkim mózgu przyjęli koncepcję dualnego procesu. Pierwotny system przetwarzania wiąże się z procesami automatycznymi, niewymagającymi wysiłku, i z uczeniem się na podstawie doświadczeń, bez świadomej 122 Jan Polowczyk uwagi. Większa część życia człowieka opiera się na tych procesach. Intuicja jest ściśle związana właśnie z tymi procesami [Kahneman 2003; 2011]. Drugi system przetwarzania informacji umożliwia ludziom świadome poznawanie i uczenie się, a także prowadzenie analiz w sposób usystematyzowany. Ten system przetwarzania informacji wykorzystują modele podejmowania decyzji, które zdominowały teorię procesów decyzyjnych w zarządzaniu. Badania pokazują, że menedżerowie zarządzający rutynowo, gdy muszą rozwiązywać złożone problemy, polegają na intuicji. Ogólnie przyjmuje się, że im wyższy szczebel zarządzania, tym menedżerowie bardziej polegają na intuicji [Hayashi 2001]. Wymaga tego specyfika decyzji strategicznych (planowanie strategiczne, fuzje, zmiany organizacyjne, marketing, zasoby ludzkie, badania nad nowymi produktami itp.). Zdecydowana większość tych decyzji ma charakter jednorazowy i unikatowy. Wnioski końcowe Nauki o zarządzaniu powinny nie tylko opisywać i wyjaśniać funkcjonowanie systemów zarządzania, ale także formułować zalecenia praktyczne. Naturalnym oczekiwaniem wobec zarządzania strategicznego jest wskazanie najlepszej strategii, którą można zastosować: w danym przedsiębiorstwie, w danym czasie i w konkretnych warunkach otoczenia. Tymczasem nie istnieje coś takiego jak „najlepsza metoda zarządzania”. W zarządzaniu nie ma praw uniwersalnych. Każdy rzeczywisty i znaczący problem jest wyjątkowy, ma kilka rozwiązań, i to szybko tracących aktualność. Są natomiast dobre praktyki zarządzania wynikające z doświadczenia: zarządzanie zasobami ludzkimi, przywództwo, planowanie budżetowe, struktury organizacyjne, finanse, marketing, sprzedaż itp. Nie można mówić o uniwersalnych, optymalnych zasadach zarządzania. Można natomiast mówić o dobrych praktykach i dostosowywać je do konkretnej firmy. Historia biznesu ostatnich dekad pokazuje, że w tej samej branży, w tym samym czasie i na tych samych rynkach funkcjonują z powodzeniem firmy stosujące różne strategie. O tym, czy i w jakim stopniu strategia jest skuteczna, dowiadujemy się ex post, po jej zrealizowaniu. Paradoksy muszą być rozwiązywane przez każdy zarząd przedsiębiorstwa przy wykorzystaniu indywidualnych ram poznawczych menedżerów zarządzających. Decyzjom tym trudno narzucić normatywny rygor. Przypadki najlepszych firm pokazują, że w tej sferze decyzyjnej większą rolę odgrywa intuicja (doświadczenie i talent) niż trzymanie się teoretycznych wzorców, które szybko ulegają dezaktualizacji. Dlatego nie jest celowe zalecanie przed- Zarządzanie strategiczne jako wielowymiarowa przestrzeń paradoksów 123 siębiorstwu stosowania jakiejś konkretnej strategii ze zbioru przestrzeni strategii. Historia biznesu ostatnich dekad pokazuje, że wiele wyróżniających się modeli biznesowych i rewolucyjnych wynalazków powstało wbrew opiniom ekspertów i powszechnym praktykom [Collins i Hansen 2011; Singh 2001]. Wprowadzanie nowych modeli biznesowych i nowych strategii można nazwać efektem odkrywania (eksploracji) wielowymiarowej przestrzeni strategii. Każdy nowy znaczący wynalazek techniczny może spowodować rozszerzenie owej przestrzeni poprzez dodanie nowego, dotąd nieznanego wymiaru. Można zatem sformułować wniosek o nieustannym rozszerzaniu wielowymiarowej przestrzeni paradoksów strategicznych. Zarządzanie strategiczne polega na rozwiązywaniu paradoksów. Należy zatem dążyć do obiektywizacji procedur rozwiązywania owych paradoksów. Rosnąca liczba publikacji na temat zastosowań ekonomii behawioralnej w zarządzaniu strategicznym zaczyna generować nową jakość. Na przykład D. Kahneman wraz z zespołem przedstawił procedurę kontroli jakości podejmowania decyzji strategicznych [Kahneman, Lovallo i Sibony 2011]. Za wzór posłużyły im procedury kontrolowania jakości między innymi w produkcji, logistyce, zarządzaniu projektami, w budownictwie czy w medycynie. W związku z tym można oczekiwać, że kolejne publikacje przyczynią się do wzmocnienia normatywnego fundamentu zarządzania strategicznego. Teoria zarządzania strategicznego musi rozwiązywać nieustannie swój podstawowy paradoks, którym jest wykorzystywanie normatywnych zasad (nauka), a także kreowanie nowych rozwiązań (sztuka). Bibliografia Beinhocker, E.D., 2007, The Origin of Wealth. The Radical Remaking of Economics and What It Means for Business and Society, Harvard Business School Press, Boston, Massachusetts. Forbes, 2014, Billionaires 2014 Ranking, http://www.forbes.com/billionaires/gallery [dostęp: 6.03.2014]. Collins, J., 2001, Good to Great. Why Some Companies Make the Leap… and Others Don’t, Happer Business, New York. Collins, J., Hansen, M.T., 2011, Great by Choice. Uncertainty, Chaos, and Luck – Why Some Thrive Despite Them All, Happer Business, New York. Collins, J., Porras, J.I., 2008, Wizjonerskie organizacje. Skuteczne praktyki najlepszych z najlepszych, Wydawnictwo MT Biznes, Warszawa. 124 Jan Polowczyk Czakon, W., 2012, Równowaga a wzrost – relacja odwróconego U w naukach o zarządzaniu, Przegląd Organizacji, nr 10, s. 7–10. Czarnecki, L., 2011, Złotym cielcem stał się trend giełdowy, Gazeta Wyborcza, 24 października. De Wit, B., Meyer, R., 2007, Synteza strategii, PWE, Warszawa. Fukuyama, F., 1997, Zaufanie. Kapitał społeczny a droga do dobrobytu, Wydawnictwo Naukowe PWN, Warszawa–Wrocław. Graham, J.R., Harvey, C.R., Rajgopal, S., 2004, The Economic Implications of Corporate Financial Reporting, National Bureau of Economic Research, Working Paper Series, paper no. 10550. Griffin, R.W., 2005. Podstawy zarządzania organizacjami, Wydawnictwo Naukowe PWN, Warszawa. Hayashi, A.M., 2001, When to Trust Your Gut, Harvard Business Review, February. Kahneman, D., 2003, A Perspective on Judgment and Choice, American Psychologist, vol. 58, s. 697–720. Kahneman, D., 2011, Thinking, Fast and Slow, Farrar, Straus and Giroux, New York. Kahneman, D., Tversky, A., 1979, Prospect Theory: An Analysis of Decision under Risk, Econometrica, vol. 47, no. 2, s. 263–291. Kahneman, D., Knetsch, J.L., Thaler, R.H., 1986, Fairness as a Constraint on Profit-seeking: Entitlements in the Market, American Economic Review, vol. 76, no. 4, s. 728–741. Kahneman, D., Lovallo, D., Sibony, O., 2011, Before You Make that Big Decision…, Harvard Business Review, June, s. 50–60. Khanna, T., Song J., Lee, K., 2011, The Paradox of Samsung Rise, Harvard Business Review, July–August, s. 142–147. Kopaliński, W., 1983, Słownik wyrazów obcych i zwrotów obcojęzycznych, Wiedza Powszechna, Warszawa. Kowalski, T., 2002, The Simonian Bounded Rationality Hypothesis and Expectation Formation, Poznań University of Economics Review, vol. 1, no. 2. Koźmiński, A.K., 2008, Koniec świata menedżerów, Wydawnictwa Akademickie i Profesjonalne, Warszawa. Lafley, A.G., 2009, What Only the CEO Can Do, Harvard Business Review, May, s. 54–62. Li, J., Leung, A.S.M., Young, M., Xin, Y., Cai, Z., Huang, J., 2012, A Yin/Yang Perspective on the 2008 Global Financial Crisis, British Journal of Management, vol. 23, s. 119–125. Martin, R., Kemper, A., 2012, Saving the Planet: A Tale of Two Strategies, Harvard Business Review, April, s. 48–56. Mintzberg, H., 2012, Zarządzanie, Oficyna a Wolters Kluwer business, Warszawa. Mintzberg, H., Ahlstrand, B., Lampel, J., 1998, Strategy Safari: A Guided Tour through the Wilds of Strategic Management, Free Press, New York. Zarządzanie strategiczne jako wielowymiarowa przestrzeń paradoksów 125 Nag, R., Hambrick, D.C., Chen, M.J., 2007, What is Strategic Management, Really? Inductive Derivation of a Consensus Definition of the Field, Strategic Management Journal, vol. 28, no. 9, s. 935–955. Peters, T.J., Waterman, R.H., 1982, In Search of Excellence: Lessons from America’s Best Run Companies, Harper & Row, New York. Polowczyk, J., 2008, Skuteczne strategie biznesowe. Praktyka i teoria, Wydawnictwo Wyższej Szkoły Bankowej, Poznań. Porter, M.E., 1992, Strategia konkurencji. Metody analizy sektorów i konkurentów, PWE, Warszawa. Raynor, M.E., 2008, Paradoks strategii, Studio Emka, Warszawa. Schumpeter, J.A., 1995, Kapitalizm, socjalizm, demokracja, Wydawnictwo Naukowe PWN, Warszawa. Singh, R.P., 2001, A Comment on Developing the Field of Entrepreneurship through the Study of Opportunity Recognition and Exploitation, Academy of Management Review, vol. 26, no. 1. Smith, A., 1989, Teoria uczuć moralnych, PWN, Warszawa. Welch, J., Welch, S., 2005, Winning znaczy zwyciężać, Studio Emka, Warszawa. STUDIA OECONOMICA POSNANIENSIA 2014, vol. 2, no. 2 (263) RECENZJE I REKOMENDACJE Jacek Miroński, Homo administratus czyli człowiek w naukach o zarządzaniu, Oficyna Wydawnicza, Szkoła Główna Handlowa w Warszawie, Warszawa 2013, ss. 190, ISBN 97883-7378-855-8 Celem recenzowanej pracy jest, jak pisze autor, poznanie i analiza założeń dotyczących natury ludzkiej leżących u podstaw teorii i praktyki nauk o zarządzaniu. W centrum zainteresowania autora znajdują się menedżerowie rozumiani jako osoby zarządzające innymi ludźmi. Dlatego rozważania zawarte w recenzowanej pracy koncentrują się wokół dwóch zasadniczych obszarów teorii zarządzania: zachowań organizacyjnych i zarządzania zasobami ludzkimi. Przyjęta struktura pracy jest konsekwencją założonego przez autora celu. Pierwsze trzy rozdziały zostały poświęcone teoretycznej podbudowie prowadzonych badań empirycznych, których omówienia i przedstawienia wyników dotyczy rozdział czwarty. Wysoką ocenę należy postawić autorowi za bardzo wnikliwe, rzeczowe i zwarte, przeprowadzone z dużą znajomością tematu omówienie podstaw teoretycznych analizowanej problematyki, świadczące o pogłębionych i poszerzonych studiach literaturowych, nieograniczających się wyłącznie do dziedziny nauk o zarządzaniu, a mających istotne znaczenie dla podjętego tematu badawczego. W pierwszym rozdziale, poświęconym roli menedżerów w zarządzaniu ludźmi, należy szczególnie docenić podkreślony przez autora problem konieczności większego zaangażowania menedżerów liniowych w zarządzanie zasobami ludzkimi. W wielu firmach nie są oni przygotowani do podjęcia zadań kadrowych. Ważne w tym kontekście byłoby również traktowanie działu personalnego jako partnera biznesowego menedżerów. Analizując chociażby publikacje polskich autorów podejmujących problematykę kompetencji menedżerskich, łatwo można zauważyć, że do tego problemu przykłada się małą wagę i jest on traktowany jako drugorzędny. Bardzo często zadania z zakresu gospodarowania zasobami ludzkimi nie są postrzegane jako znaczący element zarządzania organizacją. Ważne w tym kontekście jest także zwrócenie przez autora uwagi i omówienie bardzo ważnej dla omawianej problematyki koncepcji organizacyjnych zachowań obywatelskich i wyzwań, jakie ona niesie dla menedżerów liniowych. Rozdział drugi pracy, traktujący o koncepcjach człowieka w różnych dziedzinach nauk społecznych, pozwala określić nie tylko rolę człowieka w naukach o zarządzaniu, ale także integralność tej roli z rolami pełnionym w innych sferach życia człowieka. Takie interdyscyplinarne ujęcie rozważanego problemu, przyjęte przez autora, jest w pełni uzasadnione i świadczy o dojrzałości badawczej poprzez dostrzeganie Recenzje i rekomendacje wzajemnych związków różnych dziedzin nauk społecznych w kontekście rozważań nad naturą człowieka. Rozdział trzeci pozostaje w ścisłym związku z rozważaniami rozdziału pierwszego, stanowiąc – poprzez dokonanie przeglądu występujących w naukach o zarządzaniu koncepcji człowieka – jego ważne z punktu widzenia podjętych badań uzupełnienie, wskazując jednocześnie na relatywnie skromny w tej mierze dorobek nauk o zarządzaniu, co podkreśla znaczenie badań podjętych przez autora. Należy docenić podkreślenie i poruszenie przez autora w tym rozdziale problemu dehumanizacji pracy i zagrożeń, jakie ten proces może przynieść. Na wysoką ocenę zasługuje także bardzo interesujące i kompleksowe przeprowadzenie rozważań na temat koncepcji natury ludzkiej w kształceniu menedżerów, co nie jest zadaniem prostym, ale autor dobrze sobie z nim poradził, w tym w sposób bardzo przejrzysty i kompleksowy omówił tematykę przywództwa. Rozdział czwarty zawiera omówienie metodologii badań i wyników badania. Autor w sposób wyczerpujący omawia przyjęte założenia metodologiczne, uzasadniając przyjęte przez siebie teoretyczne podstawy badań empirycznych, zasady budowy kwestionariusza wykorzystanego do badań empirycznych i charakterystykę dobranej próby respondentów. Te trzy elementy są ze sobą logicznie powiązane, a punktem wyjścia jest teoria X/Y McGregora. Dobór techniki badań należy uznać za prawidłowy. Autor wykorzystuje sprawdzone w badaniach wcześniej prowadzonych przez Kopelmana kwestionariusze, co oprócz sprawdzonej ich przydatności pozwala porów- 127 nać wyniki badań polskich menedżerów z badaniami menedżerów prowadzonymi za granicą. W sposób wystarczający uzasadnia również zastosowane przez niego statystyczne miary interpretacji danych. Interpretacja wyników badań została przeprowadzona w sposób prawidłowy i w wielu przekrojach pozwalających wszechstronnie spojrzeć na uzyskane wyniki. Autor wskazuje na pewne ograniczenia wynikające z doboru próby (tylko menedżerów) oraz struktury (wiek, płeć, staż pracy, wielkość przedsiębiorstwa) uzyskanych od niej zwrotnie kwestionariuszy. Zwraca między innymi uwagę na nadreprezentację menedżerów pracujących w dużych przedsiębiorstwach. Zdaniem recenzenta, nie jest to akurat zbyt duże ograniczenie, gdyż pozwala lepiej poznać badane relacje w odniesieniu do specjalizacji menedżera, jego miejsca w strukturze organizacyjnej. Takich możliwości nie stwarzają małe przedsiębiorstwa. Prezentowane wyniki należy uznać za istotne dla poszerzenia wiedzy na podjęty przez autora temat, wnoszące wiele ciekawych wniosków zarówno z punktu widzenia weryfikacji istniejących koncepcji teoretycznych, jak i praktyki zarządzania zasobami ludzkimi. Wyniki badań potwierdzają między innymi podkreślane przez wielu autorów duże znaczenie komunikacji menedżerów z pracownikami jako istotny element relacji pracowniczych w przedsiębiorstwie. Ważne dla praktyki zarządzania są wynikające z badania wnioski, zwłaszcza dotyczące systemów zachęt i wynagrodzeń, pracowitości pracowników, poglądów menedżerów z różnych grup wiekowych oraz z punktu widzenia pełnionych przez nich funkcji na temat cech natury ludzkiej. 128 Recenzje i rekomendacje Ostatnia część pracy – „Zakończenie i wnioski” – jest podsumowaniem rozważań, zawiera oprócz wniosków autorskie uogólnienie koncepcji homo administratus w naukach o zarządzaniu. W rozwoju każdej dyscypliny naukowej duże znaczenie mają badania poświęcone próbom uporządkowania dotychczasowego stanu wiedzy oraz opracowania nowych, uwzględniających postęp wiedzy i zmiany zachodzące w otoczeniu gospodarczym, koncepcji teoretycznych zmiany te objaśniających. Takie wyzwanie podjął w swoim opracowaniu Jacek Miroński, starając się chociaż po części zanalizować założenia dotyczące natury ludzkiej mające miejsce w teorii i praktyce nauk o zarządzaniu. Proponowana przez niego koncepcja homo administratus, będąca swoistym novum w rozważaniach teoretycznych w sferze nauk o zarządzaniu, i podjęta przez niego próba empirycznej weryfikacji tych rozważań pozwoliły stworzyć podstawę dla dalszych, bardziej pogłębionych badań w tym zakresie. Oznacza to, że recenzowana praca stanowi swo- isty ważny krok w rozwoju dziedziny nauk o zarządzaniu i dotyczy problemu dotąd nieznajdującego podejścia tak kompleksowego i w takim ujęciu, jak to czyni autor. Podjęta problematyka badawcza nie tylko jest ważna, jak wyżej stwierdzono, dla rozwoju nauki, ale jednocześnie może stanowić podstawę dla formułowania praktycznych zaleceń w sferze zarządzania zasobami ludzkimi. Prawidłowo ukształtowane relacje pomiędzy przełożonymi a podwładnymi są szczególnie ważnym instrumentem inspirowania personelu do realizacji celów organizacji. Budowa prawidłowych relacji wymaga od przywódców posiadania określonych umiejętności, a te są między innymi pochodną wiedzy będącej wynikiem przeprowadzonych badań. Badania empiryczne przeprowadzone przez Autora pozwoliły na wysunięcie wielu interesujących wniosków odnoszących się do postaw menedżerów firm polskich wobec pracowników. Jerzy Schroeder Uniwersytet Ekonomiczny w Poznaniu