Pobierz numer

Komentarze

Transkrypt

Pobierz numer
Kwartalnik poświęcony potrzebom nauki i praktyki
2010 Nr 4 (48)
OPTIMUM
STUDIA EKONOMICZNE
SPIS TREŚCI
STUDIA I ROZPRAWY............................................................................................ 3
Ewa Drabik – O matematycznym modelowaniu zjawisk gospodarczych i interakcji
społecznych .................................................................................................................................... 3
Danuta Strahl – Wykorzystanie metod porządkowania liniowego do budowy ścieżki
harmonijnego rozwoju innowacyjności regionalnej .................................................................. 18
Krzysztof Jajuga – Assessment of Model Risk in Financial Markets .............................. 35
Joanna Olbryś – Ocena efektywności zarządzania portfelem funduszu inwestycyjnego
z wykorzystaniem wybranych wieloczynnikowych modeli market-timing ........................................ 44
Ewa Roszkowska – Koncepcja i zastosowania uogólnionej gry w badaniach ekonomicznych ..... 62
Piotr Wojewnik, Tomasz Kuszewski – From Crisp Optimization to Fuzzy
Approach and Machine Learning – Operations Research Evolution ................................... 82
Tomasz Szapiro – Iterowane cykle decyzyjne – próba opisu zunifikowanego .................... 109
Krzysztof Barteczko, Andrzej F. Bocian – Modelowanie makroekonomiczne –
potrzeby i dylematy ............................................................................................................. 130
Marcin Błażejowski, Paweł Kufel, Tadeusz Kufel – Automatic Procedure of Building
Specification of Dynamic Congruent Model in Gretl Package........................................................ 152
Józef Rogowski – Na marginesie artykułu T. Tokarskiego pt. Przestrzenne zróżnicowanie
łącznej produkcyjności czynników produkcji w Polsce, opublikowanego w „Gospodarce
Narodowej” nr 3/2010 ................................................................................................................ 160
Dorota Perło – Regionalny model efektywnego zarządzania długiem jednostek samorządu
terytorialnego w Polsce.......................................................................................................... 169
STUDIA I ROZPRAWY
Ewa DRABIK1
O MATEMATYCZNYM MODELOWANIU ZJAWISK
GOSPODARCZYCH I INTERAKCJI SPOŁECZNYCH
Streszczenie
Celem artykułu jest zaprezentowanie kierunków i trendów, z którymi można się zetknąć podczas
modelowania zjawisk ekonomicznych, procesów gospodarczych i interakcji społecznych oraz pokazanie, w jaki sposób kształtowało się owo modelowanie na przestrzeni wielu lat. Ogólna teoria modeli
matematycznych ma swój własny język, który w przypadku zagadnień ekonomicznych przyjmuje ściśle
określoną formę, zależną od charakteru opisywanych zagadnień.
Słowa kluczowe: modelowanie zjawisk gospodarczych, ekonometria, teoria gier, badania operacyjne
ON MATHEMATICAL MODELLING OF ECONOMIC PHENOMENA AND SOCIAL
INTERACTIONS
Summary
The aim of this article is to present trends and tendencies which may be encountered while modelling economic phenomena, processes as well as social interactions, and to illustrate how the above
modelling had been shaped over the years. The general theory of mathematical models has its own
language which – in the case of economic models – takes its specific, strictly specified form, depending on the nature of described issues.
Keywords: modelling of economic phenomena, econometrics, game theory, operations research
1. Wstęp
Świat matematyki można sobie wyobrazić jako układ koncentrycznych warstw otaczających jądro
matematyki czystej [Współczesna matematyka… 1983 s. 19]. Problemy pojawiające się w warstwach zewnętrznych owej struktury, gdzie matematyka czysta łączy się z naukami stosowanymi, „zaopatrują” centralną cześć matematyki w nowe obiekty, nowe metody
i pojęcia. Zagadnienia z matematyki stosowanej mogą więc generować nowe idee matematyczne będące podstawą do powstania całkiem innych problemów niż te, które
przyczyniły się do ich powstania. Możliwa jest również relacja odwrotna. Nie wiadomo
bowiem do końca, jakie pojęcia i teorie zaczerpnięte z matematyki czystej okażą się
przydatne w praktyce. Posługiwanie się językiem matematyki w opisie zjawisk gospo1
Prof. dr hab. Ewa Drabik jest pracownikiem Wydziału Zarządzania Politechniki Warszawskiej.
4
Ewa Drabik
darczych i interakcji społecznych ma dosyć długą historię. Jeszcze dłuższą historię ma
sama matematyka, rozumiana jako nauka, która wyłoniła się z potrzeb społecznych.
Matematyka należy do tych niewielu nauk, których elementy zaczęły się kształtować wraz z rozwojem ludzkości. Wyobrażenia matematyczne kształtowały się pod
wpływem codziennego doświadczenia. Znaczące postępy w tej dziedzinie zostały dokonane już w starożytnym Egipcie, Grecji. Przed starożytnymi Grekami nie było właściwie matematyki w naszym tego słowa rozumieniu. Istniały jedynie rozproszone recepty na rozwiązanie poszczególnych zadań, związanych z: rolnictwem, budownictwem,
rachunkami handlowymi, podatkami i wojskowością. Liczby całkowite wyłoniły się
właśnie z ludzkich doświadczeń. Arabski system liczbowy, który jest uznawany do dnia
dzisiejszego, został stworzony przez matematyków Środkowego Wschodu w Średniowieczu. Liczby ujemne, z kolei, wprowadzone wprawdzie już przez, greckiego matematyka, Diofantosa w III w. n. e., a rozwinięte w VIII wieku n.e. przez Hindusów, przez
dłuższy czas nie trafiały na podatny grunt, gdyż nie było potrzeby ich stosowania. Dopiero wiek XV, a przede wszystkim XVIII stworzył podstawy do pełnego rozwoju liczb
ujemnych. Po ich wprowadzeniu (liczby niewymierne były znane już wcześniej) można
było posługiwać się pełnym zbiorem liczb rzeczywistych. Prawdziwą eksplozję rozwoju
zagadnień matematycznych odnotowano w XVII i XVIII wieku. Wtedy też matematyka zaczęła się rozwijać jako samodzielna nauka. Wówczas to nowoczesna fizyka zaledwie zdążyła się narodzić, chemia była w stadium embrionalnym, ekonomia wprawdzie
istniała, ale była to nauka głównie opisowa, wykazująca co najwyżej potrzebę „uściślenia” szeregu zagadnień, zaś biologia – w dzisiejszym rozumieniu tej nauki – „nawet się
nie poczęła”. W wieku XIX i na początku XX matematyka i inne nauki zostały gruntownie przekształcone przez odkrycia, z których szybko wyrosły ogólne teorie. I tak
na przykład teoria grup, pozostająca w XIX wieku w ramach algebry, została wykorzystana przez fizykę XX wieku. Również pod koniec XIX wieku niemiecki matematyk George Cantor zaczął badać nieskończone zbiory liczb, a także inne „nieskończone” obiekty matematyczne. W efekcie doprowadził do stworzenia teorii mnogości, w rozwinięciu której brali udział również Polacy, tacy jak: Wacław Sierpiński, Kazimierz Kuratowski, a także matematycy ze słynnej szkoły lwowskiej. Okazało się, że
język formalny, którego używa się do opisu zbiorów, może być z powodzeniem stosowany do formalnego opisu większości znanych idei.
Kluczowym osiągnięciem matematyki przełomu XIX i XX wieku było jednak odkrycie geometrii nieeuklidesowych, których podstawową własnością jest to, że nie musi
być spełniony aksjomat równoległości. Jedna z takich geometrii, riemannowska, powstała na bazie działów matematyki opracowanych przez XIX-wiecznego uczonego, Bernarda Riemanna i stała się punktem wyjścia przy opracowywaniu modeli istotnych dla
teorii względności. Przy tworzeniu teorii względności zostały również wykorzystane
inne działy XIX-wiecznej matematyki, chociażby rachunek tensorowy, opracowany
w ramach geometrii różniczkowej. W owym czasie powstały także: algebra macierzy,
teoria grup, algebra Boole’a i prawie natychmiast znalazły zastosowanie w ekonomii,
elektrotechnice oraz fizyce atomu. Generalnie, można przyjąć, że wiek XIX był kluczowy przy powstawaniu wielu nowoczesnych dziedzin wiedzy wykorzystujących symbole matematyczne. W wiek XX matematykę wprowadził David Hilbert, który w 1900
O matematycznym modelowaniu zjawisk gospodarczych…
5
roku Kongresowi Matematycznemu przedstawił listę 23 nie rozstrzygniętych problemów matematycznych. Bez wątpienia, problemy te wywarły ogromny wpływ na kierunki badań matematycznych w dwudziestym wieku. Jednak chyba najbardziej spektakularnym wynikiem okazało się twierdzenie o nierozstrzygalności wielu problemów, zaprezentowane w latach 30. XX wieku przez Kurta Godla. Zburzył on dotychczasową pewność,
że w naturze matematyki leży formułowanie i rozwiązywanie zagadnień, przy czym nie
może być tak, ażeby „coś” pozostało na zawsze nie rozstrzygnięte lub nieznane. Godel
pokazał, że: żaden istotny system formalny nie może być na tyle mocny, aby można było w nim dowieść lub obalić każde zdanie, które da się wypowiedzieć [Współczesna matematyka… 1983 s. 18].
Wbrew powszechnemu przekonaniu o czystości matematyki, na przestrzeni wielu
wieków można było zaobserwować, że ma ona, podobnie jak i wiele innych nauk, charakter społeczny i służy określonym potrzebom społecznym. W każdym okresie historycznym istniejące warunki społeczno-ekonomiczne stwarzały bowiem pewne konkretne potrzeby związane z kulturą materialną i polepszeniem jakości życia, do czego wykorzystywano mniej lub bardziej skomplikowane obliczenia. Równolegle powstawały nowe gałęzie matematyki, oderwane na danym etapie rozwojowym od zastosowań praktycznych. Nie ulega jednak wątpliwości, że ostatecznie o utrzymaniu
się danej gałęzi matematyki decydowały bezpośrednie lub pośrednie powiązania z innymi użytecznymi dziedzinami wiedzy. Często także okazywało się, że jedna i ta sama idea matematyczna może być stosowana w całkowicie różnych dyscyplinach wiedzy. Z punktu widzenia niniejszej pracy, szczególnie są ważne zastosowania matematyki
w ekonomii i naukach społecznych.
Praca została zbudowana w następujący sposób. Rozdział pierwszy został poświęcony historycznym aspektom modelowania zjawisk ekonomicznych i interakcji społecznych. Poruszony został także problem formalnego przedstawienia równowagi rynkowej. W rozdziale drugim zaprezentowano ogólne zasady stosowania symboli matematycznych do opisu, a tym samym modelowania zjawisk występujących w praktyce.
Sposoby modelowania zjawisk ekonomicznych opisano w rozdziale trzecim. Wspomniano przy tym, że modelowaniem zjawisk ekonomicznych, procesów gospodarczych,
jak również interakcji społecznych zajmują się takie dziedziny, jak: ekonomia matematyczna, ekonometria, badania operacyjne oraz teoria gier.
2. Modelowanie ekonomiczne w ujęciu historycznym
Ekonomia jest m.in. teorią dotyczącą mechanizmów, przy pomocy których jest dokonywana alokacja zasobów, a także uczestnicy rynku podejmują aktywność produkcyjną służącą do zaspokojenia ich potrzeb. Zarządzanie procesami produkcyjnymi
i umiejętne alokowanie dostępnych zasobów wymaga z kolei podejmowania decyzji.
Czynności związane z tymi procesami ludzie wykonywali od zarania dziejów. Jednak
gwałtowny rozwój ekonomii jako teorii, a właściwie teorii gospodarki wolnorynkowej,
nastąpił po roku 1776, kiedy to ukazała się praca Adama Smitha zatytułowana pt. In
Inquiry into the Nature and Causes of the Wealth of Nations (Badania nad naturą i przyczynami bogactwa narodów), w której znalazły się słynne słowa o „niewidzialnej ręce rynku”. Oprócz
6
Ewa Drabik
tych słów, we wspomnianej pracy, Smith wprowadził pojęcie wartości naturalnej, co
obecnie jest utożsamiane z tzw. ceną równowagi. Smith rozumiał wartość naturalną
jako cenę przeciętną, „ustalającą się” w dłuższych okresach, równą sumie płac, renty
gruntowej i zysków z kapitału, co składało się na koszty produkcji. W miarę rozwoju tej
teorii okazało się, żeby sprawdzić argumenty Smitha dotyczące zharmonizowanych interakcji nieskrępowanej gospodarki, jest niezbędna jakaś naturalna struktura pozwalająca
modelować i oceniać interakcje uczestników rynku i formułować w odniesieniu do tego
wnioski wynikające z tych interakcji. Można powiedzieć, że już wówczas zaistniała więc
potrzeba tworzenia modeli służących do opisu zjawisk ekonomicznych.
Mniej więcej w tym samym czasie, francuski ekonomista, François Quesnay (1694
– 1774), podjął próbę stworzenia mechanizmu rządzącego gospodarką. W rezultacie, w 1759 roku, powstała pierwsza w ekonomii tablica przepływów międzygałęziowych, tzw. tableu economique, co można uznać za jeden z pierwszych modeli ilustrujących
określone zjawisko ekonomiczne.
Modelowanie zjawisk gospodarczych i społecznych zostało oparte na uproszczonym odzwierciedleniu rzeczywistości. Eliminowanie informacji mających niewielkie
znaczenie, pozwalało ekonomistom skupić się na zasadniczych cechach rzeczywistości
ekonomicznej. Samo konstruowanie modeli stało się metodą stosowaną w celu uproszczenia problemów i zwiększenia w ten sposób szans na ich rozwiązanie. Obecnie również modelem nazywa się bądź zbiór założeń upraszczających, bądź sam przedmiot
modelowania lub też zbiór przedmiotów spełniających określone założenia. Istnieje
podział modeli na realne i nominalne. Model realny można otrzymać przez konstrukcję
fizycznego układu przedmiotów, upraszczającego badaną rzeczywistość, a zarazem dostatecznie do niej upodobnioną. Model nominalny to, w pewnym sensie, również układ
„przedmiotów”, którymi mogą być indywidua, klasy, a nawet relacje przyporządkowane
wyrażeniom danej teorii. Niezależnie od rodzaju modelu, należy pamiętać, że jest on
tylko formalnym opisem wymagającym weryfikacji. Sprawdza się go doświadczalnie. Jeżeli
wynikające z niego wnioski pasują do rzeczywistości, można go uznać za model dobry.
W przypadku ekonomii oraz nauk społecznych model powinien być jednak dostatecznie szeroki, aby umożliwić uwzględnienie całego szeregu zjawisk i reakcji ekonomicznych. Rzeczywiste używanie symboli matematycznych w opisie zjawisk gospodarczych zostało zapoczątkowane dopiero w XVIII wieku przez Antoine’a Cournota
(1802 – 1877) w, wydanej w 1838 roku, książce zatytułowanej Rozważania nad zasadami
matematycznymi teorii bogactwa. Należy jednak zaznaczyć, że przez wiele lat nie sprzedano
ani jednego egzemplarza tej książki, ale, jak się okazało, nie z powodu wzorów, tylko
braku zrozumienia! W 1863 roku Cournot zdecydował się na nowe wydanie, z którego
usunął matematykę, co, niestety, nie zwiększyło poczytności tekstu. Podobny los spotkał także inne prace opatrzone wzorami matematycznymi. Dopiero w latach 70. XIX
wieku posługiwanie się matematyką stało się powszechne. Zaczęły się pojawiać modele
matematyczne zmierzające do opisu zjawisk ekonomicznych przy pomocy układów
równań. Modele proponowane przez Leona Warlasa w Szwajcarii (1834-1910) i Wilfreda
Pareto we Włoszech (1848-1923) zapoczątkowały nurt w ekonomii zwany szkołą matematyczną. Warlas w pracy zatytułowanej Elementy ekonomii politycznej (1874) użył
układu równań do opisu zależności pomiędzy cenami towarów a popytem i podażą.
O matematycznym modelowaniu zjawisk gospodarczych…
7
Nie umiał wprawdzie go rozwiązać, ale sugerował w ten sposób, że istnieje cena, przy
której obie wymienione wielkości wyrównują się, zachowując inne warunki założone
w tym opisie. Innymi słowy, sugerował, że istnieje punkt równowagi dający się wyrazić
w postaci liczbowej. Poprawny dowód istnienia punktu równowagi nie był jednak
w tym czasie możliwy do przeprowadzenia, gdyż nawet matematyka nie dysponowała
odnośnymi narzędziami. Brakowało na przykład twierdzenia o punkcie stałym, które
dopiero w 1909 roku sformułował i udowodnił Brouwer [Wycech-Łosiowa 1973].
John M. Keynes (1883-1946), autor epokowego dzieła General Theory of Employment,
Interest of Money (Ogólna teoria zatrudnienia, procentu i pieniądza) z 1936 roku, wpłynął zasadniczo na dalszy rozwój myśli ekonomicznej, lecz zasłynął z tego, że niezbyt chętnie stosował matematykę w swoich badaniach, a tych, co ją stosowali, wręcz dyskryminował.
Twierdził proroczo, że to głównie reakcje psychologiczne uczestników rynku pozwalają
osiągnąć stan równowagi. Dopiero czytelnicy Keynesa, na przykład L.R. Klein, na podstawie jego opisowych teorii tworzyli sformalizowane modele gospodarcze. Odnotować
także należy, że wraz z rozwojem modelowania ekonomicznego pojawiały się i inne
liczne głosy krytyki. Pisano: […] Rachunki nie są przyczyną, ani skutkiem i z tego względu nie
są przedmiotem naszych dociekań. Otóż we wszystkich naukach pewność tkwi w oczywistości samych
przedmiotów. Jeśli nie osiągniemy tej oczywistości, która poddaje rachunkowi fakty i dane dające się liczyć i mierzyć, rachunek nie naprawi naszych błędów [Siedlecki 2000 s. 13].
Powszechnie przyjmuje się, że współczesna ekonomia matematyczna i ekonometria
narodziła się na przełomie lat 20. i 30. XX wieku „w serii prac” genialnego matematyka
węgierskiego pochodzenia, o szerokich zainteresowaniach, Johna von Neumana (1903
– 1957). Był on autorem całego szeregu prac z zastosowań matematyki w różnych
dziedzinach wiedzy. Jego przyjaciel, amerykański matematyk polskiego pochodzenia,
Stanisław Ulam twierdził nawet, że jedyną dziedziną, w której von Neuman nie próbował stosować matematyki, była stomatologia. Von Neuman zauważył, że wiele zagadnień
ekonomicznych, zwłaszcza tych, w których dochodzi do rywalizacji, albo też kooperacji,
można „spaizować” (od greckiego słowa oznaczającego „grę”), co oznacza, że można
sformułować je w języku teorii gier. W 1937 roku Neuman napisał pracę o wiele mówiącym tytule O pewnym układzie równań ekonomicznych i uogólnieniu twierdzenia Brouwera o punkcie stałym. Jego artykuły z zastosowań matematyki w ekonomii zostały zebrane w pracy
Theory of games and economic behavior (Teoria gier i postępowania ekonomicznego), która ukazała
się w 1944 roku, a została opublikowana wspólnie z ekonomistą Oskarem Morgensternem. Warto jednak w tym miejscu nadmienić, że twórcami szeroko rozumianej teorii
gier, wyrosłej z matematyki, a stosowanej m.in. w naukach społecznych, są polscy matematycy ze słynnej szkoły lwowskiej. Pierwsza praca z teorii gier autorstwa Hugona
Steinhausa z 1925 roku zatytułowana Definicje potrzebne do gry i pościgu ukazała się w jednodniówce „Myśl akademicka” we Lwowie. Jest to niewielka praca, nie mająca nawet
charakteru publikacji naukowej, w której zostało wprowadzone pojęcie strategii (rozumianej jako sposób gry), normalizacji gry, pojęcie funkcji wypłaty, które charakteryzuje
każdą grę, oraz zasada wyboru strategii minimaksowej. Według Steinhausa, gra jest walką i zabawą równocześnie i nie istnieje cywilizacja bez gier. Należy jednak zaznaczyć, że,
pisząc tę pracę, Steinhaus nie wiedział, iż znany matematyk Emil Borel parę lat wcześniej (1921, 1924) doszedł do podobnych, co on sam, wniosków, wprowadzając pojęcie
8
Ewa Drabik
strategii czystej, mieszanej i był bliski sformułowania twierdzenia o minimaksie. Po wojnie praca Steinhausa była nieosiągalna i sam autor ustanowił nagrodę za jej odnalezienie.
W roku 1957 profesor Ajdukiewicz znalazł egzemplarz w bibliotece Uniwersytetu Lwowskiego. Następnie w roku 1960 za sprawą Stanisława Ulama praca ta, po przetłumaczeniu, dotarła do Stanów Zjednoczonych. Została opublikowana w piśmie fachowym
zajmującym się sprawami morskimi – „Naval Research Logistic Quaterly” i została opatrzona wstępem przez znanego ekonometryka Harolda Kuhna2 [Ryll-Nardzewski 1973].
Inne prace z zakresu teorii gier, a właściwie dotyczące sprawiedliwego podziału, pisali
Stefan Banach i Bronisław Knaster, również ze lwowskiej szkoły matematyki.
Należy odnotować, że także Abraham Wald był autorem dwóch prac ekonomicznych, które uzupełnił wzorami (1935, 1936). Zostały w nich sformułowane modele
matematyczne opisujące zjawiska gospodarcze oraz podano ścisłe dowody istnienia
równowagi w tych modelach. Prace te zostały jednak docenione dopiero w latach
50. XX wieku i stały się impulsem powstania nowych kierunków badań we współczesnej ekonomii. Prace Walda dały początek teorii równowagi ogólnej, a prace
Neumanna teorii liniowych modeli wzrostu gospodarczego.
Pisząc o pionierskich pracach z ekonomii, w których użyto matematyki, nie sposób
nie wspomnieć o pracach Jana Tinbergena i Michała Kaleckiego.
W lipcu 1933 roku nakładem Instytutu Badań Koniunkturalnych ukazała się praca
Michała Kaleckiego Próba teorii koniunktury. Jesienią tego roku jej skróconą wersję Kalecki przedstawił w języku niemieckim na III Europejskiej Konferencji Towarzystwa
Ekonometrycznego (Leyden, 30.09 – 2.10.1933 r.). Angielska wersja, wspomnianego, referatu zatytułowana A Macrodynamic Theory of Bussines Cycles została opublikowana w 1935 roku w Econometrice. W analogicznym okresie opublikowano również
francuską wersję Próby teorii koniunktury.
Głównym przedmiotem Próby teorii koniunktury jest teoria cyklu, a także problemy związane z nakręcaniem koniunktury światowej oraz aspektami pełnego zatrudnienia. Cyklami koniunkturalnymi Kalecki zajął się, ponieważ zainspirowała go praca Tinbergena Ein Schiffbauzyklus? [Zob.: Tinbergen 1931 s. 152 – 164]. Tinbergen
przedstawił w niej model endogenicznego cyklu budowy statków i opisał za pomocą
równania różniczkowego z opóźnieniem:

f t   a ft   , a  0 ,
gdzie   2 jest opóźnieniem,
ft jest funkcją rozmiarów globalnego tonażu,

f t przyrostem tonażu w czasie t (pierwsza pochodna po czasie),
a jest współczynnikiem intensywności reakcji zmian tonażu w stosunku do jego
globalnych rozmiarów.
2 Harold Kuhn wspominał również o tym fakcie, prezentując referat zatytułowany 58 years as a game
theorist: where have we been and are we going?, w trakcie konferencji z teorii gier: SING w roku 2006 we Włoszech.
Nadmienił przy tym, że jest to pierwsza praca o grach.
O matematycznym modelowaniu zjawisk gospodarczych…
9
Opóźnienie  oraz intensywność reakcji a prowadzą w modelu Tinbergena do
cyklicznych wahań budowanych statków. Ten właśnie pomysł wykorzystał Kalecki
w Próbie teorii koniunktury, gdzie opisał: cykliczne zmiany inwestycji, zysków, globalnej produkcji i zatrudnienia. Swoją teorię obwarował wieloma bardzo istotnymi założeniami. Przyjął, między innymi, że układ gospodarczy jest zamknięty i pozbawiony trendu, co w gruncie rzeczy prowadzi do tego, iż po każdym cyklu powraca do stanu pierwotnego. Dodatkowo założył, że ogólna wielkość zapasów w okresie całego
cyklu pozostaje stała. Kolejne ważne założenie dotyczyło czasu wykonania inwestycji.
Był przekonany on bowiem, że czas ten nie zależy od rodzaju inwestycji.
Model cykli koniunkturalnych, zaprezentowany przez Kaleckiego, nie doczekał się
jednak należytego miejsca w teorii ekonomii. Łączy się ów model raczej z nazwiskiem
Nicolasa Kaldora, który go udoskonalił [Drabik 2003]. Teorie ekonomiczne Kaleckiego bardzo często są poparte wyrafinowanym, jak na współczesne mu czasy, aparatem matematycznym. Warto dodać, że Kalecki był samoukiem zarówno z matematyki, jak i ekonomii.
Kolejnym, wartym odnotowania, faktem jest książka Paula Samuelsona zatytułowana Zasady analizy ekonomicznej z 1945 roku, która została opatrzona przez autora wiele
mówiącym mottem: Matematyka to język [Wycech-Łosiowa 1973 s. 106].
Lata powojenne to stopniowy i coraz intensywniejszy rozwój: ekonomii matematycznej, ekonometrii, badań operacyjnych i teorii gier. Wymienione dziedziny starały się
ująć w postaci modeli zasadnicze procesy gospodarcze, jakimi są: produkcja, transport,
rozdział strumieni dóbr, wzrost gospodarczy, teoria cykli koniunkturalnych, wszelkiego
rodzaju procesy decyzyjne, a także konkurencja, kooperacja i negocjacje. Za pomocą
matematyki badano te procesy, wyciągając wnioski o treści ekonomicznej. Do konstrukcji modeli ekonomicznych, ekonometrycznych i decyzyjnych używano wielu pojęć
matematycznych, w zależności od poruszanej tematyki. Wiele zagadnień zostało sformułowanych w języku „podzbiorów wypukłych przestrzeni liniowych” i ich przekształceń ciągłych, a głównym narzędziem dowodowym stały się twierdzenia o punkcie stałym. Badania operacyjne (oparte na podejmowaniu decyzji), zawierające teorię optymalizacyjną, posługiwały się programowaniem liniowym i dynamicznym. Podejmowanie
decyzji, jak powszechnie wiadomo, jest elementem każdej działalności gospodarczej.
Prawie w każdym przypadku przy podejmowaniu decyzji trzeba spełnić określone warunki. Można zatem mówić o zbiorze decyzji dopuszczalnych, który w większości przypadków jest wypukłym podzbiorem pewnej przestrzeni, zaś liczba elementów tego
zbioru jest równoliczna ze zbiorem liczb rzeczywistych (ma moc continuum). W związku
z istnieniem nieskończonej liczby decyzji dopuszczalnych, zrozumiałe jest dążenie ekonomistów do podjęcia decyzji najlepszej, w sensie optymalnej. W tym celu formułuje się
kryterium optymalizacyjne. Zarówno kryterium optymalizacyjne, jak i same warunki zapisuje się w języku matematyki, a kryterium przedstawia się jako funkcję celu. Do zapisania i rozważenia owych warunków używa się algebry liniowej. Algebra liniowa służy
w tym przypadku do opisywania obiektów strukturalnych, umieszczonych w przestrzeniach Rn. W tym przypadku pojawia się potrzeba zmiany sposobu myślenia w odniesieniu do przejścia z płaszczyzny lub „namacalnej” jeszcze przestrzeni R3 do Rn, co może
stanowić sporą trudność dla ekonomistów. Rn nie jest „po prostu kolejną” przestrzenią,
10
Ewa Drabik
lecz uogólnieniem teorii przestrzeni pewnego typu. Przez to stosowanie algebry do
opisu zjawisk ekonomicznych wymaga swobodnego przechodzenia od języka operatorów liniowych do języka macierzy.
Coraz częściej stosuje się, zwłaszcza przy modelowaniu procesów ekonomicznych zmieniających się w czasie, równania różniczkowe. Często, gdy trajektorie będące rozwiązaniami tychże równań „tracą” stabilność, remedium na ten „kłopot” staje
się teoria chaosu [Creedy 1994]. Sięgnięto również do procesów stochastycznych, gdyż
wiele zmieniających się w czasie zagadnień ekonomicznych zależy od przypadku, a randomizacja decyzji jest sprawą dość powszechną. Coraz częściej również stosuje się
w ekonomii wyniki dotyczące gier, w tym bayesowskich (np. aukcje). Konkurencja
i kooperacja prezentowane w języku teorii gier to coraz częściej rozważane zagadnienia nie tylko w ekonomii, ale również zarządzaniu. Na szczególną uwagę zasługuje
„wymyślony” przez Melvina Dreshera i Merrila Flooda z Rand Corporation w latach
50. XX wieku „dylemat więźnia”, który, jak się okazało, nie jest patologią, ale normą w naukach społecznych.
Coraz więcej zagadnień ekonomicznych pozornie „niematerialnych”, ponieważ
sterowanych przez „niewidzialną rękę rynku”, daje się wyjaśnić przy pomocy zmatematyzowanych praw fizyki. Dotyczy to wielu zagadnień, zwłaszcza związanych ze
stanami równowagi. Od pewnego czasu przyjmuje się bowiem, że równowaga ekonomiczna to nie tylko równość popytu i podaży, ale również stan gospodarki, do którego układ pozostawiony sam sobie samoczynnie dąży pod wpływem pola „sił”, które na
niego oddziałuje. Istnieje podejście mówiące, że w wielu układach ekonomicznych stan
tzw. równowagi trwałej może być stanem wymuszonym przez skończoną liczbę oscylacji.
Przy takim podejściu do analiz używa się tzw. modelu pajęczyny. Można wprawdzie
spotkać się z twierdzeniem mówiącym, że trwałe stany równowagi wymuszonej nie
są ekonomicznie pożądane, jednak nikt nie kwestionuje, iż są one konieczne do osiągnięcia różnych celów, w tym pozaekonomicznych.
Analiza dynamicznego charakteru równowagi, nie zawsze oczywistego dla niektórych ekonomistów, oraz zjawiska równowagi cząstkowej (ruchomej) doprowadziła
do skonstruowania odpowiednich modeli dynamicznych całego szeregu zjawisk.
Modelami takimi, a także określeniem ich stabilności zajmowali się: wspomniany już
P. Samuelson, K.J. Arrow, T. C. Koopmans, J.R. Hicks, G. Stigler, R. Lucas oraz inni.
Warto dodać, że ze względu na złożoność obliczeniową współczesnych modeli określających układ ekonomiczny w równowadze, a także nawracające coraz głębsze kryzysy społeczno-ekonomiczne, pojawiło się w ekonomii pojęcie nierównowagi jako
stałej cechy układów gospodarczych [Siedlecki 2000 s. 19].
3. Symbolika i modelowanie
Symboliką posługiwano się już w starożytności. Pozwalała ona bowiem na uściślenie
języka i przekształcenie go w wygodny aparat ułatwiający myślenie. Symbole matematyczne stanowią uniwersalny aparat, który powstał z tradycji mowy i pisma. Język symboli matematycznych ma to do siebie, że pozwala na zapisanie dowolnej teorii, w której
O matematycznym modelowaniu zjawisk gospodarczych…
11
celowe wydaje się użycie „języka matematyki”. Stosuje się przy tym syntaktyczne środki
języka: związki logiczne zastępują spójniki, funkcje opisują relacje pomiędzy podmiotem
a orzeczeniem, kwantyfikatory zastępują słowa „wszystkie”, „pewne” itp. Należy jednak
pamiętać, że nie istnieje „język matematyczny”, który mógłby posłużyć do opisania nawet najbardziej wyrafinowanych teorii matematycznych bez słów. Umiejętne stosowanie symboliki, łącznie z tekstem, zwiększa dokładność nie tylko wykładu matematycznego, ale również wielu innych dziedzin z zakresu zastosowań matematyki. Należy pamiętać o tym, że do wykazania słuszności rozumowania nie są aż tak konieczne wyrafinowane pojęcia i struktury aksjomatyczne. Wystarczy do tego celu jedynie zrozumienie
zastosowanych symboli i jasna idea tego, co zamierza się napisać [Thom 1974].
Nie ulega wątpliwości, że aby stworzyć jakikolwiek model przy użyciu języka matematyki, trzeba biegle operować podstawowymi pojęciami z tej dziedziny. Postęp matematyki i jej żywotność zależały zawsze od abstraktu, który pomagał konkretowi, oraz od konkretu żywiącego abstrakt [Kac 1963 s. 203].
W celu ścisłego, symbolicznego opisu całego szeregu zjawisk, stworzono nawet
teorie modeli, o której można powiedzieć, że ma swój własny język. Celem tej teorii
jest badanie zależności pomiędzy zdaniami lub zbiorami zdań zapisanymi w języku
formalnym a zbiorami złożonymi z różnorodnych, charakterystycznych dla opisywanych zjawisk, elementów. Z punktu widzenia tej teorii, modelem lub strukturą
nazywamy zbiór M (zwany uniwersum) z pewnymi wyróżnionymi relacjami i funkcjami w tym zbiorze, a także pewnymi stałymi (wyróżnionymi elementami). Model M
możemy zapisać jako n-tkę w postaci:
M  M ; Ri ; f j , ct iI ; jJ ;tT ,


gdzie I, J, T są pewnymi zbiorami indeksów,
Ri jest relacją na M,
f j jest k j argumentową funkcją na M, z wartościami w M,
ct jest wyróżnionym elementem M.

Zbiór symboli L  Ri ; f j , ct

iI ; jJ ;tT
nazywa się językiem. Warto dodać, że
także język L może służyć do tworzenia innych niż M modeli. Używając symboli języka
L, można tworzyć wyrażenia oznaczające elementy zbioru M, nazywane termami,
oraz formuły wyrażające własności tych elementów.
Terminy języka L tworzy się ze zmiennych i stałych tego języka. Oznaczają one
elementy na M otrzymane przez złożenie funkcji będących interpretacjami odpowiednich symboli funkcyjnych.
Formuły języka L tworzy się z symboli L, spójników logicznych (i, lub, nie, implikacja), kwantyfikatorów (istnieje, dla każdego), zmiennych, nawiasów i symbolu równości (=). Mając więc wyznaczoną pewną klasę zdań, można opisać szczególną strukturę matematyczną M lub zbiór takich struktur, które wyrażają własności elementów
modelu M. Owe własności to zdania, czyli formuły bez zmiennych wolnych, które
wyrażają własności M. W zamyśle model M jest pewnym przybliżeniem świata po-
12
Ewa Drabik
jęć matematycznych. Z kolei, przez teorię modelu M (Th(M)) rozumie się zbiór wszystkich zdań języka L prawdziwych w M.
Mówimy, że dwa modele M i N są L równoważne, jeżeli Th(M)=Th(N). Można
również powiedzieć, że M jest elementarnym podmodelem N (MN), gdy M jest
podzbiorem N i interpretacje symboli L w M są indukowane przez interpretacje w N.
Można rozważać klasę wszystkich modeli teorii T. Zazwyczaj rozważa się modele nieskończone, ale można też prowadzić rozważania na temat liczby modeli T ustalonej
mocy [Newelski 2008].
Świat modeli matematycznych jest zatem światem przedmiotów i teorii, które są
powszechnie znane (np.: liczby rzeczywiste i zespolone, funkcje analityczne, przestrzenie
topologiczne, rozmaitości itp.). Dowodzenie twierdzeń należących do określonej teorii
sprowadza się do określenia „drogi” wychodzącej z zadań zaczerpniętych ze wspólnego
pnia i prowadzącej do takiej sytuacji, w której twierdzenie jest oczywiste. Ścisłość dowodu polega na tym, że ma on być przejrzysty i to niezależnie od znaczeń, które były wprowadzane w kolejnych fazach dowodzenia. Może się zdarzyć, że matematyczna teoria jest
całkowicie stosowalna w praktyce i takie teorie są przedmiotem niniejszej pracy.
Możliwe są oczywiście różnorodne rozszerzenia modelu podstawowego przez:
zwiększenie zbioru aksjomatów, dołączenie nowych zdań, losowe pojawienie się zdań
itp. Zależy to jednak od opisywanej sytuacji rzeczywistej (i nie tylko rzeczywistej), którą
model opisuje. Przy rozszerzaniu modelu należy jednak pamiętać, że nieskończona liczba zdań nie jest bardziej realna niż nieskończona liczba elementów.
Kierunki badań w teorii modeli oscylują wokół formalnych właściwości zdań i teoriomnogościowych właściwości modelu. Jednym z większych osiągnięć w tej dziedzinie jest na przykład stwierdzenie mówiące, że wszystkie homeomorficzne obrazy modelu M dla pewnego zbioru X są modelami dla X. Innym kierunkiem poszukiwań teorii modeli jest określenie specjalnych metod konstrukcji modeli.
Modele ekonomiczne, wyrażone przy pomocy zwięzłego języka matematyki, mają
specyficzną strukturę, która, podobnie jak w przypadku ogólnym, jest uzależniona od
charakteru omawianych zagadnień.
4. Modelowanie zjawisk ekonomicznych
Współczesny ekonomista nie może się obejść bez aparatu matematycznego. Jeden
ze swoich artykułów A. Smoluk [Smoluk 1998] zaczął słowami Henriego Theila: […]
prawa ekonomiczne wyrażają się w większości przypadków w dość prostej formie matematycznej. Otóż
wydaje się, że słowa te prawdziwie oddają istniejący stan rzeczy. Model ekonomiczny to
uproszczone odzwierciedlenie rzeczywistości, które jednak nie uwzględnia wszystkich
jej aspektów. Na ogół są informacje mające niewielkie znaczenie, co pozwala ekonomiście skupić się na cechach zasadniczych rzeczywistości ekonomicznej. W teorii modelowania zjawisk ekonomicznych przy pomocy formalizmów matematyki można
w zasadzie wyróżnić następujące dziedziny: ekonomię matematyczną, ekonometrię
i teorię podejmowania decyzji, zwaną również badaniami operacyjnymi, a także teorię
gier.
O matematycznym modelowaniu zjawisk gospodarczych…
13
Ekonomia matematyczna jest to, w uproszczeniu, dziedzina ekonomii wykorzystująca język matematyki do tworzenia modeli w postaci układu założeń o powiązaniach
między, charakteryzującymi dane zjawisko, zmiennymi ekonomicznymi. W przeciwieństwie do ekonometrii preferuje ona podejście aksjomatyczne do określonego problemu,
pomijając często weryfikację owych założeń. Model ekonomiczny, wyrażony w języku
matematyki, powinien uwzględniać istotne dla danego problemu zmienne ekonomiczne
oraz nie powinien zawierać apriorycznych założeń co do rezultatów, jakie mają powstać
w wyniku interakcji między różnymi uczestnikami opisanego zjawiska.
Istnieje podejście, które mówi, że ekonomia matematyczna zrodziła się na bazie
ekonomii klasycznej, a konkretnie, jej ważnego działu, za który uważa się teorię użyteczności. Rozważa się na ogół koszyk dóbr, względem którego uczestnicy rynku
przejawiają pewne preferencje, co w efekcie sprowadza się do tego, że wektorowi x
z przestrzeni Rn (może to być wektor określający pewne zasoby) przyporządkowuje
się liczbę rzeczywistą u(x), zwaną użytecznością wektora x. Znając natomiast funkcję użyteczności, poszukuje się takiego koszyka dóbr, który zmaksymalizuje użyteczność
przy danym układzie cen i ustalonych wydatkach. Otrzymuje się w ten sposób sformalizowane zadanie decyzyjne.
Ekonometria, z kolei, zrodziła się z powiązania badań matematyczno-ekonomicznych z doświadczeniem, zaś modele ekonometryczne to formalny, matematyczny opis
istniejących, często potwierdzonych doświadczalnie, prawidłowości ekonomicznych.
Charakteryzuje się tym, że dąży do empirycznego badania powiązań pomiędzy mierzalnymi zjawiskami ekonomicznymi. Ekonometria to także nauka zajmująca się ustalaniem
za pomocą metod statystycznych konkretnych, ilościowych prawidłowości występujących
w zjawiskach ekonomicznych. Model ekonometryczny to konstrukcja formalna, która
za pomocą równania lub układu równań przedstawia zasadnicze powiązania występujące pomiędzy rozpatrywanymi zjawiskami ekonomicznymi. Istnieją różne rodzaje modeli
ekonometrycznych: statyczne i dynamiczne, deterministyczne i stochastyczne, proste,
czyli opisujące związek tylko miedzy dwoma wielkościami i złożone, czyli ustalające relacje pomiędzy większą liczbą zmiennych. Kolejne podziały to: liniowe i nieliniowe, jednorównaniowe i wielorównaniowe, symulacyjne i prognostyczne, bezwarunkowe i warunkowe, przyczynowo-skutkowe, symptomatyczne, kontrolne i optymalizacyjne itd.
Konstruując model ekonometryczny, należy pamiętać o tym, że wskazane jest, aby posiadał on nie tylko wartość poznawczą z punktu widzenia teorii ekonomii, ale również
wartość praktyczną, czyli aby mógł służyć jako narzędzie wnioskowania w przyszłość.
Bibliografia poświęcona modelom ekonometrycznym jest ogromna.
We wstępnej części niniejszej pracy zostało zasugerowane, że budując modele,
konkretyzujemy prawa nauki. Zasugerowano także, że w zależności od „modelowanych zagadnień”, iż terminy i pojęcia naukowe powinny być dobrze zdefiniowane;
przede wszystkim określony ma być zakres znaczeniowy. Okazuje się, że jest to zbyt
mało, ażeby zbudować dobry model ekonometryczny. Istnieją bowiem liczne przeszkody uniemożliwiające prawidłową konstrukcję modelu ekonometrycznego. Należą do
nich m.in.: ubogie ilościowo, niekompletne i obarczone błędami dane statystyczne,
brak wiarygodnej teorii ekonomicznej gwarantującej bezbłędny dobór zmiennych,
zmienne wchodzące w skład modelu nie powinny być ze sobą skorelowane i ten prob-
14
Ewa Drabik
lem jest trudny do wyeliminowania. Należy również ograniczyć dążność do wprowadzenia do modelu wyłącznie zmiennych silnie skorelowanych ze zmienną endogeniczną, gdyż generowane jest w ten sposób zjawisko powtarzania. Prawdą jednak jest, że
nauki społeczne bardzo często zajmują się procesami wykazującymi silne, wzajemne
skorelowanie. Reasumując, konstrukcja modelu ekonometrycznego polega na odtworzeniu związków i relacji łączących zmienną objaśnianą z trafnie dobranymi zmiennymi
objaśniającymi. Z punktu widzenia „czystej” matematyki, model ekonometryczny jest
również „gładką rozmaitością” zanurzoną w przestrzeni euklidesowej wymiaru skończonego. Współrzędne tej rozmaitości interpretuje się ekonomicznie [Smoluk 1988].
Smoluk twierdzi także, że model ekonometryczny jest: konstrukcją sztuczną, aproksymującą w jakimś sensie dane statystyczne [Smoluk 1988].
Warto dodać, że nadrzędnym celem tworzenia modelu ekonometrycznego jest prognozowanie. Proces wnioskowania w przyszłość na podstawie modelu ekonometrycznego nazywa się predykcją, zaś konkretny wynik tego procesu nazywa się prognozą.
Kolejne miejsce w modelowaniu zjawisk ekonomicznych zajmują procesy podejmowania decyzji. Najczęściej rozwiązuje się je przy pomocy programowania matematycznego. W celu sformułowania, a następnie rozwiązania problemu decyzyjnego można posłużyć się następującym schematem.
Zminimalizować (lub zmaksymalizować) f(x) przy warunku x, gdzie x może być:
nieznaną liczbą rzeczywistą, nieznanym wektorem liczb rzeczywistych, nieznaną funkcją, nieznanym wektorem, którego składowymi są funkcje; f oznacza daną funkcję, która
nazywana jest funkcją celu,  oznacza zbiór warunków ograniczających; zbiór ten może
być określony przy pomocy pewnego układu warunków (np. nierówności i równości). Rozwiązaniem dopuszczalnym nazywa się każdy element x zbioru , zaś rozwiązaniem optymalnym nazywa się element x* zbioru  minimalizujący (lub maksymalizujący) funkcję celu, tj.:
min f (x)  f (x*) ( max f (x)  f (x*) ).
x X
x X
Należy jednak pamiętać, że bardzo często, formułując problem, nie jest jasne, czy
istnieje rozwiązanie optymalne, mało tego, czy istnieje rozwiązanie dopuszczalne. Jeżeli
nie istnieje rozwiązanie dopuszczalne, to problem prognozowania matematycznego jest
nazywany problemem sprzecznym. W przeciwnym wypadku, problem jest niesprzeczny,
co nie jest jednak równoznaczne z istnieniem rozwiązania optymalnego [Grabowski
1980]. Warto dodać, że najbardziej znane jest programowanie liniowe (układ warunków
oraz funkcja celu są zapisane w formie równań lub nierówności liniowych). Rozwiązanie tego problemu wymaga znajomości algebry liniowej i dobrego rozumienia istoty
i własności przestrzeni Rn. Prawdopodobnie większość rzeczywistych problemów decyzyjnych to jednak problemy wielokryterialne, rozstrzygane przez grupę decydentów, którzy, podejmując decyzje, są inspirowani zasadą Pareto: dany stan świata A jest bardziej
preferowany niż B, jeśli przynajmniej jedna osoba ma lepiej, nikt gorzej, w A niż w B.
Często w procesach podejmowania decyzji powstają sytuacje zbliżone do tych,
z którymi mamy do czynienia w różnego rodzaju grach, a tym właśnie zajmuje się teoria
gier. Bada ona modele takich sytuacji decyzyjnych, w których wynik zależy od kilku niezależnych podmiotów, mających pewną swobodę działania i podejmowania decyzji,
O matematycznym modelowaniu zjawisk gospodarczych…
15
czyli graczy. Decyzje gracze podejmują w ramach reguł gry. Suma niezależnie podjętych
działań generuje nowy stan, który można uznać za wynik gry. Każdemu wynikowi odpowiada określona wypłata, która stanowi miarę stopnia osiągnięcia celu każdego z rywali. Miara ta może przyjmować postać pieniężną i zazwyczaj jest wyrażana w kategoriach zysku i kosztu. Wypłatę można zdefiniować również w kategoriach: zdobyczy terytorialnych, liczby osób zabitych lub rannych (w grach wojennych), stopnia opanowania rynku, obniżek stawek celnych itp. Reasumując, wypłata stanowi syntetyczny miernik
preferencji gracza. Spośród określonych reguł gry gracze dobierają strategie. W grach
strategia określa plan ruchów, których w trakcie gry nie może zmienić ani przeciwnik,
ani natura. Zdarzają się również sytuacje, podczas których dwie grupy lub kilka grup starają się osiągnąć własne cele. Cele mogą być zarówno zbieżne, jak i przeciwstawne.
Można zatem mówić o kooperacji lub konkurencji. Każda grupa, bądź pojedynczy
podmiot, usiłuje znaleźć najlepszą w danych warunkach linię postępowania (optymalną
strategię). Taka gra, podobnie jak każda inna, podlega z góry określonym regułom. Owe
grupy, czyli gracze, wykonują ruchy w określonym porządku. Każdemu ruchowi odpowiada wypłata. Gdy przy końcu gry suma wygranych jest równa zeru, to gra jest nazywana grą o sumie zerowej. W przeciwnym wypadku jest to gra o sumie niezerowej.
Gracze powinni obrać takie strategie, aby zapewnić sobie maksymalną wygraną, nawet
przy najlepszej odpowiedzi przeciwnika. W tym celu są stosowane różne metody, również takie, które wykorzystują programowanie matematyczne. Teoria gier, pomimo iż
nakłada bardzo silne warunki na sposób przebiegu gry, pozwala uzyskać wiele wniosków o dużym znaczeniu praktycznym w różnych gałęziach wiedzy. Ma ona dużą przyszłość, gdyż może zajmować się nie tylko modelowaniem zjawisk gospodarczych, w których uczestniczą konkurujące lub kooperujące ze sobą podmioty, ale również uwzględniać nastroje i reakcje uczestników rynku (w sposób liczbowy). Zapoczątkowana w latach 80. XX wieku przez psychologów Daniela Kahnemana i Amosa Tverskiego teoria
perspektywy, mówiąca, że gospodarka to nie tylko „prawidłowości”, ale również ludzie
oddziałujący przez swoje zachowania na rynek, może znaleźć swoje odzwierciedlenie
także w modelach ekonomicznych, a to właśnie za sprawą teorii gier. Klasyczna teoria
gier opiera się na nieco uproszczonych założeniach, że gracze są egoistami, którzy zachowują się racjonalnie. Podejmują zatem działania optymalne z punktu widzenia założonego celu i maksymalizacji własnej użyteczności. Całkowicie są pomijane wypłaty innych graczy. Obecnie coraz częściej są rozważane sytuacje, w których gracze są skłonni
do altruizmu, a tym samym ponoszenia pewnych kosztów w celu zmiany podziału wypłat. W rezultacie coraz częściej rozważa się modele nieegoistycznych preferencji. Modele te zachowują wszelkie założenia klasycznej teorii gier, dopuszczając jednak sytuację,
w której wypłaty graczy zależą w jakimś stopniu od wypłat konkurentów.
Na zakończenie niniejszego rozdziału warto wspomnieć, że istnieją dziedziny wiedzy, których przedstawiciele wznoszą potężne barykady przeciwko przenikaniu matematyki do ich nauki. Nie brakuje ich również wśród ekonomistów. Zdarzają się
także matematycy dumni z faktu, że nic z tego, co kiedykolwiek stworzyli, nie dało się
zastosować do czegoś innego niż czystej matematyki. Nie można robić nic na siłę.
Prawdą jednak jest, że istnieje, zwłaszcza w ekonomii, olbrzymie zapotrzebowanie
16
Ewa Drabik
na rzemiosło, jakim jest matematyka. Matematyka czysta i stosowana, połączone razem,
tworzą nowe idee, zaś rozłączone mogą zginąć [Kac 1963].
5. Podsumowanie
Okazuje się, że pomimo ilościowych, a nawet jakościowych niedoskonałości, modele o charakterze ekonomicznym zdają egzamin w konfrontacji z rzeczywistością. Faktem jest, że bardzo często proces opisu badanych zjawisk przy pomocy sformalizowanego języka matematyki jest subiektywny. Okazuje się jednak, że subiektywizm nie
przeszkadza w prognozowaniu i podejmowaniu decyzji. Charakteryzują się one o wiele
większą precyzją niż prognozowanie i podejmowanie decyzji na bazie domysłów, popartych nawet danymi liczbowymi. Rzetelnie sporządzone modele ekonometryczne dają
na ogół dobre prognozy, co sugeruje, że traktowanie zjawisk ekonomicznych w sformalizowanej postaci pozwala lepiej zrozumieć problem, a nawet go rozwiązać.
Przedstawienie, z kolei, interakcji społecznych w języku teorii gier umożliwia łatwe
ustalenie stanu równowagi (w tym przypadku w sensie Nasha), pod warunkiem że równocześnie zostaną przyjęte założenia dotyczące określonych reguł obowiązujących
w trakcie gry, np. „wolnego rynku” i nie będzie możliwości zawierania jakichkolwiek
porozumień poza schematem gry. W sytuacji jednak gdy dopuszcza się możliwość kooperowania, istnieją również proste i jasno określone możliwości określania równowagi,
która w najgorszym wypadku może okazać się równowagą suboptymalną. Tworzenie
koalicji i wewnętrzne nimi zarządzanie nie jest łatwe i często konieczne okazuje się wynegocjowanie jakiegoś kompromisu, co również można wymodelować.
Pamiętać mimo to należy, że niezależnie od rozważanych zagadnień o charakterze ekonomicznym czy społecznym, modelując dane zjawisko, buduje się pewien schemat jego przebiegu i bada przy pomocy teorii matematycznej nie samą rzeczywistość, ale ten schemat.
Podsumowując, pozostaje stwierdzić, że matematyka jest istotna częścią ludzkich
przedsięwzięć. Zdarzają się jednak modele używające terminologii matematycznej
w sposób wadliwy i nieużyteczny. Jak dotychczas, są one w znaczącej mniejszości, ale
coraz więcej modeli, zwłaszcza związanych z rynkami finansowymi, przez błędne założenia i skomplikowaną strukturę prowadzi do „wynaturzenia” badanych zjawisk. Dowodem na to jest chociażby kryzys początku XXI wieku, który jest, po części, pokłosiem skomplikowanej, generującej toksyczne papiery wartościowe, inżynierii finansowej.
Literatura
Creedy J., Martin V.L. 1994 Chaos in non-linear models in economics, Cornwall.
Drabik E. 2003 Twórczość Kaleckiego po latach, „Myśl Ekonomiczna i Prawna”, nr 3.
Grabowski W. 1980 Programowanie matematyczne, Warszawa.
Kac M. 1963 Matematyka, jej kierunki i napięcia, „Wiadomości Matematyczne”, nr 6.
O matematycznym modelowaniu zjawisk gospodarczych…
17
Kałużnin Ł.A. 1964 O języku informacyjnym matematyki, „Wiadomości Matematyczne”, nr 44.
Ryll-Nardzewski C. 1973 Prace Hugona Steinhausa o sytuacjach konfliktowych, „Wiadomości
Matematyczne”, nr 17.
Siedlecki J. 2000 Równowaga a wzrost gospodarczy, Warszawa – Wrocław.
Smoluk A. 1998 Modalność i prognozy, „Przegląd Statystyczny”, nr 45, 1.
Smoluk A. 1990 Teoria aproksymacji a ekonometria, „Przegląd Statystyczny”, nr 37, 4.
Stone M.H. 1961 Matematyka i przyszłość nauki, „Wiadomości Matematyczne”, nr 4.
Thom R. 1974 Matematyka nowoczesna, „Wiadomości Matematyczne”, nr 18.
Tinbergen J., Ein Schiffbauzyklus?, „Weltwirtschaftliches Archiv”, Kiel. 1931, t. XXXIV,
cz. 2.
Współczesna matematyka. Dwanaście esejów 1983, (red.) A. Stearn, Warszawa.
Wycech-Łosiowa M. 1973 Sympozjum Matematycznych Metod Ekonomii, jego problematyka,
cele i przebieg, „Wiadomości Matematyczne”, nr 14.1.
OPTIMUM. STUDIA EKONOMICZNE NR 4 (48) 2010
Danuta STRAHL1
WYKORZYSTANIE METOD PORZĄDKOWANIA LINIOWEGO
DO BUDOWY ŚCIEŻKI HARMONIJNEGO ROZWOJU
INNOWACYJNOŚCI REGIONALNEJ
Streszczenie
Artykuł przedstawia propozycje budowy ścieżki harmonijnego rozwoju innowacyjności regionalnej. Propozycja bazuje na metodach porządkowania liniowego, a w szczególności na wykorzystaniu
miary agregatowej. Wyróżnione zostały dwie warstwy innowacyjności regionalnej: Input ilustrująca nakłady na innowacyjność oraz Output przedstawiająca efekty w zakresie innowacyjności. Idea ścieżki opiera się
na równowadze regionu, która formalnie określa odległość określonego regionu od regionu wzorca. Zbudowana ścieżka harmonijnego rozwoju ma postać parametryczną i jest ujęta w dwóch wymiarach. Pierwszy
bazuje na modelu syntetycznym kwantyfikującym poziom rozwoju innowacyjności Input oraz innowacyjności Output. Drugie ujęcie uwzględnia pełny zbiór cech ilustrujących innowacyjność regionalną. Zaproponowana procedura budowy ścieżki harmonijnego rozwoju innowacyjności regionalnej została zilustrowana na przykładzie 37 regionów brytyjskich typu NUTS 2.
Słowa kluczowe: metody porządkowania liniowego, ścieżka zrównoważonego rozwoju, innowacyjność
regionalna
THE USE OF LINEAR ORDERING METHODS TO BUILD HARMONIOUS
DEVELOPMENT TRACK OF REGIONAL INNOVATION
Summary
The article provides recommendations for creating of harmonious development track of regional
innovation. The proposal is based on linear ordering methods but, first of all, on the use of aggregate
measure. Two aspects of regional innovation have been distinguished: Input, which illustrates financial outlays on innovation, and Output, which illustrates the effects within the scope of innovation. The idea
of the track is based on regional balance which formally determines the distance of a given region from the
model region. The harmonious development track takes a parametric form and is presented in two dimensions. The first one is based on a synthetic model which quantifies the level of Input and Output innovation. The other perspective takes into consideration the entire set of qualities that illustrate regional innovation. The suggested procedure concerning building of harmonious development track of
regional innovation has been illustrated with the example of 37 British regions of type NUTS 2.
Key words: linear ordering methods, harmonious development path, regional innovatiom
1 Prof. dr hab. Danuta Strahl jest pracownikiem Wydziału Gospodarki Regionalnej i Turystyki Uniwersytetu Ekonomicznego we Wrocławiu.
Wykorzystanie metod porządkowania liniowego…
19
1. Wstęp
Przyjmując za A. Kuklińskim [Kukliński 2001] ogólne określenie innowacyjności, iż
jest to zdolność do tworzenia i absorbowania innowacji, można uznać, że w wymiarze
regionalnym może to oznaczać wyróżnienie regionów: generujących innowacje, absorbujących innowacje bądź charakteryzujących się zarówno zdolnością generowania innowacji, jak i jej absorpcji [Por.: Kudłacz 1999 s.15]. Budując strategie rozwoju regionalnego z uwzględnieniem procesów innowacyjnych, można przyjąć, iż w modelu zrównoważonego rozwoju tak samo jest ważny aspekt generowania innowacyjności, jak i absorpcji. Równowaga taka może tworzyć właściwe warunki stabilnego i trwałego wzrostu regionu, zapewniając przepływy międzyregionalne idei, produktów i usług. W budowaniu strategii równowagi w zakresie innowacyjności można wykorzystać klasyfikację
mierników stosowaną przez Eurostat w metodologii pomiaru innowacyjności z jednej
strony, a narzędzia wielowymiarowej analizy statystycznej z drugiej strony. W metodologii Eurostatu można spotkać propozycje podziału cech ilustrujących innowacyjność na
szczeblu regionalnym i służącym jej pomiarowi na innowacyjność typu Input oraz
Output. Z kolei, jednym z narzędzi wielowymiarowej analizy statystycznej jest ścieżka
harmonijnego rozwoju, której ideę można wykorzystać do budowy strategii innowacyjności regionalnej [Por.: Strahl 1982].
2. Idea ścieżki harmonijnego rozwoju innowacyjności regionalnej
W celu prezentacji idei ścieżki harmonijnego rozwoju (Por.: [Strahl 1982]) innowacyjności regionalnej można przyjąć, iż na szczeblu regionu będzie wyróżniać się
innowacyjność typu Input oraz innowacyjność typu Output. Stąd można wprowadzić
następujące oznaczenia.
Dany jest :
zbiór krajów: P  P1  ...Pn  ...PN , gdzie n = 1, …, N,
–
–
zbiór regionów przyporządkowany do każdego n- tego kraju (n=1,2,….N),
–
p = p1n , p2n ,..., p kn ,..., p Kn , gdzie k = 1, …, K,
–
zbiór zmiennych opisujących innowacyjność typu INPUT:
X 11 , X 12 ,..., X 1j ,..., X 1m ,
–
zbiór zmiennych opisujących innowacyjność typu OUTPUT:
2.
X 12 , X 22 ,..., X 2j ,..., X m
Wyniki obserwacji wartości cech ilustrujących innowacyjność typu Input oraz Output
w zbiorze regionów p k k  1, ..., K  mogą być zapisane w postaci macierzy :
– macierz INPUT:
X1 :
 x1n
 11
 ...

 x1n
 K1
...
x1kjn
...
n 
x11m

... 

n 
x1Km
 K xm
,
(1)
20
Danuta Strahl
gdzie: x1kjn – wartość j-tej zmiennej (j = 1, …, m) ilustrującej innowacyjność typu
INPUT, w k-tym regionie (k = 1, …, K), w n-tym kraju (n = 1, …, N),
– macierz OUTPUT:
X2 :
 x 2n
 11
 ...

 x 2n
 K1
...
2n
x kj
...
x12mn 

... 

2n 
x Km
 K xm
,
(2)
gdzie: x kj2n – wartość j-tej (j = 1, …, m) zmiennej ilustrującej innowacyjność typu
OUTPUT, w k-tym regionie (k = 1, …, K), w n-tym kraju (n = 1, …, N).
Teraz dla każdego regionu p k k  1, ..., K  należy skonstruować syntetyczny model kwantyfikujący poziom innowacyjności regionalnej typu Input, a następnie typu
Output. Konstrukcja syntetycznego modelu innowacyjności regionalnej obejmuje budowę, dla każdego regionu p k k  1, ..., K  , miary agregatowej, kwantyfikującej poziom innowacyjności regionalnej typu Input oraz Output. Procedura konstrukcji miary agregatowej przewiduje, w celu sprowadzenia wartości cech ilustrujących innowacyjność
regionalną do wspólnego układu porównawczego, normalizację bądź unitaryzację bądź
standaryzację ich wartości według znanych formuł [Por.: Jajuga 1993; Strahl, Walesiak 1997; Walesiak 2006].
Wśród zmiennych opisujących innowacyjność regionalną typu Input lub Output
wyróżnia się podany niżej charakter cech diagnostycznych2.
I.
Stymulanty: (oznaczone symbolem S), których wartości należą do zbioru R.
II.
Destymulanty: (oznaczone symbolem D), których wartości należą do
zbioru R+.
III.
Nominanty, których wartości należą do zbioru R+, w tym:
1.
Nominanty oznaczone symbolem N1 z wartością nominalną x0Nj1 .
2.
Nominanty z zalecanym przedziałem wartości x 0Nj2 i x 0Nj2 (oznaczone symbolem N2).
Nominanty (oznaczone symbolem N3) z określoną wartością nomi-
3.
1
2
1
2
nalną x 0Nj3 i dopuszczalnym przedziałem wartości x 0Nj3 i x 0Nj3 .
W opracowaniu przyjęto, przedstawione poniżej, zasady normalizacji [Por.: Jajuga 1993; Strahl 1978; Strahl, Walesiak 1997; Walesiak 2006].
2 Dla czytelności zapisów będzie pomijać się indeksy określające innowacyjności typu INPUT i OUTPUT,
dla których w macierzach (1) i (2) wprowadzono indeksy l= 1, 2.
Wykorzystanie metod porządkowania liniowego…
21
I.
Stymulanty3:
jS:
zkj 
xkj
max{xkj }
,
zkj  [0;1] ,
(3)
k
 min{x kj } 


;1 ,
z kj   k
max{x kj } 
 k

gdzie:
xkj
z kj
(4)
– wartość j-tej zmiennej w k-tym regionie,
– znormalizowana wartość j-tej zmiennej w k-tym regionie.
II. Destymulanty:
jD
min{xkj }
,
zkj  k
xkj
(5)
 min{xkj } 
zkj   k
; 1 .
 max{xkj } 
 k

(6)

1
dla x kj  x 0Nj1



 x kj
  N  1 dla x kj  x 0Nj1 ,
 x 0 j1
 N
 x 0 j1
 1 dla x kj  x 0Nj1

x
 kj

(7)
III. Nominanty:
1. j  N 1
z kj

 min{x kj }
 
x 0Nj1
k

z kj  min 
 1;
 1; 1 .
N1
max
{
x
}
x

kj
0j

 
k

(8)
3 Zaprezentowane formuły normalizacyjne są dopuszczalne dla zmiennych stymulant mierzonych
na skali ilorazowej. Dla zmiennych stymulant mierzonych na skali przedziałowej należy przyjąć sztuczne
założenie, że w zbiorze badanych regionów występuje przynajmniej jeden taki region, dla którego obserwacja na danej zmiennej jest dodatnia.
22
2.
Danuta Strahl
j  N2


1



 x kj
z kj   1  1
 xN2
 0j
 x N 22
 0j
 x 1
 kj

N1
N2
dla x0 j2  x kj  x0 j2
N1
,
dla x kj  x0 j2
N2
dla x kj  x0 j2
2

 min{xkj }
 
x0Nj2


k

 1;
 1; 1 .
zkj  min 
1
N
2

max{xkj }  
 x0 j
k
 

3.
(9)
(10)
j  N3
1

 xkj

 x N3
 0j
 N3
 x0 j

zkj   xkj

 xkj  1
 N 31
 x0 j
 2
 x N3
 0 j 1
 xkj

N
dla xkj  x0 j3
N1
N
N
N2
dla x0 j3  xkj  x0 j3
dla x0 j3  xkj  x0 j3
,
(11)
N1
dla xkj  x0 j3
N2
dla xkj  x0 j3
N 32

 min{xkj }
 
x


0
j
k

 1;
 1; 1 .
zkj  min 
1
N

max{xkj }  
 x0 j3
k
 

(12)
W przypadku wykorzystania procedury unitaryzacji normalizowane wartości
cech obliczamy według podanych niżej wzorów
Dla cech ilustrujących innowacyjność typu Input:
Wykorzystanie metod porządkowania liniowego…
z
1n
kj

k  1,..., K
x 1kjn  min x 1kjn
kP
j  1,..., m .
max x 1kjn  min x 1kjn
(13)
n  1,..., N
kP
kP
23
Dla cech ilustrujących innowacyjność typu Output:
z
2n
kj

x kj2 n  min x kj2 n
kP
max x kj2 n  min x kj2 n
kP
kP
k  1,..., K
j  1,..., m .
n  1,..., N
(14)
Miarę agregatową SMIRk1n , kwantyfikującą poziom rozwoju innowacyjności regionalnej typu Input, obliczamy ze wzoru [Por.: Strahl 1978]:
SMIRk1n 
1
m
z
1n
kj
,
(15)
gdzie: z 1kjn – zadane odpowiednimi wzorami: (3), (5), (7), (9), (11),
SMIRk1n – miara agregatowa innowacyjności regionalnej Input.
Miarę agregatową kwantyfikującą poziom rozwoju innowacyjności regionalnej
typu Ouput obliczamy ze wzoru:
SMIRk2 n 
m
1
m
z
2n
kj
,
(16)
j 1
gdzie z 1kjn – zadane wzorami: (3), (5), (7), (9), (11),
SMIRk2 n – miara agregatowa innowacyjności regionalnej Output.
Jak łatwo zauważyć, wartość miary (15) i (16) należą do przedziału liczbowego
[0,1] czyli:
SMIRk1n  [0,1]
SMIRk2 n  [0,1]
(17)
Przyporządkowując każdemu regionowi wartości miary agregatowej kwantyfikującej
poziom rozwoju regionu ze względu na innowacyjność typu Input lub Output,
otrzymujemy syntetyczny model innowacyjności regionalnej k-tego regionu (k =
1,2,….K) o postaci:


p1  SMIR11n , SMIR12 n
...
.

p K  SMIRK1n , SMIRK2 n
(18)

Zasadę harmonijnego rozwoju innowacyjności regionalnej można sformułować
następująco:
24
Danuta Strahl
SMIRk1  SMIRk2 .
(19)
Koncepcja harmonijności rozwoju innowacyjności regionu oznacza zachowanie
właściwych proporcji między innowacyjnością typu Input oraz typu Output. Oznacza
to zatem równowagę regionu między ponoszonymi nakładami na innowacyjność
a uzyskiwanymi efektami. Harmonijny rozwój regionu może zatem w perspektywie
prowadzić do właściwych relacji między efektami i nakładami innowacyjności regionalnej. Jest to oczywiście jedna z możliwych koncepcji uzyskiwania harmonijności
w zakresie innowacyjności regionalnej. Można zatem przyjąć, że:
Określenie 1.
Region p k k  1, ..., K  znajduje się w równowadze wewnętrznej ze względu na
innowacyjność typu Input i Output, jeżeli:
(20)
SMIRk1  SMIRk2 .
Zatem, równowaga wewnętrzna oznacza zachowanie identycznych odległości
między miarami agregatowymi kwantyfikującymi poziom innowacyjności regionalnej Input oraz Output w regionie p k k  1, ..., K  a wartościami tych miar w regionie
– wzorcu. Po w sensie wartości miar odległości, czyli d 01  d 02 , gdzie:
d 01  1  SMIRk1
.
d 02  1  SMIRk2
(21)
Z uwagi na własności miar agregatowych ujętych zapisem (17) – region wzorzec
Po ma następujące znormalizowane wartości cech:
z oj  1 dla j  1, ..., m .
(22)
W świetle właściwości miar agregatowych innowacyjności regionalnej typu Input
oraz Output, opisanych wzorem (17), można przyjąć kolejne określenie, tj.:
Określenie 2.
Punktem wiodącym ścieżki harmonijnego rozwoju innowacyjności regionalnej
z uwzględnieniem innowacyjności typu Input oraz innowacyjności typu Output dla
regionów { p1 , ..., p k } będzie punkt:
Po :[1,1] R 2 .
(23)
Określenie 3.
Obrazem ścieżki harmonijnego rozwoju innowacyjności regionalnej z uwzględnieniem innowacyjności typu Input oraz innowacyjności typu Output dla regionów
{ p1 , ..., p k } będzie prosta przechodząca przez punkty:
Po0 :[0, 0] i Po1 :[1,1] R 2 .
O postaci parametrycznej:
z    1, 2 ,
(24)
(25)
Wykorzystanie metod porządkowania liniowego…
25
gdzie  – parametr prostej.
Wprowadzenie regionu p k k  1, ..., K  na ścieżkę harmonijnego rozwoju (25) odbywa się przez wyznaczenie tzw. indywidualnego wzorca rozwoju Pk0 , czyli punktu na
prostej (25) z zależności:
   1, 2 
 ,
z k*   
 k  1, ..., K 
(26)
 k*  max SMIRk ,
(27)
gdzie:

SMIRk = zadane wzorami (15), (16) α = 1,2,
czyli:
z k*  max SMIRk .

(28)
Wartości z k* wyznaczone wzorem (28) tworzą obraz liczbowy ścieżki harmonijnego rozwoju innowacyjności regionalnej uwzględniającej innowacyjność Input oraz innowacyjność Output dla regionu p k k  1, ..., K  w ujęciu syntetycznym. Ten taksonomiczny model określający relacje liczbowe między poziomem innowacyjności Input a poziomem innowacyjności Output, w sensie wartości miar agregatowych ujętych wzorami (15)
i (16), przynosi konstrukcję ścieżki harmonijnego rozwoju w postaci (25). Ścieżka ta
pozwala z kolei na wyznaczenie dla każdego regionu p k k  1, ..., K  – indywidualnego
wzorca rozwoju w postaci określonej zależnością (28).
Koncepcję harmonijnego rozwoju można również zastosować z nieco większym
uszczegółowieniem, uwzględniając każdą z przyjętych do opisu innowacyjności regionalnej m-cech.
Wówczas konstrukcję ścieżki należy rozpocząć od sformułowania globalnego wzorca rozwoju innowacyjności regionalnej, w tym innowacyjności typu Input oraz Output.
Dla uproszczenia zapisu pominięto indeks α = 1,2, przedstawiając procedurę budowy ścieżki harmonijnego rozwoju powalającą na zastosowanie jej zarówno do innowacyjności typu Input, jak i Output.
Wartości cech globalnego wzorca rozwoju innowacyjności regionalnej można wyznaczyć na przykład według relacji (29):
max x kj dla j  S

k

x kj dla j  D
min

k

N1
,
z oj  
x0 j
dla j  N 1
1
2
 x N 2  x N 2 , x N 2 dla j  N
0j
0j
2
 0j
N3

x0 j
dla j  N 3
N
gdzie: x0Nj1 , x0Nj2 , x0 j3 wartości nominalne.


(29)
26
Danuta Strahl
Warto w tym miejscu przypomnieć, że na podstawie: (3), (5), (7), (9) i (11) zachodzi:
 j z oj  1 dla j  1, ..., m .
(30)
Teraz można wprowadzić:
Określenie 4.
Punktem wiodącym ścieżki harmonijnego rozwoju innowacyjności regionalnej
obiektów – regionów { p1 , ..., p k } będzie punkt:
Pok :[1,1]  R m .
(31)
Określenie 5.
Obrazem ścieżki harmonijnego rozwoju innowacyjności regionalnej obiektów regionów { p1 , ..., p k } jest prosta przechodząca przez punkty:
Po0 :[0, 0] i Po1 :[1,1] R m .
O postaci parametrycznej:
y j    j  1, ..., m  ,
(32)
(33)
gdzie – parametr prostej.
W celu zbudowania indywidualnego wzorca rozwoju innowacyjności regionalnej
dla każdego obiektu – regionu p k k  1, ..., K  .
Przyjmijmy:
Określenie 6.
Obiekt = region p k k  1, ..., K  znajduje się w równowadze wewnętrznej, jeżeli:
z k1  ...  z km .
(34)
Zasadę kwantyfikacji stanu równowagi obiektu – regionu sformułuje zaś:
Określenie 7.
Miernikiem równowagi wewnętrznej obiektu p k k  1, ..., K  jest wielkość:
hk 
2
 lm1 z kj  z kj
m(m  1)
 j , j '  1, ..., m 

.
j  j ' 

(35)
Jak łatwo zauważyć, nasuwa się:
Wniosek 1.
Wartość miary hk należy do przedziału liczbowego: [0, 1].
Stąd:
Określenie 8.
Obiekt region p k k  1, ..., K  znajduje się w stanie równowagi zupełnej, jeżeli:
hk  0 .
(36)
Wykorzystanie metod porządkowania liniowego…
27
Równowaga wewnętrzna oznacza zachowanie identycznych odległości między
wartościami cech opisujących innowacyjność regionalną w regionie p k , k = 1, 2,
…, K a wartościami cech opisujących innowacyjność regionalną w regionie-wzorcu
Po* (k  1, ..., K ) w sensie wartości miary, (37), tj.:
 j  1, ..., n 
 .
d 0 j  1  z kj 
 k  1, ..., K 
(37)
Nie oznacza to jednak osiągnięcia wartości cech regionu – wzorca globalnego.
W celu osiągnięcia wartości cech regionu – wzorca globalnego, region p k powinien
„rozwijać się” po ścieżce harmonijnego rozwoju, wyznaczonej relacją (33), zachowując jednocześnie stan równowagi wewnętrznej określonej przez relację (35). Wprowadzenie regionu p k na ścieżkę harmonijnego rozwoju, której obrazem jest prosta
(33), odbywa się przez wyznaczenie tzw. indywidualnego wzorca Pk* punktu na
prostej z zależności:
(38)
z kj*   kj* ( j  1, ..., n) ,
gdzie:
 k*  max  kj ,
(39)
j
 kj  z kj .
(40)
Przy czym z kj – wyznaczone odpowiednio wzorami: (3), (5), (7), (9) i (11).
Wartość cech indywidualnego wzorca rozwoju można zatem prościej wyznaczyć
za pomocą relacji:
z kj*  max z kj .
(41)
j
Ograniczając się teraz tylko do stymulant i destymulant, można wyznaczyć pierwotne, czyli nie normalizowane wartości cech indywidualnego wzorca rozwoju  k* ,
według wzorów:
(42)
x kj  z oj max z kj
jS ,
j
gdzie:
x kj 
z oj
max z kj
jD,
(43)
j
oraz:
z oj  max x kj ,
(44)
k
z kj 
x kj
max x kj
k
j  1,..., m
.
k  1,..., k
(45)
Przy konstrukcji ścieżki harmonijnego rozwoju innowacyjności regionalnej interesujące mogą być ponadto informacje następujące:
28
Danuta Strahl
1.
W którym momencie T* nastąpi wejście regionu p k na ścieżkę harmonijnego rozwoju.
2. Jaka powinna być intensyfikacja rozwoju innowacyjności regionalnej, ściśle
jej poszczególnych charakterystyk – cech w zadanym obiekcie p k , aby
wejście na ścieżkę harmonijnego rozwoju nastąpiło w zadanym momencie
T*, czyli jakie powinno być postulowane tempo rozwoju poszczególnych
cech ilustrujących innowacyjność regionalną.
Studia w tym zakresie powinny zmierzać między innymi do:
a) Opracowania wzorców quasi-optymalnych rozwoju innowacyjności dla
określonych typów regionów p k , czy też dla określonych grup typologicznych regionów;
b) Konstrukcji ścieżki harmonijnego rozwoju o różnych postaciach analitycznych (ścieżki nieliniowe, segmentowe itp.);
c) Opracowania metod określających kolejne etapy osiągania wartości cech
regionu – wzorca, czyli wkraczania na ścieżkę harmonijnego rozwoju;
d) Wskazania możliwości wykorzystania modeli przyczynowo-opisowych,
w tym panelowych, do określania postulowanego tempa rozwoju innowacyjności regionalnej.
3. Ilustracja proponowanej procedury budowy ścieżki harmonijnego rozwoju
innowacyjności regionalnej.
Ilustracja proponowanej procedury budowy ścieżki harmonijnego rozwoju innowacyjności regionalnej zostanie przedstawiona dla regionów NUTS-2 Wielkiej
Brytanii. Przy doborze cech ilustrujących innowacyjność regionalną, zostanie wykorzystany dorobek Eurostatu. Metodologia obliczania Sumary Innovation Index, stosowana w Eurostacie w latach 2008-2010, opiera się na 29 wskaźnikach zawartych w następujących grupach tematycznych [Por.: Hollanders 2006; Hollanders, Cruysen 2008].
Motory innowacji rozumiane przez:
–
zasoby ludzkie:
1. Liczba absolwentów kierunków ścisłych i technicznych oraz nauk społecznych i humanistycznych na 1000 mieszkańców w grupie wiekowej: 20 – 29 lat;
2. Liczba doktorantów kierunków ścisłych i technicznych oraz nauk społecznych i humanistycznych na 1000 mieszkańców w grupie wiekowej:
25 – 34 lata;
3. Odsetek ludności z wykształceniem wyższym w grupie wiekowej: 25 –
64 lata;
4. Udział w kształceniu ustawicznym;
5. Udział % osób w grupie wiekowej: 20 – 24 lata, które ukończyły edukację co najmniej na poziomie szkoły średniej;
–
możliwości finansowania projektów oraz wsparcie rządowe dla działań
innowacyjnych:
1. Udział wydatków publicznych na B+R w PKB (w %);
2. Udział inwestycji venture capital w PKB (w %);
Wykorzystanie metod porządkowania liniowego…
29
3. Wysokość kredytu dla sektora prywatnego;
4. Szerokopasmowy dostęp do Internetu.
Działalność przedsiębiorstw uwzględniająca ich działania innowacyjne, tj.:
–
inwestycje:
1. Udział wydatków przedsiębiorstw na B+R w PKB (w %);
2. Udział wydatków na IT w PKB (w %);
3. Udział wydatków na innowacje inne niż B+R w PKB (w %);
–
powiązania zewnętrzne:
1. Udział % MŚP wprowadzających własne innowacje w ogólnej liczbie
MŚP;
2. Udział % MŚP kooperujących w zakresie innowacji w ogólnej liczbie
MŚP;
3. Odsetek firm tworzących się i zamykanych w ogólnej liczbie MŚP;
4. Liczba publiczno-prywatnych publikacji naukowych na milion mieszkańców;
–
efekty pośrednie:
1. Liczba udzielonych patentów przez EPO (European Patent Office) na milion mieszkańców;
2. Liczba nowych wspólnotowych znaków towarowych na milion mieszkańców;
3. Liczba nowych wspólnotowych wzorów przemysłowych na milion
mieszkańców;
4. Bilans płatniczy kraju w dziedzinie techniki.
Efekty działalności innowacyjnej obejmujące:
–
innowatorów wdrażających innowacje na rynek lub w obrębie firmy:
1. Innowatorzy technologiczni (innowacje w obrębie produktu, usługi,
procesu) – % MŚP;
2. Innowatorzy nie-technologiczni (innowacje marketingowe, organizacyjne) – % MŚP;
3. Innowatorzy w zakresie wydajności zasobów firmy;
–
gospodarcze efekty innowacji rozumiane przez:
1. Udział zatrudnionych w sektorach przemysłu średniowysokiej i wysokiej
techniki w liczbie osób zatrudnionych w przemyśle i usługach;
2. Udział zatrudnionych w usługach wymagających specjalistycznej wiedzy
w liczbie osób zatrudnionych w usługach;
3. Udział eksportu wyrobów średniej i wysokiej techniki w eksporcie ogółem;
4. Udział eksportu usług wymagających specjalistycznej wiedzy w eksporcie
usług ogółem;
5. Udział sprzedaży nowych lub zmodernizowanych wyrobów dla rynku
w sprzedaży przedsiębiorstw ogółem;
6. Udział sprzedaży nowych lub zmodernizowanych wyrobów dla przedsiębiorstw w sprzedaży przedsiębiorstw ogółem.
30
Danuta Strahl
W porównaniu z zestawieniem cech wykorzystywanych do pomiaru innowacyjności na szczeblu krajowym, do roku 2008, 45% wskaźników rekomendowanych do
oceny innowacyjności pozostało nie zmienionych, a niewielkie zmiany (często w nomenklaturze) wprowadzono dla 9 wskaźników (31%). Dodatkowo, na obecnej liście
znalazło się 7 wskaźników (24%) zupełnie nowych. Źródło danych dla niemal 80%
wskaźników stanowią nadal głównie bazy Eurostatu, a informacje dotyczące 5 wskaźników są zasilane z baz danych innych badań i instytucji, takich jak: CIS – Community
Innovation Survey, OHIM – Office of Harmonization for the Internal Market, Thomson –
Thomson Reuters, EVCA – European Venture Capital Association, EITO – European Information Technology Observatory, IMF – FORA’s Innovation Monitor, IFS – International
Financial Statistics, CWTS – Centre for Science and Technology Studies.
Badania poziomu i trendów innowacyjności na podstawie ewoluującej listy wskaźników i metodologii na poziomie krajowym trwają od kilku lat, a pierwsza ocena innowacyjności w regionach miała miejsce w roku 2002, kolejna w roku 2003, a następna w roku 2006.
Chcąc dokonać oceny poziomu innowacyjności na poziomie regionalnym, można przyjąć, iż cechy tworzące dwie pierwsze grupy: Motory innowacyjności i Działalność
przedsiębiorstw ilustrują innowacyjność typu Input, zaś trzecia grupa cech ilustruje efekty
innowacyjności typu Output.
Ilustracja zaprezentowanej metodologii budowy ścieżki harmonijnego rozwoju
innowacyjności regionalnej ograniczy się do regionów NUTS-2 (37 regionów) Wielkiej Brytanii.
Dostępność danych statystycznych pozwala przyjąć dla skali regionu następujące
cechy:
Cechy opisujące Innowacyjność regionalną INPUT:
X1 – udział pracujących z wyższym wykształceniem w ogólnej liczbie pracujących
w regionie;
X2 – udział ludności w wieku: 25-64 lat uczestniczącej w kształceniu ustawicznym w regionie;
X3 – kapitał ludzki w nauce i technologii (HRST) jako odsetek aktywnych zawodowo w regionie.
Cechy opisujące Innowacyjność regionalną OUTPUT:
X4 – udział pracujących w przemyśle wysoko i średnio zaawansowanym technologicznie w ogólnej liczbie pracujących w regionie;
X5 – udział pracujących w usługach „opartych na wiedzy” (knowledge-intensive
services) w ogólnej liczbie pracujących w regionie;
X6 – patenty zarejestrowane w danym roku w EPO (European Patent Office) na
milion siły roboczej w regionie.
Wartości cech opisujące innowacyjność Input oraz Output w 37 regionach brytyjskich
typu NUTS 2 dotyczące roku 2007 (jedna cecha X6 roku 2005) podano w tabeli 1.
Wykorzystanie metod porządkowania liniowego…
31
TABELA 1.
Wartości cech ilustrujących innowacyjność typu Input i typu Output
w brytyjskich regionach NUTS 2
Symbol
p1
p2
p3
p4
p5
p6
p7
p8
p9
p10
p11
p12
p13
p14
p15
p16
p17
p18
p19
p20
p21
p22
p23
p24
p25
p26
p27
p28
p29
p30
p31
p32
p33
p34
p35
p36
p37
Regiony
ukc1 Tees Valley and Durham
ukc2 Northumberland, Tyne and Wear
ukd1 Cumbria
ukd2 Cheshire
ukd3 Greater Manchester
ukd4 Lancashire
ukd5 Merseyside
uke1 East Yorkshire and Northern Lincolnshire
uke2 North Yorkshire
uke3 South Yorkshire
uke4 West Yorkshire
ukf1 Derbyshire and Nottinghamshire
ukf2 Leicestershire, Rutland and Northants
ukf3 Lincolnshire
ukg1 Herefordshire, Worcestershire and Warks
ukg2 Shropshire and Staffordshire
ukg3 West Midlands
ukh1 East Anglia
ukh2 Bedfordshire, Hertfordshire
ukh3 Essex
uki1 Inner London
uki2 Outer London
ukj1 Berkshire, Bucks and Oxfordshire
ukj2 Surrey, East and West Sussex
ukj3 Hampshire and Isle of Wight
ukj4 Kent
ukk1 Gloucestershire, Wiltshire and Bristol/Bath area
ukk2 Dorset and Somerset
ukk3 Cornwall and Isles of Scilly
ukk4 Devon
ukl1 West Wales and The Valleys
ukl2 East Wales
ukm2 Eastern Scotland
ukm3 South Western Scotland
ukm5 North Eastern Scotland
ukm6 Highlands and Islands
ukn0 Northern Ireland
X1
29,05
31,83
31,91
37,90
32,36
31,64
31,07
26,20
36,38
29,42
30,52
31,42
32,03
27,81
35,39
33,18
29,69
32,03
36,38
27,66
55,26
41,09
38,90
40,66
33,54
30,81
37,88
31,21
34,17
31,21
29,10
36,92
40,07
39,80
38,58
36,39
33,80
X2
25,54
25,12
26,85
23,12
24,90
25,01
25,71
22,11
24,82
23,61
24,36
25,42
25,98
22,03
26,83
24,26
26,88
25,34
25,55
23,01
35,77
28,55
26,68
30,60
27,05
25,52
26,15
26,86
25,71
25,98
24,34
27,71
26,72
26,42
22,03
25,29
14,36
X3
34,93
34,57
34,97
42,83
38,14
35,54
35,26
30,79
40,64
31,57
34,01
36,03
36,08
33,11
41,11
38,01
33,6
37,13
43,2
35,71
58,52
46,26
46,65
45,12
38,85
36,29
43,39
36,56
38,58
36,13
32,14
41,7
42,94
41,23
40,98
35,32
34,15
X4
6,05
5,81
4,62
8,93
5,02
6,6
4,95
5,89
4,74
3,56
4,39
7,35
6,4
6,41
10,5
5,96
6,71
6,02
7,78
4,38
1,37
2,9
6,73
4,52
7,83
4,93
6,87
6,71
5,32
4,85
6,85
4,56
3,62
4,68
4,34
4,27
4,94
X5
38,59
42,14
30,01
40,04
42,07
40,11
42,6
35,52
37,85
41,8
41,09
37,61
39,71
34,04
40,34
41,05
41,9
41,11
43,74
44,79
59,73
47,18
46,53
47,94
41,34
42,98
46,1
43,33
39,83
39,04
38,98
42,81
43,47
42,47
34,13
42,42
37,55
X6
81,3
64,6
39,9
131,0
50,2
50,9
59,1
73,8
100,3
63,8
60,8
100,9
80,2
45,7
110,3
57,6
67,3
252,2
134,9
86,5
370,0
340,0
195,2
134,6
159,5
74,2
146,2
58,9
41,5
41,4
38,4
52,5
93,6
31,7
25,3
28,5
37,7
Źródło : Eurostat.
Unormowane wartości cech ilustrujących innowacyjność regionalną w regionach
brytyjskich NUYS-2 podano w tabeli 2.
32
Danuta Strahl
TABELA 2.
Znormalizowane wartości cech ilustrujących innowacyjność regionalną
Input oraz Output
Symbol Regiony
p1
ukc1 Tees Valley and Durham
ukc2 Northumberland, Tyne and
p2
Wear
p3
ukd1 Cumbria
p4
ukd2 Cheshire
p5
ukd3 Greater Manchester
p6
ukd4 Lancashire
p7
ukd5 Merseyside
uke1 East Yorkshire and Northern
p8
Lincolnshire
p9
uke2 North Yorkshire
p10
uke3 South Yorkshire
p11
uke4 West Yorkshire
ukf1 Derbyshire and Nottinp12
ghamshire
ukf2 Leicestershire, Rutland and
p13
Northants
p14
ukf3 Lincolnshire
ukg1 Herefordshire, Worcestershire
p15
and Warks
p16
ukg2 Shropshire and Staffordshire
p17
ukg3 West Midlands
p18
ukh1 East Anglia
p19
ukh2 Bedfordshire, Hertfordshire
p20
ukh3 Essex
p21
uki1 Inner London
p22
uki2 Outer London
ukj1 Berkshire, Bucks and Oxp23
fordshire
p24
ukj2 Surrey, East and West Sussex
p25
ukj3 Hampshire and Isle of Wight
p26
ukj4 Kent
ukk1 Gloucestershire, Wiltshire and
p27
Bristol/Bath area
p28
ukk2 Dorset and Somerset
p29
ukk3 Cornwall and Isles of Scilly
p30
ukk4 Devon
p31
ukl1 West Wales and The Valleys
p32
ukl2 East Wales
p33
ukm2 Eastern Scotland
p34
ukm3 South Western Scotland
p35
ukm5 North Eastern Scotland
p36
ukm6 Highlands and Islands
p37
ukn0 Northern Ireland
Źródło: Obliczenia własne.
X1
X2
0,525697 0,714006
X3
0,59689
X4
0,57619
X5
0,646074
X6
0,21973
0,576004 0,702264 0,590738 0,553333 0,705508 0,174595
0,577452
0,685849
0,585595
0,572566
0,562251
0,750629
0,646352
0,696114
0,699189
0,718759
0,597573
0,731887
0,651743
0,607314
0,602529
0,44
0,850476
0,478095
0,628571
0,471429
0,502428
0,67035
0,704336
0,671522
0,713209
0,107838
0,354054
0,135676
0,137568
0,15973
0,474122 0,618116 0,526145 0,560952 0,594676 0,199459
0,658342 0,693878 0,694463 0,451429 0,633685 0,271081
0,532392 0,66005 0,539474 0,339048 0,699816 0,172432
0,552298 0,681018 0,581169 0,418095 0,687929 0,164324
0,568585 0,710651 0,615687
0,7
0,629667 0,272703
0,579624 0,726307 0,616541 0,609524 0,664825 0,216757
0,503257 0,615879 0,565789 0,610476 0,569898 0,123514
0,640427
0,75007
0,702495
1
0,600434
0,537278
0,579624
0,658342
0,500543
1
0,743576
0,678222
0,751468
0,708415
0,714286
0,643276
1
0,798155
0,649522
0,574163
0,634484
0,738209
0,610219
1
0,790499
0,567619
0,639048
0,573333
0,740952
0,417143
0,130476
0,27619
0,675373 0,298108
0,687259
0,70149
0,688264
0,732295
0,749874
1
0,789888
0,155676
0,181892
0,681622
0,364595
0,233784
1
0,918919
0,703945 0,745876 0,797163 0,640952 0,779006 0,527568
0,735794 0,855465 0,771018 0,430476 0,802612 0,363784
0,606949 0,75622 0,663876 0,745714 0,692115 0,431081
0,557546 0,713447 0,62013 0,469524 0,719571 0,200541
0,685487
0,73106
0,741456 0,654286 0,771806 0,395135
0,564785
0,61835
0,564785
0,526602
0,668114
0,725118
0,720232
0,698154
0,658523
0,611654
0,750909
0,718759
0,726307
0,680458
0,774672
0,746995
0,738608
0,615879
0,707017
0,401454
0,624744
0,659262
0,617396
0,549214
0,712577
0,733766
0,704545
0,700273
0,603554
0,583561
0,639048
0,506667
0,461905
0,652381
0,434286
0,344762
0,445714
0,413333
0,406667
0,470476
0,725431
0,666834
0,653608
0,652603
0,716725
0,727775
0,711033
0,571405
0,710196
0,628662
0,159189
0,112162
0,111892
0,103784
0,141892
0,252973
0,085676
0,068378
0,077027
0,101892
Wykorzystanie metod porządkowania liniowego…
33
Wartości cech indywidualnego wzorca rozwoju innowacyjności regionalnej NUTS-2
obliczono dla każdego badanego regionu brytyjskiego, stosując zaprezentowaną procedurę oddzielnie dla innowacyjności regionalnej Input oraz dla innowacyjności regionalnej Output. Wartości te podano w tabeli 3.
TABELA 3.
Wartości cech (pierwotne) indywidualnego wzorca regionów na ścieżce
harmonijnego rozwoju
Symbol
p1
p2
p3
p4
p5
p6
p7
p8
p9
p10
p11
p12
p13
p14
p15
p16
p17
p18
p19
p20
p21
p22
p23
p24
p25
p26
p27
p28
p29
p30
p31
p32
p33
p34
p35
p36
p37
Region
ukc1 Tees Valley and Durham
ukc2 Northumberland, Tyne and Wear
ukd1 Cumbria
ukd2 Cheshire
ukd3 Greater Manchester
ukd4 Lancashire
ukd5 Merseyside
uke1 East Yorkshire and Northern Lincolnshire
uke2 North Yorkshire
uke3 South Yorkshire
uke4 West Yorkshire
ukf1 Derbyshire and Nottinghamshire
ukf2 Leicestershire, Rutland and Northants
ukf3 Lincolnshire
ukg1 Herefordshire, Worcestershire and Warks
ukg2 Shropshire and Staffordshire
ukg3 West Midlands
ukh1 East Anglia
ukh2 Bedfordshire, Hertfordshire
ukh3 Essex
uki1 Inner London
uki2 Outer London
ukj1 Berkshire, Bucks and Oxfordshire
ukj2 Surrey, East and West Sussex
ukj3 Hampshire and Isle of Wight
ukj4 Kent
ukk1 Gloucestershire, Wiltshire and Bristol/Bath area
ukk2 Dorset and Somerset
ukk3 Cornwall and Isles of Scilly
ukk4 Devon
ukl1 West Wales and The Valleys
ukl2 East Wales
ukm2 Eastern Scotland
ukm3 South Western Scotland
ukm5 North Eastern Scotland
ukm6 Highlands and Islands
ukn0 Northern Ireland
Źródło: Obliczenia własne.
X1
39,23
38,68
41,44
40,33
38,13
38,13
39,23
33,70
38,13
36,47
37,57
39,23
39,78
38,13
41,44
37,02
41,44
38,68
39,23
35,36
55,26
43,65
43,65
46,97
41,4
39,23
40,89
41,44
39,23
39,78
37,57
42,55
40,89
40,34
38,68
38,68
33,7
X2
25,39
25,04
26,83
26,11
24,68
24,68
25,39
21,82
24,68
23,6
24,32
25,39
25,75
24,68
26,83
23,96
26,83
25,04
25,39
22,89
35,77
28,25
28,25
30,40
26,82
25,39
26,46
26,82
25,39
25,75
24,32
27,54
26,46
26,11
25,04
25,04
21,82
X3
41,54
40,96
43,89
42,72
40,37
40,37
41,54
35,70
40,37
38,62
39,79
41,54
42,13
40,37
43,89
39,20
43,89
40,96
41,54
37,45
58,52
46,23
46,23
49,74
43,89
41,54
43,3
43,89
41,54
42,13
17,35
45,06
43,3
42,72
40,96
40,96
35,69
X4
6,72
7,35
5,25
8,92
7,35
7,03
7,45
6,19
6,65
7,24
7,14
7,35
6,93
6,4
10,5
7,14
7,35
7,14
7,77
7,77
10,5
9,55
8,08
8,4
7,77
7,45
8,08
7,56
6,93
6,82
6,82
7,45
7,56
7,45
5,98
7,45
6,51
X5
38,22
41,81
29,86
50,77
41,81
40,02
42,4
35,24
37,63
41,2
40,61
41,81
39,42
36,43
59,73
40,61
41,81
40,61
44,2
44,2
59,73
54,35
45,99
47,78
44,2
42,4
45,99
43
39,42
38,82
38,82
42,4
43
42,4
34,04
42,4
37,03
X6
236,8
259
185
314,5
259
247,9
262,7
218,3
233,1
255,3
251,6
259
244,2
225,7
370
251,6
259
251,6
273,8
273,8
370
336,7
284,9
296
273,8
262,7
284,9
266,4
244,2
240,5
240,5
262,7
266,4
262,7
210,9
262,7
229,4
34
Danuta Strahl
Literatura
Hollanders H. 2006 European Regional Innovation Scoreboard (2006 RIS), European
Trend Chart on Innovation, European Commission.
Hollanders H., van Cruysen A. 2008 Rethinking the European Innovation Scoreboard: A New
Methodology for 2008-2010, Pro Inno Europe, Inno Metrix.
Kudłacz T. 1999 Programowanie rozwoju regionalnego, Warszawa.
Kukliński A. 2001 Gospodarka oparta na wiedzy jako wyzwanie dla Polski XXI wieku, Warszawa.
Strahl D. 1978 Propozycja konstrukcji miary syntetycznej, „Przegląd Statystyczny”, nr 2.
Strahl D. 1982 Ścieżka harmonijnego rozwoju w ujęciu dynamicznym, „Przegląd Statystyczny”,
nr 3/4.
Strahl D., Walesiak M. 1997 Normalizacja zmiennych w granicznym systemie referencyjnym,
„Przegląd Statystyczny”, z. 1.
Walesiak M. 2006 Uogólniona miara odległości w statystycznej analizie wielowymiarowej, Wrocław.
OPTIMUM. STUDIA EKONOMICZNE NR 4 (48) 2010
Krzysztof JAJUGA1
ASSESSMENT OF MODEL RISK IN FINANCIAL MARKETS
Summary
The paper presents the problem of assessment of risk in financial models. This is important from practical point of view since inappropriate use of models in financial markets may cause large losses. The paper
describes the sources of model risk and the methods of measuring and handling this risk. Two types of
measures are proposed: distribution based measures and sensitivity measures. The remaining part of the paper contains two examples. The first one concerns risk of optimal two-stock selection related to estimation
of the correlation coefficient, the second one concerns the risk of option pricing related to estimation of the
volatility parameter.
Keywords: model risk, option pricing, portfolio theory
1. Model risk in finance – introduction
Almost each discipline of economic sciences uses some models. Finance, particularly financial market theory, developed a number of models. They are used for
valuation of financial instruments and for the decision making process in the financial market. On the one hand, these models try to describe the real world (financial
markets); on the other hand, they support a decision making process of market participants. All the models used in finance are only approximations, contrary to many exact tools used in natural sciences. Therefore, the application of a financial model
raises the issue of an incorrect description of the real world (for example, financial
market), which can lead to wrong decisions.
The notion “model risk” can be defined in a general and simplified way:
Model risk is a risk resulting from erratic model used in real world.
A very good, common sense explanation of model risk is given by Robert Merton. He stated (see: [Merton 1994]), that:
„At times, we can lose sight of the ultimate purpose of the models when their
mathematics becomes too interesting. The mathematics of financial models can be
1 Prof. dr hab. Krzysztof Jajuga is a research worker at Department of Financial Investments and Risk
Management, Wroclaw University of Economics.
36
Krzysztof Jajuga
applied precisely, but the models are not all precise in their application to the complex real world. Their accuracy as a useful approximation to that world varies significantly across time and place. The models should be applied in practice only
tentatively, with careful assessment of their limitations in each application”.
There are at least three distinct sources of uncertainty resulting in model risk
(each of them can be illustrated by looking at option pricing model):
1. Uncertainty as to the structure of the model.
This refers, for example, to the situation in which some important factors
(variables) are omitted; there is wrong functional form of relationship between the variables in the model, etc. A good example could be the option
pricing model of a linear form. Fortunately, such model is no longer proposed in financial literature and not used in real applications.
2. Uncertainty as to the parameters of the model.
Even if there is correct structure of the model, some parameters of the
model usually need to be estimated. Model risk occurs, since there are different estimation methods, possibilities of using different data sets, etc.
The example is the estimation of volatility in Black-Scholes-Merton option
pricing model. There are many methods that could be used for this purpose, usually classified into two general approaches: historical volatility and
implied volatility (see e.g. [Hull 2006]).
3. Uncertainty as to the application of the model.
This refers to the situation when model that was correctly constructed and
estimated, is not good description of the particular real case. Good example
is Black-Scholes-Merton pricing model applied in emerging market characterized by low liquidity.
Using financial models without clear understanding of uncertainty lying behind
these models may lead to consequences in the financial market, including severe
losses. The first significant case of losses resulted from model risk occurred during
collapse of hedge fund Long Term Capital Management in 1998. Managers of this
fund used rather sophisticated financial models and performed extremely well in
the period of stable markets. However, there models were not properly adjusted for
the case of extreme shocks which happened during East Asian crisis in 1997 and
Russian crisis in 1998. High leverage taken by this fund led to huge losses and collapse, however there was a bailout of this fund.
In my opinion, the use of the financial model in real application should be supplemented with the analysis of risk of this model. If there is some uncertainty as to
the structure of the model and some uncertainty as to the application of the model,
then qualitative judgment should be used. This judgment will contain the analysis of
the assumptions lying behind the model, as well as the analysis of the particular
market in which the model is to be applied.
Assessment of model risk in financial markets
37
In the case of some uncertainty as to the parameters of the model, one can
adopt the quantitative approach. Here, we propose to apply standard quantitative
measures of market risk, used in measuring, for example, stock price risk or interest
rate risk. There are two groups of such measures:
1. Distribution based measures.
Here, one analyzes the distribution of the estimate of the parameter. The larger
dispersion of this distribution, the higher is risk resulting from the estimation
of this parameter.
2. Sensitivity measures.
Here, one analyzes the sensitivity of the output of the model to the changes of
the value of the respective parameter. From a mathematical point of view, sensitivity measure is the derivative of the output of the model with regard to the
parameter. The higher sensitivity, the higher is risk resulting from the estimation of this parameter.
There are also other tools that can be used in the analysis of model risk occurring in financial models. The practitioners apply the following two approaches:
a) Backtesting, being the verification of the model using past data – if the
model does not perform well on the past data, this might be an indication
of uncertainty as to an application of this model in future;
b) Stress testing, being the verification of the model using data generated subject
to extreme shocks – this shows how model is sensitive to such shocks; usually
occurrence of instability is not a good recommendation for the model.
The idea of the quantitative assessment of model risk resulting from uncertainty
as to the parameters will be illustrated in the remaining part of the paper.
2. Two-stock portfolio model
The first example, we consider, is the simple case of a two-stock portfolio. This
example was presented by Jajuga [Jajuga 2009] and can be regarded as a didactic
illustration of the problem. The two-stock portfolio problem is a particular case of
the portfolio theory developed by Harry Markowitz [Markowitz 1952].
Here we consider a portfolio of two stocks, numbered 1 and 2, of minimal risk
measured as standard deviations of returns. It can be proved (see e.g.:[Jajuga, Jajuga
2006]) that the weight of the stock 1 in the portfolio is given as:
s 2  s1 s 2 12
2
w1 
s1  s 2  2 s1 s 2 12
2
2
Where:
w1 - the weight of stock 1 in the portfolio of minimal risk;
s1 - standard deviation of returns of stock 1;
(1)
(1)
38
Krzysztof Jajuga
s2 - standard deviation of returns of stock 2;
12 - correlation coefficient of returns for two stocks.
Of course, the weight of stock 2 is given as one minus weight of stock 1.
We present here sensitivity analysis of weight of stock 1 with respect to the
changes of correlation coefficient of returns. As it is known, correlation of returns
is crucial parameter influencing risk of portfolio.
It can be proved that the derivative of weight with respect to correlation coefficient of returns is given as:
2
2
s s ( s  s1 )
w1
 2 1 22 2
12 ( s1  s 2  2 s1 s 2 12 ) 2
( 2)
(2)
The formula (2) shows what is the sensitivity of the weight of stock, in the portfolio
of minimal risk. The higher sensitivity, the more uncertain is the determination of minimal risk portfolio due to the estimation of correlation coefficient of returns.
It is worth to notice that for two stocks of equal risk (equal standard deviation
of returns), the sensitivity given by (2) is equal to zero and by virtue of (1) two
stocks have equal weights (0.5) in the portfolio of minimal risk.
Let us consider the general case in which:
s 2  ks1
k 1
(3) (3)
By applying (3) in (2) and simple transformations, we obtain:
w1
k3  k

12 (1  k 2  2k12 ) 2
( 4)
(4)
Therefore, the sensitivity of the weight of the stock with respect to the correlation of returns is the function of correlation coefficient of returns and the parameter k, reflecting the proportions of standard deviations of returns of both stocks.
Table 1. contains the sensitivity values for different correlation coefficients and different values of k.
The following conclusions can be derived from the analysis of table 1.:
1. For given k (different than 1) sensitivity increases when the correlation
coefficient of returns increases. That means that model risk of two stock
portfolio of minimal risk is low when the correlation of returns gets closer
to minus 1.
2. The increase of sensitivity in the case of large correlation coefficients is not
significant, when k is higher than 5.
3. For a given correlation coefficient of returns, the sensitivity first grows with
the increase of k, and then goes down. This means that there exists value k for
which sensitivity (indicating model risk) is the largest. This maximal value is
the lowest for higher values of correlation coefficient of returns.
Assessment of model risk in financial markets
39
TABLE 1.
Sensitivities of weight of stock 1 with respect to correlation of returns
-0.9
-0.8
-0.7
-0.6
-0.5
-0.4
-0.3
-0.2
-0.1
0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
k=1.1
0.013
0.015
0.016
0.019
0.021
0.024
0.028
0.033
0.039
0.047
0.058
0.074
0.096
0.131
0.187
0.292
0.515
1.141
4.367
k=1.2
0.025
0.028
0.031
0.035
0.040
0.046
0.053
0.062
0.074
0.089
0.109
0.137
0.178
0.241
0.343
0.528
0.914
1.953
6.735
k=1.5
0.053
0.059
0.066
0.074
0.083
0.095
0.109
0.126
0.149
0.178
0.215
0.267
0.340
0.446
0.612
0.892
1.418
2.595
6.198
k=2
0.081
0.089
0.099
0.110
0.122
0.138
0.156
0.178
0.206
0.240
0.284
0.340
0.416
0.519
0.667
0.888
1.240
1.852
3.061
k=3
0.101
0.110
0.119
0.130
0.142
0.156
0.172
0.191
0.214
0.240
0.272
0.310
0.357
0.416
0.490
0.586
0.713
0.888
1.134
k=4
0.102
0.110
0.117
0.126
0.136
0.147
0.159
0.173
0.189
0.208
0.229
0.253
0.281
0.315
0.355
0.403
0.462
0.534
0.625
k=5
0.098
0.104
0.110
0.117
0.125
0.133
0.143
0.153
0.165
0.178
0.192
0.208
0.227
0.248
0.272
0.300
0.332
0.370
0.415
k=10
0.070
0.072
0.075
0.078
0.080
0.083
0.086
0.090
0.093
0.097
0.101
0.105
0.110
0.114
0.120
0.125
0.131
0.137
0.144
k=25
0.035
0.035
0.036
0.036
0.037
0.037
0.038
0.039
0.039
0.040
0.040
0.041
0.042
0.042
0.043
0.044
0.045
0.045
0.046
Source: Own calculations.
Besides the sensitivity analysis, one can conduct analysis of model risk by using
volatility measures. By applying the assumption given by (3) to formula (1) we obtain – after some transformations:
k 2  k12
(5)
w1  2
(5)
k  1  2k12
To illustrate the impact of volatility of correlation coefficient of returns on
weight of stock in the portfolio of minimal risk, we use the formula for confidence
interval of correlation coefficient (assuming large sample and normal distribution):
1 r 2
1 r 2
(6)
P ( r  u
   r  u
)  1
(6)
n
n
Where:
r - sample correlation coefficient;
n - number of observations;
u - value from normal distribution table;
1   - confidence level.
In the following example, we assume confidence level of 0.95 and the number
of observations equal to 256 (number close to the number of trading days in one
year). Table 2. contains the lower and upper limit of confidence interval.
40
Krzysztof Jajuga
TABLE 2.
Limits of confidence interval for correlation coefficient.
Sample correlation
coefficient
-0.9
-0.8
-0.7
-0.6
-0.5
-0.4
-0.3
-0.2
-0.1
0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
Lower limit of confidence interval
-0.923
-0.844
-0.762
-0.678
-0.592
-0.503
-0.411
-0.318
-0.221
-0.123
-0.021
0.082
0.189
0.297
0.408
0.522
0.638
0.756
0.877
Upper limit of confidence interval
-0.877
-0.756
-0.638
-0.522
-0.408
-0.297
-0.189
-0.082
0.021
0.123
0.221
0.318
0.411
0.503
0.592
0.678
0.762
0.844
0.923
Source: Own calculations.
Tables 3., 4. and 5. contain the weights of stock 1 in a portfolio of minimal risk in
the case of lower and upper limit of the confidence interval. We used formula (5),
three values of k (1.1, 2 and 10) were assumed.
TABLE 3.
Weights in a portfolio (k=1.1).
Sample
correlation coefficient
-0.9
-0.8
-0.7
-0.6
-0.5
-0.4
-0.3
-0.2
-0.1
0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
Weight – the case of
sample correlation
coefficient
0.525
0.526
0.528
0.530
0.532
0.534
0.537
0.540
0.543
0.548
0.553
0.559
0.568
0.579
0.595
0.618
0.657
0.733
0.957
Source: Own calculations.
Weight – the case of
lower limit of confidence interval
0.525
0.526
0.527
0.528
0.530
0.532
0.534
0.536
0.539
0.542
0.547
0.552
0.558
0.567
0.580
0.599
0.630
0.692
0.873
Weight – the case of
upper limit of confidence interval
0.525
0.527
0.529
0.531
0.534
0.537
0.540
0.544
0.549
0.554
0.561
0.569
0.580
0.595
0.616
0.646
0.697
0.797
1.087
Assessment of model risk in financial markets
41
TABLE 4.
Weights in a portfolio (k=2).
Sample
correlation coefficient
-0.9
-0.8
-0.7
-0.6
-0.5
-0.4
-0.3
-0.2
-0.1
0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
Weight – the case of
sample correlation
coefficient
0.674
0.683
0.692
0.703
0.714
0.727
0.742
0.759
0.778
0.800
0.826
0.857
0.895
0.941
1.000
1.077
1.182
1.333
1.571
Weight – the case of
lower limit of confidence interval
0.673
0.679
0.686
0.694
0.704
0.714
0.726
0.739
0.755
0.773
0.795
0.821
0.853
0.894
0.945
1.015
1.112
1.259
1.505
Weight – the case of
upper limit of confidence interval
0.676
0.687
0.699
0.712
0.726
0.742
0.761
0.781
0.805
0.833
0.865
0.902
0.947
1.002
1.070
1.156
1.269
1.424
1.648
Source: Own calculations.
TABLE 5.
Weights in a portfolio (k=10).
Sample
correlation coefficient
-0,9
-0,8
-0,7
-0,6
-0,5
-0,4
-0,3
-0,2
-0,1
0
0,1
0,2
0,3
0,4
0,5
0,6
0,7
0,8
0,9
Weight – the case of
sample correlation
coefficient
0,916
0,923
0,930
0,938
0,946
0,954
0,963
0,971
0,981
0,990
1
1,010
1,021
1,032
1,044
1,056
1,069
1,082
1,096
Weight – the case of
lower limit of confidence interval
0,914
0,920
0,926
0,932
0,939
0,946
0,953
0,961
0,970
0,978
0,988
0,998
1,009
1,021
1,033
1,047
1,061
1,076
1,093
Weight – the case of
upper limit of confidence interval
0,918
0,926
0,935
0,944
0,953
0,963
0,972
0,982
0,992
1,002
1,013
1,023
1,034
1,044
1,055
1,066
1,077
1,088
1,100
Source: Own calculations.
The results given in the presented tables show that in these cases model risk is
not high, in the case of k=10, that is when risks of two stocks differ much. For the
42
Krzysztof Jajuga
other two cases model risk is higher, but only when the correlation coefficient is
higher than 0.7. Also, it is to be noticed that in the case of k=2 model risk is higher
than in the case of k=1.1.
3. Volatility in the option pricing model
The option pricing model, known in a general form as the Black-Scholes-Merton model [Black, Scholes 1973; Merton 1973] is one of the most common models
used in the financial market. As it is well-known, the only parameter in this model,
which is not known explicitly and is subject to estimation, is the volatility
parameter, understood as standard deviation of underlying index returns. We consider a particular case of this model. This is the Black-Scholes model yielding the
value of option written on non-dividend paying stocks.
Let us analyze the sensitivity of the option price to the changes of volatility
(standard deviation of returns of underlying index). This is known as the so-called
vega coefficient, given by the following formula, for both, call and put options (see
e.g.: [Hull 2006]):
  Sn(d 1 ) T
( 7)
(7)
And:
S
2
ln( )  ( r  )T
2
d1  X
 T
(8 )
(8)
Where:
 - vega coefficient;
S – stock price;
X – strike price;
r – risk-free interest rate;
T – time of expiration of an option;
 – volatility (standard deviation of stock returns);
n(d) – density of standardized normal distribution at d.
The formulas (7) and (8) show how sensitive the price of option (call or put) is to
the changes of volatility. This shows what is risk of option pricing model due to the
uncertainty resulting from the estimation of volatility.
As an illustration, we will consider stock option, where price of stock is equal to
100, term structure of interest rates is flat and interest rate is equal to 5%. Suppose
that the estimate of volatility yields 20%. Table 6. gives the values of vega coefficient
for different strike prices and different time of maturity.
Assessment of model risk in financial markets
43
TABLE 6.
Sensitivity of option price to the changes of volatility
Strike price
60
70
80
85
90
95
100
105
110
115
120
130
140
Vega – expiration 3 months
0
0.02
1.10
3.95
9.38
15.74
19.64
18.99
14.74
9.45
5.13
0.99
0.12
Vega – expiration 5 days
0
0
0
0
0
0.39
4.67
0.58
0
0
0
0
0
Source: Own calculations.
Table 6. indicates that model risk resulting from volatility estimation is much larger
for options with longer time of maturity. This is natural since longer time of maturity allows for greater impact of volatility. The other property that can be observed in table 6. is the higher sensitivity for in-the-money (ITM) option – for which strike
price is close to the price of underlying instrument.
Literature
Black F., Scholes M. 1973 The Pricing of Options and Corporate Liabilities, “Journal of
Political Economy”, 81, pp. 637 – 654.
Hull J.C. 2006 Options, Futures and Other Derivatives, Pearson Education, Upper Saddle River.
Jajuga K. 2009 Model ekonometryczny – kilka refleksji na tle historii i współczesności, [w:]
Dylematy ekonometrii, Katowice, pp. 93-103,.
Jajuga K., Jajuga T. 2006 Inwestycje. Instrumenty finansowe, aktywa niefinansowe, ryzyko finansowe, inżynieria finansowa, Warszawa.
Markowitz H.M. 1952 Portfolio Selection, “Journal of Finance”, 7, pp. 77 – 91.
Merton R.C. 1973 Theory of Rational Option Pricing, “Bell Journal of Economics and
Management Science”, pp, s. 141 – 183.
Merton R.C. 1994 Influence of Mathematical Models in Finance on Practice: Past, Present and
Future, “Philosophical Transactions”, 1684, Royal Society of London, pp. 451 –
463.
OPTIMUM. STUDIA EKONOMICZNE NR 4 (48) 2010
Joanna OLBRYŚ1
OCENA EFEKTYWNOŚCI ZARZĄDZANIA PORTFELEM
FUNDUSZU INWESTYCYJNEGO Z WYKORZYSTANIEM
WYBRANYCH WIELOCZYNNIKOWYCH MODELI MARKETTIMING2
Streszczenie
Celem artykułu jest ocena efektywności zarządzania portfelami polskich funduszy inwestycyjnych akcji
z wykorzystaniem wieloczynnikowych modeli market-timing oraz analiza porównawcza wyników estymacji
modeli trójczynnikowych i czteroczynnikowych. W modelach trójczynnikowych T-M-FF oraz H-M-FF,
oprócz zmiennej reprezentującej rynek, zastosowano, jako dodatkowe zmienne objaśniające, czynniki Famy
i Frencha – portfele naśladujące SMB oraz HML . W modelach czteroczynnikowych również uwzględniono zmienne SMB i HML , natomiast w miejsce zmiennej reprezentującej umiejętności menadżera
w zakresie stosowania techniki market-timing w klasycznej wersji modelu T-M lub H-M odpowiednio, wprowadzono nową zmienną, tzw. wartość dodaną. Wartość dodana z założenia ma być wynikiem perfekcyjnego
stosowania techniki market-timing, czyli tzw. wyczucia rynku przez zarządzającego portfelem. Badaniem objęto grupę 15 otwartych funduszy akcji w okresie: styczeń 2003r. – grudzień 2009r. Wybór okresu był zdeterminowany głównie liczbą akcji oraz funduszy akcji dostępnych na polskim rynku. Porównano wyniki estymacji i weryfikacji wybranych wieloczynnikowych modeli market-timing.
Słowa kluczowe: fundusze inwestycyjne, portfele naśladujące Famy i Frencha, wieloczynnikowe modele market-timing
SELECTED MULTIFACTOR MARKET-TIMING MODELS FOR MUTUAL FUND
PERFORMANCE EVALUATION
Summary
The aim of this paper is to compare modified multifactor market-timing models: the three-factor
model with the Fama and French spread variables SMB and HML, and the hybrid four-factor model
with the additional factor that proxies for the monthly payoffs of a successful market timer. We examined the market-timing and selectivity abilities of selected 15 Polish equity open-end mutual funds’
managers using daily and monthly data from January 2003 to December 2009.
Keywords: mutual funds, Fama & French mimicking portfolios, multifactor market-timing model
Dr Joanna Olbryś jest pracownikiem Wydziału Informatyki Politechniki Białostockiej.
Praca naukowa finansowana ze środków na naukę w latach 2009 – 2011, jako projekt badawczy
własny Nr N N113 173237: Modele market-timing wspomagające ocenę efektywności zarządzania portfelami polskich funduszy inwestycyjnych.
1
2
Ocena efektywności zarządzania portfelem…
45
1. Wstęp
Treynor i Mazuy [1966] oraz Henriksson i Merton [1981] zaproponowali czynnikowe modele market-timing, czyli tzw. wyczucia rynku oraz selektywności aktywów,
wspomagające ocenę efektywności zarządzania portfelami inwestycyjnymi. Modele
te okazały się szczególnie przydatne w ocenie działań menadżerów funduszy akcji na
różnych rynkach. W ostatnich latach przeprowadzono badania w wielu krajach, np.:
w Stanach Zjednoczonych [wielokrotnie, m.in.: Henriksson 1984; Kao, Cheng, Chan
1998; Bollen, Busse 2001], w Wielkiej Brytanii [Fletcher 1995], Portugalii [Romacho,
Cortez 2006], również w Polsce [m.in.: Olbryś 2008a, b, c; 2009; 2010; Zamojska 2008].
W naturalny sposób nastąpił rozwój proponowanych metod badań i pojawiły się kolejne modyfikacje modeli klasycznych.
Celem artykułu jest ocena efektywności zarządzania portfelami polskich funduszy inwestycyjnych akcji z wykorzystaniem wieloczynnikowych modeli market-timing
oraz analiza porównawcza wyników estymacji modeli trójczynnikowych i czteroczynnikowych. W modelach trójczynnikowych T-M-FF oraz H-M-FF, oprócz zmiennej
reprezentującej rynek, zastosowano, jako dodatkowe zmienne objaśniające, czynniki
Famy i Frencha – portfele naśladujące SMB oraz HML [Olbryś 2010]. W modelach
czteroczynnikowych również uwzględniono zmienne SMB i HML , natomiast w miejsce zmiennej reprezentującej umiejętności menadżera w zakresie stosowania techniki
market-timing w klasycznej wersji modelu T-M lub H-M odpowiednio, wprowadzono
nową zmienną, tzw. wartość dodaną [Goetzmann, Ingersoll, Ivković 2000]. Wartość
dodana z założenia ma być wynikiem perfekcyjnego stosowania techniki market-timing
przez zarządzającego portfelem. Badaniem objęto grupę 15 otwartych funduszy akcji
w okresie: styczeń 2003 – grudzień 2009. Wybór okresu był zdeterminowany głównie
liczbą akcji oraz funduszy akcji dostępnych na polskim rynku. Porównano wyniki estymacji i weryfikacji wybranych wieloczynnikowych modeli market-timing.
2. Klasyczne jednoczynnikowe modele parametryczne market-timing portfela inwestycyjnego
Jak zostało wspomniane we wstępie, klasyczne parametryczne modele market-timing
są modelami czynnikowymi, w których występuje zmienna reprezentująca rynek.
W praktyce najczęściej jest to stopa zwrotu z portfela rynkowego, którego substytutem
jest odpowiedni indeks giełdowy lub nadwyżka stopy zwrotu z portfela rynkowego nad
wolną od ryzyka stopą zwrotu. Estymację modeli można wykonać również z wykorzystaniem logarytmicznych stóp zwrotu, odpowiednio. Do podstawowych modeli klasycznych należą: model Treynora-Mazuya (T-M) oraz model Henrikssona-Mertona
(H-M).
46
Joanna Olbryś
2.1. Model market-timing Treynora – Mazuya (T-M)
Klasyczny parametryczny model market-timing T-M ma postać [Treynor, Mazuy
1966]:
rP , t   P   P  rM , t   P  ( rM , t ) 2   P , t ,
(1)
gdzie:
rP ,t  R P ,t  R F ,t jest nadwyżką zwykłej stopy zwrotu z portfela P nad wolną od ryzyka stopą zwrotu w okresie t ,
rM ,t  R M ,t  R F ,t jest nadwyżką zwykłej stopy zwrotu z portfela rynkowego M nad
wolną od ryzyka stopą zwrotu w okresie t ,
R P ,t jest jedno-okresową stopą zwrotu z portfela P ,
R M ,t jest jedno-okresową stopą zwrotu z portfela rynkowego M ,
R F ,t jest jedno-okresową wolną od ryzyka stopą zwrotu,
 P jest miarą umiejętności zarządzającego portfelem P w zakresie selektywności aktywów (współczynnik alfa Jensena [Jensen 1968]),
 P jest miarą ryzyka systematycznego portfela P ,
 P jest miarą umiejętności zarządzającego portfelem P w zakresie stosowania techniki
market-timing,
 P ,t jest składnikiem losowym, spełniającym następujące standardowe założenia modelu CAPM: E ( P , t )  0; E ( P , t  P , t 1 )  0 .
Współczynnik  P w równaniu (1) jest dodatni, jeśli menadżer ma zdolność przewidywania w zakresie selektywności aktywów. Zgodnie z interpretacją Jensena, dodatnia, ale nieistotna statystycznie, wartość parametru  P może być efektem dodatniego obciążenia estymatora tego parametru i niekoniecznie musi świadczyć o umiejętnościach zarządzającego portfelem.
Równanie (1) jest modelem regresji kwadratowej. Jeśli zarządzający portfelem zwiększa (zmniejsza) ekspozycję portfela na ryzyko rynkowe w przypadku wzrostów (spadków) stopy zwrotu z portfela rynkowego, wtedy stopa zwrotu z portfela jest wypukłą
funkcją rynkowej stopy zwrotu i parametr  P jest dodatni. Wielkość tego parametru
świadczy o stopniu umiejętności stosowania strategii market-timing, czyli tzw. wyczucia
rynku.
2.2. Model market-timing Henrikssona – Mertona (H-M)
Klasyczny parametryczny model H-M [Henriksson, Merton 1981] umożliwia identyfikację i ocenę umiejętności zarządzającego portfelem inwestycyjnym w zakresie stosowania techniki market-timing, jak również selekcji aktywów. Model H-M ma postać:
Ocena efektywności zarządzania portfelem…
rP , t   P   P  rM , t   P  y M , t   P , t ,
47
(2)
gdzie:
rP ,t , rM ,t ,  P ,  P ,  P ,  P,t – jak we wzorze (1),
y M , t  max{0, RF , t  RM , t }  max{0, rM , t } .
Równanie (2) wynika z modelu Mertona [Merton 1981], który uzasadnił, że doskonałe wyczucie rynku można teoretycznie uzyskać budując strategię opcyjną typu
protective put, inwestując część gotówki w portfel rynkowy, za pozostałą zaś część
nabywając „darmowe” opcje sprzedaży (z ceną realizacji R F ,t ) każdej złotówki znajdującej się w portfelu rynkowym. Strategia ta replikuje strukturę stóp zwrotu, uzyskaną
w wyniku perfekcyjnego stosowania strategii market-timing. Zgodnie z modelem
Mertona, estymator ̂ P jest miarą wpływu umiejętności menadżera w zakresie doboru papierów wartościowych (selectivity) na wyniki inwestycyjne. Testowana hipoteza zerowa ma postać:
(3)
H0 :P  0 ,
tzn. przypuszczamy, że zarządzający portfelem nie posiada umiejętności w zakresie
selektywności aktywów, czyli przewidywania w skali mikro.
Estymator ˆP reprezentuje część środków zainwestowaną w portfel rynkowy,
zgodnie ze strategią opcyjną Mertona, zaś estymator ˆP liczbę,, darmowych” opcji
sprzedaży. W tym kontekście, badanie umiejętności w zakresie wyczucia rynku jest
równoznaczne z testowaniem hipotezy zerowej:
(4)
H0 :  P  0 ,
czyli zarządzający portfelem nie posiada umiejętności w zakresie wyczucia rynku lub
ich nie wykorzystuje [Henriksson 1984]. Ujemna wartość estymatora ˆP oznacza
negatywny wpływ stosowania techniki market – timing na wartość portfela.
3. Trójczynnikowe modele market-timing ze zmiennymi Famy i Frencha
W 1992r. Fama i French przedstawili badania dotyczące spółek notowanych na
NYSE (New York Stock Exchange), AMEX (American Stock Exchange) oraz NASDAQ
(od 1972r.), w latach 1963 – 1990 [Fama, French 1992]. Obserwowali oni relację między
wartością księgową kapitału własnego spółki BV (Book Value) a wartością rynkową jej
akcji MV (Market Value). W przypadku każdej ze spółek, Fama i French cyklicznie wyznaczali wskaźnik BV / MV , czyli stosunek wartości księgowej do wartości rynkowej.
Spółki o niskiej wartości wskaźnika BV / MV były klasyfikowane jako spółki o potencjale wzrostu, natomiast te o wysokiej wartości BV / MV – jako spółki o potencjale
wartości. Okazało się, że akcje spółek o potencjale wzrostu były bardziej ryzykowne
i osiągały niższe stopy zwrotu, niż akcje spółek o potencjale wartości. Było to jedno
z najciekawszych odkryć nowej teorii finansów [Haugen 1999 s. 10].
48
Joanna Olbryś
W kolejnym artykule z 1993r. Fama i French przedstawili trójczynnikowy model
równowagi cenowej akcji. Jako zmienne objaśniające w podstawowym wariancie modelu zaproponowali:
–
RM  RF – nadwyżkę rynkowej stopy zwrotu nad wolną od ryzyka stopą zwrotu;
–
SMB (small minus big) – czynnik skonstruowany głównie na podstawie wartości rynkowej MV , tzw. size factor;
HML (high minus low) – czynnik skonstruowany głównie na podstawie war–
tości wskaźnika BV / MV , tzw. book-to-market factor.
Czynniki SMB oraz HML, nazwane portfelami naśladującymi [Fama, French 1993
s. 9], uwzględniały, zaobserwowaną wcześniej znaczącą wartość informacyjną wskaźnika BV / MV . Portfele naśladujące SMB oraz HML mogą być wykorzystane jako dodatkowe czynniki rynkowe w analizie portfeli akcyjnych funduszy inwestycyjnych (np.:
[Bollen, Busse 2001 s. 1078; Olbryś 2010]).
3.1. Konstrukcja czynników Famy i Frencha: SMB i HML na polskim rynku
W pracy [Olbryś 2010] przedstawiono konstrukcję czynników SMB i HML na polskim rynku, na podstawie procedury zaproponowanej w artykule [Fama, French 1993
s. 8 – 10]. W pierwszej kolejności dokonano selekcji spółek giełdowych, które uwzględniono w bazie danych, na podstawie następujących kryteriów:
1. Spółka była notowana na GPW w Warszawie co najmniej od 2001 roku;
2. Dane dzienne (ceny zamknięcia) spółki miały możliwe do uzupełnienia luki;
3. Spółka charakteryzowała się dodatnią wartością księgową na 1 akcję w całym
badanym okresie;
4. Wszystkie raporty roczne danej spółki były dostępne.
W wyniku selekcji do bazy danych, utworzonej zgodnie z warunkami 1.– 4., weszło
61 spółek. Ceny zamknięcia pobrano z archiwum [Dokument elektroniczny, tryb dostępu: http://bossa.pl]. Dane z raportów rocznych spółek z lat 2001 – 2008 (liczba
akcji, wartość księgowa) pobrano ze strony [Dokument elektroniczny, tryb dostępu:
www.bankier.pl], (na podstawie serwisu Notoria). Wartość rynkową MV na 1 akcję
stanowiła cena zamknięcia z ostatniego dnia roboczego czerwca danego roku.
W następnej kolejności dokonano sortowania spółek według wartości wskaźników
MV oraz BV / MV . Pierwsze sortowanie zostało wykonane 28 czerwca 2002 r. (był to
ostatni dzień roboczy miesiąca) według następujących danych: MV z dnia 28.06.2002 r.,
BV / MV z dnia 31.12.2001 r. Kolejne cykliczne sortowania wykonano odpowiednio
w dniach: 30 czerwca 2003 r., 2004 r., 2005 r., 2006 r., 2007 r., 2008 r., 2009 r. Łącznie
wykonano sortowanie 8 razy, jeden raz w każdym roku, na koniec czerwca, ze względu
na dostępność danych z raportów rocznych za poprzedni rok.
Spółki, posortowane według wartości rynkowej MV , były dzielone na dwie grupy:
–
spółki duże (B – Big), dla których wartość rynkowa akcji była nie mniejsza od
mediany;
Ocena efektywności zarządzania portfelem…
49
–
spółki małe (S – Small), dla których wartość rynkowa akcji była mniejsza
od mediany.
Spółki posortowane według wartości wskaźnika BV / MV były dzielone na trzy grupy:
–
spółki, dla których wartość wskaźnika BV / MV była nie mniejsza od percentyla 70% (grupa H – High);
–
spółki, dla których wartość wskaźnika BV / MV była mniejsza od percentyla
70%, ale nie mniejsza od percentyla 30% (grupa M – Medium);
–
spółki, dla których wartość wskaźnika BV / MV była mniejsza od percentyla
30% (grupa L – Low).
W kolejnym kroku procedury odbywał się podział spółek na sześć rozłącznych
grup: BH, BM, BL, SH, SM, SL. Do każdej z grup wchodziły te spółki, które spełniały oba warunki jednocześnie, czyli np. do grupy BH spółki duże, o wysokiej wartości wskaźnika BV / MV . Otrzymano w ten sposób po sześć, ważonych wartościami
rynkowymi, portfeli pomocniczych w każdym roku. Pomiędzy datami kolejnych przetasowań skład portfeli pomocniczych pozostawał ten sam.
Ostatnim krokiem procedury było utworzenie czynników SMB i HML oraz wyznaczenie ich dziennych stóp zwrotu w okresie: 2.01.2003r. – 31.12.2009r., według
wzorów [Olbryś 2010]:
1
RSMB   ( RSH  RSM  RSL  RBH  RBM  RBL ) ,
3
1
RHML   ( RBH  RSH  RBL  RSL ) .
2
(5)
(6)
3.2. Trójczynnikowa modyfikacja modelu market-timing Treynora – Mazuya
(model T-M-FF)
Trójczynnikowa modyfikacja klasycznego parametrycznego modelu market-timing
Treynora –Mazuya, czyli model T-M-FF, ma postać [Olbryś 2010]:
rP , t   P   P  rM , t   1P  rSMB , t   2 P  rHML, t   P  ( rM , t ) 2   P , t ; (7)
gdzie:
rP ,t , rM ,t ,  P ,  P ,  P ,  P,t – jak we wzorze (1);
rSMB,t  RSMB,t  RF ,t jest nadwyżką zwykłej stopy zwrotu z portfela naśladującego
SMB nad wolną od ryzyka stopą zwrotu w okresie t ;
rHML,t  R HML,t  RF ,t jest nadwyżką zwykłej stopy zwrotu z portfela naśladującego
HML nad wolną od ryzyka stopą zwrotu w okresie t ;
 1P jest miarą wrażliwości stopy zwrotu z portfela P na zmiany stopy zwrotu portfela
SMB ;
 2 P jest miarą wrażliwości stopy zwrotu z portfela P na zmiany stopy zwrotu portfela
HML .
50
Joanna Olbryś
3.3. Trójczynnikowa modyfikacja modelu market-timing Henrikssona – Mertona
(model H-M-FF)
Model H-M-FF, czyli trójczynnikowa modyfikacja klasycznego parametrycznego
modelu market-timing Henrikssona – Mertona, uwzględniająca czynniki rozpiętościowe Famy i Frencha, ma postać [Olbryś 2010]:
(8)
rP ,t   P   P  rM ,t   1P  rSMB ,t   2 P  rHML,t   P  y M ,t   P ,t ,
gdzie:
rP,t , rM ,t , yM ,t , rSMB,t , rHML,t ,  P ,  P ,  P , 1P ,  2 P ,  P,t – jak we wzorach: (2) oraz (7).
3.4. Charakterystyka danych i wyniki empiryczne
W pracy [Olbryś 2010] przeprowadzono estymację i weryfikację trójczynnikowych
modeli market-timing z wykorzystaniem dziennych stóp zwrotu, zgodnie z wynikami
prac: [Bollen, Busse 2001] oraz [Olbryś 2008c]. Dzienne stopy zwrotu z indeksu WIG
pełniły rolę stóp zwrotu z portfela rynkowego, natomiast dzienna średnia rentowność
bonów skarbowych 52-tygodniowych została użyta jako wolna od ryzyka stopa zwrotu.
Badaniem objęto grupę 15 otwartych funduszy akcji w okresie: styczeń 2003 r. – grudzień 2009 r. (po 1760 obserwacji dla każdej zmiennej). Wybór okresu był zdeterminowany głównie liczbą akcji oraz funduszy akcji dostępnych na polskim rynku. Do estymacji wszystkich modeli wykorzystano tzw. estymatory odporne Neweya-Westa, z korektą heteroskedastyczności i autokorelacji, dostępne w pakiecie Gretl 1.8.5. Kryterium
informacyjne Akaike (AIC) potwierdziło celowość wprowadzenia dodatkowych czynników w modelach: T-M-FF oraz H-M-FF. Przeciętna wartość współczynnika determinacji R 2 uzyskanych modeli była dość wysoka zarówno w przypadku modeli klasycznych (ok. 0,515 dla modeli T-M oraz H-M), jak też trójczynnikowych (ok. 0,522 dla
modeli T-M-FF oraz H-M-FF), biorąc pod uwagę fakt, że do estymacji modeli wykorzystano dane dzienne.
Niestety, zgodnie z otrzymanymi wynikami, potencjalni inwestorzy, lokujący swoje
aktywa w jednostkach polskich funduszy akcji, nie mogą mieć wielu powodów do zadowolenia, ponieważ, podobnie jak w pracach [Olbryś 2008a, b, c; Olbryś 2009] i innych, interpretacje uzyskanych wartości estymatorów parametrów modeli nie potwierdzają umiejętności zarządzających portfelami tych funduszy w zakresie stosowania techniki market-timing oraz selektywności aktywów. W przypadku wszystkich funduszy uzyskano ujemne wartości oceny parametru ˆP , natomiast dla większości funduszy były one
ujemne i statystycznie istotnie na poziomie 5%, co zgodnie z hipotezą (4) świadczy
o negatywnym wpływie stosowania techniki market – timing na wartość portfela.
Ostrożnie należy wyciągać wnioski w odniesieniu do interpretacji uzyskanych ocen
parametru ̂ P . Jeśli menadżer funduszu ma zdolność przewidywania w zakresie selektywności aktywów, to współczynnik ten w odpowiednim modelu powinien być dodatni. Zgodnie z interpretacją Jensena, dodatnia, ale nieistotna statystycznie, wartość
Ocena efektywności zarządzania portfelem…
51
estymatora ̂ P może być efektem dodatniego obciążenia estymatora tego parametru
i niekoniecznie musi świadczyć o umiejętnościach zarządzającego portfelem. Faktycznie, w przypadku większości funduszy, otrzymano dodatnią, ale nieistotną
statystycznie, wartość oceny ̂ P .
Wyniki badań, których podsumowanie zaprezentowano w tabeli 1., zostały przedstawione szczegółowo w pracy [Olbryś 2010].
TABELA 1.
Podsumowanie wyników estymacji modeli klasycznych oraz trójczynnikowych (dane dzienne z okresu: styczeń 2003 r. – grudzień 2009 r.)
Lp. Fundusz akcji
1.
2.
3.
4.
5.
6.
7.
8.
9.
10.
11.
12.
13.
14.
15.
Arka BZ WBK
Akcji FIO
Aviva Investors
FIO Polskich
Akcji
BPH FIO Akcji
DWS Polska
FIO Top 25
Małych Spółek
DWS Polska
FIO Akcji
DWS Polska
FIO Akcji Plus
ING FIO Akcji
Legg Mason
Akcji FIO
Millennium
FIO Akcji
Pioneer Akcji
Polskich FIO
PKO/CREDIT
SUISSE Akcji
FIO
PZU FIO Akcji
KRAKOWIAK
SEB 3 – Akcji
FIO
Skarbiec – Akcja FIO
UniKorona
Akcja FIO
Model
T-M
(1)
Model
H-M
(2)
Model T-M-FF (7)
Model H-M-FF (8)
̂ P ˆ P ̂ P ˆ P ̂ P ˆ P ˆ1P ˆ2 P ̂ P ˆ P ˆ1P ˆ2 P
++
--
++
--
++
--
++
++
++
--
++
++
++
--
++
--
++
--
-
+
++
--
-
+
+
--
++
--
+
--
+
++
++
--
+
++
++
--
++
--
+
--
++
++
+
--
++
++
+
-
+
-
+
-
+
+
+
-
+
+
++
--
++
--
+
-
++
+
+
-
++
+
+
--
++
--
+
--
+
++
+
--
+
++
++
--
++
--
++
--
+
++
++
--
+
++
+
--
++
--
0
--
++
++
+
--
++
++
+
-
++
--
0
--
-
++
+
--
-
++
+
--
++
--
+
--
+
+
++
--
+
+
+
--
++
--
+
--
-
++
++
--
-
++
++
--
++
--
+
-
++
+
+
-
++
+
++
-
++
-
+
-
++
+
+
-
++
+
++
--
++
--
++
-
++
+
+
-
++
+
Oznaczenia dotyczące uzyskanych wartości estymatorów parametrów strukturalnych modeli
market-timing: - ujemny; -- istotnie ujemny na poziomie 5%; + dodatni; ++ istotnie dodatni
na poziomie 5%.
Źródło: Opracowanie własne: [Olbryś 2010].
52
Joanna Olbryś
Ze względu na fakt, że jednym z głównych celów artykułu jest analiza porównawcza wyników estymacji modeli trójczynnikowych i hybrydowego czteroczynnikowego
(przedstawionego w rozdziale 3. niniejszej pracy), w kolejnym kroku badania dokonano estymacji i weryfikacji modeli trójczynnikowych T-M-FF oraz H-M-FF na podstawie miesięcznych stóp zwrotu z portfela danego funduszu oraz z portfela rynkowego, w celu oszacowania nadwyżek stóp zwrotu z obu portfeli. Jako wartości zmiennych SMB i HML wykorzystano średnie miesięczne stopy zwrotu każdej ze zmiennych, odpowiednio. Średnie miesięczne rentowności bonów skarbowych 52-tygodniowych pełniły w modelach rolę miesięcznej, wolnej od ryzyka, stopy zwrotu. Wyniki estymacji modeli T-M-FF (7) i H-M-FF (8) w przypadku 15 polskich funduszy
akcji, w okresie: styczeń 2003r. – grudzień 2009r. (po 84 obserwacje dla każdej zmiennej) przedstawiają tabele: 2. oraz 3. Estymacji modeli dokonano z wykorzystaniem
KMNK i estymatorów odpornych [Newey, West 1987], z korektą heteroskedastyczności i autokorelacji (HAC – Heteroskedasticity and Autocorrelation Consistent).
TABELA 2.
Model trójczynnikowy T-M-FF (7) (dane miesięczne z okresu: styczeń
2003 r. – grudzień 2009 r.)
Lp.
1.
2.
3.
4.
5.
6.
7.
8.
9.
10.
11.
12.
13.
14.
15.
Fundusz akcji
Arka BZ WBK Akcji
FIO
Aviva Investors FIO
Polskich Akcji
BPH FIO Akcji
DWS Polska FIO Top
25 Małych Spółek
DWS Polska FIO Akcji
DWS Polska FIO Akcji
Plus
ING FIO Akcji
Legg Mason Akcji FIO
Millennium FIO Akcji
Pioneer Akcji Polskich
FIO
PKO/CREDIT
SUISSE Akcji FIO
PZU FIO Akcji
KRAKOWIAK
SEB 3 – Akcji FIO
Skarbiec – Akcja FIO
UniKorona Akcja FIO
̂ P
̂ P
ˆ1P
ˆ2 P
ˆ P
R2
DW
AIC
0,02***
0,92***
1,51***
1,38**
-0,56**
0,93
2,07
-414,5
0,01***
0,89***
1,65***
0,43
-0,62***
0,96
1,62
-476,6
0,004*
0,80***
1,06***
-0,05
-0,37
0,95
1,75
-481,1
0,04***
0,73***
7,86***
2,63***
-0,87***
0,89
1,86
-383,8
-0,005
0,83***
-0,55
-0,47
-0,54***
0,94
2,46
-461,7
0,006*
0,79***
1,38***
0,08
-0,63***
0,94
1,99
-462,2
0,000
0,007**
0,005
0,84***
0,80***
0,76***
0,82*
1,02**
1,52**
-0,37
-0,45
-0,09
0,05
-0,77***
-0,50*
0,96
0,94
0,93
2,07
1,95
2,16
-478,7
-457,1
-446,5
-0,002
0,99***
0,15
0,55
-0,10
0,96
2,13
-463,8
0,004
0,82***
1,08**
-0,05
-1,01***
0,94
1,58
-453,9
0,007**
0,78***
1,41***
0,60*
-0,59***
0,95
2,03
-474,6
0,006*
0,009**
0,01*
0,83***
0,74***
0,81***
1,13***
1,32**
1,09***
0,04
-0,15
-0,22
-0,65*
-0,41**
-0,23*
0,94
0,92
0,95
2,30
2,56
2,14
-444,3
-445,0
-475,7
* istotność na poziomie 0,1;
** istotność na poziomie 0,05;
*** istotność na poziomie 0,01.
Źródło: Opracowanie własne (z wykorzystaniem pakietu Gretl 1.8.5).
Ocena efektywności zarządzania portfelem…
53
TABELA 3.
Model trójczynnikowy H-M-FF (8) (dane miesięczne z okresu: styczeń
2003 r. – grudzień 2009 r.)
Lp.
Fundusz akcji
1. Arka BZ WBK Akcji FIO
2. Aviva Investors FIO Polskich
Akcji
3. BPH FIO Akcji
4. DWS Polska FIO Top 25 Małych
Spółek
5. DWS Polska FIO Akcji
6. DWS Polska FIO Akcji Plus
7. ING FIO Akcji
8. Legg Mason Akcji FIO
9. Millennium FIO Akcji
10. Pioneer Akcji Polskich FIO
11. PKO/CREDIT SUISSE Akcji
FIO
12. PZU FIO Akcji KRAKOWIAK
13. SEB 3 – Akcji FIO
14. Skarbiec – Akcja FIO
15. UniKorona Akcja FIO
̂ P
ˆ P
ˆ1P
ˆ2 P
ˆ P
R2
DW
AIC
0,02*** 0,81*** 1,61***
1,39**
-0,21**
0,93
2,04
-416,7
0,02*** 0,77*** 1,79***
0,44
-0,25***
0,96
1,71
-476,8
0,01*** 0,72*** 1,16***
-0,05
-0,16**
0,95
1,77
-482,5
0,05*** 0,57*** 8,04*** 2,65*** -0,34***
0,89
1,89
-383,5
-0,001
0,01**
-0,001
0,01***
0,007
-0,002
0,72*** -0,43
0,68*** 1,47***
0,85*** 0,81*
0,66*** 1,17**
0,68*** 1,59**
0,98*** 0,18
-0,46
0,09
-0,37
-0,43
-0,08
0,55
-0,22***
-0,22***
0,02
-0,29***
-0,17**
-0,04
0,94
0,94
0,96
0,94
0,93
0,96
2,44
2,0
2,06
2,05
2,18
2,13
-462,0
-459,3
-478,7
-454,9
-444,6
-463,9
1,25**
-0,02
-0,37***
0,94
1,55
-448,5
0,65*** 1,58***
0,71*** 1,26***
0,68*** 1,37**
0,77*** 1,14***
0,60*
0,05
-0,13
-0,22
-0,27***
-0,25**
-0,14*
-0,10**
0,95
0,94
0,92
0,95
2,08
2,36
2,55
2,16
-478,2
-443,5
-443,6
-475,9
0,009** 0,64***
0,01***
0,01**
0,01**
0,008**
* istotność na poziomie 0,1;
** istotność na poziomie 0,05;
*** istotność na poziomie 0,01.
Źródło: Opracowanie własne (z wykorzystaniem pakietu Gretl 1.8.5).
Uzyskany model charakteryzuje się wysokimi wartościami współczynnika determinacji R 2 , prawie we wszystkich przypadkach przewyższającymi 90%. Wartości krytyczne statystyki Durbina-Watsona DW wynoszą odpowiednio: d L  1,55 , dU  1,75,
zatem tylko w przypadku funduszy Aviva Investors FIO Polskich Akcji i PKO/CREDIT SUISSE Akcji FIO (tabele: 2. oraz 3.) kryterium DW nie rozstrzyga, czyli zastosowanie estymatorów HAC nie pozwoliło uzyskać ostatecznego wyeliminowania
problemu autokorelacji.
Dla większości funduszy otrzymano dodatnie oraz istotne statystycznie wartości estymatora ̂ P . Analogicznie, jak w poprzednich pracach na ten temat [Olbryś 2008a, b,
c; 2009], czynnik rynkowy (reprezentowany przez indeks WIG) okazał się istotny
statystycznie, co potwierdzają wartości estymatora ˆ P w obu tabelach: 2. i 3. Potwier-
dziła się także po raz kolejny statystycznie istotna, ujemna wartość estymatora ˆP
w przypadku większości funduszy (12 z 15 w tabeli 2. oraz 13 z 15 w tabeli 3.). Ujemna wartość tego estymatora może oznaczać negatywny wpływ stosowania techniki
market – timing na wartość portfela (hipoteza zerowa (4)).
54
Joanna Olbryś
Estymatory parametrów:  1P oraz  2 P można interpretować jako miary wrażliwości stopy zwrotu z portfela funduszu na zmiany stopy zwrotu portfeli SMB oraz HML,
naśladujących rolę wybranych czynników, odpowiednio. Czynnik SMB jest miarą rozpiętości stóp zwrotu pomiędzy spółkami o niskiej i wysokiej wartości rynkowej MV .
Czynnik HML natomiast mierzy rozpiętość stóp zwrotu pomiędzy spółkami o potencjale wartości (wysokie BV / MV ) i spółkami o potencjale wzrostu (niskie BV / MV ).
Badania Famy i Frencha wykazały, że w przypadku dobrze zdywersyfikowanych portfeli
(a takimi są zwykle portfele otwartych funduszy inwestycyjnych) relacja wartości księgowej do rynkowej jest wyjątkowo dobrym wyznacznikiem przyszłych stóp zwrotu
[Haugen 1999 s. 5]. Analiza wyników estymacji parametru ˆ1P w tabelach: 2. i 3. informuje o istotnym wpływie zmian wartości czynnika SMB na wartość stopy zwrotu
z portfela dla większości funduszy, w badanym okresie (istotnie większe od 1 wartości
tego estymatora). Nie można natomiast wyciągnąć analogicznych wniosków w odniesieniu do istotności wpływu drugiego z czynników Famy i Frencha, czyli zmiennej HML.
Wartości estymatora ˆ2 P w tabelach: 2. oraz 3. są o wiele bardziej zróżnicowane
i w większości przypadków, poza nielicznymi wyjątkami, nieistotne statystycznie.
4. Czteroczynnikowy model market-timing portfela inwestycyjnego
Głównym celem badania jest estymacja i weryfikacja zaproponowanego hybrydowego modelu czteroczynnikowego oraz opinia o przydatności tego modelu w ocenie
efektywności zarządzania portfelami polskich funduszy akcji, w porównaniu z modelami trójczynnikowymi. W literaturze przedmiotu propozycja modelu wieloczynnikowego, testowanego empirycznie w grupie 230 otwartych funduszy inwestycyjnych
na rynku amerykańskim, pojawiła się w pracy [Bollen, Busse 2001 s. 1081-1082]. Model
ten faktycznie był modelem pięcioczynnikowym, zawierającym również, jako zmienną
objaśniającą, tzw. czynnik „momentum”, wprowadzony przez Carharta [Carhart 1997].
Budowa modelu pięcioczynnikowego wymaga konstrukcji zmiennej Carharta na polskim rynku, co nie zostało do tej pory zrobione i będzie przedmiotem dalszych badań i analiz.
4.1. Modyfikacja klasycznego modelu market-timing – parametryczny test G-I-I
(Goetzmann – Ingersoll – Ivković)
Klasyczne modele T-M (1) oraz H-M (2), jak również zmodyfikowane trójczynnikowe modele T-M-FF (7) i H-M-FF (8) mogą być szacowane zarówno na podstawie
danych miesięcznych, jak i dziennych. Bollen i Busse zwrócili uwagę na fakt, że
większość wcześniejszych badań, wspomagających analizę efektywności zarządzania
portfelami funduszy inwestycyjnych na różnych rynkach, opierała się na danych miesięcznych lub rocznych, natomiast analiza danych dziennych znacznie zmieniła wyniki
badań [Bollen, Busse 2001], (również na polskim rynku: [Olbryś 2008c]). Goetzmann,
Ocena efektywności zarządzania portfelem…
55
Ingersoll i Ivković z kolei analizowali problem stosowania w modelach klasycznych
danych miesięcznych w przypadku zarządzających, którzy codziennie (lub częściej niż
raz w miesiącu) podejmują decyzje związane ze stosowaniem techniki market-timing. Zaproponowali odpowiednią modyfikację modelu H-M – test G-I-I, polegającą na wprowadzeniu we wzorze (2) nowej zmiennej objaśniającej PM ,t w miejsce zmiennej objaśniającej y M , t  max{ 0, rM , t }. Wartość dodana PM ,t w miesiącu t , będąca efektem
perfekcyjnego stosowania techniki market-timing przez zarządzającego portfelem, wyraża
się wzorem [Goetzmann, Ingersoll, Ivković 2000 s. 262]:
 N
 
PM , t    max{1  RM , ;1  RF , }  1  RM , t ,
 
   1
(9)
gdzie:
N - liczba dni roboczych w miesiącu t ,   1,2, , N .
Estymacja modelu G-I-I odbywa się z wykorzystaniem miesięcznych stóp
zwrotu z portfela danego funduszu ( RP , t ) oraz z portfela rynkowego ( RM , t ), w celu
oszacowania nadwyżek stóp zwrotu z obu portfeli, czyli wartości zmiennych: objaśnianej rP , t oraz objaśniającej rM , t . Dzienne i miesięczne stopy zwrotu z portfela rynkowego, jak również wartości dziennej wolnej od ryzyka stopy zwrotu, służą do
oszacowania wartości drugiej zmiennej objaśniającej PM ,t . Testowane hipotezy zerowe,
dotyczące parametrów strukturalnych, mają analogiczną postać, jak w klasycznym
modelu H-M (2), czyli: (3) i (4).
4.2. Czteroczynnikowy model market-timing jako wspólna modyfikacja modeli trójczynnikowych T-M-FF oraz H-M-FF
Hybrydowy model czteroczynnikowy uzyskujemy jako modyfikację modeli trójczynnikowych T-M-FF oraz H-M-FF, wprowadzając nową zmienną objaśniającą
PM ,t (9), będącą wartością dodaną w miesiącu t , w miejsce zmiennych reprezentujących w danym modelu efekt perfekcyjnego stosowania strategii market-timing przez zarządzającego funduszem, czyli:
–
kwadratu rynkowej zmiennej objaśniającej ( rM , t )2 w modelu T-M-FF (7),
–
zmiennej y M , t w modelu H-M-FF (8).
W rezultacie otrzymujemy model postaci:
rP , t   P   P  rM , t   1P  rSMB , t   2 P  rHML, t   P  PM , t   P , t ,
(10)
gdzie:
rP ,t , rM ,t , rSMB , t , rHML, t ,  P ,  P ,  P ,  1P ,  2 P ,  P,t – jak we wzorach (7) oraz (8),
PM ,t – wartość dodana w miesiącu t , określona wzorem (9).
56
Joanna Olbryś
4.3. Charakterystyka danych i wyniki empiryczne
Estymacja modelu czteroczynnikowego (10) odbywa się z wykorzystaniem miesięcznych stóp zwrotu z portfela danego funduszu oraz z portfela rynkowego,
w celu oszacowania nadwyżek stóp zwrotu z obu portfeli, czyli wartości zmiennych:
objaśnianej rP , t oraz objaśniającej rM , t . Jako wartości zmiennych SMB i HML
występują średnie miesięczne stopy zwrotu każdej ze zmiennych, odpowiednio.
Dzienne i miesięczne stopy zwrotu z portfela rynkowego, jak również wartości
dziennej i miesięcznej wolnej od ryzyka stopy zwrotu, służą do oszacowania wartości kolejnej zmiennej objaśniającej PM ,t . Przeprowadzono estymację i weryfikację
modeli czteroczynnikowych, jak również interpretacje uzyskanych wyników oceny
dla 15 funduszy akcji na polskim rynku w okresie: styczeń 2003r. – grudzień 2009r.
Wykresy: 1., 2., 3. i 4. przedstawiają miesięczne wartości zmiennych objaśniających modelu (10), w okresie: styczeń 2003r. – grudzień 2009r. (po 84 obserwacje
dla każdej zmiennej). Wyniki rozszerzonego testu Dickeya – Fullera (ADF) wykazały odrzucenie hipotezy o istnieniu pierwiastków jednostkowych, czyli można
przyjąć stacjonarność procesów: rM ,t , rSMB , t , rHML, t oraz PM ,t . Wartości empiryczne statystyki τ (dla modeli z wyrazem wolnym i trendem liniowym, na poziomie
istotności 5%) były odpowiednio równe: -5,47; -4,03; -6,97; -4,74, czyli poniżej
wartości krytycznej, wynoszącej w tym przypadku -3,47.
WYKRES 1.
Miesięczne wartości zmiennej objaśniającej rM ,t w okresie: styczeń 2003 r. –
grudzień 2009r.
Źródło: Opracowanie własne.
Ocena efektywności zarządzania portfelem…
Miesięczne wartości zmiennej objaśniającej rSMB , t
57
WYKRES 2.
w okresie: styczeń 2003 r.
– grudzień 2009r.
Źródło: Opracowanie własne.
WYKRES 3.
Miesięczne wartości zmiennej objaśniającej rHML, t w okresie: styczeń 2003r.
– grudzień 2009r.
Źródło: Opracowanie własne.
58
Joanna Olbryś
Wartości zmiennej objaśniającej PM ,t
WYKRES 4.
w okresie: styczeń 2003 r. – grudzień 2009 r.
Źródło: Opracowanie własne.
Tabela 4. zawiera wyniki estymacji zmodyfikowanego modelu czteroczynnikowego market-timing z wykorzystaniem estymatorów odpornych HAC.
Wartość współczynnika determinacji R 2 uzyskanych modeli była bardzo wysoka (we wszystkich przypadkach około lub powyżej 90%) i analogiczna, jak w tabelach: 2. i 3. Oznacza to porównywalne dopasowanie do danych empirycznych zarówno modeli trójczynnikowych, jak i modelu czteroczynnikowego. Wartości krytyczne
statystyki DW wynoszą odpowiednio: d L  1,55 , dU  1,75 , zatem tylko w przypadku funduszy Aviva Investors FIO Polskich Akcji oraz BPH FIO Akcji kryterium
DW nie rozstrzyga, czyli zastosowanie estymatorów HAC nie pozwoliło uzyskać
ostatecznego wyeliminowania problemu autokorelacji.
W przypadku wszystkich funduszy, w modelu czteroczynnikowym, otrzymano bardzo zbliżone wartości kryterium informacyjnego Akaika (AIC) w stosunku do modeli
trójczynnikowych T-M-FF (tabela 2.) oraz H-M-FF (tabela 3.). Oznacza to, że wprowadzenie czynnika PM ,t w miejsce odpowiednich zmiennych w modelach: T-M-FF i HM-FF pozwoliło uzyskać jeden model hybrydowy o porównywalnym dopasowaniu.
W odniesieniu do interpretacji estymatorów parametrów modelu czteroczynnikowego należy stwierdzić, że dla 10 z 15 funduszy otrzymano dodatnie oraz istotne
statystycznie wartości estymatora ̂ P . Obserwacje dotyczące istotności wpływu czynnika rynkowego, reprezentowanego przez indeks WIG (parametr ˆP ), są analogiczne,
jak w tabelach: 2. i 3. Statystycznie istotną, ujemną wartość estymatora ˆP uzyskano
w przypadku 11 z 15 funduszy. Podobnie, jak w przypadku wcześniej analizowanych
modeli trójczynnikowych T-M-FF oraz H-M-FF, ujemna wartość tego estymatora może oznaczać negatywny wpływ stosowania techniki market – timing przez zarządzają-
Ocena efektywności zarządzania portfelem…
59
cych portfelami badanych funduszy. Zmienna PM ,t , przy której stoi w modelu parametr  P , niesie informację o wynikach perfekcyjnego stosowania techniki markettiming przez menadżera funduszu, czego wynikiem jest odpowiednia wartość dodana
(zgodnie ze wzorem (9)).
TABELA 4.
Model czteroczynnikowy (10) (dane dzienne i miesięczne z okresu: styczeń
2003 r. – grudzień 2009 r.)
Lp.
1.
2.
3.
4.
5.
6.
7.
8.
9.
10.
11.
12.
13.
14.
15.
Fundusz akcji
Arka BZ WBK Akcji FIO
Aviva Investors FIO
Polskich Akcji
BPH FIO Akcji
DWS Polska FIO Top 25
Małych Spółek
DWS Polska FIO Akcji
DWS Polska FIO Akcji Plus
ING FIO Akcji
Legg Mason Akcji FIO
Millennium FIO Akcji
Pioneer Akcji Polskich FIO
PKO/CREDIT SUISSE
Akcji FIO
PZU FIO Akcji
KRAKOWIAK
SEB 3 – Akcji FIO
Skarbiec – Akcja FIO
UniKorona Akcja FIO
̂ P
̂ P
ˆ1P
ˆ2 P
ˆ P
R2
DW
AIC
0,03***
0,82***
1,57**
1,58***
-0,14***
0,93
1,98
-421,8
0,02***
0,84***
1,61***
0,59
-0,09***
0,96
1,63
-470,1
0,009**
0,76***
1,03***
0,05
-0,05**
0,95
1,69
-478,9
0,06***
0,62***
7,88***
2,90***
-0,18***
0,89
1,84
-384,9
0,002
0,02***
0,000
0,01*
0,01**
-0,001
0,78***
0,71***
0,84***
0,76***
0,72***
0,99***
-0,59
1,38***
0,83*
0,91*
1,49**
0,15
0,33
0,26
-0,38
-0,28
0,03
0,58
-0,08**
-0,12***
0,001
-0,08**
-0,07**
-0,02
0,94
0,94
0,96
0,93
0,92
0,96
2,31
1,90
2,06
1,93
2,13
2,16
-457,6
-461,8
-478,6
-444,5
-443,4
-463,8
0,02***
0,68***
1,11**
0,27
-0,21***
0,94
1,80
-457,9
0,02***
0,72***
1,38***
0,76**
-0,09***
0,95
1,84
-470,2
0,009
0,02***
0,007
0,80***
0,68***
0,80***
1,03***
1,35**
1,04**
0,17
-0,01
-0,18
-0,06
-0,09***
-0,02
0,93
0,92
0,95
2,40
2,55
2,15
-435,7
-446,9
-474,0
* istotność na poziomie 0,1;
** istotność na poziomie 0,05;
*** istotność na poziomie 0,01.
Źródło: Opracowanie własne (z wykorzystaniem pakietu Gretl 1.8.5).
Analogicznie jak w tabelach: 2. i 3., uzyskano istotnie większe od 1 wartości pa-
rametru ˆ1P , co informuje o znaczącym wpływie zmian wartości czynnika SMB na
wartość stopy zwrotu z portfela w przypadku 11 z 15 funduszy. Również, analogicznie
jak w przypadku modeli trójczynnikowych, nie zauważamy istotnego wpływu na
wielkość stopy zwrotu z portfela funduszy drugiego z czynników rozpiętościowych,
czyli zmiennej HML. Wartości estymatora ˆ2 P w tabeli 4. są w przypadku 12 z 15
funduszy nieistotne statystycznie.
60
Joanna Olbryś
4. Podsumowanie
W pracy przedstawiono wyniki estymacji i weryfikacji, jak również analizę porównawczą trójczynnikowych oraz czteroczynnikowych modeli, tzw. wyczucia rynku. Zaproponowany model hybrydowy okazał się przydatny do oceny efektywności zarządzania portfelami polskich funduszy akcji w badanym okresie. Model ten może zastąpić
modele trójczynnikowe T-M-FF oraz H-M-FF, ale wymaga zastosowania zarówno
dziennych, jak i miesięcznych danych empirycznych, podczas gdy w literaturze przedmiotu raczej odchodzi się od wykorzystania danych miesięcznych, na korzyść danych
dziennych [Bollen, Busse 2001 i inni]. Z drugiej strony, konieczność wykorzystania
do konstrukcji zmiennych objaśniających danych o różnej częstotliwości można potraktować jako zaletę tego modelu. Dalsze badania na polskim rynku funduszy mogą dotyczyć rozszerzenia modelu market-timing do wersji pięcioczynnikowej, zawierającej
jako dodatkową zmienną objaśniającą tzw. czynnik „momentum”, wprowadzony przez
Carharta [Carhart 1997]. Jak zostało wspomniane w rozdziale 3., budowa modelu pięcioczynnikowego wymaga skonstruowania zmiennej Carharta na polskim rynku, co
nie zostało do tej pory zrobione i będzie przedmiotem dalszych badań.
Literatura
Admati A., Bhattacharya S., Pfleiderer P., Ross S. 1986 On timing and selectivity, „The
Journal of Finance”, 41 (July).
Bollen N.P.B., Busse J.A. 2001 On the timing ability of mutual fund managers, „The Journal
of Finance”, Vol. LVI, No. 3.
Busse J.A. 1999 Volatility timing in mutual funds: evidence from daily returns, „The Review of
Financial Studies”, Vol. 12, No. 5.
Chang E., Lewellen W. 1984 Market timing and mutual fund investment performance, „Journal
of Business”, 57.
Carhart M.M. 1997 On persistence in mutual fund performance, „Journal of Finance”, 52.
Fama E. 1972 Components of investment performance, „Journal of Finance”, 27, No. 2.
Fama E.F., French K.R. 1992 The cross-section of expected stock returns, „The Journal of
Finance”, 47.
Fama E.F., French K.R. 1993 Common risk factors in the returns on stocks and bonds, „Journal
of Financial Economics”, 33.
Fama E.F., French K.R. 1995 Size and book-to-market factors in earnings and returns, „The
Journal of Finance”, 50, No. 1.
Ferson W.E., Harvey C.R. 1999 Conditioning variables and the cross section of stock returns,
„The Journal of Finance”, 54 (August).
Ferson W.E., Schadt R.W. 1996 Measuring fund strategy and performance in changing economic
conditions,, The Journal of Finance”, 51 (June).
Fletcher J. 1995 An examination of the selectivity and market timing performance of UK unit
trusts, „Journal of Business Finance & Accounting”, 22.
Ocena efektywności zarządzania portfelem…
61
Goetzmann W.N., Ingersoll J. Jr., Ivković Z. 2000 Monthly measurement of daily timers,
„Journal of Financial and Quantitative Analysis”, Vol. 35, No. 3.
Grinblatt M., Titman S. 1994 A study of monthly mutual fund returns and performance evaluation
techniques, „Journal of Financial and Quantitative Analysis”, 29.
Haugen R.A. 1999 Nowa nauka o finansach. Przeciw efektywności rynku, Warszawa.
Henriksson R., Merton R. 1981 On market timing and investment performance. II. Statistical procedures for evaluating forecasting skills, „Journal of Business”, 54, No. 4.
Henriksson R. 1984 Market timing and mutual fund performance: an empirical investigation,
„Journal of Business” 57.
Jensen M. 1968 The performance of mutual funds in the period 1945-1964, „Journal of Finance” 23.
Kao G., Cheng L., Chan K. 1998 International mutual fund selectivity and market timing during
up and down market conditions, „The Financial Review“, 33.
Kufel T. 2004 Ekonometria. Rozwiązywanie problemów z wykorzystaniem programu Gretl, Warszawa.
Lehmann B., Modest D.M. 1987 Mutual fund performance evaluation: A comparison of benchmarks and benchmark comparisons, „Journal of Finance”, 42 (June).
Maddala G.S. 2008 Ekonometria, Warszawa.
Merton R. 1981 On market timing and investment performance. I. An equilibrium theory of
value for market forecasts, „Journal of Business” 54, No. 3.
Newey W., West K. 1987 A simple, positive semi-definite, heteroskedasticity and autocorrelation
consistent covariance matrix, „Econometrica”, 55.
Olbryś J. 2010 Three-factor market-timing models with Fama and French’s spread variables,
„Operations Research and Decisions”, 2.
Olbryś J. 2009 Conditional market-timing models for mutual fund performance evaluation, „Prace
i Materiały Wydziału Zarządzania Uniwersytetu Gdańskiego”, 4/2.
Olbryś J. 2008a Parametric tests for timing and selectivity in Polish mutual fund performance,
„Optimum. Studia Ekonomiczne”, 3(39).
Olbryś J. 2008b Parametryczne testy umiejętności wyczucia rynku – porównanie wybranych metod na
przykładzie OFI akcji, [w:] Z. Binderman (red.) Metody ilościowe w badaniach ekonomicznych IX, Warszawa.
Olbryś J. 2008c Ocena umiejętności stosowania strategii market-timing przez zarządzających portfelami funduszy inwestycyjnych a częstotliwość danych, „Studia i Prace Wydziału Nauk
Ekonomicznych i Zarządzania” Nr 10.
Prather L.J., Middleton K.L. 2006 Timing and selectivity of mutual fund managers: An empirical test of the behavioral decision-making theory, „Journal of Empirical Finance”, 13.
Romacho J. C., Cortez M. C. 2006 Timing and selectivity in Portuguese mutual fund performance,
„Research in International Business and Finance”, 20.
Sharpe W.F., Alexander G.J., Bailey J.V. 1999 Investments, Prentice Hall, New Jersey.
Treynor J., Mazuy K. 1966 Can mutual funds outguess the market?, „Harvard Business
Review”, 44.
Zamojska A. 2008 Timing – metody pomiaru i empiryczna weryfikacja na przykładzie polskich
funduszy inwestycyjnych, „Prace Naukowe Uniwersytetu Ekonomicznego”, Wrocław.
OPTIMUM. STUDIA EKONOMICZNE NR 4 (48) 2010
Ewa ROSZKOWSKA1
KONCEPCJA I ZASTOSOWANIA UOGÓLNIONEJ GRY
W BADANIACH EKONOMICZNYCH
Streszczenie
W artykule przedstawiono koncepcję, własności i możliwości zastosowania uogólnionej gry do
modelowania zjawisk ekonomicznych. Uogólniona gra G to proces interakcji między graczami pełniącymi w tej grze określone role oraz pozostającymi ze sobą w pewnych relacjach. Gra jest reprezentowana przez kompleks reguł, w którym wyróżnia się cztery komponenty: MODEL − zawierający
ogólne uwarunkowania sytuacyjne gry, VALUE − normy i wartości uznawane przez graczy, ACT −
opisujący możliwości działania graczy, JUDGMENT − reguły opisujące sposób rozumowania i podejmowania decyzji przez graczy. Uogólniona gra pozwala analizować zachowania graczy, uwzględniając:
ekonomiczne, społeczne czy psychologiczne aspekty ich zachowań. W artykule pokazano możliwości
wykorzystania aparatu pojęciowego reguł i kompleksów reguł do konstrukcji optimum społecznego,
koncepcji zrównoważonego rozwoju czy analizy procesu negocjacji.
Słowa kluczowe: uogólniona gra, reguła, kompleks reguł, optimum społeczne, negocjacje
THE CONCEPT AND APPLICATION OF THE GENERALIZED GAME IN
ECONOMIC RESEARCH
Summary
In this paper, the concept, properties and possibilities of application of the generalized game
to modelling economic phenomena is presented. The generalized game G is the process of interaction between players which have defined roles and role relationships. The game is represented
by a complex of rules, where we have four components: MODEL− describing general considerations of the game, VALUE− norms and values recognized by the players, ACT− describing
possibilities of the players’ action, JUDGMENT − rules describing ways of thinking and decision-making by players. The generalized game allows us to analyze the behavior of the players,
paying attention to the economic, social and psychological aspects of their behavior. The article
also shows the possibilities of using the tools of the rules and complexes to construct the social
optimum, the concept of sustainable development or the negotiation analysis.
Keywords: generalized game, rule, complex of rules, social optimum, negotiations
1 Dr hab. Ewa Roszkowska, prof. UwB jest pracownikiem Wydziału Ekonomii i Zarządzania Uniwersytetu w Białymstoku..
Koncepcja i zastosowania uogólnionej gry…
63
1. Wstęp
Teoria gier zajmuje uznane już miejsce w modelowaniu zjawisk ekonomicznych.
Zbyt silne założenia teoretyczne powodują jednak, że analizowane procesy ekonomiczne nie zawsze przybierają postać ściśle sformalizowanej gry. Trudności mogą
występować w opisie: graczy, reguł ich działania, zbiorów rozwiązań, celów, rozpoznania struktury możliwych wypłat, założeń, co do postępowania graczy czy metod
modelowania sytuacji decyzyjnych.
Ważnym zagadnieniem są próby „udoskonalenia” teorii gier tak, aby była ona pozbawiona przedstawionych niedoskonałości oraz ograniczeń i mogła mieć szersze zastosowanie w budowaniu modeli opisujących rzeczywistość. Jedną z propozycji rozszerzenia i uogólnienia klasycznej teorii gier J. von Neumana i O. Morgensterna jest
koncepcja uogólnionej gry wprowadzona przez T. Burnsa, A. Gomolińską [Burns,
Gomolińska 2001; Gomolińska 1999] oraz rozwijana dalej w pracach [Burns, Caldas,
Roszkowska 2005; Burns, Roszkowska 2003; Burns, Roszkowska 2005; Burns, Roszkowska 2009a; Burns, Roszkowska 2009b; Roszkowska 2007]. Do matematycznej
formalizacji koncepcji uogólnionej gry wykorzystuje się pojęcie reguły, kompleksu
oraz podkompleksu reguł. Uogólniona gra G to proces interakcji między graczami
pełniącymi w tej grze określone role oraz pozostającymi ze sobą w pewnych relacjach. Gra jest reprezentowana przez kompleks reguł, w którym wyróżnia się cztery
komponenty: MODEL − zawierający ogólne uwarunkowania sytuacyjne gry, VALUE
− normy i wartości uznawane przez graczy, ACT − opisujący możliwości działania
graczy, JUDGMENT − zawierający reguły opisujące sposób rozumowania i podejmowania decyzji przez graczy. W analizie rozwiązań uogólnionej gry dużą uwagę zwraca się
na związek między rolami pełnionymi przez graczy, zależnościami między nimi a procesem interakcji.
Głównym celem artykułu jest przedstawienie koncepcji, własności oraz możliwości zastosowań uogólnionej gry do modelowania zjawisk ekonomicznych.
2. Możliwości zastosowań i ograniczenia klasycznej teorii gier
Teoria gier jest samodzielną dyscypliną naukową posiadającą własny aparat teoretyczny, choć może być także traktowana jako część teorii podejmowania decyzji. Przedmiotem teorii gier jest analiza matematycznych modeli konkurencji i kooperacji, której
celem jest ustalenie kryteriów podejmowania decyzji przez tzw. racjonalnych graczy
kierujących się maksymalizacją własnej wygranej lub funkcji użyteczności oraz umiejących ocenić skutki swoich decyzji, jak również decyzji innych uczestników gry.
Rozwój teorii gier jest w znacznym stopniu stymulowany podejmowanymi próbami
ścisłego ujęcia pewnych podstawowych problemów z zakresu ekonomii. Związki teorii
gier i ekonomii są bardzo silne. Słynna praca Johna von Neumanna i Thomasa
Morgensterna z roku 1944, kładąca podwaliny teorii gier, nosiła tytuł Theory of Games
and Economic Behaviour. Nagroda Nobla w tej dziedzinie wielokrotnie została przyznana
właśnie za prace dotyczące teorii gier lub bezpośrednio na niej bazujące. W 1994 roku
64
Ewa Roszkowska
Nagrodę Nobla z ekonomii otrzymali czołowi jej twórcy: J. Harsanyi, J. Nash, R. Selten
za: pionierskie badania dotyczące punktów równowagi w grach niekooperacyjnych [Dokument
elektroniczny, tryb dostępu: http://nobelprize.org/economics/laureates/1994/index.html], w 1996 roku W. Vickrey i J. Mirrlees za: ukazanie niektórych konsekwencji
asymetrii informacji w modelach z zakresu teorii gier (modele aukcji), [Dokument elektroniczny,
tryb dostępu: http://nobelprize.org/economics/laureates/1996/index.html], w 2005
roku R. Aumann oraz T.R. Schelling: za rozszerzenie naszego rozumienia konfliktu i współpracy poprzez analizę (w kategoriach) teorii gier [Dokument elektroniczny, tryb dostępu:
http://nobelprize.org/economics/laureates/2005/index.html], a w 2007 roku L. Hurwicz, E.S. Maskin i R.B. Myerson za: prace nad podstawami mechanism design theory, teorii,
która pozwala m.in.: odróżnić sytuacje, w których rynki funkcjonują dobrze od tych, w których
rynki funkcjonują źle [Dokument elektroniczny, tryb dostępu: http://nobelprize.org/
/economics/laureates/2007/index.html].
Dla konkretnej sytuacji wyodrębnia się podstawowe cechy, które ją opisują, tj.: ilość
graczy, rodzaj i stopień sprzeczności interesów, formy komunikacji i współdziałania,
zasób i rodzaj informacji, sposób rozgrywania gry, racjonalność graczy i przedstawia
w uproszczonym modelu.
Gra jest to pewien sformalizowany model sytuacji interakcji, między co najmniej
dwiema stronami, które nazywa się graczami. Graczem może być człowiek, ale także:
firma, państwo, grupa społeczna. Rozważa się również gry przeciwko naturze. Zakłada się, że gracze posiadają własne interesy i znają zarówno interesy własne, jak i drugiej
strony. Zakłada się istnienie sprzeczności interesów, choć strony mogą mieć również interesy wspólne. Model gry zawiera opis graczy, stosowanych przez nich strategii, czyli planów działań uwzględniających wszystkie możliwości, w jakich mogą się
znaleźć, oraz uzyskanych przez każdego z nich wypłat. Wypłaty odpowiadające wynikowi gry mogą być wyznaczone przez funkcję użyteczności gracza.
Gracz wpływa na przebieg gry, wybierając swoją strategię. Ostateczny wynik zależy jednak nie tylko od niego, ale także od decyzji pozostałych graczy. Grze towarzyszy konflikt, ponieważ zwykle każdy z graczy dąży do innego, czasem przeciwstawnego wyniku. Są jednak sytuacje, gdy kilku graczy, koordynując swoje strategie i współpracując, może doprowadzić do wyniku dającego każdemu z nich wyższą wypłatę.
Postępowaniem graczy rządzą formalne i nieformalne reguły gry. Mogą to być: przepisy prawne, normy etyczne, powszechnie uznane zasady konkurencji, a także zasób
wiedzy analitycznej umożliwiającej śledzenie ich zachowań. Analiza strategii stron obejmuje: opis, wyjaśnienie, przewidywanie wyborów dokonywanych przez graczy, poszukiwanie stanów równowagi oraz rozwiązań gry.
Do najważniejszych zastosowań teorii gier w ekonomii możemy zaliczyć m.in.: analizę modeli rynku w sytuacji oligopolu (np. równowaga w modelu duopolu Cournota,
duopolu Bertranda) przez wyznaczanie równowagi Nasha, modelowanie stosunków
między przedsiębiorstwami w kategoriach konkurencji czy kooperacji, analizę strategii
postępowania firmy, problemy umów handlowych, przetarg, negocjacje czy aukcje
[Drabik 1998; Kalinowski 2008; Malawski, Wieczorek, Sosnowska 1997; Watson 2005].
Klasyczna teoria gier, mimo wielu zastosowań w naukach ekonomicznych, ma
również pewne ograniczenia. Rzeczywista sytuacja konfliktowa prawie nigdy nie przy-
Koncepcja i zastosowania uogólnionej gry…
65
biera postaci ściśle sformalizowanej gry. Czasem nie jesteśmy w stanie ocenić dokładnie, w ilu grach jednocześnie uczestniczy każdy gracz i jakiego typu są te gry, co
więcej, rozważana gra może być w rzeczywistości częścią innej, bardziej złożonej gry.
Nie zawsze jesteśmy w stanie wskazać wszystkich graczy, opisać ich interesy, możliwe
strategie, funkcję użyteczności czy macierz wypłat. Czasem trudne może się okazać
określenie nawet własnych interesów i strategii, nie mówiąc o interesach i strategiach
pozostałych uczestników gry. Zbiory strategii w pewnych sytuacjach mogą być w zasadzie nieograniczone. Często uczestnicy ukrywają swoje strategie lub dokonują ich
zamiany w trakcie interakcji, wprowadzając nowe strategie. Zasady zachowań graczy
są określane w normach prawnych, politycznych i etycznych. Nie są to więc zasady tak
precyzyjne, jak wymaga teoria gier, ponadto mogą być w czasie gry naruszane, łamane bądź zmieniane.
Mogą również pojawiać się przeszkody z podejmowaniem decyzji, ze względu
na: niekompletną lub fałszywą informację, brak jasno sprecyzowanej funkcji użyteczności czy kryteriów wyboru. W przypadku gier z niepełną informacją rzeczywisty układ interesów stron i wyników może być zupełnie inny od tego, który wyobrażają sobie gracze. Każdy z graczy może grać w inną grę, a na dodatek prawdziwa gra
będzie jeszcze inna. Występują istotne odstępstwa od „racjonalności” definiowanej
w ramach teorii gier, decyzje graczy zależą od czynników: osobowościowych, emocjonalnych, etycznych czy kulturowych. W badaniach rozważa się, co prawda, różne
sposoby rozumienia racjonalności czy motywów działania graczy, ale nie wyczerpuje to wszystkich możliwości analizy gry. Poszukiwanie optymalnych strategii dla gier
o sumie niezerowej wśród rozwiązań Nasha czy Pareto, strategii minimaksowych okazuje się w wielu sytuacjach niewystarczające czy wręcz zawodne. Brakuje jednoznacznego sposobu określania reguły wyboru między różnymi koncepcjami rozwiązań czy
stanami równowagi.
Czynione są próby „udoskonalenia” teorii gier tak, aby była ona pozbawiona
niedoskonałości i ograniczeń opisanych wcześniej i mogła mieć szersze zastosowanie w budowaniu modeli opisujących rzeczywistość. Jedną z takich propozycji może
być wykorzystanie pojęcia reguły i kompleksu reguł do konstrukcji tzw. uogólnionej gry.
3. Koncepcja i własności uogólnionej gry
3.1. Pojęcie reguły
Przez L określono język, w którym występują zmienne oznaczające obiekty i meta
obiekty. Przez FOR oznaczono zbiór formuł języka L. Reguła jest tu traktowana bardziej ogólnie niż w klasycznym ujęciu, mianowicie przez regułę rozumie się tzw. regułę w stylu Reitera (Reiter’s default rule), [Reiter 1980].
66
Ewa Roszkowska
Definicja 1. Regułą [Gomolińska 1999] nazwano dowolny element :
( X , Y ,  )  ( FIN (( FOR ))) 2  FOR ,
gdzie:
X- zbiór przesłanek (premises),
Y- zbiór uzasadnień (justifications),
(FOR)  zbiór potęgowy zbioru FOR,
FIN((FOR)  rodzina wszystkich skończonych podzbiorów zbioru (FOR) .
Formułę  nazywamy wnioskiem (konkluzją) reguły ( X , Y ,  ) .
Regułę rozumiemy następująco:
Jeśli wszystkie elementy X zachodzą oraz wszystkie elementy Y mogą zajść,
to mamy  .
Zbiór X zawiera przesłanki, które muszą koniecznie zachodzić, a zbiór Y uzasadnienia, o których nie wiadomo, że na pewno nie zachodzą (nie ma ewidencji, że nie
zachodzą). Jeśli negacje faktów w Y mogą mieć miejsce, to mamy „sytuację wyjątkową”
i nie można stosować reguły ( X , Y ,  ) . Jeśli stwierdzamy, że „nie ma sytuacji wyjątkowych” i wszystkie przesłanki ze zbioru X zachodzą, to działamy zgodnie z regułą
(X ,Y, ) .
Reguły mogą być czysto sytuacyjne, tzn. mające odniesienie tylko do ściśle określonych, sprecyzowanych przez zbiór parametrów sytuacji, lub ogólne mające zastosowanie w wielu sytuacjach. Reguły mogą być nieprecyzyjne, gdy pozwalają na wieloznaczne
interpretacje, lub precyzyjne, gdy mają dokładnie określone przesłanki, uzasadnienia
oraz konkluzje. Zaletą reguł precyzyjnych jest możliwość odpowiedniego „przetłumaczenia” ich na program komputerowy wspomagający podejmowanie decyzji.
Przykład 1. Przykładowe reguły, które mogą mieć zastosowanie np. w analizie
negocjacji.
1. Reguły aksjomatyczne:
Mamy X  Y   . Konkluzja  zachodzi bezwarunkowo, np.:
r1= ( ,  , w negocjacjach uczestniczą związki zawodowe oraz dyrekcja).
2. Reguły „bez wyjątku”:
Mamy Y   , X   . Jeśli wszystkie przesłanki ze zbioru X są spełnione, to zachodzi konkluzja  , np.:
r1=({negocjacje nie zakończą się przed upływem 10 dni},  , rozmowy zostaną zerwane);
r2= ({zostanie poprawiona jakość towaru }, , zwiększenie zamówienia o 10%).
Koncepcja i zastosowania uogólnionej gry…
67
3. Reguły „z wyjątkami”:
Mamy Y   . Jeśli wszystkie przesłanki ze zbioru X są spełnione oraz nie ma
sytuacji wyjątkowych opisanych przez Y, to zachodzi konkluzja  , np.:
r1= (  , {firma jest wiarygodna na rynku}, podpisanie umowy na 2 lata);
r2= ({niska cena jednostkowa towaru}, {firma jest wiarygodna na rynku}, podpisanie umowy na 5 lat).
Reguły w podanym przykładzie są opisane z użyciem języka naturalnego w sposób mniej sformalizowany. Stosując odpowiednie procedury, można zbudować
system informatyczny, określając np.: kategorie obiektów, własności atrybutów [Malawski, Wieczorek, Sosnowska 1997].
3.2. Pojęcie kompleksu i podkompleksu reguł
W sytuacjach, gdy zachodzi potrzeba pogrupowania reguł, ze względu na wybrane
kryteria pomocnym narzędziem może być reprezentacja reguł w formie kompleksu
lub podkompleksu reguł. W formie kompleksów reguł mogą być opisywane: algorytmy, instrukcje, procedury, zachowania rutynowe, metareguły określające związki
i zależności między regułami itp.
Definicja 2. [Gomolińska 1999]. Kompleksem reguł nazywamy zbiór otrzymany
przez stosowanie następujących zasad:
i)
dowolny skończony zbiór reguł jest kompleksem reguł;
ii) jeśli C1 , C2 są kompleksami reguł, to C1  C2 oraz C1  są kompleksami
reguł;
iii) jeśli C1  C2 , C2 jest kompleksem reguł, to C1 jest również kompleksem reguł.
Klasa kompleksów reguł zawiera wszystkie skończone zbiory reguł, jest domknięta
ze względu na sumę zbiorów, zbiór potęgowy oraz własność bycia kompleksem jest
dziedziczona ze względu na podzbiory.
Twierdzenie 1. [Gomolińska 1999]. Zbiór C jest kompleksem reguł wtedy i tylko
wtedy, gdy ma jedną z następujących postaci (i)-(iv):
C ;
i)
ii) C  r1 , r2 , ..., rm  , m  1 , gdzie r1 , r2 , ..., rm są regułami;
C  C1 , C2 , ..., Cn  , n  1 gdzie C1 , C2 , ..., Cn są kompleksami reguł;
C  r1 , r2 , ..., rm , C1 , C2 , ..., Cn  , m  1 , n  1 , przy czym r1 , r2 , ..., rm są
regułami, C1 , C2 , ..., Cn zaś kompleksami reguł.
Przykład 2. Niech: r1 , r2 , r3 , r4 , r5 to reguły. Zbiory: C1  r1 , r2 , r3 ,
C2  r2 , C1, C3  r3 , C1 , C4  r4 , r5 , C2 , C3  są kompleksami reguł.
iii)
iv)
68
Ewa Roszkowska
Definicja 3. [Gomolińska 1999] Powiemy, że kompleks reguł C jest podkompleksem kompleksu D C  g D , jeśli C  D lub C został otrzymany z D


przez opuszczenie pewnych (lub wszystkich) reguł w kompleksie D oraz opuszczenie zbędnych nawiasów i wystąpień zbioru pustego  .
Przykład 3. Następujące zbiory są podkompleksami kompleksu C2 z przykładu 2:
 , A1  r1, A2  r2  , A3  r3  , A4  r2 , r1 , A5  r2 , r2  , A6  r2 , r3  ,
A7  r1 , r2 , A8  r1 , r3 , A9  r2 , r3  , A10  r2 , r1 , r2 , A11  r2 , r1 , r3 ,
A12  r2 , r2 , r3  , A13  r1 , r2 , r3  , C2 .
3.3. Pojęcie uogólnionej gry
Przez uogólnioną grę G rozumie się proces interakcji między graczami pełniącymi
w tej grze określone role oraz pozostającymi ze sobą w pewnych relacjach [Burns,
Caldas, Roszkowska 2005; Burns, Roszkowska 2005; Roszkowska 2007 s. 28-39].
Oznaczono przez:
–
I  1,2,..., n − zbiór graczy;
–
ROLE (i, G ) − kompleks reguł opisujących role pełnione przez i  ego gracza w grze G ,
ROLE ( I , G ) − kompleks reguł opisujących role pełnione przez wszystkich
–
graczy w grze G .
Gra G jest zatem określona, jeśli mamy co najmniej dwa kompleksy ról oraz kompleks R zawierający ogólne reguły określające przebieg gry, czyli:
G  ROLE (1, G ), ROLE (2, G ),..., ROLE (n, G ); R  .
Wśród podkompleksów kompleksu ROLE(I,G) wyróżnia się cztery główne podkompleksy, które opisują kontekst sytuacyjny oraz regulują przebieg gry. Wyróżnione komponenty nie muszą być zbiorami rozłącznymi, niektóre reguły czy nawet podkompleksy mogą występować jednocześnie w różnych komponentach.
Kompleks model MODEL ( I , G ) zawiera reguły opisujące kontekst sytuacyjny gry,
tzn.: graczy, ich role pełnione w grze, uwarunkowania procesu interakcji. Reguły mają
tutaj głównie charakter informacyjny.
Kompleks aktywności ACT ( I , G ) związany z procesem interakcji zawiera: opis
możliwych aktywności podejmowanych przez graczy, zachowania rutynowe, zbiory
strategii, taktyk, sposoby komunikacji itp.
Kompleks wartości VALUE ( I , G ) , związany zarówno z kontekstem sytuacyjnym,
jak i procesem interakcji, zawiera reguły opisujące wartości i normy uznawane przez
graczy.
Koncepcja i zastosowania uogólnionej gry…
69
Jednym z podstawowych pojęć w uogólnionej teorii gier jest judgment [Burns , Roszkowska 2006]. W języku angielskim judgment oznacza zarówno zdolność do formułowania właściwych opinii i podejmowania dobrych decyzji, jak również decyzję lub opinię
o czymś lub o kimś, która została podjęta po gruntownym przemyśleniu2. W języku
polskim nie ma jednoznacznego odpowiednika tego pojęcia3. Na określenie judgment,
rozumianego w takim sensie, używa się tutaj pojęcia ocena4.
Kompleks oceny J ( I , G ) zawiera reguły charakteryzujące sposób rozumowania
graczy oraz determinujące ich zachowanie podczas przebiegu gry, w tym: metody weryfikacji danych (szacowania stopnia ich: wiarygodności, prawdziwości czy kompletności), metody wartościowania, (co jest: dobre, złe, odpowiednie, nieodpowiednie),
weryfikacji hipotez, formułowania opinii, podejmowania decyzji itp.
W podobny sposób określa się kompleksy: MODEL(i, G ) , ACT (i, G ) , VALUE(i, G),
J (i, G ) stanowiące główne komponenty kompleksu ROLE (i, G ) , gdzie i  I . Wyróżnione kompleksy dla poszczególnych graczy są różne, ale zawierają wspólne reguły,
które wchodzą odpowiednio w zakres kompleksów: MODEL( I , G ) , ACT ( I , G ) ,
VALUE ( I , G ) , J ( I , G ) . Mamy przy tym:
MODEL(i, G )  g MODEL( I , G )  g ROLE ( I , G )  g G ,
ACT (i, G )  g ACT ( I , G )  g ROLE ( I , G )  g G ,
VALUE (i, G )  g VALUE ( I , G )  g ROLE ( I , G )  g G ,
J (i, G )  g J ( I , G )  g ROLE ( I , G )  g G .
3.4. Struktura uogólnionej gry
Przez S t oznaczono sytuację gry w momencie czasu t . Strukturę uogólnionej gry
w kontekście sytuacji S t reprezentuje kompleks reguł G (t ) związanych z tą sytuacją. W momencie t gracz może być zaangażowany w szereg gier, jednocześnie pełniąc w nich różne role. Przyjmuje się, że kompleks reguł:
ROLE i, t  reprezentuje wszystkie role pełnione przez i  tego gracza w mo–
mencie czasu t ;
ROLE i, t , G  reprezentuje role pełnione przez i  tego gracza w grze G
–
w momencie czasu t ;
2 Według Cambridge Advanced Learner’s Dictionary, judgment oznacza zarówno: the ability to form
valuable opinions and make good decisions, jak również: decision or opinion about someone or something that you form
after thinking carefully, [Dokument elektroniczny, tryb dostępu: http://dictionary.cambridge.org/
/define.asp?dict=CALD&key=43009].
3 Zgodnie z Wielkim słownikiem angielsko-polskim Jana Stanisławskiego [Wielki słownik angielsko-polski
1989 s. 452] , judgment jest tłumaczone jako: 1) sąd, 2) orzeczenie, wyrok, 3) sąd, opinia, zdanie, czy 4)
rozsądek.
4 Używa się także pojęć: kompleks oceny (complex judgment), funkcja oceny (judgment function) czy proces oceny (judgment process).
70
Ewa Roszkowska
ROLEI , t , G  reprezentuje role pełnione przez wszystkich graczy w grze
G w momencie czasu t .
Z sytuacją S t w momencie czasu t są związane również komponenty:
MODEL(i, t , G ) , ACT (i, t , G ) , VALUE (i, t , G ) , J (i, t , G ) kompleksu
ROLE (i, t , G )
oraz komponenty:
MODEL( I , t , G ) ,
ACT ( I , t , G ) ,
VALUE ( I , t , G ) , J ( I , t , G ) kompleksu ROLE ( I , t , G ) .
–
Mamy przy tym:
MODEL(i, t , G )  g MODEL( I , t , G )  g ROLE ( I , t , G )  g G (t ) ,
ACT (i, t , G )  g ACT ( I , t , G )  g ROLE ( I , t , G )  g G (t ) ,
VALUE (i, t , G )  g VALUE ( I , t , G )  g ROLE ( I , t , G )  g G (t ) ,
J (i, t , G )  g J ( I , t , G )  g ROLE ( I , t , G )  g G (t )
dla dowolnego i  I .
Ponadto:
MODEL( I , t , G )  g MODEL( I , G ) ,
ACT ( I , t , G )  g ACT ( I , G ) ,
VALUE ( I , t , G )  g VALUE ( I , G ) ,
J ( I , t, G )  g J ( I , G )
oraz
MODEL(i, t , G )  g MODEL(i, G ) ,
ACT (i, t , G )  g ACT (i, G ) ,
VALUE (i, t , G )  g VALUE (i, G ) ,
J (i , t , G )  g J (i , G )
dla dowolnego i  I .
Na schemacie 1. pokazano zależności pomiędzy kompleksami związanymi z rolami pełnionymi przez graczy oraz komponentami kompleksu reprezentującego grę
G (t ) w sytuacji S t .
Symbol A
B oznacza, że A jest podkompleksem B , czyli A  g B .
Strukturę uogólnionej gry G (t ) w kontekście sytuacji S t dla dwóch graczy przedstawia schemat 2. Na schemacie przedstawiono relacje między poszczególnymi komponentami kompleksu ROLE (i, t ) z uwzględnieniem związków zachodzących między kompleksem J (i, t , G ) a pozostałymi komponentami tego kompleksu.
Koncepcja i zastosowania uogólnionej gry…
71
SCHEMAT 1.
Zależności pomiędzy kompleksami związanymi z rolami pełnionymi przez
graczy oraz komponentami kompleksu G (t ) w sytuacji S t
G(t)
ROLE(I,t,G)
ROLE(1,t)
ROLE(2,t)
ROLE(1,t,G10) ROLE(1,t,G1n)
ROLE(1,t,G1r)
ROLE(2,t,G20) ROLE(2,t,G2m)
ROLE(1,t,G)
ROLE(2,t,G)
ROLE(2,t,G1s)
MODEL(1,t,G) ACT(1,t,G) J(1,t,G) VALUE(1,t,G)
MODEL(1,t,G) ACT(1,t,G) J(1,t,G) VALUE(1,t,G)
Źródło: Opracowanie własne: [Roszkowska 2007 s.32].
SCHEMAT 2.
Struktura uogólnionej gry G (t ) w sytuacji S t dla dwóch graczy
KONTEKST SYTUACYJNY
GRACZ 1
GRACZ 2
MODEL(2,t,G)
MODEL(1,t,G)
J(1,t,G)
VALUE(1,t,G)
J(2,t,G)
ACT(1,t,G)
UWARUNKOWANIA
ZEWNĘTRZNE
VALUE(2,t,G)
INTERAKCJE I ICH
REZULTATY
Źródło: Por: [Burns, Caldas, Roszkowska 2005].
ACT(2,t,G)
72
Ewa Roszkowska
3.5. Proces uogólnionej gry
Strukturę gry w kontekście sytuacji S t należy jednak odróżnić od procesu gry. Proces gry jest to ciąg operacji związany z aktywowaniem i stosowaniem reguł zawartych w odpowiednich komponentach kompleksu G (t ) . Gracze podczas przebiegu gry
dokonują oceny danej sytuacji, gromadzą, przetwarzają informacje, podejmują decyzje itp. Istotne znaczenie w procesie interakcji odgrywa kompleks oceny J (i, G ) oraz
związana z nim funkcja oceny [Burns, Roszkowska 2006; Roszkowska 2007].
Definicja 4. Niech J (i, G ) będzie kompleksem oceny i  tego gracza,
a U  a1 , a2 ,..., an  : ai  Ai  przestrzenią obiektów. Operację, która w sytuacji
S t w momencie czasu t wektorowi a  (a1 ,..., an )  U przypisuje kompleks reguł
otrzymany przez stosowanie reguł z kompleksu oceny J (i, G ) nazwano funkcją oceny
tego gracza. Operację oznaczono przez J (i, t , G ) , a jej wynik na obiekcie a przez
J (i, t , G )(a) .
Funkcja oceny J (i, t , G ) jest wyznaczona przez proces oceny, czyli ciąg działań określonych na obiekcie a  ( a1 ,..., an )  U z wykorzystaniem reguł z J (i, G ) w kontekście sytuacji S t .
W zależności od rodzaju obiektu, na danym kompleksie oceny J (i, G ) , można
określić różne funkcje oceny, w tym funkcje: oceny wartości (value judgment), oceny
prawdziwości (truth judgment), oceny danych (data judgment), oceny faktów (factual
judgment), oceny możliwości działania (action judgment). Reguły zawarte w kompleksach
reguł, na których działa funkcja oceny, jak również reguły będące rezultatem tej operacji, mogą być określone na takich obiektach, jak: dane, wartości, normy, przekonania, strategie, procedury itp. (Zob.: schemat 3.). Proces oceny możemy traktować jako
porównywanie oraz poszukiwanie podobieństw między: opcjami, regułami czy kompleksami reguł. Celem tak określonego procesu jest wybór przez gracza odpowiedniej opcji lub konstrukcja własnej opcji spełniającej określone własności.
Proces oceny możemy traktować jako porównywanie oraz poszukiwanie podobieństw pomiędzy: obiektami, regułami czy kompleksami reguł, którego celem jest
wybór odpowiedniego obiektu, reguły czy kompleksu reguł. Zdolność gracza do porównywania i poszukiwania podobieństw odgrywa istotną rolę zarówno przy wyborze dostępnych już obiektów, jak i konstruowaniu nowych, spełniających określone
własności. Zachowania gracza mogą być rutynowe, związane z przestrzeganiem przepisów prawnych, norm czy zasad społecznych.
Podejmowanie decyzji, a w konsekwencji rozwiązanie gry, jest ściśle związane z relacjami między stronami, celami, które strony chcą osiągnąć, czy wreszcie z systemem
wartości przyjętym za podstawę działań. Gracze mogą postępować zgodnie z indywidualną funkcją oceny, czyli niezależnie od poczynań drugiej strony, brak jest wtedy współpracy i porozumienia między nimi lub zgodnie ze wspólną funkcją oceny, czyli współpracując, w porozumieniu z drugą stroną.
Koncepcja i zastosowania uogólnionej gry…
73
SCHEMAT 3.
Ogólny model funkcji oceny
Uwarunkowania zewnętrzne
Sytuacja St
Kompleks oceny
J(i,G)
Przestrzeń U:
Obiekty:

Dane

Przekonania

Wartości

Normy

Aktywności
(np. strategie)
Inne

Proces oceny wyznaczony
przez funkcję oceny J(i,t,G) ze
względu na obiekty z przestrzeni U w sytuacji St chwili t
Konkluzja:
Kompleks reguł:
W szczególnym przypadku:

Dane

Przekonania

Wartości

Normy

Aktywności
(np. strategie)

Reguły

Inne
Źródło: Por.: [Burns, Roszkowska 2006].
Podejmowane decyzji podczas procesu gry może przebiegać w warunkach: pewności, niepewności czy też ograniczonej racjonalności. Ograniczoność w podejmowaniu decyzji może być spowodowana np.: niedostateczną informacją, brakiem rozeznania wszystkich kryteriów, ograniczeniami czasowymi, kosztem uzyskania dodatkowych informacji, częściową zdolnością percepcji postrzegania sytuacji decyzyjnej, niemożnością poczynienia optymalnego wyboru, z opcji, które są dostępne. Czasem wybór
np. optymalnej decyzji czy dobrego obiektu polega na wyborze dostatecznie dobrej decyzji, czy
obiektu spełniającego określone kryteria. Może to być związane z tym, że, podejmując
decyzje, osoba nie jest w stanie sprawdzić wszystkich alternatyw lub dokonać ich porównań, stąd ogranicza się do znalezienia rozwiązania, które go satysfakcjonuje. Należy ustalić jedynie warunki, jakie powinna spełniać decyzja czy obiekt, a nie sprawdza
się wszystkich możliwych alternatyw. Gracz może także konstruować nowe obiekty
lub rozwiązania, spełniając określone własności.
3.6. Motywy postępowania gracza. Typy równowag
Celem analizy uogólnionej gry jest znalezienie rozwiązania gry, czyli układu możliwych aktywności podejmowanych przez graczy, realizujących wartości i normy przez
nich uznawane i prowadzących do akceptowalnego stanu, nazywanego też stanem równowagi. W analizie rozwiązań uogólnionej gry dużą uwagę zwraca się na związek między
rolami pełnionymi przez graczy, zależnościami między nimi a procesem interakcji.
Rozważa są różne typy zachowań gracza, co w konsekwencji prowadzi do wielu ty-
74
Ewa Roszkowska
pów równowag. Wyróżnia się między innymi zachowania: rutynowe, instrumentalne, normatywne, podyktowane emocjami lub kombinacje wymienionych.
Zachowanie instrumentalne graczy charakteryzuje się tym, że proces interakcji jest
związany z realizacją wartości zawartych w kompleksach: VALUE1  g ROLE (1, G ) ,
VALUE 2  g ROLE (2, G ) , a zorientowanych na osiągniecie pożądanego rezultatu.
Może to być np.: maksymalizacja własnych korzyści, minimalizacja strat, maksymalizacja różnicy korzyści, maksymalizacja wspólnych korzyści.
Przez równowagę instrumentalną rozumiemy stan, który został otrzymany w wyniku
procesu instrumentalnych zachowań graczy, czyli zachowań zorientowanych na
osiągnięcie pożądanego rezultatu.
Przykładem równowagi instrumentalnej, w klasycznej teorii gier, jest równowaga
Nasha.
Zachowanie normatywne charakteryzuje się tym, że proces interakcji jest związany
z realizacją norm zawartych w kompleksach: VALUE1  g ROLE (1, G ) ,
VALUE 2  g ROLE (2, G ) , a zorientowanych na postępowanie zgodne z nimi, niezależnie od osiągniętego wyniku.
Może to być np.: kierowanie się normą jestem uczciwy, stosowanie zasad sprawiedliwego podziału (fair division), akceptacja określonych procedur podejmowania decyzji,
np. głosowania, nawet, jeśli ostateczny rezultat nie jest satysfakcjonujący dla gracza.
Przez równowagę normatywną rozumiemy stan, który został otrzymany w wyniku
procesu normatywnych zachowań graczy, czyli zachowań zorientowanych na postępowanie zgodne z normą określającą własności tego procesu.
Zachowanie rutynowe polega na postępowaniu zgodnie z procedurami zawartymi w kompleksach: ALG1  g ROLE (1, G ) , ALG 2  g ROLE (2, G ) , które możemy traktować
jako algorytmy postępowania graczy. Kompleksy: ALG1, ALG 2 posiadają wspólną
regułę ro  R lub reguły z jednakowymi przesłankami, uzasadnieniami, a różnymi konkluzjami. Kompleksy: ALG1, ALG 2 są powiązane ze sobą, co oznacza, że konkluzje aktywowanych reguł w ALG1 prowadzą do przesłanek lub uzasadnień w regułach z ALG 2 , i odwrotnie.
Przez rutynową równowagę rozumiemy stan, który został otrzymany w wyniku procesu rutynowych zachowań, czyli procesu zgodnego ze stosowaniem algorytmów:
ALG1 , ALG 2 .
Warto odnotować, że różne motywy postępowania, czy też różnorodne normy, mogą prowadzić do tego samego stanu równowagi. Możliwe związki pomiędzy równowagą
Nasha a równowagą normatywną przedstawia schemat 4. W sytuacji, gdy gracze kierują
się różnymi motywami działania, możemy rozważać także tzw. równowagi mieszane.
Celem jednego z graczy może być np. otrzymanie równowagi normatywnej, innego
równowagi Nasha. Możemy również rozważać mieszane motywy postępowania gracza.
Gracz może być zorientowany np. na osiągnięcie pożądanego rezultatu, ale zgodnie
z przyjętymi przez niego normami postępowania (mieszany motyw instrumentalno-normatywny).
Porównanie własności uogólnionej gry oraz klasycznej gry przedstawia tabela 1.
Koncepcja i zastosowania uogólnionej gry…
75
SCHEMAT 4.
Możliwe związki między równowagą normatywną a równowagą Nasha
Równowaga normatywna.
Brak równowagi Nasha.
Brak równowagi normatywnej.
Równowaga Nasha.
Równowaga normatywna.
Równowaga Nasha.
Źródło: [Burns, Roszkowska 2003].
TABELA 1.
Porównanie Uogólnionej Teorii Gier oraz Klasycznej Teorii Gier
UOGÓLNIONA TEORIA GIER KLASYCZNA TEORIA GIER
Gra jest reprezentowana przez kompleks reguł G(t).
Reguły gry, tj.: jaka liczba uczestników, strategie, wypłaty, ogólne zasady gry.
Gracze: Klasyfikacja typów graczy, ze względu na: role peł- Gracze: Wybrane motywy postępowania granione w grze, możliwość badania różnych motywów postę- cza, głównie racjonalni gracze kierujący się zapowania, zdolność do kreowania nowych rozwiązań, trans- sadą maksymalizacji funkcji użyteczności, brak
możliwości tworzenia nowych rozwiązań, ograformacji gry.
niczone możliwości transformacji gry.
Gry mogą być symetryczne lub asymetryczne, ze względu Głównie gry symetryczne.
np. na poszczególne komponenty, w tym: role pełnione
przez graczy, ich pozycję, status itp.
Możliwość transformacji gry, która jest oparta na innowa- Struktura gry jest ustalona. Gracze mają dany
cyjności i możliwości kreowania nowych rozwiązań przez i ograniczony zbiór strategii, bez możliwości
graczy.
kreowania nowych rozwiązań.
Gry otwarte i zamknięte.
Zamknięte gry.
Kompleks wartości VALUE(i,G) ściśle związany z uwarun- Funkcja użyteczności lub relacja preferencji
kowaniami prawnymi, społecznymi, zwyczajowymi czy kul- określone na zbiorze strategii.
turowymi procesu interakcji; reprezentuje wartości oraz normy uznawane przez gracza; może zawierać funkcje użyteczności czy funkcje wypłat.
Kompleks modelu MODEL(i,G) zawiera ogólny opis gry, Doskonała lub niedoskonała informacja dotytzn.: role pełnione przez graczy, związki zachodzące między cząca: graczy, funkcji wypłat, strategii; reguły
nimi, reguły reprezentujące sposób postrzegania gry przez gry są zazwyczaj precyzyjnie ustalone, niegracza. Opis gry może być reprezentowany przez nieprecy- zmienne.
zyjne, niekompletne, a nawet sprzeczne reguły.
Kompleks aktywności ACT(i,G) zawiera opis możliwych akty- Zbiór możliwych strategii oraz form komunikawności podejmowanych przez gracza, np.: zachowania rutyno- cji między graczami.
we, zbiory strategii, taktyk, sposoby komunikacji, które są dostępne graczowi w określonej sytuacji w kontekście pełnionych ról.
Kompleks oceny J(i,G) związany z różnymi typami zacho- Zazwyczaj instrumentalna racjonalność. Makwań gracza, w tym: zachowanie rutynowe, normatywne, in- symalizacja funkcji użyteczności lub wypłaty.
strumentalne, emocjonalne itp.
Ograniczone, nieprecyzyjne, możliwości rozumowania, Często superracjonalni gracze.
oceny, wyboru, działania gracza, możliwość sprzeczności
norm, reguł postępowania.
Różne typy równowag, w tym np.: uogólniona równowaga Głównie równowaga Nasha oraz pewne jej
Nasha, równowagi normatywne.
uogólnienia związane z racjonalnym graczem.
Źródło: Opracowanie własne: [Por.: Roszkowska 2007 s. 41; Burns, Roszkowska 2005].
76
Ewa Roszkowska
4. Przykłady zastosowania uogólnionej gry do modelowania procesów
ekonomicznych
4.1. Optimum społeczne w ujęciu kompleksów reguł
Przez stan społeczny rozumiemy kompletny opis sytuacji, w której znajduje się społeczeństwo w relacji do działań ludzkich lub zdarzeń naturalnych. Zbiór możliwych (osiągalnych) stanów społecznych oznaczmy przez ST. Społeczeństwo podejmuje decyzje
o zmianie stanu społecznego lub wyborze jednego ze stanów ze zbioru ST za pośrednictwem agentów (graczy), czyli osób uprawnionych do podejmowania grupowych decyzji zgodnie z określonymi procedurami ze zbioru PR. Niech I oznacza zbiór graczy,
Iaut zbiór agentów (graczy) posiadających uprawnienia do podejmowania decyzji grupowych, gdzie IautI., Mamy Iaut I, może zajść również I=Iaut.
Rozważa się grę społeczną G=[ROLE(I,G),R] jako proces interakcji między agentami (tj. jednostki, grupy osób itp.) ze zbioru I pełniącymi w tej grze określone role oraz
pozostającymi ze sobą w określonych relacjach w kontekście sytuacji St opisanych przez
stany społeczne w momencie czasu t. Kompleks ROLE(I,G) opisuje role pełnione
przez graczy w grze G, ich siłę, relacje między nimi, społeczne, ekonomiczne, kulturowe
czy psychologiczne aspekty ich zachowań; R zawiera ogólne reguły regulujące przebieg
gry; MODEL(I,G), ACT(I,G), VALUE(I,G), J(I,G) oznaczają odpowiednie komponenty kompleksu ROLE(I,G). Zbiór procedur PR jest zawarty w kompleksie ACT(I,G)
[Burns, Roszkowska 2009a; Burns, Roszkowska 2009b; Roszkowska 2009]. Model tak
określonej gry społecznej G przedstawia schemat 5.
Definicja 5. Procedurę społeczną Cpro ze zbioru procedur PR nazywamy instytucjonalnym mechanizmem (institutional mechanism) pozwalający ocenić możliwości przejścia ze stanu społecznego AST do stanu społecznego BST.
Definicja 6. Procedurę społeczną Cpro ze zbioru PR nazywamy uznawalną (legitimize), jeśli agenci, stosujący tę procedurę oraz związani z wynikami jej stosowania,
uznają ją za właściwą do podjęcia decyzji o zmianie lub wyborze określonego stanu
społecznego.
Definicja 7. Społecznie uznawalna poprawa stanu społecznego jest to zmiana stanu
społecznego, dokonana w wyniku decyzji podjętej przez zastosowanie uznawalnej procedury społecznej Cpro ze zbioru PR.
Definicja 8. Powiemy, że stan społeczny AST jest efektywny społecznie lub optymalny
społecznie, jeśli przejście ze stanu AST do dowolnego stanu BST nie jest poprawą tego stanu społecznego.
Koncepcja i zastosowania uogólnionej gry…
77
SCHEMAT 5.
Model gry społecznej G
G=[ROLE(I,G),R]
Kontekst
sytuacyjny
St
ROLE(Iaut,G)
aut
MODEL(I , G)
aut
VALUE(I ,G)
aut
ACT(I , G)
aut
J(I , G)
Modyfikacja
Kontrola
ROLE(I\ Iaut, G)
aut
MODEL(I\ I , G)
aut
VALUE(I\ I , G)
aut
ACT(I\ I , G)
aut
J (I\ I , G)
Wyznaczanie indywidualnych ocen
dla stanów społecznych ze zbioru
ST przez graczy ze zbioru I
zgodnie z regułami z kompleksu
Modyfikacja
Kontrola
VALUE(I,G)
Podejmowanie decyzji zbiorowych przy
zastosowaniu procedury ze zbioru PR przez
agentów ze zbioru Iaut zgodnie z regułami z
kompleksu VALUE(Iaut,G)
Ocena przez graczy ze zbioru I rezultatów decyzji
podjętej przez agentów ze zbioru Iaut
Akceptacja społeczna
rezultatów podjętej decyzji
Brak akceptacji społecznej
rezultatów podjętej decyzji
Źródło: Opracowanie własne.
Proces podejmowania decyzji społecznych oraz poprawy stanu społecznego można
opisać następująco (Zob.: schemat 2.), [Burns, Roszkowska 2009a; Burns, Roszkowska
2009b; Roszkowska 2007]:
1. Norma ze zbioru VALUE wyznacza procedurę (instytucjonalny mechanizm)
Cpro ze zbioru PR jako uprawnioną (właściwą) do podejmowania grupowych
decyzji.
2. Procedura Cpro jest stosowana przez agentów ze zbioru Iaut, czyli agentów posiadających uprawnienia do podejmowania grupowych decyzji.
78
Ewa Roszkowska
3.
4.
Podejmowanie grupowych decyzji przebiega zgodnie z regułami opisanymi
przez procedurę Cpro.
Wszyscy agenci ze zbioru I akceptują stosowanie tej procedury oraz otrzymane wyniki, nawet jeśli nie są one w pełni satysfakcjonujące.
W sytuacji, gdy część graczy nie zaakceptuje otrzymanego wyniku, mogą oni podejmować próby zmiany decyzji, np. przez: modyfikację procedury, zmianę agentów
mających uprawnienia do podejmowania decyzji itd.
Do społecznie uznawalnych procedur podejmowania decyzji zalicza się: procedury
sądowe, negocjacje czy mediacje, głosowanie, wybory, referendum.
4.2. Zrównoważony rozwój jako równowaga instrumentalno-normatywna w grze
społecznej
Próbę formalizacji koncepcji zrównoważonego rozwoju z wykorzystaniem kompleksów reguł można znaleźć w pracy [Roszkowska 2007; Roszkowska 2009]. Proces interakcji między graczami, tj.: państwa, organizacje, instytucje, przedsiębiorstwa,
obywatele, natura w sytuacji St opisanej w ramach systemu społeczeństwo-gospodarkaekonomia, jest reprezentowany przez uogólnioną grę. Zrównoważony rozwój, traktowany jako harmonia pomiędzy dobrobytem gospodarczym, sprawiedliwością społeczną i zdrowym środowiskiem, w takim ujęciu jest rozumiany jako dynamiczna równowaga instrumentalno-normatywna w tej grze. Warunkiem osiągnięcia tej równowagi jest
realizacja celów zrównoważonego rozwoju zgodnie z przyjętymi normami i zasadami
postępowania (zasadami zrównoważonego rozwoju), z uwzględnieniem: złożonych
relacji, powiązań, uwarunkowań, właściwych proporcji między nimi. Cele zrównoważonego rozwoju mogą być doprecyzowane przez określone wskaźniki wyrażone w sposób ilościowy lub jakościowy (np.: ekologiczne, ekonomiczne, socjalne, demograficzne,
przestrzenne itp.).
4.3. Negocjacje jako uogólniona gra
Jednym z obszarów praktycznych zastosowań kompleksów reguł są negocjacje. Negocjacje możemy traktować jako złożony proces podejmowania decyzji na dwóch
współzależnych poziomach: poziomie interesów oraz poziomie relacji między stronami,
uwarunkowany czynnikami zewnętrznymi, które w sposób pośredni lub bezpośredni
mają na nie wpływ [Roszkowska 2007 s. 108]. Dwa główne nurty badań związane
z analizą negocjacji to nurt behawioralny oraz teoriogrowy [Kamiński 2003; Roszkowska 2007]. W modelach behawioralnych zwraca się szczególną uwagę na wzajemne relacje i stosunki pomiędzy uczestnikami rozmów, podczas gdy w ujęciu teorii gier uwaga
jest skupiona na interesach, czyli na osiągnięciu korzystnego wyniku. Model negocjacji
oparty na kompleksach reguł tworzy „pomost” łączący oba te nurty, umożliwiając analizę przebiegu procesu negocjacji, jak i osiągniętego wyniku. Negocjacje, w ujęciu kompleksów, sa traktowane jako proces interakcji między graczami reprezentowany przez
Koncepcja i zastosowania uogólnionej gry…
79
kompleks reguł NG , na który składają się reguły i podkompleksy reguł opisujące kontekst sytuacyjny negocjacji oraz regulujące jej przebieg.
Reguły są wygodnym narzędziem do modelowania negocjacji z użyciem terminów
z języka naturalnego, formalizowania czynników społecznych ekonomicznych czy psychologicznych mających wpływ na podejmowanie decyzji, przybliżonego rozumowania
w termach nieostrych i niejednoznacznych. Kompleksy reguł pozwalają na grupowanie
reguł, ze względu na: różne kryteria, uwzględnienie hierarchii ważności, kolejności stosowania, a po odpowiednim sformalizowaniu języka kompleksy reguł mogą zostać wykorzystane do tworzenia bazy wiedzy związanej z negocjacjami czy komputerowego
wspomagania decyzji. Podstawę analizy procesu negocjacji stanowią wyróżnione cztery
komponenty charakteryzujące uogólnioną grę NG. Kompleksy:
–
MODEL umożliwia zrozumienie uwarunkowań sytuacyjnych procesu negocjacji;
–
ACT zawiera: opis możliwych aktywności podejmowanych przez negocjatorów, ich zachowania rutynowe, ogólne metody komunikacji werbalnej i niewerbalnej, strategie, taktyki i style negocjacyjne;
–
VALUE zawiera: opis wartości i norm uznawanych przez graczy, uwarunkowania prawne, społeczne, zwyczajowe czy kulturowe procesu negocjacji;
–
JUDGMENT zawiera: metody szacowania, oceny, wartościowania obiektów, wyboru czy podejmowania decyzji.
Proces negocjacji jest rozważany jako ciąg kompleksów reguł postaci:
NG (t1 )  NG (t 2 )  NG (t 2 )  ...  NG (t m ) ,
gdzie w sytuacji negocjacyjnej S t j , odpowiadającej chwili czasu t j , j  1,2,..., m ,
każdy z kompleksów NG (t j ) jest generowany przez odpowiednie komponenty:
MODEL(i, t j , NG ) , ACT (i, t j , NG ) , VALUE (i, t j , NG ) , J (i, t j , NG ) .
Przebieg negocjacji jest ściśle związany z kompleksem aktywności ACT podejmowanych przez negocjujące strony. Istotnymi komponentami kompleksu ACT są
podkompleksy reprezentujące: style negocjacji, formy komunikacji między stronami, strategie, taktyki. W pracy [Roszkowska 2007 s.141-145] podjęto próbę opisu
stylów negocjacji: twardy, miękki, zasadniczy przez reguły. W formie reguł mogą być
prezentowane zasady dobrego negocjowania, które powinny być stosowane przez
każdego negocjatora. Podane przykłady możemy potraktować jako punkt wyjścia
do dalszych badań, tzn. grupowania reguł w podkompleksy ze względu na wybrane
własności lub rozkładu reguły na kompleksy reguł.
Język teorii kompleksów reguł jest użyteczny do formalizacji komunikacji między stronami. Przez reguły opisujemy komunikaty werbalne i niewerbalne stosowane w negocjacjach [Roszkowska 2002; Roszkowska 2003; Roszkowska 2007 s. 155
– 170]. Z kolei, przykłady powiązań strategii, taktyk, technik negocjacyjnych z aparatem pojęciowym teorii kompleksów reguł można znaleźć w pracy [Roszkowska 2007
s. 175 – 189].
80
Ewa Roszkowska
5. Podsumowanie
Uogólniona gra, traktowana jako specyficzny kompleks reguł, daje możliwości badania: aktywności graczy, ich zachowań, wzajemnych powiązań (interakcji) między nimi
w ujęciu uwzględniającym szeroką klasę ekonomicznych, społecznych psychologicznych aspektów. Kompleksy reguł pozwalają na opis i analizę rozwiązań nie tylko gier
klasycznych, ale również takich, gdzie np.: nie wszystkie reguły gry są znane, reguły są
nieprecyzyjne, lub niekompletne, gracze mają ograniczoną lub asymetryczną informację,
posługują się różnymi kryteriami przy podejmowaniu decyzji itp. Gry mogą być zamknięte, gdy reguły gry są ustalone i niezmienne, lub otwarte, jeśli dopuszczamy możliwość transformacji gry. Modyfikacje gry mogą dotyczyć między innymi reguł opisujących: kontekst sytuacyjny gry, system wartości gracza, możliwości jego działania. Pojęcia
reguł i kompleksów reguł umożliwiają: modelowanie z użyciem terminów z języka naturalnego, formalizowanie czynników mających wpływ na podejmowanie decyzji, przybliżonego rozumowania w termach nieostrych i niejednoznacznych. Narzędzia te mogą
być zatem użytecznym narzędziem do modelowania zjawisk ekonomicznych, nie tylko
w obszarach prezentowanych w tym artykule.
Literatura
Burns T., Caldas J.C., Roszkowska E. 2005 Generalized Game Theory’s Contribution to
Multi-agent Modelling Addressing Problems of Social Regulation, Social Order, and Effective
Security, [w:] Monitoring, Security and Rescue Techniques in Multiagent Systems, (red.)
B. Dunin-Keplicz. A. Jankowski, A. Skowron, M.A. Szczuka, Springer Verlag.
Burns T., Gomolińska A. 2001 The Theory of Socially Embedded Games: The Mathematics
of Social Relationships, Rule Complexes, and Action Modalities, „Quality and Quantity:
International Journal of Methodology”, Vol. 34(4).
Burns T., Roszkowska E. 2006 Social Judgement in multi-agent systems: The Perspective Of
Generalized Game Theory, [w:] Cognition and Multi-Agent Interaction. From Modeling to
Social Simulation, (ed.) R. Sun, Cambridge.
Burns T., Roszkowska E. 2003 Fuzzy Game Theory: The Perspective of the General Theory
of Games on Nash and Normative Equilibria, [w:] Rough-Neural Computing: Techniques
for Computing with Words, eds. S.K. Pal, L. Polkowski, A. Skowron, Springer Verlag.
Burns T., Roszkowska E. 2005 Generalized Game Theory: Assumptions, Principles, and
Elaborations Grounded in Social Theory, In Search of Social Order, Series, „Studies
in Logic, Grammar and Rhetoric”, 8(21).
Burns T., Roszkowska E. 2009a A Social Procedurial Approach To The Pareto Optimization Problematique: Part I: Pareto Optimization and Its Limitations versus the GGT Conception of the Solution of Multi-value Conflict Problems Through Societal Procedures, Quality& Quantity, Vol. 43, No. 5.
Burns T., Roszkowska E. 2009b A Social Procedurial Approach To The Pareto Optimization Problematique: Part II. Institutionalized Procedures and Their Limitation, Quality&
Quantity, Vol. 43, No.5.
Koncepcja i zastosowania uogólnionej gry…
81
Dokument elektroniczny, Tryb dostępu: [http://nobelprize.org/nobel_prizes/
/economics/laureates/1994/index.html]
Dokument elektroniczny, Tryb dostępu: [http://nobelprize.org/nobel_prizes/
/economics/laureates/1996/index.html].
Dokument elektroniczny, Tryb dostępu:
[http://nobelprize.org/nobel_prizes/
/economics/laureates/2005/index.html].
Dokument elektroniczny, Tryb dostępu: [http://nobelprize.org/nobel_prizes/
/economics/laureates/2007/index.html]
Drabik E. 1998 Elementy teorii gier dla ekonomistów, Białystok.
Gomolińska A. 1999 Rule Complexes for Representing Social Actors and Interactions, „Studies in Logic, Grammar, and Rhetoric”, nr 3(16).
Kalinowski S. 2008 Konkurencja lub kooperacja. Studia eksperymentalne nad funkcjonowaniem rynków, Poznań.
Kamiński J. 2003 Negocjowanie – techniki rozwiązywania konfliktów, Warszawa.
Malawski M., Wieczorek A., Sosnowska H. 1997 Konkurencja i kooperacja. Teoria gier w ekonomii i naukach społecznych, Warszawa.
Pawlak Z. 1983 Systemy informatyczne, Warszawa.
Reiter R. 1980 A logic for default reasoning, „Artificial Intelligence”, nr 13.
Roszkowska E. 2002 Komunikacja w negocjacjach a kompleksy reguł, „Optimum. Studia
Ekonomiczne”, nr 1(13).
Roszkowska E. 2007 Modelowanie procesów decyzyjnych oraz negocjacji za pomocą kompleksów reguł, Białystok.
Roszkowska E. 2003 Wykorzystanie reguł do konstrukcji komunikatów w negocjacjach, „Optimum. Studia Ekonomiczne”, nr 1(17).
Roszkowska E. 2007b Zrównoważony rozwój jako równowaga dynamiczna w uogólnionej grze
społecznej, „Ekonomia i Środowisko”, nr 1(31).
Roszkowska E. 2009 Koncepcja optimum społecznego w ujęciu kompleksów reguł, [w:] Podlasie regionem przyszłości, (red.) A. Bocian, Białystok.
Roszkowska E. 2009 Optimum społeczne a zrównoważony rozwój, [w:] Od konsumpcji ekorozwoju do ekonomii zrównoważonego rozwoju, (red.) D. Kiełczewski, Białystok.
Watson J. 2005 Strategia. Wprowadzenie do teorii gier, Warszawa.
OPTIMUM. STUDIA EKONOMICZNE NR 4 (48) 2010
Piotr WOJEWNIK, Tomasz KUSZEWSKI1
FROM CRISP OPTIMIZATION TO FUZZY APPROACH AND
MACHINE LEARNING – OPERATIONS RESEARCH
EVOLUTION
Summary
In this paper we try to outline the mainstreams of operations research and to classify them as completed
and underway in methods and applications. In particular, we consider the methods of decision support with
subjective criteria evaluation in vaguely described situations. The aim of the paper is to articulate the
current trends and challenges in operations research.
Keywords: operations research techniques, OR history, OR directions
1. Introduction
Let us start this draft on the operations research history with definition of some
terms crucial in further considerations. The first term is operation regarded by military
people as the overall procedures and processes performed at various places at
various moments of time planned to achieve common goals. Let us note that operation means a complicated, planned action aimed at achieving particular goals. Completion of the operation requires decision-making, in particular, preparation of some fractional plans for feasible actions, regarding the boundaries and the goal of the operation. The decision making process might be presented in a model way with the following elements: admissible decisions, finite set of evaluation criteria and some decision rules, describing how to take the decision regarding the introduced criteria. The
examination of the decision-making model is the subject of the science discipline called
operations research2, OR. In particular, OR deals with analysis of the targeted activities, generation and quantitative evaluation of the decisions. Since we recognize
specified theory, models and algorithms, then the operations research appears to be
an autonomous scientific discipline.
1 Dr Piotr Wojewnik and dr hab. Tomasz Kuszewski, prof. SGH, are research workers at Division
of Decision Analysis and Support at Warsaw School of Economics.
2 In the British literature you can find the term operational research, while American scientists prefer
operations research.
From Crisp Optimization to Fuzzy Approach…
83
The problems solved by the pioneering research teams facilitate defining the
operations research. It is a scientific discipline that applies the mathematical3, statistical and simulation methods to find recommendations in decision-making problems. Grabowski [Grabowski 1980] points out, that the decision- making supported
by operations research follows the phases:
1. problem formulation,
2. mathematical model creation,
3. model solution identification,
4. solution evaluation and model verification,
5. identification of the decision and introduction of the control system.
The operations research created universal and elastic procedures for decision-making and these methods enabled successful support of decision-makers in complex situations. The procedures engage at least two parties: a decision-maker and an analyst. The
decision maker is a problem owner and he/she helps the analyst to understand the
problem, see (1) in Grabowski’s [Grabowski 1980] classification. After an inspection of
the problem the analyst proposes its formal description – model, see (2). The next
phase is the introduction of the algorithm recommending solutions of the model, see
(3). To recognize the influence of environmental changes to the decision, the analyst
performs the sensitivity analysis of the solutions, see (4). In the final phase the recommended decision is presented to the decision maker, see (5). The procedure appears
to be effective in each highly structured decision problem, where it is possible to
present the quantitative model.
2. The beginnings of operations research
The scientific discipline operations research came forward in the 20th century but
even before people formulated the decision making models. For example Leonard
Euler, great enthusiast of walking, considered if it is possible to start and finish at the
same point and walk through any of seven Königsberg bridges only once4. We might
say Euler defined the admissible decision. In 1955 Merril Flood completed the description with the rule of the shortest path and as a result he formulated the classic salesman problem.
In 1741 a servant of the French king Louis XV, the military engineer, Louis de
Cormontaigne was engaged to build the towers northern of the country. After 72
years of Louis XIV realm the monarchy couldn’t afford the venture, so the Cor3 The linear programming exploits the Fourier method (1824) of solving the system of inequalities. The
non-linear programming applies the mathematicalk tools, like: Lagrange multipliers, steepest descent method
by Cauchy [Cauchy 1847], Farkas lemma (1902) and the minmax theorem by von Neumann (1928). The descrete problems are solved with some combinatorial methods, where the definition of regular graph was introduced by Brunel in 1894 already, and the most important publication are “Nets (or graphs)” de Sante-Lague from 1926 and “The theory for finite and infinite graphs” by Konig (1936), see: [Gropp 2004].
4 The game theory enthusiasts present this story as an example of graph construction and the
beginning of this science discipline and topology.
84
Piotr Wojewnik, Tomasz Kuszewski
montaigne considered the problem, how to maximize fortification moment – number of defense days per investment unit5. Today we would say that the engineer
solved the problem of effective allocation of limited resources.
In 1776 Louis XVI asked the mathematician Gaspard Monge to create the ground
communication network in France. Monge considered the problem of soil movements to minimize the costs. During the First World War Frederick Lanchester proposed the battlefield model considering the combat power of the parties, and Thomas Alva Edison developed the model of fighting the submarines.
These examples prove that in the beginnings the operations research models and
their solutions were in the scope of military.
In the 30s of the 20th century the international circumstances created the positive atmosphere for development of the new scientific discipline. In Great Britain
the Air Ministry considered the military threat of British territory and decided to employ
some modern technologies for air defense. Among other the Ministry applied new
device – radar – and in 1936 in the northeastern coast some radiolocation stations were
built. The project leader, A.P. Rowe, found that the system is technically prepared
to identify the airplanes, but its effectiveness is quite low and some research on its
operational aspects is needed. Thus, in 1937 the British for the first time used the
expression “operational research” to call the specific proceeding activities preparing
the Great Britain for the military conflict with Germany. In 1938 the Coast Defense
Headquarters gathered the scientific team under command of young physicist –
Patrick Blackett. The team included mathematicians, physicians, statisticians, biologists,
psychologists and economists. It was called “the Blackett Circus” because of nonstandard framework and methods, see: [McCloskey 1987 a, b, c]. The team supported
the cooperation of radars, air defense systems and civil defense during the German
airstrikes, planning of British airstrikes, and arrangement of sea convoys. The
recommendations of the scientists were fortunate, so “the Blackett Circus” was
replicated in other British forces and also in US Army. In 1942 P.M. Morse gathered
interdisciplinary team to create some methods to protect the sea convoys against
the submarine strike, see: [Morse 1986].
New institutions were founded: in 1942 United Kingdom Naval Operational Research, United States Navy Antisubmarine Warfare Operations Research Group,
United States Air Force Operations Research, and in 1945 – United States Navy Operations Evaluations Group.
During the Second World War in the United States of America the operations research developed also in civil organizations. The partition observed in that time decided
over development of many scientific disciplines from the field of decision support.
Deterministic problems were the focus of Cowles Commission for economic research. The decision making under uncertainty was the concern of the Massachusetts
Institute of Technology, while the conflict situation was examined by Rand Corporation. The Rand research started the game theory, while the MIT works – queuing,
5 Cormontaigne to solve the problem created and applied the war game, being till now the classical example of managerial game.
From Crisp Optimization to Fuzzy Approach…
85
renewal and inventory theories. In the following parts we will focus on the operations research based on deterministic model of decision problem.
In 1949, Cowles Commission organized at University of Chicago conference to
present the results of operations research to the world. It was the symbolic beginning of
the quantitative description in the civil sector of the economy, both on a micro and macro scale. The optimization models were created one after another: in 1948 – the macroeconomic model of the US economy; in 1951 – the US model of petroleum rafination; in 1953 – the US model of agricultural mass-production; in 1953 – the US model
of perishable goods distribution; in 1954 – the UK model of steel melting; in 1955 – the
US model of internal air traffic; in 1956 – the US model of telecommunication network;
in 1957 – the US model of oil fields exploration; in 1957 – the French model of energy
production. There is much more applications of the operations research, but the presented examples prove the capabilities and success of the approach.
The expansion of the operations research was the result of the successful pioneering
applications and critical discussion of the basis models. In the following years both the
theory and the models enabled a description of more complex situations. Consideration
of the non-linear admissible set and criteria stimulated progress in convex optimization
with the first publications by R. Dorfman and H.W. Kuhn and A.W. Tucker in 1951.
The linear optimization model is static. The next step in approximating the real
word problems is introduction in dynamic optimization model by L. Kantorovich
in 1951 and R. Bellman in 1957.
The multitude of applications unfolded the need for introduction to the quantitative models the natural valued numbers as the representation for the decision characteristics. The need was fulfilled by discrete optimization started by G.B. Dantzig,
L.R. Ford and D.R. Fulkerson in 1954, and R.E. Gomory in 1958.
The next difficulty in the real problems matching was the lack of randomness in
the decision models. In 1959 A. Charnes and W.W. Cooper, and in 1960 – A. Madansky and G.B. Dantzig – proposed the stochastic optimization models.
The separate branch of the operations research are the models of network problems. In 1956 J. Kelley and W. Walker developed CPM (Critical Path Method) to analyze
the multitask problems, where the duration of particular tasks is constant. D. Malcolm,
J. Roseboom and C. Clark introduced PERT (Program Evaluation & Review Technique),
where the length of particular tasks is described with random variable of given distribution.
The expansion of optimization theory and algorithms enabled operations research to support wide scope of problems. There were always some difficulties like
forcing the decision-maker to use the one only optimization criterion and supporting only the well structured decision problems.
3. Single criteria optimization methods
In this paragraph, we present the most important trends in single criteria methods
of operations research, see: [Gass 2002]. In particular, we will show the basic linear and
86
Piotr Wojewnik, Tomasz Kuszewski
integer programming methods, constrained and unconstrained nonlinear optimization
procedures. The definitions of optimization problems are presented in Appendix.
3.1. Linear optimization
The linear optimization begins with Leonid Kantorovich working on production
planning and organization in 1938 – 39. In 1942 Kantorovich published paper on
mass products transportation. In 1941 Frank Hitchcock formulated and presented
a solution to the problem of general distribution costs if there is m sources and n destinations of given supply and demand. Similar problem was considered in 1944 by
Tjalling Koopmans6. In 1945 George J. Stigler7 worked on the diet problem, where
the cost of food provision is minimized.
Each of the presented cases required original method adjusted to the real world
problem. In 1947 George B. Dantzig entitled them as linear programming8. This
year Dantzig formulated universal procedure to solve the decision problems described by models with decisions represented by n-dimensional vectors and linear
choice function and constraints. The procedure is called simplex method9, see:
[Dantzig 1949].
The simplex method starts from feasible solution that could be hard to be
found. Initially, the difficulty was solved with the two-stage method and the penalty
method with some dummy variables eliminated from the model during the calculations. C. Lemke in 1954 proposed the original solution – dual simplex method, see:
[Dorn 1963]10.
Another difficulty of the simplex method is the exponential numerical complexity11.
The large scale optimization problems with block structure12 can be decomposed into
a series of reduced problems and the approach decreases the numerical complexity of
the solution identification procedure, see: [Dantzig, Wolfe 1960]. For linear problems
L.G. Khachiyan published in 1979 the ellipsoid algorithm of polynomial complexity.
L. Kantorovich and T. Koopmans are Nobel Prize winners in economics from 1975.
G. J. Stigler is a Nobel Prize winner in economics from 1982.
8 Some researchers claim T. Koopmans to introduce the term. The label “linear programming” is
not precise and even Dantzig proposed other form: “programming in a linear structure”. However,
the shorter form appeared to be more attractive even if a little bit ambigous.
9 The works over concept was supported by L. Hurwicz and T. Koopmans.
10 The initial point of the dual simplex method must be only dual feasible. In the following interations the solutions exceed the primary conditions by dimnishing values, see: [Dorn 1963].
11 In extremely uncomfortable situation for n decision-variable-model the simplex method requires examination of 2n trial solutions before the optimum is identified, see: [Klee, Minty 1972].
12 The decomposition of linear program introduced by Dantzig and Wolfe [Dantzig, Wolfe 1960] can
be applied to the problems, where among the n variables and k constraints we can identify the variables 1n1
(from 1 to n1) emerge only in the conditions 1k1, the variables (n1+1) n2 - in the conditions (k1+1) k2 etc.
Therefore we can specify the groups of conditions, separated as to the variables.
6
7
From Crisp Optimization to Fuzzy Approach…
87
The even faster algorithm was introduced by N. Karmarkar [Karmarkar 1984], where
the optimal solution is found after the analysis of the feasible interior points series13.
3.2. Integer programming
The numerical methods for optimization with integer decision variables started
with R.E. Gomory [Gomory 1958] cut off method14. A.H. Land and A.G. Doig
[Land, Doig 1960] introduced the branch and bound method to find the optimal
solution within the smaller number of iterations15. The method of J.F. Benders
[Benders 1962] outperforms the efficiency of the Gomory’s procedure. In the Benders’
method the problem is decomposed into the basis and additional, and they are
solved interchangeably in two separate spaces of continuous and integer variables16.
The methods by Gomory, Land and Benders are applicable to any integer optimization tasks, but for the problems of given structure it is possible to introduce some
more efficient methods. For the assignment problem H.W. Kuhn [Kuhn 1955] proposed the Hungarian method17 of polynomial complexity (number of operations proportional to n4), while the full search requires analysis of (n!) solutions. Basing on
Hungarian method R.L. Ford and D.R. Fulkerson [Ford, Fulkerson 1956a] formulated
the method for the transportation problem18.
Karmarkar [Karmarkar 1984] transforms the constraints to equality form and the solutions to
the unary length, i=1…n xi=1. He cyclically identifies the minimal admissible solution x* over the sphere centered at [1/n]i=1…k interior to the simplex defined in Rn and next the solution space is transformed that
x* is the center [1/n]i=1…n of the next sphere. This approach enables optimal solution identification in
the polynomial time – proportional to n3.5.
14 Gomory leaves the condition for integer variables out of the problem. Whereas, he sequentally
extends the linear conditions cutting off the previous optimal solution until the final solution will be
integer.
15 Land and Doig (1960) also eliminate the integer condition in their branch and bound method.
Whereas, in each iteration they solve a pair of problems with disjoint feasible sets. The feasible sets are
created basing on previous solution, where the coordinates are rounded up and down and get the values for the constraints added in next iterations.
16 Benders (1962) divides the variables into the basis and additional and thus creates the basis and
additional decision space and optimization problem. The problems are solved interchangeably where
for each trial solution of the additional problem the optimal solution of the basis problem is found ad
vice versa. If the common solution is suboptimal then an eliminating condition is added. The Benders
decomposition can be considered as dual form of the Dantzig-Wolf decomposition, see Beale (1965).
17 Let us assume the cost of execution n tasks by n employees is given in a matrix form. The
Hungarian method can be revealed as follows. Find the minimal elements of each row and substract
them from particular rows. Find the minimal elements of each column and substract them from particular columns. Erase the rows and columns with zeros. If the number of erased rows and columns is
smaller than n – find the minimal value of the rest, substract it from the rest and add it to the crossing
fields of substracted rows and columns. Find n zeros spanning all the rows and columns of the matrix,
see Kuhn (1955).
18 Given k sources and n destinations, the level of supply and demand at particular points and the
cost of delivery between all the points, the problem of choosing the amounts transported between
particular points minimizing the total delivery cost is called the transportation problem.
13
88
Piotr Wojewnik, Tomasz Kuszewski
The transportation problem can be presented as a linear program and solved
with simplex method – analysis of (2kn) solutions. The method of Ford and Fulkerson enabled reduction of the problem complexity to polynomial (n4). Ford and Fulkerson [Fulkerson 1956b] published also the method for identification of the maximal
flow in the network19. The same year Du Pont Corporation started works on project
management resulting in 1959 with critical path method, CPM, by Kelly and Walker,
see: [Weaver 2008].
CPM exploits the linear structure and the graphical representation of the problem20 to identify the minimal execution time for the project and the activities critical
to achieve it. From 1990 the integer problems are successfully solved with genetic algorithms where the effectiveness of the algorithm depends mainly on the problem
structurization and merely on the procedure itself, see: [Michalewicz 1992].
The integer problem structure and the dedicated optimization methods prove, that
often the problems of simple structure require algorithms of exponential complexity
and just the restructurization enables introduction of some efficient procedures.
3.3. Unconstrained nonlinear optimization
The methods for nonlinear unconstrained optimization started long before the
operations research because the first algorithms were proposed by Cauchy [Cauchy
1847] and Newton, already see: [Ypma 1995]21. They were focused on the convex
differentiable problems.
The Newton’s method appeared to be efficient in convex problems because relatively small number of iterations enables identification of the local optimum neighborhood. Whereas the method requires inverse of Hessian matrix (second order derivatives matrix) at each trial solution. Thus for the large number of decision variables
the method rapidly slows down. In the 60s the problem was tackled by Broyden,
Fletcher, Goldfarb and Shanno introducing the variable metric techniques – called
quasi-Newton methods, where the Hessian matrix is not calculated and just ap-
19 If it is possible to travel form A to B with different crossing paths and the capacity of these
paths varies, then the procedure by Ford and Fulkerson enables estimation of maximal flow between
A and B.
20 The method shows the dependencies between the basic elements of the project on a graph. It
helps to identify the critical activities and choose the actions to be shortend, if the project has to be
executed earlier than it is possible at current activities length, see: [Weaver 2008].
21 The methods of optimal solution identification in an unconstrained nonlinear problem consist
of iterative review of trial solutions and verification whether optimality conditions are met. The trial
solutions can be found with direction methods. In particular, for given solution the search direction
and the step establish next trial solution. For the minimization problems Cauchy [Cauchy 1847] proposed the steepest descent method, where the search direction is a vector opposite to the gradient of the
optimized function at current solution. Whereas, for weak conditioned Hessian matrix the method is
quite slow. The faster method was proposed by Newton in 1687, see: [Ypma 1995]. Newton proposes
to exploit the curvature of the optimized function next to its slope (gradient value). In particuar, he
proposes the search direction as an multiplication of inverse Hessian matrix and the minus gradient.
From Crisp Optimization to Fuzzy Approach…
89
proximated basing on the trial solutions and gradient22, see e.g.: [Luenberger, Ye
2008]. To efficiently find the optimal solution we can also employ the conjugate gradient method introduced with intent to solve the systems of equations, see: [Luenberger, Ye 2008]23.
The typical application of the unconstraint optimization is estimation of the econometric model parameters with the maximum likelihood method, see: [Greene 2003;
Maddala 2001], or identification of the neural network parameters, see: [Masters 1993;
Bishop 1995].
If the optimized function is not differentiable or convex, then the presented
methods do not guarantee convergence to the optimal solution because of local optima
problem. Among the methods robust to the problem we can enumerate the artificial intelligence heuristic methods like simulated annealing, taboo search, ant colony
optimization and evolutionary algorithms. The only problem of these methods is
the limited confidence of their convergence, see: [Goldberg 1989; Michalewicz
1992].
3.4. Constrained nonlinear optimization
The constrained nonlinear optimization started with works of Kuhn and Tucker
[Kuhn, Tucker 1951] on necessary and sufficient conditions for the optimal solution in the differentiable problem24. One of the first procedures for identification of
the solutions was the Rosen’s gradient projection method [Rosen 1957]25 and the
feasible direction method by Zoutendijk [Zoutendijk 1959]26 formulated for C1 functions and linear constraints. For the nonlinear constraints Kelley [Kelley 1960] intro-
22 Davidon, Fletcher and Powell and Broyden, Fletcher, Goldfarb and Shanno observed, that the
inverse Hessian matrix used by Newton can be interpreted as a space transformation matrix, where
the Newton method operates just like steepest descent. In quasi-Newton methods the space is transformed too, but the function is parametrized by the gradient value and trial solutions.
23 The steepest descent method in many iterations searches along the same direction and thus the
efficiency is quite low. The method would be more efficient if the optimized function is quadratic, the
variables are statistically independent and the search direction follows the versors. This postulate is
addressed by conjugate gradient method from 1952, that transforms the variable space to the one with
quadratic goal function and orthogonal search directions. As a result the conjugate gradient method
appears similar both to steepest descent and quasi-Newton, see: [Luenberger, Ye 2008].
24 The optimization methods generaly iteratively review the trial solutions and verify, whether the optimiality conditions are met. The Kuhn-Tucker conditions (1950) enable such verification for the optimization problems with differentiable goal function and constraints.
25 The method of projected gradient by Rosen [Rosen 1957] assumes, that the trial solutions will be
identified using the direction opposite to the gradient (for minimization problems). If the method achieves
the edge of the feasible set, then the following trial points are identified with the direction as minus gradient projected onto the tight constraints.
26 The feasible direction method by Zoutendijk [Zoutendijk 1959] assumes the direction as the one
closest to the gradient (closest in terms of the angle), and do not exceeding the feasiblity constraints.
90
Piotr Wojewnik, Tomasz Kuszewski
duced the cutting plane method (similar to Gomory’s approach), where the trial
solutions are external to the feasibility set27.
If there is a lot of decision variables and constraints the methods of Rosen,
Zoutendijk and Kelley are inefficient, so the new concepts were developed. In particular, there are methods of problem restructurization, that it is possible to apply
the unconstraint optimization procedures. In 1967 Wolfe presented the reduced gradient method28 for the problems with linear constraints29, see: [Luenberger, Ye
2008]. Whereas Fiacco and McCromick [Fiacco, McCromick 1964] introduced penalty to the goal function if the constraints are exceeded. One of the side-effects of
the constraint optimization development is formulation of the presentation standard in
the operations research – the necessary and sufficient conditions.
The methods presented in this paper support decision processes with one-goal
function. Whereas, in practice, we can observe problems with a few goal functions
and those evaluations can be subjectively judged by the decision maker. The subjectivity of the decision maker in choice and application of the goal functions is
considered by the operations research as multicriteria decision making methods,
see: [Slowinski 1984; Korhonen et al. 1992].
4. Polyoptimization methods
In this paragraph we present the most important trends in polyoptimization
methods. In particular, we will show the basic a priori, a posteriori, and dialog
methods, see: [Slowinski 1984; Korhonen et al. 1992]. The definitions of polyoptimization problem is presented in Appendix.
4.1. Introduction
In previous sections we mentioned two constraints for the operations research
models: single criterion and well structurization of the problem. The extension of the
criteria number was considered by D. Gale, H.W. Kuhn and A.W. Tucker in 1951.
They proposed vector optimization as a tool for analysis of bunch of decision crite27 The cutting plane method by Kelley [Kelley 1960] follows the Gomory approach for the integer
problems. The feasible set is externally aproximated by the linear constraints. After identification of
the trial solution it is verified for the nonlinear conditions. The infeasible solutions are eliminated with
additionl linear constraint.
28 The reduced gradinet method by Wolfe assumes the decision variables can be divided into basis and
non-basis. If the system of equations represents the feasible set, then it can show the dependency between
the basis and non-basis variables. Thus the basis variables might be eradicated from the goal function and
the problem might be solved as unconstraint optimization task of non-basis variables only. The final basis
variables values can be found from constraints and solution of the unconstraint problem.
29 The early versions of the nonlinear optimization methods were dedicated to the problems with
nonlinear goal function and linear constraints. Later the approaches were supplemented with nonlinear constraints. The example method is to expand the nonlinear function into a Taylor series of the
rank one at every trial solution and to solve the local-linear problems.
From Crisp Optimization to Fuzzy Approach…
91
ria instead of single goal function model. Unfortunately, this approach leads to an
ambiguous model, because in general there exists an infinite number of possible
solutions30.
The next years were spent on trials to restructurize the multicriteria problem to
the single-criteria-structure. One of the most well-known proposals is the goal programming by A. Charnes and W.W. Cooper from 1959. In 1960 P. Fishburn pointed
out that the method of criteria aggregation by Charnes and Cooper – metacriterion
– chooses different solution than the bunch of criteria. This observation leads researchers to the well known in economics concept of V. Pareto from 1906. He defined the best possible decisions as the ones, where improvement of any criterion
causes decrease at least in one other criterion. Basing on the concept of Pareto B. Roy
[Roy 1968] formulated the classification method if the number of criteria is greater than
one and in 1975 M. Zeleny, S. Zionts, J. Wallenius and B. Roy published pioneering
papers on multi-criteria optimization. In this moment, the operations research overcame the first of presented obstacles – pressure to formulate only one goal function
by a decision- maker.
Since the number of criteria can be greater then one and the problem structure
is more complex than in single-criteria-case, the preferences of decision maker have
to be presented in more detail than the simple direction minimization or maximization.
This is also the reason for special role of the additional information gathering in multicriteria methods, while the optimization procedures underline only the information
processing phase, see e.g.: [Kaliszewski 2006; Roy 1990; Trzaskalik, Michnik 2002].
The sequence of additional information retrieval and information processing defines
the basic types of multicriteria methods – a priori (information is articulated before the
Pareto-optimal solutions are identified), a posteriori (after the Pareto-solutions are
found), and dialog methods (during the process of Pareto-optimal solutions retrieved),
see: [Slowinski 1984; Korhonen et al. 1992].
4.2. A priori methods
The a priori methods for multicriteria analysis assume, that it is possible to formulate the structure aggregating the fractional criteria. The metacriterion can be
applied to identify the final recommended solution. The decision maker formulates
the structure directly or reveals some information enabling the structure identification even before the search process begins. The a priori methods explore various
aggregation methods e.g.: utility function, outranking relation and decision rules, see:
[Korhonen et al. 1992; Spronk et al. 2005].
Among the a posteriori methods we should mention the multiattribute utility theory
methods, MAUT31, exploring the scalarizing functions like CES, exponential, quasilinear etc., see: [Roy 1990].
30 If the decison maker preferences for the vector goal function are „min” or „max”, then in general there is no decision variant prefered to any other solutions. In terms of mathematics there is no
the greatest element in the feasible set, even if the set is bounded and closed.
92
Piotr Wojewnik, Tomasz Kuszewski
The multicriteria utility function can be estimated basing on the alternatives ranking
produced by the decision maker, see e.g. UTA and UTADIS methods by JacquetLagreze and Siskos [Jacquet-Lagreze, Siskos 1982], and Zopounidis and Doumpos
[Zopounidis, Doumpos 2000]. The alternative solution was presented by Bana e
Costa and Vansnick [Costa, Vansnick 1994] in MACBETH, where the decision maker
compares the pairs of decision variants evaluating the power of preference between
them. The relation can be applied to estimate the parameters of quasi-linear utility
function. The similar approach was proposed by Saaty [Saaty 1978] in AHP method32.
The goal programming by Charnes, Cooper and Fergusson [Charnes, Cooper, Fergusson
1955] can be regarded as MAUT, too. The method assumes existence of a reference
point. The point includes the expected level of particular criteria and utility is inverse
proportional to the distance from the reference point in weighted minimax metric33.
Keeney [Keeney 2002] warns against mechanical application of MAUT. Before the
function is chosen and estimated Keeney suggests careful identification of the goals,
goal achievement measures, the feasible decisions and the starting point. Otherwise,
MAUT methods produce suboptimal decisions. These restrictions stimulated the researchers to develop alternative multicriteria decision making methods.
The adversaries of MAUT point out that it is impossible to verify the basic assumption on the existence of utility function, see: [Vincke 1986]. Moreover, Kaminski
[Kaminski 2007] proved, that there are some preference structures where the scalarizing
function does not exist. In particular, Kaminski shown that for multicriteria problem there is no scalarizing function additive and multiplicative at the same time.
Next to the MAUT approach we can find some other a priori methods based on
outranking relation started with ELECTRE method34 (fr. elimination et choix traduisant la realite) in 60-ties of XX age, see: [Roy, Vanderpooten 1996; Rousseau et al.
2000]. Brans et al. [Brans et al. 1986] developed ELECTRE into PROMETHEE (preference ranking organizing method of enrichment evaluation), where the combination of the
partial consistency indices is nonlinear. Brans et al. introduced the visual representation of consistency index in the form of graph to supply the decision maker with
some additional information.
In the case of outranking methods the assumption on transitivity and completeness
of preferences is not required. From this point of view the outranking methods
31 In economics the utility function is defined as a measure of relative satisfaction from goods and
services consumption. It is exploited to describe the economic behavior of individuals in terms of utlity maximization, see Mill (1863).
32 Decision maker using AHP also creates some relations, whereas she compares the pairs of decisions separately for every criterion. Moreover, she compares the criteria criteria between each other.
The final relation are used for estimation of particular criteria weights in the scalarizing function.
33 The problem of Charnes, Cooper and Fergusson with linear constraints and goal functions can
be solved with linear optimization methods.
34 Roy assumes that the decision variants are comparable in pairs because of the criteria values. In
particular, the difference of given criterion values denotes partial consistency index describing the preference over the pair of decision variants for given criterion. The linear combination of partial consistency indices constitute the global consistncy index describing the global preference over the pair of
decision variants, see Roy and Vanderpooten (1996).
From Crisp Optimization to Fuzzy Approach…
93
cover more application area than the MAUT procedures. Whereas Vincke [Vincke
1986] underlines that the outranking methods can be used for finite feasible sets only
and the solutions can be paradoxical, because the method lacks of the theoretical
background.
It is possible to identify another type of a priori methods – decision rules based
on rough sets theory, see: [Pawlak, Slowinski 1994]. The rough sets methods assume
that the procedure starts with historical data set – so called decision table. The table
includes some description of particular alternatives because of given attributes.
Pawlak and Slowinski proposed to identify the rules only for reduced number of
attributes, so called reduct35. Greco et al. [Greco 2001] developed the approach of
Pawlak and Slowinski to problems, where the categories are ordered. In particular,
the identification of reduct in Pawlak’s approach is based on indiscernibility relation,
while Greco proposes dominance relation. In practice, the application of rough set
model might be difficult, because the number of rules is large, usually. In such
a case the analysis, verification and interpretation of the model is very complicated.
The a priori procedures appear to be clear and intuitive methodology for multicriteria problems analysis, but there are three obstacles for their successful applications: verification, static approach and finite feasible set. The problems with verification
of a priori methods arise when someone tries to prove the existence of the utility
function. The second limitation is expectation on time-consistent evaluations of the
decision maker. The a priori methods do not assume any interaction with decision after
optimization phase. Thus, it is expected, she should accept the solution recommended
by the procedure. The third restriction for a priori methods is related to rather small
data sets, because the decision maker is expected to formulate the ranking, see e.g.
UTA, or relation between the variants, see e.g. MACBETH, AHP or ELECTRE.
Such descriptions can be presented only for finite data sets.
4.3. A posteriori methods
In the a posteriori methods the search phase is before the interaction phase. In
particular, after the Pareto-optimal set is estimated the decision maker chooses the
recommendation by herself. If the decision problem is represented by optimization
model consisting of goal functions and feasibility constraints, then the methods
identifying the efficient frontier are called vector optimization methods, see: [Geoffrion 1968].
For the linear model the method of solution identification was presented by Yu and
Zeleny [Yu, Zeleny 1976; Slowinski 1984] and Hartley [Hartley 1985], and for the
non-linear problems36 – Chankong et al. [Chankong et al. 1985]. The non-linear prob35 The attributes from reduct enable to distinguish the observations with the same precision as the
whole set of attributes.
36 Chankong et al. [Chankong et al. 1985] identify the efficient frontier with -constraints method, where
only one criterion is optimized and the rest of criteria appear as -constraints with sequentially changed 
value.
94
Piotr Wojewnik, Tomasz Kuszewski
lems can be solved with genetic algorithms, see: [Coello 2006; van Veldhuizen, Lamont
2000].
The limitation for application of a posteriori methods is the assumption that
after the efficient solutions are identified the decision maker can choose the recommendation by herself. Whereas, in the linear model with the five criteria and
fifty constraints you might need about two thousand variants only to describe the
efficient frontier, see: [Szapiro 1991]. The holistic review of these variants exceeds
the capabilities of the decision maker. In practice, some filtration of the Pareto set
is needed what Leeds to the dialog methods, see e.g.: [Trzaskalik, Michnik 2002].
4.4. Dialog methods
The dialog methods start with an observation that the simultaneous comparison
of large number of efficient solutions exceeds the cognitive capabilities of the
decision maker. Moreover, she can broaden her knowledge of the problem during
the recommendation search, and thus she can change the description of the
problem.
Therefore, in the dialog approach the phases of information gathering and
optimal variant search are applied sequentially. In particular, the decision maker
evaluates the trial solutions and this opinion is exploited to find another efficient
solution, see e.g.: [Kaliszewski 2006; Roy 1996; Slowinski 1984; Trzaskalik, Michnik
2002].
The interactive methods differ as to the structurization of the decision problem, and
in particular, as to the set of parameters describing the decision maker preferences.
Kaliszewski [Kaliszewski 2004] distinguishes three groups of interactive methods:
weighted methods, constraints methods and reference points methods. Each approach
enables gradual identification of Pareto solutions in convex problems, in detail, the
manipulation of the weights, constraints and reference points enables search
through the efficient solutions until the satisfactory variants are found.
The interactive weighted methods assume there is a mathematical structure aggregating the values of partial criteria. In the literature there are various types of aggregating functions: linear, Chebyshev, and augmented Chebyshev of type I and II, see
e.g. Wierzbicki (1986), Kaliszewski (2006). The decision maker reviews and evaluates the subsequent efficient solutions. The revealed information changes the
weights of the aggregation function and then the next trial solution is identified.
Geoffrion et al. [Geoffrion et al. 1972] introduced a procedure, where the metacriterion is a linear combination of the partial criteria gradients and the weights result
from pairwise comparisons of trial solutions. Zionts and Wallenius [Zionts, Wallenius
1976] proposed to bind the metacriterion to the decision, whether the particular
coordinate of current trial solution is accepted37. Steuer and Choo [Steuer, Choo
37 In the augmented method Zionts and Wallenius [Steuer, Choo 1983] introduce a few efficient solutions to the decision maker. She chooses the best among them and the procedure identifies some variants neighboring the solution.
From Crisp Optimization to Fuzzy Approach…
95
1983] propose to employ the ideal point38. The weighted aggregation function is exploited also by Belton [Belton 1985] in VISA method. She focused on the graphical representation of the problem. In her approach the trial solution changes if the
weights are modified.
Szapiro [Szapiro 1991] underlines that the main drawback of interactive weighted
methods is the key concept of aggregation function. The approach assumes that the
partial criteria are substitutive and the weights are kind of substitution coefficients,
what is a strong limitation for practical applications.
The interactive -constraints methods operate through optimization of one criterion
and formulation of some -constraints with the rest of criteria39. Benayoun et al. [Benayoun et al. 1970] in STEM approach propose to identify the trial solutions with
Chebyshev metric. The -constraints appear if the decision maker evaluates which
criteria should be changed by what number. Haimes and Hall [Haimes, Hall 1974]
in SWT method propose to introduce the substitution function in the Lagrange form
for every trial solution40. In 1981 Sakawa presented SPOT where the constraints are
modified following the marginal substitution rate between the criteria. Sakawa assumes
that the decision maker can formulate the rate for every trial solution.
The interactive -constraint methods are specific as to the information type
provided by the decision maker. Therefore, they might be problematic to the users
not familiar with academic mathematics. Moreover, the final recommendations
might be dominated.
The reference point methods employ some particular points: the ideal and the worst41,
to describe the decision maker’s aspiration and reservation level. Conceptually, the
final solution should be possibly close to aspiration level, but in every iteration the
metric and the reference points are changed as the decision maker evaluates current
solutions.
In the reference point method Wierzbicki [Wierzbicki 1982] considers the neighborhood of the point yo, closest to the aspiration level y* in the Chebyshev metric.
The analysis of such neighborhood leads to the next trial solution42. The approach
by Jaszkiewicz and Slowinski [Jaszkiewicz, Slowinski 1999] – Light Beam Search, LBS43
38 The subsequent trial solutions minimize the distance from ideal point in Chebyshev sense, but the
weights are inversly proportional to distance of previous trial solution for each criterion separatelly.
39 The constraints of m-1 criteria functions, , determine the effifcient solution. If the decision
maker modifies  the next trial solution might be identified.
40 In SWT the Lagrange coefficients might be interpreted as substitution coefficients. The interaction is focused on formulation by the decision maker the indiscernibility ranges for the coefficients in
the following itertions.
41 In the maximization of [fj(x)]j=1…m over X the starting ideal and worst points cen be defined by
yU = [maxxX fj(x)]j=1…m and yN = [minxX fj(x)]j=1…m.
42 Wierzbicki [Wierzbicki 1982] propses to disturb the aspiration level on particular coordinates with
d=||yo–y*|| and to identify the related efficient solutions. The decision maker will accept one of the trial
solutions directly or modifies y*. In the following iterations the new trial solutions are presented to her.
43 LBS empoys augmented Chebyshev metric, where the weights are inversly proportional to distance from the ideal and the worst on particular criteria. In the neighborhood of the trial solution the
96
Piotr Wojewnik, Tomasz Kuszewski
– is similar. Whereas, the high dimensionality of the problem leads to the analysis of
many solutions at particular iteration. It could be problematic to many decision
makers. The problem is tackled by Korhonen and Laakso [Korhonen, Laakso 1986]
who propose to compare the points basing on their graphical representation44.
We can distinguish a separate group of interactive reference point methods, where
the final solution appears after sequential evaluation of single trial solutions: GUESS by
Buchanan [Buchanan 1997], STOM by Nakayama et al. [Nakayama et al. 1995],
NIMBUS by Miettinen and Makela [Miettinen, Makela 2000], and the bireference
procedure, BIP, by Michalowski and Szapiro [Michalowski, Szapiro 1992].
GUESS similarly to Wierzbicki’s method [Wierzbicki 1982] assumes the decision
maker to modify the reference point by herself. In STOM the modification of the
reference point results from choosing the partial criteria to be worsened, to be improved or to be left, because the satisfactory level is already reached. Next, STOM
requires formulation of expected changes in the criteria. The BIP method distinguishes similar groups of criteria, but it does not require information on the expected changes. The more general approach as to the criteria categories was presented in NIMBUS: expected improvement, improvement at least to y*, satisfactory
level, possible to be worsened to , possible any change in the value.
The BIP and NIMBUS methods generate the new reference points automatically, but NIMBUS explores only the aspiration level and BIP exploits the worst
point, too. From this point of view the BIP method is closer to natural decision
making incentives: to aim the goal and to avoid the punishment.
5. Optimization in non-point structures
The presented approaches in operations research assume the decision situation
might be represented by the points in Rn space. However, there are some decision
problems where the knowledge of decision maker is biased and therefore it the
information should be communicated to the analyst in some imprecise manner.
5.1. Stochastic optimization
The operations research methods considering the uncertainty of the parameter
values are called the stochastic programming models. In this case the formal description
of the decision problem includes some random variables, see: [Dantzig 1955; Beale
outranking relation, see e.g. ELECTRE method, some points are identified to be accpeted as final solution or new reference points have to be estimated.
44 Korhonen and Laakso proposed visual interactive method, VIM, where the range between the starting and reference points is considered as a set of aspiration points. Every point and the Chebyshev
metric enables identification of one trilal solution. The trial solutions’ evaluations are presented in a
graphical way. If one is accepted - the procedure ends. Otherwise the decision maker modfies the reference point.
From Crisp Optimization to Fuzzy Approach…
97
1955]. Charnes and Cooper [Charnes, Cooper 1959, 1962, 1963] introduced the
chance constraints model. Kataoka [Kataoka 1963] extended the model on uncertainty
of goal function parameters. Wets [Wets 1966a, 1966b] presented the broad analysis
of two-stage stochastic problem. Whereas for the multistage problems the most important solution was introduced by Birge [Birge 1985] where the Benders decomposition is used to divide the variables into sets appearing in different optimization stages.
Application of the stochastic optimization methods requires differentiability of
the functions and convexity of the feasible set. These conditions are very strong
and therefore a lot of decision problems in banking, insurance and queuing systems
can not be solved this way. The conditions could be omitted when the new
approach was introduced. Numerical integration in the form of stochastic simulation, see: [Knowles 1989; Winston et al 1997], was possible with computerization of
the population and diminishing costs in the 80s and 90s of the 20th century.
5.2. Fuzzy optimization
The next field analyzed by operations research includes construction of optimization
models for the problems described in natural language. Up to now the analyst operated
only with numerical information, but yet she might utilize the phrases like “bad”,
“poor”, “good” or “excellent”. The challenge can be tackled with fuzzy set theory by
L.A. Zadeh [Zadeh 1965]. In particular, in 1970 R. Bellman and L.A. Zadeh and in
1973 K. Asai and H. Tanaka published the basis for the new branch of operations
research – fuzzy optimization. The rules for operating with linguistic information
enabled rapid growth computer support systems. The customized software facilitated
a dialog between the decision maker and the machine without analyst interface.
The early works on fuzzy optimization define the fuzzy optimization problem
and the efficient solutions. In 1978 Widey and Zimmermann proposed to parameterize the membership value of the feasible decisions. The concept enabled restructurization of the problem to the crisp form and identification of the solutions with linear programming procedures. The same year Zadeh extended the concept of fuzziness on the concept of possibility. In this case the non-point description takes the
form of two complementary functions: plausibility and necessity, see: [Inuiguchi,
Ramik 2000]. The methods for multistage optimization problems where introduced
in the 80s of the 20th century by Kacprzyk [Kacprzyk 1997].
Already the first fuzzy optimization methods enabled analysis of multicriteria problems. Bellman and Zadeh [Bellman, Zadeh 1970] identify the efficient solution with
kind of goal programming method, but they present rather a concept than a practical
routine. Wiedey and Zimmermann [Wiedey, Zimmermann 1978] and Verdegay and
Chanas [Verdegay, Chanas 1983] parameterize the membership function to utilize the
Bellman-Zadeh model as a multicriteria a priori method. Werners [Werners 1987] develops an interactive approach to Bellman-Zadeh model. The following versions of
fuzzy model and interactive procedures were introduced by e.g. Baptistella and Ollero
[Baptistella, Ollero 1980], Slowinski [Slowinski 1984], Rommelfanger [Rommelfanger
1989], Sasaki et al. [Sasaki et al. 1990] and Lai and Hwang [Lai, Hwang 1992].
98
Piotr Wojewnik, Tomasz Kuszewski
6. The challenges of operations research
In the 40s of the 20th century, the operations research were born. The childhood –
the 50s – was spent on experiments: generating the possible scientific descriptions of
real-world problems with the new tool. The youth – the 60s and 70s – broadened the
application areas. The next period – the 80s and 90s – integrated the operations research with economics, management and information technology. The current adult
operations research assimilate the results of other sciences in application of artificial intelligence in decision support systems.
The history of operations research shows, that the main motivation for its development was the eagerness of the scientists to obtain the models describing
possible lot of decision situations. They explored two fields: more and more complex decision situations and introduction of human behavior to the quantitative models.
The current mathematical models employ non-linear functions, integer constraints and
uncertainty of randomness, bounded information and subjective linguistic evaluations
described with the probability theory, fuzzy set theory and rough set theory.
On the other hand, there are models describing the human behavior: different
decision of various decision-makers in the same situation, changeability of the evaluations and the educational process during the analysis. From this point of view the multicriteria models and their methods introduce decision maker subjectivity to the
decision models.
The other behavioral aspect of decision making is being considered since the
80s of the 20th century, when the computers became common to the public. Next to
the decision maker and the analyst using the natural language there is a third party –
computer – expecting exact numerical information. While the transformation of
natural language to the numbers is not obvious the operations research focus more
and more on effective communication facilities.
The second motivation for the progress in operations research was striving for efficient methods in large scale problems. The large scale optimization models include tens
of thousands decision variables and the analysis is possible only because of some standard notations and common computerization. Till the 80-ties of the 20-th century, before the age of personal computers, we could observe the rapid progress in the analytical methods dedicated to the convex problems. The wide-spread availability of large
computational resources started the new methods – the heuristics like genetic algorithms, immune algorithms, ant colony optimization etc. On the contrary to the analytical methods the heuristics do not base on a strong theoretical background, but their effectiveness in the multimodal, ill-conditioned or non-differentiable problems is out of
the question.
Summarizing we can distinguish three mainstreams of current operations research:
1. More attention to human factor during the problem formulation. The
application of computers increases the numerical capabilities of the decision
maker, but it requires quantitative problem formulation. On the other hand,
the problems tackled by the optimization methods are more and more
influenced by the human factor. Therefore it is necessary to develop the
From Crisp Optimization to Fuzzy Approach…
99
communication interface between the decision maker and the computer: clear,
precise and interpretable to both sides, and customized to mathematical skills
of the decision-maker. The interface means both the mathematical tools like
fuzzy sets, and the graphical software.
2. The increasing position of dynamic restructurization of the optimization
problems and interactive identification of the solution. The modern
problem focused descriptions require new interdisciplinary research methods.
For example, the subjectivity in problem formulation requires personalized
methods of final solution identification.
3. The increasing position of the heuristics among the decision supporting
methods. The heuristics poses huge potential to identify the optimization
problem solutions significantly exceeding the capabilities of analytical methods.
Whereas the theoretical background for heuristics is only drafted as to their
convergence or the optimality conditions. The future success depends on the
development of the best practices in choice and customizing of the heuristics
to given optimization problem.
The paper presents the authors' opinion on the operations research history and
they take all the responsibility for presented contents. At the same time, the authors
would like to express their gratitude towards prof. T. Szapiro, and dr P. Gasiorowski
from Division of Decision Support and Analysis at Warsaw School of Economics
for inspiring discussion and valuable comments to the early versions of this paper.
Literature
Bana e Costa C.A., Vansnick J.-C. 1994 MACBETH – An Interactive Path Towards the
Construction of Cardinal Value Functions, “Int. Trans. Opl Res.”, 1(4), pp.489 – 500.
Bana e Costa C.A., Vansnick J.-C. 1997 Applications of the MACBETH Approach in
the Framework of an Additive Aggregation Model, “JMCDA” VOL 6, pp.107 – 114.
Baptistella L.F.B., Ollero A. 1980 Fuzzy Methodologies for Interactive Multicriteria Optimization, “IEEE Transactions on Systems, Man, and Cybernetics”, 10(7) pp. 355 – 365.
Beale E.M.L. 1955 On Minimizing Convex Function Subject to Linear Inequalities, “J. Royal
Stat. Society B (Methodological)”, 17(2), pp. 173 – 184.
Beale E.M.L. 1965 Survey of Integer Programming, “OR”, 16(2), pp. 219 – 228.
Bellman R.E., Zadeh L. 1970 Decision-Making in a Fuzzy Environment, “Management
Science”, 17(4), pp. 141 – 164.
Belton V. 1985 The Use of a Simple Multiple-Criteria Model to Assist in Selection from
a Shortlist, “J. Opi Res. Soc.”, Vol. 36, No. 4, pp. 265 – 274.
Belton V., Elder M.D. 1996 Exploring a Multicriteria Approach to Production Scheduling,
“JORS”, 47, No. 1, pp. 162 – 174.
Benayoun R., Montgolfier J., Tereny J., Laritchev O. 1970 Linear Programming with
Multiple Objective Functions: STEP Method (STEM), “Mathematical Prog.”, 1, 366-375.
Benders J.F. 1962 Partitioning Procedures for Solving Mixed-Variables Programming Problems,
“Numerische Mathematik”, 4, 238 – 252.
100
Piotr Wojewnik, Tomasz Kuszewski
Birge J.R. 1985 Decomposition and Partitioning Methods for Multistage Stochastic Linear
Programs, “OR”, 33(5), pp. 989 – 1007.
Bishop C.M. 1995 Neural Networks for Pattern Recognition, Oxford.
Brans J.P., Vincke Ph., Mareschal B. 1986 How to Select and How to Rank Projects: The
PROMETHEE Method, “European Journal of Operational Research”, 24 pp. 228 –
238.
Buchanan J.T. 1997 A Naive Approach for Solving MCDM Problems: the GUESS Method,
“JORS”, 48, pp. 202 – 206.
Cauchy A. 1847 Methode generale pour la resolution des systemes d’equations simultanees, Comptes
rendus hebdomadaires des séances de l'Académie des science, Paris 25, pp. 536
– 538.
Chanas S. 1983 The Use of Parametric Programming in Fuzzy Linear Programming, “Fuzzy
Sets and Systems”, 11, pp. 243 – 251.
Chankong V., Haimes Y.Y., Thadathil J. 1985 Multiple Criteria Optimization: a State of the
Art Review, [in:] Haimes Y.Y., Chankong V. (eds), Dacision-Making with Multiple
Objectives, Lect. N. in Econ. And Math. Sys. 242, Springer Verlag, Berlin, pp. 36 – 90.
Charnes A., Cooper W.W. 1962 Chance Constraints and Normal Deviates, “J. Am. Stat.
As.”, 57(297), pp. 134 – 148.
Charnes A., Cooper W.W. 1959 Chance-Constrained Programming, “Management Science”,
6(1), pp. 73 – 39.
Charnes A., Cooper W.W. 1962 Deterministic Equivalents for Optimizing Satisficing under
Chance Constraints, “OR”, 11(1), pp. 18 – 39.
Charnes A., Cooper W.W., Ferguson R. 1955 Optimal Estimation of Executive Compensation
by Linear Programming, “Management Science”, 1, pp. 138 – 151.
Coello C.A. 2006 Evolutionary Multi-Objective Optimization: A Historical View of the Field,
“Computational Intelligence Magazine”, IEEE 1(1), pp. 28 – 36.
Corbett C. J., van Wassenhove L.N. 1993 The Natural Drift: What Happened to Operations
Research, “Operations Research”, No. 4, pp. 625 – 640.
Dantzig G.B. 1949 Programming in a Linear Structure, “Econometrica”, 17, pp. 73 – 74.
Dantzig G.B. 1955 Linear Programming under Uncertainty, “Management Science”, 1(3-4),
pp. 197 – 206.
Dantzig G.B. 2002 Linear Programming, “OR”, 50(1), pp. 42 – 47.
Dantzig G.B., Wolfe P. 1960 Decomposition Principle for Linear Programs, “Operations
Research”, 8(1), pp. 101 – 111.
Dorn W.S. 1963 Non-Linear Programming – a Survey, “Management Science”, 9(2),
pp. 171 – 208.
Dyer J.S., Fishburn P.C., Steuer R.E., Wallenius J., Zionts S. 1992 Multiple Criteria
Decision-Making, Multiattribute Theory: The Next Ten Years, “Management Science”,
38(5), pp. 645 – 654.
Fiacco A.V., McCormick G.P. 1964 Computational Algorithm for the Sequential Unconstrained
Minimization Technique for Non-linear Programming, Management Science 10(4), pp. 601
– 617.
Ford L.R., Fulkerson D.R. 1956a Solving the Transportation Problem, “Management
Science”, 3(1), pp. 24 – 32.
From Crisp Optimization to Fuzzy Approach…
101
Ford L.R., Fulkerson D.R. 1956b Maximal Flow through the Network, “Canadian J. of
Mathematics”, VIII(3), pp. 399 – 403.
Gass S. 2002 Great Moments in HistORy, “OR/MS Today”, vol. 29, No. 5.
Geoffrion A.M. 1967 Solving Bi-criterion Mathematical Programs, “Operations Research”
15(1), pp. 39 – 54.
Geoffrion A.M. 1968 Proper Efficiency and the Theory of Vector Maximization, “J. Math.
An.&Apps”, 22, pp. 618 – 630.
Geoffrion A.M., Dyer J.S., Feinberg A. 1972 An Interactive Approach for Multi-Criterion
Optimization, with an Application to the Operation of an Academic Department, “MS”,
19(4), pp. 357 – 368.
Geoffrion A.M. 1992 Forces, Trends and Opportunities in MS/OR, “Operations Research”,
nr 3, pp. 423 – 445.
Goldberg D.E. 1989 Genetic Algorithms in Search, Optimization and Machine Learning,
Addison-Wesley Pub.
Gomory R.E. 1958 Outline of an Algorithm for Integer Solutions to Linear Programs.
Grabowski W. 1980 Mathematical Programming, Warsaw (in Polish).
Greco S., Matarazzo B., Slowinski R. 2001 Rough Sets Theory for Multicriteria Decision
Analysis, “EJOR”, 129, pp. 1 – 47.
Greene W.H. 2003 Econometric Analysis, Prentice Hall.
Gropp H. 2004 Réseaux réguliers or Regular Graphs-Georges Brunel as a French Pioneer in Graph
Theory, “Discrete Mathematics”, 276(1-3): 219 – 227.
Haimes Y.Y., Hall W.A. 1974 Multiobjectives in Water Resource Systems Analysis. The Surrogate
Worth Trade OFF Method, “Water Resources Research”, 1(4), pp. 615 – 624.
Hartley R. 1985 Victor and Parametric Programming, “JORS”, 36(5), pp. 423 – 432.
Jacquet-Lagreze E., Siskos Y. 1982 Assessing a Set of Additive Utility Functions for
Multicriteria Decision-Making: the UTA Method, “European Journal of Operational
Research”, 10, pp. 151 – 164.
Jaszkiewicz A., Slowinski R. 1999 The ‘Light Beam Search’ Approach – an Overview of
Methodology and Applications, “EJOR”, 113: 300 – 314.
Kacprzyk J. 1997 Multistage Fuzzy Control a Model-Based Approach to Fuzzy Control and
Decision-Making, Cambridge University Press.
Kaliszewski I. 2006 Soft Computing for Complex Multiple Criteria Decision-Making, Springer.
Kaliszewski I. 2004 Out if the Mist – towards Decision-Maker-Friendly Multiple Criteria
Decision-Making Support. “EJOR”, 158, pp. 293 – 307.
Kaminski B. 2007 Analysis of the Public Governance Decisions on the Health Market, PhD
Thesis, Warsaw School of Economics (in Polish).
Kantorovich L.V. 1939 The Mathematical Method of Production Planning and Organization,
Leningrad University Press.
Karmarkar N. 1984 New Polynomial-Time Algorithm for Linear Programming, “Combinatorica”, 4 (4), pp. 373 – 395.
Kataoka S. 1963 A Stochastic Programming Model, “Econometrica”, 31(1-2), pp. 181 – 196.
Kelley J.E. 1960 The Cutting-Plane Method for Solving Convex Programs, “J. Soc. Indust.
and Appl. Math.”, 8, 703.
102
Piotr Wojewnik, Tomasz Kuszewski
Keeney R.L. 2002 Common Mistakes in Making Value Trade-offs, “OR”, 50(6), pp. 935 –
945.
Kirby M.W. 2003 Operational Research in War and Peace. The British Experience from the
1930s to 1970, London.
Klee V., Minty G.J. 1972 How Good is the Simplex Algorithm?, [in:] Inequalities, III, (ed.)
O. Shisha, New York, NY, pp. 159 – 175.
Knowles T.W. 1989 Management Science. Building and Using Models, Homewood.
Korhonen P. 1988 A Visual Reference Direction Approach to Solving Discrete Multiple
Criteria Problems, “European Journal of Operational Research”, 34, pp. 152 – 159.
Korhonen P.J., Laakso J. 1986 A Visual Interactive Method for Solving the Multiple
Criteria Problem, “EJOR”, 24, pp. 277 – 287.
Korhonen P., Moskowitz H., Wallenius J. 1992 Multiple Criteria Decision Support – A Review, “EJOR”, 63, pp. 361 – 375.
Korhonen P., Wallenius J. 1990 Supporting Individuals in Group Decision-Making,
“Theory&Decision”, 28, pp. 313 – 329.
Kuhn H.W. 1955 The Hungarian Method for the Assignment Problem, “Naval Research
Logistics”, 52(1), pp. 7 – 21.
Kuhn H.W., Tucker A.W. 1951 Non-Linear programming. Proceedings of 2nd Berkeley
Symposium, Berkeley, pp. 481 – 492.
Lai Y.-J., Hwang C.-L. 1992 Interactive Fuzzy Linear Programming, “Fuzzy Sets and
Systems”, 45, pp. 169 – 183.
Land A.H., Doig A.G. 1960 An Automatic Method of Solving Discrete Programming Problems
An Automatic Method of Solving Discrete Programming Problems, “Econometrica”, 28(3),
pp. 497 – 520.
Larnder H. 1984 The Origin of Operational Research, “OR”, 32(2), pp. 465 – 475.
Little J.D.C. 1991 Operations Research in Industry: New Opportunities in a Changing World,
“Operations Research”, nr 4, pp. 531 – 542.
Little J.D.C. 2002 Morse and the Beginnings, “OR”, 50(1), pp. 146 – 148.
Luenberger D.G., Ye Y. 2008 Linear and Non-Linear Programming, Springer.
Maddala G.S. 2001 Introduction to Econometrics, Macmillan.
Masters T. 1993 Practical Neural Network Recipes in C++, Academic Press.
McCloskey J.F. 1987 The Beginnings of Operations Research: 1934-1941, “Operations
Research”, No. 1, pp. 143 – 152.
McCloskey J.F. 1987 British Operational Research in World War II, “Operations
Research”, No. 3, pp. 453 – 470.
McCloskey J.F. 1987 U.S. Operations Research in World War II, “Operations Research”,
No. 6, pp. 910 – 925.
Michalewicz Z. 1992 Genetic Algorithms + Data. Structures = Evolution Programs, SpringerVerlag.
Michalowski W., Szapiro T. 1992 A Bi-Reference Procedure for Interactive Multiple Criteria
Programming, “Operations Research”, 40(2), pp. 247 – 258.
Miettinen K., Makela M.M. 2000 Interactive Multiobjective Optimization System WWWNIMBUS on the Internet, “Computers & Operations Research”, 27, pp. 709 – 723.
Mill J.S. 1863 Utilitarianism, Parker, Son, and Bourn, West Strand, London.
From Crisp Optimization to Fuzzy Approach…
103
Mirowski P. 1999 Cyborg Agonistes: Economics Meets Operations Research in Mid-Century,
“Social Study of Science”, No. 5, pp. 685 – 718.
Morse P.M. 1986 The Beginnings of Operations Research in the United States, “OR”, 34(1),
pp. 10 – 17.
Nakayama H., Kaneshige K., Takemoto S., Watada Y. 1995 An Application of
a Multi-Objective Programming Technique to Construction Accuracy Control of Cable-Stayed
Bridges, “EJOR”, 87, pp. 731 – 738.
Nemhauser G.J. 1994 The Age of Optimization: Solving Large-Scale Real-World Problems,
“Operations Research”, No. 1, pp. 5 – 13.
Pawlak Z., Slowinski R. 1994 Decision Analysis Using Rough Sets, “Int. Trans. Opl
Res.”, 1(1), pp. 107 – 114.
Rommelfanger H. 1989 Interactive Decision-Making in Fuzzy Linear Optimization Problems,
“European Journal of Operational Research”, 41, pp. 210 – 217.
Rosen J.B. 1957 Nonlinear Programming. The Gradient Projection Method, “Bull. Amer.
Math. Soc.”, 6(3), Abs. 80, pp. 25 – 26.
Roy B. 1968 Classement et choix en présence de points de vue multiples (la méthode
ELECTRE), “la Revue d'Informatique et de Recherche Opérationelle (RIRO)”,
8, pp. 57 – 75.
Roy B. 1990 Decision-aid and Decision-making, “EJOR”, 45, pp. 324 – 331.
Roy B., Vanderpooten D. 1996 The European School of MCDA: Emergence, Basic
Features and Current Works, “JMCDA”, 5, pp. 22 – 38.
Roy B. 1996 Multicriteria Methodology for Decision Aiding, Wiley.
Saaty T.L. 1978 Modeling Unstructured Decision Problems – The Theory Of Analytical
Hierarchies Mathematics and Computers in Simulation XX, pp.147 – 158.
Saaty T.L. 1997 That Is Not the Analytic Hierarchy Process: What the AHP Is and What It
Is Not, “J. Multi-Crit. Decis. Anal.”, 6, pp. 320 – 339.
Sasaki M., Gen M., Ida K. 1990 Interactive Sequential Fuzzy Goal Programming,
“Computers ind. Engng”, 19(1-4), pp. 567 – 571.
Slowinski R. 1984 Review of Multicriteria Linear Programming Methods – Part I, “Statistical
Review”, 31 (1984) No. 1 – 2, pp. 47 – 64 (in Polish).
Slowinski R. 1984 Review of Multicriteria Linear Programming Methods – Part II, “Statistical
Review”, 31 (1984), No. 3 – 4, pp. 303 – 318 (in Polish).
Spronk J., Steuer R.E., Zopounidis C. 2005 Multicriteria Decision Aid/Analysis in Finance.
[in:] Multiple Criteria Decision Analysis: State of the Art Surveys, (eds.) J. Figueira, S. Greco,
M. Ehrgott, Boston, Dordrecht, London, pp.799 – 858.
Steuer R.E., Choo E.-U. 1983 An Interactive Weighted Chebyshev Procedure for Multiple
Objective Programming, “Mathematical Programming”, 26, pp. 326 – 344.
Szapiro T. 1991 Interactive Approach for the Decision Support, WSE (in Polish).
Trzaskalik T., Michnik J. 2002 Multiple Objective and Goal Programming: Recent Developments,
Springer.
Van Veldhuizen D.A., Lamont G.B. 2000 Multiobjective Evolutionary Algorithms: Analyzing
the State-of-the-Art, “Evolutionary Computation”, 8(2), pp. 125 – 147.
Vincke Ph. 1986 Analysis of Multicriteria Decision Aid in Europe, “EJOR”, 25, pp. 160 –
168.
104
Piotr Wojewnik, Tomasz Kuszewski
Wagner H.M., Rothkopf M.H., Thomas C.J., Miser H.J. 1989 The Next Decade in
Operations Research: Comments on the Condor Report, “Operations Research”, 1989,
No. 4, pp. 664 – 672.
Wallenius H. 1982 Optimizing Macroeconomic Policy: A Review of Approaches and Applications,
“European Journal of Operational Research”, 10, pp. 221 – 228.
Weaver P. 2008 A Brief History of Scheduling – Back to the Future, PM World Today II
www.pmworldtoday.net.
Werners B. 1987 Interactive Multiple Objective Programming Subject to Flexible Constraints,
“European Journal of Operational Research”, 31(3) pp. 342 – 349.
Wets R.J.B. 1966a Programming Under Uncertainty: The Equivalent Convex Program, “SIAM J.
on App.Math.”, 14(1), pp. 89 – 105.
Wets R.J.B. 1966b Programming Under Uncertainty: The Solution Set, “SIAM J. on App.
Math.”, 14(5), pp. 1143 – 1151.
White D.J. 1990 A Bibliography on the Applications of Mathematical Programming Multiple
Objective Methods, “JORS”, 41(8), pp. 669 – 691.
Wiedey G., Zimmermann 1978 Media Selection and Fuzzy Linear Programming, “JORS”,
29(11), pp. 1071 – 1084.
Wierzbicki A.P. 1982 A Mathematical Basis for Satisficing Decision-Making, “Mathematical
Modelling”, 3, pp. 391 – 405.
Wierzbicki A.P. 1986 On the Completeness and Constructiveness of Parametric Characterizations to
Vector Optimization Problems, “OR Spektrum”, 8, pp. 73 – 87.
Wierzbicki A.P. 2000 Decision Support Methods and Applications: The Cross-sections of
Economics and Engineering or Environmental Issues, “Ann. Rev. in Control”, 24, pp. 9 – 19.
Winston W.L., Albright S.C., Broadie M. 1997 Practical Management Science. Spreadsheet
Modeling and Applications, Duxbury Press.
Ypma Tjalling J. 1995 Historical Development of the Newton–Raphson Methodm, “SIAM
Rev.”, 37, pp. 531 – 551.
Yu P.L., Zeleny M. 1976 Linear Multiparametric Programming by Multicriteria Simplex
Method, “Mgmt Sci”, 23(2), pp. 159 – 170.
Zadeh L.A. 1965 Fuzzy Sets, “Information Control”, 8, pp. 338 – 353.
Zionts S., Wallenius J. 1976 An Interactive Programming Method for Solving the Multiple Criteria
Problem, “Management Science”, 22(6), pp. 652 – 663.
Zionts S., Wallenius J. 1983 An Interactive Multiple Objective Linear Programming Method for
a Class of Underlying Nonlinear Utility Functions, “Mgmt Sci”, 29(5), pp. 519 – 529.
Zopounidis C., Doumpos M. 2000 Building Additive Utilities for Multi-Group Hierarchical
Discrimination: the M.H.Dis Method, “Optimization Methods & Software”, 14(3),
pp. 219 – 240.
Zopounidis C., Doumpos M. 2002 Multicriteria Classification and Sorting Methods: A Literature Review, “EJOR”, 138 (2002), pp. 229 – 246.
Zoutendijk G. 1959 Maximizing a Function in a Convex Region, “J. of the Royal Stat.
Soc. B”, 21(2), pp. 338 – 355.
From Crisp Optimization to Fuzzy Approach…
105
APPENDIX
In this chapter, we define the optimization problems presented earlier in this paper.
Each problem formulation includes: decision variables, feasibility constraints and the
goal function defined over the set of feasible decisions. The task is to determine some
feasible solution where the goal function achieves its finite extremum (minimum or
maximum).
The linear optimization problem can be expressed as follows.
Determine the point x  x1 , x 2 ,...,x n  minimizing the function
f ( x1 , x2 ,..., xn )
subject to
 a11 x1  a12 x2  ...  a1n xn  b1
 a x  a x  ...  a x  b
22 2
2n n
2
 21 1

...

.
a x  a x  ...  a x  b
m2 2
mn n
m
 m1 1
x
j
m


0
1
,
2
,...,
j

In the integer linear optimization problem there are additional constraints on
the integer values of some decision variables. If the values are constrained to 0 or 1,
then the problem is called binary.
Because of particular constraints we can distinguish the following linear optimization problem: determine the values xij of the mn matrix X to minimize
n
m
 c x
j 1 i 1
ij ij
subject to
n

xij  ai i  1,2,..., m


j 1

m

xij  b j j  1,2,..., n


.
i 1

 xij  0 i  1,2,..., m, j  1,2,..., n

Interpreting the problem elements as:
i = 1,2,…,m – destination point index,
j = 1,2,…,n – collection point index,
ai  0 – supply of homogenous and perfectly separable goods at i,
b j  0 – demand for homogenous and perfectly separable goods at j,
cij – unit cost of transportation on the path from i-th collection point to j-th destination,
xij – quantity of goods transported from i-th collection point to j-th destination,
106
Piotr Wojewnik, Tomasz Kuszewski
then we obtain to the balanced transportation problem.
The new interpretation of the problem and some additional conditions:
i = 1,2,…,n – task index,
j = 1,2,…,n – employee index,
ai  1 – the i-th task will employ only one worker,
b j  1 – the j-th employee will work only on one task,
cij – unit cost of j-th employee working at i-th task,
xij =1, if j-th employee works at i-th task, 0 – otherwise,
lead to assignment problem.
To define the problem of the network flow maximization we have to introduce some
new terms. The pair (A, Q) will be called a graph, if A is a set of graph vertices, and
Q is a set of graph edges – a subset of Cartesian product AxA. We consider the finite (finite A set) and directed graphs (each edge has a beginning and the end),
where A is a subset of natural numbers.
The nodes D j  i : ( i , j )  Q  are the entrance area for the j-th node.
The nodes W j  k : ( j , k )  Q  are the leaving area for the j-th node.
The non-negative real numbers will be assigned to each edge of the graph, and
the assignment will be denoted by f. If the number will be interpreted as the duration of
the activity denoted by the edge and the nodes interpreted as the events moment,
then the triple S = (A,Q,f) can be called the PERT/CPM network45.
If the nodes can be treated as the points on the map, the edges – as the transportation paths, and the numbers from f assignment – the paths capacity, then we obtain
the transportation network. To be precise:
A+ – the set of the network sources; each source supplies the volume of ai,
A- – the set of network destinations; each destination reveals demand of bi,
A0 – the set of transshipment points,
Q – the set of transportation paths,
cij – unit cost of transportation on the path (i,j),
dij – the lower capacity constraint on the path (i,j),
gij – the upper capacity constraint on the path (i,j).
X = [xij] is the feasible flow in the transportation network S, if the following conditions are met:
  ak for k  A 

k  xkj   xik   0 for k  A0
jWk
iDk
 b
for k  A  .
k

d ij  xij  g ij
45
for (i, j )  Q
CPM – Critical Path Method, PERT – Program Evaluation and Review Technique.
From Crisp Optimization to Fuzzy Approach…
107
Having the feasible flows we can define the problem of the transportation cost
minimization in the network S:
c
( i , j ) Q
ij
x ij  min
or the problem of network S flow maximization

   x
k A 
 j Wk
kj

  x ik   max .
i Dk

The balanced transportation problem is a particular case of the former problem.
The decomposition methods by Dantzig-Wolfe and Benders might be applied to find the optimal solution in any linear programming problem, but the effective application is possible for the cases, where the matrix of constraints’ parameters has the form similar to the example problem:
 x1 
 
Find the vector x     , solving
 x s 
s
f ( x 1 ,..., x s )   cTj x j  min subject to
j 1

D j x j  b0

 j 1
 Aj xj  bj

0
 xj

s
j  1,2,..., s .
j  1,2,..., s
In the constraints formulation the problem employs matrices: Dj ~ m0nj,
Aj ~ mjnj, so they can be written in a single form as:
 D1 D2

 A1 0
 0 A2


 
0
0

 Ds 
 0 
 0 .

  
 A s 
The non-linear unconstrained optimization problem is a task to identify the
minimum of the multivariate function:
n
1
n
find x  R , that f(x) → min, where f : R  R .
The non-linear constrained optimization problem is a task:
n
1
n
find x  R , that f(x) → min, where f : R  R
n
1
subject to g i (x)  0, g i : R  R i  1,2,..., m .
108
Piotr Wojewnik, Tomasz Kuszewski
In the polyoptimization the feasible solution x is evaluated at least from two
perspectives. If the perspectives might be presented as analytical goal functions and
some criteria, then we can construct the multiple criteria optimization problem.
The multiple criteria optimization problem is a task:
find x  x 1 , x 2 ,..., x n  , that
f1(x)max,
f2(x) max,
…
fk(x) max,
 a 11x 1  a 12 x 2  ...  a 1n x n  b1
 a x  a x  ...  a x  b
 21 1 22 2
2n n
2
subject to 
,
...

a k 1x 1  a k 2 x 2  ...  a kn x n  bk
or generally f(x)max, subject to Axb, where xRn, f:RnRm, ARkn, and
bRk.
In general, the feasible solution maximizing all the goal functions f1, f2, …, fk
does not exist. Therefore, in the polyoptimization we consider the efficient solutions xs,
that there is no feasible solution x of better or equal evaluation at all the criteria:
xs{xRn: Axb  x*Rn, Ax*b, xsx*, f(x*)-f(xs)R+m\{0}}.
To complete the overview of the optimization problems we will present the nonpoint formulations.
The stochastic optimization problem (with stochastic constraints) is a task:
find x  x , x ,..., x  , that f ( x1 , x2 ,..., xn ) min,
1
2
n
subject to P(i=1…n ajixij (j=1…m))  p,
where j, j=1…m, is a random variable with particular probability density function.
Let us consider the fuzzy numbers Ã=(Rkn,Ã(Rkn)), b̃=(Rk,b̃(Rk)), the function with fuzzy input and output fff: (Rn,x̃(Rn)){ỹ}Rm defined by the fuzzy number C̃=(Rmn,μC̃(Rmn)) and the cone  = R+m\{0}. The task of finding the singleton
maximal in fff(x̃Ãb̃):
maxxRn {(Cx,) : CC̃[]  xx̃[]  x*x̃Ãb̃[], Cx*-Cx},
subject to
x̃Ãb̃(x)=sup{: Ax  b, AÃ[], bb̃[]}
will be called a fuzzy multicriteria optimization problem.
OPTIMUM. STUDIA EKONOMICZNE NR 3 (47) 2010
Tomasz SZAPIRO1
ITEROWANE CYKLE DECYZYJNE – PRÓBA OPISU
ZUNIFIKOWANEGO
Streszczenie
W artykule podjęto zagadnienie zunifikowanego opisu procesów decyzyjnych. Tekst otwiera prezentacja
terminologii związanej z cyklami decyzyjnymi i uzasadnienie poprawności jej zastosowania, z uwzględnieniem wyników podanych w literaturze. Wprowadzone pojęcia wykorzystano do wykazania ogólnych twierdzeń o zbieżności zunifikowanych procesów decyzyjnych. Następnie przedstawiono trzy różne przykłady
zunifikowanych procesów decyzyjnych jako ilustracje ogólnych własności: proces decyzyjny w warunkach
niepewności, przypadek deterministyczny oraz interaktywną optymalizację wielokryterialną.
Słowa kluczowe: strukturyzacja problemów decyzyjnych, Teoria Podejmowania Decyzji, analzia decyzyjna
INTERACTIVE DECISION CYCLES. AN ATTEMPT OF UNIFIED DECISION
PROCESS DESCRIPTION
Summary
The paper deals with the problem of unified description of decision making processes. Firstly, a terminology of decision cycles serving to describe such processes is introduced and explained. This presentation
addresses earlier results presented in the literature. Using the terminology introduced, some general propositions on convergence of unified decision processes are shown. Next, three diverse instances of unified decision processes are presented to illustrate general findings. This part of presentation includes examples of decision making under uncertainty, deterministic case and interactive multiple criteria processes.
Keywords: Problem Structuring, Decision Making, Decision Analysis
1. Wstęp
Przedmiotem tekstu jest podejmowanie decyzji o działaniu prowadzącym do zmiany
stanu pewnego układu, w którym funkcjonuje podmiot nazywany dalej decydentem.
Przyjmujemy, że w określeniu tego procesu i sterowaniu nim decydent uwzględnia swoją wiedzę o aktualnym stanie układu i jego otoczenia oraz wiedzę o skutkach swoich możliwych działań. Decydenta identyfikujemy ze zbiorem jego potrzeb, zbiorem stanów
układu i środowiska, zbiorem możliwych do podjęcia działań oraz zbiorem ocen tych
1 Prof. dr hab. Tomasz Szapiro jest pracownikiem Zakładu Wspomagania i Analizy Decyzji Szkoły
Głównej Handlowej.
110
Tomasz Szapiro
działań z punktu widzenia zaspokojenia jego potrzeb. Zakładamy, że przyczyną podejmowania decyzji jest deficyt satysfakcji płynącej z zaspokojenia potrzeb na bieżącym
poziomie. Innymi słowy, powiemy, że problem decyzyjny polega na występowaniu deficytu zaspokojenia potrzeb, a jego rozwiązaniem jest podjęcie działań, zmniejszających
ten deficyt w możliwie wysokim stopniu. Należy odnotować, że słowo deficyt nie oznacza, że znany jest stan pożądany, lecz że stan istniejący nie jest zadowalający dla decydenta.
Keller i Ho [Keller, Ho 1988] wynik procesu identyfikacji problemu opisany w języku specyficznym dla matematyki, nazywa jego strukturą, i zauważa, że badania związane z procesem podejmowania decyzji dotyczą problemu wyboru rekomendowanego
działania po wyznaczeniu struktury problemu. Wskazuje jako przykład struktury drzew
decyzyjnych i wieloatrybutowej teorii użyteczności. Winn i Keller [Winn, Keller 2001]
proponują procedurę postępowania mającego na celu strukturyzację problemów decyzyjnych w przypadku decyzji wielokryterialnych występujących w problemach zarządczych. Procedura przedstawia propozycję konstrukcji zamkniętego systemu pojęć, których znajomość steruje procesem kwantyfikacji i modelowania matematycznego, natomiast to nie jest jednak przedmiotem tekstu. Problem identyfikacji rozwiązań problemów decyzyjnych wykracza poza cel ich pracy.
Keeney [Keeney 1994b] wskazuje, że decydenci w sytuacji problemów, źle ustrukturyzowanych mają skłonność do nakładania założeń definiujących struktury (są to
zwykle struktury matematyczne pozwalające przetwarzać informacje i konstruować rekomendacje – przyp. autora) zgodne z wieloatrybutową teorią użyteczności. Wskazuje, że na decyzje o skali i zakresie uproszczeń ma wpływ system wartości decydenta.
Konsekwencją tego podejścia jest redefinicja badawczego celu analizy procesu decyzyjnego, który powinien dostarczać metod uwzględniających zależność struktury problemu decyzyjnego od specyficznych wartości decydenta (ang. value focused thinking).
Niniejszy tekst jest próbą sformułowania propozycji procedury matematycznej
strukturyzacji problemów decyzyjnych, która z jednej strony unifikuje istniejące modele
matematyczne i uwzględnia subiektywizm procesu decyzyjnego, a z drugiej – dostarcza
narzędzi pozwalających wykazać warunki istnienia rozwiązań problemów decyzyjnych.
Językiem do formułowania wniosków jest pojęcie zbieżności procesu decyzyjnego.
Praca podzielona została na pięć części. Po niniejszym wstępie rozdział 2. charakteryzuje iterowane cykliczne procesy decyzyjne oraz prezentuje oznaczenia i interpretacje, które pozwalają sformułować problem i jego własności. Wprowadzona terminologia została wykorzystana w rozdziale 3. do zdefiniowania zunifikowanego problemu decyzyjnego i jego rozwiązania, oraz wykazania warunków istnienia rozwiązań.
Rozdział 4. zawiera zróżnicowane przykłady zunifikowanych procesów decyzyjnych:
decyzje proste o skutku niepewnym, procesy decyzyjne o wielokryterialnie ocenianym
skutku działania, wreszcie interaktywne procesy podejmowania decyzji wielokryterialnych. Przykłady te ilustrują zdolność unifikacji problemów deterministycznych i losowych oraz jedno- i wielocyklicznych. Tekst zamykają Podsumowanie i Bibliografia.
Iterowane cykle decyzyjne – próba opisu zunifikowanego
111
2. Procesy decyzyjne sterowane ocenami skutku.
2.1. Cykl decyzyjny
Przyjmujemy, że przynajmniej niektóre charakterystyki sytuacji decyzyjnej mogą
ulegać zmianie w wyniku działań decydenta. Charakterystyki te nazwiemy stanem układu.
Pozostałe charakterystyki sytuacji decyzyjnej będziemy nazywali stanem otoczenia. Przyjmujemy także, że decydent potrafi zidentyfikować zbiór działań, które może podjąć
(działania dopuszczalne), zbiór stanów układu i jego otoczenia (środowiska) oraz potrafi
zidentyfikować zróżnicowane skutki swych potencjalnych działań (nowe, wynikowe
stany układu) i ocenić je. Zakładamy wreszcie, że decydent posiada zdolność do porównywania ocen, czyli – preferencje2. Przyjmujemy dalej, że ocena działań decydenta
jest związana z ich wpływem na zaspokajanie jego potrzeb (decydent ocenia poziom
zaspokojenia potrzeb).
Przyjmiemy na koniec, że – w szerokim sensie – podejmowanie decyzji jest iterowanym cyklicznym procesem zmierzającym do możliwie wysokiego poziomu zaspokojenia potrzeb decydenta [Por.: Smith 1988]. W każdym cyklu tego procesu identyfikowane są: A/ potrzeby decydenta3, B/ stany układu i otoczenia oraz działania, które
prowadzą to tych stanów i postrzegane są jako droga prowadząca do osiągnięcia
celu, C/ oceny tych działań i stanów otoczenia, będące pomocniczymi konceptualnymi obiektami służącymi do porównań działań z punktu widzenia poziomu realizacji celów, wreszcie – D/ metoda porównywania ocen działań oraz E – algorytm
przetwarzania zasobów informacji reprezentujących – zgodnie z tą strukturą, wiedzę decydenta o sytuacji, w której się znalazł. Odnotujmy, że konsekwencją etapu A
jest identyfikacja problemu decyzyjnego, czyli deficytu potrzeb, oraz identyfikacja celu decydenta – zmniejszenie tego deficytu w możliwie wysokim stopniu.
Złożoność tego procesu powoduje, że jego przeprowadzenie wymaga znacznego
wysiłku i czasu. W konsekwencji, w sytuacjach rzeczywistych, decydenci stosują wiele
strategii heurystyk upraszczających zadania A-E4. Wobec tego powstaje wątpliwość,
czy decyzje podejmowane w praktyce są trafne. Na każdym z etapów może bowiem
powstać błąd powodujący, że poprawne postępowanie na dalszych etapach nie prowadzi do właściwego skutku – do możliwie wysokiego zaspokojenia potrzeb5.
Warto w tym momencie zatrzymać się nad defektami występującymi w realnych
procesach decyzyjnych. Przedyskutujmy te kwestie w naturalnej kolejności wyznaczonej przez cykl decyzyjny.
2 Wprowadzony tu opis może być interpretowany w języku relacji porządkujących lub preferencji,
oraz funkcji użyteczności.
3 Np. stosowanie strategii „przez żołądek do serca” jest przykładem zdobycia akceptacji przez zaspokojenie, łatwego do zidentyfikowania, deficytu sytości.
4 Inaczej mówiąc, można powiedzieć, że decydent stosuje racjonalność ograniczoną [Por.: Simon 1983,
1986].
5 Interesującą próbę oszacowania trafności doboru struktury problemu decyzyjnego przedstawia Lindley
[Lindley 1986], który dowodzi, że nietrafna strukturyzacja węzłów decyzyjnych prowadzi do nieracjonalnych
decyzji.
112
Tomasz Szapiro
RYSUNEK 1.
Cykl decyzyjny
Na etapie A – identyfikacji potrzeb decydenta możemy zetknąć się z niewłaściwą
identyfikacją potrzeb [Por. np.: Hastie 2010]. Np. wysoki poziom pewnych substancji6 lub projekcja emocji mogą wywoływać agresję, która jest przez decydenta identyfikowana jako emocja reaktywna na doraźne bodźce sytuacyjne7. W efekcie, decydent podejmuje działania przeciwdziałające rzekomemu deficytowi źle zidentyfikowanej
potrzeby, zamiast takich działań, które zapewnią zaspokojenie potrzeby niezaspokojonej8. Co znacznie bardziej utrudnia sytuację, decydent może doświadczać deficytu potrzeby jako trudny do zniesienia stan emocjonalny i może nie umieć zdiagnozować tej potrzeby. Podejmuje wtedy decyzje przypadkowe9.
Nie będziemy omawiali możliwości popełnienia błędu na etapie B – identyfikacji
stanów układu i otoczenia oraz definiowania działań – ze względu na to, że jest to pro6 Badania wykazały, że niski poziom serotoniny sprzyja agresji, m.in. u dzieci, które torturują zwierzęta, u ludzi skłonnych do impulsywnych, niekontrolowanych ataków, oraz u samobójców, których działania są uważane za akty autoagresji. Poziom serotoniny jest o 20 – 30% niższy u mężczyzn niż u kobiet –
mężczyźni niezależnie od: kultury, rasy i klasy społecznej są bardziej skłonni do działań i zachowań agresywnych niż kobiety [Por. także: Ghiglieri 2001 oraz Wojciszke 2000].
7 Przykładowo, poniżony przez szefa pracownik wykazuje w stosunku do członków rodziny agresję
(działanie zmierzające do szkody) bez związku z przyczyną swego działania i – co ważniejsze –zastępując przyczyny problemu (często bez ich rozumienia) argumentami wykreowanymi sytuacyjnie.
8 Zjawisko groupthink [Por.: Janis 1972] powoduje poczucie nadmiernej pewności siebie i obstawanie
przy nieskutecznych strategiach.
9 Z podobną sytuacją stykamy się będąc u lekarza, który prosi o wskazanie np. lokalizacji bólu głowy,
którego nie potrafimy umiejscowić. Przypadkowe wskazanie takiego miejsca może prowadzić do nietrafnej,
a nawet szkodliwej, diagnozy.
Iterowane cykle decyzyjne – próba opisu zunifikowanego
113
ces zbyt mało ustrukturyzowany, by można było w ogólny sposób scharakteryzować
pomyłki decydenta. Szczególnie dużo błędów popełnia się w identyfikacji działań, ponieważ wymaga on kreatywności10 [Por.: Keller 1988] i uwzględnienia perspektywy aksjologicznej [Por.: Keeney 1994a]. Warto dodatkowo odnotować, że m.in. Farquhar
i Pratkanis [Farquhar, Pratkanis 1993] rozważają działania, które nazywają działaniami
fantomowymi, gdyż są iluzoryczne, tzn. z jakiegoś punktu widzenia nie są możliwe do
realizacji, a jednak mogą proces decyzyjny zarówno wspomóc, jak i utrudnić.
Na etapie C – oceny działań – pojawia się wiele czynników zwiększających złożoność procesu oceny i wprowadzających jego subiektywizm [Por.: Yu 1991]. Po pierwsze, działania mogą mieć różnorodne skutki i w rezultacie oceny stają się wielowymiarowe – skutki każdego działania oceniane są inaczej. Po wtóre, różni decydenci mogą
uwzględniać rozmaite skutki działań i wybierać różnorodne sposoby ich oceny11.
Na etapie D – porównywania ocen – decydent może mieć do czynienia z gamą dodatkowych problemów wynikających z nieznajomości metod porównywania oraz wyboru tej, którą będzie stosował, a zatem rozwiązać musi pomocniczy problem decyzyjny obarczony tym samym ryzykiem popełnienia błędu, co problem właściwy.
Problem E – doboru algorytmu przetwarzania informacji – ma te same cechy,
co problemy wyboru metody porównywania ocen. Na koniec trzeba odnotować, że
proces decyzyjny jest rozłożony w czasie – w efekcie może zdarzyć się, że w czasie
przetwarzania zebranej informacji nastąpi zmiana w postrzeganiu problemu i dane
dotyczące działań i ich ocen okażą się nieaktualne – struktura modelu decyzyjnego
może być dynamiczna, tj. zmienna w czasie.
Warto odnotować, że klasyczne badania operacyjne dotyczą wyłącznie etapu E –
tworzenia i stosowania metod przetwarzania informacji, w których etapy A-D prowadziły do identyfikacji zadania optymalizacji matematycznej (rozwój tych metod opisuje interesujący tekst Kuszewskiego i Wojewnika w niniejszym tomie). W badaniach
operacyjnych rekomendację dla decydenta reprezentuje wektor interpretowany jako
najlepsze zaspokojenie jego potrzeb. Można tu wykazać, że jest to najlepsza możliwa rekomendacja, ale za cenę założenia, że zadanie optymalizacyjne12 reprezentuje
zadowalająco problem decyzyjny. W przeciwnym wypadku decydent musiał szukać
innych metod poza badaniami operacyjnymi.
Proces rozwoju metod badań operacyjnych można rozumieć jako próby ratowania decydenta w sytuacjach wykraczających poza klasyczne założenia upraszczające.
Zwłaszcza dla końcowych etapów D oraz E cyklu decyzyjnego powiodło się kolejne uchylanie założeń o zwartości, o liniowości, o determinizmie, o jednokryterialności, o punktowym opisie atrybutów i ocen decyzji, wreszcie – uwzględnienie odroczenia
10 W praktyce nie jest trudno identyfikować działania prowadzące do lepszego zaspokojenia potrzeb. Na
przykład do zatrzymania spadku sprzedaży służą strategie np. zwiększenia motywacji sprzedawców lub
podnoszenia ich kompetencji. Jednak te strategie nie gwarantują efektu najlepszego. Dlatego warto
rozważać poszukiwanie nowych wariantów działania, gdyż nie może to pogorszyć efektu analizy.
11 Na przykład inwestycję trzeba oceniać ze względu na jej opłacalność, ale i – ryzyko, a często – płynność pozwalającą konsumować tę opłacalność. Te kryteria nie wyczerpują listy sposobów, a w dodatku
– nie każdy decydent jest zainteresowany płynnością zwrotu z inwestycji.
12 Na przykład ze zwartym i wypukłym zbiorem decyzji dopuszczalnych i z jedną – najlepiej liniową –
funkcją celu generującą porządek liniowy opisujący preferencje decydenta.
114
Tomasz Szapiro
w czasie skutku decyzji i wynikającej stąd możliwości uwzględnienia zmian w zasobach
informacji. W efekcie sformułowano warunki konieczne i wystarczające – istnienia
rozwiązań dla klas problemów nieliniowych, stochastycznych, przybliżonych, wielokryterialnych, wreszcie z niespójnością czasową. Skonstruowano algorytmy prowadzące do rekomendacji lub je aproksymujące. Można powiedzieć, że nauka przebiega cykl decyzyjny [Por. rys. 1.] w kierunku przeciwnym do jego biegu.
Jak się zdaje, trudno jednak uznać za zadowalające wyniki badań dotyczące początkowych etapów A, B oraz C cyklu decyzyjnego. Identyfikacja potrzeb, działań, sposobów ich oceny i porównywania ocen nie poddają się łatwo opisowi wykorzystującemu pojęcia matematyczne i w konsekwencji nie jest łatwe zdefiniowanie pojęcia optymalności, rekomendacji, wykazanie warunków koniecznych i wystarczających dla optymalności oraz konstrukcja algorytmów wyznaczających rekomendacje. Przyczyną dla
tego stanu rzeczy jest niewątpliwie fakt, że początkowe fazy procesu decyzyjnego są
głęboko zakorzenione w mechanizmach leżących na styku psychologii oraz ekonomii
i zarządzania. Procesy identyfikacji działań i ocen tych działań winny zatem korzystać z osiągnięć nauk o odmiennej metodologii, gdzie matematyczne modelowanie, nie
jest silnie rozwinięte, a zatem przetwarzanie informacji, które wykorzystuje modele matematyczne nie jest możliwe bez stosowania strategii upraszczających. Psychologia i informatyka wskazują, że decydenci identyfikujący potrzeby, działania i oceny stoją
zatem przed dwoma zadaniami – zadaniem uczenia się (potrzeb, działań i sposobów
ich oceny) oraz zadaniem matematycznej reprezentacji wyników tego uczenia, czyli –
zadaniem matematycznego modelowania sytuacji decyzyjnych.
Proces podejmowania decyzji wymaga nabywania wiedzy już istniejącej oraz wytwarzania wiedzy. Istotą procesu nabywania wiedzy jest jej zrozumienie i zapamiętanie (czyli – uczynienie istniejącej wiedzy mentalnie i operacyjnie dostępną). Podejmowanie decyzji wymaga jednak także wiedzy, której nabycie nie jest możliwe, gdyż jest związane ze
specyficznymi cechami decydenta. Podejmowanie decyzji wymaga również wytwarzania
wiedzy. Istotą takiego uczenia się jest cykliczna konfrontacja nabytej wiedzy z rzeczywistością. Tę cechę procesu podejmowania decyzji będziemy nazywali interaktywnością.
Występowanie interaktywności oznacza, że w praktyce cykle decyzyjne są powtarzane.
Uwzględnienie etapów: A, B i C cyklu decyzyjnego zmienia perspektywę badawczą. Zadaniem klasycznych badań operacyjnych było dostarczenie metod wyznaczania rekomendacji dla precyzyjnie określonych klas problemów decyzyjnych. Zadanie
takie miało sens naukowy, ponieważ klasy tych problemów (np. zadanie transportowe) nie były specyficzne z punktu widzenia preferencji decydenta. Metoda miała zatem walor ogólności. Metody aspirujące do dostarczania sposobów rekomendujących
rozwiązania z uwzględnieniem faz: A, B i C są związane z wprowadzeniem tak wysokiego stopnia specyficzności wynikającego ze zróżnicowania decydentów i ich potrzeb, że
nie jest możliwa konstrukcja matematycznych algorytmów, gdyż ich parametrami
byłyby subiektywne czynniki psychologiczne.
Zjawisko subiektywizmu w badaniach operacyjnych, związane z etapem C cyklu decyzyjnego (oceną działań), występuje w optymalizacji wielokryterialnej. Ważnym zabiegiem metodologicznym, jakim posłużono się w tej dziedzinie, było uczynienie celem badań konstrukcji procedur wspomagania decydenta zamiast konstrukcji algo-
Iterowane cykle decyzyjne – próba opisu zunifikowanego
115
rytmów matematycznych rekomendacji. Procedury decyzyjne są narzędziami kontroli
procesu uczenia się. Podobnie jak klasyczna analiza wrażliwości w optymalizacji liniowej, pozwalają one badać wpływ zmiany matematycznej reprezentacji problemu
decyzyjnego na efekt procesu, ale wprowadzają ponadto element dodatkowej oceny
decydenta, która jest wykorzystywana do zmiany tej reprezentacji13.
Celem niniejszego tekstu jest wprowadzenie sformalizowanego opisu cykli decyzyjnych, który z jednej strony unifikuje prezentowane wcześniej modele, a z drugiej – stanowi punkt wyjścia do budowy kolejnych podejść uchylających poczynione wcześniej
założenia.
2.2. Oznaczenia i interpretacje
Proces podejmowania decyzji, scharakteryzowany w poprzednim rozdziale, będziemy rozważali jako sekwencję wyrażeń matematycznych reprezentujących kolejne
rekomendacje dla decydenta, które wynikają z przetwarzania zebranej informacji.
W ogólnym ujęciu problem decyzyjny oznacza konieczność zdefiniowania działań zmieniających poziom zaspokojenia potrzeb i następnie wyboru najlepszego
działania. Tradycyjną drogą rozwiązania tego problemu jest konstrukcja zbioru działań,
a następnie – konstrukcja zadania wyboru rozwiązania w tym zbiorze [Por. Szapiro
1993b]. Wspomniany wcześniej, dynamiczny charakter tego podejścia powoduje sekwencyjne występowanie cyklu decyzyjnego i konieczność rozpatrywania zadania
rozwiązania problemu decyzyjnego jako iterowanego procesu.
Zakładamy, że dany jest przeliczalny zbiór iteracji T. Iteracje są numerowane wskaźnikiem tT; w dalszym ciągu tego rozdziału – dopóki nie prowadzi to do nieporozumień – ten indeks będzie pomijany, ponieważ są omawiane interpretacje dla ustalonego pojedynczego cyklu decyzyjnego.
Nie będziemy tu wprowadzali terminologii związanej z etapem A cyklu decyzyjnego – identyfikacji potrzeb, gdyż – jak wspomniano wcześniej – wchodzi ona w zakres
psychologii i zależy bardzo silnie od wiedzy z tego obszaru. Przyjmiemy, że w wyniku tego etapu decydent potrafi zdefiniować swoje potrzeby i rozróżniać poziomy ich
zaspokojenia, a doszedł do tej wiedzy z pomocą eksperta psychologa i metod psychologii poznawczej [Por. Keller 1988], lub metod sztucznej inteligencji14.
Niemniej warto odnotować, że w problemach decyzyjnych o wysokim stopniu specjalizacji są prezentowane procedury wspomagania decydenta na całym obszarze cyklu decyzyjnego. Przykładowo Dyrektoriat Generalny „Energia i Transport Komisji
Europejskiej” od 1998 roku finansował projekt European Local Transport Information
Service [ELTIS, www.eltis.org], którego celem było przeciwdziałanie szkodliwym
ubocznym efektom stałego wzrostu motoryzacji: m.in. redukcja konsumpcji energii
oraz negatywnego wpływu emisji dwutlenku węgla na środowisko poprzez zaproponowanie wsparcia dla decydentów na poziomie lokalnym regionalnym użytkowDostarcza się tu raczej wędkę – procedurę decyzyjną, niż rybę – rozwiązanie ostateczne!
Algorytmy sztucznej inteligencji pozwalają tworzyć pojęcia na podstawie analizy danych numerycznych i tekstowych (data mining i text mining odpowiednio).
13
14
116
Tomasz Szapiro
ników, władz publicznych, planistów, naukowców praktyków i dziennikarzy, którzy
stykają się z tą problematyką. Wsparcie to obejmuje udostępnianie aktualnej informacji
narzędzi do ich efektywnego przetwarzania. Opracowano blisko 1500 studiów przypadków, materiały szkoleniowe i narzędzia skomputeryzowane dla praktyków. Jednym z takich narzędzi jest metoda Road User Charging (RUC) zaimplementowana
w kilku miastach europejskich (m.in. w Londynie i Rzymie). Istotnym elementem tej
kompleksowej metody jest generowanie opcji (działań) wykorzystujące pomocnicze
instrumenty – macierze generowania działań, które prowadzą proces generowania potencjalnych działań służących do uporządkowania tego procesu [Por.: Kocak, Jones 2002].
Jak wspomniano wcześniej, w sytuacji decyzyjnej można wydzielić układ i otoczenie. Układem nazywamy tę część rzeczywistości, na którą decydent świadomie wywiera wpływ swoimi działaniami. Otoczenie to pozostała część rzeczywistości. Rozważamy tu dwie przykładowe sytuacje, których analiza będzie kontynuowana w miarę
wprowadzania pojęć.
Sytuacja pierwsza dotyczy decydenta posiadacza parasola wychodzącego na miasto.
Sytuację tę można charakteryzować odnosząc się do sytuacji decydenta po wyjściu i do
stanu pogody. W zależności od tego, czy weźmie parasol i od pogody, decydent będzie
mokry lub suchy. Odnotujmy, że działanie (zabranie parasola lub nie) zależy od decydenta, zaś pogoda – nie. Konsekwentnie stany układu (decydenta) opisuje fakt, czy jest
mokry, czy nie, a stany otoczenia (pogoda) wystąpienie deszczu lub nie.
Zauważmy, że jeśli decydent ma kontrolę nad wszystkimi parametrami opisującymi sytuację decyzyjną, to nie występuje niepewność – możliwość wystąpienia różnych
stanów. Ten prosty przypadek na razie pominiemy.
Sytuacja druga to sytuacja rolnika decydującego o strukturze zasiewów. W zależności
od struktury zasiewów, pojemności rynków, zasobów pracy i budżetu, a także – cen,
efekty jego decyzji są różne. Warto odnotować, że i w tym przypadku pogoda ma znaczenie dla wyniku, gdyż decyduje o wysokości plonów i w konsekwencji o cenach.
Na etapie B cyklu decyzyjnego zakładamy, że stany środowiska są reprezentowane
przez interpretowalne etykiety ES, np. przez wektory sRS. W tej sytuacji problem
zabrania parasola przy niepewnej pogodzie jako zbiór stanów układu możemy przyjąć etykiety „zmoknięty” oraz „suchy”. Zaś jako zbiór stanów otoczenia – etykiety „pada_deszcz” oraz „pogoda”. Bardziej skomplikowany jest opis w zadaniu stochastycznej
optymalizacji planu zasiewów z cenami opisanymi przez zmienne losowe na zbiorze
stanów otoczenia [Por.: Grabowski 1982]. Stany środowiska (stany pogody) ES nie są
wtedy zadane jawnie – przyjmuje się założenie, że istnieją i posiadają strukturę przestrzeni probabilistycznej, na której jest określona miara interpretowana jako prawdopodobieństwo wystąpienia danego stanu oraz zmienna losowa, której wartości dla
danego stanu reprezentują ceny przy danym stanie pogody. W takiej strukturze można
określić rozkład zmiennej losowej, który następnie jest wykorzystany do wyznaczenia
rekomendacji dla decydenta. Ponieważ istotny jest wtedy rozkład, który jest funkcją
określoną na półprostej o wartościach przedziale [0,1], więc w praktyce elementem
struktury nie jest zbiór stanów środowiska ES, lecz odpowiednio dobrana funkcja.
Na etapie B cyklu decyzyjnego przyjmiemy także, że działania prowadzące do nowych stanów układu są reprezentowane przez etykiety EX, np. wektory xRN. W przyk-
Iterowane cykle decyzyjne – próba opisu zunifikowanego
117
ładzie z parasolem zbiór etykiet działań to „wziąć_parasol”, „nie_brać_parasola”.
W przykładzie stochastycznej optymalizacji planu zasiewów zbiór etykiet stanów układu stanowią wektory reprezentujące dopuszczalne plany zasiewów. Jest to więc zwarty podzbiór przestrzeni RN, gdzie N to liczba typów roślin, a jego zwartość wynika ze
spełnienia przez współrzędne wektorów układu nierówności reprezentujących ograniczenie areału pojemności rynku, a także – warunki nieujemności.
Na etapie C cyklu decyzyjnego przyjmiemy, że oceny stanów układu reprezentowane są przez etykiety EY, np. przez wektory yRM. W przykładzie z parasolem zbiór
EY etykiet ocen składa się z elementów „nieznośnie” (zmoknięty) oraz „szczęśliwie”
(suchy). W przykładzie stochastycznej optymalizacji planu zasiewów zbiór ocen stanowią liczby rzeczywiste – wartości oczekiwane spodziewanych zysków osiągniętych w wyniku realizacji dopuszczalnych planu zasiewów.
Na etapie C cyklu decyzyjnego przyjmiemy także, że zależność wartości oceny decydenta od przedmiotu jego oceny i stanu otoczenia reprezentuje funkcja f:EX×ESEY,
f(x,s)=y. Funkcja ta generuje multifunkcję15 f:EXD(EY); której wartości f(x) są
dane wzorem, f(x)={f(x,s)}sES i reprezentują zbiór ocen działania w każdym z możliwych stanów. W przypadku bez niepewności mamy f:EX×ESEY, f(x,s)y, sES.
W przykładzie z parasolem przyporządkowanie oceny stanom układu i otoczenia jest naturalne – nieznośnie zmoknąć można tylko, gdy pada deszcz i decydujemy
się nie brać parasola. Zatem f(<wziąć_parasol>,<pogoda>)={suchy} zaś:
f(<nie_brać_parasola>)={<zmoknięty>,<suchy>},
f(<wziąć_parasol>)={<suchy>}.
W przykładzie stochastycznej optymalizacji planu zasiewów przyporządkowanie
spodziewanego zysku danemu planowi zasiewów oznacza dokonanie niezbyt
skomplikowanych działań arytmetycznych. Zgodnie z założeniem, zadajemy tu struktury przestrzeni probabilistycznych (x,Dx,Px), gdzie x=f(x), Dx2f(x). Wartość
Px(A), ADx2f(x) interpretujemy jako prawdopodobieństwo, że efekt wystąpienia
stanu x jest elementem zbioru A. Przyjmiemy także, że odwzorowanie
p:EYf(x)y  Px({y})[0,1]
jest funkcją gęstości dla miary prawdopodobieństwa wystąpienia ceny y przy działaniu x. Rekomendacja dla decydenta wynika z wyznaczenia wartości oczekiwanej każdego działania i wyborze działania, które maksymalizuje tę wartość. Przypomnijmy, że
do tego celu nie jest konieczna znajomość stanów otoczenia, gdyż wystarczy znać wartość odwzorowania p. Dlatego w analizie zamiast wyznaczać przestrzeń stanów ES otoczenia określa się klasę funkcji określonych na zbiorze EY i o wartościach w przedziale
[0,1], spośród których dobiera się taką, która najlepiej reprezentuje prawdopodobieństwa wystąpienia wyników działań w danym stanie i tę funkcję wykorzystuje się
w obliczeniach.
15 Multifunkcja to odwzorowanie F określone na zbiorze X, które każdemu elementowi xX przyporządkowuje dokładnie jeden niepusty podzbiór F(x)Y. Multifunkcje można traktować jako funkcje
o wartościach w rodzinach podzbiorów zbioru Y.
118
Tomasz Szapiro
Wprowadzone pojęcia pozwalają doprecyzować pojęcie problemu decyzyjnego
i podjąć próbę definicji rozwiązania takiego problemu.
Dla danego zestawu obiektów: EX, ES, EY oraz f i opcji zerowej x0 (czyli braku działania – zachowania sytuacji początkowej), xEX, problemem decyzyjnym jest wybór ze
zbioru działań EX działania, które zmniejsza deficyt potrzeb. Należy zatem porównać
zestawy ocen reprezentowanych przez elementy f(EX×ES). Problem decyzyjny oznacza więc
wybór działania o możliwie wysokiej ocenie. Odnotujmy tu, że nie musi być znany stan
pożądany układu (ocena pożądanego działania). W konsekwencji rozwiązanie problemu wymaga albo wyznaczenia działania prowadzącego do takiego stanu, którego
ocena oznacza najwyższe zaspokojenie potrzeb albo– jeśli to nie jest możliwe lub działanie taki nie istnieje – wyznaczenie działania prowadzącego do stanu, którego ocena oznacza lepsze zaspokojenie potrzeb niż opcja zerowa16. W pierwszym przypadku problem nazwiemy skutecznie ustrukturyzowanym. W problemach skutecznie ustrukturyzowanych działanie o najwyższej ocenie17 jest rozwiązaniem problemu.
W problemach, które nie są skutecznie ustrukturyzowane, możliwe jest rekomendowanie działań, które lepiej zaspokajają potrzeby niż stan aktualny. Zauważmy, że dla każdego takiego działania można przyjąć wynik rekomendacji jako nową
opcję zerową i wyznaczać kolejną rekomendację. Wyznaczanie rozwiązania jest zatem procesem iterowanym, które wymaga określenia momentu zatrzymania tego
procesu (działania, stany i oceny będziemy odtąd indeksować).
Zauważmy, że w każdym z tych przypadków rozwiązanie problemu decyzyjnego
z zadanymi obiektami: EX, ES, EY oraz f i opcją początkową x0, x0EX, wymaga porównywania ocen.
Na etapie D cyklu decyzyjnego przyjmiemy, że rekomendacja jest wynikiem porównywania ocen, a zdolność do porównywania ocen – preferencje – reprezentuje
określone na zbiorze par ocen odwzorowanie :EY×EYEY; którego wartości reprezentują wynik porównywania. W przykładzie z parasolem to przyporządkowanie oceny
jest naturalne – „nieznośnie_zmoknąć” może być tylko wynikiem porównania tej oceny
z nią samą. W przykładzie stochastycznej optymalizacji planu zasiewów wynik porównywania spodziewanych zysków y oraz y’ jest większą z porównywanych liczb:
(y,y’)=max{y,y’}. Inaczej mówiąc preferowane jest działanie, dla którego jest spodziewany większy zysk.
Na etapie E cyklu decyzyjnego – przetwarzania informacji i konstrukcji kolejnych
rekomendacji – przyjmiemy, że ciąg xn jest zadany za pomocą procedury przetwarzania informacji o strukturze problemu wyznaczonej przez zbiory etykiet: EX, ES, EY
i odwzorowania f oraz . Dokładniej, rekomendacja xn+1 w iteracji t=n+1, tT, dana
jest wzorem:
xn+1=(xn,sn); gdzie xnEX, snES,
16 Zauważmy, że w tym miejscu, przez stan rozumiemy łącznie stan układu i stan otoczenia. Zatem,
warunek oznacza w istocie, iż istnieje działanie prowadzące do takiego stanu układu i istnieje taki stan
otoczenia, że potrzeby są wtedy zaspokojone w najwyższym stopniu.
17 W optymalizacji wielokryterialnej jest to tzw. punkt idealny.
Iterowane cykle decyzyjne – próba opisu zunifikowanego
119
przez odwzorowanie:
f:EX×ESEX,
określone przez tę procedurę, które nazwiemy operatorem rezolwenty.
Powiadamy, że operator rezolwenty f:EX×ESEX zachowuje preferencje, jeśli dla
każdej pary kolejnych rekomendacji xn oraz xn+1 preferowana jest rekomendacja późniejsza xn+1, czyli xnxn+1)=xn(xn,sn))=(xn,sn).
W praktyce operator rezolwenty nie jest określony analitycznym wzorem podanym explicite, lecz konstruowany dla odrębnych klas problemów decyzyjnych.
Gdy ciąg rekomendacji jest dwuelementowy, operator rezolwenty nazywamy regułą decyzyjną.
3. Zunifikowane problemy decyzyjne i ich rozwiązania
Zbiór następujących obiektów: zbiór iteracji T, tT, stanów środowiska ES, zbiór działań zmieniających stany układu EX, zbiór oceny tych działań EY, przyporządkowanie
f:EX×ESEY ocen decydenta działaniom i stanom otoczenia, reprezentację :EY×EYEY
wyniku porównywania ocen oraz operator rezolwenty f:EX×ESEX wyznaczają
strukturę procesu decyzyjnego. Zestaw , ={T,ES,EX,EY,f,,} – nazywamy zbiorem
elementów strukturalnych procesu decyzyjnego.
Wprowadzona terminologia pozwala w zunifikowany sposób określić definicje
problemów decyzyjnych i ich rozwiązań.
Dla danego zestawu elementów strukturalnych  problemów skutecznie ustrukturyzowanych zachodzi równość (y,f(x*,s))=f(x*,s) dla wszystkich yf(EX×ES)i pewnego stanu sES. Zatem, x* jest ostateczną decyzją [Por. przypis 16].
Dla danego zestawu elementów strukturalnych  i problemu, który nie jest ustrukturyzowany skutecznie, problemem decyzyjnym jest wybór ze zbioru działań EX takiego działania x*, dla którego oceny f(x*,s) dla dowolnego sES nie istnieje inna
ocena y, yf(EX×ES), y≠f(x*,s) taka, że (y,f(x*s))=y. Decyzję x* nazywamy wtedy rozwiązaniem problemu ustrukturyzowanego skutecznie.
W problemach, które nie są skutecznie ustrukturyzowane, rozważmy dwie sytuacje.
W sytuacji pierwszej brak jest działania, które lepiej zaspokaja potrzeby niż opcja zerowa x (w stanie początkowym s0). Wtedy opcja zerowa x jest tylko formalnym rozwiązaniem problemu, ponieważ deficyt potrzeby nie ulega zmianie. W sytuacji przeciwnej,
istnieje pewien stan s oraz działanie x’, które lepiej zaspokaja potrzeby niż opcja zerowa x w stanie początkowym s0, tzn. zachodzi równość (f(x’,s),f(x,s0))=f(x’,s), co
oznacza, że następuje zmniejszenie deficytu potrzeb. Działanie x’ będzie nazywane
rekomendacją. Rekomendację x’ można przyjąć jako nową opcję zerową, tj. opcję zerową w problemie decyzyjnym, którego stan początkowy określa wynik poprzedniego działania x’. Jeśli powtarzając iteracje dla pewnego N, dochodzimy do sytuacji, która
120
Tomasz Szapiro
posiada tylko formalną rekomendację xN, to xN nazywany jest rozwiązaniem problemu nieskutecznie ustrukturyzowanego.
Rozważmy formę zdaniową :EX×EX{0,1} określoną na zbiorze par rekomendacji oraz dwie rekomendacje x’ oraz x”. Jeśli (x’,x”)0, to powiemy, że x’ oraz x”
reprezentują działania istotnie odmienne. W przeciwnym wypadku powiemy, że rekomendacja x’ nie jest istotnie różna, co oznacza zatrzymanie procesu decyzyjnego.
Formę zdaniową  nazywamy regułą stopu.
Zauważmy, że interpretacja reguły stopu stwarza sytuację, która wymaga od decydenta określenia stopnia odmienności różnych opcji, jest więc czynnikiem związanym z jego postrzeganiem, a więc – z mechanizmami psychologicznymi.
Dla danego zestawu elementów strukturalnych  rozważmy ciąg rekomendacji
xn, xnEX, nT. Powiadamy, że proces decyzyjny jest:
–
zbieżny silnie, jeśli ciąg rekomendacji xn jest stały od pewnego miejsca;
–
zbieżny, jeśli zbiór działań zmieniających stany układu EX posiada strukturę
przestrzeni metrycznej, dla której ciąg rekomendacji xn jest ciągiem zbieżnym.
Jeżeli ponadto dana jest reguła stopu :EX×EX{0,1}, powiadamy, że proces
decyzyjny jest:
–
psychologicznie zbieżnym dla reguły stopu , jeśli istnieje kres dolny:
N=inf {nT; (x’,x”) 1}.
Wprowadzona terminologia pozwala opisać w zunifikowany i zwięzły sposób dyskretne procesy decyzyjne (tzn. opisane przez przeliczalne zbiory indeksów T) i może
być rozszerzona na procesy ciągłe.
Twierdzenie 2.1
–
Jeśli zbiór działań zmieniających stany układu EX posiada strukturę przestrzeni
metrycznej z metryką d, dla której ciąg rekomendacji xn (dla nT) jest ciągiem
zbieżnym oraz decydent posiada regułę stopu :EX×EX{0,1}, dla której
potrafi określić próg  preferencyjnej nierozróżnialności działań x’ oraz x”, tzn. zachodzi następujący warunek (stopu):
d(x’,x”)<  (x’,x”)=1,
to proces decyzyjny jest psychologicznie zbieżny w skończonej liczbie kroków.
Dowód. Ze zbieżności ciągu rekomendacji xn wynika, że istnieje rekomendacja
o wskaźniku N*=N(), która spełnia warunek stopu.
Jeśli decydent nie potrafi określić progu preferencyjnej nierozróżnialności, ale wiadomo, że taki próg istnieje, to można dowolnie problem dokładnie aproksymować
w sensie psychologicznym.
Wniosek 2.1
–
Jeśli dla danego zestawu elementów strukturalnych  z operatorem rezolwenty zachowujacym preferencje proces decyzyjny strukturyzuje nieskutecznie i jest zbieżny, zaś decydent posiada regułę stopu :EX×EX{0,1},
dla której istnieje próg preferencyjnej nierozróżnialności działań, to problem decy-
Iterowane cykle decyzyjne – próba opisu zunifikowanego
121
zyjny posiada rozwiązanie, które można dowolnie dokładnie aproksymować problemem o tym samym zestawie elementów strukturalnych , który jest psychologicznie zbieżny dla reguły stopu 
Dowód. Dla kolejnych, dowolnie małych progów nierozróżnialności  możemy,
zgodnie z dowodem poprzedniego twierdzenia, określić rekomendację o wskaźniku
N=N(), która spełnia warunek stopu.
Twierdzenie 2.2
–
Jeśli dla danego zestawu elementów strukturalnych  z operatorem rezolwenty zachowującym preferencje proces decyzyjny jest ustrukturyzowany
nieskutecznie i jest zbieżny silnie, to problem decyzyjny posiada rozwiązanie.
Dowód. Założenia twierdzenia oznaczają, że iterując rekomendacje przy pomocy
operatora od pewnego miejsca otrzymujemy ciąg stały, a to zgodnie z definicją zachowania preferencji oznacza, że otrzymywana stale rekomendacja jest formalnym
rozwiązaniem problemu z opcją zerową określoną przez tę rekomendację. Jest więc
ona rozwiązaniem problemu nieskutecznie ustrukturyzowanego.
Twierdzenie 2.3
–
Jeśli dla danego zestawu elementów strukturalnych  z operatorem rezolwenty zachowującym preferencje proces decyzyjny jest ustrukturyzowany
nieskutecznie i jest zbieżny silnie oraz decydent posiada regułę stopu
:EX×EX{0,1}, to proces decyzyjny jest psychologicznie zbieżny
w skończonej liczbie kroków.
Dowód. Założenia twierdzenia oznaczają, że iterując rekomendacje przy pomocy operatora od pewnego miejsca otrzymujemy ciąg stały, a zatem – od pewnego
miejsca N rekomendacje xn nie mogą być uznane za odmienne. Dla dowolnej reguły  mamy zatem (xN,xN+1)=1.
W następnym paragrafie, pokażemy, że przedstawione pojęcia i twierdzenia charakteryzują w zunifikowany sposób teorie przedstawione w literaturze.
4. Przykłady zunifikowanych procesów decyzyjnych
Rozważymy obecnie trzy zróżnicowane przykłady zunifikowanego opisu iterowanych cyklicznych procesów decyzyjnych. Dokładniej rozważamy sytuacje z występowaniem niepewności i bez niej, oraz: decyzje proste wykorzystujące tabele decyzyjne,
optymalizację wielokryterialną w wariancie statycznym (z jednym cyklem decyzyjnym)
oraz w wariancie iteracyjnym.
4.1. Decyzje proste o skutku niepewnym
Rozważamy następujący zestaw DP, DP={T,ES,EX,EY,f,,} elementów strukturalnych. Zbiór iteracji T={0,1}, t=0 oznacza chwilę początkową zaś t=1 – końcową.
122
Tomasz Szapiro
Skończony zbiór stanów środowiska identyfikujemy ze zbiorem ES={s1,…,sk}
etykiet tych stanów. Skończony zbiór działań zmieniających stany układu identyfikujemy ze zbiorem EX={x1,…,xn} etykiet tych działań. Zbiór EY ocen tych działań także tworzą ich etykiety: EX={y1,…,ym}. Przyporządkowanie f:EX×ESEY ocen decydenta działaniom i stanom otoczenia jest reprezentowane przez tabelę decyzyjną
Tij=[uij]i=1,..,n; j=1,…,m, zadaną wzorem uij=f(xi,sj)=yrEY. Odwzorowanie :EY×EYEY
opisujące wynik porównywania ocen dane jest wzorem (yj,yk)=max{yj,yk}. Walda operator rezolwenty dany jest wzorem:
f(xn,sn)= max{{min{f(xi,sj)}, j=1,…,m}, i=1,…,n}, f:EX×ESEX.
Regułę stopu zdefiniujemy jako identyczność: (x’,x”)1 x’=x”, gdzie
x’,x”EX.
Tak określony zestaw DP nazywamy zestawem parametrów strukturalnych procesu podejmowania decyzji prostych w warunkach niepewności. Zestaw parametrów definiuje dwuelementową sekwencję podejmowania decyzji ze znanym stanem
środowiska w iteracji 0. Dla, określonego wyżej, zestawu obiektów DP, problemem
decyzyjnym jest wybór ze zbioru działań działania o możliwie wysokiej ocenie, co
jest możliwie, gdy mamy do czynienia z problemem skutecznie ustrukturyzowanym,
który obecnie rozważymy.
Przykład.
Niech zestaw DP, DP={T,ES,EX,EY,f,,} zadany jest przez T={0,1}, zbiór stanów
środowiska ES={0,1} reprezentujący etykiety: „pada”, „nie_pada”, zbiór działań
EX={0,1} reprezentujący etykiety: „wziąć_parasol”, „nie_brać_parasola”, zbiór EY={0,1}
reprezentujący etykiety „nieznośny”, „znośny”. Wtedy tabela decyzyjna może być opisana przez przyporządkowanie f:{0,1}×{0,1}{0,1} dane wzorem f(x,s)=0 wtedy
i tylko wtedy, gdy x=s=0, zaś opis preferencji :EY×EY={0,1}×{0,1}EY opisujące
wynik porównywania ocen (yj,yk)=max{yj,yk}=0 tylko gdy yj= yk=0.
Walda operator rezolwenty dany jest wzorem:
wf (xn,sn)= max{{min{f(xi,sj)}, j=1,…,m}, i=1,…,n}, wf:EX×ESEX.
Zauważmy, że:
argX max wf(xn,sn)={(xn,sn): max{min{f(xi,sj)}}=1}={1}.
Zatem element x=1 reprezentujący etykietę „wziąć parasol” jest rekomendacją
w rozważanym problemie.
Klasyczny opis tej sytuacji opisuje tabela decyzyjna:
Stany
Działanie
nie_brać_parasola
wziąć_parasol
max {min uij}
pada
nie_pada
min uij
0
1
1
1
0
1
1
Iterowane cykle decyzyjne – próba opisu zunifikowanego
123
Zauważmy, że przykładowy problem był ustrukturyzowany skutecznie – opcja
wziąć parasol jest zawsze preferowana.
Walda operator rezolwenty wf:EX×ESEX zachowuje preferencje w problemie
z parasolem, ponieważ dla każdej pary kolejnych rekomendacji xn oraz xn+1, gdzie:
xn+1=wf(xn,sn)= argX max wf(xn,sn)=1
mamy:
xnxn+1)=xn(xn,sn))=xn)=1= (xn,sn).
Na koniec tej części zauważmy, że w klasycznej analizie decyzji w warunkach niepewności rozważa się, obok reguły Walda, także inne reguły (m.in.: Savage’a, Laplace'a,
Hurwicza). Nietrudno zdefiniować odpowiednie operatory rezolwenty i zastosować
je w rozważanym przykładzie. W przypadku ogólnym można przy ich pomocy
otrzymać różne rekomendacje to oznacza, że w fazie D oraz E cyklu decyzyjnego –
porównywania ocen i doboru algorytmu przetwarzania informacji – powstaje, sygnalizowany wcześniej, (meta) problem wyboru reguły.
4.2. Procesy decyzyjne o wielokryterialnie ocenianym skutku działania
Rozważamy następujący zestaw OW, OW={T,ES,EX,EY,f,,} elementów strukturalnych. Niech zbiór iteracji T={0,1}, gdzie t=0 oznacza chwilę początkową, zaś
t=1 – końcową. Zbiór stanów środowiska jest jednoelementowy ES={s1} i będzie
w opisie pomijany. Stany układu są reprezentowane przez etykiety xnEX=XRN; etykieta xn opisuje zestaw poziomów cech stanu układu występującego w efekcie podjęcia decyzji. Oceny stanów układu są reprezentowane przez etykiety EY, ynRM; etykieta yn opisuje zestaw poziomów ocen skutku decyzji ze względu na M kryteriów. Zależność wartości oceny od przedmiotu oceny reprezentuje odwzorowanie f:EX×ESES,
a dokładniej – odwzorowanie f:RNXRM. Odwzorowanie EY×EYEY, a dokładniej
– odwzorowanie :RM×RMRM opisujące wynik porównywania ocen dane jest
wzorem:
,
zadane jest przy pomocy rodziny S(y), yRM, zaostrzonych stożków wypukłych18
w RM [Por.: Yu 1985]. Warto tu odnotować dwa fakty. Po pierwsze, że z powodów
formalnych utożsamiamy zbiory jednopunktowe z ich elementami. Po wtóre, odwzorowanie  nie dla wszystkich argumentów ma określone wartości, co oznacza, że model
ten dopuszcza sytuacje, w których decydent nie potrafi wybrać między dwoma działaniami.
18 Stożkiem nazywamy zbiór taki, że dla każdego xS i dla każdego a0 mamy axS. Stożek jest
zaostrzony, tzn. 0S. Stożek, będący zbiorem wypukłym, nazywamy stożkiem wypukłym.
124
Tomasz Szapiro
Operator rezolwenty Pareto dany jest wzorem:
Pf(x,s) = P(x) = f-1({yf(X) : (y’,y)=}), P: X2X.
Operator rezolwenty dla problemu wielokryterialnego dany jest wzorem:
OWf(x,s) = fOW(x) = rand {Pf(x,s)=  }, f: XX,
gdzie rand oznacza operator losowego wyboru elementu ze zbioru działań X.
Tak zdefiniowany zestaw OW nazywamy zestawem parametrów strukturalnych
procesu podejmowania decyzji wielokryterialnych. Dla danego zestawu OW, problem decyzyjny oznacza wybór działania prowadzącego do stanu o najwyższej ocenie
albo wyznaczenie działania prowadzącego do stanu, którego ocena oznacza lepsze zaspokojenie potrzeb niż opcja zerowa. W problemach wielokryterialnych nie istnieje
zazwyczaj działanie o najwyższych ocenach [Por. m.in.: Kaliszewski 2008; Szapiro
1991; Trzaskalik 2006; Yu 1985]. Możliwe jest jednak wtedy rekomendowanie działań y’, które lepiej zaspokajają potrzeby niż stan aktualny y0, tj. takie, że (y’,y0)= y’.
Zgodnie z, podanymi wcześniej, definicjami, dla zestawu OW w problemie
ustrukturyzowanym skutecznie (czyli, gdy nie istnieje dopuszczalny punkt idealny),
z opcją zerową x formalnym rozwiązaniem problemu jest element x*=OW(x) zbioru EX=X, dla którego oceny y*=f(x*) nie istnieje inna ocena y, yf(X), y≠f(x*), taka, że (y,f(x*))=y, czyli dowolny element wartości rezolwenty.
Przykład.
Niech zestaw MOLP, MOLP={T,ES,EX,EY,f,,} jest zadany przez T={0,1}, jednoelementowy nie opisywany dalej zbiór stanów środowiska ES. Zbiór działań EX=XRN;
zadany jest jako ograniczony wielościan zwarty ograniczony przez układ nierówności Ax≤b, zadanych przez macierz A wymiaru kn oraz wektor b, bRk. Nierówności interpretowane są jako ograniczenia sztywne [Por.: Szapiro 1993b]. Zbiór
ocen EY=RM. Odwzorowanie f:RNXRM jest zadane wzorem f(x)=Cx, gdzie C
jest macierzą wymiaru mn. Wiersze tej macierzy zadają funkcje interpretowane jako
kryteria częściowej oceny. Odwzorowanie:
:f(X)×f(X)RM,
opisujące wynik porównywania ocen dane jest wzorem:
,
gdzie rodzina zaostrzonych stożków S(y), yRM wypukłych w RM jest zadana przez
stożki stałe postaci19:
S(y)=y+S=y+R+…R+, yRM.
Zauważmy, że jeśli y’y, to (y’,y)=y’.
Operator rezolwenty Pareto jest dany wzorem
Pf(x,s) = P(x) = f-1({yf(X) : (y’,y)=}), P: X2X.
19
Znak + oznacza tu sumę wektorową zbiorów, zaś R+ zbiór liczb nieujemnych.
Iterowane cykle decyzyjne – próba opisu zunifikowanego
125
Zatem, dla danego x, wektor x* należy do zbioru wartości P(x) operatora rezolwenty Pareto w x, jeśli nie istnieje działanie x’X, takie, że (f(x’),f(x*))=x’.
Operator rezolwenty dla problemu wielokryterialnego dany jest znowu wzorem:
OWf(x,s) = fOW(x) = rand{ Pf(x,s)= }, f: XX,
gdzie rand oznacza operator losowego wyboru elementu ze zbioru X.
Losowe rozwiązanie problemu wielokryterialnego z opcją zerową x0 to dowolny losowo
wybrany element ze zbioru wartości rezolwenty Pareto. Alternatywą dla rozważania
rozwiązania losowego jest traktowanie całego zbioru Pf(x,s) jako rozwiązania problemu.
Klasyczny opis tej sytuacji zadają: liczba charakterystyk decyzji n, zbiór warunków gi(x)≤bi dla i=1,2,…r na dopuszczalność zmiennych decyzyjnych, liczba kryteriów oceny decyzji m wektorowa funkcja celu f:X=RnY=Rm, określająca wektor
y=f(x) ocen decyzji x, czyli:
 y1 (x)  f 1 (x) 
 x1 
 2

 2
x
y (x )  f m (x )  .
f
y(x)  
x    


 

 m

 n
m
 y ( x )  f ( x )
 x 
Zadanie (matematycznej) optymalizacji wielokryterialnej polega na jednoczesnej
maksymalizacji składowych fj wektorowej funkcji celu f:
 f 1 (x ) 
 2 
f (x)   V-max.
f (x)  
  
 m 
 f ( x )
Ocenę f(x) rozwiązania dopuszczalnego x nazywa się niezdominowaną, jeśli nie
istnieje inne, różne od niego, rozwiązanie dopuszczalne x’, z niemniejszymi składowymi oceny f(x’). Rozwiązanie o niezdominowanej ocenie nazywa się sprawnym.
Zbiorem rozwiązań problemu optymalizacji wielokryterialnej jest zbiór XE rozwiązań
sprawnych. W zaproponowanej tu unifikującej terminologii, zbiór rozwiązań sprawnych to wartość operatora rezolwenty Pareto.
Ponieważ trudno jest zaakceptować losowy wybór rekomendacji nawet, jeśli nie istnieje rekomendacja bardziej korzystna, więc skonstruowano wiele metod wyznaczenia
jednoznacznej rekomendacji spośród zbioru rozwiązań sprawnych, m.in.: optymalizację
funkcji kompromisu, optymalizację leksykograficzną, celową, hiperboliczną i minimaksową [Por.: Galas i in. 1984; Steuer 1986]. Istota tych metod polega na uwzględnieniu
dodatkowej informacji do wzbogacenia struktury problemu w sposób pozwalający na
jego transformację do problemu jednokryterialnego i jego optymalizacji. Pojawienia się
tych metod i fakt, że prowadziły one do różnych rekomendacji spowodowało zainteresowanie etapem D oraz E cyklu decyzyjnego i doprowadziło do zainteresowania interaktywnymi procesami podejmowania decyzji, które są przedmiotem następnego paragrafu.
126
Tomasz Szapiro
4.3. Interaktywne procesy podejmowania decyzji wielokryterialnych
Dla uproszczenia prezentacji rozważymy sytuację, kiedy interaktywny proces decyzyjny prowadzi do zmian zbioru dopuszczalnych działań i kryteriów oceny. Nadal
rozważamy także problem bez niepewności i stosujemy, wprowadzony wcześniej, opis
zunifikowany odmiennie niż propozycja [Por.: Luque i in. 2007, 2008] dotycząca nieliniowych procesów wielokryterialnych.
Rozważamy ciąg zestawów tMOLP, tMOLP={T,EtS,EtX,EtY,ft,t,t}={Tt,Xt,ft,St,tOW}
elementów strukturalnych problemów wielokryterialnych ze wspólnym zbiorem iteracji Tt={t1,t2,…}={1,2,…}N. Zestawy te interpretujemy jako kolejne próby restrukturyzacji problemu decyzyjnego.
Niech dana będzie opcja zerowa x0X0. Niech xk+1=kOW(xk) będzie rekomendacją
otrzymaną przy pomocy operatora rezolwenty kOW. Niech ponadto będzie określony ciąg odwzorowań Rk, Rk:, które przekształcają pewną rodzinę  podzbiorów RN zawierającą X, w rodzinę  podzbiorów tej przestrzeni. Niech X0=X oraz
X(k+1)=Xk+1=Rk(Xk), gdzie X jest zadany jak w przykładzie, w poprzednim paragrafie. Odwzorowania Rk, Rk:, interpretujemy jako restrukturyzacje zbioru decyzji, dopuszczalnych w kolejnych iteracjach procesu podejmowania decyzji w wyniku
pozyskania informacji od decydenta. Aby nie komplikować zapisu, przyjmujemy, że
proces restrukturyzacji nie obejmuje ocen.
Ciąg wartości operatorów rezolwenty Pareto kP, kP:X(k)2X(k+1) reprezentuje
kolejne zbiory rekomendacji, zaś ciąg wartości operatorów rezolwenty xk=kOW(k-1OW),
kOW:X(k)X(k) – reprezentuje ciąg rekomendacji losowych. Do ciągu tego stosują
się, wprowadzone wcześniej, twierdzenia 2.1 – 2.3 formułujące warunki zbieżności.
Wniosek 4.1.
–
Jeśli ciąg rekomendacji xn jest ciągiem zbieżnym oraz decydent posiada regułę
stopu :X×X{0,1}, dla której potrafi określić próg  preferencyjnej nierozróżnialności działań x’ oraz x”, tzn. d(x’,x”)<  (x’,x”)=1, to proces decyzyjny jest psychologicznie zbieżny w skończonej liczbie kroków.
Jak wiemy, jeśli decydent nie potrafi określić progu preferencyjnej nierozróżnialności, ale wiadomo, że taki próg istnieje, to można dowolnie problem dokładnie
aproksymować w sensie psychologicznym.
Wniosek 4.2.
–
Jeśli dla danego ciągu zestawów elementów strukturalnych t z operatorami
rezolwenty zachowującymi preferencje proces decyzyjny strukturyzuje nieskutecznie i jest zbieżny, zaś decydent posiada regułę stopu :Xt×Xt{0,1}, dla
której istnieje próg preferencyjnej nierozróżnialności działań, to problem decyzyjny
posiada rozwiązanie, które można dowolnie dokładnie aproksymować problemem
o tym samym zestawie elementów strukturalnych , który jest psychologicznie
zbieżny.
Iterowane cykle decyzyjne – próba opisu zunifikowanego
127
Wniosek 4.3.
–
Jeśli dla danego ciągu zestawów elementów strukturalnych t z operatorami rezolwenty zachowującymi preferencje proces decyzyjny jest ustrukturyzowany nieskutecznie i jest zbieżny silnie, to problem decyzyjny posiada
rozwiązanie.
Wniosek 4.4.
–
Jeśli dla danego ciągu zestawów elementów strukturalnych t z operatorami rezolwenty zachowującymi preferencje proces decyzyjny jest ustrukturyzowany nieskutecznie i jest zbieżny silnie oraz decydent posiada regułę
stopu :EX×EX{0,1}, to proces decyzyjny jest psychologicznie zbieżny
w skończonej liczbie kroków.
Powyższe wnioski dowodzą, że warunki wystarczające dla istnienia skończonych
procesów podejmowania decyzji wymagają zgodności operatora rezolwenty z preferencjami oraz określania progu preferencyjnej nierozróżnialności.
Definicja operatorów rezolwenty jest związana ze wspomnianym wcześniej etapami:
A, B i C cyklu decyzyjnego, a więc procesów identyfikowania potrzeb, działań i sposobów ich oceny. Wymagają one uwzględnienia interaktywności – sprzężenia pomiędzy
rekomendacjami w kolejnych cyklach decyzyjnych i wpływu ich oceny na strukturę
problemu w iteracji następnej. Istnieje wiele propozycji konstruowania rekomendacji
wykorzystujących operator rezolwenty [Por. m.in.: przegląd Szapiro 1991]. Klasyczne
zintegrowane sformułowanie dla podejść interaktywnych podali Gardiner i Steuer
[Gardiner, Steuer 1994]. W propozycjach tych konstrukcja operatorów gwarantuje
zgodność z preferencjami decydenta oraz prowadzi do zbieżności psychologicznej procesów decyzyjnych, które mogą być reprezentowane przy ich pomocy. W szczególności
procedura dwureferencyjna Michałowskiego i Szapiro [Michałowski, Szapiro 1992] prowadzi do silnej zbieżności takiego procesu [Por.: Szapiro 1993a], i może stanowić punkt
wyjścia do analizy problemów nieliniowych [Por.: Luque i in. 2010].
5. Podsumowanie
Podane przykłady nie wyczerpują listy struktur, które można unifikować poprzez
specyfikację zestawu elementów strukturalnych. Ze względu na brak miejsca, pominięto
np.: decyzje sekwencyjne (drzewa decyzyjne), wieloatrybutową teorię użyteczności, optymalizację stochastyczną i problemy z opisem niepunktowym (wykorzystujące w modelowaniu zbiory przybliżone). Dla każdego z nich można zdefiniować elementy strukturalne. Ich szczegółowe opisy będą przedmiotem innych tekstów. Warto odnotować,
że w każdym z tych przypadków stosują się twierdzenia o zbieżności procesu decyzyjnego.
Pojęcia wprowadzone w niniejszym tekście pozwalają sformułować dwa interesujące
kierunki badań. Pierwszym jest aksjomatyzacja podejścia zunifikowanego i próby sformułowania własności procesów decyzyjnych spełniających zadaną aksjomatykę. Kierunek drugi to konkretyzacja zunifikowanego procesu decyzyjnego dla nowych zastosowań. Warto odnotować, że każda taka konkretyzacja może prowadzić do nieoczywiste-
128
Tomasz Szapiro
go problemu sprawdzenia założeń sformułowanych tu twierdzeń. Innym ciekawym kierunkiem badań jest włączenie do, podanego w pracy, schematu unifikującego modele
procesu decyzyjnego wyników: Keller, Ho, Winn, Smitha i Keeneya dotyczących procesu strukturyzacji (a zwłaszcza identyfikacji działań i ich ocen). Wydaje się, że naturalną
drogą do tego celu jest wykorzystanie modeli automatycznego generowania wiedzy
[Por.: Mitchell 1997; Witten 2005].
Literatura
Ghiglieri M.P. 2001 Ciemna strona człowieka. W poszukiwaniu źródeł męskiej agresji, Warszawa.
Galas Z., Nykowski I., Żółkiewski Z. 1987 Programowanie wielokryterialne, Warszawa.
Gardiner L.R., Steuer R.E. 1994 Unifed interactive multiple objective programming, „European
Journal of Operational Research”, 74(3), 1994.
Grabowski W. 1982 Programowanie matematyczne, Warszawa.
Hastie R., Dawes R.M. 2010 Rational Choice in an Uncertain World: The Psychology of Judgment
and Decision Making, Sage.
Janis I. 1972 Victims of groupthink; a psychological study of foreign-policy decisions and fiascoes, Boston.
Kaliszewski I. 2008 Wielokryterialne podejmowanie decyzji, Warszawa.
Keeney R. 1994a Creativity in decision making with value-focused thinking, „Sloan Management
Review”, Vol. 35.
Keeney R. 1994b Using Values in Operations Research, „OR Forum”, Vol. 42, No. 5.
Keller L.R., Ho J.L. 1988 Decision Problem Structuring: Generating Options, „IEEE Transactions on System, Man and Cybernetics”, vo. 18, No. 5.
Kocak N.A, Jones P. 2002 Road User Charging: Tool for Option Generation to Increase Acceptability, Cambridge.
Lindley D.V. 1986 The Reconcillation of Decision Analysis, „Operations Research”, Vol.
34, No. 2.
Luque M., Ruiz F., Miettinen K. 2007 GLIDE – General Formulation For Interactive Multiobjective Optimization, „Helsinki School of Economics Working Paper”, Nr W-142.
Luque M., Ruiz F., Miettinen K. 2008 Global Formulation For Interactive Multiobjective Optimization, „OR Spectrum”, [Dokument elektroniczny, tryb dostępu: http://dx.doi.org/
/10.1007/s00291-008-0154-3].
Luque M., F. Ruiz, R.E. Steuer 2010 Modifed Interactive Chebyshev Algorithm (MICA) for
Convex Multiobjective Programming, „European Journal of Operational Research”,
vol. 204, issue 3.
Maslow A. 1943 A Theory of Human Motivation, „Psychological Review”, Vol. 50,.
Metody wielokryterialne na polskim rynku finansowym, (red.) T. Trzaskalik, Warszawa, 2006.
Michałowski W., Szapiro T. 1992 A Bi-Reference Procedure for Interactive Multiple Criteria
Programming, „Operations Research”, T. 40, Nr 2.
Mitchell T. 1997 Machine Learning, McGraw Hill.
Simon H. 1986 Rationality in Psychology and Economics, „Journal of Busines”, Vol. 59, No. 4.
Iterowane cykle decyzyjne – próba opisu zunifikowanego
129
Simon H. 1983 Alternative Vions of Rationality, Chapter 8 in: Reason In Human Affairs,
Stanford University Press.
Smith G.F. 1998 Towards a Heuristic Theory of Problem Structuring, Management Science,
Vol. 34, No. 12.
Steuer R.E. 1986 Multiple Criteria Optimization: Theory, Computation and Application, New
York.
Szapiro T. 1993a Convergence of the Bi-Reference Procedure in Multiple Criteria Decision Making,
„Ricerca Operativa”, t. 23, nr 66.
Szapiro T. 1993b Co decyduje o decyzji, Warszawa.
Szapiro T. 1991 Podejście interaktywne we wspomaganiu podejmowania decyzji, Monografie i Opracowania, Warszawa.
Winn, M., Keller L.R. 2001 A Modeling Methodology for Multiobjective Multistakeholder Decisions. Implications for Research, „Journal of Management Inquiry”, Vol. 10 No. 2, 2001.
Witten I.H., Frank E. 2005 Data Mining: Practical Machine Learning Tools and Techniques
(Second Edition), Morgan Kaufmann.
Wojciszko B. 2000 Relacje interpersonalne, [w:] Psychologia. Tom III, (red.) J. Strelau, Gdańsk.
Yu P.-L. 1991 Habitual Domains, “OR Forum”, Vol. 39, No. 6.
Yu P.-L. 1985 Multiple-Criteria Decision Making, New York.
OPTIMUM. STUDIA EKONOMICZNE NR 4 (48) 2010
Krzysztof BARTECZKO, Andrzej F. BOCIAN1
MODELOWANIE MAKROEKONOMICZNE –
POTRZEBY I DYLEMATY2
Streszczenie
Artykuł jest głosem w dyskusji na temat uwarunkowań budowy i zastosowania modeli makroekonomicznych. Konstrukcję makromodeli determinują trzy elementy: teoria ekonomii, w ramach której są
tworzone; dostępne techniki modelowania oraz zbiory wiarygodnych danych liczbowych. Stosowanie
makromodeli wynika z potrzeb polityki gospodarczej, a ich struktura jest determinowana przez konkretne
wyzwania bieżące i przyszłe, związane z tworzeniem strategicznych wizji rozwoju gospodarczego.
W artykule zwrócono również uwagę na dynamikę procesów globalizacyjnych, które w połączeniu
z efektami światowego kryzysu 2007-2009 wyznaczają nowe uwarunkowania dla twórców modeli makroekonomicznych.
Artykuł został wzbogacony przykładowymi konstrukcjami modelowymi oraz wskazaniami dotyczącymi wykorzystania technik modelowych w procesie podejmowania decyzji makroekonomicznych.
Słowa kluczowe: teoria wzrostu, makroekonomia, modelowanie, globalizacja, kryzys światowy, polityka gospodarcza
MACROECONOMIC MODELLING – NEEDS AND DILEMMAS
Summary
The article is a comment in a discussion on conditions concerning design and usage of macroeconomic
models. Building of macromodels is determined by three elements: theory of economics, within the scope of
which they are built, accessible modelling techniques, and sets of reliable numerical data. The use of
macromodels results from the guidelines of economic policy, and their structure is determined by concrete
current and future challenges connected with creating of strategic visions of economic development.
In the article, the authors also highlight the dynamic of globalization processes which, together with the
effects of the global crisis of the period 2007-2009, provide new perspectives for creators of macroeconomic
models.
In addition, the article provides numerous examples of model constructions and recommendations
concerning utilization of model techniques in the process of making macroeconomic decisions.
Keywords: theory of growth, macroeconomy, modelling, globalization, global cisis, economic policy
1 Dr Krzysztof Barteczko jest pracownikiem Polsko-Japońskiej Wyższej Szkoły Technik Komputerowych w Warszawie. Prof. dr hab. Andrzej F. Bocian jest pracownikiem Wydziału Ekonomii i Zarządzania Uniwersytetu w Białymstoku.
2 W artykule wykorzystano fragmenty z przygotowywanej do wydania przez Wydawnictwo Uniwersytetu w Białymstoku książki pt. Prognozowanie i symulacje procesów gospodarczych.
Modelowanie makroekonomiczne – potrzeby i dylematy
131
1. Modele i teorie wzrostu
Teoria wzrostu gospodarczego ma długą historię za sobą i prawdopodobnie
jeszcze dłuższą historię przed sobą, bowiem ciągle przybywają nowe tematy do dyskusji oraz ujawniają się zagadnienia dotychczas nie nierozpoznane [Por.: Barro 1997;
Romer 2000]. Zwłaszcza dynamicznie rozwijające się procesy integracyjne i globalizacyjne powodują wzbogacenie listy tematów do rozpoznania o nowe zagadnienia. Ta
postępująca złożoność świata i potęgująca się wielowymiarowość gospodarki wymaga
nowych ujęć modelowych i nowych teorii. Po takim stwierdzeniu, trzeba jednak zadać
następne pytanie – czy rzeczywiście istniejące modele i teorie makroekonomiczne nie
nadają się do badania aktualnych procesów gospodarczych. Czy wraz z dynamiką procesów globalizacji postępująca dominacja struktur finansowych nad strukturami procesów realnych wymusza inny warsztat modelowania makroekonomicznego. Jeżeli próbujemy tworzyć modele, które można by zastosować do współczesnych gospodarek – gospodarek, których główną funkcją jest generowanie zmian przez opracowanie i wdrażanie innowacji oraz doskonalenie innowacji już dostępnych – to przeczeniem samemu sobie byłoby przyjęcie postulatu racjonalnych oczekiwań, głoszącego, że każda zmiana mająca zajść w przyszłości jest już przewidywalna
i znana, że nadchodząca zmiana jest w pewnym sensie ustalona z góry. Niemniej jednak współcześni
ekonomiści, budując swoje modele, przyjmują racjonalne oczekiwania, nie zdając sobie sprawy z tej
sprzeczności lub ignorując ją: albo wykluczają zmianę w świecie (świecie, który opisywałby ich model)
w ogóle, albo zakładają, że wszelkie zmiany, które mogłyby zajść, można włączyć do modelu w sposób
z góry całkowicie zdeterminowany. Słowa te napisał Edmund S. Phelps we wstępie do ważnej książki Ekonomia wiedzy niedoskonałej [Zob.: Frydman, Goldberg 2009]. Symbolika
tytułu tej książki jest znamienna. Jej autorzy poszukują nowego podejścia do modelowania makroekonomicznego, odchodząc od teorii racjonalnych oczekiwań i ekonomii behawioralnej. Ekonomia niedoskonałej wiedzy skupia uwagę na zmianach
jakościowych, a nie ilościowych prawidłowościach, przy czym autorzy w konstruowanych modelach analizują nierutynowe decyzje i nieprzewidywalne zmiany w kontekście społecznym. Ponadto, autorzy akcentują fakt, że wiedza uczestników rynku
i twórców polityki jest niedoskonała, a stosowanie stałych reguł polityki powinno być
filtrowane przejściem z jednej struktury gospodarki do innej.
Prowadząc rozważania na powyższe tematy, trzeba pamiętać o wielości teorii ekonomicznych i jeszcze większej ilości i różnorodności modeli makroekonomicznych, ponieważ każdy model jest, bądź powinien być, zanurzony w jakiejś teorii ekonomicznej. Pytanie, czy dana teoria jest prawdziwa czy fałszywa kieruje rozważania na fałszywy
trop. Mówimy przecież o teoriach sfalsyfikowanych, a wówczas żadna z nich nie jest
fałszywa. Lepiej zatem prowadzić dyskusję w obszarze dominujących paradygmatów.
Bierze się wtedy pod uwagę te teorie makroekonomiczne (i te modele), które wpływają na kształt realizowanej polityki gospodarczej. Wtedy zbiór teorii ulega mocnym
ograniczeniom, a dla wielu autorów jest to tylko keynesizm i ekonomie nurtu neoliberalnego.
Każdy model jest uproszczonym odwzorowaniem rzeczywistości, skonstruowanym w języku określonej teorii i przyjętych technik modelowania. Oczywiście w kryteriach klasyfikacyjnych modeli można wyróżnić jeszcze takie cechy, jak: czas, zakres
132
Krzysztof Barteczko, Andrzej F. Bocian
i dziedziny modelowania oraz miejsce i rola procesu modelowania w strukturach decyzyjnych głównych aktorów polityki gospodarczej. Punktem wyjścia tych podziałów
jest także poziom aplikacji danego modelu.
Identyfikacja i kwantyfikacja czynników wzrostu oraz poszukiwanie przyczyn, które
powodują, że jedne kraje mają szybszą, a inne wolniejszą dynamikę wzrostu i poprawy dobrobytu z roku na rok, zastanawiał, i niepokoił, badaczy poszczególnych szkół
myśli ekonomicznej prawie od zawsze. Obecnie jest to tym ważniejsze, że na rozwiązanie tych kwestii niecierpliwie czekają politycy gospodarczy, próbujący szukać
optymalnych ścieżek rozwojowych dla swoich krajów.
Modele wzrostu są budowane na podstawie funkcji produkcji, w której kategoria
produktu jest objaśniana trzema zmiennymi: kapitałem, siłą roboczą oraz postępem
technicznym lub „wiedzą”. Większość modeli wzrostu bądź makromodeli strukturalnych, które powstały w ciągu ostatnich pięćdziesięciu lat, wykorzystuje właśnie formułę funkcji produkcji [Por.: Welfe, Welfe 1996].
Modele wzrostu gospodarczego można także podzielić na modele egzogeniczne
i endogeniczne.
Egzogeniczne modele wzrostu są nazywane także modelami neoklasycznymi lub
podażowymi. W tych modelach jest przyjmowane założenie, że istniejące czynniki produkcji są w pełni wykorzystywane oraz że nie ma ograniczeń popytowych. Modele
te opisują długookresowy i zrównoważony wzrost gospodarczy, którego stopa jest określona przez egzogeniczną stopę postępu technicznego. Do modeli typu egzogenicznego zalicza się modele: Solowa, Mankwina, Romera i Weila.
W endogenicznych modelach wzrostu gospodarczego przyjmuje się, że postęp techniczny (który jest reprezentowany przez: akumulację, wiedzę naukowo-techniczną i kapitał ludzki) jest efektem decyzji inwestycyjnych konsumentów i producentów oraz
państwa. W modelach tych przyjmuje się założenie o endogenicznym charakterze stopy
postępu technicznego.
Model R. Solowa praktycznie leży u podstaw każdej analizy wzrostu. W modelu
Solowa wyróżnia się trzy czynniki, które oddziałują na wzrost: postęp techniczny (reprezentowany przez stopę wzrostu ogólnej produktywności czynników wytwórczych),
akumulacja kapitału i nakłady pracy. Nakłady pracy i kapitału są mierzalne, natomiast produktywność czynników wytwórczych nie można bezpośrednio powiązać
z żadnym czynnikiem produkcji [Zob.: Solow 1957].
Oderwanie się od myślenia w kategoriach kanonów modelu Solowa stanowi
punkt wyjścia do nowej teorii wzrostu. W ujęciach tej teorii postęp techniczny ma charakter endogeniczny, proces inwestowania w akumulację wiedzy uznaje się za niezwykle
ważny, zaś kapitał ludzki odgrywa kluczową rolę w procesie wzrostu. Stanowi to wyjście
poza sferę realną w relacjach przyczynowo-skutkowych opisujących równanie wzrostu
oraz zawiera poszerzoną interpretację kapitału o kapitał ludzki [Por.: Romer 2000].
Rola kapitału niematerialnego (intelektualnego) w nowej gospodarce – gospodarce, w której decydującą rolę odgrywa wiedza – tworzy ważny przyczynek do dyskusji o czynnikach wzrostu. Oznacza to, że kapitał ludzki reprezentowany przez: wiedzę, doświadczenie, umiejętność kreatywnego myślenia i działania, zdolność do współpracy jest czynnikiem determinującym dynamikę wzrostu. Oczywiście, jeżeli rozpatru-
Modelowanie makroekonomiczne – potrzeby i dylematy
133
je się problem z punktu widzenia makroekonomicznego, kapitał ten musi być związany
z różnymi strukturami wytwórczymi, a szerzej, z określoną strukturą gospodarczą. Powyższe procesy należy zatem postrzegać w kontekście zmian dokonujących się w strukturach gospodarczych, a przede wszystkim w strukturze tworzenia produktu narodowego (zmiana proporcji udziału rolnictwa, przemysłu i sfery usług w wytwarzaniu PKB)
i w strukturach zatrudnienia.
Tradycyjna funkcja produkcji pozwalała na osiąganie wzrostu, dysponując tylko
kapitałem i pracą. Funkcja produkcji, uwzględniająca kapitał wiedzy i umiejętności,
wskazuje, że ekonomiki dysponujące skromnymi zasobami kapitałowymi mają także
szansę na rozwój. Podstawowym warunkiem jest jednak nowoczesność gospodarki
i jej łatwa adaptacyjność do zmian.
Podejście popytowe jest rekomendowane przez ekonomię nurtu keynesowskiego. J.M. Keynes podkreślił znaczenie zagregowanego popytu w wahaniach makroekonomicznych. Natomiast podejście podażowe jest proponowane przez ekonomię
klasyczną i ekonomię nurtu liberalnego.
Powstanie teorii J.M. Keynesa w latach trzydziestych XX wieku, w okresie wielkiego
kryzysu światowego, dało początek makroekonomii i stworzyło teoretyczne podstawy
polityki interwencjonizmu państwowego w gospodarce konkurencyjnej [Por.: Keynes
1985].
J.M. Keynes zakwestionował mechanizmy samoregulacji rynkowej, które miałyby zapewnić stan równowagi na rynkach cząstkowych. Stąd konieczność ingerencji
państwa w procesy gospodarcze i pełnienia przez państwo roli stabilizacyjnej. Stan nierównowagi – dotyczący równoważenia poziomu oszczędności i poziomu inwestycji
– jest związany z pojęciem krańcowej skłonności do konsumpcji (która jest relacją przyrostu konsumpcji do przyrostu dochodów). Stały wzrost dochodów na mieszkańca
wywołuje zmniejszanie się psychologicznej skłonności do konsumpcji – w ten sposób
następuje szybszy wzrost oszczędności niż konsumpcji, a gdy w gospodarce występuje
nadmiar kapitału – wówczas nie wszystkie oszczędności przekształcają się w inwestycje.
Szkoła keynesowska w swojej działalności położyła nacisk na analizę agregatową
popytu globalnego. Zwiększenie popytu globalnego przyspiesza tempo wzrostu i ogranicza bezrobocie. Polityka gospodarcza, skierowana na pobudzenie wzrostu globalnych
wydatków, doprowadza do wzrostu popytu konsumpcyjnego, następnie stopy inwestycji oraz przyrostu popytu efektywnego i wzrostu zatrudnienia, co w efekcie wywołuje rozwój gospodarczy. Państwo steruje globalnym popytem, wykorzystując narzędzia polityki fiskalno-budżetowej i polityki pieniężnej.
Nurty ekonomii liberalnej w wolnym rynku i ograniczeniu wpływu państwa na
gospodarkę upatrują główne źródło osiągania stabilności we wzroście.
Monetaryści uważają, że gospodarka jest stabilna w długim okresie, jeśli państwo
nie zakłóca funkcjonowania rynku, a w polityce gospodarczej decydującą rolę spełnia polityka pieniężna. Głównym celem polityki gospodarczej powinno być ograniczanie inflacji i zapewnienie stabilności cen [Por.: Landreth, Colander 1998].
Przedstawiciele kierunku ekonomii racjonalnych oczekiwań (R. Lucas, G. S. Becker
i inni) zakładają, że ludzie formułują swoje oczekiwania co do przebiegu procesów
134
Krzysztof Barteczko, Andrzej F. Bocian
ekonomicznych, opierając się na dostępnej wiedzy i że nie popełniają w swych decyzjach systematycznych błędów. Polityka gospodarcza powinna uwzględniać fakt,
że jednostki potrafią zrozumieć intencje realizatorów polityki i odpowiednio szybko
zareagować. Zakłócenia gospodarcze są równoważone przez reakcje dostosowawcze uczestników rynku. Rola polityki gospodarczej jest ograniczona, ponieważ podmioty gospodarcze podejmują decyzje na podstawie wielkości realnych i nie dokonują
błędnych wyborów przy formułowaniu oczekiwań dotyczących kształtowania przyszłych procesów gospodarczych. Polityka gospodarcza powinna zatem utrzymywać
stabilne ceny oraz stymulować podażową stronę gospodarki.
2. Funkcje i rola modelowania polityki makroekonomicznej
Przyjmując szeroką definicję polityki gospodarczej oraz szeroką interpretację polityki makroekonomicznej, proces formułowania tej ostatniej można schematycznie
podzielić na szereg wzajemnie powiązanych etapów:
A. Diagnozowanie i identyfikacja sytuacji problemowych.
B. Formułowanie głównych celów polityki, wynikających z długookresowych
ustaleń strategicznych i bieżącej diagnozy.
C. Formułowanie założeń w odniesieniu do warunków, w jakich będzie odbywać
się realizacja polityki.
D. Formułowanie celów pośrednich, wynikających ze zderzenia celów głównych
z antycypowaną dynamiką warunków realizacyjnych.
E. Formułowanie zasad działania.
F. Określenie zestawu składowych polityk złożonych i terminalnych, niezbędnych do realizacji poszczególnych celów w przewidywanych warunkach i przy
respektowaniu przyjętych zasad działania.
G. Dobór odpowiednich instrumentów i działań w ramach każdej z polityk składowych.
Proces ten jest iteracyjny: zaczyna się być może od szkicowego „wypełnienia” każdego z etapów, po czym założenia i hipotezy są konkretyzowane i weryfikowane za
pomocą odpowiednich analiz.
Modelowanie ekonomiczno-matematyczne traktujemy jako jedno z narzędzi analitycznych, wspomagających zarówno tworzenie, jak i weryfikację założeń „etapowych”
w wyżej naszkicowanym procesie. Jest to również instrument całościowego badania
konsekwencji założeń ostatecznie sformułowanej polityki. Ogół zastosowań modeli
w tych obszarach będziemy nazywać modelowaniem polityki makroekonomicznej.
Dlaczego jednak w ogóle warto stosować modelowanie w tego rodzaju analizach?
Rzecz w tym, że modele umożliwiają swoistą syntezę rozproszonej i heterogenicznej
informacji, a także dostarczają informacji nowej, a priori nie znanej. Pozwalają na
uwzględnienie w analizie znacznie większej ilości sprzężeń gospodarczych niż rozumowanie jakościowe. Formalizm konstrukcji modelowych wymusza jasne i klarowne precyzowanie założeń i hipotez, które leżą u podstaw analiz. Ma to niebagatelne
znaczenie dla weryfikacji ich wyników oraz rozumienia i doskonalenia procesu ana-
Modelowanie makroekonomiczne – potrzeby i dylematy
135
lityczno-studialnego. W istocie, każde rozumowanie o gospodarce posługuje się jakimś jej modelem. Wydobycie go „na światło dzienne” w postaci sformalizowanej
konstrukcji warunkuje możliwość oceny i doskonalenia przyjętego schematu rozumowania, stając się tym samym niezbędnym warunkiem „uczenia się” całego procesu formułowania polityki makroekonomicznej.
Szczególną użyteczność modelowanie ekonomiczno-matematyczne może wykazać w pracach związanych z: etapami diagnozowania, identyfikowania warunków, określania celów oraz doboru instrumentów i działań.
W fazie diagnostycznej jest istotne rozpoznanie sposobu funkcjonowania oraz stanu
gospodarki. Pomagają w tym behawioralne modele opisowe, zawierające wyjaśnienie
sposobu funkcjonowania gospodarki w kategoriach przyczynowo-skutkowych sprzężeń
zmiana-reakcja. Są one również pomocne w przezwyciężaniu barier informacyjnych,
związanych z brakiem wielu niezbędnych informacji statystycznych (w ujęciu kategorialnym) oraz małą mocą zbiorów porównywalnych danych (w ramach rejestrowanych w statystyce kategorii). Estymowanie nieobecnych w statystyce parametrów, odzwierciedlających ważne zjawiska ekonomiczne, jest przecież zdobywaniem informacji.
Ta rola modeli opisowych jest szczególnie ważna w obecnym stanie statystyki polskiej.
W fazie antycypacji warunków realizacji polityki będą pomocne modele prognostyczne. Modele te pozwalają na formułowanie dość wiarygodnych prognoz, pod warunkiem jednak, że z pomocą technik ekonometrycznych dokonano adekwatnego
rozpoznania postaci i parametrów zależności gospodarczych, oraz że rozpoznanie to,
bazujące przecież na przeszłości, można bez większych obaw przenosić w przyszłość.
Również w fazie doboru instrumentów powinny być stosowane głównie modele
behawioralne, zawierające zależności pomiędzy badanymi instrumentami a kształtowaniem się procesów gospodarczych. Należy jednak pamiętać, że wyjaśnienie sposobu funkcjonowania gospodarki (opis obecnych lub przyszłych reakcji bardziej lub
mniej agregatowo traktowanych podmiotów gospodarczych) jest niezwykle trudne.
O jego zgodności z rzeczywistością nie rozstrzyga do końca ani żadna ze znanych
(i – dodajmy – konkurencyjnych) teorii ekonomicznych, ani najbardziej nawet zaawansowane testy statystyczne. Konstrukcja modelu behawioralnego jest więc zawsze tylko
pewną hipotezą co do sposobu funkcjonowania gospodarki, szczególnie niepewną,
gdy rozpatruje się ją w stosunku do przyszłości. Dlatego analizy wykonywane za pomocą tych modeli powinny mieć charakter raczej symulacyjny niż prognostyczny.
Prognoza mówi nam o tym, jak najprawdopodobniej ukształtuje się sytuacja gospodarcza w przyszłości. Natomiast eksperymenty symulacyjne przeprowadzamy
po to, by określić, jakie mogą być konsekwencje przyjętych w danym eksperymencie
założeń o zmianach (np. podstawowych parametrów polityki makroekonomicznej).
Jest to swoista analiza przyszłych stanów możliwych gospodarki, niekoniecznie precyzująca, które z tych stanów są bardziej prawdopodobne niż inne. Rezultaty takiej
analizy modelowej sprowadzają się mniej więcej do stwierdzeń typu: Jeżeli warunki
ukształtują się tak i tak, sposób funkcjonowania gospodarki będzie się zmieniał tak i tak, wówczas analizowana polityka makroekonomiczna przyniesie takie a takie efekty.
136
Krzysztof Barteczko, Andrzej F. Bocian
Symulacyjne podejście do modelowania polityki makroekonomicznej zakłada
jawne specyfikowanie założeń oraz wariantowość analiz. Jest przy tym ze wszech miar
pożądane, by taka jawna specyfikacja oraz wariantowość dotyczyły możliwie pełnego zestawu przyjmowanych – zarówno przy konstrukcji modelu, jak i przy pracy
z nim – założeń. Jawna specyfikacja założeń i wariantowość analiz sprzyja rozumieniu
wyników modelowania i może być ważnym warunkiem stosowalności modelu.
Jednocześnie jednak warianty symulacji wymagają pozamodelowego opracowania – po to, by w gąszczu założeń i wyników dostrzec zagrożenia i szanse, by właściwie je interpretować. Konieczne jest zatem: planowanie eksperymentów symulacyjnych, tworzenie odpowiednich schematów analitycznych i syntetycznych, swoistych procedur iteracyjnego wyszukiwania inspirujących, nowych informacji.
Natomiast w dwóch fazach określania celów polityki (głównych i pośrednich)
podstawowe zastosowanie znajdą modele predestynowane do rozwiązywania problemu selekcji, czyli poszukiwania odpowiedzi na pytania: Co chcemy osiągnąć? Ku jakim stanom ma zmierzać gospodarka?3 Będą to zazwyczaj modele makroekonomiczne,
akcentujące silniej rzeczowe aspekty procesów gospodarczych. Ich głównym zadaniem
jest zapewnienie spójności w doborze celów głównych i pośrednich, rozumianych
jako środki do realizacji celów głównych w zakładanych warunkach. Przy tym ważną
rolę do spełnienia będą miały modele decyzyjne, stosujące podejście normatywne, akcentujące pytanie: Jaki powinien być terminalny stan gospodarki i jaka niesprzeczna
sekwencja stanów pośrednich do niego prowadzi? W tym podejściu opis gospodarki
jest uzupełniony zależnościami typu aksjologicznego. Zależności te konstytuują raczej
strukturę problemu decyzyjnego niż strukturę modelu gospodarki. Mogą one znajdować się poza używanym modelem, określając np. kryteria selekcji wariantów eksperymentów symulacyjnych, lub też – formalnie – mogą być włączone w strukturę
modelu (np. w postaci kryteriów lub nierówności, wynikających z ustaleń aksjologicznych lub nawet z pragmatycznie pojmowanych wytycznych i ograniczeń polityki gospodarczej). Dodajmy do tego, że modele decyzyjne nie zawsze muszą służyć odnajdywaniu „najlepszego rozwiązania”, a sposób oceny wariantów może być bardzo różny
i uzależniony od stosowanych typów skal preferencji. Użyteczne są w modelowaniu
decyzyjnym techniki optymalizacyjne, ale ich stosowania nie należy kojarzyć z tzw. funkcjami celu gospodarki czy też społeczeństwa. Raczej należy je traktować jako narzędzia
rozwiązania problemów decyzyjnych, np. typu: Jakie warunki powinny być spełniane,
by minimalizować inflację lub by stopa bezrobocia nie przekraczała jakiegoś zadanego
poziomu? Dodajmy jeszcze, że modele decyzyjne wcale nie muszą korzystać z technik optymalizacyjnych, mogą to być np. modele symulacyjne, w konstrukcji których
umownie odwraca się wynikające z opisu gospodarki sekwencje przyczynowo-skutkowe.
3 Rozbicie ogólnego zagadnienia „namysłu nad przyszłością” na problem selekcji („co?”) oraz problem implementacji („jak?”) wprowadził po raz pierwszy R. Frisch. Zob.: [Frisch 1949; Reidel 1976]. Dodatkowych uzasadnień takiego rozbicia, zarówno z punktu widzenia uproszczenia konceptualnej przestrzeni analizy, jak i ze względów merytoryczno-metodologicznych dostarczył L. Johannes. Zob.: [Lectures on
Macroeconomic Planning 1978].
Modelowanie makroekonomiczne – potrzeby i dylematy
137
Kończąc omawianie funkcji i roli poszczególnych ogólnych klas modeli w procesie formułowania polityki makroekonomicznej, warto wyraźnie zasygnalizować,
że modele nie są ani automatami do rozwiązywania problemów, ani nie stanowią żadnych rozstrzygających wyroczni. Mówi się o modelach gospodarki, tymczasem są to
przecież zawsze modele (odzwierciedlenia) wyobrażeń o gospodarce. Wyobrażeń
bardziej lub mniej trafnych, opierających się na bardziej lub mniej od rzeczywistości
odległych teoriach, lepiej lub gorzej (ale nigdy w sposób ostatecznie rozstrzygający)
zweryfikowanych przez testy statystyczne i symulacyjne. Nawet jeśli przyjąć, że taki
czy inny model dość wiarygodnie odzwierciedla rzeczywistość, to przecież w pracach prognostycznych i projekcyjnych, prowadzonych z jego pomocą, posługujemy
się obrazem rzeczywistości nie istniejącej jeszcze, przyszłej i nie ma żadnych sposobów formalnego weryfikowania i udowadniania prawdziwości hipotez o niej.
Dlatego należy zawsze pamiętać o tym, że modele mogą być tylko narzędziami pomocniczymi w złożonym procesie analiz, w którym – niezależnie od formalnego zaawansowania technik modelowania – decydującą rolę odgrywają wciąż elementy rozumowania jakościowego, opartego na sztuce i intuicji analityka. Modele mogą mu pomagać, inspirować, ukazywać zaskakujące konsekwencje, prowokować do stawiania
nowych pytań, ale same nie rozwiązują żadnego problemu i nie stanowią rozstrzygającej
instancji w poszukiwaniu prawdy.
3. Strukturyzacja problemu modelowania polityki makroekonomicznej
Rozpatrując politykę makroekonomiczną jako zestaw polityk składowych, można zarysować następujące podejście do problemu strukturyzacji i klasyfikacji modeli
polityki makroekonomicznej. Zgodnie z szeroką jej definicją, będą się na nią składać
polityki złożone, używające jako swoistego budulca polityk terminalnych. Całościowy
model polityki makroekonomicznej będzie się więc w taki czy inny sposób składać
z modeli polityk złożonych, zawierających z kolei polityki terminalne.
Polityki złożone mają swe źródło w rozwiązywaniu konkretnych problemów. Zatem należy tu uwzględniać modelowy opis sfer problemowych.
Możliwe są dwa podejścia:
–
Wyselekcjonowanie sfer problemowych i budowa modelu dla ich analizy całościowej (będzie to wyspecjalizowany model makroekonomiczny, uwzględniający cały zestaw polityk złożonych).
–
Wyselekcjonowanie problemów w sposób względnie izolowany, dopasowanie
do każdego z nich jakiejś złożonej polityki i budowa kilku modeli dla analizy
każdego problemu z osobna – czyli budowa modeli polityk złożonych.
Jak wspomniano, podstawowym budulcem polityki złożonej są polityki terminalne. Warto więc rozpatrzyć również kwestie budowy modeli polityk terminalnych.
Modele te mogą mieć samodzielne znaczenie lub też mogą być zintegrowane w jednym modelu polityki złożonej.
Ich (nawet niech tylko logiczne) wyodrębnienie pozwoli na bardziej szczegółową analizę możliwości skonstruowania odpowiedniej polityki złożonej oraz bardziej
138
Krzysztof Barteczko, Andrzej F. Bocian
szczegółowego określenia, jakie postulaty (w kategoriach polityk terminalnych) ma
spełniać złożona polityka lub polityki, przeznaczone do rozwiązywania konkretnych
problemów.
Dla (logicznego) wyodrębnienia modeli polityk terminalnych należy rozpatrywać je
w sposób izolowany. Dla każdej z nich – przynajmniej w pewnym przybliżeniu i przy
jakiejś dozie arbitralności – można określić:
–
cele (kategoria pomocnicza o charakterze werbalno-jakościowym);
–
[M] mierniki powodzenia (zbiór kategorii o charakterze skutków bezpośrednich);
–
[U] zbiór kategorii charakteryzujących inne, prócz bezpośrednich, wyraźnie
występujące dla danej polityki, konsekwencje (skutki uboczne);
–
[I] instrumenty będące w gestii rządu;
–
[P] parametry polityki – kategorie nie będące bezpośrednimi instrumentami,
ale określające charakter polityki;
–
[W] zbiór kategorii istotnie wpływających na powodzenie polityki, ale nie będących ani skutkami, ani instrumentami (inaczej mówiąc – warunki realizacyjne).
Następnym krokiem jest określenie współzależności pomiędzy wspomnianymi
kategoriami. Na tej podstawie może być zbudowany teoretyczny schemat modelu
danej polityki terminalnej.
Ewentualna statystyczna weryfikacja otrzymanych zależności będzie służyć raczej
podbudowaniu, ilustracji teoretycznego schematu modelu, niż „prawdziwej” estymacji jego parametrów. Ta ostatnia jest przedsięwzięciem niezwykle trudnym w obecnych warunkach gospodarki polskiej, szczególnie gdy wchodzi się bezpośrednio w obszar zależności behawioralnych i funkcji reakcji podmiotów gospodarczych, co jest
nieuchronne przy rozpatrywaniu modeli polityk terminalnych.
Ideowy pełny schemat powiązań pomiędzy wyróżnionymi kategoriami w abstrakcyjnym modelu polityki terminalnej można przedstawić na rysunku 1.
RYSUNEK 1.
Źródło: [Barteczko, Bocian 2010].
Nie w każdej sytuacji i nie w każdym modelu uda się uwzględnić wszystkie te powiązania. W rezultacie schemat powyższy staje się pewnym wzorcem dla klasyfikacji
modeli polityk terminalnych. Możemy tu przykładowo wyróżnić następujące typy
modeli:
Modelowanie makroekonomiczne – potrzeby i dylematy
139
–
–
–
pełny dynamiczny – wszystkie powiązania schematu;
prosty instrumentalny;
bezpośrednio dynamiczny – bez 6-[U]-8-[W]4, pełny statyczny – bez sprzężeń zwrotnych 7 i 8;
–
parametryczny – bez [I]-l i [I]-3 (z ew. różnicowaniem dynamiczności).
Z kolei, ponieważ w modelach polityki złożonej można zawsze logicznie wyodrębnić modele polityk terminalnych, to powyższy schemat klasyfikacyjny można również stosować wobec modeli polityk złożonych lub nawet całościowych modeli polityki
makroekonomicznej.
Dla przykładu, wyodrębniając, w omawianym dalej, modelu SAS politykę cenowo-dochodową, można go pod tym względem zaliczyć do modelu typu: [[P]-2,[W]-4]6-[U]-[8]-[W], (parametryczny pośredni i pośrednio dynamiczny).
Trzeba wszakże pamiętać, że na politykę złożoną (oraz całościową politykę makroekonomiczną) będzie się składać coś więcej niż tylko zestaw polityk terminalnych
– mogą to być np. jakieś wyjątkowe bezpośrednie działania rządowe. Zawsze jednak
logiczne wyodrębnienie modeli polityk terminalnych będzie użyteczne zarówno w procesie weryfikacji modelu polityki makroekonomicznej, jak i w eksperymentach symulacyjnych, prowadzonych z jego pomocą.
4. Modele identyfikacji i weryfikacji spójności dynamicznych powiązań celów głównych i pośrednich polityki makroekonomicznej
Rozważmy klasę modeli decyzyjnych, których konstrukcja pozwala określać przyszłe
stany gospodarki, pożądane ze względu na jakieś kryteria. Kryteria te mogą być formułowane w różny sposób: jako minimalizacja lub maksymalizacja czegoś lub też jako
pewne ograniczenia na coś. Przykładowymi kryteriami może być minimalizacja inflacji
lub granicznej stopy bezrobocia, uzupełniona np. dodatkowymi kryteriami stabilności
gospodarki: równowagą zewnętrzną i ograniczeniem na deficyt budżetowy. Kryteria
tego typu wraz z behawioralnym opisem funkcjonowania gospodarki oraz założeniami
odnoszącymi się do warunków zewnętrznych konstytuują strukturę podstawowego,
wstępnego problemu decyzyjnego polityki makroekonomicznej. Zanim bowiem można
będzie się zastanawiać nad doborem polityk i instrumentów, warto wiedzieć po co
te polityki i instrumenty mają być stosowane. Innymi słowy, należy odpowiedzieć na
pytanie: Co robić najpierw?, nie tyle w kategoriach np. czystej polityki monetarnej czy
fiskalnej, ale w sensie określenia kierunku pożądanych – ze względu na takie czy inne
kryteria – zmian w gospodarce.
Jak wcześniej wspomniano, cele polityki makroekonomicznej powinny wynikać
z długofalowych celów strategicznych. Nie zawsze jednak taka strategia będzie opracowana, a nawet jeśli istnieje wyraźna wizja rozwojowa, to przy formułowaniu polityki makroekonomicznej zawsze pozostanie problem przekładu długofalowych ce4 Prosty oznacza tu – bez skutków ubocznych; instrumentalny – z pełnym sprzężeniem [I]-[P]-[M],
bezpośrednio dynamiczny – mający sprzężenie dynamiczne, idące od bezpośrednich skutków (mierników).
140
Krzysztof Barteczko, Andrzej F. Bocian
lów strategicznych na średnio- lub krótkookresowe cele polityki, uwzględniające bieżący
stan gospodarki i antycypację dynamiki warunków w jej otoczeniu. Stąd też użyteczność
tego rodzaju modeli w fazie identyfikacji i weryfikacji spójności celów głównych i pośrednich polityki makroekonomicznej.
Zagadnienie formułowania celów polityki w kategoriach: „Co robić?”, „Do jakich
zmian w stanie gospodarki dążyć?” – jak już wspomniano – nazywa się problemem selekcji, natomiast próba odpowiedzi na pytanie: „Jak te zmiany osiągać przy pomocy instrumentów polityki makroekonomicznej?” – jest nazywana problemem implementacji.
Można sobie oczywiście wyobrazić, że problemy te są rozwiązywane z pomocą jednego
modelu decyzyjnego. Jego struktura byłaby jednak niezwykle skomplikowana. Dlatego
postuluje się zwykle odrębne – choć oczywiście powiązane ze sobą – rozpatrywanie
obu tych problemów, przy pomocy różnych modeli.
Rodzaje i struktura modeli użytecznych dla rozwiązania problemu selekcji mogą być
bardzo różnorodne. Mogą to być modele optymalizacyjne lub symulacyjne (z odpowiednio zaplanowaną strukturą wariantowych eksperymentów), dynamiczne lub statyczne, strukturalne (uwzględniające w taki czy inny sposób zmiany struktur gospodarczych) lub silnie zagregowane, czysto popytowe lub też włączające elementy podażowe. Z tego względu trudno tu sformułować jakiś jeden schemat teoretyczny dla
tych modeli.
Wyróżniającą ich cechą będzie jednak akcentowanie rzeczowej (a nie finansowej)
strony procesów ekonomicznych i bardzo pośrednie ujęcie lub nawet całkowity brak
w strukturze modelowej instrumentów polityki makroekonomicznej.
5. Modele keynesowskie
Modele te są popytowymi modelami równowagi. Oparte są na teorii makroekonomicznej J.M. Keynesa i w swej najbardziej teoretycznie dopracowanej (autorskiej)
postaci są modelami statycznymi, pokazując jak pod wpływem zmiany parametrów
gospodarka przechodzi od jednego stanu równowagi do drugiego. Parametrami tymi
mogą być w szczególności instrumenty polityki makroekonomicznej, takie jak:
–
wydatki rządowe,
–
stopa procentowa,
–
stopy podatkowe,
–
kurs walutowy.
Z tego względu modele oparte na schematach keynesowskich mogą być narzędziem analizy zestawów polityki terminalnej.
W swoim podstawowym schemacie, od którego wychodzą bardziej rozbudowane (i zdynamizowane) rozwiązania, modele te zawierają:
–
równanie kształtujące równowagę na rynku dóbr (popyt = podaż);
–
funkcję konsumpcji (zależną m.in. od: dochodu, cen i poziomu opodatkowania);
–
funkcję inwestycji (zależną m.in. od: stopy procentowej, dochodu i oczekiwanej stopy inflacji);
Modelowanie makroekonomiczne – potrzeby i dylematy
–
141
funkcje eksportu i importu (zależne m.in. od: taryf celnych i kursu walutowego);
–
bilans płatniczy wraz z saldem obrotów kapitałowych;
–
równanie popytu na pieniądz oraz równanie określające równowagę rynku
pieniężnego (popyt na pieniądz = podaży pieniądza);
–
równania określające: płace, popyt na pracę i jej podaż oraz równowagę na
rynku pracy;
–
równanie inflacji.
Jest to oczywiście bardzo uproszczony i ogólny schemat. Wszystkie funkcje i równania mogą być różnie specyfikowane [Zob. np.: Allen 1975], z tym jednakże ograniczeniem, że specyfikacja ta winna dawać jakościowe (teoretyczne) podstawy do stwierdzenia, że model może zapewniać równowagę.
Stosowane są np. różne funkcje konsumpcji (np.: proste liniowe, oparte na hipotezie absolutnego lub relatywnego dochodu, dochodu permanentnego, długości życia),
różne funkcje inwestycji (liniowe, ze zmiennymi opóźnionymi, z uwzględnianiem dostępności kredytów, z wolumenem zysku). Funkcja popytu na pracę może być wyprowadzona z funkcji produkcji o różnej postaci (pośrednio uwzględnia się więc tu
wydajność). W różny sposób można też dezagregować przedstawiony schemat, wprowadzając np. różne rodzaje podatków i taryf celnych.
Schemat ten już zawiera potencjalne elementy dynamiczne. Wystarczy przyjąć, że
oczekiwania zmian cen, kursów itp. są endogenicznie formowane, np. na podstawie
teorii racjonalnych oczekiwań. W funkcji inflacyjnej bezpośrednio występują elementy
dynamiki. Dalsza dynamizacja, przez wprowadzenie odroczeń i zależności międzyokresowych, umożliwia analizę polityk średniookresowych (kilkuletnich).
Warto też dodać, że praktycznie stosowane modele mogą być w różny sposób kompletowane z przedstawionych na schemacie „bazowych” elementów. Umożliwia to np.
jakościową analizę własności różnych instrumentów i ogólniejszych polityk.
Ma to miejsce m.in. w przypadku modelu IS-LM-BP i konstruowanych na jego
podstawie krzywych zagregowanego popytu i podaży.
Model IS-LM-BP opisuje wzajemne związki pomiędzy trzema sektorami gospodarki:
–
rynek dóbr (równanie IS);
–
rynek pieniądza (równanie LM);
–
sektor wymiany z zagranicą (równanie BP).
Większość zależności modelu jest konstruowana w cenach stałych, czyli w wielkościach realnych. Kategorie ekonomiczne w cenach stałych są oznaczane małymi literami alfabetu łacińskiego. Kategorie ekonomiczne w cenach bieżących są oznaczane
dużymi literami alfabetu łacińskiego.
Jądrem modelu w części dotyczącej rynku dóbr i usług jest równanie równowagi:
realny dochód (y) równy jest realnym wydatkom, na które (definicyjnie) składają się wydatki na konsumpcję (c), inwestycje (i), wydatki rządowe (go) oraz nadwyżka eksportowa (nx):
t  c  i  go  nx
(w równowadze).
(1)
142
Krzysztof Barteczko, Andrzej F. Bocian
Zakłada się, że realna konsumpcja (c) jest proporcjonalna do realnych dochodów do dyspozycji (yd):
c  a  b * yd
0  b  1,
(2)
gdzie:
a – konsumpcja autonomiczna (niezależna od dochodu; zauważmy, że przy niskich
dochodach konsumpcja przewyższa dochód),
b – skłonność do konsumpcji (wrażliwości konsumpcji na zmiany dochodu do dyspozycji).
Po to, by przejść od dochodu do dyspozycji do dochodu musimy wprowadzić
równanie realnych podatków (t). Najprościej w następujący sposób:
t  t 0  t1 * y
0  t1  1 ,
(3)
gdzie:
t0 – podatki autonomiczne (niezależne od dochodu). W konsekwencji:
c  a  b * t 0  b * (1  t 1 ) * y .
(4)
Przyjmuje się, że realne inwestycje zależą (liniowo) od oczekiwanej realnej stopy
procentowej r – Pe, tj. różnicy między nominalną stopą procentową a oczekiwaną
inflacją. Czynnik oczekiwań jest tu ważny, mówimy bowiem o zależności behawioralnej,
o wydatkach inwestycyjnych, które są ponoszone właśnie dzięki oczekiwanym zyskom. Czym wyższa oczekiwana realna stopa procentowa, tym niższe wydatki inwestycyjne (co jest związane zarówno z kosztami kredytów, jak i konkurencją kierunków lokat kapitałowych). Oczywiście, niecałe wydatki inwestycyjne są wyjaśniane przez tę
zależność, stąd inwestycje autonomiczne (i0):
i  i 0  h * (r  P e ) .
(5)
Ponieważ wydatki rządowe są traktowane jako egzogeniczne, możemy od razu
przejść do wyznaczania nadwyżki eksportowej.
Załóżmy, że realny import zmienia się wprost proporcjonalnie do poziomu realnego dochodu (dodatnia skłonność do importu). Import będzie jednak rósł również
wtedy, gdy nastąpi relatywny względem cen światowych wzrost cen krajowych (i malał
w sytuacji odwrotnej). Wprowadza się zatem wskaźnik konkurencyjności gospodarki (R), mierzący relację cen krajowych (P), wyrażonych w walucie (P*S, gdzie S – kurs
walutowy), do cen światowych (P*):
R  (S * P)/P * .
(6)
Czym wyższy wskaźnik R, tym mniej konkurencyjna (cenowo!) gospodarka. W konsekwencji równanie importu będzie miało następującą postać:
im  im 0  m * y  g * R 0  m  1 , g  0 .
gdzie:
im – import,
im0 – import autonomiczny,
m – importochłonność dochodu (skłonność do importu).
(7)
Modelowanie makroekonomiczne – potrzeby i dylematy
143
Zakłada się również, że wielkość realnego eksportu (x) zależy liniowo od konkurencyjności gospodarki (im bardziej gospodarka konkurencyjna – tym wyższy eksport). Niezależnie od tego sprzężenia, wprowadza się eksport autonomiczny (X0), który
jest tym większy, im większy jest poziom dochodu światowego.
Eksport równy jest zatem:
x  x0  f *R
f  0.
(8)
Z (7) i (8) wynika równanie salda wymiany z zagranicą:
nx  nx 0 m * y  (f  g) * R ,
(9)
gdzie:
nx0 = x0 – im0 (autonomiczna nadwyżka eksportowa lub eksport netto).
Grupując autonomiczne elementy dotychczasowych równań:
z 0  a  b * t 0  i 0  go  x 0 mi 0 ,
(10)
Z (l–10) otrzymujemy równanie krzywej IS (określającej równowagę na rynku dóbr
i usług i wyrażanej jako zależność między dochodem i stopą procentową):
y
z 0  h * P e (f  g) * R  h * r
.
1  b * (t  t 1 )  m
(11)
Równowagę na rynku pieniężnym (krzywa LM) określa zrównanie popytu na realny pieniądz z podażą realnego pieniądza.
Popyt na realny pieniądz (Md) określa się jako liniową funkcję dochodu (korelacja dodatnia) i nominalnej stopy procentowej (korelacja ujemna):
M d /P  k * y  u * r
k>0, u>0.
(12)
Niech Ms oznacza podaż pieniądza (dana egzogenicznie), wtedy, uwzględniając
(12), równanie równowagi na rynku pieniądza zapisujemy jako:
M s /P  P  k * y  u * r .
(13)
W konsekwencji krzywa LM (tak jak krzywa IS, pokazująca zależność między stopą
procentową i dochodem) jest określana jako:
r  [M 0 /(u * P)]  (k/u) * y .
(14)
Zauważmy, że konkretyzując równania rynku pieniężnego, można przyjąć różne
definicje pieniądza, choć ogólna postać tych równań dla „bardziej zaawansowanych” definicji pieniądza może okazać się niewystarczająca.
Punkt przecięcia krzywych IS i LM może wyznaczać równowagę gospodarki. Jednak
trzeba jeszcze pełniej uwzględnić wymianę z zagranicą, czyli bilans płatniczy. Saldo bilansu płatniczego (bp) włącza salda obrotów towarowych (znane już nam nx) i przepływów kapitałowych (cf):
bp  nx  cf .
(15)
Wielkość przepływów kapitałowych netto (czyli saldo) zależy od różnicy stóp procentowych w kraju (r) i poza jego granicami (r*). Im większa ta różnica, tym powin-
144
Krzysztof Barteczko, Andrzej F. Bocian
ny być większe przepływy kapitałowe netto. Jednak zyski inwestujących poza granicami
i inwestujących w kraju zależą przecież również od zmian kursu walutowego. Tu znowu
wkrada się czynnik oczekiwań: wybierając „krajowy” kierunek inwestowania, inwestor
kieruje się oczekiwanym relatywnym przychodem, który wynika zarówno z różnicy
stóp procentowych (r – r*), jak i oczekiwaną procentową zmianą kursu walutowego
(Se). Uproszczone równanie przepływów kapitałowych netto można więc zapisać jako:
cf  cf 0  v * (r  r * )
v>0
Se = (r  r * ) ,
(16)
gdzie:
cf0 – autonomiczne przepływy kapitałowe.
Oznaczając bp0 = (x0 – im0) + cf0 i wykorzystując nx z równania (7), mamy więc:
bp = bp0 – my – (f +g) * R + v * (r – r* – Se).
(17)
Przyjmując warunek równowagi w sektorze wymiany z zagranicą jako bp = O
(równowaga bilansu płatniczego), określa się krzywą BP:
(18)
r = [–bp0 + (f + g) * R]/v + (m/v)*y + r* – Se.
Teoretyczną równowagę w gospodarce wyznacza punkt przecięcia trzech krzywych: IS, LM, BP. Dlaczego jednak miałyby się one wszystkie przecinać w jednym
punkcie? Istotnie, właściwie w każdym momencie mamy do czynienia z odstępstwami
od takiej równowagi – ważne jest jednak to, jak pod wpływem zmian we wprowadzanych w modelu parametrach zmienia się wzajemne położenie trzech krzywych i które z punktów przecięcia dwóch z nich mogą dominować nad innymi.
Nie ma tu miejsca, aby rozwijać ten temat na gruncie szczegółowych analiz modelu IS-LM-BP. Zamiast tego przyjrzymy się „bardziej opisowemu” jego zastosowaniu.
Zauważmy bowiem, że już ten teoretyczny schemat może posłużyć do ciekawych
i inspirujących jakościowych analiz polityki makroekonomicznej.
W teorii polityki gospodarczej, mającej swe źródła w klasycznej pracy Tinbergena
[Zob.: Tinbergen 1956], rozpatruje się m.in. problem odpowiedniości między celami i instrumentami. Pierwsza zasada Tinbergena (dla przypadku ustalonych celów)
głosi, że musi być tyle samo niezależnych instrumentów, ile jest niezależnych celów.
Okazało się jednak, że zasada ta nie gwarantuje uzyskania rozwiązania problemu
określenia wartości instrumentów realizujących ustalone cele. Ponadto, nie precyzuje ona, w jaki sposób instrumenty mają być przyporządkowane celom.
Podano szereg zasad, które byłyby pomocne w rozwiązaniu problemu przyporządkowania. Jedną z nich jest prosta zasada efektywnej klasyfikacji rynkowej, zaproponowana przez Mundella, która głosi, że [Zob.: Mundell 1957; Johansen 1978]:
Każdy instrument powinien być używany do realizacji tego celu,
na który ma największy wpływ.
Można rozważyć przykładowy fragment polityki makroekonomicznej, w którym
są dwa cele: osiągnięcie dochodu przy pełnym wykorzystaniu mocy i równowaga bi-
Modelowanie makroekonomiczne – potrzeby i dylematy
145
lansu płatniczego, oraz dwa instrumenty: wydatki rządowe i stopa procentowa. Powstaje pytanie: Czy w założeniach polityki właściwie manipuluje się tymi instrumentami, tzn.
czy są one przypisane tym celom, na które mają największy wpływ?5.
Trudno szukać odpowiedzi na to pytanie na gruncie bezpośrednich obserwacji
empirycznych. Zbyt wiele innych czynników wpływa na wzajemne związki między
partnerami funkcjonowania gospodarki. Pomocy dostarcza jednak klarowny schemat, oparty na modelu IS-LM-BP (a raczej jego części). Zależności między wyżej
wymieniony instrumentami i celami w tym modelu przedstawia rysunek 2.
RYSUNEK 2.
go
Źródło: [Barteczko, Bocian 2010].
Na rysunku tym przyjęto następujące oznaczenia:
r
– stopa procentowa,
go – wydatki rządowe,
sbp – saldo bilansu płatniczego,
y
– dochód,
y* – poziom dochodu przy pełnym wykorzystaniu czynników.
Krzywe równowagi dochodu (y = y*) i bilansu płatniczego są zbiorem kombinacji wartości instrumentów, przy których są realizowane cele (poziom dochodu i równowaga bilansu płatniczego). Dodatnie nachylenie tych krzywych wynika z następującego (statycznego keynesowskiego) rozumowania: jeśli zwiększy się wydatki rządowe
przy stałej stopie procentowej, to dochód wzrośnie (mnożnik) i ewentualne odchylenie
od równowagi (y > y*) trzeba będzie równoważyć restrykcyjną polityką monetarną,
tj. redukcją podaży pieniądza, a więc wzrostem stopy procentowej. Stąd dodatnia
korelacja między go i r.
W przypadku krzywej równowagi bilansu płatniczego zwiększenie wydatków rządowych spowoduje mnożnikowy wzrost dochodu i w konsekwencji wzrost importu,
co przy niezmienionej stopie procentowej i wyjściowej równowadze bilansu płatniczego doprowadzi do deficytu w tym bilansie.
5
Przykład zaczerpnięto z: [Shone 1989].
146
Krzysztof Barteczko, Andrzej F. Bocian
Aby sfinansować ten deficyt, trzeba zintensyfikować przypływ kapitału, co jest możliwe przez podniesienie stopy procentowej. Tu też występuje dodatnia korelacja między instrumentami. Jednak w przypadku zmiany w stopie procentowej, zmiany przywracające równowagę będą mniejsze niż na krzywej równowagi dochodu, gdyż wzrost
dochodu oddziałuje na bilans płatniczy przez krańcową skłonność do importu, która jest mniejsza od l.
Załóżmy, że polityka przewiduje osiąganie równowagi bilansu płatniczego środkami polityki fiskalnej, a realizację dochodu przy pełnym wykorzystaniu czynników
– środkami polityki monetarnej. Sytuację tę przedstawia rysunek 3.
RYSUNEK 3.
Źródło: [Barteczko, Bocian 2010].
Gospodarka znajduje się w punkcie A. Dążąc do zwiększenia dochodu (zgodnie
z założeniami polityki), obniża się stopę procentową. Wzrost dochodu powoduje pogorszenie salda bilansu płatniczego (punkt B). W celu przywrócenia równowagi bilansu
należy zmniejszyć import. Polityka przewiduje w tym celu redukcję wydatków rządowych, co prowadzi gospodarkę do punktu C. Proces ten jest kontynuowany i oczywiście
coraz bardziej oddala od punktu równowagi R.
Łatwo się przekonać, że odwrotne przyporządkowanie instrumentów celom spowoduje uruchomienie procesu zbieżnego do punktu równowagi R.
Ten prosty przykład pokazuje, w jaki sposób analiza jakościowa, opierająca się ściśle na modelu teoretycznym, może być użyteczna przy formułowaniu i ocenie założeń
polityki makroekonomicznej. Jest to oczywiście bardzo uproszczony schemat, odległy
od rzeczywistości (statyka, brak inflacji, dwa cele i dwa instrumenty). Pewne jakościowe
wnioski, być może wstępne dla głębszej analizy, można mimo to z niego wyciągnąć,
przynajmniej w odniesieniu do pewnych specyficznych sytuacji (polityka krótkookresowa w stabilnej gospodarce bez inflacji). Na podstawie modelu IS-LM-BP można starać się konstruować i inne proste schematy tego typu. Oczywiście, metoda ta w żaden
sposób nie może być używana do określania wartości instrumentów. Może ona dawać
jednak pewne wskazania co do kierunku ich zmiany i przyporządkowania celom.
Modelowanie makroekonomiczne – potrzeby i dylematy
147
6. Zagregowany symulacyjny quasi-keynesowski model popytowy SAS
Model SAS jest modelem czysto popytowym. Zawiera kilka prostych równań opisujących na makroekonomicznym, abstrakcyjnym poziomie kształtowanie się popytu w gospodarce oraz jego wpływ na wzrost, indukowany przez niego popyt na zasoby pracy i stopień ich wykorzystania.
W skrócie logikę działania modelu SAS można przedstawić na rysunku 4.
RYSUNEK 4.
Popyt
zewnętrzny
Krajowy popyt
na import
Równowaga
zewnętrzna
Popyt
wewnętrzny
Popyt na produkcję krajową
Bezrobocie
Źródło: [Barteczko, Bocian 2010].
Istota działania modelu sprowadza się więc do tego, że przyjmujemy, iż rozwój
i stabilność są funkcją wielkości i struktury popytu, ten zależy zaś od czynników popytotwórczych i polityki makroekonomicznej. W modelu SAS uwzględnia się szereg
zagregowanych kategorii popytu, zaś parametry modelu albo bezpośrednio kontrolują wartości tych kategorii, albo wpływają na nie w sposób pośredni.
Większość parametrów ma charakter syntetycznego odbicia pewnych generalnych
założeń polityki makroekonomicznej.
Poniżej przedstawia się listę parametrów i zmiennych modelu oraz jego podstawowe zależności.
ZMIENNE MODELU SAS:
wg
wartość globalna,
pkb
produkt krajowy brutto,
ek
eksport,
imz
import zaopatrzeniowy,
imf
import finalny,
imp
import,
shz
saldo handlu zagranicznego,
pkbw wykorzystanie pkb w kraju,
d
dochody ludności (w ujęciu nominalnym),
ki
konsumpcja indywidualna,
kz
konsumpcja zbiorowa,
inw
inwestycje,
148
we
zatr
srpod
wp
sb
Krzysztof Barteczko, Andrzej F. Bocian
wskaźnik cen towarów konsumpcyjnych,
zatrudnienie,
podaż siły roboczej,
wydajność pracy (liczona jako wg/zatr),
stopa bezrobocia.
PARAMETRY MODELU SAS:
umfpf udział importu finalnego w popycie finalnym decyduje o podziale popytu
końcowego na popyt zaspokajany ze źródeł krajowych i z importu,
imch importochłonność zaopatrzeniowa wartości globalnej,
ak
materiałochłonność wartości globalnej (krajowa),
wpz
współczynnik przyrostu zapasów (relacja przyrostu zapasów do wartości
globalnej),
twl
tempo (dynamika) wzrostu ludności,
eldd
elastyczność dochodów pieniężnych względem PKB (w kategoriach per capita),
eldc
elastyczność dochodów pieniężnych (per capita) względem cen,
twe
tempo (dynamika) wzrostu cen,
uwki udział wydatków na konsumpcję indywidualną w dochodach,
ukz
relacja konsumpcji zbiorowej do PKB,
b
współczynnik kapitałowy (inwestycje/przyszły przyrost PKB),
psw
prognozowana stopa wzrostu (determinuje zachowania inwestorów),
tek
tempo (dynamika) wzrostu eksportu,
twsr
tempo (dynamika) wzrostu podaży siły roboczej,
zsb
zadana stopa bezrobocia (gdy nie podano twp),
twp
tempo (dynamika) wzrostu wydajności pracy (gdy nie podano zsb).
ZALEŻNOŚCI MODELU SAS:
(Uwaga: zmienne nieindeksowane odnoszą się do roku t)
DOCHODY:
d/d(t  1)
pkb
 1  eldd[
 1]  eldc * (twc  1)
tw1
pkb(t  1)tw1
CENY:
KONSUMPCJA:
INDYWIDUALNA:
wc = twc * wc(t – 1)
wc * ki = uwki*d
KONSUMPCJA ZBIOROWA:
INWESTYCJE:
EKSPORT:
kz = ukz * pkb
inw = b * psw * pkb
ek = tek * ek(t – 1)
Modelowanie makroekonomiczne – potrzeby i dylematy
149
POPYT POŚREDNI ZASPOKAJANY
ZE ŹRÓDEŁ KRAJOWYCH:
ak * wg
IMPORT ZAOPATRZENIOWY: imz = imch * wg
ŁĄCZNY POPYT POŚREDNI; (ak + imch) * wg
PRZYROST ZAPASÓW:
wpz * wg
IMPORT FINALNY:
imf = umfpf*[ki+kz+inw+ek]
IMPORT:
imp = imz + imf
SALDO HZ:
shz = ek – imp
WARTOŚĆ
GLOBALNA:
PKB:
PKB: wykorz.
wg 
1 - umfpf
( ki  kz  inw  ek )
1 - ak - imch
pkb = (1 – ak – imch) * wg
pkbw = pkb – shz
W odniesieniu do zasobów pracy, model SAS umożliwia wybranie dwóch dróg
symulacji. Pierwsza prowadzi do określenia stopy bezrobocia przy zadanych z zewnątrz zmianach wydajności pracy i podaży siły roboczej, druga pozwala uzyskać odpowiedź na pytanie, jak powinna zmieniać się podaż pracy i wydajność (a w konsekwencji inne związane z nią wielkości, np. średnia płaca), jeśli zażądać, aby stopa
bezrobocia kształtowała się w zadany z zewnątrz sposób. Stąd rozróżnienie między
stopą bezrobocia (sb) – zmienną modelu SAS a zadaną stopą bezrobocia (zsb) – parametrem modelu.
Jak widzimy, model SAS jest bardzo prosty. Ma to oczywiście swoje wady – wymaga bowiem przy pracy z modelem przyjmowania wielu arbitralnych założeń; nie pozwala także odnosić się w analizie ilościowej do wielu istotnych zagadnień polityki makroekonomicznej.
TABELA 1.
Zadane tempo zmian
wydajności pracy
Zadana stopa bezrobocia
WYDAJNOŚĆ
wp = twp * wp(t – 1)
ZATRUDNIENIE
zatr = wg / wp
PODAŻ PRACY
srpod = max [twsr * srpod(t – l), zatr]
STOPA BEZROBOCIA
sb = 1 – zatr/srpod
PODAŻ PRACY
srpod = twsr * srpod(t – 1)
ZATRUDNIENIE
zatr = srpod * (1 – zsb)
WYDAJNOŚĆ
wp = wg / zsm
Źródło: [Barteczko, Bocian 2010].
150
Krzysztof Barteczko, Andrzej F. Bocian
7. Globalny wymiar wzrostu a modelowanie
Światowy kryzys 2007 – 2009 spowodował zawirowanie nie tylko we wszystkich gospodarkach na świecie, ale także wykazał luki w teorii ekonomii oraz ograniczoność
prognozowania i modelowania, nawet w krótkim horyzoncie czasowym. Wydarzenia
ostatnich dwóch lat nasiliły również dyskusje między zwolennikami i przeciwnikami
zjawisk globalizacyjnych zachodzących w gospodarce światowej. Kryzys wyraźnie pomnożył liczbę wątpliwości i pytań, na które muszą znaleźć odpowiedź wszyscy uczestnicy rynku, polityki i świat nauki. W tym ogólnym chaosie myśli można natknąć się na
różnorodne opinie. Spora grupa komentatorów życia gospodarczego twierdzi, że to
globalizacja, jako spontanicznie rozwijające się od lat zjawisko gospodarcze, spowodowała erupcję kryzysową, inni twierdzą zaś, że pazerność korporacji transnarodowych
i banków przez niekontrolowane działania w cyberprzestrzeni wygenerowała najpierw
kryzys finansowy, który przerodził się w kryzys obejmujący całą sferę realną gospodarki
światowej. Można również spotkać się ze zdaniem, że kryzys stanowi podzwonne dla
globalizacji, a zarazem jest dowodem bankructwa doktryny neoliberalnej [Por.: Kołodko 2009; Żyżyński 2009]. Ten pogląd już tylko niewielki krok dzieli od nawoływań
o powrót do interwencjonizmu. Jedno jest jednak pewne, że procesy globalizacyjne –
pod wpływem ujawnionych w związku z kryzysem zjawisk – będą musiały ewoluować,
a teoria ekonomi będzie musiała za nimi nadążać.
Światowy kryzys dał asumpt do wznowienia odwiecznego sporu toczącego się wokół zagadnień wzrostu gospodarczego w rozumieniu dwóch szkół ekonomii – szkoły
neoliberalnej i szkoły keynesowskiej [Por.: Madej 2009]. Wątpliwe jest jednak, czy rzeczywiście jest to spór między zwolennikami rynku, jako głównego regulatora procesów
gospodarczych, a etatystami, którzy eksponują rolę państwa w działalności gospodarczej
i czy rzeczywiście obydwie szkoły tworzą dwa bieguny ekonomii. Żaden z tych dwóch
kierunków myśli ekonomicznej nie kwestionuje przecież obecności i roli polityki
gospodarczej w funkcjonujących obecnie systemach ekonomicznych, a granice przejścia
między etatyzmem a rynkiem są bardzo płynne i trzeba wszechstronnej i wnikliwej analizy by je uwypuklić.
Doświadczenie, wynikające z kryzysu początku XXI wieku, wskazuje, że rynek nie
zawiódł w swojej funkcji regulacyjnej – zmusił do korekty postępowania, wystawiając
ujemną ocenę systemowi funkcjonowania społeczeństw konsumpcyjnych. Wyjątkowość obserwowanych zjawisk (w sensie powszechności i równoczesności ich występowania) wskazuje, że świat biznesu czekają ogromne zmiany, a teoria ekonomii musi
uporać się z nowymi wyzwaniami.
Konstrukcja aplikacyjnych modeli makroekonomicznych (tj. takich, które oddziałują
na wyobraźnię i decyzje polityków) wymaga:
–
nośnej teorii makroekonomicznej;
–
efektywnych technik modelowania;
–
rzetelnej informacji statystycznej.
W tej triadzie uwarunkowań modelowych duża rola przypada informacji statystycznej. Jeżeli truizmem jest zdanie, że świat, gospodarka światowa są coraz bardziej
złożone, to takim samym truizmem jest stwierdzenie, że obraz tego złożonego świata
Modelowanie makroekonomiczne – potrzeby i dylematy
151
nie znajduje adekwatnego odbicia w danych statystycznych. Jest to najprawdopodobniej
najsłabsze ogniwo procesu modelowania makroekonomicznego.
Literatura
Allen R.G.D. 1975 Teoria makroekonomiczna, Warszawa.
Barteczko K., Bocian A.F. 2010 Prognozowanie i symulacje procesów gospodarczych, Białystok.
Barro R.J. 1997 Makroekonomia, Warszawa.
Frisch R. 1949 Mathematical Appendix to a Memorandum on Price-wagetax-subsidy Policies
as Instruments in Maintaining Optimal Employment, Oslo.
Frydman R., Goldberg M.D. 2009 Ekonomia wiedzy niedoskonałej, Warszawa.
Johansen L. 1978 Lectures on Macroeconomic Planning, North Holland.
Keynes J.M. 1985 Ogólna teoria zatrudnienia, procentu i pieniądza, Warszawa.
Kołodko G. 2009 Neoliberalizm i światowy kryzys gospodarczy, „Ekonomista”, nr 3.
Landreth H., Colander D.C. 1998 Historia myśli ekonomicznej, Warszawa.
Madej Z. 2009 Idee rządzą światem, „Ekonomista”, nr 5.
Mundell R. 1975 International Trade and Factor Mobility, „American Economic Review”,
nr 47.
Ragnar F. 1976 Economic Planning Studies, Boston.
Romer D. 2000 Makroekonomia dla zaawansowanych, Warszawa.
Shone R. 1989 Open Economy Macroeconomics Theory, Prentice-Hall.
Solow R. M. 1957 Technical Change and the Aggregate Production Function, „The Review
of Economics and Statistics”, nr 39.
Tinbergen J. 1956 Economic Policy: Principles and Design, North Holland.
Welfe W., Welfe A. 1996 Ekonometria stosowana, Warszawa.
Żyżyński J. 2009 Neoliberalizm jako strukturalna przyczyna kryzysu a poszukiwanie dróg naprawy, „Ekonomista”, nr 3.
OPTIMUM. STUDIA EKONOMICZNE NR 4 (48) 2010
Marcin BŁAŻEJOWSKI, Paweł KUFEL, Tadeusz KUFEL1
AUTOMATIC PROCEDURE OF BUILDING SPECIFICATION
OF DYNAMIC CONGRUENT MODEL IN GRETL PACKAGE
Summary
In recent years we can observe intensive development of automatic model selection procedures. Best
known are PcGets and RETINA. Such intensive work encourage to work on a new procedures. The concept of Congruent Modeling, formulated by Prof. Zygmunt Zieliński, is a very good framework for such development, including programming work, as well as many theoretical considerations. In the paper there is
presentation of concept of algorithm for automatic congruent modeling procedure and its implementation
in Gretl..
Keywords: congruent dynamic modelling, automatic model selection, forecasting, PcGets, RETINA.
1. Introduction
The congruent modeling refers to building dynamic econometric models. This
idea was presented by Prof. Zygmunt Zieliński from Nicolaus Copernicus University
from Toruń in 1984.
Many assumptions underlay the formulating of initial model specification. Some
approaches refers to causal relationships, others – to the internal structure of processes
of interest with causality omission, and others take both into account. The concept
of congruent modeling, in Zieliński sense, refers to both approaches – casual relationship and internal structure of given processes.
A model is congruent, according to Zieliński, if the harmonic structure of dependent process Yt is the same as the joint harmonic structure of explanatory
processes Xit (i = 1, 2, …, k) and the residual process, which is independent of explanatory processes. This means that the variability of left side of model – (Yt) must
be explained by the variability of right side of model – (Xit). It is obvious that the
model built for processes having white noise properties is always congruent:
k
ε yt =
ρε
i=1
i xt
i
+ εt
(1)
1 Dr Marcin Błażejowski jest pracownikiem Wyższej Szkoły Bankowej w Toruniu. Mgr Paweł Kufel jest
doktorantem Uniwersytetu Mikołaja Kopernika w Toruniu. Dr hab. Tadeusz Kufel, prof. UMK jest
pracownikiem Uniwersytetu Mikołaja Kopernika w Toruniu.
Automatic Procedure of Building Specification …
153
where ε yt ,ε x t and εt are white noises. Model (1) is congruent because harmonic
i
structure of both sides of equation are equal or, in other words, the processes spectra are parallel to the frequency axis.
Information about internal structure of Yt and Xit processes enable to build the
congruent dynamic econometric model. The congruent general dynamic econometric model is as follows:
k
B(u)Yt =
 A (u)X
i
it
+ Pt + St + εt ,
(2)
i=1
where B(u), Ai (u) are autoregressive back shift operators, Pt is polynomial function of
variable t, St denotes seasonal component with constant or changing in time amplitude
of fluctuations and εt is white noise. The white noise εt in model (2) has the same
properties as white noise εt in model (1). Whole information of internal structure of all
processes is taken into consideration. The variability of endogenous process Yt is explained by variability of exogenous processes Xit (i = 1,…, k).
Described concept of building dynamic econometric model shows the necessity
of including information about internal structure of given processes at the model
specification stage.
2. General Algorithm of automatically building congruent dynamic model
This is a very general algorithm for building congruent dynamic model, here only
main stages are described without talking over any specific solutions, internal variables,
external functions and so on. This algorithm shows only a general idea of procedure
and its compatibility with congruent dynamic econometric modeling procedure in
Zieliński sense.
1. Getting outgoing data, setting following internal variables:
a. Getting model variables: the list of processes and the list of deterministic
(dummy) variables.
b. Getting level of significance for the tests performed inside the procedure.
c. Getting range of the sample and setting minimal degrees of freedom
dfmin for starting general congruent model:
i. if n < 200, then dfmin = round(0.1*n),
ii. if n ≥ 200, then dfmin = 20.
d. Checking the frequency of time-series and setting:
i. deterministic cycle for consideration in pt. 2,
ii. maximum order pmax for autoregressive models in pt. 2c,
function string CS_CongruentSpecification (list Processes, list Det_components[null],
scalar alpha[0:1:0.1], bool print_res[1])
2. Internal structure of given processes analysis:
a. Checking, whether given processes have deterministic components.
154
Marcin Błażejowski, Paweł Kufel, Tadeusz Kufel
function void CS_Check_Internal_Structure (series *Y, list l_season, list
det_variables, matrix *det_components, scalar *alpha)
b. Checking, whether error terms after subtraction of deterministic
components are integrated.
function scalar CS_ADF_check (series *Y, int lag)
c. Setting orders of autoregression for given processes, starting from
a maximum order of pmax, after subtraction of deterministic
components and differentiation if there was an integration.
function scalar CS_AR_order (series *Y, int pacf_order, int freqency)
function scalar CS_PACF_order (int N)
3. Building starting specification of general unrestricted congruent model
a. Checking the degrees of freedom of starting general congruent model
dfstart, taking into account all possible variables (lagged Y, current and
lagged X, trend and/or cycle, deterministic variables):
function scalar CS_GUM_df_count (int n, int freqency, matrix *internal_str, matrix
*det_components, int Det_components_n)
i. if dfstart < dfmin, then maximum order of autoregressive
model(s), specified in pt. 2c, is decreased by 1,
function void CS_GUM_reduce (matrix *internal_str)
ii. if dfstart ≥ dfmin, then the starting general model is printed in
Gretl script language.
function string CS_Print_CongruentSpecification (list big_list, list seasonal, list
Det_components, matrix *internal_str, matrix *det_components, scalar *alpha)
At stage 1, there is import dataset for model: the list of all the processes (the endogenous process Y must be the first on that list) and additional deterministic (dummy)
variables, which indicate some special moments, i.e. free days or structural changes.
At stage 2 the analysis of internal structure of explained process Yt and explanatory
processes Xit is performed. We are looking for deterministic components: time trend
and periodicity. We assume, that we only check presence of linear trend and “typical”
periodicity for given data: seasonality for monthly or quarterly time-series, 1 year (52
weeks) cycle for weekly time-series and 1 week cycle for daily data. After that we subtract deterministic components from the analyzed processes and perform ADF-GLS
test. If an integration exists, we compute first differences and examine order of autoregression of all time-series.
At stage 3 we formulate starting congruent general model and check, if we have sufficient degrees of freedom for running OLS estimation. This is crucial, that we want at
least 0.1*n degrees of freedom or, if series have more then 200 observations, at least 20.
If this condition cannot be met, maximum order of autoregressive models is decreased
by 1, so we get at least 2 additional degrees of freedom at each reduction.
Automatic Procedure of Building Specification …
155
FIGURE 1.
Dialog box for call to function CS_CongruentSpecification in Gretl
FIGURE 2.
Text window with results of function CS_CongruentSpecification
in Gretl
156
Marcin Błażejowski, Paweł Kufel, Tadeusz Kufel
3. Comparison of Congruent Modeling Algorithm vs. PcGets vs. RETINA
In this section, we will show some similarities and differences between algorithm
based on congruent dynamic modeling theory and approaches in PcGets and RETINA.
PcGets and RETINA comparison can be found in [Perez-Amaral, Gallo, White 2005]
and table (1) is based on it. Comparison of General-to-Specific vs. Congruent Modeling
can be found in [Kufel 2004]. Our comparison is based on the above mentioned articles. In congruent modeling we believe, that DGP is nested in the starting general
model and reduction irrelevant variables can discover it. This is very similar to general-to-specific approach, but the starting general model is formulated in different
way. Starting specification is based on the theory and is also extended of information about internal structure of given processes, including deterministic components,
integration and autoregression. Autoregressive models can have different starting
order, which is the most important difference to the general-to-specific approach.
In congruent modeling we start with congruent general model and step by step this
model gets reduced to congruent empirical model (with the white noise error term). As
a strategy of model reduce we use t statistics, which has sufficient power to discover
DGP.
A staring model is formulated on two basis: theory, which gives causal relationships between variables and on the internal structure of all processes. This guarantees
that whole variability of Yt and all Xit processes is included, so model is congruent
(error term has white noise properties).
Congruent modeling assumes linear in parameters model, but variables can be logtransformed. Model can be nonlinear in variables, so congruent modeling gives flexibility.
Starting congruent general model based on the internal structure of all processes, is
unrestricted and overparametrizied. Step by step this model is being reduced with use
of t statistics and a posterior procedure. Final (empirical) congruent model is parsimonious. Congruent model assumes linearity in parameters, so computation is simple (we use OLS estimation). Transformations of variables are allowed, so starting
general model can be nonlinear in the underlying variables. Congruent modeling refers to time-series and cross-section data as well, but automatic procedure requires
time-series only. Congruent modeling approach can be used for multiple equation
systems, including simultaneous equation models, but automatic procedure for it
would be very complicated (but not impossible).
Automatic Procedure of Building Specification …
157
TABLE 1.
Comparison of PcGets and RETINA and Congruent Modeling
PcGets
1. Select a parsimonious
undominated representation of
an overly general initial model,
the general unrestricted model
(GUM).
2. Best model fit within sample.
3. Congruent with theory.
1. General to specific.
2. Formulate a GUM and reduce
it to a parsimonious model using
residual tests and hypothesis
testing on coefficients.
1. GUM: specified by the
researcher, usually based on
theory. May use transforms of
the original variables.
1. The GUM determines
maximum flexibility. May
include transforms of the
original variables.
1. Starting from the GUM,
performs a systematic search
using multiple reduction paths.
2. Using diagnostics, checks the
validity of each reduction until
terminal selection.
3. When all paths are explored,
repeatedly tests models against
their union until a unique final
model is obtained.
Variables with t statistics.
1. Seeks to formulate the GUM,
in search for a relatively
orthogonal specification.
2. A quick modeler option is
available in PcGets for nonexpert users.
RETINA
Goals
1. Identify a parsimonious set of
transformed attributes likely to be
relevant for predicting out-ofsample.
Strategy
1. Specific to general: Start from
a model with a single transform.
Add additional transforms only if
they contribute to out-of-sample
forecast ability.
2. Flexible and parsimonious model.
3. Selective search of transforms.
4. Control for collinearity
Base Model
1. Based on original inputs and
transforms, automatically selected
from the first subsample by crossvalidation in the second, controlling
for collinearity.
Flexibility
1. The permitted transformations of
the in-puts determine maximum
flexibility.
2. The actual flexibility of the
candidate model is chosen by the
procedure.
Selective/Systematic Search
1. Uses a selective search to avoid
the heavy task of evaluating all 2m
possible models and of applying
some form of model selection.
2. A saliency feature of the transforms,
such as the correlation with the
dependent variable, is used to construct
a natural order of the transforms in
which they are considered.
3. Only a number of candidate
models of order proportional to m is
considered
Colinearity
1. Controls for collinearity by adding
an additional transform to the
candidate list only if the collinearity
is below a certain (user defined)
threshold.
Congruent Modeling
1. Congruent general model
reduced to parsimonious
congruent model in Zieliński
sense with error term of white
noise properties.
2. Very good behavior in
prediction out of the sample.
3. Congruent with theory.
1. Congruent general model
reduced to congruent empirical
model.
2. Elimination insignificant
variables using a posterior
procedure based on t statistics.
3. Parsimonious empirical model
1. Specification of starting general
congruent based on a theory and
extended of information of
internal structure of all included
processes.
2. Congruent model may use
transformed processes.
1. Unrestricted congruent general
model providing flexibility.
1. Starting from congruent general
model and reduce it by
eliminating irrelevant variables
1. Collinearity is controlled by
GRETL.
158
Marcin Błażejowski, Paweł Kufel, Tadeusz Kufel
1. Original variables and
transformations specified in the
GUM.
1. Linear or nonlinear in the
parameters, as specified by the
GUM.
2. Linear or nonlinear in the
underlying variables, as specified
by the GUM.
1. Time series or cross-section.
Explanatory Variables
1. Original variables and nonlinear
transformations allowed for by the
procedure.
Linearity
1. Linear in the parameters.
2. Linear or nonlinear in the
underlying variables.
Types of Data Applicable So Far
1. Mainly cross-section at present
(no obstacles to its application in
a time series context).
1. Original variables and
transformations specified at the
beginning of the procedure.
1. Linear in the parameters.
2. Linear or nonlinear in the
underlying variables.
1. Time-series.
Source: Own work based on [Perez-Amaral, Gallo, White 2005 p. 266-269].
4. Conclusions
In this paper, we discuss the power of the congruent modeling concept and its
intrinsic features for automatic model selection procedure. Even if we worked out
full algorithm for such procedure, our considerations were theoretical. So the next
stage of our work will be to implement this algorithm in Gretl. The automatic procedure will investigate internal trend-seasonal-autoregressive structure for all the
processes and formulate congruent general unrestricted model based on it.
Literature
Cottrell A., Lucchetti R. 2009 Gnu Regression, Econometrics and Time-series, http://gretl.
.sourceforge.net.
Doornik J.A., Hendry D.F. 2007 Empirical Econometric Modeling – PcGive 12, London.
Granger C.W.J., Hendry D.F. 2005 A Dialogue Concerning a New Instrument for Econometric Modeling, “Econometric Theory”, 21, 278-297.
Granger C.W.J., Morris M.J. 1976 Time Series Modeling and Interpretation, “Journal of
the Royal Statistical Society”, Series A (General), 139(2), 246-257.
Hendry D.F., Krolzig H.-M. 2001 Automatic Econometric Model Selection, London.
Krolzig H.-M., Hendry D.F. 2001 Computer Automation of General-to-Specific Model Selection Procedures, “Journal of Economic Dynamics and Control”, 25, 831-866.
Kufel T., Piłatowska M. 1997 The White Noise Properties in the Dynamic Congruent Modeling,
[in:] MACROMODELS '90, 163-178, Łódź.
Kufel T. 2004 General-to-Specific Modeling vs. Congruent Modeling in PcGets, [in:] Dynamic Econometric Models, (ed.) Z. Zieliński, 6, 83-92, Toruń.
Perez-Amaral T., Gallo G.M., White H. 2003 Flexible Tool for Model Building: the Relevant
Transformation of the Inputs Network Approach (RETINA), Technical report, Universidad Complutense de Madrid, Facultad de Ciencias Econmicas y Empresariales.
Automatic Procedure of Building Specification …
159
Perez-Amaral T., Gallo G.M., White H. 2005 A Comparison of Complementary Automatic
Modeling Methods: RETINA and PcGets, “Econometric Theory”, 21, No. 1, 262-277.
Piłatowska M. 2004 Realization of the Congruence Postulate as a Method of Avoiding the Effect of
a Spurious Relationship, [in:] Dynamic Econometric Models, (ed.) Z. Zieliński, 6, 117126, Toruń.
Piłatowska M. 2008 The Econometric Models Satisfying the Congruence Postulate an Overview,
[in:] Dynamic Econometric Models, (ed.) Z. Zieliński, 8, 53-60, Toruń.
Zieliński Z. 1993 Dynamic Econometric Linear Models as a Tool of Description and Analysis of
Causal Relationships in Economics. [in:] Some Aspects of the Dynamic Eeconometric Modeling,
(ed.) Z. Zieliński, 7-58, Toruń.
Zieliński Z. 1994 Linear Congruent Models Describing Relationships for Integrated Economic
Processes, [in:] Dynamic Econometric Models, (ed.) Z. Zieliński, 1, 7-20. Toruń.
Zieliński Z. 1995 Liniowe modele zgodne opisujące zależności sumacyjnych (zintegrowanych) procesów
ekonomicznych. [in:] Przestrzenno-czasowe modelowanie i prognozowanie zjawisk gospodarczych, (ed.) A. Zeliaś, 77-87, Kraków.
Zieliński Z., Kufel T. 1995 Specifcation of Dynamic Properties of the Econometrii Models in
the Light of Congruent Models Concept. [in:] MACROMODELS '86, 25-52. Łódź.
OPTIMUM. STUDIA EKONOMICZNE NR 4 (48) 2010
Józef ROGOWSKI1
NA MARGINESIE ARTYKUŁU T. TOKARSKIEGO PT.
PRZESTRZENNE ZRÓŻNICOWANIE ŁĄCZNEJ
PRODUKCYJNOŚCI CZYNNIKÓW PRODUKCJI W POLSCE,
OPUBLIKOWANEGO W „GOSPODARCE NARODOWEJ”
NR 3/2010
Streszczenie
W niniejszej pracy została zweryfikowana pozytywnie hipoteza, że jeżeli przyjąć funkcje produkcji
Cobb’a-Douglass’a ze stałymi korzyściami skali, to elastyczność wydajności pracy względem technicznego uzbrojenia pracy nie jest jednakowa we wszystkich województwach, co przeczy założeniu przyjętemu w cytowanej pracy T. Tokarskiego. Jeżeli przyjmie się zweryfikowaną hipotezę, to otrzyma się
inną wojewódzką strukturę łącznej produkcyjności czynników produkcji, a zatem można także otrzymać, czego nie bada się w niniejszej pracy, inne oszacowania modeli, w których jest endogenizowana
ta zmienna.
Słowa kluczowe: funkcja produkcji, TFP (łączna produktywność czynników produkcji), stopa hicksowskigo postępu technicznego
NOTES IN PASSING CONCERNING THE ARTICLE BY T. TOKARSKI ENTITLED
SPATIAL DIVERSITY OF TOTAL PRODUCTIVITY OF PRODUCTION FACTORS
IN POLAND PUBLISHED IN GOSPODARKA NARODOWA No 3/2010
Summary
This paper provides a positive verification of the hypothesis that if you take the Cobb-Douglass'
production function with constant returns of scale, the flexibility of work output relative to technical
capital per one employee is not the same in all voivodeships, which is contradictory to the assumption
made in the quoted paper by T. Tokarski. If we accept the revised hypothesis, we will obtain a
different voivodeship structure of total productivity of production factors. Thus, we can also obtain,
which is not the subject of this paper, different assessment of models in which this variable originates.
Key words: production function, TFP (total productivity of factors of production), rate of Hicksonian
technological progress
1 Dr hab. Józef Rogowski, prof. UwB jest pracownikiem Wydziału Ekonomii i Zarządzania Uniwersytetu w Białymstoku.
Na marginesie artykułu T. Tokarskiego…
161
1. Wstęp
T. Tokarski [Zob.: Tokarski 2010 s. 23 – 39] podjął próbę zbadania przestrzennego zróżnicowania wydajności pracy, technicznego uzbrojenia pracy oraz łącznej
produkcyjności czynników produkcji. W tym celu oszacowano funkcję produkcji
Cobba-Douglasa na podstawie rocznych danych wojewódzkich z lat 1995 – 2007. Założono przy tym, że mamy do czynienia ze stałymi korzyściami skali. Wobec tego, oszacowano równanie (1), które jest równoważne przy tych założeniach z oszacowaniem
funkcji produkcji C-D:
yit  A0 e gt kit eit ,
(1)
gdzie yit to wydajność pracy mierzona wielkością PKB na jednego zatrudnionego
w i-tym województwie w t-ym roku, kit – techniczne uzbrojenie pracy w i-tym województwie i w t-ym roku, g – stopa postępu technicznego w sensie Hicksa, ξit –
składnik losowy w i-tym województwie i w t-ym roku2, dla i=1, …, 16 oraz t=1995,
…, 2007.
Również oszacowano model, w którym wprowadzono zmienne charakterystyczne województw (poza woj. mazowieckim mającym numer 0) oraz funkcje charakterystyczne kolejnych lat od 1996 roku do 2007 roku, szacując model (2):
15
2007
j 1
t 1996
ln  yit       j w j 
g d
t
t
  ln kit    it ,
(2)
gdzie zmienne wj (j=1, …, 15) oraz dt (t= 1995, …, 2007) są odpowiednio zmiennymi charakterystycznymi województw, poza mazowieckim, oraz poszczególnych
lat od 1996 roku do 2007 roku, natomiast gt – stopa postępu w roku t w Polsce3.
W ten sposób założono, że łączna produktywność czynników produkcji może
się różnić między województwami, w tym stopa postępu technicznego – między
latami. Przyjrzyjmy się tym założeniom.
1. Założono, że logarytm naturalny łącznej produktywności czynników produkcji
składa się z dwóch składników: Λ+Λj oraz gt, z których pierwszy jest zależny
od województwa, a drugi od roku.
2. Przyjęto, że elastyczność wydajności pracy względem technicznego uzbrojenia pracy (parametr α) jest niezależna od miejsca (województwa) i czasu.
Analogiczne założenia poczynili E. Kwiatkowski i T. Tokarski [Zob.: Kwiatkowski,
Tokarski 2009 s. 44 – 46] w pracy badającej powody zróżnicowania wydajności pracy
w powiatach, przyjmując również założenie 2. Innymi słowy, zakłada się jednakową
funkcję produkcji dla wszystkich regionów, co oznacza między innymi, że regiony
o zbliżonych zasobach środków trwałych i zbliżonych liczbach pracujących powinny się
charakteryzować przybliżoną krańcową wydajnością pracy i produktywnością kapitału.
To założenie wydaje się być nieprzystające do rzeczywistości, co będzie przedmiotem
weryfikacji, a także będzie podęta próba oszacowania łącznej produktywności czynników produkcji dla województw polskich bez tego założenia.
2
3
Zob.: [Tokarski 2010 s. 27]. Równanie (2) w pracy T. Tokarskiego nie zawiera składników losowych.
Zob.: Równania (4) i (5), w: [Tokarski 2010].
162
Józef Rogowski
2. Założenia
W celu weryfikacji hipotezy mówiącej, że elastyczność produkcji względem zasobów
środków trwałych nie jest jednakowa dla poszczególnych województw, zostanie oszacowany model (3):
16
16
16
j 2
j 2
j 2
ln  yit       j w j  gt   g j w j t   ln k it     j ln k it w j   it . (3) 4
Zatem, jest zakładana funkcja Cobba-Douglasa ze stałymi korzyściami skali, podobnie jak w pracy T. Tokarskiego [Zob.: przypis 2.]5. Jeżeli przyjmiemy kolejność
województw alfabetycznie, to parametr związany ze zmienną ln(kjt)wj może być interpretowany jako przyrost elastyczności produkcji względem zasobu środków trwałych
w j-tym województwie w porównaniu z województwem dolnośląskim (j=2, … 16).
Stąd istnienie choćby jednego parametru z wartością istotnie różną od 0 (test t-Studenta) zweryfikowałoby przyjętą hipotezę pozytywnie.
Źródłem danych jest Bank Danych Regionalnych GUS6. Wybrano następujące
zmienne obserwowane w latach t=1999, …, 20077 i w województwach polskich i =
1, …, 16:
–
PKBit – produkt krajowy brutto ogółem (ceny bieżące) z kategorii rachunki
regionalne;
–
Kit – wartość brutto środków trwałych ogółem (grupa: rzeczowy majątek
trwały, kategoria: inwestycje i środki trwałe);
–
Lit – pracujący ogółem (grupa: aktywność ekonomiczna ludności <dane
średnioroczne>, kategoria: rynek pracy).
Pierwsze dwie zmienne są wyrażone w cenach bieżących, dlatego należy podjąć
próbę przeliczenia ich na ceny stałe. W Banku Danych Regionalnych GUS brak jest
danych o deflatorach PKB w ujęciu przestrzennym. I. Skrodzka [Zob.: Skrodzka 2010]
wyznaczyła deflatory PKB dla województw, wykorzystując indeks cenowy Laspeyresa.
Deflatory te zostały wykorzystane do sprowadzenia wartości PKB w województwach polskich do cen stałych roku 1995. Te same wskaźniki zostały także użyte do
sprowadzenia wartości brutto środków trwałych do cen stałych roku 1995. Oznaczono tak otrzymane zmienne podobnie jak wcześniej, czyli PKB oraz K. Wobec tego
zmienne w modelu (3) mają następujące definicje:
1.
yit 
PKBit
(wydajność pracy),
Lit
Oznaczenia jak wyżej.
Natomiast inaczej został potraktowany postęp techniczny. W niniejszej pracy zakładamy, że
stopa postępu technicznego jest stała w czasie oraz nie zakładamy jej stałości w przestrzeni. T. Tokarski, w cytowanej pracy, zakłada, że stopa postępu technicznego jest stała w przestrzeni, natomiast nie
musi być stała w czasie.
6Zob.: [Dokument elektroniczny, tryb dostępu: http://www.stat.gov.pl/bdr_n/app/strona.indeks].
7 Dane dotyczące PKB w województwach w Bazie Danych Regionalnych GUS są dane w latach 1995 –
2007, zmiennej K – w latach 1999 – 2008, natomiast zmiennej L – w latach 1995 – 2008. Stąd analizą są
objęte lata 1999 – 2007.
4
5
163
Na marginesie artykułu T. Tokarskiego…
2.
kit 
K it
(techniczne uzbrojenie pracy).
Lit
3. Wyniki estymacji
Wyniki oszacowania8 metodą najmniejszych kwadratów na podstawie 144 danych (9 lat razy 16 województw) są przedstawione w tabeli 1.
TABELA 1.
Statystyka regresji oraz analiza wariancji
STATYSTYKI REGRESJI
R kwadrat
Błąd standardowy
Obserwacje
0,994292
0,017851
144
ANALIZA WARIANCJI
Regresja
Resztkowy
Razem
df
47
96
143
SS
7,94
0,05
7,98
MS
F
0,17 355,79
4,0E-04
Istotność F
2,74E-90
Źródło: Obliczenia własne
Z analizy wariancji wynika, że przyjęty przez nas model opisuje istotną zależność.
Odrzucenie hipotezy, że wszystkie parametry poza wyrazem wolnym są zerami i przyjęcie hipotezy przeciwnej jest związane z ryzykiem popełnienia błędu odrzucenia hipotezy prawdziwej, którego prawdopodobieństwo jest równe w przybliżeniu 3 na 90tym miejscu po przecinku, czyli praktycznie 0.
Wyniki estymacji parametrów będą podane w trzech grupach9:
–
logarytm naturalny wyrazu wolnego dla województwa dolnośląskiego i jego
zmiany w innych województwach, czyli czyli Λ i Λj, gdzie w tabeli zamiast j
będzie wpisany skrót województwa;
–
parametry związane ze zmienną czasową, czyli stopa hicksowskiego postępu
technicznego w województwie dolnośląskim i jej zmiana w innych województwach, czyli g i gj (j jak wyżej);
–
elastyczność produkcji względem środków trwałych (równoważnie, elastyczność wydajności pracy względem technicznego jej uzbrojenia) w województwie dolnośląskim i jej zmiany w pozostałych województwach, czyli α oraz αj
(j jak wyżej).
8
Oszacowanie przeprowadzono przy pomocy programu Microsoft Office Excel 2007.
– istotność dwustronna na poziomie 0,05; * – istotność dwustronna na poziomie 0,1.
9 **
164
Józef Rogowski
TABELA 2.
Oszacowania wyrazu wolnego i jego zmiany (Λ i Λj)
Parametr z I
grupy
Λ
Λ(K-P)
Λ(LUBE)
Λ(LUBU)
Λ(Ł)
Λ(MAŁ)
Λ(MAZ)
Λ(OP)
Λ(PODK)
Λ(PODL)
Λ(POM)
Λ(ŚL)
Λ(ŚW)
Λ(W-M)
Λ(WIELK)
Λ(Z)
Oszacowana
wartość
-35,7743**
-63,3483**
-4,70326
21,2187**
-4,10871
-26,2752**
-19,0075**
-29,1501**
24,3818*
-17,006
-14,7955*
-7,59874
-9,95147
0,988678
-11,427
-23,0455*
Błąd standardowy
6,678048794
18,16816791
8,883149407
9,144677154
10,13259255
12,10245735
9,562369456
9,447889524
16,55161009
13,9236451
10,52361319
11,53118787
8,7674052
8,738515721
16,77934341
17,25063737
t Stat
-5,356992
-3,486772
-0,529459
2,3203333
-0,405494
-2,171067
-1,987738
-3,085353
1,4730771
-1,221377
-1,405937
-0,658973
-1,135053
0,1131402
-0,681014
-1,335923
Wartość-p
2,8958E-07
0,00036955
0,29885472
0,01122026
0,34300835
0,01619569
0,02484466
0,00132814
0,07200077
0,11246706
0,08148569
0,25574528
0,12958957
0,45507782
0,24875117
0,09236632
Źródło: Obliczenia własne
Z powyższej tabeli wynika, że logarytm naturalny wyrazu wolnego funkcji C-D ze
stałymi korzyściami skali w województwie dolnośląskim jest istotnie różny od zera
na poziomie istotności mniejszej niż 0,05. Natomiast parametr ten istotnie różni się
od powyższego w województwach: kujawsko-pomorskim (K-P), lubuskim (LUBU),
małopolskim (MAŁ), mazowieckim (MAZ), opolskim (OP), podkarpackim (PODK),
pomorskim (POM) oraz zachodniopomorskim (Z).
TABELA 3.
Oszacowania stopy postępu technicznego w województwie dolnośląskim
i jego zmian w pozostałych regionach (g i gj)
Parametr z II
grupy
g
g(K-P)
g(LUBE)
g(LUBU)
g(Ł)
g(MAŁ)
g(MAZ)
g(OP)
g(PODK)
g(PODL)
g(POM)
g(ŚL)
g(ŚW)
g(W-M)
g(WIELK)
g(Z)
Źródło: Obliczenia własne
Oszacowana
wartość
0,018327**
0,03322**
0,002281
-0,01031**
0,001978
0,013667**
0,010031**
0,014703**
-0,01258*
0,008349
0,007598*
0,003547
0,005
-0,00088
0,005888
0,012724*
Błąd standardowy
0,003440356
0,009602904
0,004610973
0,004797931
0,005307561
0,006338268
0,004955226
0,004883687
0,008916592
0,007238089
0,005650337
0,005562271
0,004479789
0,004449243
0,008803828
0,00929506
t Stat
5,3272028
3,4593242
0,4945838
-2,148773
0,3726684
2,1562034
2,0243808
3,0106056
-1,411126
1,1534376
1,3446583
0,6376602
1,1160599
-0,198223
0,6688094
1,3689154
Wartość-p
3,2867E-07
0,00040466
0,31101193
0,01708383
0,35510837
0,01678324
0,02285452
0,00166577
0,08071999
0,12579725
0,09095204
0,26260644
0,13359113
0,42164486
0,25261108
0,08711013
165
Na marginesie artykułu T. Tokarskiego…
Można zauważyć, że stopa hicksowskiego postępu technicznego jest istotnie różna
od zera w województwie dolnośląskim. Poza województwami: lubelskim, łódzkim,
podlaskim, śląskim, świętokrzyskim, warmińsko-mazurskim oraz wielkopolskim, stopa
ta różni się zasadniczo od stopy w powyższym województwie, przy poziomie istotności
nie większym od 0,1. Województwa lubuskie i podkarpackie mają tę stopę znacząco
niższą. Oznacza to, że należy przy szacowaniu funkcji produkcji z hicksowskim postępem technicznym zakładać, że jego stopa różni się między województwami.
Elastyczność wydajności pracy względem technicznego uzbrojenia pracy jest w województwie dolnośląskim istotnie większa od 0 i wynosi 0,63510. Dla większości województw ten parametr nie jest istotnie różny od 0,635. Natomiast dla kujawsko-pomorskiego11, małopolskiego, mazowieckiego i zachodniopomorskiego elastyczność powyższa różni się w znacznym stopniu od 0,635. W Małopolsce, na Mazowszu oraz
w zachodniopomorskim elastyczność ta jest mniejsza niż na Dolnym Śląsku. Ciekawe, że gdybyśmy szacowali modele dla każdego województwa oddzielnie, to elastyczności w regionie małopolskim (0,32), w zachodniopomorskim (0,05) oraz w kujawskopomorskim (-0,18) są nieistotnie różne od zera, chociaż w województwie małopolskim na poziomie istotności 0,1 jest ona znacząco dodatnia.
TABELA 4.
Oszacowania elastyczności wydajności pracy względem postępu technicznego
w województwie dolnośląskim i jej zmian w pozostałych regionach (α i αj)
Parametr
z III grupy
α
α(K-P)
α(LUBE)
α(LUBU)
α(Ł)
α(MAŁ)
α(MAZ)
α(OP)
α(PODK)
α(PODL)
α(POM)
α(ŚL)
α(ŚW)
α(W-M)
α(WIELK)
α(Z)
Oszacowana Błąd standarwartość
dowy
0,635379**
0,090460596
-0,82028**
0,298910311
-0,0515
0,24197664
-0,17014
0,247111454
0,004518
0,197544546
-0,31156*
0,194652074
-0,22579*
0,143452771
-0,127
0,139933657
0,149065
0,375295808
0,00527
0,17521533
-0,10063
0,279600838
0,127107
0,21296296
-0,07794
0,137452501
0,149645
0,174395726
-0,09119
0,236057672
-0,58815*
0,357804634
t Stat
7,0238259
-2,744224
-0,212823
-0,688504
0,0228703
-1,600591
-1,57398
-0,907601
0,3971937
0,0300796
-0,359895
0,596851
-0,567007
0,8580798
-0,386286
-1,643774
Wartość-p
1,5502E-10
0,00361977
0,41595802
0,24639808
0,4909006
0,05637673
0,05939104
0,18318091
0,34605317
0,488033
0,35985819
0,27600593
0,28601627
0,19649285
0,35006985
0,05174701
Źródło: Obliczenia własne.
10 Zatem, przy naszym założeniu o stałych korzyściach skali, elastyczność produkcji względem
liczby zatrudnionych jest równa 0,365.
11 Dla tego województwa otrzymany wynik jest nieinterpretowalny, bowiem elastyczność wydajności
pracy względem technicznego uzbrojenia pracy, lub równoważnie, elastyczność PKB względem zasobu
środków trwałych jest ujemna, czyli wzrost zasobu środków trwałych prowadzi do zmniejszenia PKB.
166
Józef Rogowski
Zatem, otrzymaliśmy wynik, z którego widać, że nie można zakładać równości elastyczności PKB względem zasobu środków trwałych między województwami. Innymi słowy, istnieją regiony, w których funkcje produkcji Cobba-Douglasa różnią się
parametrami związanymi z liczbą zatrudnionych i zasobami kapitału, stąd mogą istnieć regiony, które przy tych samych zasobach środków trwałych i liczbie zatrudnionych mają różne krańcowe wydajności czynników produkcji.
4. Rozkład przestrzenny TFP
Na podstawie, otrzymanych wyżej, wyników spróbujmy oszacować łączną produktywność czynników produkcji, czyli bez założenia o jednakowych stopach postępu technicznego oraz jednakowych elastycznościach wydajności pracy względem
technicznego uzbrojenia pracy w poszczególnych województwach. Natomiast zakładamy, że stopa postępu technicznego w poszczególnych województwach nie zmienia się
w czasie. Do tego celu będą wykorzystane wzory [Zob.: Tokarski 2010 s. 31 wzór (6)]:
dla Dolnego Śląska (i=1) – TFP1t 
y1t
,
k10t, 64
dla pozostałych (i=2, …, 16) – TFPit 
(4)
y
k
it
0 , 64  i
it
.
(5)
Z uwagi na kłopoty interpretacyjne, o których była mowa w poprzednim punkcie,
nie bierzemy pod uwagę województw: kujawsko-pomorskiego (wykładnik przy technicznym uzbrojeniu pracy jest ujemny) oraz zachodniopomorskiego (elastyczność wydajności pracy względem technicznego uzbrojenia pracy jest nieistotnie większa od
zera). Na mocy: (4) i (5) otrzymano oszacowania TFP dla poszczególnych lat i województw (tabela 5.).
TABELA 5.
Oszacowania TFP w poszczególnych województwach
dolnośląskie
rok
TPF
1999
2,31303667
2000 2,466800155
2001 2,497661781
2002 2,530799939
2003 2,523914597
2004 2,559204812
2005 2,596825463
2006 2,691507688
2007 2,789412333
lubelskie
rok
TPF
1999 2,043353
2000 2,074899
2001 2,159703
2002 2,180409
2003 2,237071
2004 2,288923
2005 2,29414
2006 2,374036
2007 2,411784
lubuskie
rok
TPF
1999 4,210112
2000 4,580801
2001 4,441958
2002 4,426529
2003 4,433525
2004 4,59811
2005 4,639252
2006 4,602141
2007 4,58612
łódzkie
rok
TPF
1999 2,023151
2000 2,077737
2001 2,102288
2002 2,168699
2003 2,19211
2004 2,264884
2005 2,282151
2006 2,34476
2007 2,378963
Na marginesie artykułu T. Tokarskiego…
małopolskie
rok
TPF
1999 6,962230771
2000 6,992353263
2001 6,899898627
2002 7,336404048
2003
7,60217894
2004 7,928699979
2005 8,100695256
2006 8,387384903
2007 8,884832515
mazowieckie
rok
TPF
1999 6,826805
2000 6,871807
2001 7,097033
2002 7,305737
2003 7,588199
2004 7,580714
2005 8,126258
2006 8,284535
2007 8,407016
podlaskie
rok
TPF
1999 1,640507928
2000 1,822433593
2001 1,868750067
2002 1,903187688
2003 1,911991181
2004
1,97040269
2005 2,001642643
2006 2,071037237
2007 2,130197192
pomorskie
rok
TPF
1999 3,654163
2000 3,680386
2001 3,521886
2002 3,632743
2003 3,841944
2004 4,024127
2005 4,140042
2006 4,287476
2007 4,322357
warmińskomazurskie
rok
TPF
1999 1,099661764
2000
1,12098447
2001 1,106267326
2002 1,145438247
2003 1,178396891
2004 1,201571727
2005 1,202348073
2006 1,239296523
2007 1,255871785
opolskie
rok
TPF
1999 3,002977
2000 3,172536
2001 3,162182
2002
3,2486
2003 3,375918
2004 3,842948
2005 3,669874
2006 3,708097
2007 3,902499
śląskie
rok
TPF
1999 1,375497
2000 1,494984
2001 1,495999
2002 1,514819
2003 1,541491
2004 1,659577
2005 1,63216
2006 1,621913
2007 1,681086
167
podkarpackie
rok
TPF
1999 1,088341
2000 1,114159
2001 1,130895
2002 1,095668
2003 1,105097
2004 1,125732
2005 1,141814
2006 1,151321
2007 1,144137
świętokrzyskie
rok
TPF
1999 2,459357
2000 2,546665
2001 2,588223
2002 2,614592
2003 2,748136
2004 2,854858
2005 2,786507
2006 2,877213
2007 3,002342
wielkopolskie
rok
1999
2000
2001
2002
2003
2004
2005
2006
2007
TPF
3,346389
3,405503
3,573522
3,582154
3,561098
3,814295
3,87378
3,942735
4,076407
Źródło: Obliczenia własne.
Otrzymane wyniki pokazują znaczne zróżnicowanie TPF między województwami. Wskaźniki te zmieniają się od 1 (podkarpackie i warmińsko-mazurskie) do ponad 8 (małopolskie i mazowieckie). W większości województw można zaobserwować
spadki TPF (warmińsko-mazurskie w 2001 r., wielkopolskie w 2003 r., świętokrzyskie w 2005 r., śląskie w 2005 r. i 2006 r., pomorskie w 2001 r., podkarpackie w 2002 r.
i 2007 r., opolskie w 2001 r. i 2005 r., mazowieckie w 2004 r., małopolskie w 2001 r.,
lubuskie w: 2001 r., 2002 r., 2006 r. i 2007 r., dolnośląskie w 2003 r.). W województwach: lubelskim, łódzkim, podlaskim, w całym analizowanym okresie, TFP wzrastał.
168
Józef Rogowski
TABELA 6.
Średnie wartości TFP w latach 1999 – 2007
Województwo Średnia TPF
dolnośląskie
2,552129
lubelskie
2,229369
lubuskie
4,502061
łódzkie
2,20386
małopolskie
7,677186
mazowieckie
7,565345
opolskie
3,453959
Województwo Średnia TPF
podkarpackie
1,121907
podlaskie
1,924461
pomorskie
3,900569
śląskie
1,557503
świętokrzyskie
2,719766
warmińsko1,172204
mazurskie
wielkopolskie
3,686209
Źródło: Obliczenia własne
Powyższa tabela pokazuje średnie wartości łącznej produktywności czynników
w poszczególnych regionach. Na czele listy, pod względem TFP, są Małopolska i Mazowsze. Środek stawki stanowią: lubuskie, pomorskie, wielkopolskie i opolskie. Natomiast listę zamykają województwa: podkarpackie i warmińsko-mazurskie. Otrzymana kolejność jest trochę inna niż w, cytowanym wyżej, artykule T. Tokarskiego.
5. Podsumowanie
W niniejszej pracy została zweryfikowana pozytywnie hipoteza, że jeżeli przyjąć
funkcje produkcji Cobb’a-Douglass’a ze stałymi korzyściami skali, to elastyczność wydajności pracy względem technicznego uzbrojenia pracy nie jest jednakowa we
wszystkich województwach, co przeczy założeniu przyjętemu w cytowanej pracy T.
Tokarskiego. Jeżeli przyjmie się zweryfikowaną hipotezę, to otrzyma się inną wojewódzką strukturę łącznej produkcyjności czynników produkcji, a zatem można też
otrzymać, czego nie bada się w niniejszej pracy, inne oszacowania modeli, w których
jest endogenizowana ta zmienna.
Literatura
Kwiatkowski E., Tokarski T. 2009 Determinanty przestrzennego zróżnicowania wydajności pracy,
„Wiadomości Statystyczne”, nr 10.
Tokarski T. 2010 Przestrzenne zróżnicowanie łącznej produktywności czynników produkcji w Polsce, „Gospodarka Narodowa”, nr 3.
Skrodzka I. 2010 Modelowanie miękkie kapitału ludzkiego w województwie podlaskim, Konferencja naukowa: Ekonomia – Zarządzanie – Międzynarodowe Stosunki Gospodarcze.
Płaszczyzny badawcze i możliwości współpracy, Rajgród 28-29 VI.
Dokument elektroniczny, Tryb dostępu: [http://www.stat.gov.pl/bdr_n/app/strona.indeks].
OPTIMUM. STUDIA EKONOMICZNE NR 4 (48) 2010
Dorota PERŁO1
REGIONALNY MODEL EFEKTYWNEGO ZARZĄDZANIA
DŁUGIEM JEDNOSTEK SAMORZĄDU TERYTORIALNEGO
W POLSCE2
Streszczenie
Celem artykułu jest budowa modelu określającego najważniejsze elementy efektywnego zarządzania
długiem na poziomie regionalnym. Model pokazuje relacje pomiędzy ogromną skalą potrzeb inwestycyjnych
regionów w Polsce i związaną z nią koniecznością zaciągania długu a strukturą źródeł finansowania inwestycji oraz polityką zarządzania długiem.
Słowa kluczowe: model miękki, dług JST, efektywne zarządzanie długiem
REGIONAL MODEL OF EFFECTIVE DEBT MANAGEMENT BY LOCAL
GOVERNMENT UNITS IN POLAND
Summary
The purpose of this article is to build a model setting out the key elements of effective debt management on a regional level. The model shows the relationship between large-scale investment needs
of regions in Poland and the related necessity to enter into debt, and the structure of sources of investment financing as well as policy of debt management.
Key words: soft model, local debt, effective local debt management
1. Wstęp
Wzrost znaczenia instrumentów dłużnych w systemach finansów publicznych jednostek samorządu terytorialnego (JST) nadal nie skutkuje proporcjonalnym wzrostem
efektywności ich wykorzystania. Istniejące w polskim systemie finansów publicznych
uwarunkowania prawno-ekonomiczne, a także polityczne i organizacyjne ograniczają
możliwości efektywnego wykorzystania regionalnego długu publicznego jako instrumentu polityki rozwojowej województw.
Dr Dorota Perło jest pracownikiem Wydziału Ekonomii i Zarządzania Uniwersytetu w Białymstoku.
Praca naukowa finansowana ze środków na naukę w latach 2009 – 2010, jako projekt badawczy
nr N N113 241436.
1
2
170
Dorota Perło
Celem artykułu jest budowa modelu określającego najważniejsze elementy efektywnego zarządzania długiem na poziomie regionalnym. Diagnozowane zagadnienia
są częściowo niemierzalne, a w związku z tym dobrym narzędziem badawczym jest
modelowanie miękkie (soft modelling), które umożliwia badanie powiązań między zmiennymi nieobserwowalnymi3. Model miękki składa się z dwóch części: z modelu wewnętrznego i zewnętrznego. Estymowany jest metodą PLS (Partial Least Squares) umożliwiającą jednoczesne oszacowanie parametrów obydwu modeli. W wyniku estymacji,
oprócz parametrów, otrzymuje się również oszacowania wartości zmiennej ukrytej, które można traktować jako miarę syntetyczną. Wielkości te zależą nie tylko od relacji zewnętrznych, ale również od założonych w modelu wewnętrznym związków między zjawiskami złożonymi.
2. Specyfikacja modelu efektywnego zarządzania długiem JST
W ostatnim okresie zadłużenie polskich województw odznacza się tendencją wzrostową. Wynika to z jednej strony z ogromnej skali potrzeb inwestycyjnych, z drugiej zaś
z konieczności współfinansowania projektów realizowanych w ramach funduszy strukturalnych i Funduszu Spójności [Por.: Bitner, Cichocki 2008]. Wzrost wysokości zadłużenia pociąga za sobą wzrost obciążenia długiem dochodów bieżących. Najbardziej
obciążone długiem są dochody bieżące województwa kujawsko-pomorskiego (58,49%),
a najmniej – województwa śląskiego (0,44%).
TABELA 1.
Podstawowe wskaźniki analizy statystycznej obciążenia długiem dochodów
bieżących województw (WZ1)
Wyszczególnienie
Średnia arytmetyczna
Mediana
Odchylenie standardowe
Współczynnik zmienności
Wartości minimalne
Wartości maksymalne
Empiryczny obszar zmienności
Obciążenie dochodów bieżących długiem w % (WZ1)
2005
2006
2007
20,36
26,29
26,16
18,26
29,12
19,46
13,74
13,59
17,90
67,46
51,70
68,45
1,50
0,95
0,44
51,37
44,03
58,49
49,87
43,08
58,05
Źródło: [Wskaźniki do oceny…, Dokument elektroniczny, Tryb dostępu: www.mf.gov.pl, Data
wejścia: czerwiec 2009 r.].
3 Teoretyczne podstawy modelowania miękkiego są zawarte przede wszystkim w publikacjach: [Rogowski 1990; Wold 1980; Perło 2004].
Regionalny model efektywnego zarządzania długiem…
171
Korelacja pomiędzy wysokością zadłużenia a poziomem nadwyżki operacyjnej brutto, stanowiącej najbardziej syntetyczną ocenę kondycji finansowej samorządu, jak
również potencjału inwestycyjnego samorządu oraz zdolności kredytowej, jest bardzo słaba (0,2546). Oznacza to, że większość regionów nie zarządza długiem w sposób
efektywny. Z drugiej strony znaczna dyspersja zadłużenia województw pokazuje, że
istnieją w Polsce takie regiony, które potrafią wykorzystać swój potencjał [Por.: Tabela 1.). Najbardziej są zadłużone województwa: małopolskie, kujawsko-pomorskie,
mazowieckie i dolnośląskie. Są to jednocześnie regiony, które posiadają wysoki potencjał rozwojowy. Produkt krajowy brutto na mieszkańca, a także nadwyżka operacyjna brutto na mieszkańca w tych regionach są zdecydowanie wyższe od średniej krajowej. Natomiast najmniej zadłużone są regiony: świętokrzyskie, podlaskie, lubelskie
i śląskie. Pierwsze trzy województwa charakteryzują się stosunkowo niskim poziomem
potencjału rozwojowego, natomiast czwarte – województwo śląskie – zajmuje trzecie miejsce w Polsce pod względem PKB na mieszkańca, a mimo to nie zarządza efektywnie możliwościami zadłużenia regionu. Wynika to ze znacznej nadwyżki finansowej, jaką dysponował Śląsk w 2007 r. W podobnej sytuacji są województwa: wielkopolskie, pomorskie i łódzkie.
Model miękki został zbudowany na podstawie danych statystycznych dotyczących szesnastu województw w Polsce w 2007 r. oraz prognoz na lata 2008 – 20104.
Na model wewnętrzny składa się dziesięć zmiennych ukrytych: regionalny dług
publiczny (DR), polityka zarządzania długiem (PZD), potrzeby inwestycyjne województw (PIN), potencjał inwestycyjny (INW), poziom rozwoju regionalnego (RR),
źródła finansowania rozwoju regionalnego (ZF), środki własne (SWL), transfery z budżetu państwa (TBP), transfery zwrotne (TZ), fundusze unijne (FUE). Analiza wyników
modelowania wskazuje, które województwo jest „lepsze”, a które „gorsze” w stosunku
do innych obiektów ze względu na efektywne wykorzystanie długu. Schemat modelu
wewnętrznego, prezentującego zależność analizowanych zmiennych, zawarty jest na
rysunku 1.
Wybrane do analizy zmienne są zjawiskami złożonymi, które nie podlegają bezpośredniej obserwacji – są to zmienne ukryte. W związku z powyższym, problematyczna jest kwantyfikacja tych pojęć. W analizowanym modelu każdej zmiennej niemierzalnej został przyporządkowany zbiór odpowiednich indykatorów, które mają na
nie wpływ. Przyjęte zostało podejście dedukcyjne, oznaczające, że zmienna niemierzalna jest pierwotna w stosunku do zbioru wskaźników. Zatem, w modelu występują
indykatory odbijające (reflective indicators), które nie muszą charakteryzować się niską korelacją między sobą. Oznacza to, że przy doborze zmiennych należy kierować się przede wszystkim względami merytorycznymi, a nie tradycyjnymi metodami doboru. Metody klasyczne zakładają bowiem niską zależność między zmiennymi objaśniającymi
[Por. m.in.: Kuszewski 2000 s. 14 – 16].
4 Badania te nie uwzględniają jeszcze skutków aktualnego kryzysu występującego w sektorze bankowym
i prowadzone one były w warunkach swoistej nadpłynności tego sektora oraz stosunkowo łatwego dostępu
JST do instrumentów dłużnych. W ostatnim czasie pozyskanie kredytów i pożyczek przez samorządy terytorialne, zwłaszcza długoterminowych, stało się trudniejsze, a cena długu znacząco wzrosła.
172
Dorota Perło
RYSUNEK 1.
Schemat modelu wewnętrznego efektywnego zarządzania długiem
w regionach w Polsce
TZ
SWL
PZD
Legenda:
TBP
ZF
FUE
PZD
DR
PIN
INW
ZF
SWL
TBP
TZ
FUE
RR
–
–
–
–
–
–
–
–
–
–
DR
INW
PIN
RR
polityka zarządzania długiem,
regionalny dług publiczny,
potrzeby inwestycyjne województw,
potencjał inwestycyjny,
źródła finansowania rozwoju regionalnego,
środki własne,
transfery z budżetu państwa,
transfery zwrotne,
fundusze unijne,
poziom rozwoju regionalnego.
– zmienna ukryta rzędu I,
– zmienna ukryta rzędu II.
Źródło: Opracowanie własne.
Liczba wskaźników (indykatorów), analizowanych w modelach miękkich, nie może
przekroczyć liczby obiektów (województw). Ostateczny zestaw wskaźników, które
przeszły pozytywnie wszystkie kryteria doboru, a także weryfikację merytoryczną i statystyczną modelu zawiera tabela 2. Źródła danych statystycznych stanowiły: Sprawozdania z wykonania budżetu województw w 2007 r., Wieloletnie programy inwestycyjne województw na
lata 2008 – 2010, Prognoza łącznej kwoty długu województw na lata 2008-2010, a także Bank
Danych Regionalnych Głównego Urzędu Statystycznego.
Regionalny model efektywnego zarządzania długiem…
173
TABELA 2.
Indykatory zmiennych ukrytych modelu miękkiego efektywnego zarządzania długiem w regionach w Polsce
Symbol*
Znaczenie indykatora
(w zł na mieszkańca)
Z0106
Z0207
Z0307
Z0407
Z0507
Z0607
Z0707
Z0807
Z0908
Z0909
Z0910
Z1008
Z1009
Z1010
Produkt krajowy brutto
Dochody własne
Dotacje celowe
Subwencje ogólne
Środki na dofinansowanie własnych zadań województw pozyskane z budżetu UE
Zobowiązania ogółem
Nadwyżka operacyjna brutto
Kredyty i pożyczki
Prognoza łącznej kwoty długu na 2008 r.
Prognoza łącznej kwoty długu na 2009 r.
Prognoza łącznej kwoty długu na 2010 r.
Planowane nakłady inwestycyjne ogółem na 2008 r.
Planowane nakłady inwestycyjne ogółem na 2009 r.
Planowane nakłady inwestycyjne ogółem na 2010 r.
* Dwie ostatnie cyfry oznaczają rok, z którego pochodzą dane statystyczne.
Źródło: Opracowanie własne.
Wybrane zmienne mogą być stymulantami, tzn. ich wysoka wartość powinna informować o lepszej pozycji województwa w rankingu, lub destymulantami, tzn. ich niska wartość powinna informować o lepszej pozycji województwa w rankingu. Jeżeli estymatory wag i ładunków czynnikowych dla indykatorów będących stymulantami danej
zmiennej obserwowalnej są dodatnie, a dla będących destymulantami ujemne, to większa wartość tej zmiennej wskazuje na wyższy poziom badanego zjawiska na danym
obiekcie. Interpretując kolejność tych liczb, dokonuje się analizy porównawczej.
3. Estymacja i weryfikacja modelu miękkiego
Estymacji został poddany model miękki, którego schemat jest przedstawiony na
rysunku 1.
Wielkość zadłużenia województw (DR) jest determinowana: potrzebami inwestycyjnymi, wynikającymi m.in. z prowadzonej przez region polityki zarządzania długiem
(PZD); a także potencjałem inwestycyjnym (INW), mierzonym za pomocą nadwyżki operacyjnej brutto; poziomem rozwoju regionalnego (RR), utożsamianym najczęściej
z produktem krajowym brutto na mieszkańca oraz źródłami finansowania rozwoju
regionalnego (ZF).
174
Dorota Perło
Zależności pomiędzy zmiennymi ukrytymi prezentują oszacowania parametrów
relacji wewnętrznych w postaci poniższych równań, przy których (w nawiasach)
podano odchylenia standardowe otrzymane przy pomocy cięcia Tukey’a:
DR  1,1803  0,5577 PZD  0,1571INW  0,4525RR  0,0749ZF  0,1067TZ
(1,2368) (0,0224) (0,0116)
(0,1247)
(0,0238) (0,0140) (1)
R 2  0,6019,
PIN  0,7914  0,1569 PZD  0,6245RR
(0,0378) (0,0450)
(0,0125) ,
(2)
R 2  0,4019
ZF  0,0328  0,3682SWL  0,6507TBP  0,1789 FUE
(0,0420) (0,0243)
(0,0164)
(0,0403) ,
(3)
R 2  1,0000
Na podstawie wyników estymacji równania 1. modelu wewnętrznego można stwierdzić, że na poziom zadłużenia regionów największy wpływ ma prowadzona przez regiony polityka zarządzania długiem (0,5577), następnie: poziom rozwoju regionalnego (0,4525), potencjał inwestycyjny (0,1571), w dalszej kolejności źródła finansowania rozwoju regionalnego (0,0749) oraz transfery zwrotne (0,1067).
Z analizy drugiej zależności wynika, iż z kolei potrzeby inwestycyjne województw są
determinowane przede wszystkim poziomem rozwoju regionalnego (0,6245), a w mniejszym stopniu polityką zarządzania długiem (0,1569).
Ostatnie równanie pokazuje, które ze źródeł finansowania rozwoju regionalnego
jest najsilniejsze. Największy wpływ posiadają transfery z budżetu państwa (0,6507),
mniejszy środki z UE (0,1789). Natomiast środki własne odznaczają się ujemną średnią
zależnością korelacyjną ze zmienną ZF. Świadczy to o tym, że zadłużają się przede
wszystkim regiony bogate, o wysokim potencjale dochodowym. Regionów biednych nie
stać na zaciąganie długu głównie z powodu konieczności nadmiernego obciążania
swoich, stosunkowo niewielkich, budżetów kosztami obsługi zadłużenia.
Oszacowania parametrów relacji zewnętrznych wszystkich zmiennych ukrytych oraz
błędy ich szacunku zawarte są w tabeli 3. Wyniki estymacji wag i ładunków czynnikowych, co do znaku, są zgodne z oczekiwaniami i potwierdzają wyniki otrzymane
w modelu wewnętrznym.
Każda ze zmiennych ukrytych została opisana za pomocą odpowiednio dobranego zbioru wskaźników, które mają na nią wpływ. Polityka zarządzania długiem województw (PZD) została określona na podstawie prognozy łącznej kwoty długu na
lata 2008 – 2010. Ładunek czynnikowy, będący wynikiem oszacowań zewnętrznych
modelu, wskazuje na silną dodatnią korelację wybranych indykatorów ze zmienną
ukrytą PZD, co oznacza, że prognozowane kwoty długu silnie stymulują wielkość zadłużenia województw. Większość województw prognozuje łączną kwotę długu długookresowo do roku 2012, niektóre, nawet do 2013 r., co świadczy jednocześnie
o większej jakości wieloletniego planowania inwestycji w regionie. Zgodnie z ustawą
Regionalny model efektywnego zarządzania długiem…
175
o finansach publicznych, regiony planują kwoty wydatków inwestycyjnych jedynie w roku budżetowym i na dwa kolejne lata5, a prognoza kwoty długu na okres dłuższy pokazuje pewne perspektywy rozwojowe województw.
Spośród wybranych do analizy źródeł finansowania rozwoju regionalnego, najistotniejszy dodatni wpływ na zmienną ZF mają transfery z budżetu państwa w postaci
dotacji celowych (0,8833) i subwencji ogólnych (0,9006), a umiarkowany – fundusze
unijne (0,4301). Dość istotny, ale ujemny wpływ na zmienną ZF posiadają środki własne województw (-0,8336), co oznacza, że są one destymulantą źródeł finansowania
rozwoju regionalnego. Analiza wyników oszacowań zewnętrznych modelu potwierdza wyniki uzyskane w modelu wewnętrznym.
Pozostałe zmienne ukryte podlegały analizie wyników estymacji wewnętrznych,
ponieważ zostały zdefiniowane na podstawie jednego indykatora. Są to: regionalny
dług publiczny (DR) – przedstawiony za pomocą zobowiązań ogółem na mieszkańca, potencjał inwestycyjny (INW) – określony na podstawie nadwyżki operacyjnej
brutto na mieszkańca, poziom rozwoju regionalnego (RR) – utożsamiony z produktem
krajowym brutto na mieszkańca, transfery zwrotne (TZ) – opisane na podstawie wysokości kredytów i pożyczek na mieszkańca6, a także fundusze unijne (FUE) – zdefiniowane za pomocą wysokości środków na dofinansowanie zadań własnych województw pozyskanych z budżetu UE na mieszkańca.
Współczynnik determinacji, oceniający wyniki estymacji modelu wewnętrznego,
kształtuje się na dość istotnym poziomie równym: 0,6019 (w przypadku równania 1.),
0,4019 (równanie 2.) oraz 1,0000 (równanie 3.), co oznacza wysoką jakość analizowanego modelu. Oszacowane parametry relacji wewnętrznych są statystycznie istotne (reguła „2s”). Pozytywną weryfikację posiadają również wyniki oszacowań relacji
zewnętrznych.
Test Stone’a-Geissera weryfikuje model miękki pod względem jego przydatności
do predykcji. Wartość prognostyczna rozważanego modelu jest dość wysoka, co ilustruje ogólny test Stone’a-Geissera równy 0,4027 [Por.: Tabela 4.]. Mimo że model był
szacowany na danych przekrojowych i na niezbyt licznej próbie, otrzymane wyniki należy uznać za zadowalające i w związku z tym można przejść do analizy otrzymanych
oszacowań wartości zmiennych ukrytych.
5 Por.: Art. 166. ust. 2 pkt. 4 Ustawy z dnia 30 czerwca 2005 r. o finansach publicznych, Dz. U., Nr 249,
poz. 2104 z późn. zm.
6 Indykator – emisja papierów wartościowych na mieszkańca, został usunięty z ostatecznej postaci
modelu ze względu na negatywną weryfikację merytoryczną, wynikającą z tego, że w 2007 r. zaledwie kilka
województw emitowało papiery dłużne.
176
Dorota Perło
TABELA 3.
Oszacowania parametrów relacji zewnętrznych (metryka standardowa) modelu miękkiego efektywnego zarządzania długiem
Zmienna ukryta
Indykatory
Z0207
Z0307
ZF
Z0407
Z0507
SWL
Z0207
Z0307
TBP
Z0407
FUE
Z0507
DR
Z0607
TZ
Z0807
INW
Z0707
Z0908
PZD
Z0909
Z0910
RR
Z0106
Z1008
PIN
Z1009
Z1010
Źródło: Obliczenia własne.
Wagi
błąd
-0,3658
0,0221
0,3353
0,0099
0,3563
0,0199
0,1814
0,0373
1,0000
0,0000
0,5255
0,0068
0,5358
0,0069
1,0000
0,0000
1,0000
0,0000
1,0000
0,0000
1,0000
0,0000
0,4019
0,0332
0,2996
0,0158
0,3817
0,0209
1,0000
0,0000
0,5763
0,0059
0,1906
0,0126
0,4907
0,0145
Ładunki czynnikowe
błąd
-0,8336
0,0206
0,8833
0,0043
0,9006
0,0214
0,4301
0,0353
1,0000
0,0000
0,9410
0,0015
0,9433
0,0016
1,0000
0,0000
1,0000
0,0000
1,0000
0,0000
1,0000
0,0000
0,8982
0,0725
0,9624
0,0719
0,9186
0,1207
1,0000
0,0000
0,8438
0,0038
0,6025
0,0081
0,8129
0,0068
Współczynnik determinacji
0,6948
0,7803
0,8111
0,1850
1,0000
0,8855
0,8899
1,0000
1,0000
1,0000
1,0000
0,8067
0,9263
0,8439
1,0000
0,7120
0,3630
0,6608
Regionalny model efektywnego zarządzania długiem…
177
TABELA 4.
Test Stone’a-Geissera ogólny dla zmiennej ukrytej DL
Wyszczególnienie
DL
Wartość testu S-G
0,4027
Źródło: Obliczenia własne.
5. Analiza otrzymanych wyników
Szacując model miękki metodą PLS, otrzymuje się oszacowania wartości zmiennych ukrytych, które nie mają interpretacji merytorycznej, ale można interpretować
zmiany ich wartości. Otrzymuje się w ten sposób zmienną syntetyczną, która może
służyć do analizy porównawczej. Na podstawie oszacowań wartości zmiennej ukrytej
porządkuje się liniowo dane obiekty. W omawianym modelu występują oszacowania
wag i ładunków czynnikowych: dodatnie dla stymulant, ujemne dla destymulant, a zatem wyższa „wartość zmiennej ukrytej” informuje o wyższym poziomie rozwoju danego województwa.
Otrzymane uporządkowanie województw, według efektywnego zarządzania długiem, w 2007 r. przedstawia rysunek 2. Na podstawie wartości syntetycznych zmiennej
ukrytej DR województwa podzielono na cztery grupy:
1. małopolskie, kujawsko-pomorskie, mazowieckie i dolnośląskie;
2. lubuskie, warmińsko-mazurskie, łódzkie i zachodniopomorskie;
3. wielkopolskie, pomorskie, podkarpackie i opolskie;
4. śląskie, lubelskie, podlaskie i świętokrzyskie.
Województwa należące do pierwszej grupy są biegunami rozwoju. Województwo
mazowieckie odznacza się poziomem PKB na mieszkańca prawie dwukrotnie wyższym od najniższej wartości w Polsce, najwyższą wartością nadwyżki operacyjnej brutto,
a przy tym prognozuje najwyższe nakłady na działalność inwestycyjną. Województwa: małopolskie i dolnośląskie mają wysoki potencjał ekonomiczny oraz stosunkowo
duży poziom zadłużenia. Regiony te najefektywniej zarządzają długiem, wykorzystując
odpowiednie proporcje pomiędzy poziomem rozwoju, realizacją bardzo wysokiej
skali potrzeb inwestycyjnych regionu a poziomem regionalnego długu publicznego. Jedynie w przypadku województwa kujawsko-pomorskiego wysokie, ponad 51%, zadłużenie w stosunku do dochodów ogółem nie jest wynikiem wzmożonej działalności inwestycyjnej. Obciążenie dochodów bieżących wydatkami bieżącymi i obsługą zadłużenia stanowiło w 2007 r. ponad 92%. Dodatkowo, ponad 58%, wskaźnik
obciążenia dochodów bieżących długiem jest jednym z najwyższych w kraju.
W drugiej grupie występują województwa o wysokim poziomie zadłużenia, ale
umiarkowanym poziomie rozwoju regionalnego. Potencjał inwestycyjny oraz PKB
na mieszkańca województw: łódzkiego i zachodniopomorskiego kształtuje się na poziomie nieco wyższym niż średni. Natomiast województwa: warmińsko-mazurskie
i lubuskie odznaczają się najwyższą wysokością transferów z budżetu państwa, szcze-
178
Dorota Perło
gólnie dotacji celowych. O wysokiej pozycji województwa lubuskiego świadczy również najwyższy w Polsce poziom wykorzystania środków UE na mieszkańca.
RYSUNEK 2.
Ranking województw w Polsce według zmiennej DL w 2007 r.
10
pomorskie
6
warmińskomazurskie
8
zachodniopomorskie
podlaskie
3
mazowieckie
9
5
15
2
kujawskopomorskie
wielkopolskie
lubuskie
7
łódzkie
14
lubelskie
4
dolnośląskie
Rangi województw
1- 4
5-8
12
opolskie
13
śląskie
16
świętokrzyskie
1
11
małopolskie
podkarpackie
9-12
13 -16
Źródło: Opracowanie własne.
Kolejna grupa województw jest równie zróżnicowana od poprzedniej. Województwa: wielkopolskie i pomorskie odznaczają się wysokim poziomem rozwoju regionalnego, wysokimi planowanymi nakładami na inwestycje wieloletnie, a przy tym niskim poziomem bieżącym i prognozowanym zadłużenia regionu. Jest to konsekwencją stosunkowo wysokiej nadwyżki finansowej, jaką w analizowanym okresie dysponowały te województwa. Regiony: wielkopolskie i pomorskie nieefektywnie wykorzystują możliwości zadłużenia się, które pozwoliłyby im na osiągnięcie wyższego
potencjału rozwojowego w szybszym tempie. Województwa podkarpackie i opolskie posiadają najniższy w kraju potencjał inwestycyjny, przy czym podkarpackie
Regionalny model efektywnego zarządzania długiem…
179
odznacza się najwyższym w Polsce poziomem subwencji ogólnych, przy jednocześnie
bardzo niskim poziomie rozwoju regionalnego, czego konsekwencją są niewysokie
planowane nakłady na inwestycje wieloletnie. Natomiast województwo opolskie
charakteryzuje się największym w kraju obciążeniem dochodów bieżących długiem
(58,5%), co jest konsekwencją ponad 100% udziału wydatków bieżących i obsługi
długu w dochodach bieżących (103,7%).
Najniższe pozycje w rankingu zajęły województwa: świętokrzyskie, podlaskie,
lubelskie i śląskie. Pierwsze trzy województwa charakteryzuje niski poziom rozwoju
regionalnego, a co za tym idzie, niski poziom produktu krajowego brutto na mieszkańca oraz nadwyżki operacyjnej brutto na mieszkańca, wskaźników przedstawiających
najistotniejszy wpływ na zmienną DR w badanym modelu. Jedynie województwo
śląskie odznacza się wysokim potencjałem rozwojowym, a jego niska pozycja w rankingu wynika z tego, że w 2007 r. region ten posiadał najwyższą w Polsce nadwyżkę
finansową z lat ubiegłych na mieszkańca.
6. Podsumowanie
Skonstruowany model efektywnego zarządzania długiem prezentuje wpływ poziomu rozwoju regionalnego, potencjału inwestycyjnego, transferów zwrotnych, polityki zarządzania długiem oraz istniejących źródeł finansowania rozwoju regionalnego
na efektywne wykorzystanie długu. Parametry modeli wewnętrznych i zewnętrznych
zostały oszacowane metodą PLS. Wszystkie zmienne nieobserwowalne i obserwowalne zostały zweryfikowane pozytywnie, zarówno pod względem merytorycznym,
jak i statystycznym, co umożliwiło analizę uzyskanych wyników.
Najwyższą, dodatnią zależnością korelacyjną ze zmienną ukrytą DR odznacza się
prowadzona przez regiony polityka zarządzania długiem, następnie: poziom rozwoju regionalnego, potencjał inwestycyjny oraz transfery zwrotne, a w dalszej kolejności źródła finansowania długu. Wyniki te przenoszą się bezpośrednio na ranking
województw pod względem zmiennej ukrytej DR. Pierwsze miejsca w rankingu uzyskały regiony o najwyższym potencjale ekonomicznym, posiadające zdolność efektywnego
zarządzania długiem. Są to województwa: małopolskie, kujawsko-pomorskie, mazowieckie i dolnośląskie. Natomiast ostatnie pozycje zajęły regiony o niskim potencjale
ekonomicznym, takie jak: świętokrzyskie, podlaskie i lubelskie. W rankingu województw
są widoczne również takie regiony, których pozycja, bez dogłębnej i szczegółowej analizy, może wydawać się niepoprawna, tj.: śląskie (13. miejsce w rankingu) czy warmińsko-mazurskie (6. miejsce w rankingu).
Zbudowany model efektywnego zarządzania długiem pokazuje ponadto, które
wskaźniki mają najistotniejszy wpływ na analizowane zmienne ukryte. Są to: produkt
krajowy brutto na mieszkańca oraz nadwyżka operacyjna brutto na mieszkańca, czyli te
zmienne, które świadczą o wysokim potencjale rozwojowym regionu, a w szczególności
o potencjale ekonomicznym i możliwościach inwestycyjnych regionu. Większość indykatorów najsilniej odbijających zmienną ukrytą DR to stymulanty, odznaczające się
wysoką tendencją rozwojową.
180
Dorota Perło
Skonstruowany model miękki ukazuje przede wszystkim ogromną skalę potrzeb
inwestycyjnych regionów w Polsce wynikających m.in. z niskiego poziomu rozwoju
regionalnego, szczególnie rozwoju infrastrukturalnego i związaną z nią konieczność zaciągania długu. Ponadto, wskazuje na strukturę źródeł finansowania inwestycji, w której
największą rolę odgrywają transfery z budżetu państwa. Model pokazuje również, w jakim kierunku zmierza realizowana przez województwa polityka zarządzania długiem.
Literatura
Bitner M., Cichocki K.S. 2008 Efektywność zarządzania długiem w samorządach, Warszawa.
Kuszewski T. 2000 Wprowadzenie do modelowania ekonometrycznego, [w:] Ekonometria, red.
M. Gruszczyński, M. PodgórskaWarszawa.
Perło D. 2004 Źródła finansowania rozwoju regionalnego, Białystok.
Rogowski J.1990 Modele miękkie. Teoria i zastosowanie w badaniach ekonomicznych, Białystok.
Ustawa z dnia 30 czerwca 2005 r. o finansach publicznych, Dz. U., Nr 249, poz. 2104 z późn.
zm.
Wold H. 1980 Soft Modelling: Intermediate between Traditional Model Building and Data Analysis, Banach Centre Publication 6, Mathematical Statistics.
Wskaźniki do oceny sytuacji finansowej jednostek samorządu terytorialnego w latach 2005-2007,
Ministerstwo Finansów, [Dokument elektroniczny, Tryb dostępu; www.mf.gov.pl,
Data wejścia: czerwiec 2009].
Wydział Ekonomii i Zarządzania Uniwersytetu w Białymstoku
poleca publikacje naukowe:
Henryk Wnorowski
INSTYTUCJONALNE UWARUNKOWANIA DZIAŁALNOŚCI
PRZEDSIĘBIORSTW W KRAJACH UNII EUROPEJSKIEJ
Spis treści: 1. Teoretyczne i metodologiczne podstawy badania aktywności
gospodarczej; 2. Bariery instytucjonalne w sferze działalności gospodarczej;
3. Zróżnicowanie w poziomie rozwoju gospodarczego oraz sile ograniczeń
instytucjonalno-prawnych w sferze aktywności gospodarczej w wybranych
krajach UE; 4. Metodologia „DOING BUSINESS” jako argument na
rzecz wykorzystania danych Banku Światowego w procesie weryfikacji
hipotezy głównej niniejszego badania; 5. Opis zróżnicowania państw UE
pod względem warunków instytucjonalno-prawnych, traktowanych jako
zmienne objaśniające poziom aktywności gospodarczej; 6. Uwarunkowania
instytucjonalno-prawne a poziom aktywności gospodarczej w krajach UE wyniki badań i wnioski końcowe.
Adam Wyszkowski
PODATKI POŚREDNIE I DOCHODOWE W SYSTEMIE
PODATKOWYM
Spis treści: 1. System podatkowy w gospodarce rynkowej; 2. Ewolucja
systemu podatkowego w Polsce; 3. Podatki pośrednie jako źródło
dochodów budżetu państwa; 4. Podatki dochodowe jako źródło
dochodów budżetu państwa; 5. Wybrane zagadnienia konstrukcji
optymalnego systemu podatkowego; 6. Wnioski końcowe
Barbara Roszkowska-Mądra
OBSZARY WIEJSKIE O NIEKORZYSTNYCH
WARUNKACH GOSPODAROWANIA W ASPEKCIE ICH
ZRÓWNOWAŻONEGO ROZWOJU
Spis treści: 1. Współczesne koncepcje rozwoju rolnictwa i obszarów
wiejskich; 2. Charakterystyka obszarów o niekorzystnych warunkach
gospodarowania (ONW) i podstawy teoretyczne polityki ich wspierania; 3.
Polityka Unii Europejskiej wobec gospodarowania na obszarach ONW; 4.
Obszary ONW w Polsce; 5. Propozycja wydzielania nizinnych obszarów
ONW i ich rodzajów na podstawie typologii systemów gospodarowania w
rolnictwie; 6. Uwarunkowania rozwoju obszarów wiejskich województwa
podlaskiego; 7. Zastosowanie typologii systemów gospodarowania w
rolnictwie gmin w województwie podlaskim do wydzielania rodzajów nizinnych obszarów ONW; 8. Kierunki rozwoju i zalecane formy wsparcia dla
wyróżnionych rodzajów ONW w województwie podlaskim
Wydział Ekonomii i Zarządzania Uniwersytetu w Białymstoku
poleca publikacje dydaktyczne:
Zdzisław Czajka
GOSPODAROWANIE KAPITAŁEM LUDZKIM
Białystok 2011, ISBN 978-83-7431-258-5
Józef Rogowski, Ewa Roszkowska
TESTY Z WNIOSKOWANIA
STATYSTYCZNEGO
Białystok 2010, ISBN 978-83-7431-241-7
Janusz Kaliński
HISTORIA GOSPODARCZA POLSKI 1989 - 2004
Białystok 2009, ISBN 978-83-7431-205-9
PODYPLOMOWE STUDIA
RACHUNKOWOŚCI I AUDYTU WEWNĘTRZNEGO
W JEDNOSTKACH SEKTORA PUBLICZNEGO
15-062 Białystok
ul. Warszawska 63
pok. 208
tel. (085) 7457702,
fax (085) 7457702
Kierownik: dr hab. Ryta I. Dziemianowicz, prof. UwB
Sekretariat: Grażyna Majewska
CEL STUDIÓW
− zdobycie i pogłębienie wiedzy z zakresu organizacji i funkcjonowania
sektora finansów publicznych,
− pogłębienie wiedzy w zakresie prawa finansów publicznych i administracji publicznej,
− przekazanie słuchaczom wiedzy na temat szczególnych zasad i metod
prowadzenia rachunkowości w jednostkach sektora finansów,
− poznanie nowych regulacji dotyczących organizacji i zasad przeprowadzania wewnętrznej kontroli finansowej w jednostkach sektora finansów publicznych,
− zdobycie praktycznych umiejętności w zakresie tworzenia oraz analizy
funkcjonowania i oceny komórek kontroli finansowej i audytu wewnętrznego.
STUDIA ADRESOWANE SĄ DO:
− głównych księgowych i kadry kierowniczej w jednostkach sektora finansów publicznych
− pracowników odpowiedzialnych za prowadzenie nowoczesnego systemu audytu wewnętrznego i kontroli finansowej w jednostkach sektora publicznego.
Zasady naboru:
- decyduje kolejność zgłoszeń.
Warunki rekrutacji:
- odpis dyplomu,
- kwestionariusz osobowy,
- podanie,
- poświadczenie opłaty manipulacyjnej oraz pierwszej raty czesnego.
PODYPLOMOWE STUDIA
FINANSÓW I RACHUNKOWOŚCI
PRZEDSIĘBIORSTW
15-062 Białystok
ul. Warszawska 63
pok. 208
tel. (085) 7457702,
fax (085) 7457702
Kierownik: dr hab. Ryta I. Dziemianowicz, prof. UwB
Sekretariat: Grażyna Majewska
Podyplomowe Studia Finansów i Rachunkowości Przedsiębiorstw istnieją
od roku akademickiego 1992/1993. Przeznaczone są dla absolwentów szkół
wyższych różnej specjalności.
Celem studiów jest przygotowanie kadr dla przedsiębiorstw i instytucji
w zakresie finansów i rachunkowości oraz przygotowanie słuchaczy do
działalności usługowej w zakresie prowadzenia ksiąg rachunkowych.
Studia trwają dwa semestry, kończą się zaliczeniami lub egzaminami z poszczególnych przedmiotów. Zajęcia odbywają się w formie 7 dwudniowych zjazdów
w weekendy w każdym semestrze i obejmują ponad 300 godz. zajęć dydaktycznych. Studia kończą się wydaniem świadectwa ukończenia studiów podyplomowych.
Wykładane są następujące przedmioty:
- rachunkowość finansowa,
- sprawozdawczość finansowa,
- rachunek kosztów,
- system podatkowy,
- papiery wartościowe,
- prawo cywilne, gospodarcze i administracyjne,
- system informatyczny i podstawy informatyki,
- wykłady okolicznościowe.
Zasady naboru:
- decyduje kolejność zgłoszeń.
Warunki rekrutacji:
- odpis dyplomu,
- kwestionariusz osobowy,
- podanie,
- poświadczenie opłaty manipulacyjnej oraz pierwszej wpłaty czesnego.
PODYPLOMOWE STUDIA MENEDŻERSKIE

 15-062 Białystok
ul. Warszawska 63
pok. 229
 tel. (0~85) 745 77 25
fax (0~85) 741 46 85
Kierownik: dr hab. Tadeusz Truskolaski, prof. UwB
Sekretariat: Anna Kitlasz
Podyplomowe Studia Menedżerskie istnieją od roku 1992. Przeznaczone jest dla
absolwentów szkół wyższych, różnych specjalności.
Wykładowcami są pracownicy naukowi oraz praktycy, dyrektorzy banków i specjaliści
z poszczególnych dziedzin. Program i treści nauczania dostosowane są do potrzeb i wymagań rynku. Studium daje szansę nawiązania ciekawych kontaktów oraz konsultacji z wieloma specjalistami z różnych branż.
Zasady naboru: decyduje kolejność zgłoszeń.
Warunki rekrutacji:
odpis dyplomu,
kwestionariusz osobowy,
podanie,
opłata manipulacyjna.
Studia trwają dwa semestry. Zajęcia odbywają się w formie 2-dniowych zjazdów
(w soboty i niedziele) i obejmują 256 godzin zajęć dydaktycznych. Studia kończą się egzaminem i wydaniem świadectwa ukończenia studiów podyplomowych.
Wykładane są następujące przedmioty:

Organizacja i zarządzanie

Zarządzanie finansami i rynek kapitałowy

Marketing

Zarządzanie zasobami pracy

Zarządzanie strategiczne

Biznes plan

System podatkowy

Funkcjonowanie gospodarki rynkowej

Rachunkowość zarządcza

Negocjacje w biznesie

Public relations

Prawo pracy

Zamówienia publiczne

Rynek i wycena nieruchomości

Zajęcia komputerowe

Seminaria - wykłady okolicznościowe
PODYPLOMOWE STUDIA
ZARZĄDZANIA PROJEKTAMI UNII EUROPEJSKIEJ
15-062 Białystok, ul. Warszawska 63, pok. 234,
tel. (085) 7457721, fax (085) 7414685
e-mail: [email protected]
http://www.weiz.uwb.edu.pl/
Kierownik: dr Elżbieta Sulima
Sekretariat: mgr Jolanta Wiszniewska
Cele studiów
Przekazanie praktycznych umiejętności opracowania projektu i jego zarządzania (w
tym finansowego) oraz wypełniania wniosków, gwarantujących pozyskanie
środków finansowych z Unii Europejskiej.
Adresaci
Wszystkie osoby, które są zobowiązane lub pragną z tytułu potrzeb lub planów
zawodowych otrzymać wiedzę dotyczącą pozyskiwania środków finansowych
z Unii Europejskiej.
W szczególności program kierowany jest do:
–
przedsiębiorców,
–
pracowników administracji samorządowej, organizacji pozarządowych,
–
nauczycieli
–
absolwentów szkół wyższych
–
i innych osób zamierzających uzyskać kwalifikacje niezbędne do pozyskiwania środków finansowych z UE
Korzyści
Przygotowanie specjalistów w dziedzinie zarządzania projektami Unii Europejskiej.
Studia dają możliwość nawiązania kontaktów z osobami bezpośrednio zaangażowanymi w realizację projektów finansowanych z funduszy strukturalnych
Zasady naboru: decyduje kolejność zgłoszeń.
Należy złożyć następujące dokumenty:
–
odpis dyplomu
–
podanie – kwestionariusz osobowy
–
oświadczenie
–
opłata manipulacyjna
–
opłata I raty czesnego.
PODYPLOMOWE STUDIA
ZARZĄDZANIA ZASOBAMI LUDZKIMI
15-062 Białystok
ul. Warszawska 63, pok. 225
tel. (085) 745-77-19,
fax (085) 741-46-85
e-mail: [email protected] uwb.edu.pl
http://www.weiz.uwb.edu.pl
Kierownik: dr Anna Grześ
CEL STUDIÓW:
Przekazanie specjalistycznej wiedzy teoretycznej i praktycznych umiejętności z zakresu zarządzania zasobami ludzkimi niezbędnych do skutecznego funkcjonowania organizacji.
Zakres ten obejmuje m.in.:
–
zasady i metody rekrutacji i selekcji,
–
system ocen pracowniczych,
–
systemy wynagradzania,
–
prawo pracy i zbiorowe stosunki pracy,
–
negocjacje zbiorowe,
–
zarządzanie karierami i rozwojem pracowników, itp.
ORGANIZACJA STUDIÓW:
Studia trwają 2 semestry. Obejmują 188 godzin dydaktycznych. Zajęcia odbywają się w 2-dniowych zjazdach (w soboty i niedziele) co 2 tygodnie i kończą
się obroną pracy dyplomowej oraz wydaniem świadectwa ukończenia studiów
podyplomowych.
STUDIA ADRESOWANE SĄ DO:
–
kadry kierowniczej przedsiębiorstw,
–
pracowników działu kadr,
–
osób zainteresowanych zdobyciem oraz pogłębieniem wiedzy z zakresu
problematyki zarządzania zasobami ludzkimi w nowoczesnych organizacjach.
WYMAGANE DOKUMENTY:
–
kwestionariusz osobowy
–
odpis dyplomu,
–
oświadczenie,
–
poświadczenie opłaty manipulacyjnej oraz pierwszej raty czesnego
Zasady naboru:
–
decyduje kolejność zgłoszeń.
PODYPLOMOWE STUDIA
WYCENY I GOSPODARKI NIRUCHOMOŚCI
Specjalności:
WYCENA NIERUCHOMOŚCI
ZARZĄDZANIE NIERUCHOMOŚCIAMI
POŚREDNICTWO W OBROCIE NIERUCHOMOŚCIAMI
Kierownik Studiów:
dr Dorota Wyszkowska
e-mail: [email protected]
Sekretariat:
mgr Jolanta Wiszniewska
tel. 085 745 77 21
fax 085 741 46 85
e-mail: [email protected]
CEL STUDIÓW:
Celem Studiów jest przygotowanie słuchaczy, w zależności od wybranej specjalności, do ubiegania się, po spełnieniu dodatkowych wymogów (praktyki zawodowe)
o uzyskanie uprawnień zawodowych:
–
–
–
RZECZOZNAWCY MAJĄTKOWEGO
POŚREDNIKIA W OBROCIE NIERUCHOMOSCIAMI
LUB ZARZĄDCY NIERUCHOMOŚCI.
Uczestnikami Studiów mogą być absolwenci szkół wyższych.
Studia trwają 2 semestry od października do czerwca w wymiarze godzin
określonym w ramowych programach studiów.
Programy zgodne są z „minimum programowym” zalecanym przez Ministerstwo Infrastruktury, zawartym w Rozporządzeniu Ministra Infrastruktury z dnia 7 czerwca 2010 r. w sprawie ustalenia minimalnych wymogów programowych dla studiów podyplomowych w zakresie wyceny
nieruchomości (Dz. Urz. Min. Bud. Nr 3, poz. 16).
Zajęcia odbywają się w 2-dniowych zjazdach (soboty i niedziele) co 2 tygodnie i kończą się przygotowaniem pracy dyplomowej oraz egzaminem
Zasady naboru:
o przyjęciu decyduje kolejność zgłoszeń
WYMAGANE DOKUMENTY:
–
–
–
–
–
odpis dyplomu
kwestionariusz
oświadczenie
opłata manipulacyjna
opłata I raty czesnego

Podobne dokumenty

Pobierz numer - Optimum - Uniwersytet w Białymstoku

Pobierz numer - Optimum - Uniwersytet w Białymstoku Czasopismo poświęcone potrzebom nauki i praktyki

Bardziej szczegółowo