Pobierz numer
Transkrypt
Pobierz numer
Kwartalnik poświęcony potrzebom nauki i praktyki 2010 Nr 4 (48) OPTIMUM STUDIA EKONOMICZNE SPIS TREŚCI STUDIA I ROZPRAWY............................................................................................ 3 Ewa Drabik – O matematycznym modelowaniu zjawisk gospodarczych i interakcji społecznych .................................................................................................................................... 3 Danuta Strahl – Wykorzystanie metod porządkowania liniowego do budowy ścieżki harmonijnego rozwoju innowacyjności regionalnej .................................................................. 18 Krzysztof Jajuga – Assessment of Model Risk in Financial Markets .............................. 35 Joanna Olbryś – Ocena efektywności zarządzania portfelem funduszu inwestycyjnego z wykorzystaniem wybranych wieloczynnikowych modeli market-timing ........................................ 44 Ewa Roszkowska – Koncepcja i zastosowania uogólnionej gry w badaniach ekonomicznych ..... 62 Piotr Wojewnik, Tomasz Kuszewski – From Crisp Optimization to Fuzzy Approach and Machine Learning – Operations Research Evolution ................................... 82 Tomasz Szapiro – Iterowane cykle decyzyjne – próba opisu zunifikowanego .................... 109 Krzysztof Barteczko, Andrzej F. Bocian – Modelowanie makroekonomiczne – potrzeby i dylematy ............................................................................................................. 130 Marcin Błażejowski, Paweł Kufel, Tadeusz Kufel – Automatic Procedure of Building Specification of Dynamic Congruent Model in Gretl Package........................................................ 152 Józef Rogowski – Na marginesie artykułu T. Tokarskiego pt. Przestrzenne zróżnicowanie łącznej produkcyjności czynników produkcji w Polsce, opublikowanego w „Gospodarce Narodowej” nr 3/2010 ................................................................................................................ 160 Dorota Perło – Regionalny model efektywnego zarządzania długiem jednostek samorządu terytorialnego w Polsce.......................................................................................................... 169 STUDIA I ROZPRAWY Ewa DRABIK1 O MATEMATYCZNYM MODELOWANIU ZJAWISK GOSPODARCZYCH I INTERAKCJI SPOŁECZNYCH Streszczenie Celem artykułu jest zaprezentowanie kierunków i trendów, z którymi można się zetknąć podczas modelowania zjawisk ekonomicznych, procesów gospodarczych i interakcji społecznych oraz pokazanie, w jaki sposób kształtowało się owo modelowanie na przestrzeni wielu lat. Ogólna teoria modeli matematycznych ma swój własny język, który w przypadku zagadnień ekonomicznych przyjmuje ściśle określoną formę, zależną od charakteru opisywanych zagadnień. Słowa kluczowe: modelowanie zjawisk gospodarczych, ekonometria, teoria gier, badania operacyjne ON MATHEMATICAL MODELLING OF ECONOMIC PHENOMENA AND SOCIAL INTERACTIONS Summary The aim of this article is to present trends and tendencies which may be encountered while modelling economic phenomena, processes as well as social interactions, and to illustrate how the above modelling had been shaped over the years. The general theory of mathematical models has its own language which – in the case of economic models – takes its specific, strictly specified form, depending on the nature of described issues. Keywords: modelling of economic phenomena, econometrics, game theory, operations research 1. Wstęp Świat matematyki można sobie wyobrazić jako układ koncentrycznych warstw otaczających jądro matematyki czystej [Współczesna matematyka… 1983 s. 19]. Problemy pojawiające się w warstwach zewnętrznych owej struktury, gdzie matematyka czysta łączy się z naukami stosowanymi, „zaopatrują” centralną cześć matematyki w nowe obiekty, nowe metody i pojęcia. Zagadnienia z matematyki stosowanej mogą więc generować nowe idee matematyczne będące podstawą do powstania całkiem innych problemów niż te, które przyczyniły się do ich powstania. Możliwa jest również relacja odwrotna. Nie wiadomo bowiem do końca, jakie pojęcia i teorie zaczerpnięte z matematyki czystej okażą się przydatne w praktyce. Posługiwanie się językiem matematyki w opisie zjawisk gospo1 Prof. dr hab. Ewa Drabik jest pracownikiem Wydziału Zarządzania Politechniki Warszawskiej. 4 Ewa Drabik darczych i interakcji społecznych ma dosyć długą historię. Jeszcze dłuższą historię ma sama matematyka, rozumiana jako nauka, która wyłoniła się z potrzeb społecznych. Matematyka należy do tych niewielu nauk, których elementy zaczęły się kształtować wraz z rozwojem ludzkości. Wyobrażenia matematyczne kształtowały się pod wpływem codziennego doświadczenia. Znaczące postępy w tej dziedzinie zostały dokonane już w starożytnym Egipcie, Grecji. Przed starożytnymi Grekami nie było właściwie matematyki w naszym tego słowa rozumieniu. Istniały jedynie rozproszone recepty na rozwiązanie poszczególnych zadań, związanych z: rolnictwem, budownictwem, rachunkami handlowymi, podatkami i wojskowością. Liczby całkowite wyłoniły się właśnie z ludzkich doświadczeń. Arabski system liczbowy, który jest uznawany do dnia dzisiejszego, został stworzony przez matematyków Środkowego Wschodu w Średniowieczu. Liczby ujemne, z kolei, wprowadzone wprawdzie już przez, greckiego matematyka, Diofantosa w III w. n. e., a rozwinięte w VIII wieku n.e. przez Hindusów, przez dłuższy czas nie trafiały na podatny grunt, gdyż nie było potrzeby ich stosowania. Dopiero wiek XV, a przede wszystkim XVIII stworzył podstawy do pełnego rozwoju liczb ujemnych. Po ich wprowadzeniu (liczby niewymierne były znane już wcześniej) można było posługiwać się pełnym zbiorem liczb rzeczywistych. Prawdziwą eksplozję rozwoju zagadnień matematycznych odnotowano w XVII i XVIII wieku. Wtedy też matematyka zaczęła się rozwijać jako samodzielna nauka. Wówczas to nowoczesna fizyka zaledwie zdążyła się narodzić, chemia była w stadium embrionalnym, ekonomia wprawdzie istniała, ale była to nauka głównie opisowa, wykazująca co najwyżej potrzebę „uściślenia” szeregu zagadnień, zaś biologia – w dzisiejszym rozumieniu tej nauki – „nawet się nie poczęła”. W wieku XIX i na początku XX matematyka i inne nauki zostały gruntownie przekształcone przez odkrycia, z których szybko wyrosły ogólne teorie. I tak na przykład teoria grup, pozostająca w XIX wieku w ramach algebry, została wykorzystana przez fizykę XX wieku. Również pod koniec XIX wieku niemiecki matematyk George Cantor zaczął badać nieskończone zbiory liczb, a także inne „nieskończone” obiekty matematyczne. W efekcie doprowadził do stworzenia teorii mnogości, w rozwinięciu której brali udział również Polacy, tacy jak: Wacław Sierpiński, Kazimierz Kuratowski, a także matematycy ze słynnej szkoły lwowskiej. Okazało się, że język formalny, którego używa się do opisu zbiorów, może być z powodzeniem stosowany do formalnego opisu większości znanych idei. Kluczowym osiągnięciem matematyki przełomu XIX i XX wieku było jednak odkrycie geometrii nieeuklidesowych, których podstawową własnością jest to, że nie musi być spełniony aksjomat równoległości. Jedna z takich geometrii, riemannowska, powstała na bazie działów matematyki opracowanych przez XIX-wiecznego uczonego, Bernarda Riemanna i stała się punktem wyjścia przy opracowywaniu modeli istotnych dla teorii względności. Przy tworzeniu teorii względności zostały również wykorzystane inne działy XIX-wiecznej matematyki, chociażby rachunek tensorowy, opracowany w ramach geometrii różniczkowej. W owym czasie powstały także: algebra macierzy, teoria grup, algebra Boole’a i prawie natychmiast znalazły zastosowanie w ekonomii, elektrotechnice oraz fizyce atomu. Generalnie, można przyjąć, że wiek XIX był kluczowy przy powstawaniu wielu nowoczesnych dziedzin wiedzy wykorzystujących symbole matematyczne. W wiek XX matematykę wprowadził David Hilbert, który w 1900 O matematycznym modelowaniu zjawisk gospodarczych… 5 roku Kongresowi Matematycznemu przedstawił listę 23 nie rozstrzygniętych problemów matematycznych. Bez wątpienia, problemy te wywarły ogromny wpływ na kierunki badań matematycznych w dwudziestym wieku. Jednak chyba najbardziej spektakularnym wynikiem okazało się twierdzenie o nierozstrzygalności wielu problemów, zaprezentowane w latach 30. XX wieku przez Kurta Godla. Zburzył on dotychczasową pewność, że w naturze matematyki leży formułowanie i rozwiązywanie zagadnień, przy czym nie może być tak, ażeby „coś” pozostało na zawsze nie rozstrzygnięte lub nieznane. Godel pokazał, że: żaden istotny system formalny nie może być na tyle mocny, aby można było w nim dowieść lub obalić każde zdanie, które da się wypowiedzieć [Współczesna matematyka… 1983 s. 18]. Wbrew powszechnemu przekonaniu o czystości matematyki, na przestrzeni wielu wieków można było zaobserwować, że ma ona, podobnie jak i wiele innych nauk, charakter społeczny i służy określonym potrzebom społecznym. W każdym okresie historycznym istniejące warunki społeczno-ekonomiczne stwarzały bowiem pewne konkretne potrzeby związane z kulturą materialną i polepszeniem jakości życia, do czego wykorzystywano mniej lub bardziej skomplikowane obliczenia. Równolegle powstawały nowe gałęzie matematyki, oderwane na danym etapie rozwojowym od zastosowań praktycznych. Nie ulega jednak wątpliwości, że ostatecznie o utrzymaniu się danej gałęzi matematyki decydowały bezpośrednie lub pośrednie powiązania z innymi użytecznymi dziedzinami wiedzy. Często także okazywało się, że jedna i ta sama idea matematyczna może być stosowana w całkowicie różnych dyscyplinach wiedzy. Z punktu widzenia niniejszej pracy, szczególnie są ważne zastosowania matematyki w ekonomii i naukach społecznych. Praca została zbudowana w następujący sposób. Rozdział pierwszy został poświęcony historycznym aspektom modelowania zjawisk ekonomicznych i interakcji społecznych. Poruszony został także problem formalnego przedstawienia równowagi rynkowej. W rozdziale drugim zaprezentowano ogólne zasady stosowania symboli matematycznych do opisu, a tym samym modelowania zjawisk występujących w praktyce. Sposoby modelowania zjawisk ekonomicznych opisano w rozdziale trzecim. Wspomniano przy tym, że modelowaniem zjawisk ekonomicznych, procesów gospodarczych, jak również interakcji społecznych zajmują się takie dziedziny, jak: ekonomia matematyczna, ekonometria, badania operacyjne oraz teoria gier. 2. Modelowanie ekonomiczne w ujęciu historycznym Ekonomia jest m.in. teorią dotyczącą mechanizmów, przy pomocy których jest dokonywana alokacja zasobów, a także uczestnicy rynku podejmują aktywność produkcyjną służącą do zaspokojenia ich potrzeb. Zarządzanie procesami produkcyjnymi i umiejętne alokowanie dostępnych zasobów wymaga z kolei podejmowania decyzji. Czynności związane z tymi procesami ludzie wykonywali od zarania dziejów. Jednak gwałtowny rozwój ekonomii jako teorii, a właściwie teorii gospodarki wolnorynkowej, nastąpił po roku 1776, kiedy to ukazała się praca Adama Smitha zatytułowana pt. In Inquiry into the Nature and Causes of the Wealth of Nations (Badania nad naturą i przyczynami bogactwa narodów), w której znalazły się słynne słowa o „niewidzialnej ręce rynku”. Oprócz 6 Ewa Drabik tych słów, we wspomnianej pracy, Smith wprowadził pojęcie wartości naturalnej, co obecnie jest utożsamiane z tzw. ceną równowagi. Smith rozumiał wartość naturalną jako cenę przeciętną, „ustalającą się” w dłuższych okresach, równą sumie płac, renty gruntowej i zysków z kapitału, co składało się na koszty produkcji. W miarę rozwoju tej teorii okazało się, żeby sprawdzić argumenty Smitha dotyczące zharmonizowanych interakcji nieskrępowanej gospodarki, jest niezbędna jakaś naturalna struktura pozwalająca modelować i oceniać interakcje uczestników rynku i formułować w odniesieniu do tego wnioski wynikające z tych interakcji. Można powiedzieć, że już wówczas zaistniała więc potrzeba tworzenia modeli służących do opisu zjawisk ekonomicznych. Mniej więcej w tym samym czasie, francuski ekonomista, François Quesnay (1694 – 1774), podjął próbę stworzenia mechanizmu rządzącego gospodarką. W rezultacie, w 1759 roku, powstała pierwsza w ekonomii tablica przepływów międzygałęziowych, tzw. tableu economique, co można uznać za jeden z pierwszych modeli ilustrujących określone zjawisko ekonomiczne. Modelowanie zjawisk gospodarczych i społecznych zostało oparte na uproszczonym odzwierciedleniu rzeczywistości. Eliminowanie informacji mających niewielkie znaczenie, pozwalało ekonomistom skupić się na zasadniczych cechach rzeczywistości ekonomicznej. Samo konstruowanie modeli stało się metodą stosowaną w celu uproszczenia problemów i zwiększenia w ten sposób szans na ich rozwiązanie. Obecnie również modelem nazywa się bądź zbiór założeń upraszczających, bądź sam przedmiot modelowania lub też zbiór przedmiotów spełniających określone założenia. Istnieje podział modeli na realne i nominalne. Model realny można otrzymać przez konstrukcję fizycznego układu przedmiotów, upraszczającego badaną rzeczywistość, a zarazem dostatecznie do niej upodobnioną. Model nominalny to, w pewnym sensie, również układ „przedmiotów”, którymi mogą być indywidua, klasy, a nawet relacje przyporządkowane wyrażeniom danej teorii. Niezależnie od rodzaju modelu, należy pamiętać, że jest on tylko formalnym opisem wymagającym weryfikacji. Sprawdza się go doświadczalnie. Jeżeli wynikające z niego wnioski pasują do rzeczywistości, można go uznać za model dobry. W przypadku ekonomii oraz nauk społecznych model powinien być jednak dostatecznie szeroki, aby umożliwić uwzględnienie całego szeregu zjawisk i reakcji ekonomicznych. Rzeczywiste używanie symboli matematycznych w opisie zjawisk gospodarczych zostało zapoczątkowane dopiero w XVIII wieku przez Antoine’a Cournota (1802 – 1877) w, wydanej w 1838 roku, książce zatytułowanej Rozważania nad zasadami matematycznymi teorii bogactwa. Należy jednak zaznaczyć, że przez wiele lat nie sprzedano ani jednego egzemplarza tej książki, ale, jak się okazało, nie z powodu wzorów, tylko braku zrozumienia! W 1863 roku Cournot zdecydował się na nowe wydanie, z którego usunął matematykę, co, niestety, nie zwiększyło poczytności tekstu. Podobny los spotkał także inne prace opatrzone wzorami matematycznymi. Dopiero w latach 70. XIX wieku posługiwanie się matematyką stało się powszechne. Zaczęły się pojawiać modele matematyczne zmierzające do opisu zjawisk ekonomicznych przy pomocy układów równań. Modele proponowane przez Leona Warlasa w Szwajcarii (1834-1910) i Wilfreda Pareto we Włoszech (1848-1923) zapoczątkowały nurt w ekonomii zwany szkołą matematyczną. Warlas w pracy zatytułowanej Elementy ekonomii politycznej (1874) użył układu równań do opisu zależności pomiędzy cenami towarów a popytem i podażą. O matematycznym modelowaniu zjawisk gospodarczych… 7 Nie umiał wprawdzie go rozwiązać, ale sugerował w ten sposób, że istnieje cena, przy której obie wymienione wielkości wyrównują się, zachowując inne warunki założone w tym opisie. Innymi słowy, sugerował, że istnieje punkt równowagi dający się wyrazić w postaci liczbowej. Poprawny dowód istnienia punktu równowagi nie był jednak w tym czasie możliwy do przeprowadzenia, gdyż nawet matematyka nie dysponowała odnośnymi narzędziami. Brakowało na przykład twierdzenia o punkcie stałym, które dopiero w 1909 roku sformułował i udowodnił Brouwer [Wycech-Łosiowa 1973]. John M. Keynes (1883-1946), autor epokowego dzieła General Theory of Employment, Interest of Money (Ogólna teoria zatrudnienia, procentu i pieniądza) z 1936 roku, wpłynął zasadniczo na dalszy rozwój myśli ekonomicznej, lecz zasłynął z tego, że niezbyt chętnie stosował matematykę w swoich badaniach, a tych, co ją stosowali, wręcz dyskryminował. Twierdził proroczo, że to głównie reakcje psychologiczne uczestników rynku pozwalają osiągnąć stan równowagi. Dopiero czytelnicy Keynesa, na przykład L.R. Klein, na podstawie jego opisowych teorii tworzyli sformalizowane modele gospodarcze. Odnotować także należy, że wraz z rozwojem modelowania ekonomicznego pojawiały się i inne liczne głosy krytyki. Pisano: […] Rachunki nie są przyczyną, ani skutkiem i z tego względu nie są przedmiotem naszych dociekań. Otóż we wszystkich naukach pewność tkwi w oczywistości samych przedmiotów. Jeśli nie osiągniemy tej oczywistości, która poddaje rachunkowi fakty i dane dające się liczyć i mierzyć, rachunek nie naprawi naszych błędów [Siedlecki 2000 s. 13]. Powszechnie przyjmuje się, że współczesna ekonomia matematyczna i ekonometria narodziła się na przełomie lat 20. i 30. XX wieku „w serii prac” genialnego matematyka węgierskiego pochodzenia, o szerokich zainteresowaniach, Johna von Neumana (1903 – 1957). Był on autorem całego szeregu prac z zastosowań matematyki w różnych dziedzinach wiedzy. Jego przyjaciel, amerykański matematyk polskiego pochodzenia, Stanisław Ulam twierdził nawet, że jedyną dziedziną, w której von Neuman nie próbował stosować matematyki, była stomatologia. Von Neuman zauważył, że wiele zagadnień ekonomicznych, zwłaszcza tych, w których dochodzi do rywalizacji, albo też kooperacji, można „spaizować” (od greckiego słowa oznaczającego „grę”), co oznacza, że można sformułować je w języku teorii gier. W 1937 roku Neuman napisał pracę o wiele mówiącym tytule O pewnym układzie równań ekonomicznych i uogólnieniu twierdzenia Brouwera o punkcie stałym. Jego artykuły z zastosowań matematyki w ekonomii zostały zebrane w pracy Theory of games and economic behavior (Teoria gier i postępowania ekonomicznego), która ukazała się w 1944 roku, a została opublikowana wspólnie z ekonomistą Oskarem Morgensternem. Warto jednak w tym miejscu nadmienić, że twórcami szeroko rozumianej teorii gier, wyrosłej z matematyki, a stosowanej m.in. w naukach społecznych, są polscy matematycy ze słynnej szkoły lwowskiej. Pierwsza praca z teorii gier autorstwa Hugona Steinhausa z 1925 roku zatytułowana Definicje potrzebne do gry i pościgu ukazała się w jednodniówce „Myśl akademicka” we Lwowie. Jest to niewielka praca, nie mająca nawet charakteru publikacji naukowej, w której zostało wprowadzone pojęcie strategii (rozumianej jako sposób gry), normalizacji gry, pojęcie funkcji wypłaty, które charakteryzuje każdą grę, oraz zasada wyboru strategii minimaksowej. Według Steinhausa, gra jest walką i zabawą równocześnie i nie istnieje cywilizacja bez gier. Należy jednak zaznaczyć, że, pisząc tę pracę, Steinhaus nie wiedział, iż znany matematyk Emil Borel parę lat wcześniej (1921, 1924) doszedł do podobnych, co on sam, wniosków, wprowadzając pojęcie 8 Ewa Drabik strategii czystej, mieszanej i był bliski sformułowania twierdzenia o minimaksie. Po wojnie praca Steinhausa była nieosiągalna i sam autor ustanowił nagrodę za jej odnalezienie. W roku 1957 profesor Ajdukiewicz znalazł egzemplarz w bibliotece Uniwersytetu Lwowskiego. Następnie w roku 1960 za sprawą Stanisława Ulama praca ta, po przetłumaczeniu, dotarła do Stanów Zjednoczonych. Została opublikowana w piśmie fachowym zajmującym się sprawami morskimi – „Naval Research Logistic Quaterly” i została opatrzona wstępem przez znanego ekonometryka Harolda Kuhna2 [Ryll-Nardzewski 1973]. Inne prace z zakresu teorii gier, a właściwie dotyczące sprawiedliwego podziału, pisali Stefan Banach i Bronisław Knaster, również ze lwowskiej szkoły matematyki. Należy odnotować, że także Abraham Wald był autorem dwóch prac ekonomicznych, które uzupełnił wzorami (1935, 1936). Zostały w nich sformułowane modele matematyczne opisujące zjawiska gospodarcze oraz podano ścisłe dowody istnienia równowagi w tych modelach. Prace te zostały jednak docenione dopiero w latach 50. XX wieku i stały się impulsem powstania nowych kierunków badań we współczesnej ekonomii. Prace Walda dały początek teorii równowagi ogólnej, a prace Neumanna teorii liniowych modeli wzrostu gospodarczego. Pisząc o pionierskich pracach z ekonomii, w których użyto matematyki, nie sposób nie wspomnieć o pracach Jana Tinbergena i Michała Kaleckiego. W lipcu 1933 roku nakładem Instytutu Badań Koniunkturalnych ukazała się praca Michała Kaleckiego Próba teorii koniunktury. Jesienią tego roku jej skróconą wersję Kalecki przedstawił w języku niemieckim na III Europejskiej Konferencji Towarzystwa Ekonometrycznego (Leyden, 30.09 – 2.10.1933 r.). Angielska wersja, wspomnianego, referatu zatytułowana A Macrodynamic Theory of Bussines Cycles została opublikowana w 1935 roku w Econometrice. W analogicznym okresie opublikowano również francuską wersję Próby teorii koniunktury. Głównym przedmiotem Próby teorii koniunktury jest teoria cyklu, a także problemy związane z nakręcaniem koniunktury światowej oraz aspektami pełnego zatrudnienia. Cyklami koniunkturalnymi Kalecki zajął się, ponieważ zainspirowała go praca Tinbergena Ein Schiffbauzyklus? [Zob.: Tinbergen 1931 s. 152 – 164]. Tinbergen przedstawił w niej model endogenicznego cyklu budowy statków i opisał za pomocą równania różniczkowego z opóźnieniem: f t a ft , a 0 , gdzie 2 jest opóźnieniem, ft jest funkcją rozmiarów globalnego tonażu, f t przyrostem tonażu w czasie t (pierwsza pochodna po czasie), a jest współczynnikiem intensywności reakcji zmian tonażu w stosunku do jego globalnych rozmiarów. 2 Harold Kuhn wspominał również o tym fakcie, prezentując referat zatytułowany 58 years as a game theorist: where have we been and are we going?, w trakcie konferencji z teorii gier: SING w roku 2006 we Włoszech. Nadmienił przy tym, że jest to pierwsza praca o grach. O matematycznym modelowaniu zjawisk gospodarczych… 9 Opóźnienie oraz intensywność reakcji a prowadzą w modelu Tinbergena do cyklicznych wahań budowanych statków. Ten właśnie pomysł wykorzystał Kalecki w Próbie teorii koniunktury, gdzie opisał: cykliczne zmiany inwestycji, zysków, globalnej produkcji i zatrudnienia. Swoją teorię obwarował wieloma bardzo istotnymi założeniami. Przyjął, między innymi, że układ gospodarczy jest zamknięty i pozbawiony trendu, co w gruncie rzeczy prowadzi do tego, iż po każdym cyklu powraca do stanu pierwotnego. Dodatkowo założył, że ogólna wielkość zapasów w okresie całego cyklu pozostaje stała. Kolejne ważne założenie dotyczyło czasu wykonania inwestycji. Był przekonany on bowiem, że czas ten nie zależy od rodzaju inwestycji. Model cykli koniunkturalnych, zaprezentowany przez Kaleckiego, nie doczekał się jednak należytego miejsca w teorii ekonomii. Łączy się ów model raczej z nazwiskiem Nicolasa Kaldora, który go udoskonalił [Drabik 2003]. Teorie ekonomiczne Kaleckiego bardzo często są poparte wyrafinowanym, jak na współczesne mu czasy, aparatem matematycznym. Warto dodać, że Kalecki był samoukiem zarówno z matematyki, jak i ekonomii. Kolejnym, wartym odnotowania, faktem jest książka Paula Samuelsona zatytułowana Zasady analizy ekonomicznej z 1945 roku, która została opatrzona przez autora wiele mówiącym mottem: Matematyka to język [Wycech-Łosiowa 1973 s. 106]. Lata powojenne to stopniowy i coraz intensywniejszy rozwój: ekonomii matematycznej, ekonometrii, badań operacyjnych i teorii gier. Wymienione dziedziny starały się ująć w postaci modeli zasadnicze procesy gospodarcze, jakimi są: produkcja, transport, rozdział strumieni dóbr, wzrost gospodarczy, teoria cykli koniunkturalnych, wszelkiego rodzaju procesy decyzyjne, a także konkurencja, kooperacja i negocjacje. Za pomocą matematyki badano te procesy, wyciągając wnioski o treści ekonomicznej. Do konstrukcji modeli ekonomicznych, ekonometrycznych i decyzyjnych używano wielu pojęć matematycznych, w zależności od poruszanej tematyki. Wiele zagadnień zostało sformułowanych w języku „podzbiorów wypukłych przestrzeni liniowych” i ich przekształceń ciągłych, a głównym narzędziem dowodowym stały się twierdzenia o punkcie stałym. Badania operacyjne (oparte na podejmowaniu decyzji), zawierające teorię optymalizacyjną, posługiwały się programowaniem liniowym i dynamicznym. Podejmowanie decyzji, jak powszechnie wiadomo, jest elementem każdej działalności gospodarczej. Prawie w każdym przypadku przy podejmowaniu decyzji trzeba spełnić określone warunki. Można zatem mówić o zbiorze decyzji dopuszczalnych, który w większości przypadków jest wypukłym podzbiorem pewnej przestrzeni, zaś liczba elementów tego zbioru jest równoliczna ze zbiorem liczb rzeczywistych (ma moc continuum). W związku z istnieniem nieskończonej liczby decyzji dopuszczalnych, zrozumiałe jest dążenie ekonomistów do podjęcia decyzji najlepszej, w sensie optymalnej. W tym celu formułuje się kryterium optymalizacyjne. Zarówno kryterium optymalizacyjne, jak i same warunki zapisuje się w języku matematyki, a kryterium przedstawia się jako funkcję celu. Do zapisania i rozważenia owych warunków używa się algebry liniowej. Algebra liniowa służy w tym przypadku do opisywania obiektów strukturalnych, umieszczonych w przestrzeniach Rn. W tym przypadku pojawia się potrzeba zmiany sposobu myślenia w odniesieniu do przejścia z płaszczyzny lub „namacalnej” jeszcze przestrzeni R3 do Rn, co może stanowić sporą trudność dla ekonomistów. Rn nie jest „po prostu kolejną” przestrzenią, 10 Ewa Drabik lecz uogólnieniem teorii przestrzeni pewnego typu. Przez to stosowanie algebry do opisu zjawisk ekonomicznych wymaga swobodnego przechodzenia od języka operatorów liniowych do języka macierzy. Coraz częściej stosuje się, zwłaszcza przy modelowaniu procesów ekonomicznych zmieniających się w czasie, równania różniczkowe. Często, gdy trajektorie będące rozwiązaniami tychże równań „tracą” stabilność, remedium na ten „kłopot” staje się teoria chaosu [Creedy 1994]. Sięgnięto również do procesów stochastycznych, gdyż wiele zmieniających się w czasie zagadnień ekonomicznych zależy od przypadku, a randomizacja decyzji jest sprawą dość powszechną. Coraz częściej również stosuje się w ekonomii wyniki dotyczące gier, w tym bayesowskich (np. aukcje). Konkurencja i kooperacja prezentowane w języku teorii gier to coraz częściej rozważane zagadnienia nie tylko w ekonomii, ale również zarządzaniu. Na szczególną uwagę zasługuje „wymyślony” przez Melvina Dreshera i Merrila Flooda z Rand Corporation w latach 50. XX wieku „dylemat więźnia”, który, jak się okazało, nie jest patologią, ale normą w naukach społecznych. Coraz więcej zagadnień ekonomicznych pozornie „niematerialnych”, ponieważ sterowanych przez „niewidzialną rękę rynku”, daje się wyjaśnić przy pomocy zmatematyzowanych praw fizyki. Dotyczy to wielu zagadnień, zwłaszcza związanych ze stanami równowagi. Od pewnego czasu przyjmuje się bowiem, że równowaga ekonomiczna to nie tylko równość popytu i podaży, ale również stan gospodarki, do którego układ pozostawiony sam sobie samoczynnie dąży pod wpływem pola „sił”, które na niego oddziałuje. Istnieje podejście mówiące, że w wielu układach ekonomicznych stan tzw. równowagi trwałej może być stanem wymuszonym przez skończoną liczbę oscylacji. Przy takim podejściu do analiz używa się tzw. modelu pajęczyny. Można wprawdzie spotkać się z twierdzeniem mówiącym, że trwałe stany równowagi wymuszonej nie są ekonomicznie pożądane, jednak nikt nie kwestionuje, iż są one konieczne do osiągnięcia różnych celów, w tym pozaekonomicznych. Analiza dynamicznego charakteru równowagi, nie zawsze oczywistego dla niektórych ekonomistów, oraz zjawiska równowagi cząstkowej (ruchomej) doprowadziła do skonstruowania odpowiednich modeli dynamicznych całego szeregu zjawisk. Modelami takimi, a także określeniem ich stabilności zajmowali się: wspomniany już P. Samuelson, K.J. Arrow, T. C. Koopmans, J.R. Hicks, G. Stigler, R. Lucas oraz inni. Warto dodać, że ze względu na złożoność obliczeniową współczesnych modeli określających układ ekonomiczny w równowadze, a także nawracające coraz głębsze kryzysy społeczno-ekonomiczne, pojawiło się w ekonomii pojęcie nierównowagi jako stałej cechy układów gospodarczych [Siedlecki 2000 s. 19]. 3. Symbolika i modelowanie Symboliką posługiwano się już w starożytności. Pozwalała ona bowiem na uściślenie języka i przekształcenie go w wygodny aparat ułatwiający myślenie. Symbole matematyczne stanowią uniwersalny aparat, który powstał z tradycji mowy i pisma. Język symboli matematycznych ma to do siebie, że pozwala na zapisanie dowolnej teorii, w której O matematycznym modelowaniu zjawisk gospodarczych… 11 celowe wydaje się użycie „języka matematyki”. Stosuje się przy tym syntaktyczne środki języka: związki logiczne zastępują spójniki, funkcje opisują relacje pomiędzy podmiotem a orzeczeniem, kwantyfikatory zastępują słowa „wszystkie”, „pewne” itp. Należy jednak pamiętać, że nie istnieje „język matematyczny”, który mógłby posłużyć do opisania nawet najbardziej wyrafinowanych teorii matematycznych bez słów. Umiejętne stosowanie symboliki, łącznie z tekstem, zwiększa dokładność nie tylko wykładu matematycznego, ale również wielu innych dziedzin z zakresu zastosowań matematyki. Należy pamiętać o tym, że do wykazania słuszności rozumowania nie są aż tak konieczne wyrafinowane pojęcia i struktury aksjomatyczne. Wystarczy do tego celu jedynie zrozumienie zastosowanych symboli i jasna idea tego, co zamierza się napisać [Thom 1974]. Nie ulega wątpliwości, że aby stworzyć jakikolwiek model przy użyciu języka matematyki, trzeba biegle operować podstawowymi pojęciami z tej dziedziny. Postęp matematyki i jej żywotność zależały zawsze od abstraktu, który pomagał konkretowi, oraz od konkretu żywiącego abstrakt [Kac 1963 s. 203]. W celu ścisłego, symbolicznego opisu całego szeregu zjawisk, stworzono nawet teorie modeli, o której można powiedzieć, że ma swój własny język. Celem tej teorii jest badanie zależności pomiędzy zdaniami lub zbiorami zdań zapisanymi w języku formalnym a zbiorami złożonymi z różnorodnych, charakterystycznych dla opisywanych zjawisk, elementów. Z punktu widzenia tej teorii, modelem lub strukturą nazywamy zbiór M (zwany uniwersum) z pewnymi wyróżnionymi relacjami i funkcjami w tym zbiorze, a także pewnymi stałymi (wyróżnionymi elementami). Model M możemy zapisać jako n-tkę w postaci: M M ; Ri ; f j , ct iI ; jJ ;tT , gdzie I, J, T są pewnymi zbiorami indeksów, Ri jest relacją na M, f j jest k j argumentową funkcją na M, z wartościami w M, ct jest wyróżnionym elementem M. Zbiór symboli L Ri ; f j , ct iI ; jJ ;tT nazywa się językiem. Warto dodać, że także język L może służyć do tworzenia innych niż M modeli. Używając symboli języka L, można tworzyć wyrażenia oznaczające elementy zbioru M, nazywane termami, oraz formuły wyrażające własności tych elementów. Terminy języka L tworzy się ze zmiennych i stałych tego języka. Oznaczają one elementy na M otrzymane przez złożenie funkcji będących interpretacjami odpowiednich symboli funkcyjnych. Formuły języka L tworzy się z symboli L, spójników logicznych (i, lub, nie, implikacja), kwantyfikatorów (istnieje, dla każdego), zmiennych, nawiasów i symbolu równości (=). Mając więc wyznaczoną pewną klasę zdań, można opisać szczególną strukturę matematyczną M lub zbiór takich struktur, które wyrażają własności elementów modelu M. Owe własności to zdania, czyli formuły bez zmiennych wolnych, które wyrażają własności M. W zamyśle model M jest pewnym przybliżeniem świata po- 12 Ewa Drabik jęć matematycznych. Z kolei, przez teorię modelu M (Th(M)) rozumie się zbiór wszystkich zdań języka L prawdziwych w M. Mówimy, że dwa modele M i N są L równoważne, jeżeli Th(M)=Th(N). Można również powiedzieć, że M jest elementarnym podmodelem N (MN), gdy M jest podzbiorem N i interpretacje symboli L w M są indukowane przez interpretacje w N. Można rozważać klasę wszystkich modeli teorii T. Zazwyczaj rozważa się modele nieskończone, ale można też prowadzić rozważania na temat liczby modeli T ustalonej mocy [Newelski 2008]. Świat modeli matematycznych jest zatem światem przedmiotów i teorii, które są powszechnie znane (np.: liczby rzeczywiste i zespolone, funkcje analityczne, przestrzenie topologiczne, rozmaitości itp.). Dowodzenie twierdzeń należących do określonej teorii sprowadza się do określenia „drogi” wychodzącej z zadań zaczerpniętych ze wspólnego pnia i prowadzącej do takiej sytuacji, w której twierdzenie jest oczywiste. Ścisłość dowodu polega na tym, że ma on być przejrzysty i to niezależnie od znaczeń, które były wprowadzane w kolejnych fazach dowodzenia. Może się zdarzyć, że matematyczna teoria jest całkowicie stosowalna w praktyce i takie teorie są przedmiotem niniejszej pracy. Możliwe są oczywiście różnorodne rozszerzenia modelu podstawowego przez: zwiększenie zbioru aksjomatów, dołączenie nowych zdań, losowe pojawienie się zdań itp. Zależy to jednak od opisywanej sytuacji rzeczywistej (i nie tylko rzeczywistej), którą model opisuje. Przy rozszerzaniu modelu należy jednak pamiętać, że nieskończona liczba zdań nie jest bardziej realna niż nieskończona liczba elementów. Kierunki badań w teorii modeli oscylują wokół formalnych właściwości zdań i teoriomnogościowych właściwości modelu. Jednym z większych osiągnięć w tej dziedzinie jest na przykład stwierdzenie mówiące, że wszystkie homeomorficzne obrazy modelu M dla pewnego zbioru X są modelami dla X. Innym kierunkiem poszukiwań teorii modeli jest określenie specjalnych metod konstrukcji modeli. Modele ekonomiczne, wyrażone przy pomocy zwięzłego języka matematyki, mają specyficzną strukturę, która, podobnie jak w przypadku ogólnym, jest uzależniona od charakteru omawianych zagadnień. 4. Modelowanie zjawisk ekonomicznych Współczesny ekonomista nie może się obejść bez aparatu matematycznego. Jeden ze swoich artykułów A. Smoluk [Smoluk 1998] zaczął słowami Henriego Theila: […] prawa ekonomiczne wyrażają się w większości przypadków w dość prostej formie matematycznej. Otóż wydaje się, że słowa te prawdziwie oddają istniejący stan rzeczy. Model ekonomiczny to uproszczone odzwierciedlenie rzeczywistości, które jednak nie uwzględnia wszystkich jej aspektów. Na ogół są informacje mające niewielkie znaczenie, co pozwala ekonomiście skupić się na cechach zasadniczych rzeczywistości ekonomicznej. W teorii modelowania zjawisk ekonomicznych przy pomocy formalizmów matematyki można w zasadzie wyróżnić następujące dziedziny: ekonomię matematyczną, ekonometrię i teorię podejmowania decyzji, zwaną również badaniami operacyjnymi, a także teorię gier. O matematycznym modelowaniu zjawisk gospodarczych… 13 Ekonomia matematyczna jest to, w uproszczeniu, dziedzina ekonomii wykorzystująca język matematyki do tworzenia modeli w postaci układu założeń o powiązaniach między, charakteryzującymi dane zjawisko, zmiennymi ekonomicznymi. W przeciwieństwie do ekonometrii preferuje ona podejście aksjomatyczne do określonego problemu, pomijając często weryfikację owych założeń. Model ekonomiczny, wyrażony w języku matematyki, powinien uwzględniać istotne dla danego problemu zmienne ekonomiczne oraz nie powinien zawierać apriorycznych założeń co do rezultatów, jakie mają powstać w wyniku interakcji między różnymi uczestnikami opisanego zjawiska. Istnieje podejście, które mówi, że ekonomia matematyczna zrodziła się na bazie ekonomii klasycznej, a konkretnie, jej ważnego działu, za który uważa się teorię użyteczności. Rozważa się na ogół koszyk dóbr, względem którego uczestnicy rynku przejawiają pewne preferencje, co w efekcie sprowadza się do tego, że wektorowi x z przestrzeni Rn (może to być wektor określający pewne zasoby) przyporządkowuje się liczbę rzeczywistą u(x), zwaną użytecznością wektora x. Znając natomiast funkcję użyteczności, poszukuje się takiego koszyka dóbr, który zmaksymalizuje użyteczność przy danym układzie cen i ustalonych wydatkach. Otrzymuje się w ten sposób sformalizowane zadanie decyzyjne. Ekonometria, z kolei, zrodziła się z powiązania badań matematyczno-ekonomicznych z doświadczeniem, zaś modele ekonometryczne to formalny, matematyczny opis istniejących, często potwierdzonych doświadczalnie, prawidłowości ekonomicznych. Charakteryzuje się tym, że dąży do empirycznego badania powiązań pomiędzy mierzalnymi zjawiskami ekonomicznymi. Ekonometria to także nauka zajmująca się ustalaniem za pomocą metod statystycznych konkretnych, ilościowych prawidłowości występujących w zjawiskach ekonomicznych. Model ekonometryczny to konstrukcja formalna, która za pomocą równania lub układu równań przedstawia zasadnicze powiązania występujące pomiędzy rozpatrywanymi zjawiskami ekonomicznymi. Istnieją różne rodzaje modeli ekonometrycznych: statyczne i dynamiczne, deterministyczne i stochastyczne, proste, czyli opisujące związek tylko miedzy dwoma wielkościami i złożone, czyli ustalające relacje pomiędzy większą liczbą zmiennych. Kolejne podziały to: liniowe i nieliniowe, jednorównaniowe i wielorównaniowe, symulacyjne i prognostyczne, bezwarunkowe i warunkowe, przyczynowo-skutkowe, symptomatyczne, kontrolne i optymalizacyjne itd. Konstruując model ekonometryczny, należy pamiętać o tym, że wskazane jest, aby posiadał on nie tylko wartość poznawczą z punktu widzenia teorii ekonomii, ale również wartość praktyczną, czyli aby mógł służyć jako narzędzie wnioskowania w przyszłość. Bibliografia poświęcona modelom ekonometrycznym jest ogromna. We wstępnej części niniejszej pracy zostało zasugerowane, że budując modele, konkretyzujemy prawa nauki. Zasugerowano także, że w zależności od „modelowanych zagadnień”, iż terminy i pojęcia naukowe powinny być dobrze zdefiniowane; przede wszystkim określony ma być zakres znaczeniowy. Okazuje się, że jest to zbyt mało, ażeby zbudować dobry model ekonometryczny. Istnieją bowiem liczne przeszkody uniemożliwiające prawidłową konstrukcję modelu ekonometrycznego. Należą do nich m.in.: ubogie ilościowo, niekompletne i obarczone błędami dane statystyczne, brak wiarygodnej teorii ekonomicznej gwarantującej bezbłędny dobór zmiennych, zmienne wchodzące w skład modelu nie powinny być ze sobą skorelowane i ten prob- 14 Ewa Drabik lem jest trudny do wyeliminowania. Należy również ograniczyć dążność do wprowadzenia do modelu wyłącznie zmiennych silnie skorelowanych ze zmienną endogeniczną, gdyż generowane jest w ten sposób zjawisko powtarzania. Prawdą jednak jest, że nauki społeczne bardzo często zajmują się procesami wykazującymi silne, wzajemne skorelowanie. Reasumując, konstrukcja modelu ekonometrycznego polega na odtworzeniu związków i relacji łączących zmienną objaśnianą z trafnie dobranymi zmiennymi objaśniającymi. Z punktu widzenia „czystej” matematyki, model ekonometryczny jest również „gładką rozmaitością” zanurzoną w przestrzeni euklidesowej wymiaru skończonego. Współrzędne tej rozmaitości interpretuje się ekonomicznie [Smoluk 1988]. Smoluk twierdzi także, że model ekonometryczny jest: konstrukcją sztuczną, aproksymującą w jakimś sensie dane statystyczne [Smoluk 1988]. Warto dodać, że nadrzędnym celem tworzenia modelu ekonometrycznego jest prognozowanie. Proces wnioskowania w przyszłość na podstawie modelu ekonometrycznego nazywa się predykcją, zaś konkretny wynik tego procesu nazywa się prognozą. Kolejne miejsce w modelowaniu zjawisk ekonomicznych zajmują procesy podejmowania decyzji. Najczęściej rozwiązuje się je przy pomocy programowania matematycznego. W celu sformułowania, a następnie rozwiązania problemu decyzyjnego można posłużyć się następującym schematem. Zminimalizować (lub zmaksymalizować) f(x) przy warunku x, gdzie x może być: nieznaną liczbą rzeczywistą, nieznanym wektorem liczb rzeczywistych, nieznaną funkcją, nieznanym wektorem, którego składowymi są funkcje; f oznacza daną funkcję, która nazywana jest funkcją celu, oznacza zbiór warunków ograniczających; zbiór ten może być określony przy pomocy pewnego układu warunków (np. nierówności i równości). Rozwiązaniem dopuszczalnym nazywa się każdy element x zbioru , zaś rozwiązaniem optymalnym nazywa się element x* zbioru minimalizujący (lub maksymalizujący) funkcję celu, tj.: min f (x) f (x*) ( max f (x) f (x*) ). x X x X Należy jednak pamiętać, że bardzo często, formułując problem, nie jest jasne, czy istnieje rozwiązanie optymalne, mało tego, czy istnieje rozwiązanie dopuszczalne. Jeżeli nie istnieje rozwiązanie dopuszczalne, to problem prognozowania matematycznego jest nazywany problemem sprzecznym. W przeciwnym wypadku, problem jest niesprzeczny, co nie jest jednak równoznaczne z istnieniem rozwiązania optymalnego [Grabowski 1980]. Warto dodać, że najbardziej znane jest programowanie liniowe (układ warunków oraz funkcja celu są zapisane w formie równań lub nierówności liniowych). Rozwiązanie tego problemu wymaga znajomości algebry liniowej i dobrego rozumienia istoty i własności przestrzeni Rn. Prawdopodobnie większość rzeczywistych problemów decyzyjnych to jednak problemy wielokryterialne, rozstrzygane przez grupę decydentów, którzy, podejmując decyzje, są inspirowani zasadą Pareto: dany stan świata A jest bardziej preferowany niż B, jeśli przynajmniej jedna osoba ma lepiej, nikt gorzej, w A niż w B. Często w procesach podejmowania decyzji powstają sytuacje zbliżone do tych, z którymi mamy do czynienia w różnego rodzaju grach, a tym właśnie zajmuje się teoria gier. Bada ona modele takich sytuacji decyzyjnych, w których wynik zależy od kilku niezależnych podmiotów, mających pewną swobodę działania i podejmowania decyzji, O matematycznym modelowaniu zjawisk gospodarczych… 15 czyli graczy. Decyzje gracze podejmują w ramach reguł gry. Suma niezależnie podjętych działań generuje nowy stan, który można uznać za wynik gry. Każdemu wynikowi odpowiada określona wypłata, która stanowi miarę stopnia osiągnięcia celu każdego z rywali. Miara ta może przyjmować postać pieniężną i zazwyczaj jest wyrażana w kategoriach zysku i kosztu. Wypłatę można zdefiniować również w kategoriach: zdobyczy terytorialnych, liczby osób zabitych lub rannych (w grach wojennych), stopnia opanowania rynku, obniżek stawek celnych itp. Reasumując, wypłata stanowi syntetyczny miernik preferencji gracza. Spośród określonych reguł gry gracze dobierają strategie. W grach strategia określa plan ruchów, których w trakcie gry nie może zmienić ani przeciwnik, ani natura. Zdarzają się również sytuacje, podczas których dwie grupy lub kilka grup starają się osiągnąć własne cele. Cele mogą być zarówno zbieżne, jak i przeciwstawne. Można zatem mówić o kooperacji lub konkurencji. Każda grupa, bądź pojedynczy podmiot, usiłuje znaleźć najlepszą w danych warunkach linię postępowania (optymalną strategię). Taka gra, podobnie jak każda inna, podlega z góry określonym regułom. Owe grupy, czyli gracze, wykonują ruchy w określonym porządku. Każdemu ruchowi odpowiada wypłata. Gdy przy końcu gry suma wygranych jest równa zeru, to gra jest nazywana grą o sumie zerowej. W przeciwnym wypadku jest to gra o sumie niezerowej. Gracze powinni obrać takie strategie, aby zapewnić sobie maksymalną wygraną, nawet przy najlepszej odpowiedzi przeciwnika. W tym celu są stosowane różne metody, również takie, które wykorzystują programowanie matematyczne. Teoria gier, pomimo iż nakłada bardzo silne warunki na sposób przebiegu gry, pozwala uzyskać wiele wniosków o dużym znaczeniu praktycznym w różnych gałęziach wiedzy. Ma ona dużą przyszłość, gdyż może zajmować się nie tylko modelowaniem zjawisk gospodarczych, w których uczestniczą konkurujące lub kooperujące ze sobą podmioty, ale również uwzględniać nastroje i reakcje uczestników rynku (w sposób liczbowy). Zapoczątkowana w latach 80. XX wieku przez psychologów Daniela Kahnemana i Amosa Tverskiego teoria perspektywy, mówiąca, że gospodarka to nie tylko „prawidłowości”, ale również ludzie oddziałujący przez swoje zachowania na rynek, może znaleźć swoje odzwierciedlenie także w modelach ekonomicznych, a to właśnie za sprawą teorii gier. Klasyczna teoria gier opiera się na nieco uproszczonych założeniach, że gracze są egoistami, którzy zachowują się racjonalnie. Podejmują zatem działania optymalne z punktu widzenia założonego celu i maksymalizacji własnej użyteczności. Całkowicie są pomijane wypłaty innych graczy. Obecnie coraz częściej są rozważane sytuacje, w których gracze są skłonni do altruizmu, a tym samym ponoszenia pewnych kosztów w celu zmiany podziału wypłat. W rezultacie coraz częściej rozważa się modele nieegoistycznych preferencji. Modele te zachowują wszelkie założenia klasycznej teorii gier, dopuszczając jednak sytuację, w której wypłaty graczy zależą w jakimś stopniu od wypłat konkurentów. Na zakończenie niniejszego rozdziału warto wspomnieć, że istnieją dziedziny wiedzy, których przedstawiciele wznoszą potężne barykady przeciwko przenikaniu matematyki do ich nauki. Nie brakuje ich również wśród ekonomistów. Zdarzają się także matematycy dumni z faktu, że nic z tego, co kiedykolwiek stworzyli, nie dało się zastosować do czegoś innego niż czystej matematyki. Nie można robić nic na siłę. Prawdą jednak jest, że istnieje, zwłaszcza w ekonomii, olbrzymie zapotrzebowanie 16 Ewa Drabik na rzemiosło, jakim jest matematyka. Matematyka czysta i stosowana, połączone razem, tworzą nowe idee, zaś rozłączone mogą zginąć [Kac 1963]. 5. Podsumowanie Okazuje się, że pomimo ilościowych, a nawet jakościowych niedoskonałości, modele o charakterze ekonomicznym zdają egzamin w konfrontacji z rzeczywistością. Faktem jest, że bardzo często proces opisu badanych zjawisk przy pomocy sformalizowanego języka matematyki jest subiektywny. Okazuje się jednak, że subiektywizm nie przeszkadza w prognozowaniu i podejmowaniu decyzji. Charakteryzują się one o wiele większą precyzją niż prognozowanie i podejmowanie decyzji na bazie domysłów, popartych nawet danymi liczbowymi. Rzetelnie sporządzone modele ekonometryczne dają na ogół dobre prognozy, co sugeruje, że traktowanie zjawisk ekonomicznych w sformalizowanej postaci pozwala lepiej zrozumieć problem, a nawet go rozwiązać. Przedstawienie, z kolei, interakcji społecznych w języku teorii gier umożliwia łatwe ustalenie stanu równowagi (w tym przypadku w sensie Nasha), pod warunkiem że równocześnie zostaną przyjęte założenia dotyczące określonych reguł obowiązujących w trakcie gry, np. „wolnego rynku” i nie będzie możliwości zawierania jakichkolwiek porozumień poza schematem gry. W sytuacji jednak gdy dopuszcza się możliwość kooperowania, istnieją również proste i jasno określone możliwości określania równowagi, która w najgorszym wypadku może okazać się równowagą suboptymalną. Tworzenie koalicji i wewnętrzne nimi zarządzanie nie jest łatwe i często konieczne okazuje się wynegocjowanie jakiegoś kompromisu, co również można wymodelować. Pamiętać mimo to należy, że niezależnie od rozważanych zagadnień o charakterze ekonomicznym czy społecznym, modelując dane zjawisko, buduje się pewien schemat jego przebiegu i bada przy pomocy teorii matematycznej nie samą rzeczywistość, ale ten schemat. Podsumowując, pozostaje stwierdzić, że matematyka jest istotna częścią ludzkich przedsięwzięć. Zdarzają się jednak modele używające terminologii matematycznej w sposób wadliwy i nieużyteczny. Jak dotychczas, są one w znaczącej mniejszości, ale coraz więcej modeli, zwłaszcza związanych z rynkami finansowymi, przez błędne założenia i skomplikowaną strukturę prowadzi do „wynaturzenia” badanych zjawisk. Dowodem na to jest chociażby kryzys początku XXI wieku, który jest, po części, pokłosiem skomplikowanej, generującej toksyczne papiery wartościowe, inżynierii finansowej. Literatura Creedy J., Martin V.L. 1994 Chaos in non-linear models in economics, Cornwall. Drabik E. 2003 Twórczość Kaleckiego po latach, „Myśl Ekonomiczna i Prawna”, nr 3. Grabowski W. 1980 Programowanie matematyczne, Warszawa. Kac M. 1963 Matematyka, jej kierunki i napięcia, „Wiadomości Matematyczne”, nr 6. O matematycznym modelowaniu zjawisk gospodarczych… 17 Kałużnin Ł.A. 1964 O języku informacyjnym matematyki, „Wiadomości Matematyczne”, nr 44. Ryll-Nardzewski C. 1973 Prace Hugona Steinhausa o sytuacjach konfliktowych, „Wiadomości Matematyczne”, nr 17. Siedlecki J. 2000 Równowaga a wzrost gospodarczy, Warszawa – Wrocław. Smoluk A. 1998 Modalność i prognozy, „Przegląd Statystyczny”, nr 45, 1. Smoluk A. 1990 Teoria aproksymacji a ekonometria, „Przegląd Statystyczny”, nr 37, 4. Stone M.H. 1961 Matematyka i przyszłość nauki, „Wiadomości Matematyczne”, nr 4. Thom R. 1974 Matematyka nowoczesna, „Wiadomości Matematyczne”, nr 18. Tinbergen J., Ein Schiffbauzyklus?, „Weltwirtschaftliches Archiv”, Kiel. 1931, t. XXXIV, cz. 2. Współczesna matematyka. Dwanaście esejów 1983, (red.) A. Stearn, Warszawa. Wycech-Łosiowa M. 1973 Sympozjum Matematycznych Metod Ekonomii, jego problematyka, cele i przebieg, „Wiadomości Matematyczne”, nr 14.1. OPTIMUM. STUDIA EKONOMICZNE NR 4 (48) 2010 Danuta STRAHL1 WYKORZYSTANIE METOD PORZĄDKOWANIA LINIOWEGO DO BUDOWY ŚCIEŻKI HARMONIJNEGO ROZWOJU INNOWACYJNOŚCI REGIONALNEJ Streszczenie Artykuł przedstawia propozycje budowy ścieżki harmonijnego rozwoju innowacyjności regionalnej. Propozycja bazuje na metodach porządkowania liniowego, a w szczególności na wykorzystaniu miary agregatowej. Wyróżnione zostały dwie warstwy innowacyjności regionalnej: Input ilustrująca nakłady na innowacyjność oraz Output przedstawiająca efekty w zakresie innowacyjności. Idea ścieżki opiera się na równowadze regionu, która formalnie określa odległość określonego regionu od regionu wzorca. Zbudowana ścieżka harmonijnego rozwoju ma postać parametryczną i jest ujęta w dwóch wymiarach. Pierwszy bazuje na modelu syntetycznym kwantyfikującym poziom rozwoju innowacyjności Input oraz innowacyjności Output. Drugie ujęcie uwzględnia pełny zbiór cech ilustrujących innowacyjność regionalną. Zaproponowana procedura budowy ścieżki harmonijnego rozwoju innowacyjności regionalnej została zilustrowana na przykładzie 37 regionów brytyjskich typu NUTS 2. Słowa kluczowe: metody porządkowania liniowego, ścieżka zrównoważonego rozwoju, innowacyjność regionalna THE USE OF LINEAR ORDERING METHODS TO BUILD HARMONIOUS DEVELOPMENT TRACK OF REGIONAL INNOVATION Summary The article provides recommendations for creating of harmonious development track of regional innovation. The proposal is based on linear ordering methods but, first of all, on the use of aggregate measure. Two aspects of regional innovation have been distinguished: Input, which illustrates financial outlays on innovation, and Output, which illustrates the effects within the scope of innovation. The idea of the track is based on regional balance which formally determines the distance of a given region from the model region. The harmonious development track takes a parametric form and is presented in two dimensions. The first one is based on a synthetic model which quantifies the level of Input and Output innovation. The other perspective takes into consideration the entire set of qualities that illustrate regional innovation. The suggested procedure concerning building of harmonious development track of regional innovation has been illustrated with the example of 37 British regions of type NUTS 2. Key words: linear ordering methods, harmonious development path, regional innovatiom 1 Prof. dr hab. Danuta Strahl jest pracownikiem Wydziału Gospodarki Regionalnej i Turystyki Uniwersytetu Ekonomicznego we Wrocławiu. Wykorzystanie metod porządkowania liniowego… 19 1. Wstęp Przyjmując za A. Kuklińskim [Kukliński 2001] ogólne określenie innowacyjności, iż jest to zdolność do tworzenia i absorbowania innowacji, można uznać, że w wymiarze regionalnym może to oznaczać wyróżnienie regionów: generujących innowacje, absorbujących innowacje bądź charakteryzujących się zarówno zdolnością generowania innowacji, jak i jej absorpcji [Por.: Kudłacz 1999 s.15]. Budując strategie rozwoju regionalnego z uwzględnieniem procesów innowacyjnych, można przyjąć, iż w modelu zrównoważonego rozwoju tak samo jest ważny aspekt generowania innowacyjności, jak i absorpcji. Równowaga taka może tworzyć właściwe warunki stabilnego i trwałego wzrostu regionu, zapewniając przepływy międzyregionalne idei, produktów i usług. W budowaniu strategii równowagi w zakresie innowacyjności można wykorzystać klasyfikację mierników stosowaną przez Eurostat w metodologii pomiaru innowacyjności z jednej strony, a narzędzia wielowymiarowej analizy statystycznej z drugiej strony. W metodologii Eurostatu można spotkać propozycje podziału cech ilustrujących innowacyjność na szczeblu regionalnym i służącym jej pomiarowi na innowacyjność typu Input oraz Output. Z kolei, jednym z narzędzi wielowymiarowej analizy statystycznej jest ścieżka harmonijnego rozwoju, której ideę można wykorzystać do budowy strategii innowacyjności regionalnej [Por.: Strahl 1982]. 2. Idea ścieżki harmonijnego rozwoju innowacyjności regionalnej W celu prezentacji idei ścieżki harmonijnego rozwoju (Por.: [Strahl 1982]) innowacyjności regionalnej można przyjąć, iż na szczeblu regionu będzie wyróżniać się innowacyjność typu Input oraz innowacyjność typu Output. Stąd można wprowadzić następujące oznaczenia. Dany jest : zbiór krajów: P P1 ...Pn ...PN , gdzie n = 1, …, N, – – zbiór regionów przyporządkowany do każdego n- tego kraju (n=1,2,….N), – p = p1n , p2n ,..., p kn ,..., p Kn , gdzie k = 1, …, K, – zbiór zmiennych opisujących innowacyjność typu INPUT: X 11 , X 12 ,..., X 1j ,..., X 1m , – zbiór zmiennych opisujących innowacyjność typu OUTPUT: 2. X 12 , X 22 ,..., X 2j ,..., X m Wyniki obserwacji wartości cech ilustrujących innowacyjność typu Input oraz Output w zbiorze regionów p k k 1, ..., K mogą być zapisane w postaci macierzy : – macierz INPUT: X1 : x1n 11 ... x1n K1 ... x1kjn ... n x11m ... n x1Km K xm , (1) 20 Danuta Strahl gdzie: x1kjn – wartość j-tej zmiennej (j = 1, …, m) ilustrującej innowacyjność typu INPUT, w k-tym regionie (k = 1, …, K), w n-tym kraju (n = 1, …, N), – macierz OUTPUT: X2 : x 2n 11 ... x 2n K1 ... 2n x kj ... x12mn ... 2n x Km K xm , (2) gdzie: x kj2n – wartość j-tej (j = 1, …, m) zmiennej ilustrującej innowacyjność typu OUTPUT, w k-tym regionie (k = 1, …, K), w n-tym kraju (n = 1, …, N). Teraz dla każdego regionu p k k 1, ..., K należy skonstruować syntetyczny model kwantyfikujący poziom innowacyjności regionalnej typu Input, a następnie typu Output. Konstrukcja syntetycznego modelu innowacyjności regionalnej obejmuje budowę, dla każdego regionu p k k 1, ..., K , miary agregatowej, kwantyfikującej poziom innowacyjności regionalnej typu Input oraz Output. Procedura konstrukcji miary agregatowej przewiduje, w celu sprowadzenia wartości cech ilustrujących innowacyjność regionalną do wspólnego układu porównawczego, normalizację bądź unitaryzację bądź standaryzację ich wartości według znanych formuł [Por.: Jajuga 1993; Strahl, Walesiak 1997; Walesiak 2006]. Wśród zmiennych opisujących innowacyjność regionalną typu Input lub Output wyróżnia się podany niżej charakter cech diagnostycznych2. I. Stymulanty: (oznaczone symbolem S), których wartości należą do zbioru R. II. Destymulanty: (oznaczone symbolem D), których wartości należą do zbioru R+. III. Nominanty, których wartości należą do zbioru R+, w tym: 1. Nominanty oznaczone symbolem N1 z wartością nominalną x0Nj1 . 2. Nominanty z zalecanym przedziałem wartości x 0Nj2 i x 0Nj2 (oznaczone symbolem N2). Nominanty (oznaczone symbolem N3) z określoną wartością nomi- 3. 1 2 1 2 nalną x 0Nj3 i dopuszczalnym przedziałem wartości x 0Nj3 i x 0Nj3 . W opracowaniu przyjęto, przedstawione poniżej, zasady normalizacji [Por.: Jajuga 1993; Strahl 1978; Strahl, Walesiak 1997; Walesiak 2006]. 2 Dla czytelności zapisów będzie pomijać się indeksy określające innowacyjności typu INPUT i OUTPUT, dla których w macierzach (1) i (2) wprowadzono indeksy l= 1, 2. Wykorzystanie metod porządkowania liniowego… 21 I. Stymulanty3: jS: zkj xkj max{xkj } , zkj [0;1] , (3) k min{x kj } ;1 , z kj k max{x kj } k gdzie: xkj z kj (4) – wartość j-tej zmiennej w k-tym regionie, – znormalizowana wartość j-tej zmiennej w k-tym regionie. II. Destymulanty: jD min{xkj } , zkj k xkj (5) min{xkj } zkj k ; 1 . max{xkj } k (6) 1 dla x kj x 0Nj1 x kj N 1 dla x kj x 0Nj1 , x 0 j1 N x 0 j1 1 dla x kj x 0Nj1 x kj (7) III. Nominanty: 1. j N 1 z kj min{x kj } x 0Nj1 k z kj min 1; 1; 1 . N1 max { x } x kj 0j k (8) 3 Zaprezentowane formuły normalizacyjne są dopuszczalne dla zmiennych stymulant mierzonych na skali ilorazowej. Dla zmiennych stymulant mierzonych na skali przedziałowej należy przyjąć sztuczne założenie, że w zbiorze badanych regionów występuje przynajmniej jeden taki region, dla którego obserwacja na danej zmiennej jest dodatnia. 22 2. Danuta Strahl j N2 1 x kj z kj 1 1 xN2 0j x N 22 0j x 1 kj N1 N2 dla x0 j2 x kj x0 j2 N1 , dla x kj x0 j2 N2 dla x kj x0 j2 2 min{xkj } x0Nj2 k 1; 1; 1 . zkj min 1 N 2 max{xkj } x0 j k 3. (9) (10) j N3 1 xkj x N3 0j N3 x0 j zkj xkj xkj 1 N 31 x0 j 2 x N3 0 j 1 xkj N dla xkj x0 j3 N1 N N N2 dla x0 j3 xkj x0 j3 dla x0 j3 xkj x0 j3 , (11) N1 dla xkj x0 j3 N2 dla xkj x0 j3 N 32 min{xkj } x 0 j k 1; 1; 1 . zkj min 1 N max{xkj } x0 j3 k (12) W przypadku wykorzystania procedury unitaryzacji normalizowane wartości cech obliczamy według podanych niżej wzorów Dla cech ilustrujących innowacyjność typu Input: Wykorzystanie metod porządkowania liniowego… z 1n kj k 1,..., K x 1kjn min x 1kjn kP j 1,..., m . max x 1kjn min x 1kjn (13) n 1,..., N kP kP 23 Dla cech ilustrujących innowacyjność typu Output: z 2n kj x kj2 n min x kj2 n kP max x kj2 n min x kj2 n kP kP k 1,..., K j 1,..., m . n 1,..., N (14) Miarę agregatową SMIRk1n , kwantyfikującą poziom rozwoju innowacyjności regionalnej typu Input, obliczamy ze wzoru [Por.: Strahl 1978]: SMIRk1n 1 m z 1n kj , (15) gdzie: z 1kjn – zadane odpowiednimi wzorami: (3), (5), (7), (9), (11), SMIRk1n – miara agregatowa innowacyjności regionalnej Input. Miarę agregatową kwantyfikującą poziom rozwoju innowacyjności regionalnej typu Ouput obliczamy ze wzoru: SMIRk2 n m 1 m z 2n kj , (16) j 1 gdzie z 1kjn – zadane wzorami: (3), (5), (7), (9), (11), SMIRk2 n – miara agregatowa innowacyjności regionalnej Output. Jak łatwo zauważyć, wartość miary (15) i (16) należą do przedziału liczbowego [0,1] czyli: SMIRk1n [0,1] SMIRk2 n [0,1] (17) Przyporządkowując każdemu regionowi wartości miary agregatowej kwantyfikującej poziom rozwoju regionu ze względu na innowacyjność typu Input lub Output, otrzymujemy syntetyczny model innowacyjności regionalnej k-tego regionu (k = 1,2,….K) o postaci: p1 SMIR11n , SMIR12 n ... . p K SMIRK1n , SMIRK2 n (18) Zasadę harmonijnego rozwoju innowacyjności regionalnej można sformułować następująco: 24 Danuta Strahl SMIRk1 SMIRk2 . (19) Koncepcja harmonijności rozwoju innowacyjności regionu oznacza zachowanie właściwych proporcji między innowacyjnością typu Input oraz typu Output. Oznacza to zatem równowagę regionu między ponoszonymi nakładami na innowacyjność a uzyskiwanymi efektami. Harmonijny rozwój regionu może zatem w perspektywie prowadzić do właściwych relacji między efektami i nakładami innowacyjności regionalnej. Jest to oczywiście jedna z możliwych koncepcji uzyskiwania harmonijności w zakresie innowacyjności regionalnej. Można zatem przyjąć, że: Określenie 1. Region p k k 1, ..., K znajduje się w równowadze wewnętrznej ze względu na innowacyjność typu Input i Output, jeżeli: (20) SMIRk1 SMIRk2 . Zatem, równowaga wewnętrzna oznacza zachowanie identycznych odległości między miarami agregatowymi kwantyfikującymi poziom innowacyjności regionalnej Input oraz Output w regionie p k k 1, ..., K a wartościami tych miar w regionie – wzorcu. Po w sensie wartości miar odległości, czyli d 01 d 02 , gdzie: d 01 1 SMIRk1 . d 02 1 SMIRk2 (21) Z uwagi na własności miar agregatowych ujętych zapisem (17) – region wzorzec Po ma następujące znormalizowane wartości cech: z oj 1 dla j 1, ..., m . (22) W świetle właściwości miar agregatowych innowacyjności regionalnej typu Input oraz Output, opisanych wzorem (17), można przyjąć kolejne określenie, tj.: Określenie 2. Punktem wiodącym ścieżki harmonijnego rozwoju innowacyjności regionalnej z uwzględnieniem innowacyjności typu Input oraz innowacyjności typu Output dla regionów { p1 , ..., p k } będzie punkt: Po :[1,1] R 2 . (23) Określenie 3. Obrazem ścieżki harmonijnego rozwoju innowacyjności regionalnej z uwzględnieniem innowacyjności typu Input oraz innowacyjności typu Output dla regionów { p1 , ..., p k } będzie prosta przechodząca przez punkty: Po0 :[0, 0] i Po1 :[1,1] R 2 . O postaci parametrycznej: z 1, 2 , (24) (25) Wykorzystanie metod porządkowania liniowego… 25 gdzie – parametr prostej. Wprowadzenie regionu p k k 1, ..., K na ścieżkę harmonijnego rozwoju (25) odbywa się przez wyznaczenie tzw. indywidualnego wzorca rozwoju Pk0 , czyli punktu na prostej (25) z zależności: 1, 2 , z k* k 1, ..., K (26) k* max SMIRk , (27) gdzie: SMIRk = zadane wzorami (15), (16) α = 1,2, czyli: z k* max SMIRk . (28) Wartości z k* wyznaczone wzorem (28) tworzą obraz liczbowy ścieżki harmonijnego rozwoju innowacyjności regionalnej uwzględniającej innowacyjność Input oraz innowacyjność Output dla regionu p k k 1, ..., K w ujęciu syntetycznym. Ten taksonomiczny model określający relacje liczbowe między poziomem innowacyjności Input a poziomem innowacyjności Output, w sensie wartości miar agregatowych ujętych wzorami (15) i (16), przynosi konstrukcję ścieżki harmonijnego rozwoju w postaci (25). Ścieżka ta pozwala z kolei na wyznaczenie dla każdego regionu p k k 1, ..., K – indywidualnego wzorca rozwoju w postaci określonej zależnością (28). Koncepcję harmonijnego rozwoju można również zastosować z nieco większym uszczegółowieniem, uwzględniając każdą z przyjętych do opisu innowacyjności regionalnej m-cech. Wówczas konstrukcję ścieżki należy rozpocząć od sformułowania globalnego wzorca rozwoju innowacyjności regionalnej, w tym innowacyjności typu Input oraz Output. Dla uproszczenia zapisu pominięto indeks α = 1,2, przedstawiając procedurę budowy ścieżki harmonijnego rozwoju powalającą na zastosowanie jej zarówno do innowacyjności typu Input, jak i Output. Wartości cech globalnego wzorca rozwoju innowacyjności regionalnej można wyznaczyć na przykład według relacji (29): max x kj dla j S k x kj dla j D min k N1 , z oj x0 j dla j N 1 1 2 x N 2 x N 2 , x N 2 dla j N 0j 0j 2 0j N3 x0 j dla j N 3 N gdzie: x0Nj1 , x0Nj2 , x0 j3 wartości nominalne. (29) 26 Danuta Strahl Warto w tym miejscu przypomnieć, że na podstawie: (3), (5), (7), (9) i (11) zachodzi: j z oj 1 dla j 1, ..., m . (30) Teraz można wprowadzić: Określenie 4. Punktem wiodącym ścieżki harmonijnego rozwoju innowacyjności regionalnej obiektów – regionów { p1 , ..., p k } będzie punkt: Pok :[1,1] R m . (31) Określenie 5. Obrazem ścieżki harmonijnego rozwoju innowacyjności regionalnej obiektów regionów { p1 , ..., p k } jest prosta przechodząca przez punkty: Po0 :[0, 0] i Po1 :[1,1] R m . O postaci parametrycznej: y j j 1, ..., m , (32) (33) gdzie – parametr prostej. W celu zbudowania indywidualnego wzorca rozwoju innowacyjności regionalnej dla każdego obiektu – regionu p k k 1, ..., K . Przyjmijmy: Określenie 6. Obiekt = region p k k 1, ..., K znajduje się w równowadze wewnętrznej, jeżeli: z k1 ... z km . (34) Zasadę kwantyfikacji stanu równowagi obiektu – regionu sformułuje zaś: Określenie 7. Miernikiem równowagi wewnętrznej obiektu p k k 1, ..., K jest wielkość: hk 2 lm1 z kj z kj m(m 1) j , j ' 1, ..., m . j j ' (35) Jak łatwo zauważyć, nasuwa się: Wniosek 1. Wartość miary hk należy do przedziału liczbowego: [0, 1]. Stąd: Określenie 8. Obiekt region p k k 1, ..., K znajduje się w stanie równowagi zupełnej, jeżeli: hk 0 . (36) Wykorzystanie metod porządkowania liniowego… 27 Równowaga wewnętrzna oznacza zachowanie identycznych odległości między wartościami cech opisujących innowacyjność regionalną w regionie p k , k = 1, 2, …, K a wartościami cech opisujących innowacyjność regionalną w regionie-wzorcu Po* (k 1, ..., K ) w sensie wartości miary, (37), tj.: j 1, ..., n . d 0 j 1 z kj k 1, ..., K (37) Nie oznacza to jednak osiągnięcia wartości cech regionu – wzorca globalnego. W celu osiągnięcia wartości cech regionu – wzorca globalnego, region p k powinien „rozwijać się” po ścieżce harmonijnego rozwoju, wyznaczonej relacją (33), zachowując jednocześnie stan równowagi wewnętrznej określonej przez relację (35). Wprowadzenie regionu p k na ścieżkę harmonijnego rozwoju, której obrazem jest prosta (33), odbywa się przez wyznaczenie tzw. indywidualnego wzorca Pk* punktu na prostej z zależności: (38) z kj* kj* ( j 1, ..., n) , gdzie: k* max kj , (39) j kj z kj . (40) Przy czym z kj – wyznaczone odpowiednio wzorami: (3), (5), (7), (9) i (11). Wartość cech indywidualnego wzorca rozwoju można zatem prościej wyznaczyć za pomocą relacji: z kj* max z kj . (41) j Ograniczając się teraz tylko do stymulant i destymulant, można wyznaczyć pierwotne, czyli nie normalizowane wartości cech indywidualnego wzorca rozwoju k* , według wzorów: (42) x kj z oj max z kj jS , j gdzie: x kj z oj max z kj jD, (43) j oraz: z oj max x kj , (44) k z kj x kj max x kj k j 1,..., m . k 1,..., k (45) Przy konstrukcji ścieżki harmonijnego rozwoju innowacyjności regionalnej interesujące mogą być ponadto informacje następujące: 28 Danuta Strahl 1. W którym momencie T* nastąpi wejście regionu p k na ścieżkę harmonijnego rozwoju. 2. Jaka powinna być intensyfikacja rozwoju innowacyjności regionalnej, ściśle jej poszczególnych charakterystyk – cech w zadanym obiekcie p k , aby wejście na ścieżkę harmonijnego rozwoju nastąpiło w zadanym momencie T*, czyli jakie powinno być postulowane tempo rozwoju poszczególnych cech ilustrujących innowacyjność regionalną. Studia w tym zakresie powinny zmierzać między innymi do: a) Opracowania wzorców quasi-optymalnych rozwoju innowacyjności dla określonych typów regionów p k , czy też dla określonych grup typologicznych regionów; b) Konstrukcji ścieżki harmonijnego rozwoju o różnych postaciach analitycznych (ścieżki nieliniowe, segmentowe itp.); c) Opracowania metod określających kolejne etapy osiągania wartości cech regionu – wzorca, czyli wkraczania na ścieżkę harmonijnego rozwoju; d) Wskazania możliwości wykorzystania modeli przyczynowo-opisowych, w tym panelowych, do określania postulowanego tempa rozwoju innowacyjności regionalnej. 3. Ilustracja proponowanej procedury budowy ścieżki harmonijnego rozwoju innowacyjności regionalnej. Ilustracja proponowanej procedury budowy ścieżki harmonijnego rozwoju innowacyjności regionalnej zostanie przedstawiona dla regionów NUTS-2 Wielkiej Brytanii. Przy doborze cech ilustrujących innowacyjność regionalną, zostanie wykorzystany dorobek Eurostatu. Metodologia obliczania Sumary Innovation Index, stosowana w Eurostacie w latach 2008-2010, opiera się na 29 wskaźnikach zawartych w następujących grupach tematycznych [Por.: Hollanders 2006; Hollanders, Cruysen 2008]. Motory innowacji rozumiane przez: – zasoby ludzkie: 1. Liczba absolwentów kierunków ścisłych i technicznych oraz nauk społecznych i humanistycznych na 1000 mieszkańców w grupie wiekowej: 20 – 29 lat; 2. Liczba doktorantów kierunków ścisłych i technicznych oraz nauk społecznych i humanistycznych na 1000 mieszkańców w grupie wiekowej: 25 – 34 lata; 3. Odsetek ludności z wykształceniem wyższym w grupie wiekowej: 25 – 64 lata; 4. Udział w kształceniu ustawicznym; 5. Udział % osób w grupie wiekowej: 20 – 24 lata, które ukończyły edukację co najmniej na poziomie szkoły średniej; – możliwości finansowania projektów oraz wsparcie rządowe dla działań innowacyjnych: 1. Udział wydatków publicznych na B+R w PKB (w %); 2. Udział inwestycji venture capital w PKB (w %); Wykorzystanie metod porządkowania liniowego… 29 3. Wysokość kredytu dla sektora prywatnego; 4. Szerokopasmowy dostęp do Internetu. Działalność przedsiębiorstw uwzględniająca ich działania innowacyjne, tj.: – inwestycje: 1. Udział wydatków przedsiębiorstw na B+R w PKB (w %); 2. Udział wydatków na IT w PKB (w %); 3. Udział wydatków na innowacje inne niż B+R w PKB (w %); – powiązania zewnętrzne: 1. Udział % MŚP wprowadzających własne innowacje w ogólnej liczbie MŚP; 2. Udział % MŚP kooperujących w zakresie innowacji w ogólnej liczbie MŚP; 3. Odsetek firm tworzących się i zamykanych w ogólnej liczbie MŚP; 4. Liczba publiczno-prywatnych publikacji naukowych na milion mieszkańców; – efekty pośrednie: 1. Liczba udzielonych patentów przez EPO (European Patent Office) na milion mieszkańców; 2. Liczba nowych wspólnotowych znaków towarowych na milion mieszkańców; 3. Liczba nowych wspólnotowych wzorów przemysłowych na milion mieszkańców; 4. Bilans płatniczy kraju w dziedzinie techniki. Efekty działalności innowacyjnej obejmujące: – innowatorów wdrażających innowacje na rynek lub w obrębie firmy: 1. Innowatorzy technologiczni (innowacje w obrębie produktu, usługi, procesu) – % MŚP; 2. Innowatorzy nie-technologiczni (innowacje marketingowe, organizacyjne) – % MŚP; 3. Innowatorzy w zakresie wydajności zasobów firmy; – gospodarcze efekty innowacji rozumiane przez: 1. Udział zatrudnionych w sektorach przemysłu średniowysokiej i wysokiej techniki w liczbie osób zatrudnionych w przemyśle i usługach; 2. Udział zatrudnionych w usługach wymagających specjalistycznej wiedzy w liczbie osób zatrudnionych w usługach; 3. Udział eksportu wyrobów średniej i wysokiej techniki w eksporcie ogółem; 4. Udział eksportu usług wymagających specjalistycznej wiedzy w eksporcie usług ogółem; 5. Udział sprzedaży nowych lub zmodernizowanych wyrobów dla rynku w sprzedaży przedsiębiorstw ogółem; 6. Udział sprzedaży nowych lub zmodernizowanych wyrobów dla przedsiębiorstw w sprzedaży przedsiębiorstw ogółem. 30 Danuta Strahl W porównaniu z zestawieniem cech wykorzystywanych do pomiaru innowacyjności na szczeblu krajowym, do roku 2008, 45% wskaźników rekomendowanych do oceny innowacyjności pozostało nie zmienionych, a niewielkie zmiany (często w nomenklaturze) wprowadzono dla 9 wskaźników (31%). Dodatkowo, na obecnej liście znalazło się 7 wskaźników (24%) zupełnie nowych. Źródło danych dla niemal 80% wskaźników stanowią nadal głównie bazy Eurostatu, a informacje dotyczące 5 wskaźników są zasilane z baz danych innych badań i instytucji, takich jak: CIS – Community Innovation Survey, OHIM – Office of Harmonization for the Internal Market, Thomson – Thomson Reuters, EVCA – European Venture Capital Association, EITO – European Information Technology Observatory, IMF – FORA’s Innovation Monitor, IFS – International Financial Statistics, CWTS – Centre for Science and Technology Studies. Badania poziomu i trendów innowacyjności na podstawie ewoluującej listy wskaźników i metodologii na poziomie krajowym trwają od kilku lat, a pierwsza ocena innowacyjności w regionach miała miejsce w roku 2002, kolejna w roku 2003, a następna w roku 2006. Chcąc dokonać oceny poziomu innowacyjności na poziomie regionalnym, można przyjąć, iż cechy tworzące dwie pierwsze grupy: Motory innowacyjności i Działalność przedsiębiorstw ilustrują innowacyjność typu Input, zaś trzecia grupa cech ilustruje efekty innowacyjności typu Output. Ilustracja zaprezentowanej metodologii budowy ścieżki harmonijnego rozwoju innowacyjności regionalnej ograniczy się do regionów NUTS-2 (37 regionów) Wielkiej Brytanii. Dostępność danych statystycznych pozwala przyjąć dla skali regionu następujące cechy: Cechy opisujące Innowacyjność regionalną INPUT: X1 – udział pracujących z wyższym wykształceniem w ogólnej liczbie pracujących w regionie; X2 – udział ludności w wieku: 25-64 lat uczestniczącej w kształceniu ustawicznym w regionie; X3 – kapitał ludzki w nauce i technologii (HRST) jako odsetek aktywnych zawodowo w regionie. Cechy opisujące Innowacyjność regionalną OUTPUT: X4 – udział pracujących w przemyśle wysoko i średnio zaawansowanym technologicznie w ogólnej liczbie pracujących w regionie; X5 – udział pracujących w usługach „opartych na wiedzy” (knowledge-intensive services) w ogólnej liczbie pracujących w regionie; X6 – patenty zarejestrowane w danym roku w EPO (European Patent Office) na milion siły roboczej w regionie. Wartości cech opisujące innowacyjność Input oraz Output w 37 regionach brytyjskich typu NUTS 2 dotyczące roku 2007 (jedna cecha X6 roku 2005) podano w tabeli 1. Wykorzystanie metod porządkowania liniowego… 31 TABELA 1. Wartości cech ilustrujących innowacyjność typu Input i typu Output w brytyjskich regionach NUTS 2 Symbol p1 p2 p3 p4 p5 p6 p7 p8 p9 p10 p11 p12 p13 p14 p15 p16 p17 p18 p19 p20 p21 p22 p23 p24 p25 p26 p27 p28 p29 p30 p31 p32 p33 p34 p35 p36 p37 Regiony ukc1 Tees Valley and Durham ukc2 Northumberland, Tyne and Wear ukd1 Cumbria ukd2 Cheshire ukd3 Greater Manchester ukd4 Lancashire ukd5 Merseyside uke1 East Yorkshire and Northern Lincolnshire uke2 North Yorkshire uke3 South Yorkshire uke4 West Yorkshire ukf1 Derbyshire and Nottinghamshire ukf2 Leicestershire, Rutland and Northants ukf3 Lincolnshire ukg1 Herefordshire, Worcestershire and Warks ukg2 Shropshire and Staffordshire ukg3 West Midlands ukh1 East Anglia ukh2 Bedfordshire, Hertfordshire ukh3 Essex uki1 Inner London uki2 Outer London ukj1 Berkshire, Bucks and Oxfordshire ukj2 Surrey, East and West Sussex ukj3 Hampshire and Isle of Wight ukj4 Kent ukk1 Gloucestershire, Wiltshire and Bristol/Bath area ukk2 Dorset and Somerset ukk3 Cornwall and Isles of Scilly ukk4 Devon ukl1 West Wales and The Valleys ukl2 East Wales ukm2 Eastern Scotland ukm3 South Western Scotland ukm5 North Eastern Scotland ukm6 Highlands and Islands ukn0 Northern Ireland X1 29,05 31,83 31,91 37,90 32,36 31,64 31,07 26,20 36,38 29,42 30,52 31,42 32,03 27,81 35,39 33,18 29,69 32,03 36,38 27,66 55,26 41,09 38,90 40,66 33,54 30,81 37,88 31,21 34,17 31,21 29,10 36,92 40,07 39,80 38,58 36,39 33,80 X2 25,54 25,12 26,85 23,12 24,90 25,01 25,71 22,11 24,82 23,61 24,36 25,42 25,98 22,03 26,83 24,26 26,88 25,34 25,55 23,01 35,77 28,55 26,68 30,60 27,05 25,52 26,15 26,86 25,71 25,98 24,34 27,71 26,72 26,42 22,03 25,29 14,36 X3 34,93 34,57 34,97 42,83 38,14 35,54 35,26 30,79 40,64 31,57 34,01 36,03 36,08 33,11 41,11 38,01 33,6 37,13 43,2 35,71 58,52 46,26 46,65 45,12 38,85 36,29 43,39 36,56 38,58 36,13 32,14 41,7 42,94 41,23 40,98 35,32 34,15 X4 6,05 5,81 4,62 8,93 5,02 6,6 4,95 5,89 4,74 3,56 4,39 7,35 6,4 6,41 10,5 5,96 6,71 6,02 7,78 4,38 1,37 2,9 6,73 4,52 7,83 4,93 6,87 6,71 5,32 4,85 6,85 4,56 3,62 4,68 4,34 4,27 4,94 X5 38,59 42,14 30,01 40,04 42,07 40,11 42,6 35,52 37,85 41,8 41,09 37,61 39,71 34,04 40,34 41,05 41,9 41,11 43,74 44,79 59,73 47,18 46,53 47,94 41,34 42,98 46,1 43,33 39,83 39,04 38,98 42,81 43,47 42,47 34,13 42,42 37,55 X6 81,3 64,6 39,9 131,0 50,2 50,9 59,1 73,8 100,3 63,8 60,8 100,9 80,2 45,7 110,3 57,6 67,3 252,2 134,9 86,5 370,0 340,0 195,2 134,6 159,5 74,2 146,2 58,9 41,5 41,4 38,4 52,5 93,6 31,7 25,3 28,5 37,7 Źródło : Eurostat. Unormowane wartości cech ilustrujących innowacyjność regionalną w regionach brytyjskich NUYS-2 podano w tabeli 2. 32 Danuta Strahl TABELA 2. Znormalizowane wartości cech ilustrujących innowacyjność regionalną Input oraz Output Symbol Regiony p1 ukc1 Tees Valley and Durham ukc2 Northumberland, Tyne and p2 Wear p3 ukd1 Cumbria p4 ukd2 Cheshire p5 ukd3 Greater Manchester p6 ukd4 Lancashire p7 ukd5 Merseyside uke1 East Yorkshire and Northern p8 Lincolnshire p9 uke2 North Yorkshire p10 uke3 South Yorkshire p11 uke4 West Yorkshire ukf1 Derbyshire and Nottinp12 ghamshire ukf2 Leicestershire, Rutland and p13 Northants p14 ukf3 Lincolnshire ukg1 Herefordshire, Worcestershire p15 and Warks p16 ukg2 Shropshire and Staffordshire p17 ukg3 West Midlands p18 ukh1 East Anglia p19 ukh2 Bedfordshire, Hertfordshire p20 ukh3 Essex p21 uki1 Inner London p22 uki2 Outer London ukj1 Berkshire, Bucks and Oxp23 fordshire p24 ukj2 Surrey, East and West Sussex p25 ukj3 Hampshire and Isle of Wight p26 ukj4 Kent ukk1 Gloucestershire, Wiltshire and p27 Bristol/Bath area p28 ukk2 Dorset and Somerset p29 ukk3 Cornwall and Isles of Scilly p30 ukk4 Devon p31 ukl1 West Wales and The Valleys p32 ukl2 East Wales p33 ukm2 Eastern Scotland p34 ukm3 South Western Scotland p35 ukm5 North Eastern Scotland p36 ukm6 Highlands and Islands p37 ukn0 Northern Ireland Źródło: Obliczenia własne. X1 X2 0,525697 0,714006 X3 0,59689 X4 0,57619 X5 0,646074 X6 0,21973 0,576004 0,702264 0,590738 0,553333 0,705508 0,174595 0,577452 0,685849 0,585595 0,572566 0,562251 0,750629 0,646352 0,696114 0,699189 0,718759 0,597573 0,731887 0,651743 0,607314 0,602529 0,44 0,850476 0,478095 0,628571 0,471429 0,502428 0,67035 0,704336 0,671522 0,713209 0,107838 0,354054 0,135676 0,137568 0,15973 0,474122 0,618116 0,526145 0,560952 0,594676 0,199459 0,658342 0,693878 0,694463 0,451429 0,633685 0,271081 0,532392 0,66005 0,539474 0,339048 0,699816 0,172432 0,552298 0,681018 0,581169 0,418095 0,687929 0,164324 0,568585 0,710651 0,615687 0,7 0,629667 0,272703 0,579624 0,726307 0,616541 0,609524 0,664825 0,216757 0,503257 0,615879 0,565789 0,610476 0,569898 0,123514 0,640427 0,75007 0,702495 1 0,600434 0,537278 0,579624 0,658342 0,500543 1 0,743576 0,678222 0,751468 0,708415 0,714286 0,643276 1 0,798155 0,649522 0,574163 0,634484 0,738209 0,610219 1 0,790499 0,567619 0,639048 0,573333 0,740952 0,417143 0,130476 0,27619 0,675373 0,298108 0,687259 0,70149 0,688264 0,732295 0,749874 1 0,789888 0,155676 0,181892 0,681622 0,364595 0,233784 1 0,918919 0,703945 0,745876 0,797163 0,640952 0,779006 0,527568 0,735794 0,855465 0,771018 0,430476 0,802612 0,363784 0,606949 0,75622 0,663876 0,745714 0,692115 0,431081 0,557546 0,713447 0,62013 0,469524 0,719571 0,200541 0,685487 0,73106 0,741456 0,654286 0,771806 0,395135 0,564785 0,61835 0,564785 0,526602 0,668114 0,725118 0,720232 0,698154 0,658523 0,611654 0,750909 0,718759 0,726307 0,680458 0,774672 0,746995 0,738608 0,615879 0,707017 0,401454 0,624744 0,659262 0,617396 0,549214 0,712577 0,733766 0,704545 0,700273 0,603554 0,583561 0,639048 0,506667 0,461905 0,652381 0,434286 0,344762 0,445714 0,413333 0,406667 0,470476 0,725431 0,666834 0,653608 0,652603 0,716725 0,727775 0,711033 0,571405 0,710196 0,628662 0,159189 0,112162 0,111892 0,103784 0,141892 0,252973 0,085676 0,068378 0,077027 0,101892 Wykorzystanie metod porządkowania liniowego… 33 Wartości cech indywidualnego wzorca rozwoju innowacyjności regionalnej NUTS-2 obliczono dla każdego badanego regionu brytyjskiego, stosując zaprezentowaną procedurę oddzielnie dla innowacyjności regionalnej Input oraz dla innowacyjności regionalnej Output. Wartości te podano w tabeli 3. TABELA 3. Wartości cech (pierwotne) indywidualnego wzorca regionów na ścieżce harmonijnego rozwoju Symbol p1 p2 p3 p4 p5 p6 p7 p8 p9 p10 p11 p12 p13 p14 p15 p16 p17 p18 p19 p20 p21 p22 p23 p24 p25 p26 p27 p28 p29 p30 p31 p32 p33 p34 p35 p36 p37 Region ukc1 Tees Valley and Durham ukc2 Northumberland, Tyne and Wear ukd1 Cumbria ukd2 Cheshire ukd3 Greater Manchester ukd4 Lancashire ukd5 Merseyside uke1 East Yorkshire and Northern Lincolnshire uke2 North Yorkshire uke3 South Yorkshire uke4 West Yorkshire ukf1 Derbyshire and Nottinghamshire ukf2 Leicestershire, Rutland and Northants ukf3 Lincolnshire ukg1 Herefordshire, Worcestershire and Warks ukg2 Shropshire and Staffordshire ukg3 West Midlands ukh1 East Anglia ukh2 Bedfordshire, Hertfordshire ukh3 Essex uki1 Inner London uki2 Outer London ukj1 Berkshire, Bucks and Oxfordshire ukj2 Surrey, East and West Sussex ukj3 Hampshire and Isle of Wight ukj4 Kent ukk1 Gloucestershire, Wiltshire and Bristol/Bath area ukk2 Dorset and Somerset ukk3 Cornwall and Isles of Scilly ukk4 Devon ukl1 West Wales and The Valleys ukl2 East Wales ukm2 Eastern Scotland ukm3 South Western Scotland ukm5 North Eastern Scotland ukm6 Highlands and Islands ukn0 Northern Ireland Źródło: Obliczenia własne. X1 39,23 38,68 41,44 40,33 38,13 38,13 39,23 33,70 38,13 36,47 37,57 39,23 39,78 38,13 41,44 37,02 41,44 38,68 39,23 35,36 55,26 43,65 43,65 46,97 41,4 39,23 40,89 41,44 39,23 39,78 37,57 42,55 40,89 40,34 38,68 38,68 33,7 X2 25,39 25,04 26,83 26,11 24,68 24,68 25,39 21,82 24,68 23,6 24,32 25,39 25,75 24,68 26,83 23,96 26,83 25,04 25,39 22,89 35,77 28,25 28,25 30,40 26,82 25,39 26,46 26,82 25,39 25,75 24,32 27,54 26,46 26,11 25,04 25,04 21,82 X3 41,54 40,96 43,89 42,72 40,37 40,37 41,54 35,70 40,37 38,62 39,79 41,54 42,13 40,37 43,89 39,20 43,89 40,96 41,54 37,45 58,52 46,23 46,23 49,74 43,89 41,54 43,3 43,89 41,54 42,13 17,35 45,06 43,3 42,72 40,96 40,96 35,69 X4 6,72 7,35 5,25 8,92 7,35 7,03 7,45 6,19 6,65 7,24 7,14 7,35 6,93 6,4 10,5 7,14 7,35 7,14 7,77 7,77 10,5 9,55 8,08 8,4 7,77 7,45 8,08 7,56 6,93 6,82 6,82 7,45 7,56 7,45 5,98 7,45 6,51 X5 38,22 41,81 29,86 50,77 41,81 40,02 42,4 35,24 37,63 41,2 40,61 41,81 39,42 36,43 59,73 40,61 41,81 40,61 44,2 44,2 59,73 54,35 45,99 47,78 44,2 42,4 45,99 43 39,42 38,82 38,82 42,4 43 42,4 34,04 42,4 37,03 X6 236,8 259 185 314,5 259 247,9 262,7 218,3 233,1 255,3 251,6 259 244,2 225,7 370 251,6 259 251,6 273,8 273,8 370 336,7 284,9 296 273,8 262,7 284,9 266,4 244,2 240,5 240,5 262,7 266,4 262,7 210,9 262,7 229,4 34 Danuta Strahl Literatura Hollanders H. 2006 European Regional Innovation Scoreboard (2006 RIS), European Trend Chart on Innovation, European Commission. Hollanders H., van Cruysen A. 2008 Rethinking the European Innovation Scoreboard: A New Methodology for 2008-2010, Pro Inno Europe, Inno Metrix. Kudłacz T. 1999 Programowanie rozwoju regionalnego, Warszawa. Kukliński A. 2001 Gospodarka oparta na wiedzy jako wyzwanie dla Polski XXI wieku, Warszawa. Strahl D. 1978 Propozycja konstrukcji miary syntetycznej, „Przegląd Statystyczny”, nr 2. Strahl D. 1982 Ścieżka harmonijnego rozwoju w ujęciu dynamicznym, „Przegląd Statystyczny”, nr 3/4. Strahl D., Walesiak M. 1997 Normalizacja zmiennych w granicznym systemie referencyjnym, „Przegląd Statystyczny”, z. 1. Walesiak M. 2006 Uogólniona miara odległości w statystycznej analizie wielowymiarowej, Wrocław. OPTIMUM. STUDIA EKONOMICZNE NR 4 (48) 2010 Krzysztof JAJUGA1 ASSESSMENT OF MODEL RISK IN FINANCIAL MARKETS Summary The paper presents the problem of assessment of risk in financial models. This is important from practical point of view since inappropriate use of models in financial markets may cause large losses. The paper describes the sources of model risk and the methods of measuring and handling this risk. Two types of measures are proposed: distribution based measures and sensitivity measures. The remaining part of the paper contains two examples. The first one concerns risk of optimal two-stock selection related to estimation of the correlation coefficient, the second one concerns the risk of option pricing related to estimation of the volatility parameter. Keywords: model risk, option pricing, portfolio theory 1. Model risk in finance – introduction Almost each discipline of economic sciences uses some models. Finance, particularly financial market theory, developed a number of models. They are used for valuation of financial instruments and for the decision making process in the financial market. On the one hand, these models try to describe the real world (financial markets); on the other hand, they support a decision making process of market participants. All the models used in finance are only approximations, contrary to many exact tools used in natural sciences. Therefore, the application of a financial model raises the issue of an incorrect description of the real world (for example, financial market), which can lead to wrong decisions. The notion “model risk” can be defined in a general and simplified way: Model risk is a risk resulting from erratic model used in real world. A very good, common sense explanation of model risk is given by Robert Merton. He stated (see: [Merton 1994]), that: „At times, we can lose sight of the ultimate purpose of the models when their mathematics becomes too interesting. The mathematics of financial models can be 1 Prof. dr hab. Krzysztof Jajuga is a research worker at Department of Financial Investments and Risk Management, Wroclaw University of Economics. 36 Krzysztof Jajuga applied precisely, but the models are not all precise in their application to the complex real world. Their accuracy as a useful approximation to that world varies significantly across time and place. The models should be applied in practice only tentatively, with careful assessment of their limitations in each application”. There are at least three distinct sources of uncertainty resulting in model risk (each of them can be illustrated by looking at option pricing model): 1. Uncertainty as to the structure of the model. This refers, for example, to the situation in which some important factors (variables) are omitted; there is wrong functional form of relationship between the variables in the model, etc. A good example could be the option pricing model of a linear form. Fortunately, such model is no longer proposed in financial literature and not used in real applications. 2. Uncertainty as to the parameters of the model. Even if there is correct structure of the model, some parameters of the model usually need to be estimated. Model risk occurs, since there are different estimation methods, possibilities of using different data sets, etc. The example is the estimation of volatility in Black-Scholes-Merton option pricing model. There are many methods that could be used for this purpose, usually classified into two general approaches: historical volatility and implied volatility (see e.g. [Hull 2006]). 3. Uncertainty as to the application of the model. This refers to the situation when model that was correctly constructed and estimated, is not good description of the particular real case. Good example is Black-Scholes-Merton pricing model applied in emerging market characterized by low liquidity. Using financial models without clear understanding of uncertainty lying behind these models may lead to consequences in the financial market, including severe losses. The first significant case of losses resulted from model risk occurred during collapse of hedge fund Long Term Capital Management in 1998. Managers of this fund used rather sophisticated financial models and performed extremely well in the period of stable markets. However, there models were not properly adjusted for the case of extreme shocks which happened during East Asian crisis in 1997 and Russian crisis in 1998. High leverage taken by this fund led to huge losses and collapse, however there was a bailout of this fund. In my opinion, the use of the financial model in real application should be supplemented with the analysis of risk of this model. If there is some uncertainty as to the structure of the model and some uncertainty as to the application of the model, then qualitative judgment should be used. This judgment will contain the analysis of the assumptions lying behind the model, as well as the analysis of the particular market in which the model is to be applied. Assessment of model risk in financial markets 37 In the case of some uncertainty as to the parameters of the model, one can adopt the quantitative approach. Here, we propose to apply standard quantitative measures of market risk, used in measuring, for example, stock price risk or interest rate risk. There are two groups of such measures: 1. Distribution based measures. Here, one analyzes the distribution of the estimate of the parameter. The larger dispersion of this distribution, the higher is risk resulting from the estimation of this parameter. 2. Sensitivity measures. Here, one analyzes the sensitivity of the output of the model to the changes of the value of the respective parameter. From a mathematical point of view, sensitivity measure is the derivative of the output of the model with regard to the parameter. The higher sensitivity, the higher is risk resulting from the estimation of this parameter. There are also other tools that can be used in the analysis of model risk occurring in financial models. The practitioners apply the following two approaches: a) Backtesting, being the verification of the model using past data – if the model does not perform well on the past data, this might be an indication of uncertainty as to an application of this model in future; b) Stress testing, being the verification of the model using data generated subject to extreme shocks – this shows how model is sensitive to such shocks; usually occurrence of instability is not a good recommendation for the model. The idea of the quantitative assessment of model risk resulting from uncertainty as to the parameters will be illustrated in the remaining part of the paper. 2. Two-stock portfolio model The first example, we consider, is the simple case of a two-stock portfolio. This example was presented by Jajuga [Jajuga 2009] and can be regarded as a didactic illustration of the problem. The two-stock portfolio problem is a particular case of the portfolio theory developed by Harry Markowitz [Markowitz 1952]. Here we consider a portfolio of two stocks, numbered 1 and 2, of minimal risk measured as standard deviations of returns. It can be proved (see e.g.:[Jajuga, Jajuga 2006]) that the weight of the stock 1 in the portfolio is given as: s 2 s1 s 2 12 2 w1 s1 s 2 2 s1 s 2 12 2 2 Where: w1 - the weight of stock 1 in the portfolio of minimal risk; s1 - standard deviation of returns of stock 1; (1) (1) 38 Krzysztof Jajuga s2 - standard deviation of returns of stock 2; 12 - correlation coefficient of returns for two stocks. Of course, the weight of stock 2 is given as one minus weight of stock 1. We present here sensitivity analysis of weight of stock 1 with respect to the changes of correlation coefficient of returns. As it is known, correlation of returns is crucial parameter influencing risk of portfolio. It can be proved that the derivative of weight with respect to correlation coefficient of returns is given as: 2 2 s s ( s s1 ) w1 2 1 22 2 12 ( s1 s 2 2 s1 s 2 12 ) 2 ( 2) (2) The formula (2) shows what is the sensitivity of the weight of stock, in the portfolio of minimal risk. The higher sensitivity, the more uncertain is the determination of minimal risk portfolio due to the estimation of correlation coefficient of returns. It is worth to notice that for two stocks of equal risk (equal standard deviation of returns), the sensitivity given by (2) is equal to zero and by virtue of (1) two stocks have equal weights (0.5) in the portfolio of minimal risk. Let us consider the general case in which: s 2 ks1 k 1 (3) (3) By applying (3) in (2) and simple transformations, we obtain: w1 k3 k 12 (1 k 2 2k12 ) 2 ( 4) (4) Therefore, the sensitivity of the weight of the stock with respect to the correlation of returns is the function of correlation coefficient of returns and the parameter k, reflecting the proportions of standard deviations of returns of both stocks. Table 1. contains the sensitivity values for different correlation coefficients and different values of k. The following conclusions can be derived from the analysis of table 1.: 1. For given k (different than 1) sensitivity increases when the correlation coefficient of returns increases. That means that model risk of two stock portfolio of minimal risk is low when the correlation of returns gets closer to minus 1. 2. The increase of sensitivity in the case of large correlation coefficients is not significant, when k is higher than 5. 3. For a given correlation coefficient of returns, the sensitivity first grows with the increase of k, and then goes down. This means that there exists value k for which sensitivity (indicating model risk) is the largest. This maximal value is the lowest for higher values of correlation coefficient of returns. Assessment of model risk in financial markets 39 TABLE 1. Sensitivities of weight of stock 1 with respect to correlation of returns -0.9 -0.8 -0.7 -0.6 -0.5 -0.4 -0.3 -0.2 -0.1 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 k=1.1 0.013 0.015 0.016 0.019 0.021 0.024 0.028 0.033 0.039 0.047 0.058 0.074 0.096 0.131 0.187 0.292 0.515 1.141 4.367 k=1.2 0.025 0.028 0.031 0.035 0.040 0.046 0.053 0.062 0.074 0.089 0.109 0.137 0.178 0.241 0.343 0.528 0.914 1.953 6.735 k=1.5 0.053 0.059 0.066 0.074 0.083 0.095 0.109 0.126 0.149 0.178 0.215 0.267 0.340 0.446 0.612 0.892 1.418 2.595 6.198 k=2 0.081 0.089 0.099 0.110 0.122 0.138 0.156 0.178 0.206 0.240 0.284 0.340 0.416 0.519 0.667 0.888 1.240 1.852 3.061 k=3 0.101 0.110 0.119 0.130 0.142 0.156 0.172 0.191 0.214 0.240 0.272 0.310 0.357 0.416 0.490 0.586 0.713 0.888 1.134 k=4 0.102 0.110 0.117 0.126 0.136 0.147 0.159 0.173 0.189 0.208 0.229 0.253 0.281 0.315 0.355 0.403 0.462 0.534 0.625 k=5 0.098 0.104 0.110 0.117 0.125 0.133 0.143 0.153 0.165 0.178 0.192 0.208 0.227 0.248 0.272 0.300 0.332 0.370 0.415 k=10 0.070 0.072 0.075 0.078 0.080 0.083 0.086 0.090 0.093 0.097 0.101 0.105 0.110 0.114 0.120 0.125 0.131 0.137 0.144 k=25 0.035 0.035 0.036 0.036 0.037 0.037 0.038 0.039 0.039 0.040 0.040 0.041 0.042 0.042 0.043 0.044 0.045 0.045 0.046 Source: Own calculations. Besides the sensitivity analysis, one can conduct analysis of model risk by using volatility measures. By applying the assumption given by (3) to formula (1) we obtain – after some transformations: k 2 k12 (5) w1 2 (5) k 1 2k12 To illustrate the impact of volatility of correlation coefficient of returns on weight of stock in the portfolio of minimal risk, we use the formula for confidence interval of correlation coefficient (assuming large sample and normal distribution): 1 r 2 1 r 2 (6) P ( r u r u ) 1 (6) n n Where: r - sample correlation coefficient; n - number of observations; u - value from normal distribution table; 1 - confidence level. In the following example, we assume confidence level of 0.95 and the number of observations equal to 256 (number close to the number of trading days in one year). Table 2. contains the lower and upper limit of confidence interval. 40 Krzysztof Jajuga TABLE 2. Limits of confidence interval for correlation coefficient. Sample correlation coefficient -0.9 -0.8 -0.7 -0.6 -0.5 -0.4 -0.3 -0.2 -0.1 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 Lower limit of confidence interval -0.923 -0.844 -0.762 -0.678 -0.592 -0.503 -0.411 -0.318 -0.221 -0.123 -0.021 0.082 0.189 0.297 0.408 0.522 0.638 0.756 0.877 Upper limit of confidence interval -0.877 -0.756 -0.638 -0.522 -0.408 -0.297 -0.189 -0.082 0.021 0.123 0.221 0.318 0.411 0.503 0.592 0.678 0.762 0.844 0.923 Source: Own calculations. Tables 3., 4. and 5. contain the weights of stock 1 in a portfolio of minimal risk in the case of lower and upper limit of the confidence interval. We used formula (5), three values of k (1.1, 2 and 10) were assumed. TABLE 3. Weights in a portfolio (k=1.1). Sample correlation coefficient -0.9 -0.8 -0.7 -0.6 -0.5 -0.4 -0.3 -0.2 -0.1 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 Weight – the case of sample correlation coefficient 0.525 0.526 0.528 0.530 0.532 0.534 0.537 0.540 0.543 0.548 0.553 0.559 0.568 0.579 0.595 0.618 0.657 0.733 0.957 Source: Own calculations. Weight – the case of lower limit of confidence interval 0.525 0.526 0.527 0.528 0.530 0.532 0.534 0.536 0.539 0.542 0.547 0.552 0.558 0.567 0.580 0.599 0.630 0.692 0.873 Weight – the case of upper limit of confidence interval 0.525 0.527 0.529 0.531 0.534 0.537 0.540 0.544 0.549 0.554 0.561 0.569 0.580 0.595 0.616 0.646 0.697 0.797 1.087 Assessment of model risk in financial markets 41 TABLE 4. Weights in a portfolio (k=2). Sample correlation coefficient -0.9 -0.8 -0.7 -0.6 -0.5 -0.4 -0.3 -0.2 -0.1 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 Weight – the case of sample correlation coefficient 0.674 0.683 0.692 0.703 0.714 0.727 0.742 0.759 0.778 0.800 0.826 0.857 0.895 0.941 1.000 1.077 1.182 1.333 1.571 Weight – the case of lower limit of confidence interval 0.673 0.679 0.686 0.694 0.704 0.714 0.726 0.739 0.755 0.773 0.795 0.821 0.853 0.894 0.945 1.015 1.112 1.259 1.505 Weight – the case of upper limit of confidence interval 0.676 0.687 0.699 0.712 0.726 0.742 0.761 0.781 0.805 0.833 0.865 0.902 0.947 1.002 1.070 1.156 1.269 1.424 1.648 Source: Own calculations. TABLE 5. Weights in a portfolio (k=10). Sample correlation coefficient -0,9 -0,8 -0,7 -0,6 -0,5 -0,4 -0,3 -0,2 -0,1 0 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 Weight – the case of sample correlation coefficient 0,916 0,923 0,930 0,938 0,946 0,954 0,963 0,971 0,981 0,990 1 1,010 1,021 1,032 1,044 1,056 1,069 1,082 1,096 Weight – the case of lower limit of confidence interval 0,914 0,920 0,926 0,932 0,939 0,946 0,953 0,961 0,970 0,978 0,988 0,998 1,009 1,021 1,033 1,047 1,061 1,076 1,093 Weight – the case of upper limit of confidence interval 0,918 0,926 0,935 0,944 0,953 0,963 0,972 0,982 0,992 1,002 1,013 1,023 1,034 1,044 1,055 1,066 1,077 1,088 1,100 Source: Own calculations. The results given in the presented tables show that in these cases model risk is not high, in the case of k=10, that is when risks of two stocks differ much. For the 42 Krzysztof Jajuga other two cases model risk is higher, but only when the correlation coefficient is higher than 0.7. Also, it is to be noticed that in the case of k=2 model risk is higher than in the case of k=1.1. 3. Volatility in the option pricing model The option pricing model, known in a general form as the Black-Scholes-Merton model [Black, Scholes 1973; Merton 1973] is one of the most common models used in the financial market. As it is well-known, the only parameter in this model, which is not known explicitly and is subject to estimation, is the volatility parameter, understood as standard deviation of underlying index returns. We consider a particular case of this model. This is the Black-Scholes model yielding the value of option written on non-dividend paying stocks. Let us analyze the sensitivity of the option price to the changes of volatility (standard deviation of returns of underlying index). This is known as the so-called vega coefficient, given by the following formula, for both, call and put options (see e.g.: [Hull 2006]): Sn(d 1 ) T ( 7) (7) And: S 2 ln( ) ( r )T 2 d1 X T (8 ) (8) Where: - vega coefficient; S – stock price; X – strike price; r – risk-free interest rate; T – time of expiration of an option; – volatility (standard deviation of stock returns); n(d) – density of standardized normal distribution at d. The formulas (7) and (8) show how sensitive the price of option (call or put) is to the changes of volatility. This shows what is risk of option pricing model due to the uncertainty resulting from the estimation of volatility. As an illustration, we will consider stock option, where price of stock is equal to 100, term structure of interest rates is flat and interest rate is equal to 5%. Suppose that the estimate of volatility yields 20%. Table 6. gives the values of vega coefficient for different strike prices and different time of maturity. Assessment of model risk in financial markets 43 TABLE 6. Sensitivity of option price to the changes of volatility Strike price 60 70 80 85 90 95 100 105 110 115 120 130 140 Vega – expiration 3 months 0 0.02 1.10 3.95 9.38 15.74 19.64 18.99 14.74 9.45 5.13 0.99 0.12 Vega – expiration 5 days 0 0 0 0 0 0.39 4.67 0.58 0 0 0 0 0 Source: Own calculations. Table 6. indicates that model risk resulting from volatility estimation is much larger for options with longer time of maturity. This is natural since longer time of maturity allows for greater impact of volatility. The other property that can be observed in table 6. is the higher sensitivity for in-the-money (ITM) option – for which strike price is close to the price of underlying instrument. Literature Black F., Scholes M. 1973 The Pricing of Options and Corporate Liabilities, “Journal of Political Economy”, 81, pp. 637 – 654. Hull J.C. 2006 Options, Futures and Other Derivatives, Pearson Education, Upper Saddle River. Jajuga K. 2009 Model ekonometryczny – kilka refleksji na tle historii i współczesności, [w:] Dylematy ekonometrii, Katowice, pp. 93-103,. Jajuga K., Jajuga T. 2006 Inwestycje. Instrumenty finansowe, aktywa niefinansowe, ryzyko finansowe, inżynieria finansowa, Warszawa. Markowitz H.M. 1952 Portfolio Selection, “Journal of Finance”, 7, pp. 77 – 91. Merton R.C. 1973 Theory of Rational Option Pricing, “Bell Journal of Economics and Management Science”, pp, s. 141 – 183. Merton R.C. 1994 Influence of Mathematical Models in Finance on Practice: Past, Present and Future, “Philosophical Transactions”, 1684, Royal Society of London, pp. 451 – 463. OPTIMUM. STUDIA EKONOMICZNE NR 4 (48) 2010 Joanna OLBRYŚ1 OCENA EFEKTYWNOŚCI ZARZĄDZANIA PORTFELEM FUNDUSZU INWESTYCYJNEGO Z WYKORZYSTANIEM WYBRANYCH WIELOCZYNNIKOWYCH MODELI MARKETTIMING2 Streszczenie Celem artykułu jest ocena efektywności zarządzania portfelami polskich funduszy inwestycyjnych akcji z wykorzystaniem wieloczynnikowych modeli market-timing oraz analiza porównawcza wyników estymacji modeli trójczynnikowych i czteroczynnikowych. W modelach trójczynnikowych T-M-FF oraz H-M-FF, oprócz zmiennej reprezentującej rynek, zastosowano, jako dodatkowe zmienne objaśniające, czynniki Famy i Frencha – portfele naśladujące SMB oraz HML . W modelach czteroczynnikowych również uwzględniono zmienne SMB i HML , natomiast w miejsce zmiennej reprezentującej umiejętności menadżera w zakresie stosowania techniki market-timing w klasycznej wersji modelu T-M lub H-M odpowiednio, wprowadzono nową zmienną, tzw. wartość dodaną. Wartość dodana z założenia ma być wynikiem perfekcyjnego stosowania techniki market-timing, czyli tzw. wyczucia rynku przez zarządzającego portfelem. Badaniem objęto grupę 15 otwartych funduszy akcji w okresie: styczeń 2003r. – grudzień 2009r. Wybór okresu był zdeterminowany głównie liczbą akcji oraz funduszy akcji dostępnych na polskim rynku. Porównano wyniki estymacji i weryfikacji wybranych wieloczynnikowych modeli market-timing. Słowa kluczowe: fundusze inwestycyjne, portfele naśladujące Famy i Frencha, wieloczynnikowe modele market-timing SELECTED MULTIFACTOR MARKET-TIMING MODELS FOR MUTUAL FUND PERFORMANCE EVALUATION Summary The aim of this paper is to compare modified multifactor market-timing models: the three-factor model with the Fama and French spread variables SMB and HML, and the hybrid four-factor model with the additional factor that proxies for the monthly payoffs of a successful market timer. We examined the market-timing and selectivity abilities of selected 15 Polish equity open-end mutual funds’ managers using daily and monthly data from January 2003 to December 2009. Keywords: mutual funds, Fama & French mimicking portfolios, multifactor market-timing model Dr Joanna Olbryś jest pracownikiem Wydziału Informatyki Politechniki Białostockiej. Praca naukowa finansowana ze środków na naukę w latach 2009 – 2011, jako projekt badawczy własny Nr N N113 173237: Modele market-timing wspomagające ocenę efektywności zarządzania portfelami polskich funduszy inwestycyjnych. 1 2 Ocena efektywności zarządzania portfelem… 45 1. Wstęp Treynor i Mazuy [1966] oraz Henriksson i Merton [1981] zaproponowali czynnikowe modele market-timing, czyli tzw. wyczucia rynku oraz selektywności aktywów, wspomagające ocenę efektywności zarządzania portfelami inwestycyjnymi. Modele te okazały się szczególnie przydatne w ocenie działań menadżerów funduszy akcji na różnych rynkach. W ostatnich latach przeprowadzono badania w wielu krajach, np.: w Stanach Zjednoczonych [wielokrotnie, m.in.: Henriksson 1984; Kao, Cheng, Chan 1998; Bollen, Busse 2001], w Wielkiej Brytanii [Fletcher 1995], Portugalii [Romacho, Cortez 2006], również w Polsce [m.in.: Olbryś 2008a, b, c; 2009; 2010; Zamojska 2008]. W naturalny sposób nastąpił rozwój proponowanych metod badań i pojawiły się kolejne modyfikacje modeli klasycznych. Celem artykułu jest ocena efektywności zarządzania portfelami polskich funduszy inwestycyjnych akcji z wykorzystaniem wieloczynnikowych modeli market-timing oraz analiza porównawcza wyników estymacji modeli trójczynnikowych i czteroczynnikowych. W modelach trójczynnikowych T-M-FF oraz H-M-FF, oprócz zmiennej reprezentującej rynek, zastosowano, jako dodatkowe zmienne objaśniające, czynniki Famy i Frencha – portfele naśladujące SMB oraz HML [Olbryś 2010]. W modelach czteroczynnikowych również uwzględniono zmienne SMB i HML , natomiast w miejsce zmiennej reprezentującej umiejętności menadżera w zakresie stosowania techniki market-timing w klasycznej wersji modelu T-M lub H-M odpowiednio, wprowadzono nową zmienną, tzw. wartość dodaną [Goetzmann, Ingersoll, Ivković 2000]. Wartość dodana z założenia ma być wynikiem perfekcyjnego stosowania techniki market-timing przez zarządzającego portfelem. Badaniem objęto grupę 15 otwartych funduszy akcji w okresie: styczeń 2003 – grudzień 2009. Wybór okresu był zdeterminowany głównie liczbą akcji oraz funduszy akcji dostępnych na polskim rynku. Porównano wyniki estymacji i weryfikacji wybranych wieloczynnikowych modeli market-timing. 2. Klasyczne jednoczynnikowe modele parametryczne market-timing portfela inwestycyjnego Jak zostało wspomniane we wstępie, klasyczne parametryczne modele market-timing są modelami czynnikowymi, w których występuje zmienna reprezentująca rynek. W praktyce najczęściej jest to stopa zwrotu z portfela rynkowego, którego substytutem jest odpowiedni indeks giełdowy lub nadwyżka stopy zwrotu z portfela rynkowego nad wolną od ryzyka stopą zwrotu. Estymację modeli można wykonać również z wykorzystaniem logarytmicznych stóp zwrotu, odpowiednio. Do podstawowych modeli klasycznych należą: model Treynora-Mazuya (T-M) oraz model Henrikssona-Mertona (H-M). 46 Joanna Olbryś 2.1. Model market-timing Treynora – Mazuya (T-M) Klasyczny parametryczny model market-timing T-M ma postać [Treynor, Mazuy 1966]: rP , t P P rM , t P ( rM , t ) 2 P , t , (1) gdzie: rP ,t R P ,t R F ,t jest nadwyżką zwykłej stopy zwrotu z portfela P nad wolną od ryzyka stopą zwrotu w okresie t , rM ,t R M ,t R F ,t jest nadwyżką zwykłej stopy zwrotu z portfela rynkowego M nad wolną od ryzyka stopą zwrotu w okresie t , R P ,t jest jedno-okresową stopą zwrotu z portfela P , R M ,t jest jedno-okresową stopą zwrotu z portfela rynkowego M , R F ,t jest jedno-okresową wolną od ryzyka stopą zwrotu, P jest miarą umiejętności zarządzającego portfelem P w zakresie selektywności aktywów (współczynnik alfa Jensena [Jensen 1968]), P jest miarą ryzyka systematycznego portfela P , P jest miarą umiejętności zarządzającego portfelem P w zakresie stosowania techniki market-timing, P ,t jest składnikiem losowym, spełniającym następujące standardowe założenia modelu CAPM: E ( P , t ) 0; E ( P , t P , t 1 ) 0 . Współczynnik P w równaniu (1) jest dodatni, jeśli menadżer ma zdolność przewidywania w zakresie selektywności aktywów. Zgodnie z interpretacją Jensena, dodatnia, ale nieistotna statystycznie, wartość parametru P może być efektem dodatniego obciążenia estymatora tego parametru i niekoniecznie musi świadczyć o umiejętnościach zarządzającego portfelem. Równanie (1) jest modelem regresji kwadratowej. Jeśli zarządzający portfelem zwiększa (zmniejsza) ekspozycję portfela na ryzyko rynkowe w przypadku wzrostów (spadków) stopy zwrotu z portfela rynkowego, wtedy stopa zwrotu z portfela jest wypukłą funkcją rynkowej stopy zwrotu i parametr P jest dodatni. Wielkość tego parametru świadczy o stopniu umiejętności stosowania strategii market-timing, czyli tzw. wyczucia rynku. 2.2. Model market-timing Henrikssona – Mertona (H-M) Klasyczny parametryczny model H-M [Henriksson, Merton 1981] umożliwia identyfikację i ocenę umiejętności zarządzającego portfelem inwestycyjnym w zakresie stosowania techniki market-timing, jak również selekcji aktywów. Model H-M ma postać: Ocena efektywności zarządzania portfelem… rP , t P P rM , t P y M , t P , t , 47 (2) gdzie: rP ,t , rM ,t , P , P , P , P,t – jak we wzorze (1), y M , t max{0, RF , t RM , t } max{0, rM , t } . Równanie (2) wynika z modelu Mertona [Merton 1981], który uzasadnił, że doskonałe wyczucie rynku można teoretycznie uzyskać budując strategię opcyjną typu protective put, inwestując część gotówki w portfel rynkowy, za pozostałą zaś część nabywając „darmowe” opcje sprzedaży (z ceną realizacji R F ,t ) każdej złotówki znajdującej się w portfelu rynkowym. Strategia ta replikuje strukturę stóp zwrotu, uzyskaną w wyniku perfekcyjnego stosowania strategii market-timing. Zgodnie z modelem Mertona, estymator ̂ P jest miarą wpływu umiejętności menadżera w zakresie doboru papierów wartościowych (selectivity) na wyniki inwestycyjne. Testowana hipoteza zerowa ma postać: (3) H0 :P 0 , tzn. przypuszczamy, że zarządzający portfelem nie posiada umiejętności w zakresie selektywności aktywów, czyli przewidywania w skali mikro. Estymator ˆP reprezentuje część środków zainwestowaną w portfel rynkowy, zgodnie ze strategią opcyjną Mertona, zaś estymator ˆP liczbę,, darmowych” opcji sprzedaży. W tym kontekście, badanie umiejętności w zakresie wyczucia rynku jest równoznaczne z testowaniem hipotezy zerowej: (4) H0 : P 0 , czyli zarządzający portfelem nie posiada umiejętności w zakresie wyczucia rynku lub ich nie wykorzystuje [Henriksson 1984]. Ujemna wartość estymatora ˆP oznacza negatywny wpływ stosowania techniki market – timing na wartość portfela. 3. Trójczynnikowe modele market-timing ze zmiennymi Famy i Frencha W 1992r. Fama i French przedstawili badania dotyczące spółek notowanych na NYSE (New York Stock Exchange), AMEX (American Stock Exchange) oraz NASDAQ (od 1972r.), w latach 1963 – 1990 [Fama, French 1992]. Obserwowali oni relację między wartością księgową kapitału własnego spółki BV (Book Value) a wartością rynkową jej akcji MV (Market Value). W przypadku każdej ze spółek, Fama i French cyklicznie wyznaczali wskaźnik BV / MV , czyli stosunek wartości księgowej do wartości rynkowej. Spółki o niskiej wartości wskaźnika BV / MV były klasyfikowane jako spółki o potencjale wzrostu, natomiast te o wysokiej wartości BV / MV – jako spółki o potencjale wartości. Okazało się, że akcje spółek o potencjale wzrostu były bardziej ryzykowne i osiągały niższe stopy zwrotu, niż akcje spółek o potencjale wartości. Było to jedno z najciekawszych odkryć nowej teorii finansów [Haugen 1999 s. 10]. 48 Joanna Olbryś W kolejnym artykule z 1993r. Fama i French przedstawili trójczynnikowy model równowagi cenowej akcji. Jako zmienne objaśniające w podstawowym wariancie modelu zaproponowali: – RM RF – nadwyżkę rynkowej stopy zwrotu nad wolną od ryzyka stopą zwrotu; – SMB (small minus big) – czynnik skonstruowany głównie na podstawie wartości rynkowej MV , tzw. size factor; HML (high minus low) – czynnik skonstruowany głównie na podstawie war– tości wskaźnika BV / MV , tzw. book-to-market factor. Czynniki SMB oraz HML, nazwane portfelami naśladującymi [Fama, French 1993 s. 9], uwzględniały, zaobserwowaną wcześniej znaczącą wartość informacyjną wskaźnika BV / MV . Portfele naśladujące SMB oraz HML mogą być wykorzystane jako dodatkowe czynniki rynkowe w analizie portfeli akcyjnych funduszy inwestycyjnych (np.: [Bollen, Busse 2001 s. 1078; Olbryś 2010]). 3.1. Konstrukcja czynników Famy i Frencha: SMB i HML na polskim rynku W pracy [Olbryś 2010] przedstawiono konstrukcję czynników SMB i HML na polskim rynku, na podstawie procedury zaproponowanej w artykule [Fama, French 1993 s. 8 – 10]. W pierwszej kolejności dokonano selekcji spółek giełdowych, które uwzględniono w bazie danych, na podstawie następujących kryteriów: 1. Spółka była notowana na GPW w Warszawie co najmniej od 2001 roku; 2. Dane dzienne (ceny zamknięcia) spółki miały możliwe do uzupełnienia luki; 3. Spółka charakteryzowała się dodatnią wartością księgową na 1 akcję w całym badanym okresie; 4. Wszystkie raporty roczne danej spółki były dostępne. W wyniku selekcji do bazy danych, utworzonej zgodnie z warunkami 1.– 4., weszło 61 spółek. Ceny zamknięcia pobrano z archiwum [Dokument elektroniczny, tryb dostępu: http://bossa.pl]. Dane z raportów rocznych spółek z lat 2001 – 2008 (liczba akcji, wartość księgowa) pobrano ze strony [Dokument elektroniczny, tryb dostępu: www.bankier.pl], (na podstawie serwisu Notoria). Wartość rynkową MV na 1 akcję stanowiła cena zamknięcia z ostatniego dnia roboczego czerwca danego roku. W następnej kolejności dokonano sortowania spółek według wartości wskaźników MV oraz BV / MV . Pierwsze sortowanie zostało wykonane 28 czerwca 2002 r. (był to ostatni dzień roboczy miesiąca) według następujących danych: MV z dnia 28.06.2002 r., BV / MV z dnia 31.12.2001 r. Kolejne cykliczne sortowania wykonano odpowiednio w dniach: 30 czerwca 2003 r., 2004 r., 2005 r., 2006 r., 2007 r., 2008 r., 2009 r. Łącznie wykonano sortowanie 8 razy, jeden raz w każdym roku, na koniec czerwca, ze względu na dostępność danych z raportów rocznych za poprzedni rok. Spółki, posortowane według wartości rynkowej MV , były dzielone na dwie grupy: – spółki duże (B – Big), dla których wartość rynkowa akcji była nie mniejsza od mediany; Ocena efektywności zarządzania portfelem… 49 – spółki małe (S – Small), dla których wartość rynkowa akcji była mniejsza od mediany. Spółki posortowane według wartości wskaźnika BV / MV były dzielone na trzy grupy: – spółki, dla których wartość wskaźnika BV / MV była nie mniejsza od percentyla 70% (grupa H – High); – spółki, dla których wartość wskaźnika BV / MV była mniejsza od percentyla 70%, ale nie mniejsza od percentyla 30% (grupa M – Medium); – spółki, dla których wartość wskaźnika BV / MV była mniejsza od percentyla 30% (grupa L – Low). W kolejnym kroku procedury odbywał się podział spółek na sześć rozłącznych grup: BH, BM, BL, SH, SM, SL. Do każdej z grup wchodziły te spółki, które spełniały oba warunki jednocześnie, czyli np. do grupy BH spółki duże, o wysokiej wartości wskaźnika BV / MV . Otrzymano w ten sposób po sześć, ważonych wartościami rynkowymi, portfeli pomocniczych w każdym roku. Pomiędzy datami kolejnych przetasowań skład portfeli pomocniczych pozostawał ten sam. Ostatnim krokiem procedury było utworzenie czynników SMB i HML oraz wyznaczenie ich dziennych stóp zwrotu w okresie: 2.01.2003r. – 31.12.2009r., według wzorów [Olbryś 2010]: 1 RSMB ( RSH RSM RSL RBH RBM RBL ) , 3 1 RHML ( RBH RSH RBL RSL ) . 2 (5) (6) 3.2. Trójczynnikowa modyfikacja modelu market-timing Treynora – Mazuya (model T-M-FF) Trójczynnikowa modyfikacja klasycznego parametrycznego modelu market-timing Treynora –Mazuya, czyli model T-M-FF, ma postać [Olbryś 2010]: rP , t P P rM , t 1P rSMB , t 2 P rHML, t P ( rM , t ) 2 P , t ; (7) gdzie: rP ,t , rM ,t , P , P , P , P,t – jak we wzorze (1); rSMB,t RSMB,t RF ,t jest nadwyżką zwykłej stopy zwrotu z portfela naśladującego SMB nad wolną od ryzyka stopą zwrotu w okresie t ; rHML,t R HML,t RF ,t jest nadwyżką zwykłej stopy zwrotu z portfela naśladującego HML nad wolną od ryzyka stopą zwrotu w okresie t ; 1P jest miarą wrażliwości stopy zwrotu z portfela P na zmiany stopy zwrotu portfela SMB ; 2 P jest miarą wrażliwości stopy zwrotu z portfela P na zmiany stopy zwrotu portfela HML . 50 Joanna Olbryś 3.3. Trójczynnikowa modyfikacja modelu market-timing Henrikssona – Mertona (model H-M-FF) Model H-M-FF, czyli trójczynnikowa modyfikacja klasycznego parametrycznego modelu market-timing Henrikssona – Mertona, uwzględniająca czynniki rozpiętościowe Famy i Frencha, ma postać [Olbryś 2010]: (8) rP ,t P P rM ,t 1P rSMB ,t 2 P rHML,t P y M ,t P ,t , gdzie: rP,t , rM ,t , yM ,t , rSMB,t , rHML,t , P , P , P , 1P , 2 P , P,t – jak we wzorach: (2) oraz (7). 3.4. Charakterystyka danych i wyniki empiryczne W pracy [Olbryś 2010] przeprowadzono estymację i weryfikację trójczynnikowych modeli market-timing z wykorzystaniem dziennych stóp zwrotu, zgodnie z wynikami prac: [Bollen, Busse 2001] oraz [Olbryś 2008c]. Dzienne stopy zwrotu z indeksu WIG pełniły rolę stóp zwrotu z portfela rynkowego, natomiast dzienna średnia rentowność bonów skarbowych 52-tygodniowych została użyta jako wolna od ryzyka stopa zwrotu. Badaniem objęto grupę 15 otwartych funduszy akcji w okresie: styczeń 2003 r. – grudzień 2009 r. (po 1760 obserwacji dla każdej zmiennej). Wybór okresu był zdeterminowany głównie liczbą akcji oraz funduszy akcji dostępnych na polskim rynku. Do estymacji wszystkich modeli wykorzystano tzw. estymatory odporne Neweya-Westa, z korektą heteroskedastyczności i autokorelacji, dostępne w pakiecie Gretl 1.8.5. Kryterium informacyjne Akaike (AIC) potwierdziło celowość wprowadzenia dodatkowych czynników w modelach: T-M-FF oraz H-M-FF. Przeciętna wartość współczynnika determinacji R 2 uzyskanych modeli była dość wysoka zarówno w przypadku modeli klasycznych (ok. 0,515 dla modeli T-M oraz H-M), jak też trójczynnikowych (ok. 0,522 dla modeli T-M-FF oraz H-M-FF), biorąc pod uwagę fakt, że do estymacji modeli wykorzystano dane dzienne. Niestety, zgodnie z otrzymanymi wynikami, potencjalni inwestorzy, lokujący swoje aktywa w jednostkach polskich funduszy akcji, nie mogą mieć wielu powodów do zadowolenia, ponieważ, podobnie jak w pracach [Olbryś 2008a, b, c; Olbryś 2009] i innych, interpretacje uzyskanych wartości estymatorów parametrów modeli nie potwierdzają umiejętności zarządzających portfelami tych funduszy w zakresie stosowania techniki market-timing oraz selektywności aktywów. W przypadku wszystkich funduszy uzyskano ujemne wartości oceny parametru ˆP , natomiast dla większości funduszy były one ujemne i statystycznie istotnie na poziomie 5%, co zgodnie z hipotezą (4) świadczy o negatywnym wpływie stosowania techniki market – timing na wartość portfela. Ostrożnie należy wyciągać wnioski w odniesieniu do interpretacji uzyskanych ocen parametru ̂ P . Jeśli menadżer funduszu ma zdolność przewidywania w zakresie selektywności aktywów, to współczynnik ten w odpowiednim modelu powinien być dodatni. Zgodnie z interpretacją Jensena, dodatnia, ale nieistotna statystycznie, wartość Ocena efektywności zarządzania portfelem… 51 estymatora ̂ P może być efektem dodatniego obciążenia estymatora tego parametru i niekoniecznie musi świadczyć o umiejętnościach zarządzającego portfelem. Faktycznie, w przypadku większości funduszy, otrzymano dodatnią, ale nieistotną statystycznie, wartość oceny ̂ P . Wyniki badań, których podsumowanie zaprezentowano w tabeli 1., zostały przedstawione szczegółowo w pracy [Olbryś 2010]. TABELA 1. Podsumowanie wyników estymacji modeli klasycznych oraz trójczynnikowych (dane dzienne z okresu: styczeń 2003 r. – grudzień 2009 r.) Lp. Fundusz akcji 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. 13. 14. 15. Arka BZ WBK Akcji FIO Aviva Investors FIO Polskich Akcji BPH FIO Akcji DWS Polska FIO Top 25 Małych Spółek DWS Polska FIO Akcji DWS Polska FIO Akcji Plus ING FIO Akcji Legg Mason Akcji FIO Millennium FIO Akcji Pioneer Akcji Polskich FIO PKO/CREDIT SUISSE Akcji FIO PZU FIO Akcji KRAKOWIAK SEB 3 – Akcji FIO Skarbiec – Akcja FIO UniKorona Akcja FIO Model T-M (1) Model H-M (2) Model T-M-FF (7) Model H-M-FF (8) ̂ P ˆ P ̂ P ˆ P ̂ P ˆ P ˆ1P ˆ2 P ̂ P ˆ P ˆ1P ˆ2 P ++ -- ++ -- ++ -- ++ ++ ++ -- ++ ++ ++ -- ++ -- ++ -- - + ++ -- - + + -- ++ -- + -- + ++ ++ -- + ++ ++ -- ++ -- + -- ++ ++ + -- ++ ++ + - + - + - + + + - + + ++ -- ++ -- + - ++ + + - ++ + + -- ++ -- + -- + ++ + -- + ++ ++ -- ++ -- ++ -- + ++ ++ -- + ++ + -- ++ -- 0 -- ++ ++ + -- ++ ++ + - ++ -- 0 -- - ++ + -- - ++ + -- ++ -- + -- + + ++ -- + + + -- ++ -- + -- - ++ ++ -- - ++ ++ -- ++ -- + - ++ + + - ++ + ++ - ++ - + - ++ + + - ++ + ++ -- ++ -- ++ - ++ + + - ++ + Oznaczenia dotyczące uzyskanych wartości estymatorów parametrów strukturalnych modeli market-timing: - ujemny; -- istotnie ujemny na poziomie 5%; + dodatni; ++ istotnie dodatni na poziomie 5%. Źródło: Opracowanie własne: [Olbryś 2010]. 52 Joanna Olbryś Ze względu na fakt, że jednym z głównych celów artykułu jest analiza porównawcza wyników estymacji modeli trójczynnikowych i hybrydowego czteroczynnikowego (przedstawionego w rozdziale 3. niniejszej pracy), w kolejnym kroku badania dokonano estymacji i weryfikacji modeli trójczynnikowych T-M-FF oraz H-M-FF na podstawie miesięcznych stóp zwrotu z portfela danego funduszu oraz z portfela rynkowego, w celu oszacowania nadwyżek stóp zwrotu z obu portfeli. Jako wartości zmiennych SMB i HML wykorzystano średnie miesięczne stopy zwrotu każdej ze zmiennych, odpowiednio. Średnie miesięczne rentowności bonów skarbowych 52-tygodniowych pełniły w modelach rolę miesięcznej, wolnej od ryzyka, stopy zwrotu. Wyniki estymacji modeli T-M-FF (7) i H-M-FF (8) w przypadku 15 polskich funduszy akcji, w okresie: styczeń 2003r. – grudzień 2009r. (po 84 obserwacje dla każdej zmiennej) przedstawiają tabele: 2. oraz 3. Estymacji modeli dokonano z wykorzystaniem KMNK i estymatorów odpornych [Newey, West 1987], z korektą heteroskedastyczności i autokorelacji (HAC – Heteroskedasticity and Autocorrelation Consistent). TABELA 2. Model trójczynnikowy T-M-FF (7) (dane miesięczne z okresu: styczeń 2003 r. – grudzień 2009 r.) Lp. 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. 13. 14. 15. Fundusz akcji Arka BZ WBK Akcji FIO Aviva Investors FIO Polskich Akcji BPH FIO Akcji DWS Polska FIO Top 25 Małych Spółek DWS Polska FIO Akcji DWS Polska FIO Akcji Plus ING FIO Akcji Legg Mason Akcji FIO Millennium FIO Akcji Pioneer Akcji Polskich FIO PKO/CREDIT SUISSE Akcji FIO PZU FIO Akcji KRAKOWIAK SEB 3 – Akcji FIO Skarbiec – Akcja FIO UniKorona Akcja FIO ̂ P ̂ P ˆ1P ˆ2 P ˆ P R2 DW AIC 0,02*** 0,92*** 1,51*** 1,38** -0,56** 0,93 2,07 -414,5 0,01*** 0,89*** 1,65*** 0,43 -0,62*** 0,96 1,62 -476,6 0,004* 0,80*** 1,06*** -0,05 -0,37 0,95 1,75 -481,1 0,04*** 0,73*** 7,86*** 2,63*** -0,87*** 0,89 1,86 -383,8 -0,005 0,83*** -0,55 -0,47 -0,54*** 0,94 2,46 -461,7 0,006* 0,79*** 1,38*** 0,08 -0,63*** 0,94 1,99 -462,2 0,000 0,007** 0,005 0,84*** 0,80*** 0,76*** 0,82* 1,02** 1,52** -0,37 -0,45 -0,09 0,05 -0,77*** -0,50* 0,96 0,94 0,93 2,07 1,95 2,16 -478,7 -457,1 -446,5 -0,002 0,99*** 0,15 0,55 -0,10 0,96 2,13 -463,8 0,004 0,82*** 1,08** -0,05 -1,01*** 0,94 1,58 -453,9 0,007** 0,78*** 1,41*** 0,60* -0,59*** 0,95 2,03 -474,6 0,006* 0,009** 0,01* 0,83*** 0,74*** 0,81*** 1,13*** 1,32** 1,09*** 0,04 -0,15 -0,22 -0,65* -0,41** -0,23* 0,94 0,92 0,95 2,30 2,56 2,14 -444,3 -445,0 -475,7 * istotność na poziomie 0,1; ** istotność na poziomie 0,05; *** istotność na poziomie 0,01. Źródło: Opracowanie własne (z wykorzystaniem pakietu Gretl 1.8.5). Ocena efektywności zarządzania portfelem… 53 TABELA 3. Model trójczynnikowy H-M-FF (8) (dane miesięczne z okresu: styczeń 2003 r. – grudzień 2009 r.) Lp. Fundusz akcji 1. Arka BZ WBK Akcji FIO 2. Aviva Investors FIO Polskich Akcji 3. BPH FIO Akcji 4. DWS Polska FIO Top 25 Małych Spółek 5. DWS Polska FIO Akcji 6. DWS Polska FIO Akcji Plus 7. ING FIO Akcji 8. Legg Mason Akcji FIO 9. Millennium FIO Akcji 10. Pioneer Akcji Polskich FIO 11. PKO/CREDIT SUISSE Akcji FIO 12. PZU FIO Akcji KRAKOWIAK 13. SEB 3 – Akcji FIO 14. Skarbiec – Akcja FIO 15. UniKorona Akcja FIO ̂ P ˆ P ˆ1P ˆ2 P ˆ P R2 DW AIC 0,02*** 0,81*** 1,61*** 1,39** -0,21** 0,93 2,04 -416,7 0,02*** 0,77*** 1,79*** 0,44 -0,25*** 0,96 1,71 -476,8 0,01*** 0,72*** 1,16*** -0,05 -0,16** 0,95 1,77 -482,5 0,05*** 0,57*** 8,04*** 2,65*** -0,34*** 0,89 1,89 -383,5 -0,001 0,01** -0,001 0,01*** 0,007 -0,002 0,72*** -0,43 0,68*** 1,47*** 0,85*** 0,81* 0,66*** 1,17** 0,68*** 1,59** 0,98*** 0,18 -0,46 0,09 -0,37 -0,43 -0,08 0,55 -0,22*** -0,22*** 0,02 -0,29*** -0,17** -0,04 0,94 0,94 0,96 0,94 0,93 0,96 2,44 2,0 2,06 2,05 2,18 2,13 -462,0 -459,3 -478,7 -454,9 -444,6 -463,9 1,25** -0,02 -0,37*** 0,94 1,55 -448,5 0,65*** 1,58*** 0,71*** 1,26*** 0,68*** 1,37** 0,77*** 1,14*** 0,60* 0,05 -0,13 -0,22 -0,27*** -0,25** -0,14* -0,10** 0,95 0,94 0,92 0,95 2,08 2,36 2,55 2,16 -478,2 -443,5 -443,6 -475,9 0,009** 0,64*** 0,01*** 0,01** 0,01** 0,008** * istotność na poziomie 0,1; ** istotność na poziomie 0,05; *** istotność na poziomie 0,01. Źródło: Opracowanie własne (z wykorzystaniem pakietu Gretl 1.8.5). Uzyskany model charakteryzuje się wysokimi wartościami współczynnika determinacji R 2 , prawie we wszystkich przypadkach przewyższającymi 90%. Wartości krytyczne statystyki Durbina-Watsona DW wynoszą odpowiednio: d L 1,55 , dU 1,75, zatem tylko w przypadku funduszy Aviva Investors FIO Polskich Akcji i PKO/CREDIT SUISSE Akcji FIO (tabele: 2. oraz 3.) kryterium DW nie rozstrzyga, czyli zastosowanie estymatorów HAC nie pozwoliło uzyskać ostatecznego wyeliminowania problemu autokorelacji. Dla większości funduszy otrzymano dodatnie oraz istotne statystycznie wartości estymatora ̂ P . Analogicznie, jak w poprzednich pracach na ten temat [Olbryś 2008a, b, c; 2009], czynnik rynkowy (reprezentowany przez indeks WIG) okazał się istotny statystycznie, co potwierdzają wartości estymatora ˆ P w obu tabelach: 2. i 3. Potwier- dziła się także po raz kolejny statystycznie istotna, ujemna wartość estymatora ˆP w przypadku większości funduszy (12 z 15 w tabeli 2. oraz 13 z 15 w tabeli 3.). Ujemna wartość tego estymatora może oznaczać negatywny wpływ stosowania techniki market – timing na wartość portfela (hipoteza zerowa (4)). 54 Joanna Olbryś Estymatory parametrów: 1P oraz 2 P można interpretować jako miary wrażliwości stopy zwrotu z portfela funduszu na zmiany stopy zwrotu portfeli SMB oraz HML, naśladujących rolę wybranych czynników, odpowiednio. Czynnik SMB jest miarą rozpiętości stóp zwrotu pomiędzy spółkami o niskiej i wysokiej wartości rynkowej MV . Czynnik HML natomiast mierzy rozpiętość stóp zwrotu pomiędzy spółkami o potencjale wartości (wysokie BV / MV ) i spółkami o potencjale wzrostu (niskie BV / MV ). Badania Famy i Frencha wykazały, że w przypadku dobrze zdywersyfikowanych portfeli (a takimi są zwykle portfele otwartych funduszy inwestycyjnych) relacja wartości księgowej do rynkowej jest wyjątkowo dobrym wyznacznikiem przyszłych stóp zwrotu [Haugen 1999 s. 5]. Analiza wyników estymacji parametru ˆ1P w tabelach: 2. i 3. informuje o istotnym wpływie zmian wartości czynnika SMB na wartość stopy zwrotu z portfela dla większości funduszy, w badanym okresie (istotnie większe od 1 wartości tego estymatora). Nie można natomiast wyciągnąć analogicznych wniosków w odniesieniu do istotności wpływu drugiego z czynników Famy i Frencha, czyli zmiennej HML. Wartości estymatora ˆ2 P w tabelach: 2. oraz 3. są o wiele bardziej zróżnicowane i w większości przypadków, poza nielicznymi wyjątkami, nieistotne statystycznie. 4. Czteroczynnikowy model market-timing portfela inwestycyjnego Głównym celem badania jest estymacja i weryfikacja zaproponowanego hybrydowego modelu czteroczynnikowego oraz opinia o przydatności tego modelu w ocenie efektywności zarządzania portfelami polskich funduszy akcji, w porównaniu z modelami trójczynnikowymi. W literaturze przedmiotu propozycja modelu wieloczynnikowego, testowanego empirycznie w grupie 230 otwartych funduszy inwestycyjnych na rynku amerykańskim, pojawiła się w pracy [Bollen, Busse 2001 s. 1081-1082]. Model ten faktycznie był modelem pięcioczynnikowym, zawierającym również, jako zmienną objaśniającą, tzw. czynnik „momentum”, wprowadzony przez Carharta [Carhart 1997]. Budowa modelu pięcioczynnikowego wymaga konstrukcji zmiennej Carharta na polskim rynku, co nie zostało do tej pory zrobione i będzie przedmiotem dalszych badań i analiz. 4.1. Modyfikacja klasycznego modelu market-timing – parametryczny test G-I-I (Goetzmann – Ingersoll – Ivković) Klasyczne modele T-M (1) oraz H-M (2), jak również zmodyfikowane trójczynnikowe modele T-M-FF (7) i H-M-FF (8) mogą być szacowane zarówno na podstawie danych miesięcznych, jak i dziennych. Bollen i Busse zwrócili uwagę na fakt, że większość wcześniejszych badań, wspomagających analizę efektywności zarządzania portfelami funduszy inwestycyjnych na różnych rynkach, opierała się na danych miesięcznych lub rocznych, natomiast analiza danych dziennych znacznie zmieniła wyniki badań [Bollen, Busse 2001], (również na polskim rynku: [Olbryś 2008c]). Goetzmann, Ocena efektywności zarządzania portfelem… 55 Ingersoll i Ivković z kolei analizowali problem stosowania w modelach klasycznych danych miesięcznych w przypadku zarządzających, którzy codziennie (lub częściej niż raz w miesiącu) podejmują decyzje związane ze stosowaniem techniki market-timing. Zaproponowali odpowiednią modyfikację modelu H-M – test G-I-I, polegającą na wprowadzeniu we wzorze (2) nowej zmiennej objaśniającej PM ,t w miejsce zmiennej objaśniającej y M , t max{ 0, rM , t }. Wartość dodana PM ,t w miesiącu t , będąca efektem perfekcyjnego stosowania techniki market-timing przez zarządzającego portfelem, wyraża się wzorem [Goetzmann, Ingersoll, Ivković 2000 s. 262]: N PM , t max{1 RM , ;1 RF , } 1 RM , t , 1 (9) gdzie: N - liczba dni roboczych w miesiącu t , 1,2, , N . Estymacja modelu G-I-I odbywa się z wykorzystaniem miesięcznych stóp zwrotu z portfela danego funduszu ( RP , t ) oraz z portfela rynkowego ( RM , t ), w celu oszacowania nadwyżek stóp zwrotu z obu portfeli, czyli wartości zmiennych: objaśnianej rP , t oraz objaśniającej rM , t . Dzienne i miesięczne stopy zwrotu z portfela rynkowego, jak również wartości dziennej wolnej od ryzyka stopy zwrotu, służą do oszacowania wartości drugiej zmiennej objaśniającej PM ,t . Testowane hipotezy zerowe, dotyczące parametrów strukturalnych, mają analogiczną postać, jak w klasycznym modelu H-M (2), czyli: (3) i (4). 4.2. Czteroczynnikowy model market-timing jako wspólna modyfikacja modeli trójczynnikowych T-M-FF oraz H-M-FF Hybrydowy model czteroczynnikowy uzyskujemy jako modyfikację modeli trójczynnikowych T-M-FF oraz H-M-FF, wprowadzając nową zmienną objaśniającą PM ,t (9), będącą wartością dodaną w miesiącu t , w miejsce zmiennych reprezentujących w danym modelu efekt perfekcyjnego stosowania strategii market-timing przez zarządzającego funduszem, czyli: – kwadratu rynkowej zmiennej objaśniającej ( rM , t )2 w modelu T-M-FF (7), – zmiennej y M , t w modelu H-M-FF (8). W rezultacie otrzymujemy model postaci: rP , t P P rM , t 1P rSMB , t 2 P rHML, t P PM , t P , t , (10) gdzie: rP ,t , rM ,t , rSMB , t , rHML, t , P , P , P , 1P , 2 P , P,t – jak we wzorach (7) oraz (8), PM ,t – wartość dodana w miesiącu t , określona wzorem (9). 56 Joanna Olbryś 4.3. Charakterystyka danych i wyniki empiryczne Estymacja modelu czteroczynnikowego (10) odbywa się z wykorzystaniem miesięcznych stóp zwrotu z portfela danego funduszu oraz z portfela rynkowego, w celu oszacowania nadwyżek stóp zwrotu z obu portfeli, czyli wartości zmiennych: objaśnianej rP , t oraz objaśniającej rM , t . Jako wartości zmiennych SMB i HML występują średnie miesięczne stopy zwrotu każdej ze zmiennych, odpowiednio. Dzienne i miesięczne stopy zwrotu z portfela rynkowego, jak również wartości dziennej i miesięcznej wolnej od ryzyka stopy zwrotu, służą do oszacowania wartości kolejnej zmiennej objaśniającej PM ,t . Przeprowadzono estymację i weryfikację modeli czteroczynnikowych, jak również interpretacje uzyskanych wyników oceny dla 15 funduszy akcji na polskim rynku w okresie: styczeń 2003r. – grudzień 2009r. Wykresy: 1., 2., 3. i 4. przedstawiają miesięczne wartości zmiennych objaśniających modelu (10), w okresie: styczeń 2003r. – grudzień 2009r. (po 84 obserwacje dla każdej zmiennej). Wyniki rozszerzonego testu Dickeya – Fullera (ADF) wykazały odrzucenie hipotezy o istnieniu pierwiastków jednostkowych, czyli można przyjąć stacjonarność procesów: rM ,t , rSMB , t , rHML, t oraz PM ,t . Wartości empiryczne statystyki τ (dla modeli z wyrazem wolnym i trendem liniowym, na poziomie istotności 5%) były odpowiednio równe: -5,47; -4,03; -6,97; -4,74, czyli poniżej wartości krytycznej, wynoszącej w tym przypadku -3,47. WYKRES 1. Miesięczne wartości zmiennej objaśniającej rM ,t w okresie: styczeń 2003 r. – grudzień 2009r. Źródło: Opracowanie własne. Ocena efektywności zarządzania portfelem… Miesięczne wartości zmiennej objaśniającej rSMB , t 57 WYKRES 2. w okresie: styczeń 2003 r. – grudzień 2009r. Źródło: Opracowanie własne. WYKRES 3. Miesięczne wartości zmiennej objaśniającej rHML, t w okresie: styczeń 2003r. – grudzień 2009r. Źródło: Opracowanie własne. 58 Joanna Olbryś Wartości zmiennej objaśniającej PM ,t WYKRES 4. w okresie: styczeń 2003 r. – grudzień 2009 r. Źródło: Opracowanie własne. Tabela 4. zawiera wyniki estymacji zmodyfikowanego modelu czteroczynnikowego market-timing z wykorzystaniem estymatorów odpornych HAC. Wartość współczynnika determinacji R 2 uzyskanych modeli była bardzo wysoka (we wszystkich przypadkach około lub powyżej 90%) i analogiczna, jak w tabelach: 2. i 3. Oznacza to porównywalne dopasowanie do danych empirycznych zarówno modeli trójczynnikowych, jak i modelu czteroczynnikowego. Wartości krytyczne statystyki DW wynoszą odpowiednio: d L 1,55 , dU 1,75 , zatem tylko w przypadku funduszy Aviva Investors FIO Polskich Akcji oraz BPH FIO Akcji kryterium DW nie rozstrzyga, czyli zastosowanie estymatorów HAC nie pozwoliło uzyskać ostatecznego wyeliminowania problemu autokorelacji. W przypadku wszystkich funduszy, w modelu czteroczynnikowym, otrzymano bardzo zbliżone wartości kryterium informacyjnego Akaika (AIC) w stosunku do modeli trójczynnikowych T-M-FF (tabela 2.) oraz H-M-FF (tabela 3.). Oznacza to, że wprowadzenie czynnika PM ,t w miejsce odpowiednich zmiennych w modelach: T-M-FF i HM-FF pozwoliło uzyskać jeden model hybrydowy o porównywalnym dopasowaniu. W odniesieniu do interpretacji estymatorów parametrów modelu czteroczynnikowego należy stwierdzić, że dla 10 z 15 funduszy otrzymano dodatnie oraz istotne statystycznie wartości estymatora ̂ P . Obserwacje dotyczące istotności wpływu czynnika rynkowego, reprezentowanego przez indeks WIG (parametr ˆP ), są analogiczne, jak w tabelach: 2. i 3. Statystycznie istotną, ujemną wartość estymatora ˆP uzyskano w przypadku 11 z 15 funduszy. Podobnie, jak w przypadku wcześniej analizowanych modeli trójczynnikowych T-M-FF oraz H-M-FF, ujemna wartość tego estymatora może oznaczać negatywny wpływ stosowania techniki market – timing przez zarządzają- Ocena efektywności zarządzania portfelem… 59 cych portfelami badanych funduszy. Zmienna PM ,t , przy której stoi w modelu parametr P , niesie informację o wynikach perfekcyjnego stosowania techniki markettiming przez menadżera funduszu, czego wynikiem jest odpowiednia wartość dodana (zgodnie ze wzorem (9)). TABELA 4. Model czteroczynnikowy (10) (dane dzienne i miesięczne z okresu: styczeń 2003 r. – grudzień 2009 r.) Lp. 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. 13. 14. 15. Fundusz akcji Arka BZ WBK Akcji FIO Aviva Investors FIO Polskich Akcji BPH FIO Akcji DWS Polska FIO Top 25 Małych Spółek DWS Polska FIO Akcji DWS Polska FIO Akcji Plus ING FIO Akcji Legg Mason Akcji FIO Millennium FIO Akcji Pioneer Akcji Polskich FIO PKO/CREDIT SUISSE Akcji FIO PZU FIO Akcji KRAKOWIAK SEB 3 – Akcji FIO Skarbiec – Akcja FIO UniKorona Akcja FIO ̂ P ̂ P ˆ1P ˆ2 P ˆ P R2 DW AIC 0,03*** 0,82*** 1,57** 1,58*** -0,14*** 0,93 1,98 -421,8 0,02*** 0,84*** 1,61*** 0,59 -0,09*** 0,96 1,63 -470,1 0,009** 0,76*** 1,03*** 0,05 -0,05** 0,95 1,69 -478,9 0,06*** 0,62*** 7,88*** 2,90*** -0,18*** 0,89 1,84 -384,9 0,002 0,02*** 0,000 0,01* 0,01** -0,001 0,78*** 0,71*** 0,84*** 0,76*** 0,72*** 0,99*** -0,59 1,38*** 0,83* 0,91* 1,49** 0,15 0,33 0,26 -0,38 -0,28 0,03 0,58 -0,08** -0,12*** 0,001 -0,08** -0,07** -0,02 0,94 0,94 0,96 0,93 0,92 0,96 2,31 1,90 2,06 1,93 2,13 2,16 -457,6 -461,8 -478,6 -444,5 -443,4 -463,8 0,02*** 0,68*** 1,11** 0,27 -0,21*** 0,94 1,80 -457,9 0,02*** 0,72*** 1,38*** 0,76** -0,09*** 0,95 1,84 -470,2 0,009 0,02*** 0,007 0,80*** 0,68*** 0,80*** 1,03*** 1,35** 1,04** 0,17 -0,01 -0,18 -0,06 -0,09*** -0,02 0,93 0,92 0,95 2,40 2,55 2,15 -435,7 -446,9 -474,0 * istotność na poziomie 0,1; ** istotność na poziomie 0,05; *** istotność na poziomie 0,01. Źródło: Opracowanie własne (z wykorzystaniem pakietu Gretl 1.8.5). Analogicznie jak w tabelach: 2. i 3., uzyskano istotnie większe od 1 wartości pa- rametru ˆ1P , co informuje o znaczącym wpływie zmian wartości czynnika SMB na wartość stopy zwrotu z portfela w przypadku 11 z 15 funduszy. Również, analogicznie jak w przypadku modeli trójczynnikowych, nie zauważamy istotnego wpływu na wielkość stopy zwrotu z portfela funduszy drugiego z czynników rozpiętościowych, czyli zmiennej HML. Wartości estymatora ˆ2 P w tabeli 4. są w przypadku 12 z 15 funduszy nieistotne statystycznie. 60 Joanna Olbryś 4. Podsumowanie W pracy przedstawiono wyniki estymacji i weryfikacji, jak również analizę porównawczą trójczynnikowych oraz czteroczynnikowych modeli, tzw. wyczucia rynku. Zaproponowany model hybrydowy okazał się przydatny do oceny efektywności zarządzania portfelami polskich funduszy akcji w badanym okresie. Model ten może zastąpić modele trójczynnikowe T-M-FF oraz H-M-FF, ale wymaga zastosowania zarówno dziennych, jak i miesięcznych danych empirycznych, podczas gdy w literaturze przedmiotu raczej odchodzi się od wykorzystania danych miesięcznych, na korzyść danych dziennych [Bollen, Busse 2001 i inni]. Z drugiej strony, konieczność wykorzystania do konstrukcji zmiennych objaśniających danych o różnej częstotliwości można potraktować jako zaletę tego modelu. Dalsze badania na polskim rynku funduszy mogą dotyczyć rozszerzenia modelu market-timing do wersji pięcioczynnikowej, zawierającej jako dodatkową zmienną objaśniającą tzw. czynnik „momentum”, wprowadzony przez Carharta [Carhart 1997]. Jak zostało wspomniane w rozdziale 3., budowa modelu pięcioczynnikowego wymaga skonstruowania zmiennej Carharta na polskim rynku, co nie zostało do tej pory zrobione i będzie przedmiotem dalszych badań. Literatura Admati A., Bhattacharya S., Pfleiderer P., Ross S. 1986 On timing and selectivity, „The Journal of Finance”, 41 (July). Bollen N.P.B., Busse J.A. 2001 On the timing ability of mutual fund managers, „The Journal of Finance”, Vol. LVI, No. 3. Busse J.A. 1999 Volatility timing in mutual funds: evidence from daily returns, „The Review of Financial Studies”, Vol. 12, No. 5. Chang E., Lewellen W. 1984 Market timing and mutual fund investment performance, „Journal of Business”, 57. Carhart M.M. 1997 On persistence in mutual fund performance, „Journal of Finance”, 52. Fama E. 1972 Components of investment performance, „Journal of Finance”, 27, No. 2. Fama E.F., French K.R. 1992 The cross-section of expected stock returns, „The Journal of Finance”, 47. Fama E.F., French K.R. 1993 Common risk factors in the returns on stocks and bonds, „Journal of Financial Economics”, 33. Fama E.F., French K.R. 1995 Size and book-to-market factors in earnings and returns, „The Journal of Finance”, 50, No. 1. Ferson W.E., Harvey C.R. 1999 Conditioning variables and the cross section of stock returns, „The Journal of Finance”, 54 (August). Ferson W.E., Schadt R.W. 1996 Measuring fund strategy and performance in changing economic conditions,, The Journal of Finance”, 51 (June). Fletcher J. 1995 An examination of the selectivity and market timing performance of UK unit trusts, „Journal of Business Finance & Accounting”, 22. Ocena efektywności zarządzania portfelem… 61 Goetzmann W.N., Ingersoll J. Jr., Ivković Z. 2000 Monthly measurement of daily timers, „Journal of Financial and Quantitative Analysis”, Vol. 35, No. 3. Grinblatt M., Titman S. 1994 A study of monthly mutual fund returns and performance evaluation techniques, „Journal of Financial and Quantitative Analysis”, 29. Haugen R.A. 1999 Nowa nauka o finansach. Przeciw efektywności rynku, Warszawa. Henriksson R., Merton R. 1981 On market timing and investment performance. II. Statistical procedures for evaluating forecasting skills, „Journal of Business”, 54, No. 4. Henriksson R. 1984 Market timing and mutual fund performance: an empirical investigation, „Journal of Business” 57. Jensen M. 1968 The performance of mutual funds in the period 1945-1964, „Journal of Finance” 23. Kao G., Cheng L., Chan K. 1998 International mutual fund selectivity and market timing during up and down market conditions, „The Financial Review“, 33. Kufel T. 2004 Ekonometria. Rozwiązywanie problemów z wykorzystaniem programu Gretl, Warszawa. Lehmann B., Modest D.M. 1987 Mutual fund performance evaluation: A comparison of benchmarks and benchmark comparisons, „Journal of Finance”, 42 (June). Maddala G.S. 2008 Ekonometria, Warszawa. Merton R. 1981 On market timing and investment performance. I. An equilibrium theory of value for market forecasts, „Journal of Business” 54, No. 3. Newey W., West K. 1987 A simple, positive semi-definite, heteroskedasticity and autocorrelation consistent covariance matrix, „Econometrica”, 55. Olbryś J. 2010 Three-factor market-timing models with Fama and French’s spread variables, „Operations Research and Decisions”, 2. Olbryś J. 2009 Conditional market-timing models for mutual fund performance evaluation, „Prace i Materiały Wydziału Zarządzania Uniwersytetu Gdańskiego”, 4/2. Olbryś J. 2008a Parametric tests for timing and selectivity in Polish mutual fund performance, „Optimum. Studia Ekonomiczne”, 3(39). Olbryś J. 2008b Parametryczne testy umiejętności wyczucia rynku – porównanie wybranych metod na przykładzie OFI akcji, [w:] Z. Binderman (red.) Metody ilościowe w badaniach ekonomicznych IX, Warszawa. Olbryś J. 2008c Ocena umiejętności stosowania strategii market-timing przez zarządzających portfelami funduszy inwestycyjnych a częstotliwość danych, „Studia i Prace Wydziału Nauk Ekonomicznych i Zarządzania” Nr 10. Prather L.J., Middleton K.L. 2006 Timing and selectivity of mutual fund managers: An empirical test of the behavioral decision-making theory, „Journal of Empirical Finance”, 13. Romacho J. C., Cortez M. C. 2006 Timing and selectivity in Portuguese mutual fund performance, „Research in International Business and Finance”, 20. Sharpe W.F., Alexander G.J., Bailey J.V. 1999 Investments, Prentice Hall, New Jersey. Treynor J., Mazuy K. 1966 Can mutual funds outguess the market?, „Harvard Business Review”, 44. Zamojska A. 2008 Timing – metody pomiaru i empiryczna weryfikacja na przykładzie polskich funduszy inwestycyjnych, „Prace Naukowe Uniwersytetu Ekonomicznego”, Wrocław. OPTIMUM. STUDIA EKONOMICZNE NR 4 (48) 2010 Ewa ROSZKOWSKA1 KONCEPCJA I ZASTOSOWANIA UOGÓLNIONEJ GRY W BADANIACH EKONOMICZNYCH Streszczenie W artykule przedstawiono koncepcję, własności i możliwości zastosowania uogólnionej gry do modelowania zjawisk ekonomicznych. Uogólniona gra G to proces interakcji między graczami pełniącymi w tej grze określone role oraz pozostającymi ze sobą w pewnych relacjach. Gra jest reprezentowana przez kompleks reguł, w którym wyróżnia się cztery komponenty: MODEL − zawierający ogólne uwarunkowania sytuacyjne gry, VALUE − normy i wartości uznawane przez graczy, ACT − opisujący możliwości działania graczy, JUDGMENT − reguły opisujące sposób rozumowania i podejmowania decyzji przez graczy. Uogólniona gra pozwala analizować zachowania graczy, uwzględniając: ekonomiczne, społeczne czy psychologiczne aspekty ich zachowań. W artykule pokazano możliwości wykorzystania aparatu pojęciowego reguł i kompleksów reguł do konstrukcji optimum społecznego, koncepcji zrównoważonego rozwoju czy analizy procesu negocjacji. Słowa kluczowe: uogólniona gra, reguła, kompleks reguł, optimum społeczne, negocjacje THE CONCEPT AND APPLICATION OF THE GENERALIZED GAME IN ECONOMIC RESEARCH Summary In this paper, the concept, properties and possibilities of application of the generalized game to modelling economic phenomena is presented. The generalized game G is the process of interaction between players which have defined roles and role relationships. The game is represented by a complex of rules, where we have four components: MODEL− describing general considerations of the game, VALUE− norms and values recognized by the players, ACT− describing possibilities of the players’ action, JUDGMENT − rules describing ways of thinking and decision-making by players. The generalized game allows us to analyze the behavior of the players, paying attention to the economic, social and psychological aspects of their behavior. The article also shows the possibilities of using the tools of the rules and complexes to construct the social optimum, the concept of sustainable development or the negotiation analysis. Keywords: generalized game, rule, complex of rules, social optimum, negotiations 1 Dr hab. Ewa Roszkowska, prof. UwB jest pracownikiem Wydziału Ekonomii i Zarządzania Uniwersytetu w Białymstoku.. Koncepcja i zastosowania uogólnionej gry… 63 1. Wstęp Teoria gier zajmuje uznane już miejsce w modelowaniu zjawisk ekonomicznych. Zbyt silne założenia teoretyczne powodują jednak, że analizowane procesy ekonomiczne nie zawsze przybierają postać ściśle sformalizowanej gry. Trudności mogą występować w opisie: graczy, reguł ich działania, zbiorów rozwiązań, celów, rozpoznania struktury możliwych wypłat, założeń, co do postępowania graczy czy metod modelowania sytuacji decyzyjnych. Ważnym zagadnieniem są próby „udoskonalenia” teorii gier tak, aby była ona pozbawiona przedstawionych niedoskonałości oraz ograniczeń i mogła mieć szersze zastosowanie w budowaniu modeli opisujących rzeczywistość. Jedną z propozycji rozszerzenia i uogólnienia klasycznej teorii gier J. von Neumana i O. Morgensterna jest koncepcja uogólnionej gry wprowadzona przez T. Burnsa, A. Gomolińską [Burns, Gomolińska 2001; Gomolińska 1999] oraz rozwijana dalej w pracach [Burns, Caldas, Roszkowska 2005; Burns, Roszkowska 2003; Burns, Roszkowska 2005; Burns, Roszkowska 2009a; Burns, Roszkowska 2009b; Roszkowska 2007]. Do matematycznej formalizacji koncepcji uogólnionej gry wykorzystuje się pojęcie reguły, kompleksu oraz podkompleksu reguł. Uogólniona gra G to proces interakcji między graczami pełniącymi w tej grze określone role oraz pozostającymi ze sobą w pewnych relacjach. Gra jest reprezentowana przez kompleks reguł, w którym wyróżnia się cztery komponenty: MODEL − zawierający ogólne uwarunkowania sytuacyjne gry, VALUE − normy i wartości uznawane przez graczy, ACT − opisujący możliwości działania graczy, JUDGMENT − zawierający reguły opisujące sposób rozumowania i podejmowania decyzji przez graczy. W analizie rozwiązań uogólnionej gry dużą uwagę zwraca się na związek między rolami pełnionymi przez graczy, zależnościami między nimi a procesem interakcji. Głównym celem artykułu jest przedstawienie koncepcji, własności oraz możliwości zastosowań uogólnionej gry do modelowania zjawisk ekonomicznych. 2. Możliwości zastosowań i ograniczenia klasycznej teorii gier Teoria gier jest samodzielną dyscypliną naukową posiadającą własny aparat teoretyczny, choć może być także traktowana jako część teorii podejmowania decyzji. Przedmiotem teorii gier jest analiza matematycznych modeli konkurencji i kooperacji, której celem jest ustalenie kryteriów podejmowania decyzji przez tzw. racjonalnych graczy kierujących się maksymalizacją własnej wygranej lub funkcji użyteczności oraz umiejących ocenić skutki swoich decyzji, jak również decyzji innych uczestników gry. Rozwój teorii gier jest w znacznym stopniu stymulowany podejmowanymi próbami ścisłego ujęcia pewnych podstawowych problemów z zakresu ekonomii. Związki teorii gier i ekonomii są bardzo silne. Słynna praca Johna von Neumanna i Thomasa Morgensterna z roku 1944, kładąca podwaliny teorii gier, nosiła tytuł Theory of Games and Economic Behaviour. Nagroda Nobla w tej dziedzinie wielokrotnie została przyznana właśnie za prace dotyczące teorii gier lub bezpośrednio na niej bazujące. W 1994 roku 64 Ewa Roszkowska Nagrodę Nobla z ekonomii otrzymali czołowi jej twórcy: J. Harsanyi, J. Nash, R. Selten za: pionierskie badania dotyczące punktów równowagi w grach niekooperacyjnych [Dokument elektroniczny, tryb dostępu: http://nobelprize.org/economics/laureates/1994/index.html], w 1996 roku W. Vickrey i J. Mirrlees za: ukazanie niektórych konsekwencji asymetrii informacji w modelach z zakresu teorii gier (modele aukcji), [Dokument elektroniczny, tryb dostępu: http://nobelprize.org/economics/laureates/1996/index.html], w 2005 roku R. Aumann oraz T.R. Schelling: za rozszerzenie naszego rozumienia konfliktu i współpracy poprzez analizę (w kategoriach) teorii gier [Dokument elektroniczny, tryb dostępu: http://nobelprize.org/economics/laureates/2005/index.html], a w 2007 roku L. Hurwicz, E.S. Maskin i R.B. Myerson za: prace nad podstawami mechanism design theory, teorii, która pozwala m.in.: odróżnić sytuacje, w których rynki funkcjonują dobrze od tych, w których rynki funkcjonują źle [Dokument elektroniczny, tryb dostępu: http://nobelprize.org/ /economics/laureates/2007/index.html]. Dla konkretnej sytuacji wyodrębnia się podstawowe cechy, które ją opisują, tj.: ilość graczy, rodzaj i stopień sprzeczności interesów, formy komunikacji i współdziałania, zasób i rodzaj informacji, sposób rozgrywania gry, racjonalność graczy i przedstawia w uproszczonym modelu. Gra jest to pewien sformalizowany model sytuacji interakcji, między co najmniej dwiema stronami, które nazywa się graczami. Graczem może być człowiek, ale także: firma, państwo, grupa społeczna. Rozważa się również gry przeciwko naturze. Zakłada się, że gracze posiadają własne interesy i znają zarówno interesy własne, jak i drugiej strony. Zakłada się istnienie sprzeczności interesów, choć strony mogą mieć również interesy wspólne. Model gry zawiera opis graczy, stosowanych przez nich strategii, czyli planów działań uwzględniających wszystkie możliwości, w jakich mogą się znaleźć, oraz uzyskanych przez każdego z nich wypłat. Wypłaty odpowiadające wynikowi gry mogą być wyznaczone przez funkcję użyteczności gracza. Gracz wpływa na przebieg gry, wybierając swoją strategię. Ostateczny wynik zależy jednak nie tylko od niego, ale także od decyzji pozostałych graczy. Grze towarzyszy konflikt, ponieważ zwykle każdy z graczy dąży do innego, czasem przeciwstawnego wyniku. Są jednak sytuacje, gdy kilku graczy, koordynując swoje strategie i współpracując, może doprowadzić do wyniku dającego każdemu z nich wyższą wypłatę. Postępowaniem graczy rządzą formalne i nieformalne reguły gry. Mogą to być: przepisy prawne, normy etyczne, powszechnie uznane zasady konkurencji, a także zasób wiedzy analitycznej umożliwiającej śledzenie ich zachowań. Analiza strategii stron obejmuje: opis, wyjaśnienie, przewidywanie wyborów dokonywanych przez graczy, poszukiwanie stanów równowagi oraz rozwiązań gry. Do najważniejszych zastosowań teorii gier w ekonomii możemy zaliczyć m.in.: analizę modeli rynku w sytuacji oligopolu (np. równowaga w modelu duopolu Cournota, duopolu Bertranda) przez wyznaczanie równowagi Nasha, modelowanie stosunków między przedsiębiorstwami w kategoriach konkurencji czy kooperacji, analizę strategii postępowania firmy, problemy umów handlowych, przetarg, negocjacje czy aukcje [Drabik 1998; Kalinowski 2008; Malawski, Wieczorek, Sosnowska 1997; Watson 2005]. Klasyczna teoria gier, mimo wielu zastosowań w naukach ekonomicznych, ma również pewne ograniczenia. Rzeczywista sytuacja konfliktowa prawie nigdy nie przy- Koncepcja i zastosowania uogólnionej gry… 65 biera postaci ściśle sformalizowanej gry. Czasem nie jesteśmy w stanie ocenić dokładnie, w ilu grach jednocześnie uczestniczy każdy gracz i jakiego typu są te gry, co więcej, rozważana gra może być w rzeczywistości częścią innej, bardziej złożonej gry. Nie zawsze jesteśmy w stanie wskazać wszystkich graczy, opisać ich interesy, możliwe strategie, funkcję użyteczności czy macierz wypłat. Czasem trudne może się okazać określenie nawet własnych interesów i strategii, nie mówiąc o interesach i strategiach pozostałych uczestników gry. Zbiory strategii w pewnych sytuacjach mogą być w zasadzie nieograniczone. Często uczestnicy ukrywają swoje strategie lub dokonują ich zamiany w trakcie interakcji, wprowadzając nowe strategie. Zasady zachowań graczy są określane w normach prawnych, politycznych i etycznych. Nie są to więc zasady tak precyzyjne, jak wymaga teoria gier, ponadto mogą być w czasie gry naruszane, łamane bądź zmieniane. Mogą również pojawiać się przeszkody z podejmowaniem decyzji, ze względu na: niekompletną lub fałszywą informację, brak jasno sprecyzowanej funkcji użyteczności czy kryteriów wyboru. W przypadku gier z niepełną informacją rzeczywisty układ interesów stron i wyników może być zupełnie inny od tego, który wyobrażają sobie gracze. Każdy z graczy może grać w inną grę, a na dodatek prawdziwa gra będzie jeszcze inna. Występują istotne odstępstwa od „racjonalności” definiowanej w ramach teorii gier, decyzje graczy zależą od czynników: osobowościowych, emocjonalnych, etycznych czy kulturowych. W badaniach rozważa się, co prawda, różne sposoby rozumienia racjonalności czy motywów działania graczy, ale nie wyczerpuje to wszystkich możliwości analizy gry. Poszukiwanie optymalnych strategii dla gier o sumie niezerowej wśród rozwiązań Nasha czy Pareto, strategii minimaksowych okazuje się w wielu sytuacjach niewystarczające czy wręcz zawodne. Brakuje jednoznacznego sposobu określania reguły wyboru między różnymi koncepcjami rozwiązań czy stanami równowagi. Czynione są próby „udoskonalenia” teorii gier tak, aby była ona pozbawiona niedoskonałości i ograniczeń opisanych wcześniej i mogła mieć szersze zastosowanie w budowaniu modeli opisujących rzeczywistość. Jedną z takich propozycji może być wykorzystanie pojęcia reguły i kompleksu reguł do konstrukcji tzw. uogólnionej gry. 3. Koncepcja i własności uogólnionej gry 3.1. Pojęcie reguły Przez L określono język, w którym występują zmienne oznaczające obiekty i meta obiekty. Przez FOR oznaczono zbiór formuł języka L. Reguła jest tu traktowana bardziej ogólnie niż w klasycznym ujęciu, mianowicie przez regułę rozumie się tzw. regułę w stylu Reitera (Reiter’s default rule), [Reiter 1980]. 66 Ewa Roszkowska Definicja 1. Regułą [Gomolińska 1999] nazwano dowolny element : ( X , Y , ) ( FIN (( FOR ))) 2 FOR , gdzie: X- zbiór przesłanek (premises), Y- zbiór uzasadnień (justifications), (FOR) zbiór potęgowy zbioru FOR, FIN((FOR) rodzina wszystkich skończonych podzbiorów zbioru (FOR) . Formułę nazywamy wnioskiem (konkluzją) reguły ( X , Y , ) . Regułę rozumiemy następująco: Jeśli wszystkie elementy X zachodzą oraz wszystkie elementy Y mogą zajść, to mamy . Zbiór X zawiera przesłanki, które muszą koniecznie zachodzić, a zbiór Y uzasadnienia, o których nie wiadomo, że na pewno nie zachodzą (nie ma ewidencji, że nie zachodzą). Jeśli negacje faktów w Y mogą mieć miejsce, to mamy „sytuację wyjątkową” i nie można stosować reguły ( X , Y , ) . Jeśli stwierdzamy, że „nie ma sytuacji wyjątkowych” i wszystkie przesłanki ze zbioru X zachodzą, to działamy zgodnie z regułą (X ,Y, ) . Reguły mogą być czysto sytuacyjne, tzn. mające odniesienie tylko do ściśle określonych, sprecyzowanych przez zbiór parametrów sytuacji, lub ogólne mające zastosowanie w wielu sytuacjach. Reguły mogą być nieprecyzyjne, gdy pozwalają na wieloznaczne interpretacje, lub precyzyjne, gdy mają dokładnie określone przesłanki, uzasadnienia oraz konkluzje. Zaletą reguł precyzyjnych jest możliwość odpowiedniego „przetłumaczenia” ich na program komputerowy wspomagający podejmowanie decyzji. Przykład 1. Przykładowe reguły, które mogą mieć zastosowanie np. w analizie negocjacji. 1. Reguły aksjomatyczne: Mamy X Y . Konkluzja zachodzi bezwarunkowo, np.: r1= ( , , w negocjacjach uczestniczą związki zawodowe oraz dyrekcja). 2. Reguły „bez wyjątku”: Mamy Y , X . Jeśli wszystkie przesłanki ze zbioru X są spełnione, to zachodzi konkluzja , np.: r1=({negocjacje nie zakończą się przed upływem 10 dni}, , rozmowy zostaną zerwane); r2= ({zostanie poprawiona jakość towaru }, , zwiększenie zamówienia o 10%). Koncepcja i zastosowania uogólnionej gry… 67 3. Reguły „z wyjątkami”: Mamy Y . Jeśli wszystkie przesłanki ze zbioru X są spełnione oraz nie ma sytuacji wyjątkowych opisanych przez Y, to zachodzi konkluzja , np.: r1= ( , {firma jest wiarygodna na rynku}, podpisanie umowy na 2 lata); r2= ({niska cena jednostkowa towaru}, {firma jest wiarygodna na rynku}, podpisanie umowy na 5 lat). Reguły w podanym przykładzie są opisane z użyciem języka naturalnego w sposób mniej sformalizowany. Stosując odpowiednie procedury, można zbudować system informatyczny, określając np.: kategorie obiektów, własności atrybutów [Malawski, Wieczorek, Sosnowska 1997]. 3.2. Pojęcie kompleksu i podkompleksu reguł W sytuacjach, gdy zachodzi potrzeba pogrupowania reguł, ze względu na wybrane kryteria pomocnym narzędziem może być reprezentacja reguł w formie kompleksu lub podkompleksu reguł. W formie kompleksów reguł mogą być opisywane: algorytmy, instrukcje, procedury, zachowania rutynowe, metareguły określające związki i zależności między regułami itp. Definicja 2. [Gomolińska 1999]. Kompleksem reguł nazywamy zbiór otrzymany przez stosowanie następujących zasad: i) dowolny skończony zbiór reguł jest kompleksem reguł; ii) jeśli C1 , C2 są kompleksami reguł, to C1 C2 oraz C1 są kompleksami reguł; iii) jeśli C1 C2 , C2 jest kompleksem reguł, to C1 jest również kompleksem reguł. Klasa kompleksów reguł zawiera wszystkie skończone zbiory reguł, jest domknięta ze względu na sumę zbiorów, zbiór potęgowy oraz własność bycia kompleksem jest dziedziczona ze względu na podzbiory. Twierdzenie 1. [Gomolińska 1999]. Zbiór C jest kompleksem reguł wtedy i tylko wtedy, gdy ma jedną z następujących postaci (i)-(iv): C ; i) ii) C r1 , r2 , ..., rm , m 1 , gdzie r1 , r2 , ..., rm są regułami; C C1 , C2 , ..., Cn , n 1 gdzie C1 , C2 , ..., Cn są kompleksami reguł; C r1 , r2 , ..., rm , C1 , C2 , ..., Cn , m 1 , n 1 , przy czym r1 , r2 , ..., rm są regułami, C1 , C2 , ..., Cn zaś kompleksami reguł. Przykład 2. Niech: r1 , r2 , r3 , r4 , r5 to reguły. Zbiory: C1 r1 , r2 , r3 , C2 r2 , C1, C3 r3 , C1 , C4 r4 , r5 , C2 , C3 są kompleksami reguł. iii) iv) 68 Ewa Roszkowska Definicja 3. [Gomolińska 1999] Powiemy, że kompleks reguł C jest podkompleksem kompleksu D C g D , jeśli C D lub C został otrzymany z D przez opuszczenie pewnych (lub wszystkich) reguł w kompleksie D oraz opuszczenie zbędnych nawiasów i wystąpień zbioru pustego . Przykład 3. Następujące zbiory są podkompleksami kompleksu C2 z przykładu 2: , A1 r1, A2 r2 , A3 r3 , A4 r2 , r1 , A5 r2 , r2 , A6 r2 , r3 , A7 r1 , r2 , A8 r1 , r3 , A9 r2 , r3 , A10 r2 , r1 , r2 , A11 r2 , r1 , r3 , A12 r2 , r2 , r3 , A13 r1 , r2 , r3 , C2 . 3.3. Pojęcie uogólnionej gry Przez uogólnioną grę G rozumie się proces interakcji między graczami pełniącymi w tej grze określone role oraz pozostającymi ze sobą w pewnych relacjach [Burns, Caldas, Roszkowska 2005; Burns, Roszkowska 2005; Roszkowska 2007 s. 28-39]. Oznaczono przez: – I 1,2,..., n − zbiór graczy; – ROLE (i, G ) − kompleks reguł opisujących role pełnione przez i ego gracza w grze G , ROLE ( I , G ) − kompleks reguł opisujących role pełnione przez wszystkich – graczy w grze G . Gra G jest zatem określona, jeśli mamy co najmniej dwa kompleksy ról oraz kompleks R zawierający ogólne reguły określające przebieg gry, czyli: G ROLE (1, G ), ROLE (2, G ),..., ROLE (n, G ); R . Wśród podkompleksów kompleksu ROLE(I,G) wyróżnia się cztery główne podkompleksy, które opisują kontekst sytuacyjny oraz regulują przebieg gry. Wyróżnione komponenty nie muszą być zbiorami rozłącznymi, niektóre reguły czy nawet podkompleksy mogą występować jednocześnie w różnych komponentach. Kompleks model MODEL ( I , G ) zawiera reguły opisujące kontekst sytuacyjny gry, tzn.: graczy, ich role pełnione w grze, uwarunkowania procesu interakcji. Reguły mają tutaj głównie charakter informacyjny. Kompleks aktywności ACT ( I , G ) związany z procesem interakcji zawiera: opis możliwych aktywności podejmowanych przez graczy, zachowania rutynowe, zbiory strategii, taktyk, sposoby komunikacji itp. Kompleks wartości VALUE ( I , G ) , związany zarówno z kontekstem sytuacyjnym, jak i procesem interakcji, zawiera reguły opisujące wartości i normy uznawane przez graczy. Koncepcja i zastosowania uogólnionej gry… 69 Jednym z podstawowych pojęć w uogólnionej teorii gier jest judgment [Burns , Roszkowska 2006]. W języku angielskim judgment oznacza zarówno zdolność do formułowania właściwych opinii i podejmowania dobrych decyzji, jak również decyzję lub opinię o czymś lub o kimś, która została podjęta po gruntownym przemyśleniu2. W języku polskim nie ma jednoznacznego odpowiednika tego pojęcia3. Na określenie judgment, rozumianego w takim sensie, używa się tutaj pojęcia ocena4. Kompleks oceny J ( I , G ) zawiera reguły charakteryzujące sposób rozumowania graczy oraz determinujące ich zachowanie podczas przebiegu gry, w tym: metody weryfikacji danych (szacowania stopnia ich: wiarygodności, prawdziwości czy kompletności), metody wartościowania, (co jest: dobre, złe, odpowiednie, nieodpowiednie), weryfikacji hipotez, formułowania opinii, podejmowania decyzji itp. W podobny sposób określa się kompleksy: MODEL(i, G ) , ACT (i, G ) , VALUE(i, G), J (i, G ) stanowiące główne komponenty kompleksu ROLE (i, G ) , gdzie i I . Wyróżnione kompleksy dla poszczególnych graczy są różne, ale zawierają wspólne reguły, które wchodzą odpowiednio w zakres kompleksów: MODEL( I , G ) , ACT ( I , G ) , VALUE ( I , G ) , J ( I , G ) . Mamy przy tym: MODEL(i, G ) g MODEL( I , G ) g ROLE ( I , G ) g G , ACT (i, G ) g ACT ( I , G ) g ROLE ( I , G ) g G , VALUE (i, G ) g VALUE ( I , G ) g ROLE ( I , G ) g G , J (i, G ) g J ( I , G ) g ROLE ( I , G ) g G . 3.4. Struktura uogólnionej gry Przez S t oznaczono sytuację gry w momencie czasu t . Strukturę uogólnionej gry w kontekście sytuacji S t reprezentuje kompleks reguł G (t ) związanych z tą sytuacją. W momencie t gracz może być zaangażowany w szereg gier, jednocześnie pełniąc w nich różne role. Przyjmuje się, że kompleks reguł: ROLE i, t reprezentuje wszystkie role pełnione przez i tego gracza w mo– mencie czasu t ; ROLE i, t , G reprezentuje role pełnione przez i tego gracza w grze G – w momencie czasu t ; 2 Według Cambridge Advanced Learner’s Dictionary, judgment oznacza zarówno: the ability to form valuable opinions and make good decisions, jak również: decision or opinion about someone or something that you form after thinking carefully, [Dokument elektroniczny, tryb dostępu: http://dictionary.cambridge.org/ /define.asp?dict=CALD&key=43009]. 3 Zgodnie z Wielkim słownikiem angielsko-polskim Jana Stanisławskiego [Wielki słownik angielsko-polski 1989 s. 452] , judgment jest tłumaczone jako: 1) sąd, 2) orzeczenie, wyrok, 3) sąd, opinia, zdanie, czy 4) rozsądek. 4 Używa się także pojęć: kompleks oceny (complex judgment), funkcja oceny (judgment function) czy proces oceny (judgment process). 70 Ewa Roszkowska ROLEI , t , G reprezentuje role pełnione przez wszystkich graczy w grze G w momencie czasu t . Z sytuacją S t w momencie czasu t są związane również komponenty: MODEL(i, t , G ) , ACT (i, t , G ) , VALUE (i, t , G ) , J (i, t , G ) kompleksu ROLE (i, t , G ) oraz komponenty: MODEL( I , t , G ) , ACT ( I , t , G ) , VALUE ( I , t , G ) , J ( I , t , G ) kompleksu ROLE ( I , t , G ) . – Mamy przy tym: MODEL(i, t , G ) g MODEL( I , t , G ) g ROLE ( I , t , G ) g G (t ) , ACT (i, t , G ) g ACT ( I , t , G ) g ROLE ( I , t , G ) g G (t ) , VALUE (i, t , G ) g VALUE ( I , t , G ) g ROLE ( I , t , G ) g G (t ) , J (i, t , G ) g J ( I , t , G ) g ROLE ( I , t , G ) g G (t ) dla dowolnego i I . Ponadto: MODEL( I , t , G ) g MODEL( I , G ) , ACT ( I , t , G ) g ACT ( I , G ) , VALUE ( I , t , G ) g VALUE ( I , G ) , J ( I , t, G ) g J ( I , G ) oraz MODEL(i, t , G ) g MODEL(i, G ) , ACT (i, t , G ) g ACT (i, G ) , VALUE (i, t , G ) g VALUE (i, G ) , J (i , t , G ) g J (i , G ) dla dowolnego i I . Na schemacie 1. pokazano zależności pomiędzy kompleksami związanymi z rolami pełnionymi przez graczy oraz komponentami kompleksu reprezentującego grę G (t ) w sytuacji S t . Symbol A B oznacza, że A jest podkompleksem B , czyli A g B . Strukturę uogólnionej gry G (t ) w kontekście sytuacji S t dla dwóch graczy przedstawia schemat 2. Na schemacie przedstawiono relacje między poszczególnymi komponentami kompleksu ROLE (i, t ) z uwzględnieniem związków zachodzących między kompleksem J (i, t , G ) a pozostałymi komponentami tego kompleksu. Koncepcja i zastosowania uogólnionej gry… 71 SCHEMAT 1. Zależności pomiędzy kompleksami związanymi z rolami pełnionymi przez graczy oraz komponentami kompleksu G (t ) w sytuacji S t G(t) ROLE(I,t,G) ROLE(1,t) ROLE(2,t) ROLE(1,t,G10) ROLE(1,t,G1n) ROLE(1,t,G1r) ROLE(2,t,G20) ROLE(2,t,G2m) ROLE(1,t,G) ROLE(2,t,G) ROLE(2,t,G1s) MODEL(1,t,G) ACT(1,t,G) J(1,t,G) VALUE(1,t,G) MODEL(1,t,G) ACT(1,t,G) J(1,t,G) VALUE(1,t,G) Źródło: Opracowanie własne: [Roszkowska 2007 s.32]. SCHEMAT 2. Struktura uogólnionej gry G (t ) w sytuacji S t dla dwóch graczy KONTEKST SYTUACYJNY GRACZ 1 GRACZ 2 MODEL(2,t,G) MODEL(1,t,G) J(1,t,G) VALUE(1,t,G) J(2,t,G) ACT(1,t,G) UWARUNKOWANIA ZEWNĘTRZNE VALUE(2,t,G) INTERAKCJE I ICH REZULTATY Źródło: Por: [Burns, Caldas, Roszkowska 2005]. ACT(2,t,G) 72 Ewa Roszkowska 3.5. Proces uogólnionej gry Strukturę gry w kontekście sytuacji S t należy jednak odróżnić od procesu gry. Proces gry jest to ciąg operacji związany z aktywowaniem i stosowaniem reguł zawartych w odpowiednich komponentach kompleksu G (t ) . Gracze podczas przebiegu gry dokonują oceny danej sytuacji, gromadzą, przetwarzają informacje, podejmują decyzje itp. Istotne znaczenie w procesie interakcji odgrywa kompleks oceny J (i, G ) oraz związana z nim funkcja oceny [Burns, Roszkowska 2006; Roszkowska 2007]. Definicja 4. Niech J (i, G ) będzie kompleksem oceny i tego gracza, a U a1 , a2 ,..., an : ai Ai przestrzenią obiektów. Operację, która w sytuacji S t w momencie czasu t wektorowi a (a1 ,..., an ) U przypisuje kompleks reguł otrzymany przez stosowanie reguł z kompleksu oceny J (i, G ) nazwano funkcją oceny tego gracza. Operację oznaczono przez J (i, t , G ) , a jej wynik na obiekcie a przez J (i, t , G )(a) . Funkcja oceny J (i, t , G ) jest wyznaczona przez proces oceny, czyli ciąg działań określonych na obiekcie a ( a1 ,..., an ) U z wykorzystaniem reguł z J (i, G ) w kontekście sytuacji S t . W zależności od rodzaju obiektu, na danym kompleksie oceny J (i, G ) , można określić różne funkcje oceny, w tym funkcje: oceny wartości (value judgment), oceny prawdziwości (truth judgment), oceny danych (data judgment), oceny faktów (factual judgment), oceny możliwości działania (action judgment). Reguły zawarte w kompleksach reguł, na których działa funkcja oceny, jak również reguły będące rezultatem tej operacji, mogą być określone na takich obiektach, jak: dane, wartości, normy, przekonania, strategie, procedury itp. (Zob.: schemat 3.). Proces oceny możemy traktować jako porównywanie oraz poszukiwanie podobieństw między: opcjami, regułami czy kompleksami reguł. Celem tak określonego procesu jest wybór przez gracza odpowiedniej opcji lub konstrukcja własnej opcji spełniającej określone własności. Proces oceny możemy traktować jako porównywanie oraz poszukiwanie podobieństw pomiędzy: obiektami, regułami czy kompleksami reguł, którego celem jest wybór odpowiedniego obiektu, reguły czy kompleksu reguł. Zdolność gracza do porównywania i poszukiwania podobieństw odgrywa istotną rolę zarówno przy wyborze dostępnych już obiektów, jak i konstruowaniu nowych, spełniających określone własności. Zachowania gracza mogą być rutynowe, związane z przestrzeganiem przepisów prawnych, norm czy zasad społecznych. Podejmowanie decyzji, a w konsekwencji rozwiązanie gry, jest ściśle związane z relacjami między stronami, celami, które strony chcą osiągnąć, czy wreszcie z systemem wartości przyjętym za podstawę działań. Gracze mogą postępować zgodnie z indywidualną funkcją oceny, czyli niezależnie od poczynań drugiej strony, brak jest wtedy współpracy i porozumienia między nimi lub zgodnie ze wspólną funkcją oceny, czyli współpracując, w porozumieniu z drugą stroną. Koncepcja i zastosowania uogólnionej gry… 73 SCHEMAT 3. Ogólny model funkcji oceny Uwarunkowania zewnętrzne Sytuacja St Kompleks oceny J(i,G) Przestrzeń U: Obiekty: Dane Przekonania Wartości Normy Aktywności (np. strategie) Inne Proces oceny wyznaczony przez funkcję oceny J(i,t,G) ze względu na obiekty z przestrzeni U w sytuacji St chwili t Konkluzja: Kompleks reguł: W szczególnym przypadku: Dane Przekonania Wartości Normy Aktywności (np. strategie) Reguły Inne Źródło: Por.: [Burns, Roszkowska 2006]. Podejmowane decyzji podczas procesu gry może przebiegać w warunkach: pewności, niepewności czy też ograniczonej racjonalności. Ograniczoność w podejmowaniu decyzji może być spowodowana np.: niedostateczną informacją, brakiem rozeznania wszystkich kryteriów, ograniczeniami czasowymi, kosztem uzyskania dodatkowych informacji, częściową zdolnością percepcji postrzegania sytuacji decyzyjnej, niemożnością poczynienia optymalnego wyboru, z opcji, które są dostępne. Czasem wybór np. optymalnej decyzji czy dobrego obiektu polega na wyborze dostatecznie dobrej decyzji, czy obiektu spełniającego określone kryteria. Może to być związane z tym, że, podejmując decyzje, osoba nie jest w stanie sprawdzić wszystkich alternatyw lub dokonać ich porównań, stąd ogranicza się do znalezienia rozwiązania, które go satysfakcjonuje. Należy ustalić jedynie warunki, jakie powinna spełniać decyzja czy obiekt, a nie sprawdza się wszystkich możliwych alternatyw. Gracz może także konstruować nowe obiekty lub rozwiązania, spełniając określone własności. 3.6. Motywy postępowania gracza. Typy równowag Celem analizy uogólnionej gry jest znalezienie rozwiązania gry, czyli układu możliwych aktywności podejmowanych przez graczy, realizujących wartości i normy przez nich uznawane i prowadzących do akceptowalnego stanu, nazywanego też stanem równowagi. W analizie rozwiązań uogólnionej gry dużą uwagę zwraca się na związek między rolami pełnionymi przez graczy, zależnościami między nimi a procesem interakcji. Rozważa są różne typy zachowań gracza, co w konsekwencji prowadzi do wielu ty- 74 Ewa Roszkowska pów równowag. Wyróżnia się między innymi zachowania: rutynowe, instrumentalne, normatywne, podyktowane emocjami lub kombinacje wymienionych. Zachowanie instrumentalne graczy charakteryzuje się tym, że proces interakcji jest związany z realizacją wartości zawartych w kompleksach: VALUE1 g ROLE (1, G ) , VALUE 2 g ROLE (2, G ) , a zorientowanych na osiągniecie pożądanego rezultatu. Może to być np.: maksymalizacja własnych korzyści, minimalizacja strat, maksymalizacja różnicy korzyści, maksymalizacja wspólnych korzyści. Przez równowagę instrumentalną rozumiemy stan, który został otrzymany w wyniku procesu instrumentalnych zachowań graczy, czyli zachowań zorientowanych na osiągnięcie pożądanego rezultatu. Przykładem równowagi instrumentalnej, w klasycznej teorii gier, jest równowaga Nasha. Zachowanie normatywne charakteryzuje się tym, że proces interakcji jest związany z realizacją norm zawartych w kompleksach: VALUE1 g ROLE (1, G ) , VALUE 2 g ROLE (2, G ) , a zorientowanych na postępowanie zgodne z nimi, niezależnie od osiągniętego wyniku. Może to być np.: kierowanie się normą jestem uczciwy, stosowanie zasad sprawiedliwego podziału (fair division), akceptacja określonych procedur podejmowania decyzji, np. głosowania, nawet, jeśli ostateczny rezultat nie jest satysfakcjonujący dla gracza. Przez równowagę normatywną rozumiemy stan, który został otrzymany w wyniku procesu normatywnych zachowań graczy, czyli zachowań zorientowanych na postępowanie zgodne z normą określającą własności tego procesu. Zachowanie rutynowe polega na postępowaniu zgodnie z procedurami zawartymi w kompleksach: ALG1 g ROLE (1, G ) , ALG 2 g ROLE (2, G ) , które możemy traktować jako algorytmy postępowania graczy. Kompleksy: ALG1, ALG 2 posiadają wspólną regułę ro R lub reguły z jednakowymi przesłankami, uzasadnieniami, a różnymi konkluzjami. Kompleksy: ALG1, ALG 2 są powiązane ze sobą, co oznacza, że konkluzje aktywowanych reguł w ALG1 prowadzą do przesłanek lub uzasadnień w regułach z ALG 2 , i odwrotnie. Przez rutynową równowagę rozumiemy stan, który został otrzymany w wyniku procesu rutynowych zachowań, czyli procesu zgodnego ze stosowaniem algorytmów: ALG1 , ALG 2 . Warto odnotować, że różne motywy postępowania, czy też różnorodne normy, mogą prowadzić do tego samego stanu równowagi. Możliwe związki pomiędzy równowagą Nasha a równowagą normatywną przedstawia schemat 4. W sytuacji, gdy gracze kierują się różnymi motywami działania, możemy rozważać także tzw. równowagi mieszane. Celem jednego z graczy może być np. otrzymanie równowagi normatywnej, innego równowagi Nasha. Możemy również rozważać mieszane motywy postępowania gracza. Gracz może być zorientowany np. na osiągnięcie pożądanego rezultatu, ale zgodnie z przyjętymi przez niego normami postępowania (mieszany motyw instrumentalno-normatywny). Porównanie własności uogólnionej gry oraz klasycznej gry przedstawia tabela 1. Koncepcja i zastosowania uogólnionej gry… 75 SCHEMAT 4. Możliwe związki między równowagą normatywną a równowagą Nasha Równowaga normatywna. Brak równowagi Nasha. Brak równowagi normatywnej. Równowaga Nasha. Równowaga normatywna. Równowaga Nasha. Źródło: [Burns, Roszkowska 2003]. TABELA 1. Porównanie Uogólnionej Teorii Gier oraz Klasycznej Teorii Gier UOGÓLNIONA TEORIA GIER KLASYCZNA TEORIA GIER Gra jest reprezentowana przez kompleks reguł G(t). Reguły gry, tj.: jaka liczba uczestników, strategie, wypłaty, ogólne zasady gry. Gracze: Klasyfikacja typów graczy, ze względu na: role peł- Gracze: Wybrane motywy postępowania granione w grze, możliwość badania różnych motywów postę- cza, głównie racjonalni gracze kierujący się zapowania, zdolność do kreowania nowych rozwiązań, trans- sadą maksymalizacji funkcji użyteczności, brak możliwości tworzenia nowych rozwiązań, ograformacji gry. niczone możliwości transformacji gry. Gry mogą być symetryczne lub asymetryczne, ze względu Głównie gry symetryczne. np. na poszczególne komponenty, w tym: role pełnione przez graczy, ich pozycję, status itp. Możliwość transformacji gry, która jest oparta na innowa- Struktura gry jest ustalona. Gracze mają dany cyjności i możliwości kreowania nowych rozwiązań przez i ograniczony zbiór strategii, bez możliwości graczy. kreowania nowych rozwiązań. Gry otwarte i zamknięte. Zamknięte gry. Kompleks wartości VALUE(i,G) ściśle związany z uwarun- Funkcja użyteczności lub relacja preferencji kowaniami prawnymi, społecznymi, zwyczajowymi czy kul- określone na zbiorze strategii. turowymi procesu interakcji; reprezentuje wartości oraz normy uznawane przez gracza; może zawierać funkcje użyteczności czy funkcje wypłat. Kompleks modelu MODEL(i,G) zawiera ogólny opis gry, Doskonała lub niedoskonała informacja dotytzn.: role pełnione przez graczy, związki zachodzące między cząca: graczy, funkcji wypłat, strategii; reguły nimi, reguły reprezentujące sposób postrzegania gry przez gry są zazwyczaj precyzyjnie ustalone, niegracza. Opis gry może być reprezentowany przez nieprecy- zmienne. zyjne, niekompletne, a nawet sprzeczne reguły. Kompleks aktywności ACT(i,G) zawiera opis możliwych akty- Zbiór możliwych strategii oraz form komunikawności podejmowanych przez gracza, np.: zachowania rutyno- cji między graczami. we, zbiory strategii, taktyk, sposoby komunikacji, które są dostępne graczowi w określonej sytuacji w kontekście pełnionych ról. Kompleks oceny J(i,G) związany z różnymi typami zacho- Zazwyczaj instrumentalna racjonalność. Makwań gracza, w tym: zachowanie rutynowe, normatywne, in- symalizacja funkcji użyteczności lub wypłaty. strumentalne, emocjonalne itp. Ograniczone, nieprecyzyjne, możliwości rozumowania, Często superracjonalni gracze. oceny, wyboru, działania gracza, możliwość sprzeczności norm, reguł postępowania. Różne typy równowag, w tym np.: uogólniona równowaga Głównie równowaga Nasha oraz pewne jej Nasha, równowagi normatywne. uogólnienia związane z racjonalnym graczem. Źródło: Opracowanie własne: [Por.: Roszkowska 2007 s. 41; Burns, Roszkowska 2005]. 76 Ewa Roszkowska 4. Przykłady zastosowania uogólnionej gry do modelowania procesów ekonomicznych 4.1. Optimum społeczne w ujęciu kompleksów reguł Przez stan społeczny rozumiemy kompletny opis sytuacji, w której znajduje się społeczeństwo w relacji do działań ludzkich lub zdarzeń naturalnych. Zbiór możliwych (osiągalnych) stanów społecznych oznaczmy przez ST. Społeczeństwo podejmuje decyzje o zmianie stanu społecznego lub wyborze jednego ze stanów ze zbioru ST za pośrednictwem agentów (graczy), czyli osób uprawnionych do podejmowania grupowych decyzji zgodnie z określonymi procedurami ze zbioru PR. Niech I oznacza zbiór graczy, Iaut zbiór agentów (graczy) posiadających uprawnienia do podejmowania decyzji grupowych, gdzie IautI., Mamy Iaut I, może zajść również I=Iaut. Rozważa się grę społeczną G=[ROLE(I,G),R] jako proces interakcji między agentami (tj. jednostki, grupy osób itp.) ze zbioru I pełniącymi w tej grze określone role oraz pozostającymi ze sobą w określonych relacjach w kontekście sytuacji St opisanych przez stany społeczne w momencie czasu t. Kompleks ROLE(I,G) opisuje role pełnione przez graczy w grze G, ich siłę, relacje między nimi, społeczne, ekonomiczne, kulturowe czy psychologiczne aspekty ich zachowań; R zawiera ogólne reguły regulujące przebieg gry; MODEL(I,G), ACT(I,G), VALUE(I,G), J(I,G) oznaczają odpowiednie komponenty kompleksu ROLE(I,G). Zbiór procedur PR jest zawarty w kompleksie ACT(I,G) [Burns, Roszkowska 2009a; Burns, Roszkowska 2009b; Roszkowska 2009]. Model tak określonej gry społecznej G przedstawia schemat 5. Definicja 5. Procedurę społeczną Cpro ze zbioru procedur PR nazywamy instytucjonalnym mechanizmem (institutional mechanism) pozwalający ocenić możliwości przejścia ze stanu społecznego AST do stanu społecznego BST. Definicja 6. Procedurę społeczną Cpro ze zbioru PR nazywamy uznawalną (legitimize), jeśli agenci, stosujący tę procedurę oraz związani z wynikami jej stosowania, uznają ją za właściwą do podjęcia decyzji o zmianie lub wyborze określonego stanu społecznego. Definicja 7. Społecznie uznawalna poprawa stanu społecznego jest to zmiana stanu społecznego, dokonana w wyniku decyzji podjętej przez zastosowanie uznawalnej procedury społecznej Cpro ze zbioru PR. Definicja 8. Powiemy, że stan społeczny AST jest efektywny społecznie lub optymalny społecznie, jeśli przejście ze stanu AST do dowolnego stanu BST nie jest poprawą tego stanu społecznego. Koncepcja i zastosowania uogólnionej gry… 77 SCHEMAT 5. Model gry społecznej G G=[ROLE(I,G),R] Kontekst sytuacyjny St ROLE(Iaut,G) aut MODEL(I , G) aut VALUE(I ,G) aut ACT(I , G) aut J(I , G) Modyfikacja Kontrola ROLE(I\ Iaut, G) aut MODEL(I\ I , G) aut VALUE(I\ I , G) aut ACT(I\ I , G) aut J (I\ I , G) Wyznaczanie indywidualnych ocen dla stanów społecznych ze zbioru ST przez graczy ze zbioru I zgodnie z regułami z kompleksu Modyfikacja Kontrola VALUE(I,G) Podejmowanie decyzji zbiorowych przy zastosowaniu procedury ze zbioru PR przez agentów ze zbioru Iaut zgodnie z regułami z kompleksu VALUE(Iaut,G) Ocena przez graczy ze zbioru I rezultatów decyzji podjętej przez agentów ze zbioru Iaut Akceptacja społeczna rezultatów podjętej decyzji Brak akceptacji społecznej rezultatów podjętej decyzji Źródło: Opracowanie własne. Proces podejmowania decyzji społecznych oraz poprawy stanu społecznego można opisać następująco (Zob.: schemat 2.), [Burns, Roszkowska 2009a; Burns, Roszkowska 2009b; Roszkowska 2007]: 1. Norma ze zbioru VALUE wyznacza procedurę (instytucjonalny mechanizm) Cpro ze zbioru PR jako uprawnioną (właściwą) do podejmowania grupowych decyzji. 2. Procedura Cpro jest stosowana przez agentów ze zbioru Iaut, czyli agentów posiadających uprawnienia do podejmowania grupowych decyzji. 78 Ewa Roszkowska 3. 4. Podejmowanie grupowych decyzji przebiega zgodnie z regułami opisanymi przez procedurę Cpro. Wszyscy agenci ze zbioru I akceptują stosowanie tej procedury oraz otrzymane wyniki, nawet jeśli nie są one w pełni satysfakcjonujące. W sytuacji, gdy część graczy nie zaakceptuje otrzymanego wyniku, mogą oni podejmować próby zmiany decyzji, np. przez: modyfikację procedury, zmianę agentów mających uprawnienia do podejmowania decyzji itd. Do społecznie uznawalnych procedur podejmowania decyzji zalicza się: procedury sądowe, negocjacje czy mediacje, głosowanie, wybory, referendum. 4.2. Zrównoważony rozwój jako równowaga instrumentalno-normatywna w grze społecznej Próbę formalizacji koncepcji zrównoważonego rozwoju z wykorzystaniem kompleksów reguł można znaleźć w pracy [Roszkowska 2007; Roszkowska 2009]. Proces interakcji między graczami, tj.: państwa, organizacje, instytucje, przedsiębiorstwa, obywatele, natura w sytuacji St opisanej w ramach systemu społeczeństwo-gospodarkaekonomia, jest reprezentowany przez uogólnioną grę. Zrównoważony rozwój, traktowany jako harmonia pomiędzy dobrobytem gospodarczym, sprawiedliwością społeczną i zdrowym środowiskiem, w takim ujęciu jest rozumiany jako dynamiczna równowaga instrumentalno-normatywna w tej grze. Warunkiem osiągnięcia tej równowagi jest realizacja celów zrównoważonego rozwoju zgodnie z przyjętymi normami i zasadami postępowania (zasadami zrównoważonego rozwoju), z uwzględnieniem: złożonych relacji, powiązań, uwarunkowań, właściwych proporcji między nimi. Cele zrównoważonego rozwoju mogą być doprecyzowane przez określone wskaźniki wyrażone w sposób ilościowy lub jakościowy (np.: ekologiczne, ekonomiczne, socjalne, demograficzne, przestrzenne itp.). 4.3. Negocjacje jako uogólniona gra Jednym z obszarów praktycznych zastosowań kompleksów reguł są negocjacje. Negocjacje możemy traktować jako złożony proces podejmowania decyzji na dwóch współzależnych poziomach: poziomie interesów oraz poziomie relacji między stronami, uwarunkowany czynnikami zewnętrznymi, które w sposób pośredni lub bezpośredni mają na nie wpływ [Roszkowska 2007 s. 108]. Dwa główne nurty badań związane z analizą negocjacji to nurt behawioralny oraz teoriogrowy [Kamiński 2003; Roszkowska 2007]. W modelach behawioralnych zwraca się szczególną uwagę na wzajemne relacje i stosunki pomiędzy uczestnikami rozmów, podczas gdy w ujęciu teorii gier uwaga jest skupiona na interesach, czyli na osiągnięciu korzystnego wyniku. Model negocjacji oparty na kompleksach reguł tworzy „pomost” łączący oba te nurty, umożliwiając analizę przebiegu procesu negocjacji, jak i osiągniętego wyniku. Negocjacje, w ujęciu kompleksów, sa traktowane jako proces interakcji między graczami reprezentowany przez Koncepcja i zastosowania uogólnionej gry… 79 kompleks reguł NG , na który składają się reguły i podkompleksy reguł opisujące kontekst sytuacyjny negocjacji oraz regulujące jej przebieg. Reguły są wygodnym narzędziem do modelowania negocjacji z użyciem terminów z języka naturalnego, formalizowania czynników społecznych ekonomicznych czy psychologicznych mających wpływ na podejmowanie decyzji, przybliżonego rozumowania w termach nieostrych i niejednoznacznych. Kompleksy reguł pozwalają na grupowanie reguł, ze względu na: różne kryteria, uwzględnienie hierarchii ważności, kolejności stosowania, a po odpowiednim sformalizowaniu języka kompleksy reguł mogą zostać wykorzystane do tworzenia bazy wiedzy związanej z negocjacjami czy komputerowego wspomagania decyzji. Podstawę analizy procesu negocjacji stanowią wyróżnione cztery komponenty charakteryzujące uogólnioną grę NG. Kompleksy: – MODEL umożliwia zrozumienie uwarunkowań sytuacyjnych procesu negocjacji; – ACT zawiera: opis możliwych aktywności podejmowanych przez negocjatorów, ich zachowania rutynowe, ogólne metody komunikacji werbalnej i niewerbalnej, strategie, taktyki i style negocjacyjne; – VALUE zawiera: opis wartości i norm uznawanych przez graczy, uwarunkowania prawne, społeczne, zwyczajowe czy kulturowe procesu negocjacji; – JUDGMENT zawiera: metody szacowania, oceny, wartościowania obiektów, wyboru czy podejmowania decyzji. Proces negocjacji jest rozważany jako ciąg kompleksów reguł postaci: NG (t1 ) NG (t 2 ) NG (t 2 ) ... NG (t m ) , gdzie w sytuacji negocjacyjnej S t j , odpowiadającej chwili czasu t j , j 1,2,..., m , każdy z kompleksów NG (t j ) jest generowany przez odpowiednie komponenty: MODEL(i, t j , NG ) , ACT (i, t j , NG ) , VALUE (i, t j , NG ) , J (i, t j , NG ) . Przebieg negocjacji jest ściśle związany z kompleksem aktywności ACT podejmowanych przez negocjujące strony. Istotnymi komponentami kompleksu ACT są podkompleksy reprezentujące: style negocjacji, formy komunikacji między stronami, strategie, taktyki. W pracy [Roszkowska 2007 s.141-145] podjęto próbę opisu stylów negocjacji: twardy, miękki, zasadniczy przez reguły. W formie reguł mogą być prezentowane zasady dobrego negocjowania, które powinny być stosowane przez każdego negocjatora. Podane przykłady możemy potraktować jako punkt wyjścia do dalszych badań, tzn. grupowania reguł w podkompleksy ze względu na wybrane własności lub rozkładu reguły na kompleksy reguł. Język teorii kompleksów reguł jest użyteczny do formalizacji komunikacji między stronami. Przez reguły opisujemy komunikaty werbalne i niewerbalne stosowane w negocjacjach [Roszkowska 2002; Roszkowska 2003; Roszkowska 2007 s. 155 – 170]. Z kolei, przykłady powiązań strategii, taktyk, technik negocjacyjnych z aparatem pojęciowym teorii kompleksów reguł można znaleźć w pracy [Roszkowska 2007 s. 175 – 189]. 80 Ewa Roszkowska 5. Podsumowanie Uogólniona gra, traktowana jako specyficzny kompleks reguł, daje możliwości badania: aktywności graczy, ich zachowań, wzajemnych powiązań (interakcji) między nimi w ujęciu uwzględniającym szeroką klasę ekonomicznych, społecznych psychologicznych aspektów. Kompleksy reguł pozwalają na opis i analizę rozwiązań nie tylko gier klasycznych, ale również takich, gdzie np.: nie wszystkie reguły gry są znane, reguły są nieprecyzyjne, lub niekompletne, gracze mają ograniczoną lub asymetryczną informację, posługują się różnymi kryteriami przy podejmowaniu decyzji itp. Gry mogą być zamknięte, gdy reguły gry są ustalone i niezmienne, lub otwarte, jeśli dopuszczamy możliwość transformacji gry. Modyfikacje gry mogą dotyczyć między innymi reguł opisujących: kontekst sytuacyjny gry, system wartości gracza, możliwości jego działania. Pojęcia reguł i kompleksów reguł umożliwiają: modelowanie z użyciem terminów z języka naturalnego, formalizowanie czynników mających wpływ na podejmowanie decyzji, przybliżonego rozumowania w termach nieostrych i niejednoznacznych. Narzędzia te mogą być zatem użytecznym narzędziem do modelowania zjawisk ekonomicznych, nie tylko w obszarach prezentowanych w tym artykule. Literatura Burns T., Caldas J.C., Roszkowska E. 2005 Generalized Game Theory’s Contribution to Multi-agent Modelling Addressing Problems of Social Regulation, Social Order, and Effective Security, [w:] Monitoring, Security and Rescue Techniques in Multiagent Systems, (red.) B. Dunin-Keplicz. A. Jankowski, A. Skowron, M.A. Szczuka, Springer Verlag. Burns T., Gomolińska A. 2001 The Theory of Socially Embedded Games: The Mathematics of Social Relationships, Rule Complexes, and Action Modalities, „Quality and Quantity: International Journal of Methodology”, Vol. 34(4). Burns T., Roszkowska E. 2006 Social Judgement in multi-agent systems: The Perspective Of Generalized Game Theory, [w:] Cognition and Multi-Agent Interaction. From Modeling to Social Simulation, (ed.) R. Sun, Cambridge. Burns T., Roszkowska E. 2003 Fuzzy Game Theory: The Perspective of the General Theory of Games on Nash and Normative Equilibria, [w:] Rough-Neural Computing: Techniques for Computing with Words, eds. S.K. Pal, L. Polkowski, A. Skowron, Springer Verlag. Burns T., Roszkowska E. 2005 Generalized Game Theory: Assumptions, Principles, and Elaborations Grounded in Social Theory, In Search of Social Order, Series, „Studies in Logic, Grammar and Rhetoric”, 8(21). Burns T., Roszkowska E. 2009a A Social Procedurial Approach To The Pareto Optimization Problematique: Part I: Pareto Optimization and Its Limitations versus the GGT Conception of the Solution of Multi-value Conflict Problems Through Societal Procedures, Quality& Quantity, Vol. 43, No. 5. Burns T., Roszkowska E. 2009b A Social Procedurial Approach To The Pareto Optimization Problematique: Part II. Institutionalized Procedures and Their Limitation, Quality& Quantity, Vol. 43, No.5. Koncepcja i zastosowania uogólnionej gry… 81 Dokument elektroniczny, Tryb dostępu: [http://nobelprize.org/nobel_prizes/ /economics/laureates/1994/index.html] Dokument elektroniczny, Tryb dostępu: [http://nobelprize.org/nobel_prizes/ /economics/laureates/1996/index.html]. Dokument elektroniczny, Tryb dostępu: [http://nobelprize.org/nobel_prizes/ /economics/laureates/2005/index.html]. Dokument elektroniczny, Tryb dostępu: [http://nobelprize.org/nobel_prizes/ /economics/laureates/2007/index.html] Drabik E. 1998 Elementy teorii gier dla ekonomistów, Białystok. Gomolińska A. 1999 Rule Complexes for Representing Social Actors and Interactions, „Studies in Logic, Grammar, and Rhetoric”, nr 3(16). Kalinowski S. 2008 Konkurencja lub kooperacja. Studia eksperymentalne nad funkcjonowaniem rynków, Poznań. Kamiński J. 2003 Negocjowanie – techniki rozwiązywania konfliktów, Warszawa. Malawski M., Wieczorek A., Sosnowska H. 1997 Konkurencja i kooperacja. Teoria gier w ekonomii i naukach społecznych, Warszawa. Pawlak Z. 1983 Systemy informatyczne, Warszawa. Reiter R. 1980 A logic for default reasoning, „Artificial Intelligence”, nr 13. Roszkowska E. 2002 Komunikacja w negocjacjach a kompleksy reguł, „Optimum. Studia Ekonomiczne”, nr 1(13). Roszkowska E. 2007 Modelowanie procesów decyzyjnych oraz negocjacji za pomocą kompleksów reguł, Białystok. Roszkowska E. 2003 Wykorzystanie reguł do konstrukcji komunikatów w negocjacjach, „Optimum. Studia Ekonomiczne”, nr 1(17). Roszkowska E. 2007b Zrównoważony rozwój jako równowaga dynamiczna w uogólnionej grze społecznej, „Ekonomia i Środowisko”, nr 1(31). Roszkowska E. 2009 Koncepcja optimum społecznego w ujęciu kompleksów reguł, [w:] Podlasie regionem przyszłości, (red.) A. Bocian, Białystok. Roszkowska E. 2009 Optimum społeczne a zrównoważony rozwój, [w:] Od konsumpcji ekorozwoju do ekonomii zrównoważonego rozwoju, (red.) D. Kiełczewski, Białystok. Watson J. 2005 Strategia. Wprowadzenie do teorii gier, Warszawa. OPTIMUM. STUDIA EKONOMICZNE NR 4 (48) 2010 Piotr WOJEWNIK, Tomasz KUSZEWSKI1 FROM CRISP OPTIMIZATION TO FUZZY APPROACH AND MACHINE LEARNING – OPERATIONS RESEARCH EVOLUTION Summary In this paper we try to outline the mainstreams of operations research and to classify them as completed and underway in methods and applications. In particular, we consider the methods of decision support with subjective criteria evaluation in vaguely described situations. The aim of the paper is to articulate the current trends and challenges in operations research. Keywords: operations research techniques, OR history, OR directions 1. Introduction Let us start this draft on the operations research history with definition of some terms crucial in further considerations. The first term is operation regarded by military people as the overall procedures and processes performed at various places at various moments of time planned to achieve common goals. Let us note that operation means a complicated, planned action aimed at achieving particular goals. Completion of the operation requires decision-making, in particular, preparation of some fractional plans for feasible actions, regarding the boundaries and the goal of the operation. The decision making process might be presented in a model way with the following elements: admissible decisions, finite set of evaluation criteria and some decision rules, describing how to take the decision regarding the introduced criteria. The examination of the decision-making model is the subject of the science discipline called operations research2, OR. In particular, OR deals with analysis of the targeted activities, generation and quantitative evaluation of the decisions. Since we recognize specified theory, models and algorithms, then the operations research appears to be an autonomous scientific discipline. 1 Dr Piotr Wojewnik and dr hab. Tomasz Kuszewski, prof. SGH, are research workers at Division of Decision Analysis and Support at Warsaw School of Economics. 2 In the British literature you can find the term operational research, while American scientists prefer operations research. From Crisp Optimization to Fuzzy Approach… 83 The problems solved by the pioneering research teams facilitate defining the operations research. It is a scientific discipline that applies the mathematical3, statistical and simulation methods to find recommendations in decision-making problems. Grabowski [Grabowski 1980] points out, that the decision- making supported by operations research follows the phases: 1. problem formulation, 2. mathematical model creation, 3. model solution identification, 4. solution evaluation and model verification, 5. identification of the decision and introduction of the control system. The operations research created universal and elastic procedures for decision-making and these methods enabled successful support of decision-makers in complex situations. The procedures engage at least two parties: a decision-maker and an analyst. The decision maker is a problem owner and he/she helps the analyst to understand the problem, see (1) in Grabowski’s [Grabowski 1980] classification. After an inspection of the problem the analyst proposes its formal description – model, see (2). The next phase is the introduction of the algorithm recommending solutions of the model, see (3). To recognize the influence of environmental changes to the decision, the analyst performs the sensitivity analysis of the solutions, see (4). In the final phase the recommended decision is presented to the decision maker, see (5). The procedure appears to be effective in each highly structured decision problem, where it is possible to present the quantitative model. 2. The beginnings of operations research The scientific discipline operations research came forward in the 20th century but even before people formulated the decision making models. For example Leonard Euler, great enthusiast of walking, considered if it is possible to start and finish at the same point and walk through any of seven Königsberg bridges only once4. We might say Euler defined the admissible decision. In 1955 Merril Flood completed the description with the rule of the shortest path and as a result he formulated the classic salesman problem. In 1741 a servant of the French king Louis XV, the military engineer, Louis de Cormontaigne was engaged to build the towers northern of the country. After 72 years of Louis XIV realm the monarchy couldn’t afford the venture, so the Cor3 The linear programming exploits the Fourier method (1824) of solving the system of inequalities. The non-linear programming applies the mathematicalk tools, like: Lagrange multipliers, steepest descent method by Cauchy [Cauchy 1847], Farkas lemma (1902) and the minmax theorem by von Neumann (1928). The descrete problems are solved with some combinatorial methods, where the definition of regular graph was introduced by Brunel in 1894 already, and the most important publication are “Nets (or graphs)” de Sante-Lague from 1926 and “The theory for finite and infinite graphs” by Konig (1936), see: [Gropp 2004]. 4 The game theory enthusiasts present this story as an example of graph construction and the beginning of this science discipline and topology. 84 Piotr Wojewnik, Tomasz Kuszewski montaigne considered the problem, how to maximize fortification moment – number of defense days per investment unit5. Today we would say that the engineer solved the problem of effective allocation of limited resources. In 1776 Louis XVI asked the mathematician Gaspard Monge to create the ground communication network in France. Monge considered the problem of soil movements to minimize the costs. During the First World War Frederick Lanchester proposed the battlefield model considering the combat power of the parties, and Thomas Alva Edison developed the model of fighting the submarines. These examples prove that in the beginnings the operations research models and their solutions were in the scope of military. In the 30s of the 20th century the international circumstances created the positive atmosphere for development of the new scientific discipline. In Great Britain the Air Ministry considered the military threat of British territory and decided to employ some modern technologies for air defense. Among other the Ministry applied new device – radar – and in 1936 in the northeastern coast some radiolocation stations were built. The project leader, A.P. Rowe, found that the system is technically prepared to identify the airplanes, but its effectiveness is quite low and some research on its operational aspects is needed. Thus, in 1937 the British for the first time used the expression “operational research” to call the specific proceeding activities preparing the Great Britain for the military conflict with Germany. In 1938 the Coast Defense Headquarters gathered the scientific team under command of young physicist – Patrick Blackett. The team included mathematicians, physicians, statisticians, biologists, psychologists and economists. It was called “the Blackett Circus” because of nonstandard framework and methods, see: [McCloskey 1987 a, b, c]. The team supported the cooperation of radars, air defense systems and civil defense during the German airstrikes, planning of British airstrikes, and arrangement of sea convoys. The recommendations of the scientists were fortunate, so “the Blackett Circus” was replicated in other British forces and also in US Army. In 1942 P.M. Morse gathered interdisciplinary team to create some methods to protect the sea convoys against the submarine strike, see: [Morse 1986]. New institutions were founded: in 1942 United Kingdom Naval Operational Research, United States Navy Antisubmarine Warfare Operations Research Group, United States Air Force Operations Research, and in 1945 – United States Navy Operations Evaluations Group. During the Second World War in the United States of America the operations research developed also in civil organizations. The partition observed in that time decided over development of many scientific disciplines from the field of decision support. Deterministic problems were the focus of Cowles Commission for economic research. The decision making under uncertainty was the concern of the Massachusetts Institute of Technology, while the conflict situation was examined by Rand Corporation. The Rand research started the game theory, while the MIT works – queuing, 5 Cormontaigne to solve the problem created and applied the war game, being till now the classical example of managerial game. From Crisp Optimization to Fuzzy Approach… 85 renewal and inventory theories. In the following parts we will focus on the operations research based on deterministic model of decision problem. In 1949, Cowles Commission organized at University of Chicago conference to present the results of operations research to the world. It was the symbolic beginning of the quantitative description in the civil sector of the economy, both on a micro and macro scale. The optimization models were created one after another: in 1948 – the macroeconomic model of the US economy; in 1951 – the US model of petroleum rafination; in 1953 – the US model of agricultural mass-production; in 1953 – the US model of perishable goods distribution; in 1954 – the UK model of steel melting; in 1955 – the US model of internal air traffic; in 1956 – the US model of telecommunication network; in 1957 – the US model of oil fields exploration; in 1957 – the French model of energy production. There is much more applications of the operations research, but the presented examples prove the capabilities and success of the approach. The expansion of the operations research was the result of the successful pioneering applications and critical discussion of the basis models. In the following years both the theory and the models enabled a description of more complex situations. Consideration of the non-linear admissible set and criteria stimulated progress in convex optimization with the first publications by R. Dorfman and H.W. Kuhn and A.W. Tucker in 1951. The linear optimization model is static. The next step in approximating the real word problems is introduction in dynamic optimization model by L. Kantorovich in 1951 and R. Bellman in 1957. The multitude of applications unfolded the need for introduction to the quantitative models the natural valued numbers as the representation for the decision characteristics. The need was fulfilled by discrete optimization started by G.B. Dantzig, L.R. Ford and D.R. Fulkerson in 1954, and R.E. Gomory in 1958. The next difficulty in the real problems matching was the lack of randomness in the decision models. In 1959 A. Charnes and W.W. Cooper, and in 1960 – A. Madansky and G.B. Dantzig – proposed the stochastic optimization models. The separate branch of the operations research are the models of network problems. In 1956 J. Kelley and W. Walker developed CPM (Critical Path Method) to analyze the multitask problems, where the duration of particular tasks is constant. D. Malcolm, J. Roseboom and C. Clark introduced PERT (Program Evaluation & Review Technique), where the length of particular tasks is described with random variable of given distribution. The expansion of optimization theory and algorithms enabled operations research to support wide scope of problems. There were always some difficulties like forcing the decision-maker to use the one only optimization criterion and supporting only the well structured decision problems. 3. Single criteria optimization methods In this paragraph, we present the most important trends in single criteria methods of operations research, see: [Gass 2002]. In particular, we will show the basic linear and 86 Piotr Wojewnik, Tomasz Kuszewski integer programming methods, constrained and unconstrained nonlinear optimization procedures. The definitions of optimization problems are presented in Appendix. 3.1. Linear optimization The linear optimization begins with Leonid Kantorovich working on production planning and organization in 1938 – 39. In 1942 Kantorovich published paper on mass products transportation. In 1941 Frank Hitchcock formulated and presented a solution to the problem of general distribution costs if there is m sources and n destinations of given supply and demand. Similar problem was considered in 1944 by Tjalling Koopmans6. In 1945 George J. Stigler7 worked on the diet problem, where the cost of food provision is minimized. Each of the presented cases required original method adjusted to the real world problem. In 1947 George B. Dantzig entitled them as linear programming8. This year Dantzig formulated universal procedure to solve the decision problems described by models with decisions represented by n-dimensional vectors and linear choice function and constraints. The procedure is called simplex method9, see: [Dantzig 1949]. The simplex method starts from feasible solution that could be hard to be found. Initially, the difficulty was solved with the two-stage method and the penalty method with some dummy variables eliminated from the model during the calculations. C. Lemke in 1954 proposed the original solution – dual simplex method, see: [Dorn 1963]10. Another difficulty of the simplex method is the exponential numerical complexity11. The large scale optimization problems with block structure12 can be decomposed into a series of reduced problems and the approach decreases the numerical complexity of the solution identification procedure, see: [Dantzig, Wolfe 1960]. For linear problems L.G. Khachiyan published in 1979 the ellipsoid algorithm of polynomial complexity. L. Kantorovich and T. Koopmans are Nobel Prize winners in economics from 1975. G. J. Stigler is a Nobel Prize winner in economics from 1982. 8 Some researchers claim T. Koopmans to introduce the term. The label “linear programming” is not precise and even Dantzig proposed other form: “programming in a linear structure”. However, the shorter form appeared to be more attractive even if a little bit ambigous. 9 The works over concept was supported by L. Hurwicz and T. Koopmans. 10 The initial point of the dual simplex method must be only dual feasible. In the following interations the solutions exceed the primary conditions by dimnishing values, see: [Dorn 1963]. 11 In extremely uncomfortable situation for n decision-variable-model the simplex method requires examination of 2n trial solutions before the optimum is identified, see: [Klee, Minty 1972]. 12 The decomposition of linear program introduced by Dantzig and Wolfe [Dantzig, Wolfe 1960] can be applied to the problems, where among the n variables and k constraints we can identify the variables 1n1 (from 1 to n1) emerge only in the conditions 1k1, the variables (n1+1) n2 - in the conditions (k1+1) k2 etc. Therefore we can specify the groups of conditions, separated as to the variables. 6 7 From Crisp Optimization to Fuzzy Approach… 87 The even faster algorithm was introduced by N. Karmarkar [Karmarkar 1984], where the optimal solution is found after the analysis of the feasible interior points series13. 3.2. Integer programming The numerical methods for optimization with integer decision variables started with R.E. Gomory [Gomory 1958] cut off method14. A.H. Land and A.G. Doig [Land, Doig 1960] introduced the branch and bound method to find the optimal solution within the smaller number of iterations15. The method of J.F. Benders [Benders 1962] outperforms the efficiency of the Gomory’s procedure. In the Benders’ method the problem is decomposed into the basis and additional, and they are solved interchangeably in two separate spaces of continuous and integer variables16. The methods by Gomory, Land and Benders are applicable to any integer optimization tasks, but for the problems of given structure it is possible to introduce some more efficient methods. For the assignment problem H.W. Kuhn [Kuhn 1955] proposed the Hungarian method17 of polynomial complexity (number of operations proportional to n4), while the full search requires analysis of (n!) solutions. Basing on Hungarian method R.L. Ford and D.R. Fulkerson [Ford, Fulkerson 1956a] formulated the method for the transportation problem18. Karmarkar [Karmarkar 1984] transforms the constraints to equality form and the solutions to the unary length, i=1…n xi=1. He cyclically identifies the minimal admissible solution x* over the sphere centered at [1/n]i=1…k interior to the simplex defined in Rn and next the solution space is transformed that x* is the center [1/n]i=1…n of the next sphere. This approach enables optimal solution identification in the polynomial time – proportional to n3.5. 14 Gomory leaves the condition for integer variables out of the problem. Whereas, he sequentally extends the linear conditions cutting off the previous optimal solution until the final solution will be integer. 15 Land and Doig (1960) also eliminate the integer condition in their branch and bound method. Whereas, in each iteration they solve a pair of problems with disjoint feasible sets. The feasible sets are created basing on previous solution, where the coordinates are rounded up and down and get the values for the constraints added in next iterations. 16 Benders (1962) divides the variables into the basis and additional and thus creates the basis and additional decision space and optimization problem. The problems are solved interchangeably where for each trial solution of the additional problem the optimal solution of the basis problem is found ad vice versa. If the common solution is suboptimal then an eliminating condition is added. The Benders decomposition can be considered as dual form of the Dantzig-Wolf decomposition, see Beale (1965). 17 Let us assume the cost of execution n tasks by n employees is given in a matrix form. The Hungarian method can be revealed as follows. Find the minimal elements of each row and substract them from particular rows. Find the minimal elements of each column and substract them from particular columns. Erase the rows and columns with zeros. If the number of erased rows and columns is smaller than n – find the minimal value of the rest, substract it from the rest and add it to the crossing fields of substracted rows and columns. Find n zeros spanning all the rows and columns of the matrix, see Kuhn (1955). 18 Given k sources and n destinations, the level of supply and demand at particular points and the cost of delivery between all the points, the problem of choosing the amounts transported between particular points minimizing the total delivery cost is called the transportation problem. 13 88 Piotr Wojewnik, Tomasz Kuszewski The transportation problem can be presented as a linear program and solved with simplex method – analysis of (2kn) solutions. The method of Ford and Fulkerson enabled reduction of the problem complexity to polynomial (n4). Ford and Fulkerson [Fulkerson 1956b] published also the method for identification of the maximal flow in the network19. The same year Du Pont Corporation started works on project management resulting in 1959 with critical path method, CPM, by Kelly and Walker, see: [Weaver 2008]. CPM exploits the linear structure and the graphical representation of the problem20 to identify the minimal execution time for the project and the activities critical to achieve it. From 1990 the integer problems are successfully solved with genetic algorithms where the effectiveness of the algorithm depends mainly on the problem structurization and merely on the procedure itself, see: [Michalewicz 1992]. The integer problem structure and the dedicated optimization methods prove, that often the problems of simple structure require algorithms of exponential complexity and just the restructurization enables introduction of some efficient procedures. 3.3. Unconstrained nonlinear optimization The methods for nonlinear unconstrained optimization started long before the operations research because the first algorithms were proposed by Cauchy [Cauchy 1847] and Newton, already see: [Ypma 1995]21. They were focused on the convex differentiable problems. The Newton’s method appeared to be efficient in convex problems because relatively small number of iterations enables identification of the local optimum neighborhood. Whereas the method requires inverse of Hessian matrix (second order derivatives matrix) at each trial solution. Thus for the large number of decision variables the method rapidly slows down. In the 60s the problem was tackled by Broyden, Fletcher, Goldfarb and Shanno introducing the variable metric techniques – called quasi-Newton methods, where the Hessian matrix is not calculated and just ap- 19 If it is possible to travel form A to B with different crossing paths and the capacity of these paths varies, then the procedure by Ford and Fulkerson enables estimation of maximal flow between A and B. 20 The method shows the dependencies between the basic elements of the project on a graph. It helps to identify the critical activities and choose the actions to be shortend, if the project has to be executed earlier than it is possible at current activities length, see: [Weaver 2008]. 21 The methods of optimal solution identification in an unconstrained nonlinear problem consist of iterative review of trial solutions and verification whether optimality conditions are met. The trial solutions can be found with direction methods. In particular, for given solution the search direction and the step establish next trial solution. For the minimization problems Cauchy [Cauchy 1847] proposed the steepest descent method, where the search direction is a vector opposite to the gradient of the optimized function at current solution. Whereas, for weak conditioned Hessian matrix the method is quite slow. The faster method was proposed by Newton in 1687, see: [Ypma 1995]. Newton proposes to exploit the curvature of the optimized function next to its slope (gradient value). In particuar, he proposes the search direction as an multiplication of inverse Hessian matrix and the minus gradient. From Crisp Optimization to Fuzzy Approach… 89 proximated basing on the trial solutions and gradient22, see e.g.: [Luenberger, Ye 2008]. To efficiently find the optimal solution we can also employ the conjugate gradient method introduced with intent to solve the systems of equations, see: [Luenberger, Ye 2008]23. The typical application of the unconstraint optimization is estimation of the econometric model parameters with the maximum likelihood method, see: [Greene 2003; Maddala 2001], or identification of the neural network parameters, see: [Masters 1993; Bishop 1995]. If the optimized function is not differentiable or convex, then the presented methods do not guarantee convergence to the optimal solution because of local optima problem. Among the methods robust to the problem we can enumerate the artificial intelligence heuristic methods like simulated annealing, taboo search, ant colony optimization and evolutionary algorithms. The only problem of these methods is the limited confidence of their convergence, see: [Goldberg 1989; Michalewicz 1992]. 3.4. Constrained nonlinear optimization The constrained nonlinear optimization started with works of Kuhn and Tucker [Kuhn, Tucker 1951] on necessary and sufficient conditions for the optimal solution in the differentiable problem24. One of the first procedures for identification of the solutions was the Rosen’s gradient projection method [Rosen 1957]25 and the feasible direction method by Zoutendijk [Zoutendijk 1959]26 formulated for C1 functions and linear constraints. For the nonlinear constraints Kelley [Kelley 1960] intro- 22 Davidon, Fletcher and Powell and Broyden, Fletcher, Goldfarb and Shanno observed, that the inverse Hessian matrix used by Newton can be interpreted as a space transformation matrix, where the Newton method operates just like steepest descent. In quasi-Newton methods the space is transformed too, but the function is parametrized by the gradient value and trial solutions. 23 The steepest descent method in many iterations searches along the same direction and thus the efficiency is quite low. The method would be more efficient if the optimized function is quadratic, the variables are statistically independent and the search direction follows the versors. This postulate is addressed by conjugate gradient method from 1952, that transforms the variable space to the one with quadratic goal function and orthogonal search directions. As a result the conjugate gradient method appears similar both to steepest descent and quasi-Newton, see: [Luenberger, Ye 2008]. 24 The optimization methods generaly iteratively review the trial solutions and verify, whether the optimiality conditions are met. The Kuhn-Tucker conditions (1950) enable such verification for the optimization problems with differentiable goal function and constraints. 25 The method of projected gradient by Rosen [Rosen 1957] assumes, that the trial solutions will be identified using the direction opposite to the gradient (for minimization problems). If the method achieves the edge of the feasible set, then the following trial points are identified with the direction as minus gradient projected onto the tight constraints. 26 The feasible direction method by Zoutendijk [Zoutendijk 1959] assumes the direction as the one closest to the gradient (closest in terms of the angle), and do not exceeding the feasiblity constraints. 90 Piotr Wojewnik, Tomasz Kuszewski duced the cutting plane method (similar to Gomory’s approach), where the trial solutions are external to the feasibility set27. If there is a lot of decision variables and constraints the methods of Rosen, Zoutendijk and Kelley are inefficient, so the new concepts were developed. In particular, there are methods of problem restructurization, that it is possible to apply the unconstraint optimization procedures. In 1967 Wolfe presented the reduced gradient method28 for the problems with linear constraints29, see: [Luenberger, Ye 2008]. Whereas Fiacco and McCromick [Fiacco, McCromick 1964] introduced penalty to the goal function if the constraints are exceeded. One of the side-effects of the constraint optimization development is formulation of the presentation standard in the operations research – the necessary and sufficient conditions. The methods presented in this paper support decision processes with one-goal function. Whereas, in practice, we can observe problems with a few goal functions and those evaluations can be subjectively judged by the decision maker. The subjectivity of the decision maker in choice and application of the goal functions is considered by the operations research as multicriteria decision making methods, see: [Slowinski 1984; Korhonen et al. 1992]. 4. Polyoptimization methods In this paragraph we present the most important trends in polyoptimization methods. In particular, we will show the basic a priori, a posteriori, and dialog methods, see: [Slowinski 1984; Korhonen et al. 1992]. The definitions of polyoptimization problem is presented in Appendix. 4.1. Introduction In previous sections we mentioned two constraints for the operations research models: single criterion and well structurization of the problem. The extension of the criteria number was considered by D. Gale, H.W. Kuhn and A.W. Tucker in 1951. They proposed vector optimization as a tool for analysis of bunch of decision crite27 The cutting plane method by Kelley [Kelley 1960] follows the Gomory approach for the integer problems. The feasible set is externally aproximated by the linear constraints. After identification of the trial solution it is verified for the nonlinear conditions. The infeasible solutions are eliminated with additionl linear constraint. 28 The reduced gradinet method by Wolfe assumes the decision variables can be divided into basis and non-basis. If the system of equations represents the feasible set, then it can show the dependency between the basis and non-basis variables. Thus the basis variables might be eradicated from the goal function and the problem might be solved as unconstraint optimization task of non-basis variables only. The final basis variables values can be found from constraints and solution of the unconstraint problem. 29 The early versions of the nonlinear optimization methods were dedicated to the problems with nonlinear goal function and linear constraints. Later the approaches were supplemented with nonlinear constraints. The example method is to expand the nonlinear function into a Taylor series of the rank one at every trial solution and to solve the local-linear problems. From Crisp Optimization to Fuzzy Approach… 91 ria instead of single goal function model. Unfortunately, this approach leads to an ambiguous model, because in general there exists an infinite number of possible solutions30. The next years were spent on trials to restructurize the multicriteria problem to the single-criteria-structure. One of the most well-known proposals is the goal programming by A. Charnes and W.W. Cooper from 1959. In 1960 P. Fishburn pointed out that the method of criteria aggregation by Charnes and Cooper – metacriterion – chooses different solution than the bunch of criteria. This observation leads researchers to the well known in economics concept of V. Pareto from 1906. He defined the best possible decisions as the ones, where improvement of any criterion causes decrease at least in one other criterion. Basing on the concept of Pareto B. Roy [Roy 1968] formulated the classification method if the number of criteria is greater than one and in 1975 M. Zeleny, S. Zionts, J. Wallenius and B. Roy published pioneering papers on multi-criteria optimization. In this moment, the operations research overcame the first of presented obstacles – pressure to formulate only one goal function by a decision- maker. Since the number of criteria can be greater then one and the problem structure is more complex than in single-criteria-case, the preferences of decision maker have to be presented in more detail than the simple direction minimization or maximization. This is also the reason for special role of the additional information gathering in multicriteria methods, while the optimization procedures underline only the information processing phase, see e.g.: [Kaliszewski 2006; Roy 1990; Trzaskalik, Michnik 2002]. The sequence of additional information retrieval and information processing defines the basic types of multicriteria methods – a priori (information is articulated before the Pareto-optimal solutions are identified), a posteriori (after the Pareto-solutions are found), and dialog methods (during the process of Pareto-optimal solutions retrieved), see: [Slowinski 1984; Korhonen et al. 1992]. 4.2. A priori methods The a priori methods for multicriteria analysis assume, that it is possible to formulate the structure aggregating the fractional criteria. The metacriterion can be applied to identify the final recommended solution. The decision maker formulates the structure directly or reveals some information enabling the structure identification even before the search process begins. The a priori methods explore various aggregation methods e.g.: utility function, outranking relation and decision rules, see: [Korhonen et al. 1992; Spronk et al. 2005]. Among the a posteriori methods we should mention the multiattribute utility theory methods, MAUT31, exploring the scalarizing functions like CES, exponential, quasilinear etc., see: [Roy 1990]. 30 If the decison maker preferences for the vector goal function are „min” or „max”, then in general there is no decision variant prefered to any other solutions. In terms of mathematics there is no the greatest element in the feasible set, even if the set is bounded and closed. 92 Piotr Wojewnik, Tomasz Kuszewski The multicriteria utility function can be estimated basing on the alternatives ranking produced by the decision maker, see e.g. UTA and UTADIS methods by JacquetLagreze and Siskos [Jacquet-Lagreze, Siskos 1982], and Zopounidis and Doumpos [Zopounidis, Doumpos 2000]. The alternative solution was presented by Bana e Costa and Vansnick [Costa, Vansnick 1994] in MACBETH, where the decision maker compares the pairs of decision variants evaluating the power of preference between them. The relation can be applied to estimate the parameters of quasi-linear utility function. The similar approach was proposed by Saaty [Saaty 1978] in AHP method32. The goal programming by Charnes, Cooper and Fergusson [Charnes, Cooper, Fergusson 1955] can be regarded as MAUT, too. The method assumes existence of a reference point. The point includes the expected level of particular criteria and utility is inverse proportional to the distance from the reference point in weighted minimax metric33. Keeney [Keeney 2002] warns against mechanical application of MAUT. Before the function is chosen and estimated Keeney suggests careful identification of the goals, goal achievement measures, the feasible decisions and the starting point. Otherwise, MAUT methods produce suboptimal decisions. These restrictions stimulated the researchers to develop alternative multicriteria decision making methods. The adversaries of MAUT point out that it is impossible to verify the basic assumption on the existence of utility function, see: [Vincke 1986]. Moreover, Kaminski [Kaminski 2007] proved, that there are some preference structures where the scalarizing function does not exist. In particular, Kaminski shown that for multicriteria problem there is no scalarizing function additive and multiplicative at the same time. Next to the MAUT approach we can find some other a priori methods based on outranking relation started with ELECTRE method34 (fr. elimination et choix traduisant la realite) in 60-ties of XX age, see: [Roy, Vanderpooten 1996; Rousseau et al. 2000]. Brans et al. [Brans et al. 1986] developed ELECTRE into PROMETHEE (preference ranking organizing method of enrichment evaluation), where the combination of the partial consistency indices is nonlinear. Brans et al. introduced the visual representation of consistency index in the form of graph to supply the decision maker with some additional information. In the case of outranking methods the assumption on transitivity and completeness of preferences is not required. From this point of view the outranking methods 31 In economics the utility function is defined as a measure of relative satisfaction from goods and services consumption. It is exploited to describe the economic behavior of individuals in terms of utlity maximization, see Mill (1863). 32 Decision maker using AHP also creates some relations, whereas she compares the pairs of decisions separately for every criterion. Moreover, she compares the criteria criteria between each other. The final relation are used for estimation of particular criteria weights in the scalarizing function. 33 The problem of Charnes, Cooper and Fergusson with linear constraints and goal functions can be solved with linear optimization methods. 34 Roy assumes that the decision variants are comparable in pairs because of the criteria values. In particular, the difference of given criterion values denotes partial consistency index describing the preference over the pair of decision variants for given criterion. The linear combination of partial consistency indices constitute the global consistncy index describing the global preference over the pair of decision variants, see Roy and Vanderpooten (1996). From Crisp Optimization to Fuzzy Approach… 93 cover more application area than the MAUT procedures. Whereas Vincke [Vincke 1986] underlines that the outranking methods can be used for finite feasible sets only and the solutions can be paradoxical, because the method lacks of the theoretical background. It is possible to identify another type of a priori methods – decision rules based on rough sets theory, see: [Pawlak, Slowinski 1994]. The rough sets methods assume that the procedure starts with historical data set – so called decision table. The table includes some description of particular alternatives because of given attributes. Pawlak and Slowinski proposed to identify the rules only for reduced number of attributes, so called reduct35. Greco et al. [Greco 2001] developed the approach of Pawlak and Slowinski to problems, where the categories are ordered. In particular, the identification of reduct in Pawlak’s approach is based on indiscernibility relation, while Greco proposes dominance relation. In practice, the application of rough set model might be difficult, because the number of rules is large, usually. In such a case the analysis, verification and interpretation of the model is very complicated. The a priori procedures appear to be clear and intuitive methodology for multicriteria problems analysis, but there are three obstacles for their successful applications: verification, static approach and finite feasible set. The problems with verification of a priori methods arise when someone tries to prove the existence of the utility function. The second limitation is expectation on time-consistent evaluations of the decision maker. The a priori methods do not assume any interaction with decision after optimization phase. Thus, it is expected, she should accept the solution recommended by the procedure. The third restriction for a priori methods is related to rather small data sets, because the decision maker is expected to formulate the ranking, see e.g. UTA, or relation between the variants, see e.g. MACBETH, AHP or ELECTRE. Such descriptions can be presented only for finite data sets. 4.3. A posteriori methods In the a posteriori methods the search phase is before the interaction phase. In particular, after the Pareto-optimal set is estimated the decision maker chooses the recommendation by herself. If the decision problem is represented by optimization model consisting of goal functions and feasibility constraints, then the methods identifying the efficient frontier are called vector optimization methods, see: [Geoffrion 1968]. For the linear model the method of solution identification was presented by Yu and Zeleny [Yu, Zeleny 1976; Slowinski 1984] and Hartley [Hartley 1985], and for the non-linear problems36 – Chankong et al. [Chankong et al. 1985]. The non-linear prob35 The attributes from reduct enable to distinguish the observations with the same precision as the whole set of attributes. 36 Chankong et al. [Chankong et al. 1985] identify the efficient frontier with -constraints method, where only one criterion is optimized and the rest of criteria appear as -constraints with sequentially changed value. 94 Piotr Wojewnik, Tomasz Kuszewski lems can be solved with genetic algorithms, see: [Coello 2006; van Veldhuizen, Lamont 2000]. The limitation for application of a posteriori methods is the assumption that after the efficient solutions are identified the decision maker can choose the recommendation by herself. Whereas, in the linear model with the five criteria and fifty constraints you might need about two thousand variants only to describe the efficient frontier, see: [Szapiro 1991]. The holistic review of these variants exceeds the capabilities of the decision maker. In practice, some filtration of the Pareto set is needed what Leeds to the dialog methods, see e.g.: [Trzaskalik, Michnik 2002]. 4.4. Dialog methods The dialog methods start with an observation that the simultaneous comparison of large number of efficient solutions exceeds the cognitive capabilities of the decision maker. Moreover, she can broaden her knowledge of the problem during the recommendation search, and thus she can change the description of the problem. Therefore, in the dialog approach the phases of information gathering and optimal variant search are applied sequentially. In particular, the decision maker evaluates the trial solutions and this opinion is exploited to find another efficient solution, see e.g.: [Kaliszewski 2006; Roy 1996; Slowinski 1984; Trzaskalik, Michnik 2002]. The interactive methods differ as to the structurization of the decision problem, and in particular, as to the set of parameters describing the decision maker preferences. Kaliszewski [Kaliszewski 2004] distinguishes three groups of interactive methods: weighted methods, constraints methods and reference points methods. Each approach enables gradual identification of Pareto solutions in convex problems, in detail, the manipulation of the weights, constraints and reference points enables search through the efficient solutions until the satisfactory variants are found. The interactive weighted methods assume there is a mathematical structure aggregating the values of partial criteria. In the literature there are various types of aggregating functions: linear, Chebyshev, and augmented Chebyshev of type I and II, see e.g. Wierzbicki (1986), Kaliszewski (2006). The decision maker reviews and evaluates the subsequent efficient solutions. The revealed information changes the weights of the aggregation function and then the next trial solution is identified. Geoffrion et al. [Geoffrion et al. 1972] introduced a procedure, where the metacriterion is a linear combination of the partial criteria gradients and the weights result from pairwise comparisons of trial solutions. Zionts and Wallenius [Zionts, Wallenius 1976] proposed to bind the metacriterion to the decision, whether the particular coordinate of current trial solution is accepted37. Steuer and Choo [Steuer, Choo 37 In the augmented method Zionts and Wallenius [Steuer, Choo 1983] introduce a few efficient solutions to the decision maker. She chooses the best among them and the procedure identifies some variants neighboring the solution. From Crisp Optimization to Fuzzy Approach… 95 1983] propose to employ the ideal point38. The weighted aggregation function is exploited also by Belton [Belton 1985] in VISA method. She focused on the graphical representation of the problem. In her approach the trial solution changes if the weights are modified. Szapiro [Szapiro 1991] underlines that the main drawback of interactive weighted methods is the key concept of aggregation function. The approach assumes that the partial criteria are substitutive and the weights are kind of substitution coefficients, what is a strong limitation for practical applications. The interactive -constraints methods operate through optimization of one criterion and formulation of some -constraints with the rest of criteria39. Benayoun et al. [Benayoun et al. 1970] in STEM approach propose to identify the trial solutions with Chebyshev metric. The -constraints appear if the decision maker evaluates which criteria should be changed by what number. Haimes and Hall [Haimes, Hall 1974] in SWT method propose to introduce the substitution function in the Lagrange form for every trial solution40. In 1981 Sakawa presented SPOT where the constraints are modified following the marginal substitution rate between the criteria. Sakawa assumes that the decision maker can formulate the rate for every trial solution. The interactive -constraint methods are specific as to the information type provided by the decision maker. Therefore, they might be problematic to the users not familiar with academic mathematics. Moreover, the final recommendations might be dominated. The reference point methods employ some particular points: the ideal and the worst41, to describe the decision maker’s aspiration and reservation level. Conceptually, the final solution should be possibly close to aspiration level, but in every iteration the metric and the reference points are changed as the decision maker evaluates current solutions. In the reference point method Wierzbicki [Wierzbicki 1982] considers the neighborhood of the point yo, closest to the aspiration level y* in the Chebyshev metric. The analysis of such neighborhood leads to the next trial solution42. The approach by Jaszkiewicz and Slowinski [Jaszkiewicz, Slowinski 1999] – Light Beam Search, LBS43 38 The subsequent trial solutions minimize the distance from ideal point in Chebyshev sense, but the weights are inversly proportional to distance of previous trial solution for each criterion separatelly. 39 The constraints of m-1 criteria functions, , determine the effifcient solution. If the decision maker modifies the next trial solution might be identified. 40 In SWT the Lagrange coefficients might be interpreted as substitution coefficients. The interaction is focused on formulation by the decision maker the indiscernibility ranges for the coefficients in the following itertions. 41 In the maximization of [fj(x)]j=1…m over X the starting ideal and worst points cen be defined by yU = [maxxX fj(x)]j=1…m and yN = [minxX fj(x)]j=1…m. 42 Wierzbicki [Wierzbicki 1982] propses to disturb the aspiration level on particular coordinates with d=||yo–y*|| and to identify the related efficient solutions. The decision maker will accept one of the trial solutions directly or modifies y*. In the following iterations the new trial solutions are presented to her. 43 LBS empoys augmented Chebyshev metric, where the weights are inversly proportional to distance from the ideal and the worst on particular criteria. In the neighborhood of the trial solution the 96 Piotr Wojewnik, Tomasz Kuszewski – is similar. Whereas, the high dimensionality of the problem leads to the analysis of many solutions at particular iteration. It could be problematic to many decision makers. The problem is tackled by Korhonen and Laakso [Korhonen, Laakso 1986] who propose to compare the points basing on their graphical representation44. We can distinguish a separate group of interactive reference point methods, where the final solution appears after sequential evaluation of single trial solutions: GUESS by Buchanan [Buchanan 1997], STOM by Nakayama et al. [Nakayama et al. 1995], NIMBUS by Miettinen and Makela [Miettinen, Makela 2000], and the bireference procedure, BIP, by Michalowski and Szapiro [Michalowski, Szapiro 1992]. GUESS similarly to Wierzbicki’s method [Wierzbicki 1982] assumes the decision maker to modify the reference point by herself. In STOM the modification of the reference point results from choosing the partial criteria to be worsened, to be improved or to be left, because the satisfactory level is already reached. Next, STOM requires formulation of expected changes in the criteria. The BIP method distinguishes similar groups of criteria, but it does not require information on the expected changes. The more general approach as to the criteria categories was presented in NIMBUS: expected improvement, improvement at least to y*, satisfactory level, possible to be worsened to , possible any change in the value. The BIP and NIMBUS methods generate the new reference points automatically, but NIMBUS explores only the aspiration level and BIP exploits the worst point, too. From this point of view the BIP method is closer to natural decision making incentives: to aim the goal and to avoid the punishment. 5. Optimization in non-point structures The presented approaches in operations research assume the decision situation might be represented by the points in Rn space. However, there are some decision problems where the knowledge of decision maker is biased and therefore it the information should be communicated to the analyst in some imprecise manner. 5.1. Stochastic optimization The operations research methods considering the uncertainty of the parameter values are called the stochastic programming models. In this case the formal description of the decision problem includes some random variables, see: [Dantzig 1955; Beale outranking relation, see e.g. ELECTRE method, some points are identified to be accpeted as final solution or new reference points have to be estimated. 44 Korhonen and Laakso proposed visual interactive method, VIM, where the range between the starting and reference points is considered as a set of aspiration points. Every point and the Chebyshev metric enables identification of one trilal solution. The trial solutions’ evaluations are presented in a graphical way. If one is accepted - the procedure ends. Otherwise the decision maker modfies the reference point. From Crisp Optimization to Fuzzy Approach… 97 1955]. Charnes and Cooper [Charnes, Cooper 1959, 1962, 1963] introduced the chance constraints model. Kataoka [Kataoka 1963] extended the model on uncertainty of goal function parameters. Wets [Wets 1966a, 1966b] presented the broad analysis of two-stage stochastic problem. Whereas for the multistage problems the most important solution was introduced by Birge [Birge 1985] where the Benders decomposition is used to divide the variables into sets appearing in different optimization stages. Application of the stochastic optimization methods requires differentiability of the functions and convexity of the feasible set. These conditions are very strong and therefore a lot of decision problems in banking, insurance and queuing systems can not be solved this way. The conditions could be omitted when the new approach was introduced. Numerical integration in the form of stochastic simulation, see: [Knowles 1989; Winston et al 1997], was possible with computerization of the population and diminishing costs in the 80s and 90s of the 20th century. 5.2. Fuzzy optimization The next field analyzed by operations research includes construction of optimization models for the problems described in natural language. Up to now the analyst operated only with numerical information, but yet she might utilize the phrases like “bad”, “poor”, “good” or “excellent”. The challenge can be tackled with fuzzy set theory by L.A. Zadeh [Zadeh 1965]. In particular, in 1970 R. Bellman and L.A. Zadeh and in 1973 K. Asai and H. Tanaka published the basis for the new branch of operations research – fuzzy optimization. The rules for operating with linguistic information enabled rapid growth computer support systems. The customized software facilitated a dialog between the decision maker and the machine without analyst interface. The early works on fuzzy optimization define the fuzzy optimization problem and the efficient solutions. In 1978 Widey and Zimmermann proposed to parameterize the membership value of the feasible decisions. The concept enabled restructurization of the problem to the crisp form and identification of the solutions with linear programming procedures. The same year Zadeh extended the concept of fuzziness on the concept of possibility. In this case the non-point description takes the form of two complementary functions: plausibility and necessity, see: [Inuiguchi, Ramik 2000]. The methods for multistage optimization problems where introduced in the 80s of the 20th century by Kacprzyk [Kacprzyk 1997]. Already the first fuzzy optimization methods enabled analysis of multicriteria problems. Bellman and Zadeh [Bellman, Zadeh 1970] identify the efficient solution with kind of goal programming method, but they present rather a concept than a practical routine. Wiedey and Zimmermann [Wiedey, Zimmermann 1978] and Verdegay and Chanas [Verdegay, Chanas 1983] parameterize the membership function to utilize the Bellman-Zadeh model as a multicriteria a priori method. Werners [Werners 1987] develops an interactive approach to Bellman-Zadeh model. The following versions of fuzzy model and interactive procedures were introduced by e.g. Baptistella and Ollero [Baptistella, Ollero 1980], Slowinski [Slowinski 1984], Rommelfanger [Rommelfanger 1989], Sasaki et al. [Sasaki et al. 1990] and Lai and Hwang [Lai, Hwang 1992]. 98 Piotr Wojewnik, Tomasz Kuszewski 6. The challenges of operations research In the 40s of the 20th century, the operations research were born. The childhood – the 50s – was spent on experiments: generating the possible scientific descriptions of real-world problems with the new tool. The youth – the 60s and 70s – broadened the application areas. The next period – the 80s and 90s – integrated the operations research with economics, management and information technology. The current adult operations research assimilate the results of other sciences in application of artificial intelligence in decision support systems. The history of operations research shows, that the main motivation for its development was the eagerness of the scientists to obtain the models describing possible lot of decision situations. They explored two fields: more and more complex decision situations and introduction of human behavior to the quantitative models. The current mathematical models employ non-linear functions, integer constraints and uncertainty of randomness, bounded information and subjective linguistic evaluations described with the probability theory, fuzzy set theory and rough set theory. On the other hand, there are models describing the human behavior: different decision of various decision-makers in the same situation, changeability of the evaluations and the educational process during the analysis. From this point of view the multicriteria models and their methods introduce decision maker subjectivity to the decision models. The other behavioral aspect of decision making is being considered since the 80s of the 20th century, when the computers became common to the public. Next to the decision maker and the analyst using the natural language there is a third party – computer – expecting exact numerical information. While the transformation of natural language to the numbers is not obvious the operations research focus more and more on effective communication facilities. The second motivation for the progress in operations research was striving for efficient methods in large scale problems. The large scale optimization models include tens of thousands decision variables and the analysis is possible only because of some standard notations and common computerization. Till the 80-ties of the 20-th century, before the age of personal computers, we could observe the rapid progress in the analytical methods dedicated to the convex problems. The wide-spread availability of large computational resources started the new methods – the heuristics like genetic algorithms, immune algorithms, ant colony optimization etc. On the contrary to the analytical methods the heuristics do not base on a strong theoretical background, but their effectiveness in the multimodal, ill-conditioned or non-differentiable problems is out of the question. Summarizing we can distinguish three mainstreams of current operations research: 1. More attention to human factor during the problem formulation. The application of computers increases the numerical capabilities of the decision maker, but it requires quantitative problem formulation. On the other hand, the problems tackled by the optimization methods are more and more influenced by the human factor. Therefore it is necessary to develop the From Crisp Optimization to Fuzzy Approach… 99 communication interface between the decision maker and the computer: clear, precise and interpretable to both sides, and customized to mathematical skills of the decision-maker. The interface means both the mathematical tools like fuzzy sets, and the graphical software. 2. The increasing position of dynamic restructurization of the optimization problems and interactive identification of the solution. The modern problem focused descriptions require new interdisciplinary research methods. For example, the subjectivity in problem formulation requires personalized methods of final solution identification. 3. The increasing position of the heuristics among the decision supporting methods. The heuristics poses huge potential to identify the optimization problem solutions significantly exceeding the capabilities of analytical methods. Whereas the theoretical background for heuristics is only drafted as to their convergence or the optimality conditions. The future success depends on the development of the best practices in choice and customizing of the heuristics to given optimization problem. The paper presents the authors' opinion on the operations research history and they take all the responsibility for presented contents. At the same time, the authors would like to express their gratitude towards prof. T. Szapiro, and dr P. Gasiorowski from Division of Decision Support and Analysis at Warsaw School of Economics for inspiring discussion and valuable comments to the early versions of this paper. Literature Bana e Costa C.A., Vansnick J.-C. 1994 MACBETH – An Interactive Path Towards the Construction of Cardinal Value Functions, “Int. Trans. Opl Res.”, 1(4), pp.489 – 500. Bana e Costa C.A., Vansnick J.-C. 1997 Applications of the MACBETH Approach in the Framework of an Additive Aggregation Model, “JMCDA” VOL 6, pp.107 – 114. Baptistella L.F.B., Ollero A. 1980 Fuzzy Methodologies for Interactive Multicriteria Optimization, “IEEE Transactions on Systems, Man, and Cybernetics”, 10(7) pp. 355 – 365. Beale E.M.L. 1955 On Minimizing Convex Function Subject to Linear Inequalities, “J. Royal Stat. Society B (Methodological)”, 17(2), pp. 173 – 184. Beale E.M.L. 1965 Survey of Integer Programming, “OR”, 16(2), pp. 219 – 228. Bellman R.E., Zadeh L. 1970 Decision-Making in a Fuzzy Environment, “Management Science”, 17(4), pp. 141 – 164. Belton V. 1985 The Use of a Simple Multiple-Criteria Model to Assist in Selection from a Shortlist, “J. Opi Res. Soc.”, Vol. 36, No. 4, pp. 265 – 274. Belton V., Elder M.D. 1996 Exploring a Multicriteria Approach to Production Scheduling, “JORS”, 47, No. 1, pp. 162 – 174. Benayoun R., Montgolfier J., Tereny J., Laritchev O. 1970 Linear Programming with Multiple Objective Functions: STEP Method (STEM), “Mathematical Prog.”, 1, 366-375. Benders J.F. 1962 Partitioning Procedures for Solving Mixed-Variables Programming Problems, “Numerische Mathematik”, 4, 238 – 252. 100 Piotr Wojewnik, Tomasz Kuszewski Birge J.R. 1985 Decomposition and Partitioning Methods for Multistage Stochastic Linear Programs, “OR”, 33(5), pp. 989 – 1007. Bishop C.M. 1995 Neural Networks for Pattern Recognition, Oxford. Brans J.P., Vincke Ph., Mareschal B. 1986 How to Select and How to Rank Projects: The PROMETHEE Method, “European Journal of Operational Research”, 24 pp. 228 – 238. Buchanan J.T. 1997 A Naive Approach for Solving MCDM Problems: the GUESS Method, “JORS”, 48, pp. 202 – 206. Cauchy A. 1847 Methode generale pour la resolution des systemes d’equations simultanees, Comptes rendus hebdomadaires des séances de l'Académie des science, Paris 25, pp. 536 – 538. Chanas S. 1983 The Use of Parametric Programming in Fuzzy Linear Programming, “Fuzzy Sets and Systems”, 11, pp. 243 – 251. Chankong V., Haimes Y.Y., Thadathil J. 1985 Multiple Criteria Optimization: a State of the Art Review, [in:] Haimes Y.Y., Chankong V. (eds), Dacision-Making with Multiple Objectives, Lect. N. in Econ. And Math. Sys. 242, Springer Verlag, Berlin, pp. 36 – 90. Charnes A., Cooper W.W. 1962 Chance Constraints and Normal Deviates, “J. Am. Stat. As.”, 57(297), pp. 134 – 148. Charnes A., Cooper W.W. 1959 Chance-Constrained Programming, “Management Science”, 6(1), pp. 73 – 39. Charnes A., Cooper W.W. 1962 Deterministic Equivalents for Optimizing Satisficing under Chance Constraints, “OR”, 11(1), pp. 18 – 39. Charnes A., Cooper W.W., Ferguson R. 1955 Optimal Estimation of Executive Compensation by Linear Programming, “Management Science”, 1, pp. 138 – 151. Coello C.A. 2006 Evolutionary Multi-Objective Optimization: A Historical View of the Field, “Computational Intelligence Magazine”, IEEE 1(1), pp. 28 – 36. Corbett C. J., van Wassenhove L.N. 1993 The Natural Drift: What Happened to Operations Research, “Operations Research”, No. 4, pp. 625 – 640. Dantzig G.B. 1949 Programming in a Linear Structure, “Econometrica”, 17, pp. 73 – 74. Dantzig G.B. 1955 Linear Programming under Uncertainty, “Management Science”, 1(3-4), pp. 197 – 206. Dantzig G.B. 2002 Linear Programming, “OR”, 50(1), pp. 42 – 47. Dantzig G.B., Wolfe P. 1960 Decomposition Principle for Linear Programs, “Operations Research”, 8(1), pp. 101 – 111. Dorn W.S. 1963 Non-Linear Programming – a Survey, “Management Science”, 9(2), pp. 171 – 208. Dyer J.S., Fishburn P.C., Steuer R.E., Wallenius J., Zionts S. 1992 Multiple Criteria Decision-Making, Multiattribute Theory: The Next Ten Years, “Management Science”, 38(5), pp. 645 – 654. Fiacco A.V., McCormick G.P. 1964 Computational Algorithm for the Sequential Unconstrained Minimization Technique for Non-linear Programming, Management Science 10(4), pp. 601 – 617. Ford L.R., Fulkerson D.R. 1956a Solving the Transportation Problem, “Management Science”, 3(1), pp. 24 – 32. From Crisp Optimization to Fuzzy Approach… 101 Ford L.R., Fulkerson D.R. 1956b Maximal Flow through the Network, “Canadian J. of Mathematics”, VIII(3), pp. 399 – 403. Gass S. 2002 Great Moments in HistORy, “OR/MS Today”, vol. 29, No. 5. Geoffrion A.M. 1967 Solving Bi-criterion Mathematical Programs, “Operations Research” 15(1), pp. 39 – 54. Geoffrion A.M. 1968 Proper Efficiency and the Theory of Vector Maximization, “J. Math. An.&Apps”, 22, pp. 618 – 630. Geoffrion A.M., Dyer J.S., Feinberg A. 1972 An Interactive Approach for Multi-Criterion Optimization, with an Application to the Operation of an Academic Department, “MS”, 19(4), pp. 357 – 368. Geoffrion A.M. 1992 Forces, Trends and Opportunities in MS/OR, “Operations Research”, nr 3, pp. 423 – 445. Goldberg D.E. 1989 Genetic Algorithms in Search, Optimization and Machine Learning, Addison-Wesley Pub. Gomory R.E. 1958 Outline of an Algorithm for Integer Solutions to Linear Programs. Grabowski W. 1980 Mathematical Programming, Warsaw (in Polish). Greco S., Matarazzo B., Slowinski R. 2001 Rough Sets Theory for Multicriteria Decision Analysis, “EJOR”, 129, pp. 1 – 47. Greene W.H. 2003 Econometric Analysis, Prentice Hall. Gropp H. 2004 Réseaux réguliers or Regular Graphs-Georges Brunel as a French Pioneer in Graph Theory, “Discrete Mathematics”, 276(1-3): 219 – 227. Haimes Y.Y., Hall W.A. 1974 Multiobjectives in Water Resource Systems Analysis. The Surrogate Worth Trade OFF Method, “Water Resources Research”, 1(4), pp. 615 – 624. Hartley R. 1985 Victor and Parametric Programming, “JORS”, 36(5), pp. 423 – 432. Jacquet-Lagreze E., Siskos Y. 1982 Assessing a Set of Additive Utility Functions for Multicriteria Decision-Making: the UTA Method, “European Journal of Operational Research”, 10, pp. 151 – 164. Jaszkiewicz A., Slowinski R. 1999 The ‘Light Beam Search’ Approach – an Overview of Methodology and Applications, “EJOR”, 113: 300 – 314. Kacprzyk J. 1997 Multistage Fuzzy Control a Model-Based Approach to Fuzzy Control and Decision-Making, Cambridge University Press. Kaliszewski I. 2006 Soft Computing for Complex Multiple Criteria Decision-Making, Springer. Kaliszewski I. 2004 Out if the Mist – towards Decision-Maker-Friendly Multiple Criteria Decision-Making Support. “EJOR”, 158, pp. 293 – 307. Kaminski B. 2007 Analysis of the Public Governance Decisions on the Health Market, PhD Thesis, Warsaw School of Economics (in Polish). Kantorovich L.V. 1939 The Mathematical Method of Production Planning and Organization, Leningrad University Press. Karmarkar N. 1984 New Polynomial-Time Algorithm for Linear Programming, “Combinatorica”, 4 (4), pp. 373 – 395. Kataoka S. 1963 A Stochastic Programming Model, “Econometrica”, 31(1-2), pp. 181 – 196. Kelley J.E. 1960 The Cutting-Plane Method for Solving Convex Programs, “J. Soc. Indust. and Appl. Math.”, 8, 703. 102 Piotr Wojewnik, Tomasz Kuszewski Keeney R.L. 2002 Common Mistakes in Making Value Trade-offs, “OR”, 50(6), pp. 935 – 945. Kirby M.W. 2003 Operational Research in War and Peace. The British Experience from the 1930s to 1970, London. Klee V., Minty G.J. 1972 How Good is the Simplex Algorithm?, [in:] Inequalities, III, (ed.) O. Shisha, New York, NY, pp. 159 – 175. Knowles T.W. 1989 Management Science. Building and Using Models, Homewood. Korhonen P. 1988 A Visual Reference Direction Approach to Solving Discrete Multiple Criteria Problems, “European Journal of Operational Research”, 34, pp. 152 – 159. Korhonen P.J., Laakso J. 1986 A Visual Interactive Method for Solving the Multiple Criteria Problem, “EJOR”, 24, pp. 277 – 287. Korhonen P., Moskowitz H., Wallenius J. 1992 Multiple Criteria Decision Support – A Review, “EJOR”, 63, pp. 361 – 375. Korhonen P., Wallenius J. 1990 Supporting Individuals in Group Decision-Making, “Theory&Decision”, 28, pp. 313 – 329. Kuhn H.W. 1955 The Hungarian Method for the Assignment Problem, “Naval Research Logistics”, 52(1), pp. 7 – 21. Kuhn H.W., Tucker A.W. 1951 Non-Linear programming. Proceedings of 2nd Berkeley Symposium, Berkeley, pp. 481 – 492. Lai Y.-J., Hwang C.-L. 1992 Interactive Fuzzy Linear Programming, “Fuzzy Sets and Systems”, 45, pp. 169 – 183. Land A.H., Doig A.G. 1960 An Automatic Method of Solving Discrete Programming Problems An Automatic Method of Solving Discrete Programming Problems, “Econometrica”, 28(3), pp. 497 – 520. Larnder H. 1984 The Origin of Operational Research, “OR”, 32(2), pp. 465 – 475. Little J.D.C. 1991 Operations Research in Industry: New Opportunities in a Changing World, “Operations Research”, nr 4, pp. 531 – 542. Little J.D.C. 2002 Morse and the Beginnings, “OR”, 50(1), pp. 146 – 148. Luenberger D.G., Ye Y. 2008 Linear and Non-Linear Programming, Springer. Maddala G.S. 2001 Introduction to Econometrics, Macmillan. Masters T. 1993 Practical Neural Network Recipes in C++, Academic Press. McCloskey J.F. 1987 The Beginnings of Operations Research: 1934-1941, “Operations Research”, No. 1, pp. 143 – 152. McCloskey J.F. 1987 British Operational Research in World War II, “Operations Research”, No. 3, pp. 453 – 470. McCloskey J.F. 1987 U.S. Operations Research in World War II, “Operations Research”, No. 6, pp. 910 – 925. Michalewicz Z. 1992 Genetic Algorithms + Data. Structures = Evolution Programs, SpringerVerlag. Michalowski W., Szapiro T. 1992 A Bi-Reference Procedure for Interactive Multiple Criteria Programming, “Operations Research”, 40(2), pp. 247 – 258. Miettinen K., Makela M.M. 2000 Interactive Multiobjective Optimization System WWWNIMBUS on the Internet, “Computers & Operations Research”, 27, pp. 709 – 723. Mill J.S. 1863 Utilitarianism, Parker, Son, and Bourn, West Strand, London. From Crisp Optimization to Fuzzy Approach… 103 Mirowski P. 1999 Cyborg Agonistes: Economics Meets Operations Research in Mid-Century, “Social Study of Science”, No. 5, pp. 685 – 718. Morse P.M. 1986 The Beginnings of Operations Research in the United States, “OR”, 34(1), pp. 10 – 17. Nakayama H., Kaneshige K., Takemoto S., Watada Y. 1995 An Application of a Multi-Objective Programming Technique to Construction Accuracy Control of Cable-Stayed Bridges, “EJOR”, 87, pp. 731 – 738. Nemhauser G.J. 1994 The Age of Optimization: Solving Large-Scale Real-World Problems, “Operations Research”, No. 1, pp. 5 – 13. Pawlak Z., Slowinski R. 1994 Decision Analysis Using Rough Sets, “Int. Trans. Opl Res.”, 1(1), pp. 107 – 114. Rommelfanger H. 1989 Interactive Decision-Making in Fuzzy Linear Optimization Problems, “European Journal of Operational Research”, 41, pp. 210 – 217. Rosen J.B. 1957 Nonlinear Programming. The Gradient Projection Method, “Bull. Amer. Math. Soc.”, 6(3), Abs. 80, pp. 25 – 26. Roy B. 1968 Classement et choix en présence de points de vue multiples (la méthode ELECTRE), “la Revue d'Informatique et de Recherche Opérationelle (RIRO)”, 8, pp. 57 – 75. Roy B. 1990 Decision-aid and Decision-making, “EJOR”, 45, pp. 324 – 331. Roy B., Vanderpooten D. 1996 The European School of MCDA: Emergence, Basic Features and Current Works, “JMCDA”, 5, pp. 22 – 38. Roy B. 1996 Multicriteria Methodology for Decision Aiding, Wiley. Saaty T.L. 1978 Modeling Unstructured Decision Problems – The Theory Of Analytical Hierarchies Mathematics and Computers in Simulation XX, pp.147 – 158. Saaty T.L. 1997 That Is Not the Analytic Hierarchy Process: What the AHP Is and What It Is Not, “J. Multi-Crit. Decis. Anal.”, 6, pp. 320 – 339. Sasaki M., Gen M., Ida K. 1990 Interactive Sequential Fuzzy Goal Programming, “Computers ind. Engng”, 19(1-4), pp. 567 – 571. Slowinski R. 1984 Review of Multicriteria Linear Programming Methods – Part I, “Statistical Review”, 31 (1984) No. 1 – 2, pp. 47 – 64 (in Polish). Slowinski R. 1984 Review of Multicriteria Linear Programming Methods – Part II, “Statistical Review”, 31 (1984), No. 3 – 4, pp. 303 – 318 (in Polish). Spronk J., Steuer R.E., Zopounidis C. 2005 Multicriteria Decision Aid/Analysis in Finance. [in:] Multiple Criteria Decision Analysis: State of the Art Surveys, (eds.) J. Figueira, S. Greco, M. Ehrgott, Boston, Dordrecht, London, pp.799 – 858. Steuer R.E., Choo E.-U. 1983 An Interactive Weighted Chebyshev Procedure for Multiple Objective Programming, “Mathematical Programming”, 26, pp. 326 – 344. Szapiro T. 1991 Interactive Approach for the Decision Support, WSE (in Polish). Trzaskalik T., Michnik J. 2002 Multiple Objective and Goal Programming: Recent Developments, Springer. Van Veldhuizen D.A., Lamont G.B. 2000 Multiobjective Evolutionary Algorithms: Analyzing the State-of-the-Art, “Evolutionary Computation”, 8(2), pp. 125 – 147. Vincke Ph. 1986 Analysis of Multicriteria Decision Aid in Europe, “EJOR”, 25, pp. 160 – 168. 104 Piotr Wojewnik, Tomasz Kuszewski Wagner H.M., Rothkopf M.H., Thomas C.J., Miser H.J. 1989 The Next Decade in Operations Research: Comments on the Condor Report, “Operations Research”, 1989, No. 4, pp. 664 – 672. Wallenius H. 1982 Optimizing Macroeconomic Policy: A Review of Approaches and Applications, “European Journal of Operational Research”, 10, pp. 221 – 228. Weaver P. 2008 A Brief History of Scheduling – Back to the Future, PM World Today II www.pmworldtoday.net. Werners B. 1987 Interactive Multiple Objective Programming Subject to Flexible Constraints, “European Journal of Operational Research”, 31(3) pp. 342 – 349. Wets R.J.B. 1966a Programming Under Uncertainty: The Equivalent Convex Program, “SIAM J. on App.Math.”, 14(1), pp. 89 – 105. Wets R.J.B. 1966b Programming Under Uncertainty: The Solution Set, “SIAM J. on App. Math.”, 14(5), pp. 1143 – 1151. White D.J. 1990 A Bibliography on the Applications of Mathematical Programming Multiple Objective Methods, “JORS”, 41(8), pp. 669 – 691. Wiedey G., Zimmermann 1978 Media Selection and Fuzzy Linear Programming, “JORS”, 29(11), pp. 1071 – 1084. Wierzbicki A.P. 1982 A Mathematical Basis for Satisficing Decision-Making, “Mathematical Modelling”, 3, pp. 391 – 405. Wierzbicki A.P. 1986 On the Completeness and Constructiveness of Parametric Characterizations to Vector Optimization Problems, “OR Spektrum”, 8, pp. 73 – 87. Wierzbicki A.P. 2000 Decision Support Methods and Applications: The Cross-sections of Economics and Engineering or Environmental Issues, “Ann. Rev. in Control”, 24, pp. 9 – 19. Winston W.L., Albright S.C., Broadie M. 1997 Practical Management Science. Spreadsheet Modeling and Applications, Duxbury Press. Ypma Tjalling J. 1995 Historical Development of the Newton–Raphson Methodm, “SIAM Rev.”, 37, pp. 531 – 551. Yu P.L., Zeleny M. 1976 Linear Multiparametric Programming by Multicriteria Simplex Method, “Mgmt Sci”, 23(2), pp. 159 – 170. Zadeh L.A. 1965 Fuzzy Sets, “Information Control”, 8, pp. 338 – 353. Zionts S., Wallenius J. 1976 An Interactive Programming Method for Solving the Multiple Criteria Problem, “Management Science”, 22(6), pp. 652 – 663. Zionts S., Wallenius J. 1983 An Interactive Multiple Objective Linear Programming Method for a Class of Underlying Nonlinear Utility Functions, “Mgmt Sci”, 29(5), pp. 519 – 529. Zopounidis C., Doumpos M. 2000 Building Additive Utilities for Multi-Group Hierarchical Discrimination: the M.H.Dis Method, “Optimization Methods & Software”, 14(3), pp. 219 – 240. Zopounidis C., Doumpos M. 2002 Multicriteria Classification and Sorting Methods: A Literature Review, “EJOR”, 138 (2002), pp. 229 – 246. Zoutendijk G. 1959 Maximizing a Function in a Convex Region, “J. of the Royal Stat. Soc. B”, 21(2), pp. 338 – 355. From Crisp Optimization to Fuzzy Approach… 105 APPENDIX In this chapter, we define the optimization problems presented earlier in this paper. Each problem formulation includes: decision variables, feasibility constraints and the goal function defined over the set of feasible decisions. The task is to determine some feasible solution where the goal function achieves its finite extremum (minimum or maximum). The linear optimization problem can be expressed as follows. Determine the point x x1 , x 2 ,...,x n minimizing the function f ( x1 , x2 ,..., xn ) subject to a11 x1 a12 x2 ... a1n xn b1 a x a x ... a x b 22 2 2n n 2 21 1 ... . a x a x ... a x b m2 2 mn n m m1 1 x j m 0 1 , 2 ,..., j In the integer linear optimization problem there are additional constraints on the integer values of some decision variables. If the values are constrained to 0 or 1, then the problem is called binary. Because of particular constraints we can distinguish the following linear optimization problem: determine the values xij of the mn matrix X to minimize n m c x j 1 i 1 ij ij subject to n xij ai i 1,2,..., m j 1 m xij b j j 1,2,..., n . i 1 xij 0 i 1,2,..., m, j 1,2,..., n Interpreting the problem elements as: i = 1,2,…,m – destination point index, j = 1,2,…,n – collection point index, ai 0 – supply of homogenous and perfectly separable goods at i, b j 0 – demand for homogenous and perfectly separable goods at j, cij – unit cost of transportation on the path from i-th collection point to j-th destination, xij – quantity of goods transported from i-th collection point to j-th destination, 106 Piotr Wojewnik, Tomasz Kuszewski then we obtain to the balanced transportation problem. The new interpretation of the problem and some additional conditions: i = 1,2,…,n – task index, j = 1,2,…,n – employee index, ai 1 – the i-th task will employ only one worker, b j 1 – the j-th employee will work only on one task, cij – unit cost of j-th employee working at i-th task, xij =1, if j-th employee works at i-th task, 0 – otherwise, lead to assignment problem. To define the problem of the network flow maximization we have to introduce some new terms. The pair (A, Q) will be called a graph, if A is a set of graph vertices, and Q is a set of graph edges – a subset of Cartesian product AxA. We consider the finite (finite A set) and directed graphs (each edge has a beginning and the end), where A is a subset of natural numbers. The nodes D j i : ( i , j ) Q are the entrance area for the j-th node. The nodes W j k : ( j , k ) Q are the leaving area for the j-th node. The non-negative real numbers will be assigned to each edge of the graph, and the assignment will be denoted by f. If the number will be interpreted as the duration of the activity denoted by the edge and the nodes interpreted as the events moment, then the triple S = (A,Q,f) can be called the PERT/CPM network45. If the nodes can be treated as the points on the map, the edges – as the transportation paths, and the numbers from f assignment – the paths capacity, then we obtain the transportation network. To be precise: A+ – the set of the network sources; each source supplies the volume of ai, A- – the set of network destinations; each destination reveals demand of bi, A0 – the set of transshipment points, Q – the set of transportation paths, cij – unit cost of transportation on the path (i,j), dij – the lower capacity constraint on the path (i,j), gij – the upper capacity constraint on the path (i,j). X = [xij] is the feasible flow in the transportation network S, if the following conditions are met: ak for k A k xkj xik 0 for k A0 jWk iDk b for k A . k d ij xij g ij 45 for (i, j ) Q CPM – Critical Path Method, PERT – Program Evaluation and Review Technique. From Crisp Optimization to Fuzzy Approach… 107 Having the feasible flows we can define the problem of the transportation cost minimization in the network S: c ( i , j ) Q ij x ij min or the problem of network S flow maximization x k A j Wk kj x ik max . i Dk The balanced transportation problem is a particular case of the former problem. The decomposition methods by Dantzig-Wolfe and Benders might be applied to find the optimal solution in any linear programming problem, but the effective application is possible for the cases, where the matrix of constraints’ parameters has the form similar to the example problem: x1 Find the vector x , solving x s s f ( x 1 ,..., x s ) cTj x j min subject to j 1 D j x j b0 j 1 Aj xj bj 0 xj s j 1,2,..., s . j 1,2,..., s In the constraints formulation the problem employs matrices: Dj ~ m0nj, Aj ~ mjnj, so they can be written in a single form as: D1 D2 A1 0 0 A2 0 0 Ds 0 0 . A s The non-linear unconstrained optimization problem is a task to identify the minimum of the multivariate function: n 1 n find x R , that f(x) → min, where f : R R . The non-linear constrained optimization problem is a task: n 1 n find x R , that f(x) → min, where f : R R n 1 subject to g i (x) 0, g i : R R i 1,2,..., m . 108 Piotr Wojewnik, Tomasz Kuszewski In the polyoptimization the feasible solution x is evaluated at least from two perspectives. If the perspectives might be presented as analytical goal functions and some criteria, then we can construct the multiple criteria optimization problem. The multiple criteria optimization problem is a task: find x x 1 , x 2 ,..., x n , that f1(x)max, f2(x) max, … fk(x) max, a 11x 1 a 12 x 2 ... a 1n x n b1 a x a x ... a x b 21 1 22 2 2n n 2 subject to , ... a k 1x 1 a k 2 x 2 ... a kn x n bk or generally f(x)max, subject to Axb, where xRn, f:RnRm, ARkn, and bRk. In general, the feasible solution maximizing all the goal functions f1, f2, …, fk does not exist. Therefore, in the polyoptimization we consider the efficient solutions xs, that there is no feasible solution x of better or equal evaluation at all the criteria: xs{xRn: Axb x*Rn, Ax*b, xsx*, f(x*)-f(xs)R+m\{0}}. To complete the overview of the optimization problems we will present the nonpoint formulations. The stochastic optimization problem (with stochastic constraints) is a task: find x x , x ,..., x , that f ( x1 , x2 ,..., xn ) min, 1 2 n subject to P(i=1…n ajixij (j=1…m)) p, where j, j=1…m, is a random variable with particular probability density function. Let us consider the fuzzy numbers Ã=(Rkn,Ã(Rkn)), b̃=(Rk,b̃(Rk)), the function with fuzzy input and output fff: (Rn,x̃(Rn)){ỹ}Rm defined by the fuzzy number C̃=(Rmn,μC̃(Rmn)) and the cone = R+m\{0}. The task of finding the singleton maximal in fff(x̃Ãb̃): maxxRn {(Cx,) : CC̃[] xx̃[] x*x̃Ãb̃[], Cx*-Cx}, subject to x̃Ãb̃(x)=sup{: Ax b, AÃ[], bb̃[]} will be called a fuzzy multicriteria optimization problem. OPTIMUM. STUDIA EKONOMICZNE NR 3 (47) 2010 Tomasz SZAPIRO1 ITEROWANE CYKLE DECYZYJNE – PRÓBA OPISU ZUNIFIKOWANEGO Streszczenie W artykule podjęto zagadnienie zunifikowanego opisu procesów decyzyjnych. Tekst otwiera prezentacja terminologii związanej z cyklami decyzyjnymi i uzasadnienie poprawności jej zastosowania, z uwzględnieniem wyników podanych w literaturze. Wprowadzone pojęcia wykorzystano do wykazania ogólnych twierdzeń o zbieżności zunifikowanych procesów decyzyjnych. Następnie przedstawiono trzy różne przykłady zunifikowanych procesów decyzyjnych jako ilustracje ogólnych własności: proces decyzyjny w warunkach niepewności, przypadek deterministyczny oraz interaktywną optymalizację wielokryterialną. Słowa kluczowe: strukturyzacja problemów decyzyjnych, Teoria Podejmowania Decyzji, analzia decyzyjna INTERACTIVE DECISION CYCLES. AN ATTEMPT OF UNIFIED DECISION PROCESS DESCRIPTION Summary The paper deals with the problem of unified description of decision making processes. Firstly, a terminology of decision cycles serving to describe such processes is introduced and explained. This presentation addresses earlier results presented in the literature. Using the terminology introduced, some general propositions on convergence of unified decision processes are shown. Next, three diverse instances of unified decision processes are presented to illustrate general findings. This part of presentation includes examples of decision making under uncertainty, deterministic case and interactive multiple criteria processes. Keywords: Problem Structuring, Decision Making, Decision Analysis 1. Wstęp Przedmiotem tekstu jest podejmowanie decyzji o działaniu prowadzącym do zmiany stanu pewnego układu, w którym funkcjonuje podmiot nazywany dalej decydentem. Przyjmujemy, że w określeniu tego procesu i sterowaniu nim decydent uwzględnia swoją wiedzę o aktualnym stanie układu i jego otoczenia oraz wiedzę o skutkach swoich możliwych działań. Decydenta identyfikujemy ze zbiorem jego potrzeb, zbiorem stanów układu i środowiska, zbiorem możliwych do podjęcia działań oraz zbiorem ocen tych 1 Prof. dr hab. Tomasz Szapiro jest pracownikiem Zakładu Wspomagania i Analizy Decyzji Szkoły Głównej Handlowej. 110 Tomasz Szapiro działań z punktu widzenia zaspokojenia jego potrzeb. Zakładamy, że przyczyną podejmowania decyzji jest deficyt satysfakcji płynącej z zaspokojenia potrzeb na bieżącym poziomie. Innymi słowy, powiemy, że problem decyzyjny polega na występowaniu deficytu zaspokojenia potrzeb, a jego rozwiązaniem jest podjęcie działań, zmniejszających ten deficyt w możliwie wysokim stopniu. Należy odnotować, że słowo deficyt nie oznacza, że znany jest stan pożądany, lecz że stan istniejący nie jest zadowalający dla decydenta. Keller i Ho [Keller, Ho 1988] wynik procesu identyfikacji problemu opisany w języku specyficznym dla matematyki, nazywa jego strukturą, i zauważa, że badania związane z procesem podejmowania decyzji dotyczą problemu wyboru rekomendowanego działania po wyznaczeniu struktury problemu. Wskazuje jako przykład struktury drzew decyzyjnych i wieloatrybutowej teorii użyteczności. Winn i Keller [Winn, Keller 2001] proponują procedurę postępowania mającego na celu strukturyzację problemów decyzyjnych w przypadku decyzji wielokryterialnych występujących w problemach zarządczych. Procedura przedstawia propozycję konstrukcji zamkniętego systemu pojęć, których znajomość steruje procesem kwantyfikacji i modelowania matematycznego, natomiast to nie jest jednak przedmiotem tekstu. Problem identyfikacji rozwiązań problemów decyzyjnych wykracza poza cel ich pracy. Keeney [Keeney 1994b] wskazuje, że decydenci w sytuacji problemów, źle ustrukturyzowanych mają skłonność do nakładania założeń definiujących struktury (są to zwykle struktury matematyczne pozwalające przetwarzać informacje i konstruować rekomendacje – przyp. autora) zgodne z wieloatrybutową teorią użyteczności. Wskazuje, że na decyzje o skali i zakresie uproszczeń ma wpływ system wartości decydenta. Konsekwencją tego podejścia jest redefinicja badawczego celu analizy procesu decyzyjnego, który powinien dostarczać metod uwzględniających zależność struktury problemu decyzyjnego od specyficznych wartości decydenta (ang. value focused thinking). Niniejszy tekst jest próbą sformułowania propozycji procedury matematycznej strukturyzacji problemów decyzyjnych, która z jednej strony unifikuje istniejące modele matematyczne i uwzględnia subiektywizm procesu decyzyjnego, a z drugiej – dostarcza narzędzi pozwalających wykazać warunki istnienia rozwiązań problemów decyzyjnych. Językiem do formułowania wniosków jest pojęcie zbieżności procesu decyzyjnego. Praca podzielona została na pięć części. Po niniejszym wstępie rozdział 2. charakteryzuje iterowane cykliczne procesy decyzyjne oraz prezentuje oznaczenia i interpretacje, które pozwalają sformułować problem i jego własności. Wprowadzona terminologia została wykorzystana w rozdziale 3. do zdefiniowania zunifikowanego problemu decyzyjnego i jego rozwiązania, oraz wykazania warunków istnienia rozwiązań. Rozdział 4. zawiera zróżnicowane przykłady zunifikowanych procesów decyzyjnych: decyzje proste o skutku niepewnym, procesy decyzyjne o wielokryterialnie ocenianym skutku działania, wreszcie interaktywne procesy podejmowania decyzji wielokryterialnych. Przykłady te ilustrują zdolność unifikacji problemów deterministycznych i losowych oraz jedno- i wielocyklicznych. Tekst zamykają Podsumowanie i Bibliografia. Iterowane cykle decyzyjne – próba opisu zunifikowanego 111 2. Procesy decyzyjne sterowane ocenami skutku. 2.1. Cykl decyzyjny Przyjmujemy, że przynajmniej niektóre charakterystyki sytuacji decyzyjnej mogą ulegać zmianie w wyniku działań decydenta. Charakterystyki te nazwiemy stanem układu. Pozostałe charakterystyki sytuacji decyzyjnej będziemy nazywali stanem otoczenia. Przyjmujemy także, że decydent potrafi zidentyfikować zbiór działań, które może podjąć (działania dopuszczalne), zbiór stanów układu i jego otoczenia (środowiska) oraz potrafi zidentyfikować zróżnicowane skutki swych potencjalnych działań (nowe, wynikowe stany układu) i ocenić je. Zakładamy wreszcie, że decydent posiada zdolność do porównywania ocen, czyli – preferencje2. Przyjmujemy dalej, że ocena działań decydenta jest związana z ich wpływem na zaspokajanie jego potrzeb (decydent ocenia poziom zaspokojenia potrzeb). Przyjmiemy na koniec, że – w szerokim sensie – podejmowanie decyzji jest iterowanym cyklicznym procesem zmierzającym do możliwie wysokiego poziomu zaspokojenia potrzeb decydenta [Por.: Smith 1988]. W każdym cyklu tego procesu identyfikowane są: A/ potrzeby decydenta3, B/ stany układu i otoczenia oraz działania, które prowadzą to tych stanów i postrzegane są jako droga prowadząca do osiągnięcia celu, C/ oceny tych działań i stanów otoczenia, będące pomocniczymi konceptualnymi obiektami służącymi do porównań działań z punktu widzenia poziomu realizacji celów, wreszcie – D/ metoda porównywania ocen działań oraz E – algorytm przetwarzania zasobów informacji reprezentujących – zgodnie z tą strukturą, wiedzę decydenta o sytuacji, w której się znalazł. Odnotujmy, że konsekwencją etapu A jest identyfikacja problemu decyzyjnego, czyli deficytu potrzeb, oraz identyfikacja celu decydenta – zmniejszenie tego deficytu w możliwie wysokim stopniu. Złożoność tego procesu powoduje, że jego przeprowadzenie wymaga znacznego wysiłku i czasu. W konsekwencji, w sytuacjach rzeczywistych, decydenci stosują wiele strategii heurystyk upraszczających zadania A-E4. Wobec tego powstaje wątpliwość, czy decyzje podejmowane w praktyce są trafne. Na każdym z etapów może bowiem powstać błąd powodujący, że poprawne postępowanie na dalszych etapach nie prowadzi do właściwego skutku – do możliwie wysokiego zaspokojenia potrzeb5. Warto w tym momencie zatrzymać się nad defektami występującymi w realnych procesach decyzyjnych. Przedyskutujmy te kwestie w naturalnej kolejności wyznaczonej przez cykl decyzyjny. 2 Wprowadzony tu opis może być interpretowany w języku relacji porządkujących lub preferencji, oraz funkcji użyteczności. 3 Np. stosowanie strategii „przez żołądek do serca” jest przykładem zdobycia akceptacji przez zaspokojenie, łatwego do zidentyfikowania, deficytu sytości. 4 Inaczej mówiąc, można powiedzieć, że decydent stosuje racjonalność ograniczoną [Por.: Simon 1983, 1986]. 5 Interesującą próbę oszacowania trafności doboru struktury problemu decyzyjnego przedstawia Lindley [Lindley 1986], który dowodzi, że nietrafna strukturyzacja węzłów decyzyjnych prowadzi do nieracjonalnych decyzji. 112 Tomasz Szapiro RYSUNEK 1. Cykl decyzyjny Na etapie A – identyfikacji potrzeb decydenta możemy zetknąć się z niewłaściwą identyfikacją potrzeb [Por. np.: Hastie 2010]. Np. wysoki poziom pewnych substancji6 lub projekcja emocji mogą wywoływać agresję, która jest przez decydenta identyfikowana jako emocja reaktywna na doraźne bodźce sytuacyjne7. W efekcie, decydent podejmuje działania przeciwdziałające rzekomemu deficytowi źle zidentyfikowanej potrzeby, zamiast takich działań, które zapewnią zaspokojenie potrzeby niezaspokojonej8. Co znacznie bardziej utrudnia sytuację, decydent może doświadczać deficytu potrzeby jako trudny do zniesienia stan emocjonalny i może nie umieć zdiagnozować tej potrzeby. Podejmuje wtedy decyzje przypadkowe9. Nie będziemy omawiali możliwości popełnienia błędu na etapie B – identyfikacji stanów układu i otoczenia oraz definiowania działań – ze względu na to, że jest to pro6 Badania wykazały, że niski poziom serotoniny sprzyja agresji, m.in. u dzieci, które torturują zwierzęta, u ludzi skłonnych do impulsywnych, niekontrolowanych ataków, oraz u samobójców, których działania są uważane za akty autoagresji. Poziom serotoniny jest o 20 – 30% niższy u mężczyzn niż u kobiet – mężczyźni niezależnie od: kultury, rasy i klasy społecznej są bardziej skłonni do działań i zachowań agresywnych niż kobiety [Por. także: Ghiglieri 2001 oraz Wojciszke 2000]. 7 Przykładowo, poniżony przez szefa pracownik wykazuje w stosunku do członków rodziny agresję (działanie zmierzające do szkody) bez związku z przyczyną swego działania i – co ważniejsze –zastępując przyczyny problemu (często bez ich rozumienia) argumentami wykreowanymi sytuacyjnie. 8 Zjawisko groupthink [Por.: Janis 1972] powoduje poczucie nadmiernej pewności siebie i obstawanie przy nieskutecznych strategiach. 9 Z podobną sytuacją stykamy się będąc u lekarza, który prosi o wskazanie np. lokalizacji bólu głowy, którego nie potrafimy umiejscowić. Przypadkowe wskazanie takiego miejsca może prowadzić do nietrafnej, a nawet szkodliwej, diagnozy. Iterowane cykle decyzyjne – próba opisu zunifikowanego 113 ces zbyt mało ustrukturyzowany, by można było w ogólny sposób scharakteryzować pomyłki decydenta. Szczególnie dużo błędów popełnia się w identyfikacji działań, ponieważ wymaga on kreatywności10 [Por.: Keller 1988] i uwzględnienia perspektywy aksjologicznej [Por.: Keeney 1994a]. Warto dodatkowo odnotować, że m.in. Farquhar i Pratkanis [Farquhar, Pratkanis 1993] rozważają działania, które nazywają działaniami fantomowymi, gdyż są iluzoryczne, tzn. z jakiegoś punktu widzenia nie są możliwe do realizacji, a jednak mogą proces decyzyjny zarówno wspomóc, jak i utrudnić. Na etapie C – oceny działań – pojawia się wiele czynników zwiększających złożoność procesu oceny i wprowadzających jego subiektywizm [Por.: Yu 1991]. Po pierwsze, działania mogą mieć różnorodne skutki i w rezultacie oceny stają się wielowymiarowe – skutki każdego działania oceniane są inaczej. Po wtóre, różni decydenci mogą uwzględniać rozmaite skutki działań i wybierać różnorodne sposoby ich oceny11. Na etapie D – porównywania ocen – decydent może mieć do czynienia z gamą dodatkowych problemów wynikających z nieznajomości metod porównywania oraz wyboru tej, którą będzie stosował, a zatem rozwiązać musi pomocniczy problem decyzyjny obarczony tym samym ryzykiem popełnienia błędu, co problem właściwy. Problem E – doboru algorytmu przetwarzania informacji – ma te same cechy, co problemy wyboru metody porównywania ocen. Na koniec trzeba odnotować, że proces decyzyjny jest rozłożony w czasie – w efekcie może zdarzyć się, że w czasie przetwarzania zebranej informacji nastąpi zmiana w postrzeganiu problemu i dane dotyczące działań i ich ocen okażą się nieaktualne – struktura modelu decyzyjnego może być dynamiczna, tj. zmienna w czasie. Warto odnotować, że klasyczne badania operacyjne dotyczą wyłącznie etapu E – tworzenia i stosowania metod przetwarzania informacji, w których etapy A-D prowadziły do identyfikacji zadania optymalizacji matematycznej (rozwój tych metod opisuje interesujący tekst Kuszewskiego i Wojewnika w niniejszym tomie). W badaniach operacyjnych rekomendację dla decydenta reprezentuje wektor interpretowany jako najlepsze zaspokojenie jego potrzeb. Można tu wykazać, że jest to najlepsza możliwa rekomendacja, ale za cenę założenia, że zadanie optymalizacyjne12 reprezentuje zadowalająco problem decyzyjny. W przeciwnym wypadku decydent musiał szukać innych metod poza badaniami operacyjnymi. Proces rozwoju metod badań operacyjnych można rozumieć jako próby ratowania decydenta w sytuacjach wykraczających poza klasyczne założenia upraszczające. Zwłaszcza dla końcowych etapów D oraz E cyklu decyzyjnego powiodło się kolejne uchylanie założeń o zwartości, o liniowości, o determinizmie, o jednokryterialności, o punktowym opisie atrybutów i ocen decyzji, wreszcie – uwzględnienie odroczenia 10 W praktyce nie jest trudno identyfikować działania prowadzące do lepszego zaspokojenia potrzeb. Na przykład do zatrzymania spadku sprzedaży służą strategie np. zwiększenia motywacji sprzedawców lub podnoszenia ich kompetencji. Jednak te strategie nie gwarantują efektu najlepszego. Dlatego warto rozważać poszukiwanie nowych wariantów działania, gdyż nie może to pogorszyć efektu analizy. 11 Na przykład inwestycję trzeba oceniać ze względu na jej opłacalność, ale i – ryzyko, a często – płynność pozwalającą konsumować tę opłacalność. Te kryteria nie wyczerpują listy sposobów, a w dodatku – nie każdy decydent jest zainteresowany płynnością zwrotu z inwestycji. 12 Na przykład ze zwartym i wypukłym zbiorem decyzji dopuszczalnych i z jedną – najlepiej liniową – funkcją celu generującą porządek liniowy opisujący preferencje decydenta. 114 Tomasz Szapiro w czasie skutku decyzji i wynikającej stąd możliwości uwzględnienia zmian w zasobach informacji. W efekcie sformułowano warunki konieczne i wystarczające – istnienia rozwiązań dla klas problemów nieliniowych, stochastycznych, przybliżonych, wielokryterialnych, wreszcie z niespójnością czasową. Skonstruowano algorytmy prowadzące do rekomendacji lub je aproksymujące. Można powiedzieć, że nauka przebiega cykl decyzyjny [Por. rys. 1.] w kierunku przeciwnym do jego biegu. Jak się zdaje, trudno jednak uznać za zadowalające wyniki badań dotyczące początkowych etapów A, B oraz C cyklu decyzyjnego. Identyfikacja potrzeb, działań, sposobów ich oceny i porównywania ocen nie poddają się łatwo opisowi wykorzystującemu pojęcia matematyczne i w konsekwencji nie jest łatwe zdefiniowanie pojęcia optymalności, rekomendacji, wykazanie warunków koniecznych i wystarczających dla optymalności oraz konstrukcja algorytmów wyznaczających rekomendacje. Przyczyną dla tego stanu rzeczy jest niewątpliwie fakt, że początkowe fazy procesu decyzyjnego są głęboko zakorzenione w mechanizmach leżących na styku psychologii oraz ekonomii i zarządzania. Procesy identyfikacji działań i ocen tych działań winny zatem korzystać z osiągnięć nauk o odmiennej metodologii, gdzie matematyczne modelowanie, nie jest silnie rozwinięte, a zatem przetwarzanie informacji, które wykorzystuje modele matematyczne nie jest możliwe bez stosowania strategii upraszczających. Psychologia i informatyka wskazują, że decydenci identyfikujący potrzeby, działania i oceny stoją zatem przed dwoma zadaniami – zadaniem uczenia się (potrzeb, działań i sposobów ich oceny) oraz zadaniem matematycznej reprezentacji wyników tego uczenia, czyli – zadaniem matematycznego modelowania sytuacji decyzyjnych. Proces podejmowania decyzji wymaga nabywania wiedzy już istniejącej oraz wytwarzania wiedzy. Istotą procesu nabywania wiedzy jest jej zrozumienie i zapamiętanie (czyli – uczynienie istniejącej wiedzy mentalnie i operacyjnie dostępną). Podejmowanie decyzji wymaga jednak także wiedzy, której nabycie nie jest możliwe, gdyż jest związane ze specyficznymi cechami decydenta. Podejmowanie decyzji wymaga również wytwarzania wiedzy. Istotą takiego uczenia się jest cykliczna konfrontacja nabytej wiedzy z rzeczywistością. Tę cechę procesu podejmowania decyzji będziemy nazywali interaktywnością. Występowanie interaktywności oznacza, że w praktyce cykle decyzyjne są powtarzane. Uwzględnienie etapów: A, B i C cyklu decyzyjnego zmienia perspektywę badawczą. Zadaniem klasycznych badań operacyjnych było dostarczenie metod wyznaczania rekomendacji dla precyzyjnie określonych klas problemów decyzyjnych. Zadanie takie miało sens naukowy, ponieważ klasy tych problemów (np. zadanie transportowe) nie były specyficzne z punktu widzenia preferencji decydenta. Metoda miała zatem walor ogólności. Metody aspirujące do dostarczania sposobów rekomendujących rozwiązania z uwzględnieniem faz: A, B i C są związane z wprowadzeniem tak wysokiego stopnia specyficzności wynikającego ze zróżnicowania decydentów i ich potrzeb, że nie jest możliwa konstrukcja matematycznych algorytmów, gdyż ich parametrami byłyby subiektywne czynniki psychologiczne. Zjawisko subiektywizmu w badaniach operacyjnych, związane z etapem C cyklu decyzyjnego (oceną działań), występuje w optymalizacji wielokryterialnej. Ważnym zabiegiem metodologicznym, jakim posłużono się w tej dziedzinie, było uczynienie celem badań konstrukcji procedur wspomagania decydenta zamiast konstrukcji algo- Iterowane cykle decyzyjne – próba opisu zunifikowanego 115 rytmów matematycznych rekomendacji. Procedury decyzyjne są narzędziami kontroli procesu uczenia się. Podobnie jak klasyczna analiza wrażliwości w optymalizacji liniowej, pozwalają one badać wpływ zmiany matematycznej reprezentacji problemu decyzyjnego na efekt procesu, ale wprowadzają ponadto element dodatkowej oceny decydenta, która jest wykorzystywana do zmiany tej reprezentacji13. Celem niniejszego tekstu jest wprowadzenie sformalizowanego opisu cykli decyzyjnych, który z jednej strony unifikuje prezentowane wcześniej modele, a z drugiej – stanowi punkt wyjścia do budowy kolejnych podejść uchylających poczynione wcześniej założenia. 2.2. Oznaczenia i interpretacje Proces podejmowania decyzji, scharakteryzowany w poprzednim rozdziale, będziemy rozważali jako sekwencję wyrażeń matematycznych reprezentujących kolejne rekomendacje dla decydenta, które wynikają z przetwarzania zebranej informacji. W ogólnym ujęciu problem decyzyjny oznacza konieczność zdefiniowania działań zmieniających poziom zaspokojenia potrzeb i następnie wyboru najlepszego działania. Tradycyjną drogą rozwiązania tego problemu jest konstrukcja zbioru działań, a następnie – konstrukcja zadania wyboru rozwiązania w tym zbiorze [Por. Szapiro 1993b]. Wspomniany wcześniej, dynamiczny charakter tego podejścia powoduje sekwencyjne występowanie cyklu decyzyjnego i konieczność rozpatrywania zadania rozwiązania problemu decyzyjnego jako iterowanego procesu. Zakładamy, że dany jest przeliczalny zbiór iteracji T. Iteracje są numerowane wskaźnikiem tT; w dalszym ciągu tego rozdziału – dopóki nie prowadzi to do nieporozumień – ten indeks będzie pomijany, ponieważ są omawiane interpretacje dla ustalonego pojedynczego cyklu decyzyjnego. Nie będziemy tu wprowadzali terminologii związanej z etapem A cyklu decyzyjnego – identyfikacji potrzeb, gdyż – jak wspomniano wcześniej – wchodzi ona w zakres psychologii i zależy bardzo silnie od wiedzy z tego obszaru. Przyjmiemy, że w wyniku tego etapu decydent potrafi zdefiniować swoje potrzeby i rozróżniać poziomy ich zaspokojenia, a doszedł do tej wiedzy z pomocą eksperta psychologa i metod psychologii poznawczej [Por. Keller 1988], lub metod sztucznej inteligencji14. Niemniej warto odnotować, że w problemach decyzyjnych o wysokim stopniu specjalizacji są prezentowane procedury wspomagania decydenta na całym obszarze cyklu decyzyjnego. Przykładowo Dyrektoriat Generalny „Energia i Transport Komisji Europejskiej” od 1998 roku finansował projekt European Local Transport Information Service [ELTIS, www.eltis.org], którego celem było przeciwdziałanie szkodliwym ubocznym efektom stałego wzrostu motoryzacji: m.in. redukcja konsumpcji energii oraz negatywnego wpływu emisji dwutlenku węgla na środowisko poprzez zaproponowanie wsparcia dla decydentów na poziomie lokalnym regionalnym użytkowDostarcza się tu raczej wędkę – procedurę decyzyjną, niż rybę – rozwiązanie ostateczne! Algorytmy sztucznej inteligencji pozwalają tworzyć pojęcia na podstawie analizy danych numerycznych i tekstowych (data mining i text mining odpowiednio). 13 14 116 Tomasz Szapiro ników, władz publicznych, planistów, naukowców praktyków i dziennikarzy, którzy stykają się z tą problematyką. Wsparcie to obejmuje udostępnianie aktualnej informacji narzędzi do ich efektywnego przetwarzania. Opracowano blisko 1500 studiów przypadków, materiały szkoleniowe i narzędzia skomputeryzowane dla praktyków. Jednym z takich narzędzi jest metoda Road User Charging (RUC) zaimplementowana w kilku miastach europejskich (m.in. w Londynie i Rzymie). Istotnym elementem tej kompleksowej metody jest generowanie opcji (działań) wykorzystujące pomocnicze instrumenty – macierze generowania działań, które prowadzą proces generowania potencjalnych działań służących do uporządkowania tego procesu [Por.: Kocak, Jones 2002]. Jak wspomniano wcześniej, w sytuacji decyzyjnej można wydzielić układ i otoczenie. Układem nazywamy tę część rzeczywistości, na którą decydent świadomie wywiera wpływ swoimi działaniami. Otoczenie to pozostała część rzeczywistości. Rozważamy tu dwie przykładowe sytuacje, których analiza będzie kontynuowana w miarę wprowadzania pojęć. Sytuacja pierwsza dotyczy decydenta posiadacza parasola wychodzącego na miasto. Sytuację tę można charakteryzować odnosząc się do sytuacji decydenta po wyjściu i do stanu pogody. W zależności od tego, czy weźmie parasol i od pogody, decydent będzie mokry lub suchy. Odnotujmy, że działanie (zabranie parasola lub nie) zależy od decydenta, zaś pogoda – nie. Konsekwentnie stany układu (decydenta) opisuje fakt, czy jest mokry, czy nie, a stany otoczenia (pogoda) wystąpienie deszczu lub nie. Zauważmy, że jeśli decydent ma kontrolę nad wszystkimi parametrami opisującymi sytuację decyzyjną, to nie występuje niepewność – możliwość wystąpienia różnych stanów. Ten prosty przypadek na razie pominiemy. Sytuacja druga to sytuacja rolnika decydującego o strukturze zasiewów. W zależności od struktury zasiewów, pojemności rynków, zasobów pracy i budżetu, a także – cen, efekty jego decyzji są różne. Warto odnotować, że i w tym przypadku pogoda ma znaczenie dla wyniku, gdyż decyduje o wysokości plonów i w konsekwencji o cenach. Na etapie B cyklu decyzyjnego zakładamy, że stany środowiska są reprezentowane przez interpretowalne etykiety ES, np. przez wektory sRS. W tej sytuacji problem zabrania parasola przy niepewnej pogodzie jako zbiór stanów układu możemy przyjąć etykiety „zmoknięty” oraz „suchy”. Zaś jako zbiór stanów otoczenia – etykiety „pada_deszcz” oraz „pogoda”. Bardziej skomplikowany jest opis w zadaniu stochastycznej optymalizacji planu zasiewów z cenami opisanymi przez zmienne losowe na zbiorze stanów otoczenia [Por.: Grabowski 1982]. Stany środowiska (stany pogody) ES nie są wtedy zadane jawnie – przyjmuje się założenie, że istnieją i posiadają strukturę przestrzeni probabilistycznej, na której jest określona miara interpretowana jako prawdopodobieństwo wystąpienia danego stanu oraz zmienna losowa, której wartości dla danego stanu reprezentują ceny przy danym stanie pogody. W takiej strukturze można określić rozkład zmiennej losowej, który następnie jest wykorzystany do wyznaczenia rekomendacji dla decydenta. Ponieważ istotny jest wtedy rozkład, który jest funkcją określoną na półprostej o wartościach przedziale [0,1], więc w praktyce elementem struktury nie jest zbiór stanów środowiska ES, lecz odpowiednio dobrana funkcja. Na etapie B cyklu decyzyjnego przyjmiemy także, że działania prowadzące do nowych stanów układu są reprezentowane przez etykiety EX, np. wektory xRN. W przyk- Iterowane cykle decyzyjne – próba opisu zunifikowanego 117 ładzie z parasolem zbiór etykiet działań to „wziąć_parasol”, „nie_brać_parasola”. W przykładzie stochastycznej optymalizacji planu zasiewów zbiór etykiet stanów układu stanowią wektory reprezentujące dopuszczalne plany zasiewów. Jest to więc zwarty podzbiór przestrzeni RN, gdzie N to liczba typów roślin, a jego zwartość wynika ze spełnienia przez współrzędne wektorów układu nierówności reprezentujących ograniczenie areału pojemności rynku, a także – warunki nieujemności. Na etapie C cyklu decyzyjnego przyjmiemy, że oceny stanów układu reprezentowane są przez etykiety EY, np. przez wektory yRM. W przykładzie z parasolem zbiór EY etykiet ocen składa się z elementów „nieznośnie” (zmoknięty) oraz „szczęśliwie” (suchy). W przykładzie stochastycznej optymalizacji planu zasiewów zbiór ocen stanowią liczby rzeczywiste – wartości oczekiwane spodziewanych zysków osiągniętych w wyniku realizacji dopuszczalnych planu zasiewów. Na etapie C cyklu decyzyjnego przyjmiemy także, że zależność wartości oceny decydenta od przedmiotu jego oceny i stanu otoczenia reprezentuje funkcja f:EX×ESEY, f(x,s)=y. Funkcja ta generuje multifunkcję15 f:EXD(EY); której wartości f(x) są dane wzorem, f(x)={f(x,s)}sES i reprezentują zbiór ocen działania w każdym z możliwych stanów. W przypadku bez niepewności mamy f:EX×ESEY, f(x,s)y, sES. W przykładzie z parasolem przyporządkowanie oceny stanom układu i otoczenia jest naturalne – nieznośnie zmoknąć można tylko, gdy pada deszcz i decydujemy się nie brać parasola. Zatem f(<wziąć_parasol>,<pogoda>)={suchy} zaś: f(<nie_brać_parasola>)={<zmoknięty>,<suchy>}, f(<wziąć_parasol>)={<suchy>}. W przykładzie stochastycznej optymalizacji planu zasiewów przyporządkowanie spodziewanego zysku danemu planowi zasiewów oznacza dokonanie niezbyt skomplikowanych działań arytmetycznych. Zgodnie z założeniem, zadajemy tu struktury przestrzeni probabilistycznych (x,Dx,Px), gdzie x=f(x), Dx2f(x). Wartość Px(A), ADx2f(x) interpretujemy jako prawdopodobieństwo, że efekt wystąpienia stanu x jest elementem zbioru A. Przyjmiemy także, że odwzorowanie p:EYf(x)y Px({y})[0,1] jest funkcją gęstości dla miary prawdopodobieństwa wystąpienia ceny y przy działaniu x. Rekomendacja dla decydenta wynika z wyznaczenia wartości oczekiwanej każdego działania i wyborze działania, które maksymalizuje tę wartość. Przypomnijmy, że do tego celu nie jest konieczna znajomość stanów otoczenia, gdyż wystarczy znać wartość odwzorowania p. Dlatego w analizie zamiast wyznaczać przestrzeń stanów ES otoczenia określa się klasę funkcji określonych na zbiorze EY i o wartościach w przedziale [0,1], spośród których dobiera się taką, która najlepiej reprezentuje prawdopodobieństwa wystąpienia wyników działań w danym stanie i tę funkcję wykorzystuje się w obliczeniach. 15 Multifunkcja to odwzorowanie F określone na zbiorze X, które każdemu elementowi xX przyporządkowuje dokładnie jeden niepusty podzbiór F(x)Y. Multifunkcje można traktować jako funkcje o wartościach w rodzinach podzbiorów zbioru Y. 118 Tomasz Szapiro Wprowadzone pojęcia pozwalają doprecyzować pojęcie problemu decyzyjnego i podjąć próbę definicji rozwiązania takiego problemu. Dla danego zestawu obiektów: EX, ES, EY oraz f i opcji zerowej x0 (czyli braku działania – zachowania sytuacji początkowej), xEX, problemem decyzyjnym jest wybór ze zbioru działań EX działania, które zmniejsza deficyt potrzeb. Należy zatem porównać zestawy ocen reprezentowanych przez elementy f(EX×ES). Problem decyzyjny oznacza więc wybór działania o możliwie wysokiej ocenie. Odnotujmy tu, że nie musi być znany stan pożądany układu (ocena pożądanego działania). W konsekwencji rozwiązanie problemu wymaga albo wyznaczenia działania prowadzącego do takiego stanu, którego ocena oznacza najwyższe zaspokojenie potrzeb albo– jeśli to nie jest możliwe lub działanie taki nie istnieje – wyznaczenie działania prowadzącego do stanu, którego ocena oznacza lepsze zaspokojenie potrzeb niż opcja zerowa16. W pierwszym przypadku problem nazwiemy skutecznie ustrukturyzowanym. W problemach skutecznie ustrukturyzowanych działanie o najwyższej ocenie17 jest rozwiązaniem problemu. W problemach, które nie są skutecznie ustrukturyzowane, możliwe jest rekomendowanie działań, które lepiej zaspokajają potrzeby niż stan aktualny. Zauważmy, że dla każdego takiego działania można przyjąć wynik rekomendacji jako nową opcję zerową i wyznaczać kolejną rekomendację. Wyznaczanie rozwiązania jest zatem procesem iterowanym, które wymaga określenia momentu zatrzymania tego procesu (działania, stany i oceny będziemy odtąd indeksować). Zauważmy, że w każdym z tych przypadków rozwiązanie problemu decyzyjnego z zadanymi obiektami: EX, ES, EY oraz f i opcją początkową x0, x0EX, wymaga porównywania ocen. Na etapie D cyklu decyzyjnego przyjmiemy, że rekomendacja jest wynikiem porównywania ocen, a zdolność do porównywania ocen – preferencje – reprezentuje określone na zbiorze par ocen odwzorowanie :EY×EYEY; którego wartości reprezentują wynik porównywania. W przykładzie z parasolem to przyporządkowanie oceny jest naturalne – „nieznośnie_zmoknąć” może być tylko wynikiem porównania tej oceny z nią samą. W przykładzie stochastycznej optymalizacji planu zasiewów wynik porównywania spodziewanych zysków y oraz y’ jest większą z porównywanych liczb: (y,y’)=max{y,y’}. Inaczej mówiąc preferowane jest działanie, dla którego jest spodziewany większy zysk. Na etapie E cyklu decyzyjnego – przetwarzania informacji i konstrukcji kolejnych rekomendacji – przyjmiemy, że ciąg xn jest zadany za pomocą procedury przetwarzania informacji o strukturze problemu wyznaczonej przez zbiory etykiet: EX, ES, EY i odwzorowania f oraz . Dokładniej, rekomendacja xn+1 w iteracji t=n+1, tT, dana jest wzorem: xn+1=(xn,sn); gdzie xnEX, snES, 16 Zauważmy, że w tym miejscu, przez stan rozumiemy łącznie stan układu i stan otoczenia. Zatem, warunek oznacza w istocie, iż istnieje działanie prowadzące do takiego stanu układu i istnieje taki stan otoczenia, że potrzeby są wtedy zaspokojone w najwyższym stopniu. 17 W optymalizacji wielokryterialnej jest to tzw. punkt idealny. Iterowane cykle decyzyjne – próba opisu zunifikowanego 119 przez odwzorowanie: f:EX×ESEX, określone przez tę procedurę, które nazwiemy operatorem rezolwenty. Powiadamy, że operator rezolwenty f:EX×ESEX zachowuje preferencje, jeśli dla każdej pary kolejnych rekomendacji xn oraz xn+1 preferowana jest rekomendacja późniejsza xn+1, czyli xnxn+1)=xn(xn,sn))=(xn,sn). W praktyce operator rezolwenty nie jest określony analitycznym wzorem podanym explicite, lecz konstruowany dla odrębnych klas problemów decyzyjnych. Gdy ciąg rekomendacji jest dwuelementowy, operator rezolwenty nazywamy regułą decyzyjną. 3. Zunifikowane problemy decyzyjne i ich rozwiązania Zbiór następujących obiektów: zbiór iteracji T, tT, stanów środowiska ES, zbiór działań zmieniających stany układu EX, zbiór oceny tych działań EY, przyporządkowanie f:EX×ESEY ocen decydenta działaniom i stanom otoczenia, reprezentację :EY×EYEY wyniku porównywania ocen oraz operator rezolwenty f:EX×ESEX wyznaczają strukturę procesu decyzyjnego. Zestaw , ={T,ES,EX,EY,f,,} – nazywamy zbiorem elementów strukturalnych procesu decyzyjnego. Wprowadzona terminologia pozwala w zunifikowany sposób określić definicje problemów decyzyjnych i ich rozwiązań. Dla danego zestawu elementów strukturalnych problemów skutecznie ustrukturyzowanych zachodzi równość (y,f(x*,s))=f(x*,s) dla wszystkich yf(EX×ES)i pewnego stanu sES. Zatem, x* jest ostateczną decyzją [Por. przypis 16]. Dla danego zestawu elementów strukturalnych i problemu, który nie jest ustrukturyzowany skutecznie, problemem decyzyjnym jest wybór ze zbioru działań EX takiego działania x*, dla którego oceny f(x*,s) dla dowolnego sES nie istnieje inna ocena y, yf(EX×ES), y≠f(x*,s) taka, że (y,f(x*s))=y. Decyzję x* nazywamy wtedy rozwiązaniem problemu ustrukturyzowanego skutecznie. W problemach, które nie są skutecznie ustrukturyzowane, rozważmy dwie sytuacje. W sytuacji pierwszej brak jest działania, które lepiej zaspokaja potrzeby niż opcja zerowa x (w stanie początkowym s0). Wtedy opcja zerowa x jest tylko formalnym rozwiązaniem problemu, ponieważ deficyt potrzeby nie ulega zmianie. W sytuacji przeciwnej, istnieje pewien stan s oraz działanie x’, które lepiej zaspokaja potrzeby niż opcja zerowa x w stanie początkowym s0, tzn. zachodzi równość (f(x’,s),f(x,s0))=f(x’,s), co oznacza, że następuje zmniejszenie deficytu potrzeb. Działanie x’ będzie nazywane rekomendacją. Rekomendację x’ można przyjąć jako nową opcję zerową, tj. opcję zerową w problemie decyzyjnym, którego stan początkowy określa wynik poprzedniego działania x’. Jeśli powtarzając iteracje dla pewnego N, dochodzimy do sytuacji, która 120 Tomasz Szapiro posiada tylko formalną rekomendację xN, to xN nazywany jest rozwiązaniem problemu nieskutecznie ustrukturyzowanego. Rozważmy formę zdaniową :EX×EX{0,1} określoną na zbiorze par rekomendacji oraz dwie rekomendacje x’ oraz x”. Jeśli (x’,x”)0, to powiemy, że x’ oraz x” reprezentują działania istotnie odmienne. W przeciwnym wypadku powiemy, że rekomendacja x’ nie jest istotnie różna, co oznacza zatrzymanie procesu decyzyjnego. Formę zdaniową nazywamy regułą stopu. Zauważmy, że interpretacja reguły stopu stwarza sytuację, która wymaga od decydenta określenia stopnia odmienności różnych opcji, jest więc czynnikiem związanym z jego postrzeganiem, a więc – z mechanizmami psychologicznymi. Dla danego zestawu elementów strukturalnych rozważmy ciąg rekomendacji xn, xnEX, nT. Powiadamy, że proces decyzyjny jest: – zbieżny silnie, jeśli ciąg rekomendacji xn jest stały od pewnego miejsca; – zbieżny, jeśli zbiór działań zmieniających stany układu EX posiada strukturę przestrzeni metrycznej, dla której ciąg rekomendacji xn jest ciągiem zbieżnym. Jeżeli ponadto dana jest reguła stopu :EX×EX{0,1}, powiadamy, że proces decyzyjny jest: – psychologicznie zbieżnym dla reguły stopu , jeśli istnieje kres dolny: N=inf {nT; (x’,x”) 1}. Wprowadzona terminologia pozwala opisać w zunifikowany i zwięzły sposób dyskretne procesy decyzyjne (tzn. opisane przez przeliczalne zbiory indeksów T) i może być rozszerzona na procesy ciągłe. Twierdzenie 2.1 – Jeśli zbiór działań zmieniających stany układu EX posiada strukturę przestrzeni metrycznej z metryką d, dla której ciąg rekomendacji xn (dla nT) jest ciągiem zbieżnym oraz decydent posiada regułę stopu :EX×EX{0,1}, dla której potrafi określić próg preferencyjnej nierozróżnialności działań x’ oraz x”, tzn. zachodzi następujący warunek (stopu): d(x’,x”)< (x’,x”)=1, to proces decyzyjny jest psychologicznie zbieżny w skończonej liczbie kroków. Dowód. Ze zbieżności ciągu rekomendacji xn wynika, że istnieje rekomendacja o wskaźniku N*=N(), która spełnia warunek stopu. Jeśli decydent nie potrafi określić progu preferencyjnej nierozróżnialności, ale wiadomo, że taki próg istnieje, to można dowolnie problem dokładnie aproksymować w sensie psychologicznym. Wniosek 2.1 – Jeśli dla danego zestawu elementów strukturalnych z operatorem rezolwenty zachowujacym preferencje proces decyzyjny strukturyzuje nieskutecznie i jest zbieżny, zaś decydent posiada regułę stopu :EX×EX{0,1}, dla której istnieje próg preferencyjnej nierozróżnialności działań, to problem decy- Iterowane cykle decyzyjne – próba opisu zunifikowanego 121 zyjny posiada rozwiązanie, które można dowolnie dokładnie aproksymować problemem o tym samym zestawie elementów strukturalnych , który jest psychologicznie zbieżny dla reguły stopu Dowód. Dla kolejnych, dowolnie małych progów nierozróżnialności możemy, zgodnie z dowodem poprzedniego twierdzenia, określić rekomendację o wskaźniku N=N(), która spełnia warunek stopu. Twierdzenie 2.2 – Jeśli dla danego zestawu elementów strukturalnych z operatorem rezolwenty zachowującym preferencje proces decyzyjny jest ustrukturyzowany nieskutecznie i jest zbieżny silnie, to problem decyzyjny posiada rozwiązanie. Dowód. Założenia twierdzenia oznaczają, że iterując rekomendacje przy pomocy operatora od pewnego miejsca otrzymujemy ciąg stały, a to zgodnie z definicją zachowania preferencji oznacza, że otrzymywana stale rekomendacja jest formalnym rozwiązaniem problemu z opcją zerową określoną przez tę rekomendację. Jest więc ona rozwiązaniem problemu nieskutecznie ustrukturyzowanego. Twierdzenie 2.3 – Jeśli dla danego zestawu elementów strukturalnych z operatorem rezolwenty zachowującym preferencje proces decyzyjny jest ustrukturyzowany nieskutecznie i jest zbieżny silnie oraz decydent posiada regułę stopu :EX×EX{0,1}, to proces decyzyjny jest psychologicznie zbieżny w skończonej liczbie kroków. Dowód. Założenia twierdzenia oznaczają, że iterując rekomendacje przy pomocy operatora od pewnego miejsca otrzymujemy ciąg stały, a zatem – od pewnego miejsca N rekomendacje xn nie mogą być uznane za odmienne. Dla dowolnej reguły mamy zatem (xN,xN+1)=1. W następnym paragrafie, pokażemy, że przedstawione pojęcia i twierdzenia charakteryzują w zunifikowany sposób teorie przedstawione w literaturze. 4. Przykłady zunifikowanych procesów decyzyjnych Rozważymy obecnie trzy zróżnicowane przykłady zunifikowanego opisu iterowanych cyklicznych procesów decyzyjnych. Dokładniej rozważamy sytuacje z występowaniem niepewności i bez niej, oraz: decyzje proste wykorzystujące tabele decyzyjne, optymalizację wielokryterialną w wariancie statycznym (z jednym cyklem decyzyjnym) oraz w wariancie iteracyjnym. 4.1. Decyzje proste o skutku niepewnym Rozważamy następujący zestaw DP, DP={T,ES,EX,EY,f,,} elementów strukturalnych. Zbiór iteracji T={0,1}, t=0 oznacza chwilę początkową zaś t=1 – końcową. 122 Tomasz Szapiro Skończony zbiór stanów środowiska identyfikujemy ze zbiorem ES={s1,…,sk} etykiet tych stanów. Skończony zbiór działań zmieniających stany układu identyfikujemy ze zbiorem EX={x1,…,xn} etykiet tych działań. Zbiór EY ocen tych działań także tworzą ich etykiety: EX={y1,…,ym}. Przyporządkowanie f:EX×ESEY ocen decydenta działaniom i stanom otoczenia jest reprezentowane przez tabelę decyzyjną Tij=[uij]i=1,..,n; j=1,…,m, zadaną wzorem uij=f(xi,sj)=yrEY. Odwzorowanie :EY×EYEY opisujące wynik porównywania ocen dane jest wzorem (yj,yk)=max{yj,yk}. Walda operator rezolwenty dany jest wzorem: f(xn,sn)= max{{min{f(xi,sj)}, j=1,…,m}, i=1,…,n}, f:EX×ESEX. Regułę stopu zdefiniujemy jako identyczność: (x’,x”)1 x’=x”, gdzie x’,x”EX. Tak określony zestaw DP nazywamy zestawem parametrów strukturalnych procesu podejmowania decyzji prostych w warunkach niepewności. Zestaw parametrów definiuje dwuelementową sekwencję podejmowania decyzji ze znanym stanem środowiska w iteracji 0. Dla, określonego wyżej, zestawu obiektów DP, problemem decyzyjnym jest wybór ze zbioru działań działania o możliwie wysokiej ocenie, co jest możliwie, gdy mamy do czynienia z problemem skutecznie ustrukturyzowanym, który obecnie rozważymy. Przykład. Niech zestaw DP, DP={T,ES,EX,EY,f,,} zadany jest przez T={0,1}, zbiór stanów środowiska ES={0,1} reprezentujący etykiety: „pada”, „nie_pada”, zbiór działań EX={0,1} reprezentujący etykiety: „wziąć_parasol”, „nie_brać_parasola”, zbiór EY={0,1} reprezentujący etykiety „nieznośny”, „znośny”. Wtedy tabela decyzyjna może być opisana przez przyporządkowanie f:{0,1}×{0,1}{0,1} dane wzorem f(x,s)=0 wtedy i tylko wtedy, gdy x=s=0, zaś opis preferencji :EY×EY={0,1}×{0,1}EY opisujące wynik porównywania ocen (yj,yk)=max{yj,yk}=0 tylko gdy yj= yk=0. Walda operator rezolwenty dany jest wzorem: wf (xn,sn)= max{{min{f(xi,sj)}, j=1,…,m}, i=1,…,n}, wf:EX×ESEX. Zauważmy, że: argX max wf(xn,sn)={(xn,sn): max{min{f(xi,sj)}}=1}={1}. Zatem element x=1 reprezentujący etykietę „wziąć parasol” jest rekomendacją w rozważanym problemie. Klasyczny opis tej sytuacji opisuje tabela decyzyjna: Stany Działanie nie_brać_parasola wziąć_parasol max {min uij} pada nie_pada min uij 0 1 1 1 0 1 1 Iterowane cykle decyzyjne – próba opisu zunifikowanego 123 Zauważmy, że przykładowy problem był ustrukturyzowany skutecznie – opcja wziąć parasol jest zawsze preferowana. Walda operator rezolwenty wf:EX×ESEX zachowuje preferencje w problemie z parasolem, ponieważ dla każdej pary kolejnych rekomendacji xn oraz xn+1, gdzie: xn+1=wf(xn,sn)= argX max wf(xn,sn)=1 mamy: xnxn+1)=xn(xn,sn))=xn)=1= (xn,sn). Na koniec tej części zauważmy, że w klasycznej analizie decyzji w warunkach niepewności rozważa się, obok reguły Walda, także inne reguły (m.in.: Savage’a, Laplace'a, Hurwicza). Nietrudno zdefiniować odpowiednie operatory rezolwenty i zastosować je w rozważanym przykładzie. W przypadku ogólnym można przy ich pomocy otrzymać różne rekomendacje to oznacza, że w fazie D oraz E cyklu decyzyjnego – porównywania ocen i doboru algorytmu przetwarzania informacji – powstaje, sygnalizowany wcześniej, (meta) problem wyboru reguły. 4.2. Procesy decyzyjne o wielokryterialnie ocenianym skutku działania Rozważamy następujący zestaw OW, OW={T,ES,EX,EY,f,,} elementów strukturalnych. Niech zbiór iteracji T={0,1}, gdzie t=0 oznacza chwilę początkową, zaś t=1 – końcową. Zbiór stanów środowiska jest jednoelementowy ES={s1} i będzie w opisie pomijany. Stany układu są reprezentowane przez etykiety xnEX=XRN; etykieta xn opisuje zestaw poziomów cech stanu układu występującego w efekcie podjęcia decyzji. Oceny stanów układu są reprezentowane przez etykiety EY, ynRM; etykieta yn opisuje zestaw poziomów ocen skutku decyzji ze względu na M kryteriów. Zależność wartości oceny od przedmiotu oceny reprezentuje odwzorowanie f:EX×ESES, a dokładniej – odwzorowanie f:RNXRM. Odwzorowanie EY×EYEY, a dokładniej – odwzorowanie :RM×RMRM opisujące wynik porównywania ocen dane jest wzorem: , zadane jest przy pomocy rodziny S(y), yRM, zaostrzonych stożków wypukłych18 w RM [Por.: Yu 1985]. Warto tu odnotować dwa fakty. Po pierwsze, że z powodów formalnych utożsamiamy zbiory jednopunktowe z ich elementami. Po wtóre, odwzorowanie nie dla wszystkich argumentów ma określone wartości, co oznacza, że model ten dopuszcza sytuacje, w których decydent nie potrafi wybrać między dwoma działaniami. 18 Stożkiem nazywamy zbiór taki, że dla każdego xS i dla każdego a0 mamy axS. Stożek jest zaostrzony, tzn. 0S. Stożek, będący zbiorem wypukłym, nazywamy stożkiem wypukłym. 124 Tomasz Szapiro Operator rezolwenty Pareto dany jest wzorem: Pf(x,s) = P(x) = f-1({yf(X) : (y’,y)=}), P: X2X. Operator rezolwenty dla problemu wielokryterialnego dany jest wzorem: OWf(x,s) = fOW(x) = rand {Pf(x,s)= }, f: XX, gdzie rand oznacza operator losowego wyboru elementu ze zbioru działań X. Tak zdefiniowany zestaw OW nazywamy zestawem parametrów strukturalnych procesu podejmowania decyzji wielokryterialnych. Dla danego zestawu OW, problem decyzyjny oznacza wybór działania prowadzącego do stanu o najwyższej ocenie albo wyznaczenie działania prowadzącego do stanu, którego ocena oznacza lepsze zaspokojenie potrzeb niż opcja zerowa. W problemach wielokryterialnych nie istnieje zazwyczaj działanie o najwyższych ocenach [Por. m.in.: Kaliszewski 2008; Szapiro 1991; Trzaskalik 2006; Yu 1985]. Możliwe jest jednak wtedy rekomendowanie działań y’, które lepiej zaspokajają potrzeby niż stan aktualny y0, tj. takie, że (y’,y0)= y’. Zgodnie z, podanymi wcześniej, definicjami, dla zestawu OW w problemie ustrukturyzowanym skutecznie (czyli, gdy nie istnieje dopuszczalny punkt idealny), z opcją zerową x formalnym rozwiązaniem problemu jest element x*=OW(x) zbioru EX=X, dla którego oceny y*=f(x*) nie istnieje inna ocena y, yf(X), y≠f(x*), taka, że (y,f(x*))=y, czyli dowolny element wartości rezolwenty. Przykład. Niech zestaw MOLP, MOLP={T,ES,EX,EY,f,,} jest zadany przez T={0,1}, jednoelementowy nie opisywany dalej zbiór stanów środowiska ES. Zbiór działań EX=XRN; zadany jest jako ograniczony wielościan zwarty ograniczony przez układ nierówności Ax≤b, zadanych przez macierz A wymiaru kn oraz wektor b, bRk. Nierówności interpretowane są jako ograniczenia sztywne [Por.: Szapiro 1993b]. Zbiór ocen EY=RM. Odwzorowanie f:RNXRM jest zadane wzorem f(x)=Cx, gdzie C jest macierzą wymiaru mn. Wiersze tej macierzy zadają funkcje interpretowane jako kryteria częściowej oceny. Odwzorowanie: :f(X)×f(X)RM, opisujące wynik porównywania ocen dane jest wzorem: , gdzie rodzina zaostrzonych stożków S(y), yRM wypukłych w RM jest zadana przez stożki stałe postaci19: S(y)=y+S=y+R+…R+, yRM. Zauważmy, że jeśli y’y, to (y’,y)=y’. Operator rezolwenty Pareto jest dany wzorem Pf(x,s) = P(x) = f-1({yf(X) : (y’,y)=}), P: X2X. 19 Znak + oznacza tu sumę wektorową zbiorów, zaś R+ zbiór liczb nieujemnych. Iterowane cykle decyzyjne – próba opisu zunifikowanego 125 Zatem, dla danego x, wektor x* należy do zbioru wartości P(x) operatora rezolwenty Pareto w x, jeśli nie istnieje działanie x’X, takie, że (f(x’),f(x*))=x’. Operator rezolwenty dla problemu wielokryterialnego dany jest znowu wzorem: OWf(x,s) = fOW(x) = rand{ Pf(x,s)= }, f: XX, gdzie rand oznacza operator losowego wyboru elementu ze zbioru X. Losowe rozwiązanie problemu wielokryterialnego z opcją zerową x0 to dowolny losowo wybrany element ze zbioru wartości rezolwenty Pareto. Alternatywą dla rozważania rozwiązania losowego jest traktowanie całego zbioru Pf(x,s) jako rozwiązania problemu. Klasyczny opis tej sytuacji zadają: liczba charakterystyk decyzji n, zbiór warunków gi(x)≤bi dla i=1,2,…r na dopuszczalność zmiennych decyzyjnych, liczba kryteriów oceny decyzji m wektorowa funkcja celu f:X=RnY=Rm, określająca wektor y=f(x) ocen decyzji x, czyli: y1 (x) f 1 (x) x1 2 2 x y (x ) f m (x ) . f y(x) x m n m y ( x ) f ( x ) x Zadanie (matematycznej) optymalizacji wielokryterialnej polega na jednoczesnej maksymalizacji składowych fj wektorowej funkcji celu f: f 1 (x ) 2 f (x) V-max. f (x) m f ( x ) Ocenę f(x) rozwiązania dopuszczalnego x nazywa się niezdominowaną, jeśli nie istnieje inne, różne od niego, rozwiązanie dopuszczalne x’, z niemniejszymi składowymi oceny f(x’). Rozwiązanie o niezdominowanej ocenie nazywa się sprawnym. Zbiorem rozwiązań problemu optymalizacji wielokryterialnej jest zbiór XE rozwiązań sprawnych. W zaproponowanej tu unifikującej terminologii, zbiór rozwiązań sprawnych to wartość operatora rezolwenty Pareto. Ponieważ trudno jest zaakceptować losowy wybór rekomendacji nawet, jeśli nie istnieje rekomendacja bardziej korzystna, więc skonstruowano wiele metod wyznaczenia jednoznacznej rekomendacji spośród zbioru rozwiązań sprawnych, m.in.: optymalizację funkcji kompromisu, optymalizację leksykograficzną, celową, hiperboliczną i minimaksową [Por.: Galas i in. 1984; Steuer 1986]. Istota tych metod polega na uwzględnieniu dodatkowej informacji do wzbogacenia struktury problemu w sposób pozwalający na jego transformację do problemu jednokryterialnego i jego optymalizacji. Pojawienia się tych metod i fakt, że prowadziły one do różnych rekomendacji spowodowało zainteresowanie etapem D oraz E cyklu decyzyjnego i doprowadziło do zainteresowania interaktywnymi procesami podejmowania decyzji, które są przedmiotem następnego paragrafu. 126 Tomasz Szapiro 4.3. Interaktywne procesy podejmowania decyzji wielokryterialnych Dla uproszczenia prezentacji rozważymy sytuację, kiedy interaktywny proces decyzyjny prowadzi do zmian zbioru dopuszczalnych działań i kryteriów oceny. Nadal rozważamy także problem bez niepewności i stosujemy, wprowadzony wcześniej, opis zunifikowany odmiennie niż propozycja [Por.: Luque i in. 2007, 2008] dotycząca nieliniowych procesów wielokryterialnych. Rozważamy ciąg zestawów tMOLP, tMOLP={T,EtS,EtX,EtY,ft,t,t}={Tt,Xt,ft,St,tOW} elementów strukturalnych problemów wielokryterialnych ze wspólnym zbiorem iteracji Tt={t1,t2,…}={1,2,…}N. Zestawy te interpretujemy jako kolejne próby restrukturyzacji problemu decyzyjnego. Niech dana będzie opcja zerowa x0X0. Niech xk+1=kOW(xk) będzie rekomendacją otrzymaną przy pomocy operatora rezolwenty kOW. Niech ponadto będzie określony ciąg odwzorowań Rk, Rk:, które przekształcają pewną rodzinę podzbiorów RN zawierającą X, w rodzinę podzbiorów tej przestrzeni. Niech X0=X oraz X(k+1)=Xk+1=Rk(Xk), gdzie X jest zadany jak w przykładzie, w poprzednim paragrafie. Odwzorowania Rk, Rk:, interpretujemy jako restrukturyzacje zbioru decyzji, dopuszczalnych w kolejnych iteracjach procesu podejmowania decyzji w wyniku pozyskania informacji od decydenta. Aby nie komplikować zapisu, przyjmujemy, że proces restrukturyzacji nie obejmuje ocen. Ciąg wartości operatorów rezolwenty Pareto kP, kP:X(k)2X(k+1) reprezentuje kolejne zbiory rekomendacji, zaś ciąg wartości operatorów rezolwenty xk=kOW(k-1OW), kOW:X(k)X(k) – reprezentuje ciąg rekomendacji losowych. Do ciągu tego stosują się, wprowadzone wcześniej, twierdzenia 2.1 – 2.3 formułujące warunki zbieżności. Wniosek 4.1. – Jeśli ciąg rekomendacji xn jest ciągiem zbieżnym oraz decydent posiada regułę stopu :X×X{0,1}, dla której potrafi określić próg preferencyjnej nierozróżnialności działań x’ oraz x”, tzn. d(x’,x”)< (x’,x”)=1, to proces decyzyjny jest psychologicznie zbieżny w skończonej liczbie kroków. Jak wiemy, jeśli decydent nie potrafi określić progu preferencyjnej nierozróżnialności, ale wiadomo, że taki próg istnieje, to można dowolnie problem dokładnie aproksymować w sensie psychologicznym. Wniosek 4.2. – Jeśli dla danego ciągu zestawów elementów strukturalnych t z operatorami rezolwenty zachowującymi preferencje proces decyzyjny strukturyzuje nieskutecznie i jest zbieżny, zaś decydent posiada regułę stopu :Xt×Xt{0,1}, dla której istnieje próg preferencyjnej nierozróżnialności działań, to problem decyzyjny posiada rozwiązanie, które można dowolnie dokładnie aproksymować problemem o tym samym zestawie elementów strukturalnych , który jest psychologicznie zbieżny. Iterowane cykle decyzyjne – próba opisu zunifikowanego 127 Wniosek 4.3. – Jeśli dla danego ciągu zestawów elementów strukturalnych t z operatorami rezolwenty zachowującymi preferencje proces decyzyjny jest ustrukturyzowany nieskutecznie i jest zbieżny silnie, to problem decyzyjny posiada rozwiązanie. Wniosek 4.4. – Jeśli dla danego ciągu zestawów elementów strukturalnych t z operatorami rezolwenty zachowującymi preferencje proces decyzyjny jest ustrukturyzowany nieskutecznie i jest zbieżny silnie oraz decydent posiada regułę stopu :EX×EX{0,1}, to proces decyzyjny jest psychologicznie zbieżny w skończonej liczbie kroków. Powyższe wnioski dowodzą, że warunki wystarczające dla istnienia skończonych procesów podejmowania decyzji wymagają zgodności operatora rezolwenty z preferencjami oraz określania progu preferencyjnej nierozróżnialności. Definicja operatorów rezolwenty jest związana ze wspomnianym wcześniej etapami: A, B i C cyklu decyzyjnego, a więc procesów identyfikowania potrzeb, działań i sposobów ich oceny. Wymagają one uwzględnienia interaktywności – sprzężenia pomiędzy rekomendacjami w kolejnych cyklach decyzyjnych i wpływu ich oceny na strukturę problemu w iteracji następnej. Istnieje wiele propozycji konstruowania rekomendacji wykorzystujących operator rezolwenty [Por. m.in.: przegląd Szapiro 1991]. Klasyczne zintegrowane sformułowanie dla podejść interaktywnych podali Gardiner i Steuer [Gardiner, Steuer 1994]. W propozycjach tych konstrukcja operatorów gwarantuje zgodność z preferencjami decydenta oraz prowadzi do zbieżności psychologicznej procesów decyzyjnych, które mogą być reprezentowane przy ich pomocy. W szczególności procedura dwureferencyjna Michałowskiego i Szapiro [Michałowski, Szapiro 1992] prowadzi do silnej zbieżności takiego procesu [Por.: Szapiro 1993a], i może stanowić punkt wyjścia do analizy problemów nieliniowych [Por.: Luque i in. 2010]. 5. Podsumowanie Podane przykłady nie wyczerpują listy struktur, które można unifikować poprzez specyfikację zestawu elementów strukturalnych. Ze względu na brak miejsca, pominięto np.: decyzje sekwencyjne (drzewa decyzyjne), wieloatrybutową teorię użyteczności, optymalizację stochastyczną i problemy z opisem niepunktowym (wykorzystujące w modelowaniu zbiory przybliżone). Dla każdego z nich można zdefiniować elementy strukturalne. Ich szczegółowe opisy będą przedmiotem innych tekstów. Warto odnotować, że w każdym z tych przypadków stosują się twierdzenia o zbieżności procesu decyzyjnego. Pojęcia wprowadzone w niniejszym tekście pozwalają sformułować dwa interesujące kierunki badań. Pierwszym jest aksjomatyzacja podejścia zunifikowanego i próby sformułowania własności procesów decyzyjnych spełniających zadaną aksjomatykę. Kierunek drugi to konkretyzacja zunifikowanego procesu decyzyjnego dla nowych zastosowań. Warto odnotować, że każda taka konkretyzacja może prowadzić do nieoczywiste- 128 Tomasz Szapiro go problemu sprawdzenia założeń sformułowanych tu twierdzeń. Innym ciekawym kierunkiem badań jest włączenie do, podanego w pracy, schematu unifikującego modele procesu decyzyjnego wyników: Keller, Ho, Winn, Smitha i Keeneya dotyczących procesu strukturyzacji (a zwłaszcza identyfikacji działań i ich ocen). Wydaje się, że naturalną drogą do tego celu jest wykorzystanie modeli automatycznego generowania wiedzy [Por.: Mitchell 1997; Witten 2005]. Literatura Ghiglieri M.P. 2001 Ciemna strona człowieka. W poszukiwaniu źródeł męskiej agresji, Warszawa. Galas Z., Nykowski I., Żółkiewski Z. 1987 Programowanie wielokryterialne, Warszawa. Gardiner L.R., Steuer R.E. 1994 Unifed interactive multiple objective programming, „European Journal of Operational Research”, 74(3), 1994. Grabowski W. 1982 Programowanie matematyczne, Warszawa. Hastie R., Dawes R.M. 2010 Rational Choice in an Uncertain World: The Psychology of Judgment and Decision Making, Sage. Janis I. 1972 Victims of groupthink; a psychological study of foreign-policy decisions and fiascoes, Boston. Kaliszewski I. 2008 Wielokryterialne podejmowanie decyzji, Warszawa. Keeney R. 1994a Creativity in decision making with value-focused thinking, „Sloan Management Review”, Vol. 35. Keeney R. 1994b Using Values in Operations Research, „OR Forum”, Vol. 42, No. 5. Keller L.R., Ho J.L. 1988 Decision Problem Structuring: Generating Options, „IEEE Transactions on System, Man and Cybernetics”, vo. 18, No. 5. Kocak N.A, Jones P. 2002 Road User Charging: Tool for Option Generation to Increase Acceptability, Cambridge. Lindley D.V. 1986 The Reconcillation of Decision Analysis, „Operations Research”, Vol. 34, No. 2. Luque M., Ruiz F., Miettinen K. 2007 GLIDE – General Formulation For Interactive Multiobjective Optimization, „Helsinki School of Economics Working Paper”, Nr W-142. Luque M., Ruiz F., Miettinen K. 2008 Global Formulation For Interactive Multiobjective Optimization, „OR Spectrum”, [Dokument elektroniczny, tryb dostępu: http://dx.doi.org/ /10.1007/s00291-008-0154-3]. Luque M., F. Ruiz, R.E. Steuer 2010 Modifed Interactive Chebyshev Algorithm (MICA) for Convex Multiobjective Programming, „European Journal of Operational Research”, vol. 204, issue 3. Maslow A. 1943 A Theory of Human Motivation, „Psychological Review”, Vol. 50,. Metody wielokryterialne na polskim rynku finansowym, (red.) T. Trzaskalik, Warszawa, 2006. Michałowski W., Szapiro T. 1992 A Bi-Reference Procedure for Interactive Multiple Criteria Programming, „Operations Research”, T. 40, Nr 2. Mitchell T. 1997 Machine Learning, McGraw Hill. Simon H. 1986 Rationality in Psychology and Economics, „Journal of Busines”, Vol. 59, No. 4. Iterowane cykle decyzyjne – próba opisu zunifikowanego 129 Simon H. 1983 Alternative Vions of Rationality, Chapter 8 in: Reason In Human Affairs, Stanford University Press. Smith G.F. 1998 Towards a Heuristic Theory of Problem Structuring, Management Science, Vol. 34, No. 12. Steuer R.E. 1986 Multiple Criteria Optimization: Theory, Computation and Application, New York. Szapiro T. 1993a Convergence of the Bi-Reference Procedure in Multiple Criteria Decision Making, „Ricerca Operativa”, t. 23, nr 66. Szapiro T. 1993b Co decyduje o decyzji, Warszawa. Szapiro T. 1991 Podejście interaktywne we wspomaganiu podejmowania decyzji, Monografie i Opracowania, Warszawa. Winn, M., Keller L.R. 2001 A Modeling Methodology for Multiobjective Multistakeholder Decisions. Implications for Research, „Journal of Management Inquiry”, Vol. 10 No. 2, 2001. Witten I.H., Frank E. 2005 Data Mining: Practical Machine Learning Tools and Techniques (Second Edition), Morgan Kaufmann. Wojciszko B. 2000 Relacje interpersonalne, [w:] Psychologia. Tom III, (red.) J. Strelau, Gdańsk. Yu P.-L. 1991 Habitual Domains, “OR Forum”, Vol. 39, No. 6. Yu P.-L. 1985 Multiple-Criteria Decision Making, New York. OPTIMUM. STUDIA EKONOMICZNE NR 4 (48) 2010 Krzysztof BARTECZKO, Andrzej F. BOCIAN1 MODELOWANIE MAKROEKONOMICZNE – POTRZEBY I DYLEMATY2 Streszczenie Artykuł jest głosem w dyskusji na temat uwarunkowań budowy i zastosowania modeli makroekonomicznych. Konstrukcję makromodeli determinują trzy elementy: teoria ekonomii, w ramach której są tworzone; dostępne techniki modelowania oraz zbiory wiarygodnych danych liczbowych. Stosowanie makromodeli wynika z potrzeb polityki gospodarczej, a ich struktura jest determinowana przez konkretne wyzwania bieżące i przyszłe, związane z tworzeniem strategicznych wizji rozwoju gospodarczego. W artykule zwrócono również uwagę na dynamikę procesów globalizacyjnych, które w połączeniu z efektami światowego kryzysu 2007-2009 wyznaczają nowe uwarunkowania dla twórców modeli makroekonomicznych. Artykuł został wzbogacony przykładowymi konstrukcjami modelowymi oraz wskazaniami dotyczącymi wykorzystania technik modelowych w procesie podejmowania decyzji makroekonomicznych. Słowa kluczowe: teoria wzrostu, makroekonomia, modelowanie, globalizacja, kryzys światowy, polityka gospodarcza MACROECONOMIC MODELLING – NEEDS AND DILEMMAS Summary The article is a comment in a discussion on conditions concerning design and usage of macroeconomic models. Building of macromodels is determined by three elements: theory of economics, within the scope of which they are built, accessible modelling techniques, and sets of reliable numerical data. The use of macromodels results from the guidelines of economic policy, and their structure is determined by concrete current and future challenges connected with creating of strategic visions of economic development. In the article, the authors also highlight the dynamic of globalization processes which, together with the effects of the global crisis of the period 2007-2009, provide new perspectives for creators of macroeconomic models. In addition, the article provides numerous examples of model constructions and recommendations concerning utilization of model techniques in the process of making macroeconomic decisions. Keywords: theory of growth, macroeconomy, modelling, globalization, global cisis, economic policy 1 Dr Krzysztof Barteczko jest pracownikiem Polsko-Japońskiej Wyższej Szkoły Technik Komputerowych w Warszawie. Prof. dr hab. Andrzej F. Bocian jest pracownikiem Wydziału Ekonomii i Zarządzania Uniwersytetu w Białymstoku. 2 W artykule wykorzystano fragmenty z przygotowywanej do wydania przez Wydawnictwo Uniwersytetu w Białymstoku książki pt. Prognozowanie i symulacje procesów gospodarczych. Modelowanie makroekonomiczne – potrzeby i dylematy 131 1. Modele i teorie wzrostu Teoria wzrostu gospodarczego ma długą historię za sobą i prawdopodobnie jeszcze dłuższą historię przed sobą, bowiem ciągle przybywają nowe tematy do dyskusji oraz ujawniają się zagadnienia dotychczas nie nierozpoznane [Por.: Barro 1997; Romer 2000]. Zwłaszcza dynamicznie rozwijające się procesy integracyjne i globalizacyjne powodują wzbogacenie listy tematów do rozpoznania o nowe zagadnienia. Ta postępująca złożoność świata i potęgująca się wielowymiarowość gospodarki wymaga nowych ujęć modelowych i nowych teorii. Po takim stwierdzeniu, trzeba jednak zadać następne pytanie – czy rzeczywiście istniejące modele i teorie makroekonomiczne nie nadają się do badania aktualnych procesów gospodarczych. Czy wraz z dynamiką procesów globalizacji postępująca dominacja struktur finansowych nad strukturami procesów realnych wymusza inny warsztat modelowania makroekonomicznego. Jeżeli próbujemy tworzyć modele, które można by zastosować do współczesnych gospodarek – gospodarek, których główną funkcją jest generowanie zmian przez opracowanie i wdrażanie innowacji oraz doskonalenie innowacji już dostępnych – to przeczeniem samemu sobie byłoby przyjęcie postulatu racjonalnych oczekiwań, głoszącego, że każda zmiana mająca zajść w przyszłości jest już przewidywalna i znana, że nadchodząca zmiana jest w pewnym sensie ustalona z góry. Niemniej jednak współcześni ekonomiści, budując swoje modele, przyjmują racjonalne oczekiwania, nie zdając sobie sprawy z tej sprzeczności lub ignorując ją: albo wykluczają zmianę w świecie (świecie, który opisywałby ich model) w ogóle, albo zakładają, że wszelkie zmiany, które mogłyby zajść, można włączyć do modelu w sposób z góry całkowicie zdeterminowany. Słowa te napisał Edmund S. Phelps we wstępie do ważnej książki Ekonomia wiedzy niedoskonałej [Zob.: Frydman, Goldberg 2009]. Symbolika tytułu tej książki jest znamienna. Jej autorzy poszukują nowego podejścia do modelowania makroekonomicznego, odchodząc od teorii racjonalnych oczekiwań i ekonomii behawioralnej. Ekonomia niedoskonałej wiedzy skupia uwagę na zmianach jakościowych, a nie ilościowych prawidłowościach, przy czym autorzy w konstruowanych modelach analizują nierutynowe decyzje i nieprzewidywalne zmiany w kontekście społecznym. Ponadto, autorzy akcentują fakt, że wiedza uczestników rynku i twórców polityki jest niedoskonała, a stosowanie stałych reguł polityki powinno być filtrowane przejściem z jednej struktury gospodarki do innej. Prowadząc rozważania na powyższe tematy, trzeba pamiętać o wielości teorii ekonomicznych i jeszcze większej ilości i różnorodności modeli makroekonomicznych, ponieważ każdy model jest, bądź powinien być, zanurzony w jakiejś teorii ekonomicznej. Pytanie, czy dana teoria jest prawdziwa czy fałszywa kieruje rozważania na fałszywy trop. Mówimy przecież o teoriach sfalsyfikowanych, a wówczas żadna z nich nie jest fałszywa. Lepiej zatem prowadzić dyskusję w obszarze dominujących paradygmatów. Bierze się wtedy pod uwagę te teorie makroekonomiczne (i te modele), które wpływają na kształt realizowanej polityki gospodarczej. Wtedy zbiór teorii ulega mocnym ograniczeniom, a dla wielu autorów jest to tylko keynesizm i ekonomie nurtu neoliberalnego. Każdy model jest uproszczonym odwzorowaniem rzeczywistości, skonstruowanym w języku określonej teorii i przyjętych technik modelowania. Oczywiście w kryteriach klasyfikacyjnych modeli można wyróżnić jeszcze takie cechy, jak: czas, zakres 132 Krzysztof Barteczko, Andrzej F. Bocian i dziedziny modelowania oraz miejsce i rola procesu modelowania w strukturach decyzyjnych głównych aktorów polityki gospodarczej. Punktem wyjścia tych podziałów jest także poziom aplikacji danego modelu. Identyfikacja i kwantyfikacja czynników wzrostu oraz poszukiwanie przyczyn, które powodują, że jedne kraje mają szybszą, a inne wolniejszą dynamikę wzrostu i poprawy dobrobytu z roku na rok, zastanawiał, i niepokoił, badaczy poszczególnych szkół myśli ekonomicznej prawie od zawsze. Obecnie jest to tym ważniejsze, że na rozwiązanie tych kwestii niecierpliwie czekają politycy gospodarczy, próbujący szukać optymalnych ścieżek rozwojowych dla swoich krajów. Modele wzrostu są budowane na podstawie funkcji produkcji, w której kategoria produktu jest objaśniana trzema zmiennymi: kapitałem, siłą roboczą oraz postępem technicznym lub „wiedzą”. Większość modeli wzrostu bądź makromodeli strukturalnych, które powstały w ciągu ostatnich pięćdziesięciu lat, wykorzystuje właśnie formułę funkcji produkcji [Por.: Welfe, Welfe 1996]. Modele wzrostu gospodarczego można także podzielić na modele egzogeniczne i endogeniczne. Egzogeniczne modele wzrostu są nazywane także modelami neoklasycznymi lub podażowymi. W tych modelach jest przyjmowane założenie, że istniejące czynniki produkcji są w pełni wykorzystywane oraz że nie ma ograniczeń popytowych. Modele te opisują długookresowy i zrównoważony wzrost gospodarczy, którego stopa jest określona przez egzogeniczną stopę postępu technicznego. Do modeli typu egzogenicznego zalicza się modele: Solowa, Mankwina, Romera i Weila. W endogenicznych modelach wzrostu gospodarczego przyjmuje się, że postęp techniczny (który jest reprezentowany przez: akumulację, wiedzę naukowo-techniczną i kapitał ludzki) jest efektem decyzji inwestycyjnych konsumentów i producentów oraz państwa. W modelach tych przyjmuje się założenie o endogenicznym charakterze stopy postępu technicznego. Model R. Solowa praktycznie leży u podstaw każdej analizy wzrostu. W modelu Solowa wyróżnia się trzy czynniki, które oddziałują na wzrost: postęp techniczny (reprezentowany przez stopę wzrostu ogólnej produktywności czynników wytwórczych), akumulacja kapitału i nakłady pracy. Nakłady pracy i kapitału są mierzalne, natomiast produktywność czynników wytwórczych nie można bezpośrednio powiązać z żadnym czynnikiem produkcji [Zob.: Solow 1957]. Oderwanie się od myślenia w kategoriach kanonów modelu Solowa stanowi punkt wyjścia do nowej teorii wzrostu. W ujęciach tej teorii postęp techniczny ma charakter endogeniczny, proces inwestowania w akumulację wiedzy uznaje się za niezwykle ważny, zaś kapitał ludzki odgrywa kluczową rolę w procesie wzrostu. Stanowi to wyjście poza sferę realną w relacjach przyczynowo-skutkowych opisujących równanie wzrostu oraz zawiera poszerzoną interpretację kapitału o kapitał ludzki [Por.: Romer 2000]. Rola kapitału niematerialnego (intelektualnego) w nowej gospodarce – gospodarce, w której decydującą rolę odgrywa wiedza – tworzy ważny przyczynek do dyskusji o czynnikach wzrostu. Oznacza to, że kapitał ludzki reprezentowany przez: wiedzę, doświadczenie, umiejętność kreatywnego myślenia i działania, zdolność do współpracy jest czynnikiem determinującym dynamikę wzrostu. Oczywiście, jeżeli rozpatru- Modelowanie makroekonomiczne – potrzeby i dylematy 133 je się problem z punktu widzenia makroekonomicznego, kapitał ten musi być związany z różnymi strukturami wytwórczymi, a szerzej, z określoną strukturą gospodarczą. Powyższe procesy należy zatem postrzegać w kontekście zmian dokonujących się w strukturach gospodarczych, a przede wszystkim w strukturze tworzenia produktu narodowego (zmiana proporcji udziału rolnictwa, przemysłu i sfery usług w wytwarzaniu PKB) i w strukturach zatrudnienia. Tradycyjna funkcja produkcji pozwalała na osiąganie wzrostu, dysponując tylko kapitałem i pracą. Funkcja produkcji, uwzględniająca kapitał wiedzy i umiejętności, wskazuje, że ekonomiki dysponujące skromnymi zasobami kapitałowymi mają także szansę na rozwój. Podstawowym warunkiem jest jednak nowoczesność gospodarki i jej łatwa adaptacyjność do zmian. Podejście popytowe jest rekomendowane przez ekonomię nurtu keynesowskiego. J.M. Keynes podkreślił znaczenie zagregowanego popytu w wahaniach makroekonomicznych. Natomiast podejście podażowe jest proponowane przez ekonomię klasyczną i ekonomię nurtu liberalnego. Powstanie teorii J.M. Keynesa w latach trzydziestych XX wieku, w okresie wielkiego kryzysu światowego, dało początek makroekonomii i stworzyło teoretyczne podstawy polityki interwencjonizmu państwowego w gospodarce konkurencyjnej [Por.: Keynes 1985]. J.M. Keynes zakwestionował mechanizmy samoregulacji rynkowej, które miałyby zapewnić stan równowagi na rynkach cząstkowych. Stąd konieczność ingerencji państwa w procesy gospodarcze i pełnienia przez państwo roli stabilizacyjnej. Stan nierównowagi – dotyczący równoważenia poziomu oszczędności i poziomu inwestycji – jest związany z pojęciem krańcowej skłonności do konsumpcji (która jest relacją przyrostu konsumpcji do przyrostu dochodów). Stały wzrost dochodów na mieszkańca wywołuje zmniejszanie się psychologicznej skłonności do konsumpcji – w ten sposób następuje szybszy wzrost oszczędności niż konsumpcji, a gdy w gospodarce występuje nadmiar kapitału – wówczas nie wszystkie oszczędności przekształcają się w inwestycje. Szkoła keynesowska w swojej działalności położyła nacisk na analizę agregatową popytu globalnego. Zwiększenie popytu globalnego przyspiesza tempo wzrostu i ogranicza bezrobocie. Polityka gospodarcza, skierowana na pobudzenie wzrostu globalnych wydatków, doprowadza do wzrostu popytu konsumpcyjnego, następnie stopy inwestycji oraz przyrostu popytu efektywnego i wzrostu zatrudnienia, co w efekcie wywołuje rozwój gospodarczy. Państwo steruje globalnym popytem, wykorzystując narzędzia polityki fiskalno-budżetowej i polityki pieniężnej. Nurty ekonomii liberalnej w wolnym rynku i ograniczeniu wpływu państwa na gospodarkę upatrują główne źródło osiągania stabilności we wzroście. Monetaryści uważają, że gospodarka jest stabilna w długim okresie, jeśli państwo nie zakłóca funkcjonowania rynku, a w polityce gospodarczej decydującą rolę spełnia polityka pieniężna. Głównym celem polityki gospodarczej powinno być ograniczanie inflacji i zapewnienie stabilności cen [Por.: Landreth, Colander 1998]. Przedstawiciele kierunku ekonomii racjonalnych oczekiwań (R. Lucas, G. S. Becker i inni) zakładają, że ludzie formułują swoje oczekiwania co do przebiegu procesów 134 Krzysztof Barteczko, Andrzej F. Bocian ekonomicznych, opierając się na dostępnej wiedzy i że nie popełniają w swych decyzjach systematycznych błędów. Polityka gospodarcza powinna uwzględniać fakt, że jednostki potrafią zrozumieć intencje realizatorów polityki i odpowiednio szybko zareagować. Zakłócenia gospodarcze są równoważone przez reakcje dostosowawcze uczestników rynku. Rola polityki gospodarczej jest ograniczona, ponieważ podmioty gospodarcze podejmują decyzje na podstawie wielkości realnych i nie dokonują błędnych wyborów przy formułowaniu oczekiwań dotyczących kształtowania przyszłych procesów gospodarczych. Polityka gospodarcza powinna zatem utrzymywać stabilne ceny oraz stymulować podażową stronę gospodarki. 2. Funkcje i rola modelowania polityki makroekonomicznej Przyjmując szeroką definicję polityki gospodarczej oraz szeroką interpretację polityki makroekonomicznej, proces formułowania tej ostatniej można schematycznie podzielić na szereg wzajemnie powiązanych etapów: A. Diagnozowanie i identyfikacja sytuacji problemowych. B. Formułowanie głównych celów polityki, wynikających z długookresowych ustaleń strategicznych i bieżącej diagnozy. C. Formułowanie założeń w odniesieniu do warunków, w jakich będzie odbywać się realizacja polityki. D. Formułowanie celów pośrednich, wynikających ze zderzenia celów głównych z antycypowaną dynamiką warunków realizacyjnych. E. Formułowanie zasad działania. F. Określenie zestawu składowych polityk złożonych i terminalnych, niezbędnych do realizacji poszczególnych celów w przewidywanych warunkach i przy respektowaniu przyjętych zasad działania. G. Dobór odpowiednich instrumentów i działań w ramach każdej z polityk składowych. Proces ten jest iteracyjny: zaczyna się być może od szkicowego „wypełnienia” każdego z etapów, po czym założenia i hipotezy są konkretyzowane i weryfikowane za pomocą odpowiednich analiz. Modelowanie ekonomiczno-matematyczne traktujemy jako jedno z narzędzi analitycznych, wspomagających zarówno tworzenie, jak i weryfikację założeń „etapowych” w wyżej naszkicowanym procesie. Jest to również instrument całościowego badania konsekwencji założeń ostatecznie sformułowanej polityki. Ogół zastosowań modeli w tych obszarach będziemy nazywać modelowaniem polityki makroekonomicznej. Dlaczego jednak w ogóle warto stosować modelowanie w tego rodzaju analizach? Rzecz w tym, że modele umożliwiają swoistą syntezę rozproszonej i heterogenicznej informacji, a także dostarczają informacji nowej, a priori nie znanej. Pozwalają na uwzględnienie w analizie znacznie większej ilości sprzężeń gospodarczych niż rozumowanie jakościowe. Formalizm konstrukcji modelowych wymusza jasne i klarowne precyzowanie założeń i hipotez, które leżą u podstaw analiz. Ma to niebagatelne znaczenie dla weryfikacji ich wyników oraz rozumienia i doskonalenia procesu ana- Modelowanie makroekonomiczne – potrzeby i dylematy 135 lityczno-studialnego. W istocie, każde rozumowanie o gospodarce posługuje się jakimś jej modelem. Wydobycie go „na światło dzienne” w postaci sformalizowanej konstrukcji warunkuje możliwość oceny i doskonalenia przyjętego schematu rozumowania, stając się tym samym niezbędnym warunkiem „uczenia się” całego procesu formułowania polityki makroekonomicznej. Szczególną użyteczność modelowanie ekonomiczno-matematyczne może wykazać w pracach związanych z: etapami diagnozowania, identyfikowania warunków, określania celów oraz doboru instrumentów i działań. W fazie diagnostycznej jest istotne rozpoznanie sposobu funkcjonowania oraz stanu gospodarki. Pomagają w tym behawioralne modele opisowe, zawierające wyjaśnienie sposobu funkcjonowania gospodarki w kategoriach przyczynowo-skutkowych sprzężeń zmiana-reakcja. Są one również pomocne w przezwyciężaniu barier informacyjnych, związanych z brakiem wielu niezbędnych informacji statystycznych (w ujęciu kategorialnym) oraz małą mocą zbiorów porównywalnych danych (w ramach rejestrowanych w statystyce kategorii). Estymowanie nieobecnych w statystyce parametrów, odzwierciedlających ważne zjawiska ekonomiczne, jest przecież zdobywaniem informacji. Ta rola modeli opisowych jest szczególnie ważna w obecnym stanie statystyki polskiej. W fazie antycypacji warunków realizacji polityki będą pomocne modele prognostyczne. Modele te pozwalają na formułowanie dość wiarygodnych prognoz, pod warunkiem jednak, że z pomocą technik ekonometrycznych dokonano adekwatnego rozpoznania postaci i parametrów zależności gospodarczych, oraz że rozpoznanie to, bazujące przecież na przeszłości, można bez większych obaw przenosić w przyszłość. Również w fazie doboru instrumentów powinny być stosowane głównie modele behawioralne, zawierające zależności pomiędzy badanymi instrumentami a kształtowaniem się procesów gospodarczych. Należy jednak pamiętać, że wyjaśnienie sposobu funkcjonowania gospodarki (opis obecnych lub przyszłych reakcji bardziej lub mniej agregatowo traktowanych podmiotów gospodarczych) jest niezwykle trudne. O jego zgodności z rzeczywistością nie rozstrzyga do końca ani żadna ze znanych (i – dodajmy – konkurencyjnych) teorii ekonomicznych, ani najbardziej nawet zaawansowane testy statystyczne. Konstrukcja modelu behawioralnego jest więc zawsze tylko pewną hipotezą co do sposobu funkcjonowania gospodarki, szczególnie niepewną, gdy rozpatruje się ją w stosunku do przyszłości. Dlatego analizy wykonywane za pomocą tych modeli powinny mieć charakter raczej symulacyjny niż prognostyczny. Prognoza mówi nam o tym, jak najprawdopodobniej ukształtuje się sytuacja gospodarcza w przyszłości. Natomiast eksperymenty symulacyjne przeprowadzamy po to, by określić, jakie mogą być konsekwencje przyjętych w danym eksperymencie założeń o zmianach (np. podstawowych parametrów polityki makroekonomicznej). Jest to swoista analiza przyszłych stanów możliwych gospodarki, niekoniecznie precyzująca, które z tych stanów są bardziej prawdopodobne niż inne. Rezultaty takiej analizy modelowej sprowadzają się mniej więcej do stwierdzeń typu: Jeżeli warunki ukształtują się tak i tak, sposób funkcjonowania gospodarki będzie się zmieniał tak i tak, wówczas analizowana polityka makroekonomiczna przyniesie takie a takie efekty. 136 Krzysztof Barteczko, Andrzej F. Bocian Symulacyjne podejście do modelowania polityki makroekonomicznej zakłada jawne specyfikowanie założeń oraz wariantowość analiz. Jest przy tym ze wszech miar pożądane, by taka jawna specyfikacja oraz wariantowość dotyczyły możliwie pełnego zestawu przyjmowanych – zarówno przy konstrukcji modelu, jak i przy pracy z nim – założeń. Jawna specyfikacja założeń i wariantowość analiz sprzyja rozumieniu wyników modelowania i może być ważnym warunkiem stosowalności modelu. Jednocześnie jednak warianty symulacji wymagają pozamodelowego opracowania – po to, by w gąszczu założeń i wyników dostrzec zagrożenia i szanse, by właściwie je interpretować. Konieczne jest zatem: planowanie eksperymentów symulacyjnych, tworzenie odpowiednich schematów analitycznych i syntetycznych, swoistych procedur iteracyjnego wyszukiwania inspirujących, nowych informacji. Natomiast w dwóch fazach określania celów polityki (głównych i pośrednich) podstawowe zastosowanie znajdą modele predestynowane do rozwiązywania problemu selekcji, czyli poszukiwania odpowiedzi na pytania: Co chcemy osiągnąć? Ku jakim stanom ma zmierzać gospodarka?3 Będą to zazwyczaj modele makroekonomiczne, akcentujące silniej rzeczowe aspekty procesów gospodarczych. Ich głównym zadaniem jest zapewnienie spójności w doborze celów głównych i pośrednich, rozumianych jako środki do realizacji celów głównych w zakładanych warunkach. Przy tym ważną rolę do spełnienia będą miały modele decyzyjne, stosujące podejście normatywne, akcentujące pytanie: Jaki powinien być terminalny stan gospodarki i jaka niesprzeczna sekwencja stanów pośrednich do niego prowadzi? W tym podejściu opis gospodarki jest uzupełniony zależnościami typu aksjologicznego. Zależności te konstytuują raczej strukturę problemu decyzyjnego niż strukturę modelu gospodarki. Mogą one znajdować się poza używanym modelem, określając np. kryteria selekcji wariantów eksperymentów symulacyjnych, lub też – formalnie – mogą być włączone w strukturę modelu (np. w postaci kryteriów lub nierówności, wynikających z ustaleń aksjologicznych lub nawet z pragmatycznie pojmowanych wytycznych i ograniczeń polityki gospodarczej). Dodajmy do tego, że modele decyzyjne nie zawsze muszą służyć odnajdywaniu „najlepszego rozwiązania”, a sposób oceny wariantów może być bardzo różny i uzależniony od stosowanych typów skal preferencji. Użyteczne są w modelowaniu decyzyjnym techniki optymalizacyjne, ale ich stosowania nie należy kojarzyć z tzw. funkcjami celu gospodarki czy też społeczeństwa. Raczej należy je traktować jako narzędzia rozwiązania problemów decyzyjnych, np. typu: Jakie warunki powinny być spełniane, by minimalizować inflację lub by stopa bezrobocia nie przekraczała jakiegoś zadanego poziomu? Dodajmy jeszcze, że modele decyzyjne wcale nie muszą korzystać z technik optymalizacyjnych, mogą to być np. modele symulacyjne, w konstrukcji których umownie odwraca się wynikające z opisu gospodarki sekwencje przyczynowo-skutkowe. 3 Rozbicie ogólnego zagadnienia „namysłu nad przyszłością” na problem selekcji („co?”) oraz problem implementacji („jak?”) wprowadził po raz pierwszy R. Frisch. Zob.: [Frisch 1949; Reidel 1976]. Dodatkowych uzasadnień takiego rozbicia, zarówno z punktu widzenia uproszczenia konceptualnej przestrzeni analizy, jak i ze względów merytoryczno-metodologicznych dostarczył L. Johannes. Zob.: [Lectures on Macroeconomic Planning 1978]. Modelowanie makroekonomiczne – potrzeby i dylematy 137 Kończąc omawianie funkcji i roli poszczególnych ogólnych klas modeli w procesie formułowania polityki makroekonomicznej, warto wyraźnie zasygnalizować, że modele nie są ani automatami do rozwiązywania problemów, ani nie stanowią żadnych rozstrzygających wyroczni. Mówi się o modelach gospodarki, tymczasem są to przecież zawsze modele (odzwierciedlenia) wyobrażeń o gospodarce. Wyobrażeń bardziej lub mniej trafnych, opierających się na bardziej lub mniej od rzeczywistości odległych teoriach, lepiej lub gorzej (ale nigdy w sposób ostatecznie rozstrzygający) zweryfikowanych przez testy statystyczne i symulacyjne. Nawet jeśli przyjąć, że taki czy inny model dość wiarygodnie odzwierciedla rzeczywistość, to przecież w pracach prognostycznych i projekcyjnych, prowadzonych z jego pomocą, posługujemy się obrazem rzeczywistości nie istniejącej jeszcze, przyszłej i nie ma żadnych sposobów formalnego weryfikowania i udowadniania prawdziwości hipotez o niej. Dlatego należy zawsze pamiętać o tym, że modele mogą być tylko narzędziami pomocniczymi w złożonym procesie analiz, w którym – niezależnie od formalnego zaawansowania technik modelowania – decydującą rolę odgrywają wciąż elementy rozumowania jakościowego, opartego na sztuce i intuicji analityka. Modele mogą mu pomagać, inspirować, ukazywać zaskakujące konsekwencje, prowokować do stawiania nowych pytań, ale same nie rozwiązują żadnego problemu i nie stanowią rozstrzygającej instancji w poszukiwaniu prawdy. 3. Strukturyzacja problemu modelowania polityki makroekonomicznej Rozpatrując politykę makroekonomiczną jako zestaw polityk składowych, można zarysować następujące podejście do problemu strukturyzacji i klasyfikacji modeli polityki makroekonomicznej. Zgodnie z szeroką jej definicją, będą się na nią składać polityki złożone, używające jako swoistego budulca polityk terminalnych. Całościowy model polityki makroekonomicznej będzie się więc w taki czy inny sposób składać z modeli polityk złożonych, zawierających z kolei polityki terminalne. Polityki złożone mają swe źródło w rozwiązywaniu konkretnych problemów. Zatem należy tu uwzględniać modelowy opis sfer problemowych. Możliwe są dwa podejścia: – Wyselekcjonowanie sfer problemowych i budowa modelu dla ich analizy całościowej (będzie to wyspecjalizowany model makroekonomiczny, uwzględniający cały zestaw polityk złożonych). – Wyselekcjonowanie problemów w sposób względnie izolowany, dopasowanie do każdego z nich jakiejś złożonej polityki i budowa kilku modeli dla analizy każdego problemu z osobna – czyli budowa modeli polityk złożonych. Jak wspomniano, podstawowym budulcem polityki złożonej są polityki terminalne. Warto więc rozpatrzyć również kwestie budowy modeli polityk terminalnych. Modele te mogą mieć samodzielne znaczenie lub też mogą być zintegrowane w jednym modelu polityki złożonej. Ich (nawet niech tylko logiczne) wyodrębnienie pozwoli na bardziej szczegółową analizę możliwości skonstruowania odpowiedniej polityki złożonej oraz bardziej 138 Krzysztof Barteczko, Andrzej F. Bocian szczegółowego określenia, jakie postulaty (w kategoriach polityk terminalnych) ma spełniać złożona polityka lub polityki, przeznaczone do rozwiązywania konkretnych problemów. Dla (logicznego) wyodrębnienia modeli polityk terminalnych należy rozpatrywać je w sposób izolowany. Dla każdej z nich – przynajmniej w pewnym przybliżeniu i przy jakiejś dozie arbitralności – można określić: – cele (kategoria pomocnicza o charakterze werbalno-jakościowym); – [M] mierniki powodzenia (zbiór kategorii o charakterze skutków bezpośrednich); – [U] zbiór kategorii charakteryzujących inne, prócz bezpośrednich, wyraźnie występujące dla danej polityki, konsekwencje (skutki uboczne); – [I] instrumenty będące w gestii rządu; – [P] parametry polityki – kategorie nie będące bezpośrednimi instrumentami, ale określające charakter polityki; – [W] zbiór kategorii istotnie wpływających na powodzenie polityki, ale nie będących ani skutkami, ani instrumentami (inaczej mówiąc – warunki realizacyjne). Następnym krokiem jest określenie współzależności pomiędzy wspomnianymi kategoriami. Na tej podstawie może być zbudowany teoretyczny schemat modelu danej polityki terminalnej. Ewentualna statystyczna weryfikacja otrzymanych zależności będzie służyć raczej podbudowaniu, ilustracji teoretycznego schematu modelu, niż „prawdziwej” estymacji jego parametrów. Ta ostatnia jest przedsięwzięciem niezwykle trudnym w obecnych warunkach gospodarki polskiej, szczególnie gdy wchodzi się bezpośrednio w obszar zależności behawioralnych i funkcji reakcji podmiotów gospodarczych, co jest nieuchronne przy rozpatrywaniu modeli polityk terminalnych. Ideowy pełny schemat powiązań pomiędzy wyróżnionymi kategoriami w abstrakcyjnym modelu polityki terminalnej można przedstawić na rysunku 1. RYSUNEK 1. Źródło: [Barteczko, Bocian 2010]. Nie w każdej sytuacji i nie w każdym modelu uda się uwzględnić wszystkie te powiązania. W rezultacie schemat powyższy staje się pewnym wzorcem dla klasyfikacji modeli polityk terminalnych. Możemy tu przykładowo wyróżnić następujące typy modeli: Modelowanie makroekonomiczne – potrzeby i dylematy 139 – – – pełny dynamiczny – wszystkie powiązania schematu; prosty instrumentalny; bezpośrednio dynamiczny – bez 6-[U]-8-[W]4, pełny statyczny – bez sprzężeń zwrotnych 7 i 8; – parametryczny – bez [I]-l i [I]-3 (z ew. różnicowaniem dynamiczności). Z kolei, ponieważ w modelach polityki złożonej można zawsze logicznie wyodrębnić modele polityk terminalnych, to powyższy schemat klasyfikacyjny można również stosować wobec modeli polityk złożonych lub nawet całościowych modeli polityki makroekonomicznej. Dla przykładu, wyodrębniając, w omawianym dalej, modelu SAS politykę cenowo-dochodową, można go pod tym względem zaliczyć do modelu typu: [[P]-2,[W]-4]6-[U]-[8]-[W], (parametryczny pośredni i pośrednio dynamiczny). Trzeba wszakże pamiętać, że na politykę złożoną (oraz całościową politykę makroekonomiczną) będzie się składać coś więcej niż tylko zestaw polityk terminalnych – mogą to być np. jakieś wyjątkowe bezpośrednie działania rządowe. Zawsze jednak logiczne wyodrębnienie modeli polityk terminalnych będzie użyteczne zarówno w procesie weryfikacji modelu polityki makroekonomicznej, jak i w eksperymentach symulacyjnych, prowadzonych z jego pomocą. 4. Modele identyfikacji i weryfikacji spójności dynamicznych powiązań celów głównych i pośrednich polityki makroekonomicznej Rozważmy klasę modeli decyzyjnych, których konstrukcja pozwala określać przyszłe stany gospodarki, pożądane ze względu na jakieś kryteria. Kryteria te mogą być formułowane w różny sposób: jako minimalizacja lub maksymalizacja czegoś lub też jako pewne ograniczenia na coś. Przykładowymi kryteriami może być minimalizacja inflacji lub granicznej stopy bezrobocia, uzupełniona np. dodatkowymi kryteriami stabilności gospodarki: równowagą zewnętrzną i ograniczeniem na deficyt budżetowy. Kryteria tego typu wraz z behawioralnym opisem funkcjonowania gospodarki oraz założeniami odnoszącymi się do warunków zewnętrznych konstytuują strukturę podstawowego, wstępnego problemu decyzyjnego polityki makroekonomicznej. Zanim bowiem można będzie się zastanawiać nad doborem polityk i instrumentów, warto wiedzieć po co te polityki i instrumenty mają być stosowane. Innymi słowy, należy odpowiedzieć na pytanie: Co robić najpierw?, nie tyle w kategoriach np. czystej polityki monetarnej czy fiskalnej, ale w sensie określenia kierunku pożądanych – ze względu na takie czy inne kryteria – zmian w gospodarce. Jak wcześniej wspomniano, cele polityki makroekonomicznej powinny wynikać z długofalowych celów strategicznych. Nie zawsze jednak taka strategia będzie opracowana, a nawet jeśli istnieje wyraźna wizja rozwojowa, to przy formułowaniu polityki makroekonomicznej zawsze pozostanie problem przekładu długofalowych ce4 Prosty oznacza tu – bez skutków ubocznych; instrumentalny – z pełnym sprzężeniem [I]-[P]-[M], bezpośrednio dynamiczny – mający sprzężenie dynamiczne, idące od bezpośrednich skutków (mierników). 140 Krzysztof Barteczko, Andrzej F. Bocian lów strategicznych na średnio- lub krótkookresowe cele polityki, uwzględniające bieżący stan gospodarki i antycypację dynamiki warunków w jej otoczeniu. Stąd też użyteczność tego rodzaju modeli w fazie identyfikacji i weryfikacji spójności celów głównych i pośrednich polityki makroekonomicznej. Zagadnienie formułowania celów polityki w kategoriach: „Co robić?”, „Do jakich zmian w stanie gospodarki dążyć?” – jak już wspomniano – nazywa się problemem selekcji, natomiast próba odpowiedzi na pytanie: „Jak te zmiany osiągać przy pomocy instrumentów polityki makroekonomicznej?” – jest nazywana problemem implementacji. Można sobie oczywiście wyobrazić, że problemy te są rozwiązywane z pomocą jednego modelu decyzyjnego. Jego struktura byłaby jednak niezwykle skomplikowana. Dlatego postuluje się zwykle odrębne – choć oczywiście powiązane ze sobą – rozpatrywanie obu tych problemów, przy pomocy różnych modeli. Rodzaje i struktura modeli użytecznych dla rozwiązania problemu selekcji mogą być bardzo różnorodne. Mogą to być modele optymalizacyjne lub symulacyjne (z odpowiednio zaplanowaną strukturą wariantowych eksperymentów), dynamiczne lub statyczne, strukturalne (uwzględniające w taki czy inny sposób zmiany struktur gospodarczych) lub silnie zagregowane, czysto popytowe lub też włączające elementy podażowe. Z tego względu trudno tu sformułować jakiś jeden schemat teoretyczny dla tych modeli. Wyróżniającą ich cechą będzie jednak akcentowanie rzeczowej (a nie finansowej) strony procesów ekonomicznych i bardzo pośrednie ujęcie lub nawet całkowity brak w strukturze modelowej instrumentów polityki makroekonomicznej. 5. Modele keynesowskie Modele te są popytowymi modelami równowagi. Oparte są na teorii makroekonomicznej J.M. Keynesa i w swej najbardziej teoretycznie dopracowanej (autorskiej) postaci są modelami statycznymi, pokazując jak pod wpływem zmiany parametrów gospodarka przechodzi od jednego stanu równowagi do drugiego. Parametrami tymi mogą być w szczególności instrumenty polityki makroekonomicznej, takie jak: – wydatki rządowe, – stopa procentowa, – stopy podatkowe, – kurs walutowy. Z tego względu modele oparte na schematach keynesowskich mogą być narzędziem analizy zestawów polityki terminalnej. W swoim podstawowym schemacie, od którego wychodzą bardziej rozbudowane (i zdynamizowane) rozwiązania, modele te zawierają: – równanie kształtujące równowagę na rynku dóbr (popyt = podaż); – funkcję konsumpcji (zależną m.in. od: dochodu, cen i poziomu opodatkowania); – funkcję inwestycji (zależną m.in. od: stopy procentowej, dochodu i oczekiwanej stopy inflacji); Modelowanie makroekonomiczne – potrzeby i dylematy – 141 funkcje eksportu i importu (zależne m.in. od: taryf celnych i kursu walutowego); – bilans płatniczy wraz z saldem obrotów kapitałowych; – równanie popytu na pieniądz oraz równanie określające równowagę rynku pieniężnego (popyt na pieniądz = podaży pieniądza); – równania określające: płace, popyt na pracę i jej podaż oraz równowagę na rynku pracy; – równanie inflacji. Jest to oczywiście bardzo uproszczony i ogólny schemat. Wszystkie funkcje i równania mogą być różnie specyfikowane [Zob. np.: Allen 1975], z tym jednakże ograniczeniem, że specyfikacja ta winna dawać jakościowe (teoretyczne) podstawy do stwierdzenia, że model może zapewniać równowagę. Stosowane są np. różne funkcje konsumpcji (np.: proste liniowe, oparte na hipotezie absolutnego lub relatywnego dochodu, dochodu permanentnego, długości życia), różne funkcje inwestycji (liniowe, ze zmiennymi opóźnionymi, z uwzględnianiem dostępności kredytów, z wolumenem zysku). Funkcja popytu na pracę może być wyprowadzona z funkcji produkcji o różnej postaci (pośrednio uwzględnia się więc tu wydajność). W różny sposób można też dezagregować przedstawiony schemat, wprowadzając np. różne rodzaje podatków i taryf celnych. Schemat ten już zawiera potencjalne elementy dynamiczne. Wystarczy przyjąć, że oczekiwania zmian cen, kursów itp. są endogenicznie formowane, np. na podstawie teorii racjonalnych oczekiwań. W funkcji inflacyjnej bezpośrednio występują elementy dynamiki. Dalsza dynamizacja, przez wprowadzenie odroczeń i zależności międzyokresowych, umożliwia analizę polityk średniookresowych (kilkuletnich). Warto też dodać, że praktycznie stosowane modele mogą być w różny sposób kompletowane z przedstawionych na schemacie „bazowych” elementów. Umożliwia to np. jakościową analizę własności różnych instrumentów i ogólniejszych polityk. Ma to miejsce m.in. w przypadku modelu IS-LM-BP i konstruowanych na jego podstawie krzywych zagregowanego popytu i podaży. Model IS-LM-BP opisuje wzajemne związki pomiędzy trzema sektorami gospodarki: – rynek dóbr (równanie IS); – rynek pieniądza (równanie LM); – sektor wymiany z zagranicą (równanie BP). Większość zależności modelu jest konstruowana w cenach stałych, czyli w wielkościach realnych. Kategorie ekonomiczne w cenach stałych są oznaczane małymi literami alfabetu łacińskiego. Kategorie ekonomiczne w cenach bieżących są oznaczane dużymi literami alfabetu łacińskiego. Jądrem modelu w części dotyczącej rynku dóbr i usług jest równanie równowagi: realny dochód (y) równy jest realnym wydatkom, na które (definicyjnie) składają się wydatki na konsumpcję (c), inwestycje (i), wydatki rządowe (go) oraz nadwyżka eksportowa (nx): t c i go nx (w równowadze). (1) 142 Krzysztof Barteczko, Andrzej F. Bocian Zakłada się, że realna konsumpcja (c) jest proporcjonalna do realnych dochodów do dyspozycji (yd): c a b * yd 0 b 1, (2) gdzie: a – konsumpcja autonomiczna (niezależna od dochodu; zauważmy, że przy niskich dochodach konsumpcja przewyższa dochód), b – skłonność do konsumpcji (wrażliwości konsumpcji na zmiany dochodu do dyspozycji). Po to, by przejść od dochodu do dyspozycji do dochodu musimy wprowadzić równanie realnych podatków (t). Najprościej w następujący sposób: t t 0 t1 * y 0 t1 1 , (3) gdzie: t0 – podatki autonomiczne (niezależne od dochodu). W konsekwencji: c a b * t 0 b * (1 t 1 ) * y . (4) Przyjmuje się, że realne inwestycje zależą (liniowo) od oczekiwanej realnej stopy procentowej r – Pe, tj. różnicy między nominalną stopą procentową a oczekiwaną inflacją. Czynnik oczekiwań jest tu ważny, mówimy bowiem o zależności behawioralnej, o wydatkach inwestycyjnych, które są ponoszone właśnie dzięki oczekiwanym zyskom. Czym wyższa oczekiwana realna stopa procentowa, tym niższe wydatki inwestycyjne (co jest związane zarówno z kosztami kredytów, jak i konkurencją kierunków lokat kapitałowych). Oczywiście, niecałe wydatki inwestycyjne są wyjaśniane przez tę zależność, stąd inwestycje autonomiczne (i0): i i 0 h * (r P e ) . (5) Ponieważ wydatki rządowe są traktowane jako egzogeniczne, możemy od razu przejść do wyznaczania nadwyżki eksportowej. Załóżmy, że realny import zmienia się wprost proporcjonalnie do poziomu realnego dochodu (dodatnia skłonność do importu). Import będzie jednak rósł również wtedy, gdy nastąpi relatywny względem cen światowych wzrost cen krajowych (i malał w sytuacji odwrotnej). Wprowadza się zatem wskaźnik konkurencyjności gospodarki (R), mierzący relację cen krajowych (P), wyrażonych w walucie (P*S, gdzie S – kurs walutowy), do cen światowych (P*): R (S * P)/P * . (6) Czym wyższy wskaźnik R, tym mniej konkurencyjna (cenowo!) gospodarka. W konsekwencji równanie importu będzie miało następującą postać: im im 0 m * y g * R 0 m 1 , g 0 . gdzie: im – import, im0 – import autonomiczny, m – importochłonność dochodu (skłonność do importu). (7) Modelowanie makroekonomiczne – potrzeby i dylematy 143 Zakłada się również, że wielkość realnego eksportu (x) zależy liniowo od konkurencyjności gospodarki (im bardziej gospodarka konkurencyjna – tym wyższy eksport). Niezależnie od tego sprzężenia, wprowadza się eksport autonomiczny (X0), który jest tym większy, im większy jest poziom dochodu światowego. Eksport równy jest zatem: x x0 f *R f 0. (8) Z (7) i (8) wynika równanie salda wymiany z zagranicą: nx nx 0 m * y (f g) * R , (9) gdzie: nx0 = x0 – im0 (autonomiczna nadwyżka eksportowa lub eksport netto). Grupując autonomiczne elementy dotychczasowych równań: z 0 a b * t 0 i 0 go x 0 mi 0 , (10) Z (l–10) otrzymujemy równanie krzywej IS (określającej równowagę na rynku dóbr i usług i wyrażanej jako zależność między dochodem i stopą procentową): y z 0 h * P e (f g) * R h * r . 1 b * (t t 1 ) m (11) Równowagę na rynku pieniężnym (krzywa LM) określa zrównanie popytu na realny pieniądz z podażą realnego pieniądza. Popyt na realny pieniądz (Md) określa się jako liniową funkcję dochodu (korelacja dodatnia) i nominalnej stopy procentowej (korelacja ujemna): M d /P k * y u * r k>0, u>0. (12) Niech Ms oznacza podaż pieniądza (dana egzogenicznie), wtedy, uwzględniając (12), równanie równowagi na rynku pieniądza zapisujemy jako: M s /P P k * y u * r . (13) W konsekwencji krzywa LM (tak jak krzywa IS, pokazująca zależność między stopą procentową i dochodem) jest określana jako: r [M 0 /(u * P)] (k/u) * y . (14) Zauważmy, że konkretyzując równania rynku pieniężnego, można przyjąć różne definicje pieniądza, choć ogólna postać tych równań dla „bardziej zaawansowanych” definicji pieniądza może okazać się niewystarczająca. Punkt przecięcia krzywych IS i LM może wyznaczać równowagę gospodarki. Jednak trzeba jeszcze pełniej uwzględnić wymianę z zagranicą, czyli bilans płatniczy. Saldo bilansu płatniczego (bp) włącza salda obrotów towarowych (znane już nam nx) i przepływów kapitałowych (cf): bp nx cf . (15) Wielkość przepływów kapitałowych netto (czyli saldo) zależy od różnicy stóp procentowych w kraju (r) i poza jego granicami (r*). Im większa ta różnica, tym powin- 144 Krzysztof Barteczko, Andrzej F. Bocian ny być większe przepływy kapitałowe netto. Jednak zyski inwestujących poza granicami i inwestujących w kraju zależą przecież również od zmian kursu walutowego. Tu znowu wkrada się czynnik oczekiwań: wybierając „krajowy” kierunek inwestowania, inwestor kieruje się oczekiwanym relatywnym przychodem, który wynika zarówno z różnicy stóp procentowych (r – r*), jak i oczekiwaną procentową zmianą kursu walutowego (Se). Uproszczone równanie przepływów kapitałowych netto można więc zapisać jako: cf cf 0 v * (r r * ) v>0 Se = (r r * ) , (16) gdzie: cf0 – autonomiczne przepływy kapitałowe. Oznaczając bp0 = (x0 – im0) + cf0 i wykorzystując nx z równania (7), mamy więc: bp = bp0 – my – (f +g) * R + v * (r – r* – Se). (17) Przyjmując warunek równowagi w sektorze wymiany z zagranicą jako bp = O (równowaga bilansu płatniczego), określa się krzywą BP: (18) r = [–bp0 + (f + g) * R]/v + (m/v)*y + r* – Se. Teoretyczną równowagę w gospodarce wyznacza punkt przecięcia trzech krzywych: IS, LM, BP. Dlaczego jednak miałyby się one wszystkie przecinać w jednym punkcie? Istotnie, właściwie w każdym momencie mamy do czynienia z odstępstwami od takiej równowagi – ważne jest jednak to, jak pod wpływem zmian we wprowadzanych w modelu parametrach zmienia się wzajemne położenie trzech krzywych i które z punktów przecięcia dwóch z nich mogą dominować nad innymi. Nie ma tu miejsca, aby rozwijać ten temat na gruncie szczegółowych analiz modelu IS-LM-BP. Zamiast tego przyjrzymy się „bardziej opisowemu” jego zastosowaniu. Zauważmy bowiem, że już ten teoretyczny schemat może posłużyć do ciekawych i inspirujących jakościowych analiz polityki makroekonomicznej. W teorii polityki gospodarczej, mającej swe źródła w klasycznej pracy Tinbergena [Zob.: Tinbergen 1956], rozpatruje się m.in. problem odpowiedniości między celami i instrumentami. Pierwsza zasada Tinbergena (dla przypadku ustalonych celów) głosi, że musi być tyle samo niezależnych instrumentów, ile jest niezależnych celów. Okazało się jednak, że zasada ta nie gwarantuje uzyskania rozwiązania problemu określenia wartości instrumentów realizujących ustalone cele. Ponadto, nie precyzuje ona, w jaki sposób instrumenty mają być przyporządkowane celom. Podano szereg zasad, które byłyby pomocne w rozwiązaniu problemu przyporządkowania. Jedną z nich jest prosta zasada efektywnej klasyfikacji rynkowej, zaproponowana przez Mundella, która głosi, że [Zob.: Mundell 1957; Johansen 1978]: Każdy instrument powinien być używany do realizacji tego celu, na który ma największy wpływ. Można rozważyć przykładowy fragment polityki makroekonomicznej, w którym są dwa cele: osiągnięcie dochodu przy pełnym wykorzystaniu mocy i równowaga bi- Modelowanie makroekonomiczne – potrzeby i dylematy 145 lansu płatniczego, oraz dwa instrumenty: wydatki rządowe i stopa procentowa. Powstaje pytanie: Czy w założeniach polityki właściwie manipuluje się tymi instrumentami, tzn. czy są one przypisane tym celom, na które mają największy wpływ?5. Trudno szukać odpowiedzi na to pytanie na gruncie bezpośrednich obserwacji empirycznych. Zbyt wiele innych czynników wpływa na wzajemne związki między partnerami funkcjonowania gospodarki. Pomocy dostarcza jednak klarowny schemat, oparty na modelu IS-LM-BP (a raczej jego części). Zależności między wyżej wymieniony instrumentami i celami w tym modelu przedstawia rysunek 2. RYSUNEK 2. go Źródło: [Barteczko, Bocian 2010]. Na rysunku tym przyjęto następujące oznaczenia: r – stopa procentowa, go – wydatki rządowe, sbp – saldo bilansu płatniczego, y – dochód, y* – poziom dochodu przy pełnym wykorzystaniu czynników. Krzywe równowagi dochodu (y = y*) i bilansu płatniczego są zbiorem kombinacji wartości instrumentów, przy których są realizowane cele (poziom dochodu i równowaga bilansu płatniczego). Dodatnie nachylenie tych krzywych wynika z następującego (statycznego keynesowskiego) rozumowania: jeśli zwiększy się wydatki rządowe przy stałej stopie procentowej, to dochód wzrośnie (mnożnik) i ewentualne odchylenie od równowagi (y > y*) trzeba będzie równoważyć restrykcyjną polityką monetarną, tj. redukcją podaży pieniądza, a więc wzrostem stopy procentowej. Stąd dodatnia korelacja między go i r. W przypadku krzywej równowagi bilansu płatniczego zwiększenie wydatków rządowych spowoduje mnożnikowy wzrost dochodu i w konsekwencji wzrost importu, co przy niezmienionej stopie procentowej i wyjściowej równowadze bilansu płatniczego doprowadzi do deficytu w tym bilansie. 5 Przykład zaczerpnięto z: [Shone 1989]. 146 Krzysztof Barteczko, Andrzej F. Bocian Aby sfinansować ten deficyt, trzeba zintensyfikować przypływ kapitału, co jest możliwe przez podniesienie stopy procentowej. Tu też występuje dodatnia korelacja między instrumentami. Jednak w przypadku zmiany w stopie procentowej, zmiany przywracające równowagę będą mniejsze niż na krzywej równowagi dochodu, gdyż wzrost dochodu oddziałuje na bilans płatniczy przez krańcową skłonność do importu, która jest mniejsza od l. Załóżmy, że polityka przewiduje osiąganie równowagi bilansu płatniczego środkami polityki fiskalnej, a realizację dochodu przy pełnym wykorzystaniu czynników – środkami polityki monetarnej. Sytuację tę przedstawia rysunek 3. RYSUNEK 3. Źródło: [Barteczko, Bocian 2010]. Gospodarka znajduje się w punkcie A. Dążąc do zwiększenia dochodu (zgodnie z założeniami polityki), obniża się stopę procentową. Wzrost dochodu powoduje pogorszenie salda bilansu płatniczego (punkt B). W celu przywrócenia równowagi bilansu należy zmniejszyć import. Polityka przewiduje w tym celu redukcję wydatków rządowych, co prowadzi gospodarkę do punktu C. Proces ten jest kontynuowany i oczywiście coraz bardziej oddala od punktu równowagi R. Łatwo się przekonać, że odwrotne przyporządkowanie instrumentów celom spowoduje uruchomienie procesu zbieżnego do punktu równowagi R. Ten prosty przykład pokazuje, w jaki sposób analiza jakościowa, opierająca się ściśle na modelu teoretycznym, może być użyteczna przy formułowaniu i ocenie założeń polityki makroekonomicznej. Jest to oczywiście bardzo uproszczony schemat, odległy od rzeczywistości (statyka, brak inflacji, dwa cele i dwa instrumenty). Pewne jakościowe wnioski, być może wstępne dla głębszej analizy, można mimo to z niego wyciągnąć, przynajmniej w odniesieniu do pewnych specyficznych sytuacji (polityka krótkookresowa w stabilnej gospodarce bez inflacji). Na podstawie modelu IS-LM-BP można starać się konstruować i inne proste schematy tego typu. Oczywiście, metoda ta w żaden sposób nie może być używana do określania wartości instrumentów. Może ona dawać jednak pewne wskazania co do kierunku ich zmiany i przyporządkowania celom. Modelowanie makroekonomiczne – potrzeby i dylematy 147 6. Zagregowany symulacyjny quasi-keynesowski model popytowy SAS Model SAS jest modelem czysto popytowym. Zawiera kilka prostych równań opisujących na makroekonomicznym, abstrakcyjnym poziomie kształtowanie się popytu w gospodarce oraz jego wpływ na wzrost, indukowany przez niego popyt na zasoby pracy i stopień ich wykorzystania. W skrócie logikę działania modelu SAS można przedstawić na rysunku 4. RYSUNEK 4. Popyt zewnętrzny Krajowy popyt na import Równowaga zewnętrzna Popyt wewnętrzny Popyt na produkcję krajową Bezrobocie Źródło: [Barteczko, Bocian 2010]. Istota działania modelu sprowadza się więc do tego, że przyjmujemy, iż rozwój i stabilność są funkcją wielkości i struktury popytu, ten zależy zaś od czynników popytotwórczych i polityki makroekonomicznej. W modelu SAS uwzględnia się szereg zagregowanych kategorii popytu, zaś parametry modelu albo bezpośrednio kontrolują wartości tych kategorii, albo wpływają na nie w sposób pośredni. Większość parametrów ma charakter syntetycznego odbicia pewnych generalnych założeń polityki makroekonomicznej. Poniżej przedstawia się listę parametrów i zmiennych modelu oraz jego podstawowe zależności. ZMIENNE MODELU SAS: wg wartość globalna, pkb produkt krajowy brutto, ek eksport, imz import zaopatrzeniowy, imf import finalny, imp import, shz saldo handlu zagranicznego, pkbw wykorzystanie pkb w kraju, d dochody ludności (w ujęciu nominalnym), ki konsumpcja indywidualna, kz konsumpcja zbiorowa, inw inwestycje, 148 we zatr srpod wp sb Krzysztof Barteczko, Andrzej F. Bocian wskaźnik cen towarów konsumpcyjnych, zatrudnienie, podaż siły roboczej, wydajność pracy (liczona jako wg/zatr), stopa bezrobocia. PARAMETRY MODELU SAS: umfpf udział importu finalnego w popycie finalnym decyduje o podziale popytu końcowego na popyt zaspokajany ze źródeł krajowych i z importu, imch importochłonność zaopatrzeniowa wartości globalnej, ak materiałochłonność wartości globalnej (krajowa), wpz współczynnik przyrostu zapasów (relacja przyrostu zapasów do wartości globalnej), twl tempo (dynamika) wzrostu ludności, eldd elastyczność dochodów pieniężnych względem PKB (w kategoriach per capita), eldc elastyczność dochodów pieniężnych (per capita) względem cen, twe tempo (dynamika) wzrostu cen, uwki udział wydatków na konsumpcję indywidualną w dochodach, ukz relacja konsumpcji zbiorowej do PKB, b współczynnik kapitałowy (inwestycje/przyszły przyrost PKB), psw prognozowana stopa wzrostu (determinuje zachowania inwestorów), tek tempo (dynamika) wzrostu eksportu, twsr tempo (dynamika) wzrostu podaży siły roboczej, zsb zadana stopa bezrobocia (gdy nie podano twp), twp tempo (dynamika) wzrostu wydajności pracy (gdy nie podano zsb). ZALEŻNOŚCI MODELU SAS: (Uwaga: zmienne nieindeksowane odnoszą się do roku t) DOCHODY: d/d(t 1) pkb 1 eldd[ 1] eldc * (twc 1) tw1 pkb(t 1)tw1 CENY: KONSUMPCJA: INDYWIDUALNA: wc = twc * wc(t – 1) wc * ki = uwki*d KONSUMPCJA ZBIOROWA: INWESTYCJE: EKSPORT: kz = ukz * pkb inw = b * psw * pkb ek = tek * ek(t – 1) Modelowanie makroekonomiczne – potrzeby i dylematy 149 POPYT POŚREDNI ZASPOKAJANY ZE ŹRÓDEŁ KRAJOWYCH: ak * wg IMPORT ZAOPATRZENIOWY: imz = imch * wg ŁĄCZNY POPYT POŚREDNI; (ak + imch) * wg PRZYROST ZAPASÓW: wpz * wg IMPORT FINALNY: imf = umfpf*[ki+kz+inw+ek] IMPORT: imp = imz + imf SALDO HZ: shz = ek – imp WARTOŚĆ GLOBALNA: PKB: PKB: wykorz. wg 1 - umfpf ( ki kz inw ek ) 1 - ak - imch pkb = (1 – ak – imch) * wg pkbw = pkb – shz W odniesieniu do zasobów pracy, model SAS umożliwia wybranie dwóch dróg symulacji. Pierwsza prowadzi do określenia stopy bezrobocia przy zadanych z zewnątrz zmianach wydajności pracy i podaży siły roboczej, druga pozwala uzyskać odpowiedź na pytanie, jak powinna zmieniać się podaż pracy i wydajność (a w konsekwencji inne związane z nią wielkości, np. średnia płaca), jeśli zażądać, aby stopa bezrobocia kształtowała się w zadany z zewnątrz sposób. Stąd rozróżnienie między stopą bezrobocia (sb) – zmienną modelu SAS a zadaną stopą bezrobocia (zsb) – parametrem modelu. Jak widzimy, model SAS jest bardzo prosty. Ma to oczywiście swoje wady – wymaga bowiem przy pracy z modelem przyjmowania wielu arbitralnych założeń; nie pozwala także odnosić się w analizie ilościowej do wielu istotnych zagadnień polityki makroekonomicznej. TABELA 1. Zadane tempo zmian wydajności pracy Zadana stopa bezrobocia WYDAJNOŚĆ wp = twp * wp(t – 1) ZATRUDNIENIE zatr = wg / wp PODAŻ PRACY srpod = max [twsr * srpod(t – l), zatr] STOPA BEZROBOCIA sb = 1 – zatr/srpod PODAŻ PRACY srpod = twsr * srpod(t – 1) ZATRUDNIENIE zatr = srpod * (1 – zsb) WYDAJNOŚĆ wp = wg / zsm Źródło: [Barteczko, Bocian 2010]. 150 Krzysztof Barteczko, Andrzej F. Bocian 7. Globalny wymiar wzrostu a modelowanie Światowy kryzys 2007 – 2009 spowodował zawirowanie nie tylko we wszystkich gospodarkach na świecie, ale także wykazał luki w teorii ekonomii oraz ograniczoność prognozowania i modelowania, nawet w krótkim horyzoncie czasowym. Wydarzenia ostatnich dwóch lat nasiliły również dyskusje między zwolennikami i przeciwnikami zjawisk globalizacyjnych zachodzących w gospodarce światowej. Kryzys wyraźnie pomnożył liczbę wątpliwości i pytań, na które muszą znaleźć odpowiedź wszyscy uczestnicy rynku, polityki i świat nauki. W tym ogólnym chaosie myśli można natknąć się na różnorodne opinie. Spora grupa komentatorów życia gospodarczego twierdzi, że to globalizacja, jako spontanicznie rozwijające się od lat zjawisko gospodarcze, spowodowała erupcję kryzysową, inni twierdzą zaś, że pazerność korporacji transnarodowych i banków przez niekontrolowane działania w cyberprzestrzeni wygenerowała najpierw kryzys finansowy, który przerodził się w kryzys obejmujący całą sferę realną gospodarki światowej. Można również spotkać się ze zdaniem, że kryzys stanowi podzwonne dla globalizacji, a zarazem jest dowodem bankructwa doktryny neoliberalnej [Por.: Kołodko 2009; Żyżyński 2009]. Ten pogląd już tylko niewielki krok dzieli od nawoływań o powrót do interwencjonizmu. Jedno jest jednak pewne, że procesy globalizacyjne – pod wpływem ujawnionych w związku z kryzysem zjawisk – będą musiały ewoluować, a teoria ekonomi będzie musiała za nimi nadążać. Światowy kryzys dał asumpt do wznowienia odwiecznego sporu toczącego się wokół zagadnień wzrostu gospodarczego w rozumieniu dwóch szkół ekonomii – szkoły neoliberalnej i szkoły keynesowskiej [Por.: Madej 2009]. Wątpliwe jest jednak, czy rzeczywiście jest to spór między zwolennikami rynku, jako głównego regulatora procesów gospodarczych, a etatystami, którzy eksponują rolę państwa w działalności gospodarczej i czy rzeczywiście obydwie szkoły tworzą dwa bieguny ekonomii. Żaden z tych dwóch kierunków myśli ekonomicznej nie kwestionuje przecież obecności i roli polityki gospodarczej w funkcjonujących obecnie systemach ekonomicznych, a granice przejścia między etatyzmem a rynkiem są bardzo płynne i trzeba wszechstronnej i wnikliwej analizy by je uwypuklić. Doświadczenie, wynikające z kryzysu początku XXI wieku, wskazuje, że rynek nie zawiódł w swojej funkcji regulacyjnej – zmusił do korekty postępowania, wystawiając ujemną ocenę systemowi funkcjonowania społeczeństw konsumpcyjnych. Wyjątkowość obserwowanych zjawisk (w sensie powszechności i równoczesności ich występowania) wskazuje, że świat biznesu czekają ogromne zmiany, a teoria ekonomii musi uporać się z nowymi wyzwaniami. Konstrukcja aplikacyjnych modeli makroekonomicznych (tj. takich, które oddziałują na wyobraźnię i decyzje polityków) wymaga: – nośnej teorii makroekonomicznej; – efektywnych technik modelowania; – rzetelnej informacji statystycznej. W tej triadzie uwarunkowań modelowych duża rola przypada informacji statystycznej. Jeżeli truizmem jest zdanie, że świat, gospodarka światowa są coraz bardziej złożone, to takim samym truizmem jest stwierdzenie, że obraz tego złożonego świata Modelowanie makroekonomiczne – potrzeby i dylematy 151 nie znajduje adekwatnego odbicia w danych statystycznych. Jest to najprawdopodobniej najsłabsze ogniwo procesu modelowania makroekonomicznego. Literatura Allen R.G.D. 1975 Teoria makroekonomiczna, Warszawa. Barteczko K., Bocian A.F. 2010 Prognozowanie i symulacje procesów gospodarczych, Białystok. Barro R.J. 1997 Makroekonomia, Warszawa. Frisch R. 1949 Mathematical Appendix to a Memorandum on Price-wagetax-subsidy Policies as Instruments in Maintaining Optimal Employment, Oslo. Frydman R., Goldberg M.D. 2009 Ekonomia wiedzy niedoskonałej, Warszawa. Johansen L. 1978 Lectures on Macroeconomic Planning, North Holland. Keynes J.M. 1985 Ogólna teoria zatrudnienia, procentu i pieniądza, Warszawa. Kołodko G. 2009 Neoliberalizm i światowy kryzys gospodarczy, „Ekonomista”, nr 3. Landreth H., Colander D.C. 1998 Historia myśli ekonomicznej, Warszawa. Madej Z. 2009 Idee rządzą światem, „Ekonomista”, nr 5. Mundell R. 1975 International Trade and Factor Mobility, „American Economic Review”, nr 47. Ragnar F. 1976 Economic Planning Studies, Boston. Romer D. 2000 Makroekonomia dla zaawansowanych, Warszawa. Shone R. 1989 Open Economy Macroeconomics Theory, Prentice-Hall. Solow R. M. 1957 Technical Change and the Aggregate Production Function, „The Review of Economics and Statistics”, nr 39. Tinbergen J. 1956 Economic Policy: Principles and Design, North Holland. Welfe W., Welfe A. 1996 Ekonometria stosowana, Warszawa. Żyżyński J. 2009 Neoliberalizm jako strukturalna przyczyna kryzysu a poszukiwanie dróg naprawy, „Ekonomista”, nr 3. OPTIMUM. STUDIA EKONOMICZNE NR 4 (48) 2010 Marcin BŁAŻEJOWSKI, Paweł KUFEL, Tadeusz KUFEL1 AUTOMATIC PROCEDURE OF BUILDING SPECIFICATION OF DYNAMIC CONGRUENT MODEL IN GRETL PACKAGE Summary In recent years we can observe intensive development of automatic model selection procedures. Best known are PcGets and RETINA. Such intensive work encourage to work on a new procedures. The concept of Congruent Modeling, formulated by Prof. Zygmunt Zieliński, is a very good framework for such development, including programming work, as well as many theoretical considerations. In the paper there is presentation of concept of algorithm for automatic congruent modeling procedure and its implementation in Gretl.. Keywords: congruent dynamic modelling, automatic model selection, forecasting, PcGets, RETINA. 1. Introduction The congruent modeling refers to building dynamic econometric models. This idea was presented by Prof. Zygmunt Zieliński from Nicolaus Copernicus University from Toruń in 1984. Many assumptions underlay the formulating of initial model specification. Some approaches refers to causal relationships, others – to the internal structure of processes of interest with causality omission, and others take both into account. The concept of congruent modeling, in Zieliński sense, refers to both approaches – casual relationship and internal structure of given processes. A model is congruent, according to Zieliński, if the harmonic structure of dependent process Yt is the same as the joint harmonic structure of explanatory processes Xit (i = 1, 2, …, k) and the residual process, which is independent of explanatory processes. This means that the variability of left side of model – (Yt) must be explained by the variability of right side of model – (Xit). It is obvious that the model built for processes having white noise properties is always congruent: k ε yt = ρε i=1 i xt i + εt (1) 1 Dr Marcin Błażejowski jest pracownikiem Wyższej Szkoły Bankowej w Toruniu. Mgr Paweł Kufel jest doktorantem Uniwersytetu Mikołaja Kopernika w Toruniu. Dr hab. Tadeusz Kufel, prof. UMK jest pracownikiem Uniwersytetu Mikołaja Kopernika w Toruniu. Automatic Procedure of Building Specification … 153 where ε yt ,ε x t and εt are white noises. Model (1) is congruent because harmonic i structure of both sides of equation are equal or, in other words, the processes spectra are parallel to the frequency axis. Information about internal structure of Yt and Xit processes enable to build the congruent dynamic econometric model. The congruent general dynamic econometric model is as follows: k B(u)Yt = A (u)X i it + Pt + St + εt , (2) i=1 where B(u), Ai (u) are autoregressive back shift operators, Pt is polynomial function of variable t, St denotes seasonal component with constant or changing in time amplitude of fluctuations and εt is white noise. The white noise εt in model (2) has the same properties as white noise εt in model (1). Whole information of internal structure of all processes is taken into consideration. The variability of endogenous process Yt is explained by variability of exogenous processes Xit (i = 1,…, k). Described concept of building dynamic econometric model shows the necessity of including information about internal structure of given processes at the model specification stage. 2. General Algorithm of automatically building congruent dynamic model This is a very general algorithm for building congruent dynamic model, here only main stages are described without talking over any specific solutions, internal variables, external functions and so on. This algorithm shows only a general idea of procedure and its compatibility with congruent dynamic econometric modeling procedure in Zieliński sense. 1. Getting outgoing data, setting following internal variables: a. Getting model variables: the list of processes and the list of deterministic (dummy) variables. b. Getting level of significance for the tests performed inside the procedure. c. Getting range of the sample and setting minimal degrees of freedom dfmin for starting general congruent model: i. if n < 200, then dfmin = round(0.1*n), ii. if n ≥ 200, then dfmin = 20. d. Checking the frequency of time-series and setting: i. deterministic cycle for consideration in pt. 2, ii. maximum order pmax for autoregressive models in pt. 2c, function string CS_CongruentSpecification (list Processes, list Det_components[null], scalar alpha[0:1:0.1], bool print_res[1]) 2. Internal structure of given processes analysis: a. Checking, whether given processes have deterministic components. 154 Marcin Błażejowski, Paweł Kufel, Tadeusz Kufel function void CS_Check_Internal_Structure (series *Y, list l_season, list det_variables, matrix *det_components, scalar *alpha) b. Checking, whether error terms after subtraction of deterministic components are integrated. function scalar CS_ADF_check (series *Y, int lag) c. Setting orders of autoregression for given processes, starting from a maximum order of pmax, after subtraction of deterministic components and differentiation if there was an integration. function scalar CS_AR_order (series *Y, int pacf_order, int freqency) function scalar CS_PACF_order (int N) 3. Building starting specification of general unrestricted congruent model a. Checking the degrees of freedom of starting general congruent model dfstart, taking into account all possible variables (lagged Y, current and lagged X, trend and/or cycle, deterministic variables): function scalar CS_GUM_df_count (int n, int freqency, matrix *internal_str, matrix *det_components, int Det_components_n) i. if dfstart < dfmin, then maximum order of autoregressive model(s), specified in pt. 2c, is decreased by 1, function void CS_GUM_reduce (matrix *internal_str) ii. if dfstart ≥ dfmin, then the starting general model is printed in Gretl script language. function string CS_Print_CongruentSpecification (list big_list, list seasonal, list Det_components, matrix *internal_str, matrix *det_components, scalar *alpha) At stage 1, there is import dataset for model: the list of all the processes (the endogenous process Y must be the first on that list) and additional deterministic (dummy) variables, which indicate some special moments, i.e. free days or structural changes. At stage 2 the analysis of internal structure of explained process Yt and explanatory processes Xit is performed. We are looking for deterministic components: time trend and periodicity. We assume, that we only check presence of linear trend and “typical” periodicity for given data: seasonality for monthly or quarterly time-series, 1 year (52 weeks) cycle for weekly time-series and 1 week cycle for daily data. After that we subtract deterministic components from the analyzed processes and perform ADF-GLS test. If an integration exists, we compute first differences and examine order of autoregression of all time-series. At stage 3 we formulate starting congruent general model and check, if we have sufficient degrees of freedom for running OLS estimation. This is crucial, that we want at least 0.1*n degrees of freedom or, if series have more then 200 observations, at least 20. If this condition cannot be met, maximum order of autoregressive models is decreased by 1, so we get at least 2 additional degrees of freedom at each reduction. Automatic Procedure of Building Specification … 155 FIGURE 1. Dialog box for call to function CS_CongruentSpecification in Gretl FIGURE 2. Text window with results of function CS_CongruentSpecification in Gretl 156 Marcin Błażejowski, Paweł Kufel, Tadeusz Kufel 3. Comparison of Congruent Modeling Algorithm vs. PcGets vs. RETINA In this section, we will show some similarities and differences between algorithm based on congruent dynamic modeling theory and approaches in PcGets and RETINA. PcGets and RETINA comparison can be found in [Perez-Amaral, Gallo, White 2005] and table (1) is based on it. Comparison of General-to-Specific vs. Congruent Modeling can be found in [Kufel 2004]. Our comparison is based on the above mentioned articles. In congruent modeling we believe, that DGP is nested in the starting general model and reduction irrelevant variables can discover it. This is very similar to general-to-specific approach, but the starting general model is formulated in different way. Starting specification is based on the theory and is also extended of information about internal structure of given processes, including deterministic components, integration and autoregression. Autoregressive models can have different starting order, which is the most important difference to the general-to-specific approach. In congruent modeling we start with congruent general model and step by step this model gets reduced to congruent empirical model (with the white noise error term). As a strategy of model reduce we use t statistics, which has sufficient power to discover DGP. A staring model is formulated on two basis: theory, which gives causal relationships between variables and on the internal structure of all processes. This guarantees that whole variability of Yt and all Xit processes is included, so model is congruent (error term has white noise properties). Congruent modeling assumes linear in parameters model, but variables can be logtransformed. Model can be nonlinear in variables, so congruent modeling gives flexibility. Starting congruent general model based on the internal structure of all processes, is unrestricted and overparametrizied. Step by step this model is being reduced with use of t statistics and a posterior procedure. Final (empirical) congruent model is parsimonious. Congruent model assumes linearity in parameters, so computation is simple (we use OLS estimation). Transformations of variables are allowed, so starting general model can be nonlinear in the underlying variables. Congruent modeling refers to time-series and cross-section data as well, but automatic procedure requires time-series only. Congruent modeling approach can be used for multiple equation systems, including simultaneous equation models, but automatic procedure for it would be very complicated (but not impossible). Automatic Procedure of Building Specification … 157 TABLE 1. Comparison of PcGets and RETINA and Congruent Modeling PcGets 1. Select a parsimonious undominated representation of an overly general initial model, the general unrestricted model (GUM). 2. Best model fit within sample. 3. Congruent with theory. 1. General to specific. 2. Formulate a GUM and reduce it to a parsimonious model using residual tests and hypothesis testing on coefficients. 1. GUM: specified by the researcher, usually based on theory. May use transforms of the original variables. 1. The GUM determines maximum flexibility. May include transforms of the original variables. 1. Starting from the GUM, performs a systematic search using multiple reduction paths. 2. Using diagnostics, checks the validity of each reduction until terminal selection. 3. When all paths are explored, repeatedly tests models against their union until a unique final model is obtained. Variables with t statistics. 1. Seeks to formulate the GUM, in search for a relatively orthogonal specification. 2. A quick modeler option is available in PcGets for nonexpert users. RETINA Goals 1. Identify a parsimonious set of transformed attributes likely to be relevant for predicting out-ofsample. Strategy 1. Specific to general: Start from a model with a single transform. Add additional transforms only if they contribute to out-of-sample forecast ability. 2. Flexible and parsimonious model. 3. Selective search of transforms. 4. Control for collinearity Base Model 1. Based on original inputs and transforms, automatically selected from the first subsample by crossvalidation in the second, controlling for collinearity. Flexibility 1. The permitted transformations of the in-puts determine maximum flexibility. 2. The actual flexibility of the candidate model is chosen by the procedure. Selective/Systematic Search 1. Uses a selective search to avoid the heavy task of evaluating all 2m possible models and of applying some form of model selection. 2. A saliency feature of the transforms, such as the correlation with the dependent variable, is used to construct a natural order of the transforms in which they are considered. 3. Only a number of candidate models of order proportional to m is considered Colinearity 1. Controls for collinearity by adding an additional transform to the candidate list only if the collinearity is below a certain (user defined) threshold. Congruent Modeling 1. Congruent general model reduced to parsimonious congruent model in Zieliński sense with error term of white noise properties. 2. Very good behavior in prediction out of the sample. 3. Congruent with theory. 1. Congruent general model reduced to congruent empirical model. 2. Elimination insignificant variables using a posterior procedure based on t statistics. 3. Parsimonious empirical model 1. Specification of starting general congruent based on a theory and extended of information of internal structure of all included processes. 2. Congruent model may use transformed processes. 1. Unrestricted congruent general model providing flexibility. 1. Starting from congruent general model and reduce it by eliminating irrelevant variables 1. Collinearity is controlled by GRETL. 158 Marcin Błażejowski, Paweł Kufel, Tadeusz Kufel 1. Original variables and transformations specified in the GUM. 1. Linear or nonlinear in the parameters, as specified by the GUM. 2. Linear or nonlinear in the underlying variables, as specified by the GUM. 1. Time series or cross-section. Explanatory Variables 1. Original variables and nonlinear transformations allowed for by the procedure. Linearity 1. Linear in the parameters. 2. Linear or nonlinear in the underlying variables. Types of Data Applicable So Far 1. Mainly cross-section at present (no obstacles to its application in a time series context). 1. Original variables and transformations specified at the beginning of the procedure. 1. Linear in the parameters. 2. Linear or nonlinear in the underlying variables. 1. Time-series. Source: Own work based on [Perez-Amaral, Gallo, White 2005 p. 266-269]. 4. Conclusions In this paper, we discuss the power of the congruent modeling concept and its intrinsic features for automatic model selection procedure. Even if we worked out full algorithm for such procedure, our considerations were theoretical. So the next stage of our work will be to implement this algorithm in Gretl. The automatic procedure will investigate internal trend-seasonal-autoregressive structure for all the processes and formulate congruent general unrestricted model based on it. Literature Cottrell A., Lucchetti R. 2009 Gnu Regression, Econometrics and Time-series, http://gretl. .sourceforge.net. Doornik J.A., Hendry D.F. 2007 Empirical Econometric Modeling – PcGive 12, London. Granger C.W.J., Hendry D.F. 2005 A Dialogue Concerning a New Instrument for Econometric Modeling, “Econometric Theory”, 21, 278-297. Granger C.W.J., Morris M.J. 1976 Time Series Modeling and Interpretation, “Journal of the Royal Statistical Society”, Series A (General), 139(2), 246-257. Hendry D.F., Krolzig H.-M. 2001 Automatic Econometric Model Selection, London. Krolzig H.-M., Hendry D.F. 2001 Computer Automation of General-to-Specific Model Selection Procedures, “Journal of Economic Dynamics and Control”, 25, 831-866. Kufel T., Piłatowska M. 1997 The White Noise Properties in the Dynamic Congruent Modeling, [in:] MACROMODELS '90, 163-178, Łódź. Kufel T. 2004 General-to-Specific Modeling vs. Congruent Modeling in PcGets, [in:] Dynamic Econometric Models, (ed.) Z. Zieliński, 6, 83-92, Toruń. Perez-Amaral T., Gallo G.M., White H. 2003 Flexible Tool for Model Building: the Relevant Transformation of the Inputs Network Approach (RETINA), Technical report, Universidad Complutense de Madrid, Facultad de Ciencias Econmicas y Empresariales. Automatic Procedure of Building Specification … 159 Perez-Amaral T., Gallo G.M., White H. 2005 A Comparison of Complementary Automatic Modeling Methods: RETINA and PcGets, “Econometric Theory”, 21, No. 1, 262-277. Piłatowska M. 2004 Realization of the Congruence Postulate as a Method of Avoiding the Effect of a Spurious Relationship, [in:] Dynamic Econometric Models, (ed.) Z. Zieliński, 6, 117126, Toruń. Piłatowska M. 2008 The Econometric Models Satisfying the Congruence Postulate an Overview, [in:] Dynamic Econometric Models, (ed.) Z. Zieliński, 8, 53-60, Toruń. Zieliński Z. 1993 Dynamic Econometric Linear Models as a Tool of Description and Analysis of Causal Relationships in Economics. [in:] Some Aspects of the Dynamic Eeconometric Modeling, (ed.) Z. Zieliński, 7-58, Toruń. Zieliński Z. 1994 Linear Congruent Models Describing Relationships for Integrated Economic Processes, [in:] Dynamic Econometric Models, (ed.) Z. Zieliński, 1, 7-20. Toruń. Zieliński Z. 1995 Liniowe modele zgodne opisujące zależności sumacyjnych (zintegrowanych) procesów ekonomicznych. [in:] Przestrzenno-czasowe modelowanie i prognozowanie zjawisk gospodarczych, (ed.) A. Zeliaś, 77-87, Kraków. Zieliński Z., Kufel T. 1995 Specifcation of Dynamic Properties of the Econometrii Models in the Light of Congruent Models Concept. [in:] MACROMODELS '86, 25-52. Łódź. OPTIMUM. STUDIA EKONOMICZNE NR 4 (48) 2010 Józef ROGOWSKI1 NA MARGINESIE ARTYKUŁU T. TOKARSKIEGO PT. PRZESTRZENNE ZRÓŻNICOWANIE ŁĄCZNEJ PRODUKCYJNOŚCI CZYNNIKÓW PRODUKCJI W POLSCE, OPUBLIKOWANEGO W „GOSPODARCE NARODOWEJ” NR 3/2010 Streszczenie W niniejszej pracy została zweryfikowana pozytywnie hipoteza, że jeżeli przyjąć funkcje produkcji Cobb’a-Douglass’a ze stałymi korzyściami skali, to elastyczność wydajności pracy względem technicznego uzbrojenia pracy nie jest jednakowa we wszystkich województwach, co przeczy założeniu przyjętemu w cytowanej pracy T. Tokarskiego. Jeżeli przyjmie się zweryfikowaną hipotezę, to otrzyma się inną wojewódzką strukturę łącznej produkcyjności czynników produkcji, a zatem można także otrzymać, czego nie bada się w niniejszej pracy, inne oszacowania modeli, w których jest endogenizowana ta zmienna. Słowa kluczowe: funkcja produkcji, TFP (łączna produktywność czynników produkcji), stopa hicksowskigo postępu technicznego NOTES IN PASSING CONCERNING THE ARTICLE BY T. TOKARSKI ENTITLED SPATIAL DIVERSITY OF TOTAL PRODUCTIVITY OF PRODUCTION FACTORS IN POLAND PUBLISHED IN GOSPODARKA NARODOWA No 3/2010 Summary This paper provides a positive verification of the hypothesis that if you take the Cobb-Douglass' production function with constant returns of scale, the flexibility of work output relative to technical capital per one employee is not the same in all voivodeships, which is contradictory to the assumption made in the quoted paper by T. Tokarski. If we accept the revised hypothesis, we will obtain a different voivodeship structure of total productivity of production factors. Thus, we can also obtain, which is not the subject of this paper, different assessment of models in which this variable originates. Key words: production function, TFP (total productivity of factors of production), rate of Hicksonian technological progress 1 Dr hab. Józef Rogowski, prof. UwB jest pracownikiem Wydziału Ekonomii i Zarządzania Uniwersytetu w Białymstoku. Na marginesie artykułu T. Tokarskiego… 161 1. Wstęp T. Tokarski [Zob.: Tokarski 2010 s. 23 – 39] podjął próbę zbadania przestrzennego zróżnicowania wydajności pracy, technicznego uzbrojenia pracy oraz łącznej produkcyjności czynników produkcji. W tym celu oszacowano funkcję produkcji Cobba-Douglasa na podstawie rocznych danych wojewódzkich z lat 1995 – 2007. Założono przy tym, że mamy do czynienia ze stałymi korzyściami skali. Wobec tego, oszacowano równanie (1), które jest równoważne przy tych założeniach z oszacowaniem funkcji produkcji C-D: yit A0 e gt kit eit , (1) gdzie yit to wydajność pracy mierzona wielkością PKB na jednego zatrudnionego w i-tym województwie w t-ym roku, kit – techniczne uzbrojenie pracy w i-tym województwie i w t-ym roku, g – stopa postępu technicznego w sensie Hicksa, ξit – składnik losowy w i-tym województwie i w t-ym roku2, dla i=1, …, 16 oraz t=1995, …, 2007. Również oszacowano model, w którym wprowadzono zmienne charakterystyczne województw (poza woj. mazowieckim mającym numer 0) oraz funkcje charakterystyczne kolejnych lat od 1996 roku do 2007 roku, szacując model (2): 15 2007 j 1 t 1996 ln yit j w j g d t t ln kit it , (2) gdzie zmienne wj (j=1, …, 15) oraz dt (t= 1995, …, 2007) są odpowiednio zmiennymi charakterystycznymi województw, poza mazowieckim, oraz poszczególnych lat od 1996 roku do 2007 roku, natomiast gt – stopa postępu w roku t w Polsce3. W ten sposób założono, że łączna produktywność czynników produkcji może się różnić między województwami, w tym stopa postępu technicznego – między latami. Przyjrzyjmy się tym założeniom. 1. Założono, że logarytm naturalny łącznej produktywności czynników produkcji składa się z dwóch składników: Λ+Λj oraz gt, z których pierwszy jest zależny od województwa, a drugi od roku. 2. Przyjęto, że elastyczność wydajności pracy względem technicznego uzbrojenia pracy (parametr α) jest niezależna od miejsca (województwa) i czasu. Analogiczne założenia poczynili E. Kwiatkowski i T. Tokarski [Zob.: Kwiatkowski, Tokarski 2009 s. 44 – 46] w pracy badającej powody zróżnicowania wydajności pracy w powiatach, przyjmując również założenie 2. Innymi słowy, zakłada się jednakową funkcję produkcji dla wszystkich regionów, co oznacza między innymi, że regiony o zbliżonych zasobach środków trwałych i zbliżonych liczbach pracujących powinny się charakteryzować przybliżoną krańcową wydajnością pracy i produktywnością kapitału. To założenie wydaje się być nieprzystające do rzeczywistości, co będzie przedmiotem weryfikacji, a także będzie podęta próba oszacowania łącznej produktywności czynników produkcji dla województw polskich bez tego założenia. 2 3 Zob.: [Tokarski 2010 s. 27]. Równanie (2) w pracy T. Tokarskiego nie zawiera składników losowych. Zob.: Równania (4) i (5), w: [Tokarski 2010]. 162 Józef Rogowski 2. Założenia W celu weryfikacji hipotezy mówiącej, że elastyczność produkcji względem zasobów środków trwałych nie jest jednakowa dla poszczególnych województw, zostanie oszacowany model (3): 16 16 16 j 2 j 2 j 2 ln yit j w j gt g j w j t ln k it j ln k it w j it . (3) 4 Zatem, jest zakładana funkcja Cobba-Douglasa ze stałymi korzyściami skali, podobnie jak w pracy T. Tokarskiego [Zob.: przypis 2.]5. Jeżeli przyjmiemy kolejność województw alfabetycznie, to parametr związany ze zmienną ln(kjt)wj może być interpretowany jako przyrost elastyczności produkcji względem zasobu środków trwałych w j-tym województwie w porównaniu z województwem dolnośląskim (j=2, … 16). Stąd istnienie choćby jednego parametru z wartością istotnie różną od 0 (test t-Studenta) zweryfikowałoby przyjętą hipotezę pozytywnie. Źródłem danych jest Bank Danych Regionalnych GUS6. Wybrano następujące zmienne obserwowane w latach t=1999, …, 20077 i w województwach polskich i = 1, …, 16: – PKBit – produkt krajowy brutto ogółem (ceny bieżące) z kategorii rachunki regionalne; – Kit – wartość brutto środków trwałych ogółem (grupa: rzeczowy majątek trwały, kategoria: inwestycje i środki trwałe); – Lit – pracujący ogółem (grupa: aktywność ekonomiczna ludności <dane średnioroczne>, kategoria: rynek pracy). Pierwsze dwie zmienne są wyrażone w cenach bieżących, dlatego należy podjąć próbę przeliczenia ich na ceny stałe. W Banku Danych Regionalnych GUS brak jest danych o deflatorach PKB w ujęciu przestrzennym. I. Skrodzka [Zob.: Skrodzka 2010] wyznaczyła deflatory PKB dla województw, wykorzystując indeks cenowy Laspeyresa. Deflatory te zostały wykorzystane do sprowadzenia wartości PKB w województwach polskich do cen stałych roku 1995. Te same wskaźniki zostały także użyte do sprowadzenia wartości brutto środków trwałych do cen stałych roku 1995. Oznaczono tak otrzymane zmienne podobnie jak wcześniej, czyli PKB oraz K. Wobec tego zmienne w modelu (3) mają następujące definicje: 1. yit PKBit (wydajność pracy), Lit Oznaczenia jak wyżej. Natomiast inaczej został potraktowany postęp techniczny. W niniejszej pracy zakładamy, że stopa postępu technicznego jest stała w czasie oraz nie zakładamy jej stałości w przestrzeni. T. Tokarski, w cytowanej pracy, zakłada, że stopa postępu technicznego jest stała w przestrzeni, natomiast nie musi być stała w czasie. 6Zob.: [Dokument elektroniczny, tryb dostępu: http://www.stat.gov.pl/bdr_n/app/strona.indeks]. 7 Dane dotyczące PKB w województwach w Bazie Danych Regionalnych GUS są dane w latach 1995 – 2007, zmiennej K – w latach 1999 – 2008, natomiast zmiennej L – w latach 1995 – 2008. Stąd analizą są objęte lata 1999 – 2007. 4 5 163 Na marginesie artykułu T. Tokarskiego… 2. kit K it (techniczne uzbrojenie pracy). Lit 3. Wyniki estymacji Wyniki oszacowania8 metodą najmniejszych kwadratów na podstawie 144 danych (9 lat razy 16 województw) są przedstawione w tabeli 1. TABELA 1. Statystyka regresji oraz analiza wariancji STATYSTYKI REGRESJI R kwadrat Błąd standardowy Obserwacje 0,994292 0,017851 144 ANALIZA WARIANCJI Regresja Resztkowy Razem df 47 96 143 SS 7,94 0,05 7,98 MS F 0,17 355,79 4,0E-04 Istotność F 2,74E-90 Źródło: Obliczenia własne Z analizy wariancji wynika, że przyjęty przez nas model opisuje istotną zależność. Odrzucenie hipotezy, że wszystkie parametry poza wyrazem wolnym są zerami i przyjęcie hipotezy przeciwnej jest związane z ryzykiem popełnienia błędu odrzucenia hipotezy prawdziwej, którego prawdopodobieństwo jest równe w przybliżeniu 3 na 90tym miejscu po przecinku, czyli praktycznie 0. Wyniki estymacji parametrów będą podane w trzech grupach9: – logarytm naturalny wyrazu wolnego dla województwa dolnośląskiego i jego zmiany w innych województwach, czyli czyli Λ i Λj, gdzie w tabeli zamiast j będzie wpisany skrót województwa; – parametry związane ze zmienną czasową, czyli stopa hicksowskiego postępu technicznego w województwie dolnośląskim i jej zmiana w innych województwach, czyli g i gj (j jak wyżej); – elastyczność produkcji względem środków trwałych (równoważnie, elastyczność wydajności pracy względem technicznego jej uzbrojenia) w województwie dolnośląskim i jej zmiany w pozostałych województwach, czyli α oraz αj (j jak wyżej). 8 Oszacowanie przeprowadzono przy pomocy programu Microsoft Office Excel 2007. – istotność dwustronna na poziomie 0,05; * – istotność dwustronna na poziomie 0,1. 9 ** 164 Józef Rogowski TABELA 2. Oszacowania wyrazu wolnego i jego zmiany (Λ i Λj) Parametr z I grupy Λ Λ(K-P) Λ(LUBE) Λ(LUBU) Λ(Ł) Λ(MAŁ) Λ(MAZ) Λ(OP) Λ(PODK) Λ(PODL) Λ(POM) Λ(ŚL) Λ(ŚW) Λ(W-M) Λ(WIELK) Λ(Z) Oszacowana wartość -35,7743** -63,3483** -4,70326 21,2187** -4,10871 -26,2752** -19,0075** -29,1501** 24,3818* -17,006 -14,7955* -7,59874 -9,95147 0,988678 -11,427 -23,0455* Błąd standardowy 6,678048794 18,16816791 8,883149407 9,144677154 10,13259255 12,10245735 9,562369456 9,447889524 16,55161009 13,9236451 10,52361319 11,53118787 8,7674052 8,738515721 16,77934341 17,25063737 t Stat -5,356992 -3,486772 -0,529459 2,3203333 -0,405494 -2,171067 -1,987738 -3,085353 1,4730771 -1,221377 -1,405937 -0,658973 -1,135053 0,1131402 -0,681014 -1,335923 Wartość-p 2,8958E-07 0,00036955 0,29885472 0,01122026 0,34300835 0,01619569 0,02484466 0,00132814 0,07200077 0,11246706 0,08148569 0,25574528 0,12958957 0,45507782 0,24875117 0,09236632 Źródło: Obliczenia własne Z powyższej tabeli wynika, że logarytm naturalny wyrazu wolnego funkcji C-D ze stałymi korzyściami skali w województwie dolnośląskim jest istotnie różny od zera na poziomie istotności mniejszej niż 0,05. Natomiast parametr ten istotnie różni się od powyższego w województwach: kujawsko-pomorskim (K-P), lubuskim (LUBU), małopolskim (MAŁ), mazowieckim (MAZ), opolskim (OP), podkarpackim (PODK), pomorskim (POM) oraz zachodniopomorskim (Z). TABELA 3. Oszacowania stopy postępu technicznego w województwie dolnośląskim i jego zmian w pozostałych regionach (g i gj) Parametr z II grupy g g(K-P) g(LUBE) g(LUBU) g(Ł) g(MAŁ) g(MAZ) g(OP) g(PODK) g(PODL) g(POM) g(ŚL) g(ŚW) g(W-M) g(WIELK) g(Z) Źródło: Obliczenia własne Oszacowana wartość 0,018327** 0,03322** 0,002281 -0,01031** 0,001978 0,013667** 0,010031** 0,014703** -0,01258* 0,008349 0,007598* 0,003547 0,005 -0,00088 0,005888 0,012724* Błąd standardowy 0,003440356 0,009602904 0,004610973 0,004797931 0,005307561 0,006338268 0,004955226 0,004883687 0,008916592 0,007238089 0,005650337 0,005562271 0,004479789 0,004449243 0,008803828 0,00929506 t Stat 5,3272028 3,4593242 0,4945838 -2,148773 0,3726684 2,1562034 2,0243808 3,0106056 -1,411126 1,1534376 1,3446583 0,6376602 1,1160599 -0,198223 0,6688094 1,3689154 Wartość-p 3,2867E-07 0,00040466 0,31101193 0,01708383 0,35510837 0,01678324 0,02285452 0,00166577 0,08071999 0,12579725 0,09095204 0,26260644 0,13359113 0,42164486 0,25261108 0,08711013 165 Na marginesie artykułu T. Tokarskiego… Można zauważyć, że stopa hicksowskiego postępu technicznego jest istotnie różna od zera w województwie dolnośląskim. Poza województwami: lubelskim, łódzkim, podlaskim, śląskim, świętokrzyskim, warmińsko-mazurskim oraz wielkopolskim, stopa ta różni się zasadniczo od stopy w powyższym województwie, przy poziomie istotności nie większym od 0,1. Województwa lubuskie i podkarpackie mają tę stopę znacząco niższą. Oznacza to, że należy przy szacowaniu funkcji produkcji z hicksowskim postępem technicznym zakładać, że jego stopa różni się między województwami. Elastyczność wydajności pracy względem technicznego uzbrojenia pracy jest w województwie dolnośląskim istotnie większa od 0 i wynosi 0,63510. Dla większości województw ten parametr nie jest istotnie różny od 0,635. Natomiast dla kujawsko-pomorskiego11, małopolskiego, mazowieckiego i zachodniopomorskiego elastyczność powyższa różni się w znacznym stopniu od 0,635. W Małopolsce, na Mazowszu oraz w zachodniopomorskim elastyczność ta jest mniejsza niż na Dolnym Śląsku. Ciekawe, że gdybyśmy szacowali modele dla każdego województwa oddzielnie, to elastyczności w regionie małopolskim (0,32), w zachodniopomorskim (0,05) oraz w kujawskopomorskim (-0,18) są nieistotnie różne od zera, chociaż w województwie małopolskim na poziomie istotności 0,1 jest ona znacząco dodatnia. TABELA 4. Oszacowania elastyczności wydajności pracy względem postępu technicznego w województwie dolnośląskim i jej zmian w pozostałych regionach (α i αj) Parametr z III grupy α α(K-P) α(LUBE) α(LUBU) α(Ł) α(MAŁ) α(MAZ) α(OP) α(PODK) α(PODL) α(POM) α(ŚL) α(ŚW) α(W-M) α(WIELK) α(Z) Oszacowana Błąd standarwartość dowy 0,635379** 0,090460596 -0,82028** 0,298910311 -0,0515 0,24197664 -0,17014 0,247111454 0,004518 0,197544546 -0,31156* 0,194652074 -0,22579* 0,143452771 -0,127 0,139933657 0,149065 0,375295808 0,00527 0,17521533 -0,10063 0,279600838 0,127107 0,21296296 -0,07794 0,137452501 0,149645 0,174395726 -0,09119 0,236057672 -0,58815* 0,357804634 t Stat 7,0238259 -2,744224 -0,212823 -0,688504 0,0228703 -1,600591 -1,57398 -0,907601 0,3971937 0,0300796 -0,359895 0,596851 -0,567007 0,8580798 -0,386286 -1,643774 Wartość-p 1,5502E-10 0,00361977 0,41595802 0,24639808 0,4909006 0,05637673 0,05939104 0,18318091 0,34605317 0,488033 0,35985819 0,27600593 0,28601627 0,19649285 0,35006985 0,05174701 Źródło: Obliczenia własne. 10 Zatem, przy naszym założeniu o stałych korzyściach skali, elastyczność produkcji względem liczby zatrudnionych jest równa 0,365. 11 Dla tego województwa otrzymany wynik jest nieinterpretowalny, bowiem elastyczność wydajności pracy względem technicznego uzbrojenia pracy, lub równoważnie, elastyczność PKB względem zasobu środków trwałych jest ujemna, czyli wzrost zasobu środków trwałych prowadzi do zmniejszenia PKB. 166 Józef Rogowski Zatem, otrzymaliśmy wynik, z którego widać, że nie można zakładać równości elastyczności PKB względem zasobu środków trwałych między województwami. Innymi słowy, istnieją regiony, w których funkcje produkcji Cobba-Douglasa różnią się parametrami związanymi z liczbą zatrudnionych i zasobami kapitału, stąd mogą istnieć regiony, które przy tych samych zasobach środków trwałych i liczbie zatrudnionych mają różne krańcowe wydajności czynników produkcji. 4. Rozkład przestrzenny TFP Na podstawie, otrzymanych wyżej, wyników spróbujmy oszacować łączną produktywność czynników produkcji, czyli bez założenia o jednakowych stopach postępu technicznego oraz jednakowych elastycznościach wydajności pracy względem technicznego uzbrojenia pracy w poszczególnych województwach. Natomiast zakładamy, że stopa postępu technicznego w poszczególnych województwach nie zmienia się w czasie. Do tego celu będą wykorzystane wzory [Zob.: Tokarski 2010 s. 31 wzór (6)]: dla Dolnego Śląska (i=1) – TFP1t y1t , k10t, 64 dla pozostałych (i=2, …, 16) – TFPit (4) y k it 0 , 64 i it . (5) Z uwagi na kłopoty interpretacyjne, o których była mowa w poprzednim punkcie, nie bierzemy pod uwagę województw: kujawsko-pomorskiego (wykładnik przy technicznym uzbrojeniu pracy jest ujemny) oraz zachodniopomorskiego (elastyczność wydajności pracy względem technicznego uzbrojenia pracy jest nieistotnie większa od zera). Na mocy: (4) i (5) otrzymano oszacowania TFP dla poszczególnych lat i województw (tabela 5.). TABELA 5. Oszacowania TFP w poszczególnych województwach dolnośląskie rok TPF 1999 2,31303667 2000 2,466800155 2001 2,497661781 2002 2,530799939 2003 2,523914597 2004 2,559204812 2005 2,596825463 2006 2,691507688 2007 2,789412333 lubelskie rok TPF 1999 2,043353 2000 2,074899 2001 2,159703 2002 2,180409 2003 2,237071 2004 2,288923 2005 2,29414 2006 2,374036 2007 2,411784 lubuskie rok TPF 1999 4,210112 2000 4,580801 2001 4,441958 2002 4,426529 2003 4,433525 2004 4,59811 2005 4,639252 2006 4,602141 2007 4,58612 łódzkie rok TPF 1999 2,023151 2000 2,077737 2001 2,102288 2002 2,168699 2003 2,19211 2004 2,264884 2005 2,282151 2006 2,34476 2007 2,378963 Na marginesie artykułu T. Tokarskiego… małopolskie rok TPF 1999 6,962230771 2000 6,992353263 2001 6,899898627 2002 7,336404048 2003 7,60217894 2004 7,928699979 2005 8,100695256 2006 8,387384903 2007 8,884832515 mazowieckie rok TPF 1999 6,826805 2000 6,871807 2001 7,097033 2002 7,305737 2003 7,588199 2004 7,580714 2005 8,126258 2006 8,284535 2007 8,407016 podlaskie rok TPF 1999 1,640507928 2000 1,822433593 2001 1,868750067 2002 1,903187688 2003 1,911991181 2004 1,97040269 2005 2,001642643 2006 2,071037237 2007 2,130197192 pomorskie rok TPF 1999 3,654163 2000 3,680386 2001 3,521886 2002 3,632743 2003 3,841944 2004 4,024127 2005 4,140042 2006 4,287476 2007 4,322357 warmińskomazurskie rok TPF 1999 1,099661764 2000 1,12098447 2001 1,106267326 2002 1,145438247 2003 1,178396891 2004 1,201571727 2005 1,202348073 2006 1,239296523 2007 1,255871785 opolskie rok TPF 1999 3,002977 2000 3,172536 2001 3,162182 2002 3,2486 2003 3,375918 2004 3,842948 2005 3,669874 2006 3,708097 2007 3,902499 śląskie rok TPF 1999 1,375497 2000 1,494984 2001 1,495999 2002 1,514819 2003 1,541491 2004 1,659577 2005 1,63216 2006 1,621913 2007 1,681086 167 podkarpackie rok TPF 1999 1,088341 2000 1,114159 2001 1,130895 2002 1,095668 2003 1,105097 2004 1,125732 2005 1,141814 2006 1,151321 2007 1,144137 świętokrzyskie rok TPF 1999 2,459357 2000 2,546665 2001 2,588223 2002 2,614592 2003 2,748136 2004 2,854858 2005 2,786507 2006 2,877213 2007 3,002342 wielkopolskie rok 1999 2000 2001 2002 2003 2004 2005 2006 2007 TPF 3,346389 3,405503 3,573522 3,582154 3,561098 3,814295 3,87378 3,942735 4,076407 Źródło: Obliczenia własne. Otrzymane wyniki pokazują znaczne zróżnicowanie TPF między województwami. Wskaźniki te zmieniają się od 1 (podkarpackie i warmińsko-mazurskie) do ponad 8 (małopolskie i mazowieckie). W większości województw można zaobserwować spadki TPF (warmińsko-mazurskie w 2001 r., wielkopolskie w 2003 r., świętokrzyskie w 2005 r., śląskie w 2005 r. i 2006 r., pomorskie w 2001 r., podkarpackie w 2002 r. i 2007 r., opolskie w 2001 r. i 2005 r., mazowieckie w 2004 r., małopolskie w 2001 r., lubuskie w: 2001 r., 2002 r., 2006 r. i 2007 r., dolnośląskie w 2003 r.). W województwach: lubelskim, łódzkim, podlaskim, w całym analizowanym okresie, TFP wzrastał. 168 Józef Rogowski TABELA 6. Średnie wartości TFP w latach 1999 – 2007 Województwo Średnia TPF dolnośląskie 2,552129 lubelskie 2,229369 lubuskie 4,502061 łódzkie 2,20386 małopolskie 7,677186 mazowieckie 7,565345 opolskie 3,453959 Województwo Średnia TPF podkarpackie 1,121907 podlaskie 1,924461 pomorskie 3,900569 śląskie 1,557503 świętokrzyskie 2,719766 warmińsko1,172204 mazurskie wielkopolskie 3,686209 Źródło: Obliczenia własne Powyższa tabela pokazuje średnie wartości łącznej produktywności czynników w poszczególnych regionach. Na czele listy, pod względem TFP, są Małopolska i Mazowsze. Środek stawki stanowią: lubuskie, pomorskie, wielkopolskie i opolskie. Natomiast listę zamykają województwa: podkarpackie i warmińsko-mazurskie. Otrzymana kolejność jest trochę inna niż w, cytowanym wyżej, artykule T. Tokarskiego. 5. Podsumowanie W niniejszej pracy została zweryfikowana pozytywnie hipoteza, że jeżeli przyjąć funkcje produkcji Cobb’a-Douglass’a ze stałymi korzyściami skali, to elastyczność wydajności pracy względem technicznego uzbrojenia pracy nie jest jednakowa we wszystkich województwach, co przeczy założeniu przyjętemu w cytowanej pracy T. Tokarskiego. Jeżeli przyjmie się zweryfikowaną hipotezę, to otrzyma się inną wojewódzką strukturę łącznej produkcyjności czynników produkcji, a zatem można też otrzymać, czego nie bada się w niniejszej pracy, inne oszacowania modeli, w których jest endogenizowana ta zmienna. Literatura Kwiatkowski E., Tokarski T. 2009 Determinanty przestrzennego zróżnicowania wydajności pracy, „Wiadomości Statystyczne”, nr 10. Tokarski T. 2010 Przestrzenne zróżnicowanie łącznej produktywności czynników produkcji w Polsce, „Gospodarka Narodowa”, nr 3. Skrodzka I. 2010 Modelowanie miękkie kapitału ludzkiego w województwie podlaskim, Konferencja naukowa: Ekonomia – Zarządzanie – Międzynarodowe Stosunki Gospodarcze. Płaszczyzny badawcze i możliwości współpracy, Rajgród 28-29 VI. Dokument elektroniczny, Tryb dostępu: [http://www.stat.gov.pl/bdr_n/app/strona.indeks]. OPTIMUM. STUDIA EKONOMICZNE NR 4 (48) 2010 Dorota PERŁO1 REGIONALNY MODEL EFEKTYWNEGO ZARZĄDZANIA DŁUGIEM JEDNOSTEK SAMORZĄDU TERYTORIALNEGO W POLSCE2 Streszczenie Celem artykułu jest budowa modelu określającego najważniejsze elementy efektywnego zarządzania długiem na poziomie regionalnym. Model pokazuje relacje pomiędzy ogromną skalą potrzeb inwestycyjnych regionów w Polsce i związaną z nią koniecznością zaciągania długu a strukturą źródeł finansowania inwestycji oraz polityką zarządzania długiem. Słowa kluczowe: model miękki, dług JST, efektywne zarządzanie długiem REGIONAL MODEL OF EFFECTIVE DEBT MANAGEMENT BY LOCAL GOVERNMENT UNITS IN POLAND Summary The purpose of this article is to build a model setting out the key elements of effective debt management on a regional level. The model shows the relationship between large-scale investment needs of regions in Poland and the related necessity to enter into debt, and the structure of sources of investment financing as well as policy of debt management. Key words: soft model, local debt, effective local debt management 1. Wstęp Wzrost znaczenia instrumentów dłużnych w systemach finansów publicznych jednostek samorządu terytorialnego (JST) nadal nie skutkuje proporcjonalnym wzrostem efektywności ich wykorzystania. Istniejące w polskim systemie finansów publicznych uwarunkowania prawno-ekonomiczne, a także polityczne i organizacyjne ograniczają możliwości efektywnego wykorzystania regionalnego długu publicznego jako instrumentu polityki rozwojowej województw. Dr Dorota Perło jest pracownikiem Wydziału Ekonomii i Zarządzania Uniwersytetu w Białymstoku. Praca naukowa finansowana ze środków na naukę w latach 2009 – 2010, jako projekt badawczy nr N N113 241436. 1 2 170 Dorota Perło Celem artykułu jest budowa modelu określającego najważniejsze elementy efektywnego zarządzania długiem na poziomie regionalnym. Diagnozowane zagadnienia są częściowo niemierzalne, a w związku z tym dobrym narzędziem badawczym jest modelowanie miękkie (soft modelling), które umożliwia badanie powiązań między zmiennymi nieobserwowalnymi3. Model miękki składa się z dwóch części: z modelu wewnętrznego i zewnętrznego. Estymowany jest metodą PLS (Partial Least Squares) umożliwiającą jednoczesne oszacowanie parametrów obydwu modeli. W wyniku estymacji, oprócz parametrów, otrzymuje się również oszacowania wartości zmiennej ukrytej, które można traktować jako miarę syntetyczną. Wielkości te zależą nie tylko od relacji zewnętrznych, ale również od założonych w modelu wewnętrznym związków między zjawiskami złożonymi. 2. Specyfikacja modelu efektywnego zarządzania długiem JST W ostatnim okresie zadłużenie polskich województw odznacza się tendencją wzrostową. Wynika to z jednej strony z ogromnej skali potrzeb inwestycyjnych, z drugiej zaś z konieczności współfinansowania projektów realizowanych w ramach funduszy strukturalnych i Funduszu Spójności [Por.: Bitner, Cichocki 2008]. Wzrost wysokości zadłużenia pociąga za sobą wzrost obciążenia długiem dochodów bieżących. Najbardziej obciążone długiem są dochody bieżące województwa kujawsko-pomorskiego (58,49%), a najmniej – województwa śląskiego (0,44%). TABELA 1. Podstawowe wskaźniki analizy statystycznej obciążenia długiem dochodów bieżących województw (WZ1) Wyszczególnienie Średnia arytmetyczna Mediana Odchylenie standardowe Współczynnik zmienności Wartości minimalne Wartości maksymalne Empiryczny obszar zmienności Obciążenie dochodów bieżących długiem w % (WZ1) 2005 2006 2007 20,36 26,29 26,16 18,26 29,12 19,46 13,74 13,59 17,90 67,46 51,70 68,45 1,50 0,95 0,44 51,37 44,03 58,49 49,87 43,08 58,05 Źródło: [Wskaźniki do oceny…, Dokument elektroniczny, Tryb dostępu: www.mf.gov.pl, Data wejścia: czerwiec 2009 r.]. 3 Teoretyczne podstawy modelowania miękkiego są zawarte przede wszystkim w publikacjach: [Rogowski 1990; Wold 1980; Perło 2004]. Regionalny model efektywnego zarządzania długiem… 171 Korelacja pomiędzy wysokością zadłużenia a poziomem nadwyżki operacyjnej brutto, stanowiącej najbardziej syntetyczną ocenę kondycji finansowej samorządu, jak również potencjału inwestycyjnego samorządu oraz zdolności kredytowej, jest bardzo słaba (0,2546). Oznacza to, że większość regionów nie zarządza długiem w sposób efektywny. Z drugiej strony znaczna dyspersja zadłużenia województw pokazuje, że istnieją w Polsce takie regiony, które potrafią wykorzystać swój potencjał [Por.: Tabela 1.). Najbardziej są zadłużone województwa: małopolskie, kujawsko-pomorskie, mazowieckie i dolnośląskie. Są to jednocześnie regiony, które posiadają wysoki potencjał rozwojowy. Produkt krajowy brutto na mieszkańca, a także nadwyżka operacyjna brutto na mieszkańca w tych regionach są zdecydowanie wyższe od średniej krajowej. Natomiast najmniej zadłużone są regiony: świętokrzyskie, podlaskie, lubelskie i śląskie. Pierwsze trzy województwa charakteryzują się stosunkowo niskim poziomem potencjału rozwojowego, natomiast czwarte – województwo śląskie – zajmuje trzecie miejsce w Polsce pod względem PKB na mieszkańca, a mimo to nie zarządza efektywnie możliwościami zadłużenia regionu. Wynika to ze znacznej nadwyżki finansowej, jaką dysponował Śląsk w 2007 r. W podobnej sytuacji są województwa: wielkopolskie, pomorskie i łódzkie. Model miękki został zbudowany na podstawie danych statystycznych dotyczących szesnastu województw w Polsce w 2007 r. oraz prognoz na lata 2008 – 20104. Na model wewnętrzny składa się dziesięć zmiennych ukrytych: regionalny dług publiczny (DR), polityka zarządzania długiem (PZD), potrzeby inwestycyjne województw (PIN), potencjał inwestycyjny (INW), poziom rozwoju regionalnego (RR), źródła finansowania rozwoju regionalnego (ZF), środki własne (SWL), transfery z budżetu państwa (TBP), transfery zwrotne (TZ), fundusze unijne (FUE). Analiza wyników modelowania wskazuje, które województwo jest „lepsze”, a które „gorsze” w stosunku do innych obiektów ze względu na efektywne wykorzystanie długu. Schemat modelu wewnętrznego, prezentującego zależność analizowanych zmiennych, zawarty jest na rysunku 1. Wybrane do analizy zmienne są zjawiskami złożonymi, które nie podlegają bezpośredniej obserwacji – są to zmienne ukryte. W związku z powyższym, problematyczna jest kwantyfikacja tych pojęć. W analizowanym modelu każdej zmiennej niemierzalnej został przyporządkowany zbiór odpowiednich indykatorów, które mają na nie wpływ. Przyjęte zostało podejście dedukcyjne, oznaczające, że zmienna niemierzalna jest pierwotna w stosunku do zbioru wskaźników. Zatem, w modelu występują indykatory odbijające (reflective indicators), które nie muszą charakteryzować się niską korelacją między sobą. Oznacza to, że przy doborze zmiennych należy kierować się przede wszystkim względami merytorycznymi, a nie tradycyjnymi metodami doboru. Metody klasyczne zakładają bowiem niską zależność między zmiennymi objaśniającymi [Por. m.in.: Kuszewski 2000 s. 14 – 16]. 4 Badania te nie uwzględniają jeszcze skutków aktualnego kryzysu występującego w sektorze bankowym i prowadzone one były w warunkach swoistej nadpłynności tego sektora oraz stosunkowo łatwego dostępu JST do instrumentów dłużnych. W ostatnim czasie pozyskanie kredytów i pożyczek przez samorządy terytorialne, zwłaszcza długoterminowych, stało się trudniejsze, a cena długu znacząco wzrosła. 172 Dorota Perło RYSUNEK 1. Schemat modelu wewnętrznego efektywnego zarządzania długiem w regionach w Polsce TZ SWL PZD Legenda: TBP ZF FUE PZD DR PIN INW ZF SWL TBP TZ FUE RR – – – – – – – – – – DR INW PIN RR polityka zarządzania długiem, regionalny dług publiczny, potrzeby inwestycyjne województw, potencjał inwestycyjny, źródła finansowania rozwoju regionalnego, środki własne, transfery z budżetu państwa, transfery zwrotne, fundusze unijne, poziom rozwoju regionalnego. – zmienna ukryta rzędu I, – zmienna ukryta rzędu II. Źródło: Opracowanie własne. Liczba wskaźników (indykatorów), analizowanych w modelach miękkich, nie może przekroczyć liczby obiektów (województw). Ostateczny zestaw wskaźników, które przeszły pozytywnie wszystkie kryteria doboru, a także weryfikację merytoryczną i statystyczną modelu zawiera tabela 2. Źródła danych statystycznych stanowiły: Sprawozdania z wykonania budżetu województw w 2007 r., Wieloletnie programy inwestycyjne województw na lata 2008 – 2010, Prognoza łącznej kwoty długu województw na lata 2008-2010, a także Bank Danych Regionalnych Głównego Urzędu Statystycznego. Regionalny model efektywnego zarządzania długiem… 173 TABELA 2. Indykatory zmiennych ukrytych modelu miękkiego efektywnego zarządzania długiem w regionach w Polsce Symbol* Znaczenie indykatora (w zł na mieszkańca) Z0106 Z0207 Z0307 Z0407 Z0507 Z0607 Z0707 Z0807 Z0908 Z0909 Z0910 Z1008 Z1009 Z1010 Produkt krajowy brutto Dochody własne Dotacje celowe Subwencje ogólne Środki na dofinansowanie własnych zadań województw pozyskane z budżetu UE Zobowiązania ogółem Nadwyżka operacyjna brutto Kredyty i pożyczki Prognoza łącznej kwoty długu na 2008 r. Prognoza łącznej kwoty długu na 2009 r. Prognoza łącznej kwoty długu na 2010 r. Planowane nakłady inwestycyjne ogółem na 2008 r. Planowane nakłady inwestycyjne ogółem na 2009 r. Planowane nakłady inwestycyjne ogółem na 2010 r. * Dwie ostatnie cyfry oznaczają rok, z którego pochodzą dane statystyczne. Źródło: Opracowanie własne. Wybrane zmienne mogą być stymulantami, tzn. ich wysoka wartość powinna informować o lepszej pozycji województwa w rankingu, lub destymulantami, tzn. ich niska wartość powinna informować o lepszej pozycji województwa w rankingu. Jeżeli estymatory wag i ładunków czynnikowych dla indykatorów będących stymulantami danej zmiennej obserwowalnej są dodatnie, a dla będących destymulantami ujemne, to większa wartość tej zmiennej wskazuje na wyższy poziom badanego zjawiska na danym obiekcie. Interpretując kolejność tych liczb, dokonuje się analizy porównawczej. 3. Estymacja i weryfikacja modelu miękkiego Estymacji został poddany model miękki, którego schemat jest przedstawiony na rysunku 1. Wielkość zadłużenia województw (DR) jest determinowana: potrzebami inwestycyjnymi, wynikającymi m.in. z prowadzonej przez region polityki zarządzania długiem (PZD); a także potencjałem inwestycyjnym (INW), mierzonym za pomocą nadwyżki operacyjnej brutto; poziomem rozwoju regionalnego (RR), utożsamianym najczęściej z produktem krajowym brutto na mieszkańca oraz źródłami finansowania rozwoju regionalnego (ZF). 174 Dorota Perło Zależności pomiędzy zmiennymi ukrytymi prezentują oszacowania parametrów relacji wewnętrznych w postaci poniższych równań, przy których (w nawiasach) podano odchylenia standardowe otrzymane przy pomocy cięcia Tukey’a: DR 1,1803 0,5577 PZD 0,1571INW 0,4525RR 0,0749ZF 0,1067TZ (1,2368) (0,0224) (0,0116) (0,1247) (0,0238) (0,0140) (1) R 2 0,6019, PIN 0,7914 0,1569 PZD 0,6245RR (0,0378) (0,0450) (0,0125) , (2) R 2 0,4019 ZF 0,0328 0,3682SWL 0,6507TBP 0,1789 FUE (0,0420) (0,0243) (0,0164) (0,0403) , (3) R 2 1,0000 Na podstawie wyników estymacji równania 1. modelu wewnętrznego można stwierdzić, że na poziom zadłużenia regionów największy wpływ ma prowadzona przez regiony polityka zarządzania długiem (0,5577), następnie: poziom rozwoju regionalnego (0,4525), potencjał inwestycyjny (0,1571), w dalszej kolejności źródła finansowania rozwoju regionalnego (0,0749) oraz transfery zwrotne (0,1067). Z analizy drugiej zależności wynika, iż z kolei potrzeby inwestycyjne województw są determinowane przede wszystkim poziomem rozwoju regionalnego (0,6245), a w mniejszym stopniu polityką zarządzania długiem (0,1569). Ostatnie równanie pokazuje, które ze źródeł finansowania rozwoju regionalnego jest najsilniejsze. Największy wpływ posiadają transfery z budżetu państwa (0,6507), mniejszy środki z UE (0,1789). Natomiast środki własne odznaczają się ujemną średnią zależnością korelacyjną ze zmienną ZF. Świadczy to o tym, że zadłużają się przede wszystkim regiony bogate, o wysokim potencjale dochodowym. Regionów biednych nie stać na zaciąganie długu głównie z powodu konieczności nadmiernego obciążania swoich, stosunkowo niewielkich, budżetów kosztami obsługi zadłużenia. Oszacowania parametrów relacji zewnętrznych wszystkich zmiennych ukrytych oraz błędy ich szacunku zawarte są w tabeli 3. Wyniki estymacji wag i ładunków czynnikowych, co do znaku, są zgodne z oczekiwaniami i potwierdzają wyniki otrzymane w modelu wewnętrznym. Każda ze zmiennych ukrytych została opisana za pomocą odpowiednio dobranego zbioru wskaźników, które mają na nią wpływ. Polityka zarządzania długiem województw (PZD) została określona na podstawie prognozy łącznej kwoty długu na lata 2008 – 2010. Ładunek czynnikowy, będący wynikiem oszacowań zewnętrznych modelu, wskazuje na silną dodatnią korelację wybranych indykatorów ze zmienną ukrytą PZD, co oznacza, że prognozowane kwoty długu silnie stymulują wielkość zadłużenia województw. Większość województw prognozuje łączną kwotę długu długookresowo do roku 2012, niektóre, nawet do 2013 r., co świadczy jednocześnie o większej jakości wieloletniego planowania inwestycji w regionie. Zgodnie z ustawą Regionalny model efektywnego zarządzania długiem… 175 o finansach publicznych, regiony planują kwoty wydatków inwestycyjnych jedynie w roku budżetowym i na dwa kolejne lata5, a prognoza kwoty długu na okres dłuższy pokazuje pewne perspektywy rozwojowe województw. Spośród wybranych do analizy źródeł finansowania rozwoju regionalnego, najistotniejszy dodatni wpływ na zmienną ZF mają transfery z budżetu państwa w postaci dotacji celowych (0,8833) i subwencji ogólnych (0,9006), a umiarkowany – fundusze unijne (0,4301). Dość istotny, ale ujemny wpływ na zmienną ZF posiadają środki własne województw (-0,8336), co oznacza, że są one destymulantą źródeł finansowania rozwoju regionalnego. Analiza wyników oszacowań zewnętrznych modelu potwierdza wyniki uzyskane w modelu wewnętrznym. Pozostałe zmienne ukryte podlegały analizie wyników estymacji wewnętrznych, ponieważ zostały zdefiniowane na podstawie jednego indykatora. Są to: regionalny dług publiczny (DR) – przedstawiony za pomocą zobowiązań ogółem na mieszkańca, potencjał inwestycyjny (INW) – określony na podstawie nadwyżki operacyjnej brutto na mieszkańca, poziom rozwoju regionalnego (RR) – utożsamiony z produktem krajowym brutto na mieszkańca, transfery zwrotne (TZ) – opisane na podstawie wysokości kredytów i pożyczek na mieszkańca6, a także fundusze unijne (FUE) – zdefiniowane za pomocą wysokości środków na dofinansowanie zadań własnych województw pozyskanych z budżetu UE na mieszkańca. Współczynnik determinacji, oceniający wyniki estymacji modelu wewnętrznego, kształtuje się na dość istotnym poziomie równym: 0,6019 (w przypadku równania 1.), 0,4019 (równanie 2.) oraz 1,0000 (równanie 3.), co oznacza wysoką jakość analizowanego modelu. Oszacowane parametry relacji wewnętrznych są statystycznie istotne (reguła „2s”). Pozytywną weryfikację posiadają również wyniki oszacowań relacji zewnętrznych. Test Stone’a-Geissera weryfikuje model miękki pod względem jego przydatności do predykcji. Wartość prognostyczna rozważanego modelu jest dość wysoka, co ilustruje ogólny test Stone’a-Geissera równy 0,4027 [Por.: Tabela 4.]. Mimo że model był szacowany na danych przekrojowych i na niezbyt licznej próbie, otrzymane wyniki należy uznać za zadowalające i w związku z tym można przejść do analizy otrzymanych oszacowań wartości zmiennych ukrytych. 5 Por.: Art. 166. ust. 2 pkt. 4 Ustawy z dnia 30 czerwca 2005 r. o finansach publicznych, Dz. U., Nr 249, poz. 2104 z późn. zm. 6 Indykator – emisja papierów wartościowych na mieszkańca, został usunięty z ostatecznej postaci modelu ze względu na negatywną weryfikację merytoryczną, wynikającą z tego, że w 2007 r. zaledwie kilka województw emitowało papiery dłużne. 176 Dorota Perło TABELA 3. Oszacowania parametrów relacji zewnętrznych (metryka standardowa) modelu miękkiego efektywnego zarządzania długiem Zmienna ukryta Indykatory Z0207 Z0307 ZF Z0407 Z0507 SWL Z0207 Z0307 TBP Z0407 FUE Z0507 DR Z0607 TZ Z0807 INW Z0707 Z0908 PZD Z0909 Z0910 RR Z0106 Z1008 PIN Z1009 Z1010 Źródło: Obliczenia własne. Wagi błąd -0,3658 0,0221 0,3353 0,0099 0,3563 0,0199 0,1814 0,0373 1,0000 0,0000 0,5255 0,0068 0,5358 0,0069 1,0000 0,0000 1,0000 0,0000 1,0000 0,0000 1,0000 0,0000 0,4019 0,0332 0,2996 0,0158 0,3817 0,0209 1,0000 0,0000 0,5763 0,0059 0,1906 0,0126 0,4907 0,0145 Ładunki czynnikowe błąd -0,8336 0,0206 0,8833 0,0043 0,9006 0,0214 0,4301 0,0353 1,0000 0,0000 0,9410 0,0015 0,9433 0,0016 1,0000 0,0000 1,0000 0,0000 1,0000 0,0000 1,0000 0,0000 0,8982 0,0725 0,9624 0,0719 0,9186 0,1207 1,0000 0,0000 0,8438 0,0038 0,6025 0,0081 0,8129 0,0068 Współczynnik determinacji 0,6948 0,7803 0,8111 0,1850 1,0000 0,8855 0,8899 1,0000 1,0000 1,0000 1,0000 0,8067 0,9263 0,8439 1,0000 0,7120 0,3630 0,6608 Regionalny model efektywnego zarządzania długiem… 177 TABELA 4. Test Stone’a-Geissera ogólny dla zmiennej ukrytej DL Wyszczególnienie DL Wartość testu S-G 0,4027 Źródło: Obliczenia własne. 5. Analiza otrzymanych wyników Szacując model miękki metodą PLS, otrzymuje się oszacowania wartości zmiennych ukrytych, które nie mają interpretacji merytorycznej, ale można interpretować zmiany ich wartości. Otrzymuje się w ten sposób zmienną syntetyczną, która może służyć do analizy porównawczej. Na podstawie oszacowań wartości zmiennej ukrytej porządkuje się liniowo dane obiekty. W omawianym modelu występują oszacowania wag i ładunków czynnikowych: dodatnie dla stymulant, ujemne dla destymulant, a zatem wyższa „wartość zmiennej ukrytej” informuje o wyższym poziomie rozwoju danego województwa. Otrzymane uporządkowanie województw, według efektywnego zarządzania długiem, w 2007 r. przedstawia rysunek 2. Na podstawie wartości syntetycznych zmiennej ukrytej DR województwa podzielono na cztery grupy: 1. małopolskie, kujawsko-pomorskie, mazowieckie i dolnośląskie; 2. lubuskie, warmińsko-mazurskie, łódzkie i zachodniopomorskie; 3. wielkopolskie, pomorskie, podkarpackie i opolskie; 4. śląskie, lubelskie, podlaskie i świętokrzyskie. Województwa należące do pierwszej grupy są biegunami rozwoju. Województwo mazowieckie odznacza się poziomem PKB na mieszkańca prawie dwukrotnie wyższym od najniższej wartości w Polsce, najwyższą wartością nadwyżki operacyjnej brutto, a przy tym prognozuje najwyższe nakłady na działalność inwestycyjną. Województwa: małopolskie i dolnośląskie mają wysoki potencjał ekonomiczny oraz stosunkowo duży poziom zadłużenia. Regiony te najefektywniej zarządzają długiem, wykorzystując odpowiednie proporcje pomiędzy poziomem rozwoju, realizacją bardzo wysokiej skali potrzeb inwestycyjnych regionu a poziomem regionalnego długu publicznego. Jedynie w przypadku województwa kujawsko-pomorskiego wysokie, ponad 51%, zadłużenie w stosunku do dochodów ogółem nie jest wynikiem wzmożonej działalności inwestycyjnej. Obciążenie dochodów bieżących wydatkami bieżącymi i obsługą zadłużenia stanowiło w 2007 r. ponad 92%. Dodatkowo, ponad 58%, wskaźnik obciążenia dochodów bieżących długiem jest jednym z najwyższych w kraju. W drugiej grupie występują województwa o wysokim poziomie zadłużenia, ale umiarkowanym poziomie rozwoju regionalnego. Potencjał inwestycyjny oraz PKB na mieszkańca województw: łódzkiego i zachodniopomorskiego kształtuje się na poziomie nieco wyższym niż średni. Natomiast województwa: warmińsko-mazurskie i lubuskie odznaczają się najwyższą wysokością transferów z budżetu państwa, szcze- 178 Dorota Perło gólnie dotacji celowych. O wysokiej pozycji województwa lubuskiego świadczy również najwyższy w Polsce poziom wykorzystania środków UE na mieszkańca. RYSUNEK 2. Ranking województw w Polsce według zmiennej DL w 2007 r. 10 pomorskie 6 warmińskomazurskie 8 zachodniopomorskie podlaskie 3 mazowieckie 9 5 15 2 kujawskopomorskie wielkopolskie lubuskie 7 łódzkie 14 lubelskie 4 dolnośląskie Rangi województw 1- 4 5-8 12 opolskie 13 śląskie 16 świętokrzyskie 1 11 małopolskie podkarpackie 9-12 13 -16 Źródło: Opracowanie własne. Kolejna grupa województw jest równie zróżnicowana od poprzedniej. Województwa: wielkopolskie i pomorskie odznaczają się wysokim poziomem rozwoju regionalnego, wysokimi planowanymi nakładami na inwestycje wieloletnie, a przy tym niskim poziomem bieżącym i prognozowanym zadłużenia regionu. Jest to konsekwencją stosunkowo wysokiej nadwyżki finansowej, jaką w analizowanym okresie dysponowały te województwa. Regiony: wielkopolskie i pomorskie nieefektywnie wykorzystują możliwości zadłużenia się, które pozwoliłyby im na osiągnięcie wyższego potencjału rozwojowego w szybszym tempie. Województwa podkarpackie i opolskie posiadają najniższy w kraju potencjał inwestycyjny, przy czym podkarpackie Regionalny model efektywnego zarządzania długiem… 179 odznacza się najwyższym w Polsce poziomem subwencji ogólnych, przy jednocześnie bardzo niskim poziomie rozwoju regionalnego, czego konsekwencją są niewysokie planowane nakłady na inwestycje wieloletnie. Natomiast województwo opolskie charakteryzuje się największym w kraju obciążeniem dochodów bieżących długiem (58,5%), co jest konsekwencją ponad 100% udziału wydatków bieżących i obsługi długu w dochodach bieżących (103,7%). Najniższe pozycje w rankingu zajęły województwa: świętokrzyskie, podlaskie, lubelskie i śląskie. Pierwsze trzy województwa charakteryzuje niski poziom rozwoju regionalnego, a co za tym idzie, niski poziom produktu krajowego brutto na mieszkańca oraz nadwyżki operacyjnej brutto na mieszkańca, wskaźników przedstawiających najistotniejszy wpływ na zmienną DR w badanym modelu. Jedynie województwo śląskie odznacza się wysokim potencjałem rozwojowym, a jego niska pozycja w rankingu wynika z tego, że w 2007 r. region ten posiadał najwyższą w Polsce nadwyżkę finansową z lat ubiegłych na mieszkańca. 6. Podsumowanie Skonstruowany model efektywnego zarządzania długiem prezentuje wpływ poziomu rozwoju regionalnego, potencjału inwestycyjnego, transferów zwrotnych, polityki zarządzania długiem oraz istniejących źródeł finansowania rozwoju regionalnego na efektywne wykorzystanie długu. Parametry modeli wewnętrznych i zewnętrznych zostały oszacowane metodą PLS. Wszystkie zmienne nieobserwowalne i obserwowalne zostały zweryfikowane pozytywnie, zarówno pod względem merytorycznym, jak i statystycznym, co umożliwiło analizę uzyskanych wyników. Najwyższą, dodatnią zależnością korelacyjną ze zmienną ukrytą DR odznacza się prowadzona przez regiony polityka zarządzania długiem, następnie: poziom rozwoju regionalnego, potencjał inwestycyjny oraz transfery zwrotne, a w dalszej kolejności źródła finansowania długu. Wyniki te przenoszą się bezpośrednio na ranking województw pod względem zmiennej ukrytej DR. Pierwsze miejsca w rankingu uzyskały regiony o najwyższym potencjale ekonomicznym, posiadające zdolność efektywnego zarządzania długiem. Są to województwa: małopolskie, kujawsko-pomorskie, mazowieckie i dolnośląskie. Natomiast ostatnie pozycje zajęły regiony o niskim potencjale ekonomicznym, takie jak: świętokrzyskie, podlaskie i lubelskie. W rankingu województw są widoczne również takie regiony, których pozycja, bez dogłębnej i szczegółowej analizy, może wydawać się niepoprawna, tj.: śląskie (13. miejsce w rankingu) czy warmińsko-mazurskie (6. miejsce w rankingu). Zbudowany model efektywnego zarządzania długiem pokazuje ponadto, które wskaźniki mają najistotniejszy wpływ na analizowane zmienne ukryte. Są to: produkt krajowy brutto na mieszkańca oraz nadwyżka operacyjna brutto na mieszkańca, czyli te zmienne, które świadczą o wysokim potencjale rozwojowym regionu, a w szczególności o potencjale ekonomicznym i możliwościach inwestycyjnych regionu. Większość indykatorów najsilniej odbijających zmienną ukrytą DR to stymulanty, odznaczające się wysoką tendencją rozwojową. 180 Dorota Perło Skonstruowany model miękki ukazuje przede wszystkim ogromną skalę potrzeb inwestycyjnych regionów w Polsce wynikających m.in. z niskiego poziomu rozwoju regionalnego, szczególnie rozwoju infrastrukturalnego i związaną z nią konieczność zaciągania długu. Ponadto, wskazuje na strukturę źródeł finansowania inwestycji, w której największą rolę odgrywają transfery z budżetu państwa. Model pokazuje również, w jakim kierunku zmierza realizowana przez województwa polityka zarządzania długiem. Literatura Bitner M., Cichocki K.S. 2008 Efektywność zarządzania długiem w samorządach, Warszawa. Kuszewski T. 2000 Wprowadzenie do modelowania ekonometrycznego, [w:] Ekonometria, red. M. Gruszczyński, M. PodgórskaWarszawa. Perło D. 2004 Źródła finansowania rozwoju regionalnego, Białystok. Rogowski J.1990 Modele miękkie. Teoria i zastosowanie w badaniach ekonomicznych, Białystok. Ustawa z dnia 30 czerwca 2005 r. o finansach publicznych, Dz. U., Nr 249, poz. 2104 z późn. zm. Wold H. 1980 Soft Modelling: Intermediate between Traditional Model Building and Data Analysis, Banach Centre Publication 6, Mathematical Statistics. Wskaźniki do oceny sytuacji finansowej jednostek samorządu terytorialnego w latach 2005-2007, Ministerstwo Finansów, [Dokument elektroniczny, Tryb dostępu; www.mf.gov.pl, Data wejścia: czerwiec 2009]. Wydział Ekonomii i Zarządzania Uniwersytetu w Białymstoku poleca publikacje naukowe: Henryk Wnorowski INSTYTUCJONALNE UWARUNKOWANIA DZIAŁALNOŚCI PRZEDSIĘBIORSTW W KRAJACH UNII EUROPEJSKIEJ Spis treści: 1. Teoretyczne i metodologiczne podstawy badania aktywności gospodarczej; 2. Bariery instytucjonalne w sferze działalności gospodarczej; 3. Zróżnicowanie w poziomie rozwoju gospodarczego oraz sile ograniczeń instytucjonalno-prawnych w sferze aktywności gospodarczej w wybranych krajach UE; 4. Metodologia „DOING BUSINESS” jako argument na rzecz wykorzystania danych Banku Światowego w procesie weryfikacji hipotezy głównej niniejszego badania; 5. Opis zróżnicowania państw UE pod względem warunków instytucjonalno-prawnych, traktowanych jako zmienne objaśniające poziom aktywności gospodarczej; 6. Uwarunkowania instytucjonalno-prawne a poziom aktywności gospodarczej w krajach UE wyniki badań i wnioski końcowe. Adam Wyszkowski PODATKI POŚREDNIE I DOCHODOWE W SYSTEMIE PODATKOWYM Spis treści: 1. System podatkowy w gospodarce rynkowej; 2. Ewolucja systemu podatkowego w Polsce; 3. Podatki pośrednie jako źródło dochodów budżetu państwa; 4. Podatki dochodowe jako źródło dochodów budżetu państwa; 5. Wybrane zagadnienia konstrukcji optymalnego systemu podatkowego; 6. Wnioski końcowe Barbara Roszkowska-Mądra OBSZARY WIEJSKIE O NIEKORZYSTNYCH WARUNKACH GOSPODAROWANIA W ASPEKCIE ICH ZRÓWNOWAŻONEGO ROZWOJU Spis treści: 1. Współczesne koncepcje rozwoju rolnictwa i obszarów wiejskich; 2. Charakterystyka obszarów o niekorzystnych warunkach gospodarowania (ONW) i podstawy teoretyczne polityki ich wspierania; 3. Polityka Unii Europejskiej wobec gospodarowania na obszarach ONW; 4. Obszary ONW w Polsce; 5. Propozycja wydzielania nizinnych obszarów ONW i ich rodzajów na podstawie typologii systemów gospodarowania w rolnictwie; 6. Uwarunkowania rozwoju obszarów wiejskich województwa podlaskiego; 7. Zastosowanie typologii systemów gospodarowania w rolnictwie gmin w województwie podlaskim do wydzielania rodzajów nizinnych obszarów ONW; 8. Kierunki rozwoju i zalecane formy wsparcia dla wyróżnionych rodzajów ONW w województwie podlaskim Wydział Ekonomii i Zarządzania Uniwersytetu w Białymstoku poleca publikacje dydaktyczne: Zdzisław Czajka GOSPODAROWANIE KAPITAŁEM LUDZKIM Białystok 2011, ISBN 978-83-7431-258-5 Józef Rogowski, Ewa Roszkowska TESTY Z WNIOSKOWANIA STATYSTYCZNEGO Białystok 2010, ISBN 978-83-7431-241-7 Janusz Kaliński HISTORIA GOSPODARCZA POLSKI 1989 - 2004 Białystok 2009, ISBN 978-83-7431-205-9 PODYPLOMOWE STUDIA RACHUNKOWOŚCI I AUDYTU WEWNĘTRZNEGO W JEDNOSTKACH SEKTORA PUBLICZNEGO 15-062 Białystok ul. Warszawska 63 pok. 208 tel. (085) 7457702, fax (085) 7457702 Kierownik: dr hab. Ryta I. Dziemianowicz, prof. UwB Sekretariat: Grażyna Majewska CEL STUDIÓW − zdobycie i pogłębienie wiedzy z zakresu organizacji i funkcjonowania sektora finansów publicznych, − pogłębienie wiedzy w zakresie prawa finansów publicznych i administracji publicznej, − przekazanie słuchaczom wiedzy na temat szczególnych zasad i metod prowadzenia rachunkowości w jednostkach sektora finansów, − poznanie nowych regulacji dotyczących organizacji i zasad przeprowadzania wewnętrznej kontroli finansowej w jednostkach sektora finansów publicznych, − zdobycie praktycznych umiejętności w zakresie tworzenia oraz analizy funkcjonowania i oceny komórek kontroli finansowej i audytu wewnętrznego. STUDIA ADRESOWANE SĄ DO: − głównych księgowych i kadry kierowniczej w jednostkach sektora finansów publicznych − pracowników odpowiedzialnych za prowadzenie nowoczesnego systemu audytu wewnętrznego i kontroli finansowej w jednostkach sektora publicznego. Zasady naboru: - decyduje kolejność zgłoszeń. Warunki rekrutacji: - odpis dyplomu, - kwestionariusz osobowy, - podanie, - poświadczenie opłaty manipulacyjnej oraz pierwszej raty czesnego. PODYPLOMOWE STUDIA FINANSÓW I RACHUNKOWOŚCI PRZEDSIĘBIORSTW 15-062 Białystok ul. Warszawska 63 pok. 208 tel. (085) 7457702, fax (085) 7457702 Kierownik: dr hab. Ryta I. Dziemianowicz, prof. UwB Sekretariat: Grażyna Majewska Podyplomowe Studia Finansów i Rachunkowości Przedsiębiorstw istnieją od roku akademickiego 1992/1993. Przeznaczone są dla absolwentów szkół wyższych różnej specjalności. Celem studiów jest przygotowanie kadr dla przedsiębiorstw i instytucji w zakresie finansów i rachunkowości oraz przygotowanie słuchaczy do działalności usługowej w zakresie prowadzenia ksiąg rachunkowych. Studia trwają dwa semestry, kończą się zaliczeniami lub egzaminami z poszczególnych przedmiotów. Zajęcia odbywają się w formie 7 dwudniowych zjazdów w weekendy w każdym semestrze i obejmują ponad 300 godz. zajęć dydaktycznych. Studia kończą się wydaniem świadectwa ukończenia studiów podyplomowych. Wykładane są następujące przedmioty: - rachunkowość finansowa, - sprawozdawczość finansowa, - rachunek kosztów, - system podatkowy, - papiery wartościowe, - prawo cywilne, gospodarcze i administracyjne, - system informatyczny i podstawy informatyki, - wykłady okolicznościowe. Zasady naboru: - decyduje kolejność zgłoszeń. Warunki rekrutacji: - odpis dyplomu, - kwestionariusz osobowy, - podanie, - poświadczenie opłaty manipulacyjnej oraz pierwszej wpłaty czesnego. PODYPLOMOWE STUDIA MENEDŻERSKIE 15-062 Białystok ul. Warszawska 63 pok. 229 tel. (0~85) 745 77 25 fax (0~85) 741 46 85 Kierownik: dr hab. Tadeusz Truskolaski, prof. UwB Sekretariat: Anna Kitlasz Podyplomowe Studia Menedżerskie istnieją od roku 1992. Przeznaczone jest dla absolwentów szkół wyższych, różnych specjalności. Wykładowcami są pracownicy naukowi oraz praktycy, dyrektorzy banków i specjaliści z poszczególnych dziedzin. Program i treści nauczania dostosowane są do potrzeb i wymagań rynku. Studium daje szansę nawiązania ciekawych kontaktów oraz konsultacji z wieloma specjalistami z różnych branż. Zasady naboru: decyduje kolejność zgłoszeń. Warunki rekrutacji: odpis dyplomu, kwestionariusz osobowy, podanie, opłata manipulacyjna. Studia trwają dwa semestry. Zajęcia odbywają się w formie 2-dniowych zjazdów (w soboty i niedziele) i obejmują 256 godzin zajęć dydaktycznych. Studia kończą się egzaminem i wydaniem świadectwa ukończenia studiów podyplomowych. Wykładane są następujące przedmioty: Organizacja i zarządzanie Zarządzanie finansami i rynek kapitałowy Marketing Zarządzanie zasobami pracy Zarządzanie strategiczne Biznes plan System podatkowy Funkcjonowanie gospodarki rynkowej Rachunkowość zarządcza Negocjacje w biznesie Public relations Prawo pracy Zamówienia publiczne Rynek i wycena nieruchomości Zajęcia komputerowe Seminaria - wykłady okolicznościowe PODYPLOMOWE STUDIA ZARZĄDZANIA PROJEKTAMI UNII EUROPEJSKIEJ 15-062 Białystok, ul. Warszawska 63, pok. 234, tel. (085) 7457721, fax (085) 7414685 e-mail: [email protected] http://www.weiz.uwb.edu.pl/ Kierownik: dr Elżbieta Sulima Sekretariat: mgr Jolanta Wiszniewska Cele studiów Przekazanie praktycznych umiejętności opracowania projektu i jego zarządzania (w tym finansowego) oraz wypełniania wniosków, gwarantujących pozyskanie środków finansowych z Unii Europejskiej. Adresaci Wszystkie osoby, które są zobowiązane lub pragną z tytułu potrzeb lub planów zawodowych otrzymać wiedzę dotyczącą pozyskiwania środków finansowych z Unii Europejskiej. W szczególności program kierowany jest do: – przedsiębiorców, – pracowników administracji samorządowej, organizacji pozarządowych, – nauczycieli – absolwentów szkół wyższych – i innych osób zamierzających uzyskać kwalifikacje niezbędne do pozyskiwania środków finansowych z UE Korzyści Przygotowanie specjalistów w dziedzinie zarządzania projektami Unii Europejskiej. Studia dają możliwość nawiązania kontaktów z osobami bezpośrednio zaangażowanymi w realizację projektów finansowanych z funduszy strukturalnych Zasady naboru: decyduje kolejność zgłoszeń. Należy złożyć następujące dokumenty: – odpis dyplomu – podanie – kwestionariusz osobowy – oświadczenie – opłata manipulacyjna – opłata I raty czesnego. PODYPLOMOWE STUDIA ZARZĄDZANIA ZASOBAMI LUDZKIMI 15-062 Białystok ul. Warszawska 63, pok. 225 tel. (085) 745-77-19, fax (085) 741-46-85 e-mail: agrzes@ uwb.edu.pl http://www.weiz.uwb.edu.pl Kierownik: dr Anna Grześ CEL STUDIÓW: Przekazanie specjalistycznej wiedzy teoretycznej i praktycznych umiejętności z zakresu zarządzania zasobami ludzkimi niezbędnych do skutecznego funkcjonowania organizacji. Zakres ten obejmuje m.in.: – zasady i metody rekrutacji i selekcji, – system ocen pracowniczych, – systemy wynagradzania, – prawo pracy i zbiorowe stosunki pracy, – negocjacje zbiorowe, – zarządzanie karierami i rozwojem pracowników, itp. ORGANIZACJA STUDIÓW: Studia trwają 2 semestry. Obejmują 188 godzin dydaktycznych. Zajęcia odbywają się w 2-dniowych zjazdach (w soboty i niedziele) co 2 tygodnie i kończą się obroną pracy dyplomowej oraz wydaniem świadectwa ukończenia studiów podyplomowych. STUDIA ADRESOWANE SĄ DO: – kadry kierowniczej przedsiębiorstw, – pracowników działu kadr, – osób zainteresowanych zdobyciem oraz pogłębieniem wiedzy z zakresu problematyki zarządzania zasobami ludzkimi w nowoczesnych organizacjach. WYMAGANE DOKUMENTY: – kwestionariusz osobowy – odpis dyplomu, – oświadczenie, – poświadczenie opłaty manipulacyjnej oraz pierwszej raty czesnego Zasady naboru: – decyduje kolejność zgłoszeń. PODYPLOMOWE STUDIA WYCENY I GOSPODARKI NIRUCHOMOŚCI Specjalności: WYCENA NIERUCHOMOŚCI ZARZĄDZANIE NIERUCHOMOŚCIAMI POŚREDNICTWO W OBROCIE NIERUCHOMOŚCIAMI Kierownik Studiów: dr Dorota Wyszkowska e-mail: [email protected] Sekretariat: mgr Jolanta Wiszniewska tel. 085 745 77 21 fax 085 741 46 85 e-mail: [email protected] CEL STUDIÓW: Celem Studiów jest przygotowanie słuchaczy, w zależności od wybranej specjalności, do ubiegania się, po spełnieniu dodatkowych wymogów (praktyki zawodowe) o uzyskanie uprawnień zawodowych: – – – RZECZOZNAWCY MAJĄTKOWEGO POŚREDNIKIA W OBROCIE NIERUCHOMOSCIAMI LUB ZARZĄDCY NIERUCHOMOŚCI. Uczestnikami Studiów mogą być absolwenci szkół wyższych. Studia trwają 2 semestry od października do czerwca w wymiarze godzin określonym w ramowych programach studiów. Programy zgodne są z „minimum programowym” zalecanym przez Ministerstwo Infrastruktury, zawartym w Rozporządzeniu Ministra Infrastruktury z dnia 7 czerwca 2010 r. w sprawie ustalenia minimalnych wymogów programowych dla studiów podyplomowych w zakresie wyceny nieruchomości (Dz. Urz. Min. Bud. Nr 3, poz. 16). Zajęcia odbywają się w 2-dniowych zjazdach (soboty i niedziele) co 2 tygodnie i kończą się przygotowaniem pracy dyplomowej oraz egzaminem Zasady naboru: o przyjęciu decyduje kolejność zgłoszeń WYMAGANE DOKUMENTY: – – – – – odpis dyplomu kwestionariusz oświadczenie opłata manipulacyjna opłata I raty czesnego
Podobne dokumenty
Pobierz numer - Optimum - Uniwersytet w Białymstoku
Czasopismo poświęcone potrzebom nauki i praktyki
Bardziej szczegółowo