numer 10/2013 - studia oeconomica posnaniensia
Transkrypt
numer 10/2013 - studia oeconomica posnaniensia
STUDIA OECONOMICA POSNANIENSIA 2013, vol. 1, no. 10 (259) Spis treści Wprowadzenie (Marian Matłoka) ........................................................................................ 3 Anna Domagała Metoda DEA jako narzędzie wsparcia w procesie kupna-sprzedaży samochodów osobowych ............................................................................................................................... 5 Helena Gaspars-Wieloch Metoda skracania przekrojów ścieżek niedopuszczalnych sieci jako narzędzie optymalizacji czasowo-kosztowej projektu ...................................................................................... 26 Alicja Jajko-Siwek Zastosowanie drzew klasyfikacyjnych do oceny poziomu świadczeń emerytalnych z różnych typów systemów.................................................................................................... 46 Michał Konopczyński Suboptymalna równowaga rynkowa w małej gospodarce otwartej w warunkach doskonałej mobilności kapitału ................................................................................................ 61 Henryk J. Runka Problemy z ograniczeniami kwadratowymi i optymalizacja na stożkach ...................... 84 Karolina Siemaszkiewicz Teoria wartości ekstremalnych – zastosowanie do sektora surowców energetycznych 107 Tomasz Józefowski, Marcin Szymkowiak Zastosowanie estymatora typu SPREE w szacowaniu liczby osób bezrobotnych w przekroju podregionów ................................................................................................................. 120 WPROWADZENIE Bieżący, 10 numer STUDIA OECONOMICA POSNANIENSIA, podobnie jak numer poprzedni, jest kontynuacją Zeszytów Naukowych Uniwersytetu Ekonomicznego w Poznaniu wydawanych w języku angielskim pod tytułem QUANTITATIVE METHODS IN ECONOMICS, a w wersji polskiej METODY ILOŚCIOWE W EKONOMII. Wszystkie artykuły, które znalazły się w tym numerze, dotyczą możliwości wykorzystania różnorodnego aparatu matematycznego do rozwiązywania określonych problemów ekonomicznych. Trudno je tematycznie uporządkować, zostały więc ułożone w kolejności alfabetycznej nazwisk autorów. Korzystając z zamieszczonych przez autorów streszczeń, przedstawiam Państwu cele poszczególnych artykułów oraz osiągnięte w nich wyniki. Anna Domagała proponuje wykorzystanie metody DEA do konstrukcji rankingów samochodów osobowych. Efektywność pojazdów autorka szacuje za pomocą nieradialnego modelu SBM z nadefektywnością, który pozwala nie tylko na konstrukcję rankingów badanych obiektów, ale również na szczegółową analizę źródeł nadefektywności oraz nieefektywności badanych obiektów. Helena Gaspars-Wieloch proponuje algorytm, zwany metodą skracania przekrojów ścieżek niedopuszczalnych sieci, który pozwala bezpośrednio rozwiązywać problem minimalizacji kosztu przy określonym czasie, a pośrednio – problem minimalizacji czasu przy dostępnych środkach finansowych. Autorka przedstawia bardzo sformalizowany, szczegółowy i kompletny opis procedury. Zwraca także uwagę na różne kwestie związane z jej komputerową implementacją i efektywnością. Alicja Jajko-Siwek zajmuje się problemem zastosowania drzew klasyfikacyjnych do oceny poziomu świadczeń emerytalnych z różnych typów systemów. Autorka wykonała symulacje świadczeń emerytalnych oraz dokonała oceny ich poziomu. Michał Konopczyński rozważa suboptymalną równowagę rynkową w małej gospodarce otwartej w warunkach doskonałej mobilności kapitału. Autor bada własności gospodarki zdecentralizowanej, w której wszystkie podmioty działają wyłącznie w swoim indywidualnym interesie. W tym celu rozwiązuje 4 Wprowadzenie zadanie sterowania optymalnego, a następnie wyznacza równowagę rynkową. Henryk J. Runka przedstawia problem z kwadratową funkcją celu i ograniczeniami kwadratowymi oraz jego transformacje w problem optymalizacji na stożku. Artykuł autorstwa Karoliny Siemaszkiewicz jest poświęcony problemowi zarządzania ryzykiem niekorzystnych wahań cen surowców energetycznych. Autorka stosuje wartość zagrożoną jako powszechnie stosowaną miarę ryzyka, a do jej oszacowania teorię wartości ekstremalnych. Celem ostatniego artykułu, autorstwa Marcina Szymkowiaka i Tomasza Józefowskiego, jest zaprezentowanie możliwości, jakie daje estymator typu SPREE do oszacowania liczby osób bezrobotnych na poziomie podregionów województwa wielkopolskiego przy wykorzystaniu danych pochodzących z rejestru bezrobotnych oraz Badania Aktywności Ekonomicznej Ludności. Marian Matłoka STUDIA OECONOMICA POSNANIENSIA 2013, vol. 1, no. 10 (259) Anna Domagała Uniwersytet Ekonomiczny w Poznaniu, Wydział Informatyki i Gospodarki Elektronicznej, Katedra Ekonometrii [email protected] METODA DEA JAKO NARZĘDZIE WSPARCIA W PROCESIE KUPNA-SPRZEDAŻY SAMOCHODÓW OSOBOWYCH Streszczenie: W artykule zaproponowano wykorzystanie metody DEA (Data Envelopment Analysis) do konstrukcji rankingów samochodów osobowych. W prezentowanym badaniu przyjęto różne zestawy zmiennych, odzwierciedlające różne profile klienta (takie, jak oszczędność, dynamika, bezpieczeństwo), co pozwoliło wyłonić pojazdy efektywne z danego punktu widzenia. Tak skonstruowane rankingi mogą być przydatne zarówno dla sprzedawcy przygotowującego ofertę dla klienta, jak i dla samego klienta, który chciałby porównać interesujące go pojazdy, eliminując przy tym wpływ emocji, którymi zazwyczaj obarczony jest zakup pojazdu. Efektywność pojazdów oszacowano za pomocą nieradialnego modelu SBM (Slacks-Based Measure) z nadefektywnością, który pozwala nie tylko na konstrukcję rankingów badanych obiektów, ale także na szczegółową analizę źródeł nadefektywności oraz nieefektywności badanych obiektów. Słowa kluczowe: DEA (Data Envelopment Analysis), efektywność, nadefektywność, SBM (Slacks-Based Measure), samochody osobowe. Klasyfikacja JEL: D12, D24, L23, L92, M11, M31. DATA ENVELOPMENT ANALYSIS AS A SUPPORTIVE TOOL IN BUYING AND SELLING CARS Abstract: The article proposes the use of the Data Envelopment Analysis method in building passenger car rankings. In this study various combinations of variables were adopted so as to reflect different customer profiles (such as economy, dynamics and safety) which made it possible to determine best cars for a given profile. Such rankings can be useful to both the seller in the process of preparing offers for customers and to the customer who would like to compare cars by eliminating the influence of the emotions which are usually connected with buying a car. 6 Anna Domagała The appropriateness of the vehicles was estimated using a non-radial super-efficiency SBM (Slacks-Based Measure) model, which permits not only the building of the ranking list, but also a detailed analysis of the sources of super-efficiency and the inefficiency of given aspects. Keywords: DEA (Data Envelopment Analysis), efficiency, super-efficiency, SBM (Slacks-Based Measure), cars. Wstęp Rynek sprzedaży samochodów osobowych, podobnie jak inne gałęzie gospodarki, podlega wahaniom koniunkturalnym, ale cechuje się dynamicznym rozwojem. Jest to związane zarówno z postępem technologicznym, jak i dużą konkurencją wśród producentów oraz sprzedawców (tzw. dealerów samochodowych). Odbiorcą końcowym jest klient, który dokonuje wyboru swojego samochodu z szerokiej oferty prezentowanej przez dealerów różnych marek. Pozyskanie i utrzymanie klienta to oczywiście główny cel każdego sprzedawcy, dlatego dealerzy prześcigają się w różnych strategiach marketingowych i kampaniach promocyjnych. Sprzedaż samochodów osobowych jest jednak procesem trudnym, gdyż samochód nie jest dobrem nabywanym regularnie i decyzja o wyborze danej marki i modelu rzadko jest podejmowana bez wcześniejszego przygotowania. Klient ma zazwyczaj swoje preferencje dotyczące nabywanego pojazdu, a także pewne ograniczone możliwości finansowe. Pożądany jest pojazd, który najlepiej będzie spełniać wymagania przyszłego użytkownika. Należy zauważyć, że konsumenci rzadko kierują się wyłącznie kryterium maksymalizacji jakości lub minimalizacji ceny towaru. Zazwyczaj starają się optymalizować relację jakości do ceny. Celem niniejszej pracy jest propozycja wykorzystania narzędzia, jakim jest metoda badania efektywności Data Envelopment Analysis do budowy rankingów samochodów osobowych, uwzględniających zarówno cenę pojazdu, jak i zróżnicowane wymagania klienta, odzwierciedlające różne jego preferencje. Zastosowanie metody DEA do badania efektywności pojazdów nie jest koncepcją nową, ale niezbyt powszechną. Wśród najbardziej znanych pozycji omawiających tę metodę w literaturze przedmiotu należy wymienić prace: Papahristodoulou [1997], Staata i Hammerschmidta [2005], Oh, Lee, Hwang i Heshmati [2010], o których więcej w pracy Domagały [2012]1. Badania te 1 Gdzie omówiono pilotaż niniejszego badania, które jest zapowiadanym rozwinięciem podjętego tam tematu. Metoda DEA jako narzędzie wsparcia w procesie kupna-sprzedaży samochodów 7 dotyczyły tylko pojazdów o silnikach benzynowych, a wykorzystane zmienne to przede wszystkim: cena pojazdu, koszty paliwa, wymiary pojazdu, pojemność silnika, moc, prędkość maksymalna oraz przyspieszenie [Papahristodoulou 1997], a także: zmienna obrazująca siłę marki i zmienna wskazująca, czy pojazd ma klimatyzację i/lub system surround sound stereo [Staat i Hammerschmidt 2005] lub zmienna wskazującą typ skrzyni biegów, pełniąca rolę zmiennej symptomatycznej2 [Oh i in. 2010]. We wszystkich powyższych badaniach przy szacowaniu efektywności wykorzystano podstawowe radialne modele DEA. We wspomnianych pracach nie wzięto natomiast pod uwagę preferencji klienta – zaproponowane rankingi pojazdów powstały w wyniku przyjęcia jednego, wybranego przez danych autorów układu zmiennych. W niniejszym opracowaniu wykorzystano odrębne zestawy zmiennych, aby odzwierciedlić różne profile klienta. Ponadto w prezentowanym podejściu ujęto dodatkowo zmienne, które nie zostały wzięte pod uwagę w pracach wymienionych powyżej, a w celu oszacowania efektywności pojazdów wykorzystano nieradialny model DEA. 1. Zastosowana metoda badania efektywności Rankingi pojazdów zbudowano na podstawie nieparametrycznej metody DEA (Data Envelopment Analysis)3, która jest metodą badania względnej4 efektywności procesu przekształcania nakładów w wyniki w grupie obiektów opisanych wielowymiarowym układem zmiennych. Wybrano właśnie tę metodę, gdyż pozwala ona ocenić efektywność obiektów pod względem przekształcania nakładów w wyniki5. Ponadto w metodzie DEA nakłady i wyniki są ważone w sposób najkorzystniejszy dla analizowanego obiektu. Oznacza to, że najwyższe wartości wag otrzymują zmienne, które najsilniej wpływają na efektywność tego obiektu. Poprawne zastosowanie metody DEA jest możliwe po spełnieniu pewnych założeń, wśród których jest między innymi warunek homogeniczności badanej 2 Pojazdy z automatyczną skrzynią biegów autorzy uznali za luksusowe. W polskiej literaturze spotykana jest także pod nazwą analizy obwiedni (lub otoczki) danych. 4 Efektywność danego obiektu jest ustalana na tle pozostałych obiektów w grupie, a dokładniej opierając się na jednostkach wzorcowych, leżących na granicy efektywności ustalonej na podstawie DEA. 5 Miernik syntetyczny powszechnie stosowany do konstrukcji rankingów nie daje takiej możliwości. 3 8 Anna Domagała grupy obiektów oraz możliwość podziału cech opisujących obiekty na nakłady i wyniki. Badana grupa powinna być także odpowiednio duża w stosunku do liczby cech opisujących obiekty6. Metoda DEA została opracowana przez Charnesa, Coopera i Rhodesa [1978], którzy na podstawie pracy Farrella [1957] zaproponowali podstawowy model DEA – radialny model CCR. W późniejszych latach powstało wiele modyfikacji tego modelu, które łącznie tworzą tzw. grupę modeli DEA. W grupie tej znajdują się także modele nieradialne, a więc uwzględniające inny niż zaproponowany przez Farrella [1957] radialny sposób pomiaru odległości obiektu od granicy efektywności7. Różnicę między radialnym i nieradialnym pomiarem odległości obiektu od granicy efektywności obrazuje prosty przykład zilustrowany na rysunku 1. P W x2 Q granica efektywności Z O x1 Rysunek 1. Radialna i nieradialna miara odległości od granicy efektywności Niech będzie dany obiekt P, który wytwarza jednostkowy wynik (oznaczony przez y), wykorzystując do tego dwa nakłady oznaczone przez x1 oraz x2. Efektywny sposób przekształcania nakładów w wyniki (granica efektywności) jest wyznaczany na podstawie obiektów najlepszych (W oraz Z, które ten sam wynik uzyskują przy niższych nakładach). Przyjęto model zorientowany na nakłady8 oraz założenie o stałych efektach skali. 6 Postulaty te zostały uwzględnione w dalszej części opracowania (punkty 2 i 3). Więcej o modelach radialnych i nieradialnych DEA na przykład w pracy: [Cooper, Seiford i Tone 2007]. 8 Poszukiwana jest więc redukcja nakładów, dzięki której obiekt P znajdzie się na granicy efektywności. 7 Metoda DEA jako narzędzie wsparcia w procesie kupna-sprzedaży samochodów 9 Na rysunku 1 obiekt P jest obiektem nieefektywnym, gdyż nie leży na granicy efektywności. Efektywność radialna to stosunek długości odcinka OQ do długości odcinka OP. Miara ta pokazuje, jak należy zredukować nakłady (x1 oraz x2), aby obiekt P stał się efektywny (a więc znalazł się na granicy efektywności). Efektywność radialna zakłada proporcjonalną redukcję wszystkich nakładów, stąd nazwa tego typu efektywności, gdyż redukcja odbywa się „po promieniu”, łączącym początek układu współrzędnych i analizowany punkt P. W taki sposób jest mierzona odległość w modelach radialnych DEA. Oczywiście proporcjonalna redukcja obu nakładów (do współrzędnych punktu Q) nie jest dla obiektu P jedynym sposobem znalezienia się na granicy efektywności. W skrajnym wypadku obiekt P może zredukować tylko jeden nakład – x1 lub x2 – i znaleźć się wtedy odpowiednio w punkcie W lub Z. Może także dokonać redukcji obu nakładów, ale w sposób nieproporcjonalny (znajdzie się wtedy w punkcie leżącym na fragmencie granicy między punktami W i Z). Taki sposób redukcji nakładów jest nazywany nieradialnym, gdyż dokonywana redukcja nakładów nie jest proporcjonalna. W badaniu będącym przedmiotem niniejszego opracowania zastosowano jeden z nieradialnych modeli DEA – model SBM (Slacks-Based Measure) z nadefektywnością [Tone 1997, 2002]. Pozwala on na wyznaczenie jednowymiarowej miary efektywności (tak, jak modele radialne), ale – podobnie jak inne modele nieradialne – jest pozbawiony wady, którą jest nieuwzględnianie niezerowych luzów w obliczanych wskaźnikach efektywności. Wada ta jest cechą charakterystyczną modeli radialnych. Jeżeli luz dla danego nakładu nie jest zerowy, oznacza to, że można ten nakład zmniejszyć o wielkość luzu i nie wpłynie to na rozwiązanie zadania (a więc na wartość wskaźnika efektywności). Wskazuje to na ryzyko wystąpienia obiektu pozornie efektywnego. Obiekt taki leży na granicy efektywności, ale nadal zużywa więcej niż to konieczne jednego spośród nakładów. Taką sytuację obrazuje rysunek 2. Warto przyjrzeć się bliżej jednostce F na rysunku 2. Leży ona na granicy efektywności, gdyż wykorzystuje minimalną wielkość nakładu x2. Jest więc efektywna. Wskaźnik efektywności wynikający z optymalnego rozwiązania modelu radialnego DEA dla tej jednostki wynosi 1,0. Jednakże w rozwiązaniu tym pojawia się dodatni luz związany z nakładem x1, który sugeruje, że można zredukować nakład x1 o dwie jednostki bez zmiany wartości funkcji celu (a więc bez zmiany wskaźnika efektywności). Oznacza to, że obiektu F nie można nazwać silnie efektywnym, gdyż istnieje inny obiekt (C), zużywający do produkcji jednostki wyniku y tyle samo x2, ale o dwie jednostki mniej x1. W terminologii DEA jest to tak zwana słaba efektywność (zwana także 10 Anna Domagała 5 G R 4 granica efektywności E A 3 B x2 2 D F C 1 0O 0 2 4 6 x1 8 10 12 Rysunek 2. Efektywność w sensie Farrella Źródło: Cooper, Seiford i Tone [2007, s. 57] efektywnością w sensie Farrella), ponieważ nakłady obiektu F nie wymagają proporcjonalnej redukcji (znajduje się on bowiem na granicy efektywności). Jednostka G jest z kolei nieefektywna zarówno w sensie słabej, jak i silnej efektywności. Jej nieefektywność farrellowską (słabą) odzwierciedla radialna odległość od granicy efektywności. Jeżeli obiekt G zredukuje w radialny sposób oba swoje nakłady, to znajdzie się na granicy efektywności w punkcie R. Jednak punkt R nie jest silnie efektywny w sensie DEA, mimo że jest efektywny w sensie Farrella. Występuje tu ponownie słaba efektywność, gdyż w punkcie R luz związany z nakładem x2 jest dodatni. Dopiero zredukowanie x2 o wielkość tego luzu (a więc przesunięcie do punku E) spowoduje, że obiekt G stanie się silnie efektywny w sensie DEA – jednak wskaźnik efektywności modelu radialnego DEA będzie równy ilorazowi długości odcinków OR/OG, a więc nie będzie zawierał informacji o dodatkowej nieefektywności wynikającej z niezerowego luzu. Zastosowany w niniejszym badaniu nieradialny model SBM jest modelem tzw. niezorientowanym9, w którym wskaźnik efektywności uwzględnia niezerowe luzy zarówno po stronie nakładów, jak i wyników, a więc zawiera w sobie wszelkie informacje o wymaganej (w celu poprawy efektywności) redukcji nakładów i wymaganym zwiększeniu wyników10. 9 W modelach radialnych konieczne jest przyjęcie orientacji na nakłady lub na wyniki. Obiekt F z rysunku 2 w świetle modelu SBM nie byłby już obiektem efektywnym. 10 Metoda DEA jako narzędzie wsparcia w procesie kupna-sprzedaży samochodów 11 W celu budowy rankingów pojazdów wykorzystano model SBM z nadefektywnością11, którego postać zapisano poniżej [Cooper, Seiford i Tone 2007, s. 316]: 1 δoSE SBM min ϕ , ψ, λ 1 m ϕ m i 1 io ¦ 1 s ψ 1 s r 1 ro (1) ¦ przy warunkach: n ¦ xij λjo xioϕio d xio (i 1, }, m), j 1 j zo n ¦ yrj λjo yro ψro t yro ( r 1, }, s), (2) j 1 j zo ϕio , ψro , λjo t 0, gdzie: δoSE SBM – oznacza wskaźnik efektywności modelu SE-SBM dla badanego o-tego obiektu (o = 1, …, n), xij – to i-ty nakład j-tego obiektu (i = 1, …, m), yrj – to r-ty wynik j-tego obiektu (r = 1, …, s), λjo – współczynnik intensywności związany z j-tym obiektem wyznaczony dla analizowanego o-tego obiektu12 (j = 1, …, n), ϕio – wskazuje wymaganą procentową redukcję i-tego nakładu, ψro – wskazuje wymagane procentowe zwiększenie r-tego wyniku. 11 Koncepcję nadefektywności zaproponowali Andersen i Petersen [1993]. Przy ustalaniu granicy efektywności nie jest brany pod uwagę obiekt, którego efektywność jest ustalana. Granica efektywności jest wtedy konstruowana tylko na podstawie pozostałych obiektów. Pozwala to na rangowanie także jednostek efektywnych, gdyż obliczane wskaźniki efektywności mogą być większe od 1 (modele bez nadefektywności nadają wszystkim obiektom efektywnym taką samą wartość wskaźnika równą 1). 12 Ważona (współczynnikami λjo) suma nakładów (wyników) obiektów będących wzorcami dla badanego o-tego obiektu pokazuje zalecaną wartość nakładu (wyniku) o-tego obiektu, przy której stanie się on efektywny. 12 Anna Domagała 2. Przyjęte profile klienta Dla zobrazowania możliwości, jakie daje proponowane podejście, przedstawiono wybrane trzy profile klienta (klient oszczędny, klient zainteresowany dynamiką pojazdu oraz klient ceniący bezpieczeństwo), które zaprezentowano poniżej. Należy jednak podkreślić, że modeli takich może być znacznie więcej – w zależności od przyjętych zestawów zmiennych. Modele i zestawy zmiennych przyjęte w badaniu Model 1: Oszczędność benzyna/diesel, AB/CD Metoda: DEA, SE -SBM Nakłady: t Cena Wyniki: t Spalanie_s t Przyspieszenie_s t Kubatura pojazdu t Bezpieczeństwo t Wycena wyposażenia dodatkowego zawartego w cenie Model 2: Dynamika benzyna/diesel, AB/CD Metoda: DEA, SE -SBM Nakłady: t Cena Wyniki: t Moc t V max t Przyspieszenie_s t Maksymalny moment obrotowy/Obroty (wskaźnik MMO/Obr) Model 3: Bezpieczeństwo benzyna/diesel, AB/CD Metoda: DEA, SE -SBM Nakłady: t Cena Wyniki: t Wymiar pojazdu t Liczba poduszek powietrznych t Liczba systemów bezpieczeństwa t Wynik w testach zderzeniowych – ang. crash-testach (ochrona dorosłych i dzieci – Euro NCAP) Każdy z modeli obrazuje klienta o innym profilu. Wspólną cechą wszystkich trzech modeli jest to, że nie uwzględniają one emocji, którymi dodatkowo kierują się klienci. Prezentowane narzędzie może zatem posłużyć nie tylko sprzedawcom13, ale także samym klientom, którzy chcieliby wyelimi13 Doświadczony sprzedawca jest w stanie bardzo szybko ocenić profil potencjalnego klienta. Znajomość rankingów pojazdów z różnych punktów widzenia może znacząco przyspieszyć przygotowanie propozycji właściwej dla klienta o danym profilu. Metoda DEA jako narzędzie wsparcia w procesie kupna-sprzedaży samochodów 13 nować wpływ emocji i oceniać pojazdy tylko z punktu widzenia zadanych cech. Badana efektywność pojazdów jest efektywnością postrzeganą przez klienta, dlatego po stronie nakładów przyjęto w każdym z modeli tylko jedną zmienną – cenę pojazdu, ponieważ jest to nakład ponoszony przez klienta przy zakupie pojazdu14. Po stronie wyników ujęto zmienne, które mają odzwierciedlać dany profil klienta. Model 1: Oszczędność Przyjęto, że klient oszczędny wybierze samochód, który przy danej cenie oferuje: – niskie spalanie – mierzone średnią liczbą litrów benzyny spalanych na 100 km w układzie mieszanym (jazda po mieście i poza obszarem zabudowanym)15, – dobrą dynamikę – jako zmienną-reprezentanta wybrano przyspieszenie (liczba sekund do uzyskania prędkości 100 km/h)16, – dużą przestrzeń – przyjętą zmienną nazwano kubaturą, gdyż na jej wartość składa się iloczyn długości, szerokości i wysokości samochodu (m3) oraz pojemność bagażnika (m3)17, – wysoki poziom bezpieczeństwa – przyjęto zmienną syntetyczną, która jest sumą liczby poduszek powietrznych zamontowanych w pojeździe i liczby zainstalowanych systemów bezpieczeństwa18, 14 Zmienną, która byłaby w takim badaniu bardzo pożądana, jest także szacunkowy koszt (na przykład roczny) eksploatacji pojazdu. Jest to jednak zmienna niezmiernie trudna do oszacowania – powinna bowiem uwzględniać nie tylko koszty przeglądów okresowych pojazdu, ale także awaryjność, koszt części zamiennych używanych przy najczęściej pojawiających się usterkach oraz koszty ubezpieczenia (OC, AC), które różnią się ze względu na markę i model pojazdu. 15 Zmienna Spalanie jest destymulantą (pożądana jest jej jak najniższa wartość), a po stronie wyników w metodzie DEA powinny występować stymulanty. Zmieniono zatem charakter zmiennej na przeciwny (poprzez odjęcie jej wartości od stałej równej 10) i nadano jej nazwę „Spalanie_s”. 16 Pojazd o lepszym przyspieszeniu, będzie mieć większą moc, a tym samym wyższą prędkość maksymalną i zazwyczaj także wyższy wskaźnik MMO/Obr. Zmienna Przyspieszenie jest także destymulantą, została więc przekształcona w stymulantę poprzez odjęcie jej wartości od stałej równej 20 (przekształconej zmiennej nadano nazwę „Przyspieszenie_s”). 17 Warto zwrócić uwagę, że pojemność bagażnika jest już zawarta w iloczynie wymiarów pojazdu, ale dodana ją celowo, aby silniej podkreślić pojazdy, które mają wyjątkowo dużą pojemność bagażnika – często pojazdy o zbliżonych wymiarach znacząco różnią się pojemnością bagażnika (w zależności od tego, jak opracowano wnętrze pojazdu, jak składają się fotele itp.). 18 Zsumowano wszystkie systemy poza ABS (który zgodnie z obowiązującymi przepisami jest już obowiązkowym elementem w każdym sprzedawanym pojeździe), a więc systemy wspomagania hamowania, systemy kontroli trakcji itp. 14 Anna Domagała – wycena wyposażenia dodatkowego zawartego w cenie – jest to suma wycenionych elementów z ustalonej listy wyposażenia dodatkowego19. Model 2: Dynamika Przyjęto, że klient nastawiony na tzw. osiągi pojazdu wybierze samochód, który przy danej cenie oferuje jak najlepsze parametry określające dynamikę pojazdu. Zmienną, która wymaga tu wyjaśnienia, jest obliczony na potrzeby tego badania wskaźnik „MMO/Obr”, który informuje o stosunku maksymalnego momentu obrotowego (MMO) do liczby obrotów silnika, przy których jest on dostępny (Obr). Jak wiadomo, w dynamicznym pojeździe jest pożądana wysoka wartość maksymalnego momentu obrotowego, ale najlepiej, jeśli jest dostępna przy niskich obrotach. Wskaźnik uzyskuje tym wyższą wartość, im większy jest licznik (maksymalny moment obrotowy) i mniejszy mianownik (obroty). Model 3: Bezpieczeństwo Przyjęto, że klient dbający o bezpieczeństwo wybierze samochód, który przy danej cenie wydaje się najbardziej bezpieczny. Jako cechy wpływające na bezpieczeństwo przyjęto: – wymiar pojazdu20, – liczbę poduszek powietrznych, w które wyposażono pojazd21, – liczbę systemów bezpieczeństwa, – wynik w testach zderzeniowych (crash-testach) – przyjęto średnią z wyników ochrony dorosłych i dzieci – wyniki są publikowane na stronach Euro NCAP22. 19 Elementy, które są na wyposażeniu wszystkich badanych samochodów ustanowiły listę podstawową. Wszystkie pozostałe elementy (które występują tylko w niektórych pojazdach) stworzyły listę wyposażenia dodatkowego. Następnie sprawdzono, ile elementów z listy dodatkowej znajduje się na wyposażeniu danego pojazdu. Elementy te wyceniono, a wyceny zsumowano. Powstała unikatowa zmienna, która pokazuje, jaką wartość wyposażenia dodatkowego otrzymuje klient w cenie pojazdu. 20 Przyjęto założenie, że większy pojazd jest bezpieczniejszy. W analizie wykorzystano zmienną syntetyczną „wymiar pojazdu”, będącą iloczynem długości, szerokości i wysokości pojazdu. 21 Poza poduszką kierowcy w samochodach mogą być: poduszki pasażera, poduszki kurtynowe czy też poduszki chroniące kolana kierowcy. 22 Organizacja Euro NCAP powstała w 1997 roku przy departamencie transportu w rządzie brytyjskim. Zajmuje się przeprowadzaniem crash-testów samochodów i obecnie zrzesza przedstawicieli siedmiu rządów europejskich oraz organizacje motoryzacyjne i konsumenckie; http://www.euroncap.com. Metoda DEA jako narzędzie wsparcia w procesie kupna-sprzedaży samochodów 15 3. Obiekty poddane badaniu efektywności W omawianym badaniu przeanalizowano łącznie 66 nowych (rocznik 2012) samochodów osobowych będących w ofercie przykładowego dealera samochodowego. Wzięto pod uwagę samochody małe (tzw. segment A i B) oraz średnie i duże (segment C i D) o silnikach zarówno benzynowych, jak i diesela. Wybierając modele do badania, przyjęto następujące wytyczne: – wybierano pojazdy o podobnej mocy (w przypadku modeli w wersji kombi ujęto modele o nieco wyższej mocy), – przyjęto możliwie najniższe wersje wyposażenia (głównie były to wersje podstawowe lub nieco wyższe – wszystkie pojazdy musiały mieć klimatyzację przynajmniej manualną), – przyjęto ceny katalogowe producentów23. Dane pochodziły przede wszystkim z katalogów i cenników producentów pojazdów, a także z portali motoryzacyjnych euroncap.com oraz autocentrum. pl. Jeśli brakowało danych, odpowiedni pojazd był usuwany z badania24. Należy pamiętać, że badana metodami DEA efektywność jest efektywnością względną, co oznacza, że wskaźniki efektywności obiektów nieefektywnych są ustalane na podstawie jednostek wzorcowych (leżących na granicy efektywności). Stąd też ważne jest, aby analizować obiekty homogeniczne. Wybór obiektów powinien być zatem starannie przemyślany i oparty na wiedzy na temat analizowanego obszaru. W badaniu intuicyjnie przyjęto podział na cztery grupy – ze względu na segment (A i B lub C i D) oraz typ silnika (benzyna lub diesel). Warto jednak wykorzystać także narzędzia wielowymiarowej analizy danych, takie jak analiza skupień czy analiza wariancji. W przypadku omawianego badania zarówno analiza skupień, jak i analiza wariancji potwierdziły słuszność intuicyjnie dokonanego podziału. Zastosowana jednoczynnikowa ANOVA (osobno dla zmiennych: cena, moc, spalanie, przyspieszenie, bezpieczeństwo, wymiar) wskazała na istotne różnice pomiędzy intuicyjnie wyodrębnionymi czterema podgrupami (statystyka F znacząco przekraczała wartość krytyczną przy pięcioprocentowym poziomie istotności)25. 23 Obowiązujące w okresie od czerwca do sierpnia 2012 roku. Zmienne, dla których występowały braki w danych to: Wynik w crash-testach oraz Wycena wyposażenia dodatkowego. 25 Sytuacja, gdy średnie niektórych cech nie różniły się istotnie, występowała najczęściej dla podgrupy pojazdów benzynowych z segmentu A i B oraz podgrupy pojazdów z silnikiem diesela z segmentu A i B (np. dla cechy Wymiar pojazdu – co jest oczywiste). 24 16 Anna Domagała Również zastosowana metoda Warda26 (dla obiektów opisanych większością zmiennych, ujętych w badaniu27) wskazuje na wyraźny podział na przyjęte powyżej podgrupy. Widać to na rysunku 3, który prezentuje dendrogram wygenerowany na podstawie wyników metody Warda. Na dendrogramie widać podział na pojazdy małe i większe (jeśli przeciąć dendrogram na poziomie odległości równej 30), a także dalsze podziały ze względu na typ silnika, co uzasadnia intuicyjnie przyjęty podział badanej grupy, który postanowiono utrzymać28. Ostatecznie rankingi zbudowano dla pojazdów z segmentu C i D, gdyż po podzieleniu samochodów ze względu zarówno na segment, jak i typ silnika okazało się, że pojazdów z segmentu A i B jest 13 (benzyna) lub 8 (diesel), co przy łącznie pięciu zmiennych29 w modelu nie spełnia wymogu minimalnej liczby obiektów badania, która wynosi [Cooper, Seiford i Tone 2007, s. 284]: n t max ^m s; 3 (m s)`, (3) gdzie: m – liczba przyjętych w modelu DEA nakładów, s – liczba przyjętych wyników. Warunek ten nie jest konieczny dla rozwiązania modelu (1)–(2), ale prowadzenie analizy przy zbyt małej liczbie obiektów zmniejsza moc dyskryminacyjną metody DEA [Adler i Yazhemsky 2010]. Przejawia się to przeszacowaniem wartości wskaźników efektywności i zwiększeniem liczby obiektów efektywnych. 26 Jedna z metod analizy skupień. Wzięto pod uwagę te zmienne, dla których dane występowały dla wszystkich 66 pojazdów. 28 Skupienia sugerowane przez metodę Warda są mało liczne – największe skupienie zawierało 17 obiektów, co jest liczebnością zbyt małą dla poprawności analizy DEA – patrz wzór (3). Przeprowadzona dodatkowo analiza skupień metodą k-średnich (k = 5) potwierdza poprawność intuicyjnie przyjętego podziału – wśród pięciu skupień znalazły się dwa mniej liczne skupienia pojazdów małych (segment A i B) o silniku benzynowym lub diesela, jedno skupienie obejmujące większe pojazdy (z segmentu C i D) o silniku benzynowym oraz dwa skupienia pojazdów z silnikiem diesela z segmentu C i D (różniące się tylko ze względu na zmienne charakteryzujące dynamikę pojazdu). 29 Lub sześciu zmiennych w przypadku Modelu 1: Oszczędność. 27 [17] diesel pojazdy większe benzyna diagram drzewa metoda Warda odległość euklidesowa Źródło: Opracowanie własne z wykorzystaniem pakietu STATISTICA 0 10 20 30 40 Rysunek 3. Dendrogram metody Warda odległość wiąz. 50 Optima_die InsigniaKombi_die i40wagon_die Malibu_die Cruze_5d_die Cruze_4d_die Astra3h_die i30wagon_die Orlando_die ZafiraTour_die Insignia_die Astra4kombi_die Astra4h_die i40_die C5_die Zafira_die C4P_die InsigniaKombi_ben Optima_ben Malibu_ben Astra3h_ben Orlando_ben Elantra_ben Cruze_5d_ben Cruze_4d_ben i40wagon_ben i40_ben C5_ben ZafiraTour_ben Insignia_ben Astra4kombi_ben Zafira_ben C4P_ben Merriva_die Ceed_die Rio_die i30_die Aveo_5d_die Aveo_4d_die C4_die C3P_die ix20_die C3_die Merriva_ben Astra4h_ben Ceed_ben i30wagon_ben i30_ben ix20_ben Aveo_5d_ben Rio_ben Aveo_4d_ben C4_ben C3P_ben Picanto_ben Spark_ben i20_ben C3_ben Corsa_die Venga_die AveoC_5d_ben AveoC_4d_ben Corsa_ben Venga_ben i10_ben C1_ben diesel pojazdy małe benzyna pojazdy najmniejsze 18 Anna Domagała 4. Rezultaty badania empirycznego Poniżej omówiono rankingi zbudowane na podstawie przyjętych trzech modeli profilu klienta (zawarte na s. 12). Na szczycie rankingu znalazły się pojazdy, którymi w pierwszej kolejności powinien się zainteresować klient danego profilu (lub które przede wszystkim w swojej ofercie powinien umieścić sprzedawca obsługujący danego klienta). Ze względu na obszerność badania, przedstawiono wyniki tylko dla pojazdów benzynowych. Model 1: Oszczędność W pierwszym analizowanym profilu przyjęto, że klient oszczędny będzie poszukiwał pojazdu w korzystnej cenie, którego poziom spalania będzie możliwie najniższy, ale który równocześnie zaoferuje dobrą dynamikę, przestrzeń wewnątrz pojazdu oraz możliwie najwyższy poziom bezpieczeństwa. Oczywiście należy mieć świadomość, że na przykład niskie spalanie będzie pociągało za sobą słabszą dynamikę pojazdu. W profilu tym poszukiwany jest zatem samochód, który będzie kompromisem pomiędzy parametrami ważnymi dla klienta oszczędnego. Ranking 20 samochodów (z analizowanej grupy 22 samochodów benzynowych z segmentu C i D)30 wraz z uzyskanymi przez pojazdy wskaźnikami efektywności przedstawiono na rysunku 4. 100% 80% 60% 40% Opel Insignia Citroen C4 Picasso Opel Insignia kombi Opel Zafira Tourer Opel Astra 4 kombi Opel Zafira Citroen C5 Opel Astra 4 Opel Merriva Chevrolet Orlando Citroen C4 Hyundai i40 Chevrolet Cruze 4d Hyundai i30 wagon Hyundai i30 Chevrolet Cruze 5d Hyundai i40 wagon Kia Ceed 0% Hyundai Elantra 20% Opel Astra 3 wskaźnik efektywności 120% Rysunek 4. Model 1: Oszczędność 30 Dwa pojazdy (Chevrolet Malibu, Kia Optima) zostały wyłączone z badania z uwagi na brak danych dla zmiennej Wycena wyposażenia dodatkowego zawartego z cenie pojazdu. 19 Metoda DEA jako narzędzie wsparcia w procesie kupna-sprzedaży samochodów Rysunek 5. Model 1: Oszczędność – źródła nadefektywności Hyundai i30 wagon Chevrolet Cruze 5d Hyundai i30 Hyundai i40 wagon Hyundai Elantra Kia Ceed 0% –2% –4% –6% –8% –10% –12% –14% –16% –18% –20% –22% Opel Astra 3 źródła nadefektywności W badanej grupie jest siedem pojazdów efektywnych, a więc tych, dla których wskaźnik efektywności jest większy lub równy 100%. Pojazdem, którym w pierwszej kolejności powinien zainteresować się klient oszczędny jest Opel Astra 3. Jest to pojazd, który jest doskonałym kompromisem pomiędzy ceną a poziomem spalania, dynamiką, przestrzenią wewnątrz pojazdu i bezpieczeństwem. Warto jednak zwrócić uwagę, że Opel Astra 3 jest jedynym oplem wśród pojazdów efektywnych. Grupę tę zdominowały pojazdy koreańskie marki Hyundai. Znalazł się tam także jeden model marki Kia i jeden model Chevroleta. Badanie potwierdza ogólnie panujące przekonanie, że producenci aut koreańskich postawili sobie za cel oferowanie dobrych pojazdów (mogących konkurować pod względem różnych parametrów z innymi markami) w atrakcyjnej cenie. Również Chevrolet przyjął taką strategię działania. Metoda DEA oferuje jednak znacznie więcej niż tylko możliwość oceny efektywności obiektów w danej grupie i konstrukcji rankingów. Można bowiem przyjrzeć się szczegółowo każdemu z pojazdów pod kątem konkretnej opisującej go zmiennej. Zastosowanie nieradialnego modelu SBM pozwala na uzyskanie informacji o źródłach nadefektywności obiektów efektywnych oraz źródłach nieefektywności pojazdów, które znalazły się poniżej granicy efektywności. Ilustrują to odpowiednio rysunki 5 oraz 6. Na rysunku 5 siedem pojazdów efektywnych przedstawiono w kolejności zgodnej z miejscem w rankingu. Wartości na osi rzędnych to współczynniki cena przyspieszenie_s spalanie_s bezpieczeństwo kubatura wyposażenie dodatkowe 20 Anna Domagała cena bezpieczeństwo Patrz: model (1)–(2). Opel Insignia Citroen C4 Picasso Opel Insignia kombi Opel Zafira Tourer przyspieszenie_s spalanie_s kubatura wyposażenie dodatkowe Rysunek 6. Model 1: Oszczędność – źródła nieefektywności 31 Opel Astra 4 kombi Opel Zafira Opel Astra 4 Citroen C5 Chevrolet Orlando Opel Merriva Citroen C4 Hyundai i40 160% 140% 120% 100% 80% 60% 40% 20% 0% –20% Chevrolet Cruze 4d źródła nieefektywności ϕio oraz ψro31, które pokazują o ile procent średnio dany pojazd mógłby odpowiednio zwiększyć swój nakład (czyli cenę) lub zmniejszyć swoje wyniki (patrz s. 12) i nadal zachować status obiektu efektywnego. W przypadku każdego badanego pojazdu możliwe zwiększenie ceny wynosi 0%, a więc podniesienie ceny nie jest zalecane. Wartości ujemne dla pozostałych zmiennych wskazują, w ramach którego parametru dany model samochodu uzyskuje swoją wysoką pozycję. Wspomniany Opel Astra 3 mógłby pogorszyć wartość zmiennej Spalanie_s aż o 15%. Podobnie z przestrzenią wewnątrz pojazdu (Kubatura), która mogłaby być mniejsza o ponad 11%, a pojazd nadal byłby efektywny. Oznacza to, że na tle pozostałych badanych samochodów atutami Opla Astry 3 jest niskie spalanie oraz duża przestrzeń wewnątrz pojazdu. W podobny sposób można analizować pozostałe obiekty. Wnikliwy klient może zatem uzyskać dodatkowe informacje o interesujących go pojazdach. Jeżeli szuka pojazdu oszczędnego (w rozumieniu Modelu 1), ale najbardziej ze wszystkich parametrów ceni sobie na przykład bezpieczeństwo, to wybrałby Kię Ceed, która jest efektywna, a więc gwarantuje dobry stosunek ceny do pozostałych parametrów i dodatkowo oferuje wysoki poziom bezpieczeństwa (najwyższa liczba poduszek powietrznych i zainstalowanych w pojeździe systemów bezpieczeństwa). Rysunek 6 ilustruje z kolei źródła nieefektywności obiektów, które w przeprowadzonym badaniu znalazły się poniżej granicy efektywności. Wartości ϕi 21 Metoda DEA jako narzędzie wsparcia w procesie kupna-sprzedaży samochodów oraz ψr na osi rzędnych wskazują tym razem o ile procent należałoby odpowiednio obniżyć cenę pojazdu lub zwiększyć wartości poszczególnych parametrów po stronie wyników, aby pojazd uzyskał status obiektu efektywnego. Ponownie pojazdy uporządkowano według miejsca w rankingu. Analiza źródeł nieefektywności pozwala zidentyfikować parametry danego samochodu, które są najsłabsze w porównaniu z pozostałymi pojazdami. Na przykład nieefektywność Citroena C4 wynika przede wszystkim ze zbyt niskiej wartości zmiennej Bezpieczeństwo, która powinna być wyższa o ponad 65%, aby pojazd zbliżył się do granicy efektywności. Ponadto wyniki analizy sugerują, że wycena wyposażenia dodatkowego zawartego w cenie (zmienna Wyposażenie dodatkowe) jest zbyt niska. Oznacza to, że – w porównaniu z pojazdami efektywnymi – Citroen C4 przy swojej cenie powinien oferować bogatsze wyposażenie (wartość wyposażenia dodatkowego powinna być wyższa o ponad 50%). Model 2: Dynamika Ranking w ramach Modelu 2 przygotowano dla klienta, który zwraca uwagę przede wszystkim na dynamikę pojazdu. Z powodu ograniczonej objętości opracowania rezultaty badania empirycznego dla Modelu 2 i Modelu 3 omówiono w skrócie32. Na rysunku 7 przedstawiono ranking 22 pojazdów ze względu na przyjęty w Modelu 2 profil klienta. wskaźnik efektywności 120% 100% 80% 60% 40% 20% Opel Insignia Opel Zafira Tourer Hyundai i40 wagon Citroen C4 Picasso Opel Insignia kombi Citroen C5 Opel Astra 4 Hyundai i40 Opel Zafira Opel Merriva Citroen C4 Opel Astra 4 kombi Chevrolet Malibu Kia Optima Hyundai i30 wagon Kia Ceed Hyundai i30 Chevrolet Orlando Hyundai Elantra Chevrolet Cruze 4d Chevrolet Cruze 5d Opel Astra 3 0% Rysunek 7. Model 2: Dynamika – ranking pojazdów 32 Zarówno w Modelu 2, jak i w Modelu 3 można przeprowadzić równie szczegółową analizę jak w przypadku opisanego wcześniej Modelu 1. 22 Anna Domagała Klientowi, który poszukuje pojazdu dynamicznego, warto zatem zaoferować przede wszystkim Opla Astrę 3 lub Chevroleta Cruze w wersji pięciodrzwiowej (wskaźniki efektywności wynoszą odpowiednio 102,73% oraz 102,09%). Są to samochody, które na tle pozostałych pojazdów oferują najlepszy stosunek parametrów dynamiki do ceny. Warto zauważyć, że poza modelem Astra 3 modele marki Opel znajdują się w dolnej części rankingu. Analizując (analogicznie jak w Modelu 1) źródła nieefektywności, okazuje się, że wszystkie modele Opla poza Zafirą mają zbyt wysoką cenę w stosunku do oferowanych osiągów33. Astra 3 oraz Zafira to modele starszej generacji, które nadal są w sprzedaży, ale ich następcami są sprzedawane już także Astra 4 oraz Zafira Tourer. Modele starsze są więc sprzedawane w atrakcyjniejszej cenie, co widać wyraźnie w rezultatach przeprowadzonego badania. Model 3: Bezpieczeństwo Prezentowany na rysunku 8 ranking z punktu widzenia bezpieczeństwa opracowano dla 15 pojazdów34. 120% wskaźnik efektywności 100% 80% 60% 40% 20% Chevrolet Malibu Opel Insignia Citroen C4 Picasso Citroen C5 Hyundai i40 Citroen C4 Opel Zafira Tourer Opel Zafira Chevrolet Orlando Chevrolet Cruze 4d Opel Astra 4 Opel Merriva Hyundai i30 Opel Astra 3 Kia Ceed 0% Rysunek 8. Model 3: Bezpieczeństwo – ranking pojazdów 33 Aby zbliżyć się do granicy efektywności, modele te musiałyby cechować się ceną przynajmniej o 30% niższą. 34 Siedem pojazdów zostało wyłączonych z badania z powodu braku danych dla zmiennej Wynik w testach zderzeniowych (ochrona dorosłych i dzieci – Euro NCAP). Metoda DEA jako narzędzie wsparcia w procesie kupna-sprzedaży samochodów 23 Pod względem bezpieczeństwa najlepszym pojazdem okazała się Kia Ceed, która jest wyposażona w największą liczbę poduszek bezpieczeństwa (6) i największą liczbę systemów bezpieczeństwa (8), a przy tym charakteryzuje się bardzo atrakcyjną ceną (tańszy jest tylko Opel Astra 3 oraz Hyundai i30). Wynik w testach zderzeniowych także okazał się bardzo dobry (0,885 przy maksymalnym wyniku 0,90 i minimalnym 0,79). Na drugim miejscu w rankingu znalazł się Opel Astra 3, który swoją pozycję osiągnął przede wszystkim dzięki atrakcyjnej cenie (najtańszy pojazd w badanej grupie) i wysokiemu wynikowi w testach zderzeniowych (0,87). Szczegółowa analiza źródeł nadefektywności wskazuje, że przy posiadanej liczbie poduszek powietrznych (4) i systemów bezpieczeństwa (5), których jest stosunkowo mało35 w porównaniu z innymi pojazdami, Opel Astra 3 mógłby mieć niższy wynik w testach zderzeniowych nawet o 10% i nadal zachowałby status jednostki efektywnej. Wskazywałoby to na dobrą konstrukcję samego pojazdu36, który mimo mniejszej liczby poduszek i systemów bezpieczeństwa w testach zderzeniowych wypada dobrze. Pojazdem godnym uwagi klienta ceniącego bezpieczeństwo powinien być także Hyundai i30, który przy 6 poduszkach powietrznych i jedynie 5 systemach bezpieczeństwa (Kia Ceed ma ich aż 8) charakteryzuje się najwyższym wynikiem w testach zderzeniowych (0,90) i bardzo atrakcyjną ceną (drugi najtańszy pojazd w badanej grupie). Podsumowując omawiane rezultaty badania empirycznego, można również zebrać wnioski z poszczególnych części badania i wyłonić samochód, który wypada dobrze w każdej kategorii. W przypadku analizowanej grupy pojazdów samochodem takim wydaje się Opel Astra 3. Podsumowanie W pracy przedstawiono propozycję narzędzia wsparcia w procesie podejmowania decyzji o zakupie samochodu, pozwalające na obiektywne porównanie pojazdów. Narzędzie to może być również wykorzystywane przez sprzedawców – usprawniając proces przygotowania oferty dla konkretnego klienta. 35 Jak już wspomniano, Opel Astra 3 jest modelem starszej generacji, wyposażonym w mniejszą liczbę poduszek powietrznych i systemów bezpieczeństwa niż nowszy model – Astra 4. 36 Jakość wykonania, wykorzystane materiały, odpowiednio zaprojektowane strefy zgniotu itp. 24 Anna Domagała Zastosowanie proponowanej metody przedstawiono na przykładzie analizy porównawczej wybranej grupy samochodów osobowych. Celem badania było wyłonienie pojazdów, które najlepiej będą odpowiadać klientom o danym profilu. Wybrano w tym celu trzy przykładowe profile klienta: oszczędny, zainteresowany dynamiką pojazdu, ceniący bezpieczeństwo. Przeprowadzone badania pozwalają na wstępną ocenę metody DEA. Wadą metody DEA jest to, że nie daje wiarygodnych rezultatów w przypadku zbyt małej liczby obiektów poddanych badaniu (należy zatem zadbać o odpowiednią liczebność grupy). Ponadto zastosowanie radialnych modeli DEA stwarza ryzyko uznania obiektu nieefektywnego za efektywny (efektywność w sensie Farrella – rysunek 2). Warto jednak przypomnieć, że tej wady nie mają modele nieradialne37. Zaletą metody DEA jest budowanie rankingu obiektów na podstawie efektywności przekształcania nakładów w wyniki. Cechy opisujące dany obiekt są ważone w taki sposób, aby na wskaźnik efektywności najsilniej wpływały te cechy, które są źródłem przewagi konkurencyjnej danego obiektu nad pozostałymi jednostkami w grupie. Ponadto zastosowanie nieradialnego modelu SE-SBM pozwala nie tylko na budowę rankingu, ale także na szczegółową analizę źródeł nadefektywności i nieefektywności badanych jednostek. W ramach dalszych badań sugeruje się poszukiwanie nowych profili, które mogłyby odzwierciedlać inne preferencje klientów. Równocześnie warto poszukać możliwości dodania nowych zmiennych do profili już istniejących. Warto byłoby dodać zmienne szczególnie po stronie nakładów (jak już wspomniano, poza ceną, którą klient płaci za samochód, należałoby uwzględnić szacunkowe koszty eksploatacji pojazdu). Bibliografia Adler, N., Yazhemsky, E., 2010, Improving Discrimination in Data Envelopment Analysis: PCA–DEA or Variable Reduction, European Journal of Operational Research, no. 202. Andersen, P., Petersen, N.C., 1993, A Procedure for Ranking Efficient Units in Data Envelopment Analysis, Management Science 39 (10). Charnes, A., Cooper, W.W., Rhodes, E., 1978, Measuring the Efficiency of Decision Making Units, European Journal of Operational Research, vol. 2, no. 6. Cooper, W.W., Seiford, L.M., Tone, K., 2007, Data Envelopment Analysis. A Comprehensive Text with Models, Applications, References and DEA-Solver Software, Springer. 37 Takie jak zastosowany w badaniu model SBM. Metoda DEA jako narzędzie wsparcia w procesie kupna-sprzedaży samochodów 25 Domagała, A., 2012, Efektywność samochodów osobowych oraz perspektywy rozwoju sprzedaży pojazdów o alternatywnych jednostkach napędowych, w: Borodako, K., Nowosielski, M. (red.), Foresight w przedsiębiorstwach: Nauka – technologia – wdrożenie, Instytut Zachodni, Poznań. Farrell, M.J., 1957, The Measurement of Productive Efficiency, The Journal of the Royal Statistical Society, Series A, no. 120 (III). Oh, I., Lee, J-D., Hwang, S., Heshmati, A., 2010, Analysis of Product Efficiency in the Korean Automobile Market from a Consumer’s Perspective, Empirical Economics, vol. 38, no. 1. Papahristodoulou, Ch., 1997, A DEA Model to Evaluate Car Efficiency, Applied Economics, no. 29. Staat, M., Hammerschmidt, M., 2005, Product Performance Evaluation – A Super-Efficiency Model, International Journal of Business Performance Management, vol. 7, no. 3. Tone, K., 1997, A Slack-based Measure of Efficiency in Data Envelopment Analysis, Research Reports, Graduate School of Policy Science, Saitama University; opublikowane w: European Journal of Operational Research no. 130, 2001. Tone, K., 2002, A Slacks-based Measure of Super-efficiency in Data Envelopment Analysis, European Journal of Operational Research, no. 143. STUDIA OECONOMICA POSNANIENSIA 2013, vol. 1, no. 10 (259) Helena Gaspars-Wieloch Uniwersytet Ekonomiczny w Poznaniu, Wydział Informatyki i Gospodarki Elektronicznej, Katedra Badań Operacyjnych, [email protected] METODA SKRACANIA PRZEKROJÓW ŚCIEŻEK NIEDOPUSZCZALNYCH SIECI JAKO NARZĘDZIE OPTYMALIZACJI CZASOWO-KOSZTOWEJ PROJEKTU Streszczenie: W literaturze można znaleźć wiele różnych algorytmów optymalizacji czasowo-kosztowej projektu. W ramach wspomnianej optymalizacji najczęściej poszukuje się wektora czasów trwania czynności wchodzących w skład przedsięwzięcia, który minimalizuje czas całego projektu przy dostępnych środkach finansowych (tzw. Budget Problem) lub który minimalizuje koszt realizacji przy przyjętym czasie dyrektywnym (tzw. Deadline Problem). Niektóre algorytmy są dokładne, czyli pozwalają uzyskać optymalne rozwiązanie, lecz zazwyczaj działają wolno. Inne natomiast są heurystyczne, a więc niekoniecznie prowadzą do uzyskania najlepszego rozwiązania, lecz za to są mniej czasochłonne. Proponowany w pracy algorytm, zwany metodą skracania przekrojów ścieżek niedopuszczalnych sieci (metoda SPSN), pozwala bezpośrednio rozwiązywać problem minimalizacji kosztu przy danym czasie, a pośrednio – problem minimalizacji czasu przy dostępnych środkach finansowych. Można go stosować zarówno wtedy, gdy jednostkowe koszty skracania są stałe, jak i wówczas, gdy te koszty są zmienne. Algorytm SPSN został już wcześniej opisany w innym artykule. Natomiast w tej pracy przedstawiono bardziej sformalizowany, szczegółowy i kompleksowy opis procedury. Ponadto zwrócono uwagę na różne kwestie związane z jego komputerową implementacją i efektywnością. Słowa kluczowe: Optymalizacja czasowo-kosztowa projektu, ścieżka niedopuszczalna, przekrój, jednostkowe koszty skracania, czynność krytyczna, algorytm SPSN, Deadline Problem. Klasyfikacja JEL: C44, C61, M11. Metoda skracania przekrojów ścieżek niedopuszczalnych sieci 27 A METHOD OF REDUCING THE CUT OF INADMISSIBLE PATHS AS A TOOL FOR OPTIMIZING THE TIME-COST OF A PROJECT Abstract: In the literature, many algorithms designed for the time-cost optimization of a project can be found. Usually, this optimization has as the goal of setting certain durations for particular activities pertaining to the project that minimize the project completion time within a specified budget (the so called Budget Problem), or that minimize time-dependent project costs within a specified project deadline (the so called Deadline Problem). Some algorithms are accurate, that is they allow the optimal solution to be obtained, but in general the computations are slow. Whereas other algorithms are heuristic, hence they do not necessarily lead to the best solution, but are less time consuming. The procedure proposed in the paper, called the method of reducing the cut of inadmissible paths (SPSN method), allows the problem to be solved directly by minimizing the cost within a given time; and indirectly – the problem of minimizing the time within the available financial resources. It can be used when the unit shortening cost is either fixed or variable. The algorithm for SPSN has already been described in another article; however, this paper presents a more formalized, detailed and comprehensive description of the procedure. Additionally, the author raises some essential issues connected with the computer implementation and effectiveness of the algorithm. Keywords: time-cost project optimization, inadmissible path, cut, unit shortening cost, critical activity, SPSN algorithm, Deadline Problem. Wstęp Gdy oszacowany czas wykonania planowanego przedsięwzięcia wydaje się zbyt długi, podejmowane są próby jego skrócenia przy jednoczesnym dążeniu do minimalizacji kosztów związanych z przyspieszeniem realizacji projektu. Owe działania wchodzą w skład optymalizacji czasowo-kosztowej przedsięwzięcia, a ta z kolei jest jednym z istotnych etapów zarządzania projektem. Dwa główne problemy stawiane w analizie czasowo-kosztowej można zapisać w postaci następujących modeli decyzyjnych: I. Decydent minimalizuje czas realizacji przedsięwzięcia (T), mając na względzie dostępne środki K d (Budget Problem): T(X) min, (1) K(X) ≤ K d. (2) II. Decydent dąży do jak najtańszej realizacji projektu w czasie nie dłuższym niż czas dyrektywny T d (Deadline Problem): 28 Helena Gaspars-Wieloch K(X) min, (3) T(X) ≤ T d. (4) gdzie X = [x1, …, xm]T to wektor czasów trwania m czynności danego projektu. Modelowaniu powyższych problemów decyzyjnych poświęcono pracę Gaspars-Wieloch [2008b]. Rozwiązania zadań (3)–(4) dla różnych poziomów parametru T d tworzą punkty krzywej czasowo-kosztowej przedsięwzięcia, zwanej także krzywą akceleracji [Bladowski 1970]. Przegląd dokładnych i heurystycznych metod optymalizacji czasowo-kosztowej przedsięwzięć można znaleźć między innymi w pracach Gaspars [Gaspars 2006b, 2008c; Gaspars-Wieloch 2009]. Liczba opracowanych algorytmów kompresji sieci świadczy o tym, że badacze wciąż dostrzegają możliwość udoskonalenia istniejących procedur skracania czasu trwania projektu oraz stworzenia własnych, lepszych metod [Sikora 2012]. Z analizy przeprowadzonej w pracy Gaspars-Wieloch [2009] wynika, że nie ma procedury, która realizowałaby wszystkie istotne kryteria (czas obliczeń, dokładność rozwiązań, obszar zastosowań itd.) nie gorzej niż inne metody. W literaturze dominują opracowania zawierające opisy procedur dla zadań (3)–(4), przy czym najczęściej optymalizacji podlegają wyłącznie bezpośrednie koszty wykonania projektu. Analiza czasowo-kosztowa zakłada, że skróceniu czasu realizacji projektu towarzyszy wzrost kosztów bezpośrednich (tj. kosztów robocizny, materiałów, nakładów na urządzania produkcyjne, kosztów skrócenia czasu czynności). Koszty bezpośrednie są związane z konkretną czynnością. Oprócz kosztów bezpośrednich wyróżnia się koszty pośrednie (tj. koszty zarządzania, koszty administracyjne, podatki, kary umowne związane z niedotrzymaniem ustalonego terminu wykonania pracy oraz koszty utraconych szans). Koszty pośrednie dotyczą przedsięwzięcia jako całości i są podawane jako pojedynczy koszt za każdą dodatkową jednostkę czasu realizacji projektu [Moussourakis i Haksever 2004]. W przypadku kosztów pośrednich zależność czas-koszt jest odwrotna. Krótszemu terminowi zakończenia projektu towarzyszą niższe koszty pośrednie, a więc przebieg całkowitych kosztów realizacji projektu można opisać na przykład funkcją paraboliczną, której ekstremum oznacza optymalny harmonogram prac z punktu widzenia minimalizacji łącznych kosztów. W pracach Gaspars i Anholcera [Gaspars 2006a; Anholcer i Gaspars-Wieloch 2011, 2013] pokazano i udowodniono, że stosowanie powszechnie znanego algorytmu Kaufmanna i Desbazeille’a (w skrócie algorytmu KD) [Kaufmann, Desbazeille i Ventura 1964], nazywanego również metodą CPM-COST, polegającego na sukcesywnym skracaniu czasu czynności należących Metoda skracania przekrojów ścieżek niedopuszczalnych sieci 29 do najtańszego przekroju sieci krytycznej i przez większość użytkowników uznawanego za procedurę dokładną, nie zawsze prowadzi do rozwiązań optymalnych. Oznacza to, że koszty bezpośrednie niektórych uzyskanych harmonogramów realizacji przedsięwzięcia mogą nie być wcale najniższe. W związku z powyższym autorka niniejszej pracy postanowiła opracować nowy sposób skracania czasu realizacji projektu. Jego zaletą miało być w głównej mierze poprawienie dokładności rozwiązań – zwłaszcza w przypadku zadań, dla których algorytm KD daje wyniki najbardziej oddalone od optimum. Ogólną koncepcję proponowanej metody przedstawiono w pracy Gaspars [2006b], a w niniejszym opracowaniu autorka dokładnie omawia poszczególne kroki procedury, podaje formalny jej zapis oraz wskazuje dodatkowe możliwości zwiększenia efektywności algorytmu. Dla wygody zaproponowany sposób nazywamy w pracy algorytmem skracania przekrojów ścieżek niedopuszczalnych sieci – w skrócie algorytmem SPSN. Praca ma następującą strukturę. W punkcie 1 przedstawiono pierwotną i uaktualnioną koncepcję algorytmu SPSN, punkt 2 zawiera formalny opis procedury, a punkt 3 ilustruje działanie procedury. Kwestie związane z komputerową implementacją algorytmu i jego efektywnością omówiono w punkcie 4. W podsumowaniu zebrano wnioski. 1. Idea algorytmu skracania przekroju ścieżek niedopuszczalnych sieci Metoda SPSN, podobnie jak algorytm KD, dotyczy projektów, których strukturę można przedstawić za pomocą deterministycznego modelu sieciowego (znane są czynności wchodzące w skład projektu oraz relacje poprzedzania). Pozwala ona rozwiązywać bezpośrednio zadania (3)–(4) i pośrednio zadania (1)–(2). Można z niej korzystać, gdy dany jest czas dyrektywny (T d) i – gdy dla każdego działania uij znana jest lista czynności poprzedzających – normalny (tnij) oraz graniczny (t ijg) czas trwania, a także jednostkowy koszt skrócenia cij (gradient kosztu skrócenia). Jak zasygnalizowano we wprowadzeniu, algorytm SPSN został zaprezentowany już w roku 2006 w pracy Gaspars [2006b]. Istota tejże procedury polegała na sukcesywnym skracaniu czasu działań należących do ścieżek, których czas przejścia jest dłuższy od czasu dyrektywnego (tzw. ścieżek niedopuszczalnych). Pierwotny pomysł zakładał, że wystarczy zrealizować następujące kroki: 1. Narysować sieć obrazującą strukturę projektu. 2. Obliczyć najwcześniejszy moment zakończenia przedsięwzięcia (T*). START 1. Narysować sieć obrazującą analizowane przedsięwzięcie 2. Wyznaczyć T* nie Czy T* !Td ? STOP tak tak 3. Wyznaczyć zbiór ścieżek niedopuszczalnych 4. Ustalić wszystkie możliwe przekroje dla powyższego zbioru ścieżek nie Czy osiągnięto już czas T d? 6. Wybrać najtańszy technicznie możliwy wariant i skrócić czas trwania wybranych czynności 5. Obliczyć łączne koszty skrócenia dla wymienionych przekrojów Czy istnieje przekrój, w którym każda czynność krytyczna może być skrócona? nie STOP – osiągnięcie T d jest niemożliwe Rysunek 1. Schemat blokowy algorytmu SPSN [30] tak Metoda skracania przekrojów ścieżek niedopuszczalnych sieci 31 3. Wyznaczyć zbiór ścieżek niedopuszczalnych. 4. Ustalić wszystkie możliwe przekroje dla tego zbioru ścieżek. 5. Obliczyć łączne koszty skrócenia czynności należących do tych przekrojów (stosując odpowiednie etykiety kosztowe dla czynności krytycznych, niekrytycznych i pozornych). 6. Skrócić o jedną jednostkę czas czynności najtańszego przekroju (pamiętając o kilku zasadach związanych z wyborem najlepszego przekroju). Jeżeli osiągnięto czas dyrektywny, zakończyć obliczenia. W przeciwnym razie wrócić do kroku 3. Warto jednak podkreślić, że choć przy projektowaniu algorytmu starano się uchronić go od wad innych algorytmów i jednocześnie wprowadzić możliwie jak najwięcej korzystnych rozwiązań zalecanych przez innych autorów, ówczesny opis metody miał charakter ogólnikowy, niekompletny i niesformalizowany. Dalsze badania wykazały bowiem, że wymaga on rozszerzenia i doprecyzowania. Rysunek 1 przedstawia aktualne zalecane kroki dla algorytmu SPSN. Pierwszy krok polega na narysowaniu sieci S obrazującej dany projekt. Łuki uij oznaczają czynności wchodzące w skład projektu, a węzły 1, 2, …, n ukazują zdarzenia. Taka forma prezentacji przedsięwzięcia jest charakterystyczna dla techniki AOA (Activities on arcs [Bell i Han 1991]), ale alternatywna procedura, tzw. technika AON (Activities on nodes), jest także możliwa [Trocki, Grucza i Ogonek 2003]. W drugim kroku jest wyznaczany najkrótszy czas realizacji przedsięwzięcia (T*) przy założeniu, że działania są wykonywane w czasie normalnym [Gaspars-Wieloch 2008a]. Jeżeli obliczony czas jest krótszy od T d, to skracanie jest zbędne. W trzecim kroku należy ustalić zbiór ścieżek niedopuszczalnych1. Ścieżką niedopuszczalną (dnd) jest każda droga (d), której czas przejścia (t(d)) jest dłuższy od T d: t(d) > T d. (5) Jest nią zarówno ścieżka krytyczna (tj. droga najdłużej trwająca), jak i każda droga podkrytyczna z całkowitym zapasem czasu mniejszym od różnicy: T* – T d. Zbiór ścieżek niedopuszczalnych oznaczmy symbolem Dnd, zbiór ścieżek krytycznych zdefiniujmy jako Dk, a zbiór ścieżek podkrytycznych 1 Poszukiwanie zbioru ścieżek niedopuszczalnych jest charakterystyczne także dla algorytmów Siemensa i Goyala [Goyal 1975; Siemens 1971]. 32 Helena Gaspars-Wieloch spełniających warunek (5) – jako D pk. Między tymi zbiorami zachodzą następujące zależności: Dnd = Dk D pk, (6) Dk D pk = Ø. (7) Definicja 1. Przekrojem podsieci niedopuszczalnej Ul jest każdy minimalny podzbiór łuków tejże podsieci, zawierający co najmniej po jednym łuku z każdej ścieżki niedopuszczalnej, przy czym węzeł początkowy takiego łuku należy do W1, a węzeł końcowy do W2. Zbiory W1 i W2 to rozłączne podzbiory zbioru węzłów sieci (W), W1 zawiera węzeł początkowy sieci, a W2 – węzeł końcowy. Przekrojem podsieci niedopuszczalnej jest zatem każdy minimalny zbiór łuków, który przechodzi przez wszystkie drogi niedopuszczalne. Zbiór wszystkich przekrojów podsieci niedopuszczalnej oznaczmy symbolem P nd. W czwartym kroku są wyznaczane wszystkie możliwe przekroje dla zbioru ścieżek Dnd, tj. dla podsieci niedopuszczalnej (por. definicja 1). W piątym kroku dla ustalonych przekrojów są obliczane łączne koszty skrócenia. Koszt skrócenia dla przekroju podsieci niedopuszczalnej wyznaczamy zgodnie ze wzorem (8) K(Ul ) = K k(Ul ) + K nk(Ul ), Ul Pnd, (8) gdzie: K k(Ul ) – suma jednostkowych kosztów skrócenia czynności krytycznych przekroju Ul , K nk(Ul ) – suma jednostkowych kosztów skrócenia czynności niekrytycznych przekroju Ul . Koszt przekroju zawierającego czynność pozorną upz (tj. czynność o zerowym zapasie czasu, służącą do ukazania relacji poprzedzania między działaniami, zob. [Moder i Philips 1964]) jest równy : upz Ul K(Ul ) = . (9) Jeżeli suma jednostkowych kosztów skrócenia czynności krytycznych jest dla wszystkich przekrojów równa nieskończoność, oznacza to, że przynajmniej jedno działanie krytyczne w każdym wyznaczonym przekroju osiągnęło już swój czas graniczny. W tej sytuacji skracanie momentu zakończenia przedsięwzięcia jest niemożliwe, a postawione zadanie jest sprzeczne (nie można zrealizować projektu w czasie dyrektywnym). Metoda skracania przekrojów ścieżek niedopuszczalnych sieci 33 W szóstym kroku jest wybierany najtańszy technicznie możliwy wariant kompresji sieci, a następnie jest skracany czas trwania wskazanych czynności. Przekrój Ul spełniający warunek: K (U min ) ^ ` (10) min K (U l ) U l P nd jest przekrojem o najniższym koszcie (U min). nd k Niech P min oznacza zbiór przekrojów o minimalnym koszcie, a P nd, min – zbiór przekrojów o minimalnym koszcie takich, że każda czynność należąca do przekroju jest krytyczna. Procedura wyboru najtańszego przekroju zależy od liczebności tychże zbiorów: nd a) Jeżeli zbiór P min jest jednoelementowy, to należy skrócić działania krytyczne przekroju U min o jedną jednostkę. nd b) Jeżeli zbiór P min jest wieloelementowy, to należy wybrać dowolny przek krój ze zbioru P nd, min i skrócić czas trwania czynności krytycznych wskazanego przekroju o jedną jednostkę. k nd nd, k c) Jeżeli zbiór P nd, min jest pusty, to ze zbioru P min\ P min (tj. zbioru przekrojów o minimalnym koszcie takich, że przynajmniej jedna czynność należąca do przekroju nie jest krytyczna) jest wybierany przekrój U min(k), czyli przekrój, dla którego suma kosztów skrócenia czasu trwania czynności krytycznych jest najniższa: K k (U min(k ) ) min nd U minPmin ^K k ` (U min ) . (11) W przypadku istnienia kilku przekrojów spełniających warunek (11) wybór jest dowolny. Przekrój ostatecznie wybrany w kroku szóstym oznaczamy symbolem U *. W pracy Gaspars [2006b] zabrakło między innymi analizy dwóch typów problemów decyzyjnych: zadań ze stałymi i zmiennymi jednostkowymi kosztami skracania, co przy realizacji kroku 6 algorytmu SPSN ma istotne znaczenie. Jeżeli gradienty kosztu są dla poszczególnych działań stałe, to w ramach danej iteracji istnieje możliwość skrócenia czynności wyznaczonego przekroju o więcej niż jedną jednostkę. Czynności krytyczne przekroju U * można maksymalnie skrócić o w kst jednostek: w stk d U * ½½ ° ° « t (d ) T Zd » °° » ¾¾, min ® min {tij tijg zijc }, min ® « dDnd ° « »¼ °° LUd * °¯uijU * ¯¬ ¿¿ (12) 34 Helena Gaspars-Wieloch gdzie: tij – aktualny czas trwania czynności uij, tijg – graniczny czas trwania czynności uij, z ijc – aktualny całkowity zapas czasu czynności uij, Dnd – aktualny zbiór ścieżek niedopuszczalnych, ZdU * – suma całkowitych zapasów czasu czynności należących jednocześnie do przekroju U * i do ścieżki d, U* Ld – liczba działań należących jednocześnie do przekroju U * i do ścieżki d. Dla każdej czynności krytycznej danego przekroju obowiązuje ta sama wartość w stk , ponieważ dowolne działanie krytyczne ma zerowy zapas. Pierwszy element wzoru (12) gwarantuje skracanie czynności co najwyżej do momentu, w którym dowolna czynność wskazanego przekroju osiąga swój czas graniczny. Druga część tego wzoru ma zapobiec nadmiernemu, w stosunku do ustalonego czasu dyrektywnego, skróceniu czasu przejścia poszczególnych ścieżek podsieci niedopuszczalnej. Jeżeli wybrany przekrój zawiera więcej niż jedno działanie (np. m) z danej drogi, to należy koniecznie podzielić wyrażenie t (d ) T d ZdU * przez L U* d , aby ta ścieżka nie została skrócona (m – 1)-krotnie bardziej aniżeli pozostałe drogi niedopuszczalne. Każdą czynność niekrytyczną uij przekroju U * warto skrócić o wnk ij jednostek wijnk max{0, w k zijc }. (13) Czynności niekrytyczne danego przekroju mogą dysponować różnymi zapasami. Dlatego wielkość wnk ij należy obliczyć oddzielnie dla każdego działania niekrytycznego. Z powyższego wynika, że gdy mamy do czynienia ze stałymi jednostkowymi kosztami skracania, to oprócz działań krytycznych w niektórych wypadkach skracamy także czynności niekrytyczne. Jeżeli gradienty kosztów są zmienne, to skracamy tylko czynności kryk tyczne. Zmiana ich czasu trwania wynosi wzm : k w zm d U * ½½ ° ° « t (d ) T Zd » °° « » ¾¾. min ®1, min ® U* nd d D « » L °¯ °¯ ¬ d ¼ °° ¿¿ (14) Ze wzoru (14) wynika, że czynności krytyczne można wówczas skrócić o maksymalnie jedną jednostkę. Metoda skracania przekrojów ścieżek niedopuszczalnych sieci 35 Po wybraniu przekroju i skróceniu jego działań o odpowiednią liczbę jednostek należy ustalić nowy najkrótszy czas realizacji projektu na podstawie aktualnych czasów trwania czynności. Jeżeli okaże się, że T* > T d, to powtarzamy procedurę począwszy od trzeciego kroku. Obliczenia kończymy, gdy T* = T d. Kolejną ważną kwestią pominiętą w pracy Gaspars [2006b] jest to, że nak wet jeżeli w stk lub wzm wynoszą 0, lecz wynika to z zerowej wartości drugiego elementu we wzorach (12) lub (14), a czas T* nadal przekracza T d, to należy szukać najtańszego przekroju w ramach podsieci krytycznej, a nie w obrębie całej podsieci niedopuszczalnej. W ostatniej więc fazie algorytmu może się zdarzyć, że będzie trzeba wybrać przekrój spełniający warunek: K (U min ) ^ ` min K (U l ) , U l P k (15) gdzie P k to zbiór wszystkich możliwych przekrojów wyznaczonych dla podsieci krytycznej, a następnie skrócić wszystkie czynności należące do tak skonstruowanego przekroju. 2. Formalny opis algorytmu SPSN Po prezentacji ogólnej koncepcji algorytmu SPSN wraz z jej doprecyzowaniem umożliwiającym efektywniejsze działanie procedury przejdźmy do formalnego jej opisu. Algorytm 1. Algorytm SPSN Krok 1. Narysować sieć S obrazującą analizowane przedsięwzięcie. Krok 2. Obliczyć najkrótszy czas realizacji przedsięwzięcia (T *). Jeżeli T * ≤ T d, zakończyć obliczenia. W przeciwnym razie, przejść do kroku 3. Krok 3. Wyznaczyć zbiór ścieżek niedopuszczalnych (Dnd). Krok 4. Ustalić P nd, czyli wszystkie możliwe przekroje U l dla zbioru ścieżek Dnd. Krok 5. Obliczyć łączne koszty skrócenia dla wyróżnionych przekrojów. Jeżeli dla każdego U l P nd spełniona jest zależność: K k(U l ) = , zakończyć obliczenia. (16) 36 Helena Gaspars-Wieloch nd Krok 6. A. Wyznaczyć zbiór P min , czyli wszystkie przekroje U min: a) jeżeli K(U min) ≠ , przejść do kroku 6.A.b), w przeciwnym razie przejść do kroku 6.A.d), nd b) jeżeli zbiór P min jest jednoelementowy, to U min = U *, a więc można przejść do kroku 6.B), w przeciwnym razie przejść do kroku 6.A.c), nd, k c) jeżeli zbiór P min jest pusty, przejść do kroku 6.A.d), w przeciwnym razie należy przyjąć dowolny przekrój z tego zbioru jako U *, a następnie przejść do kroku 6.B, nd nd, k d) ze zbioru P min \ P min przyjąć dowolny przekrój U min(k) jako U *. B. Skrócić czas trwania czynności wchodzących w skład przekroju U *: a) jeżeli jednostkowe koszty skrócenia czasu trwania poszczególnych czynności są zmienne, skrócić działania krytyczne przekroju U * o wkzm jednostek, jeśli wkzm = 0, przejść do kroku 6.D, b) jeżeli jednostkowe koszty skrócenia są stałe, skrócić czynności krytyczne przekroju U * o wstk jednostek, a każdą czynność niek krytyczną uij tego przekroju skrócić o wnk ij jednostek, jeśli wst = 0, przejść do kroku 6.D. C. Ustalić aktualny najkrótszy czas realizacji przedsięwzięcia. Jeżeli T* = T d, zakończyć obliczenia. Jeżeli T* > T d, przejść do kroku 3. D. a) wyznaczyć najtańszy przekrój podsieci krytycznej, b) skrócić czynności wybranego przekroju o jedną jednostkę, c) ustalić aktualny najkrótszy czas realizacji przedsięwzięcia, jeżeli T* = T d, zakończyć obliczenia, jeżeli T* > T d, przejść do kroku 3. Z kroków 6.A.a) i 6.A.d) wynika, że można wybrać przekrój, którego koszt skrócenia jest równy , pod warunkiem, że suma kosztów skracania czynności krytycznych tego przekroju jest różna od . Krok 6.A.c) dotyczy przekrojów składających się z samych działań krytycznych. Jeżeli zmieniane są czasy trwania działań należących do przekroju w pełni krytycznego, to rozwiązanie dopuszczalne jest uzyskiwane w mniejszej liczbie kroków aniżeli w przypadku wyboru przekroju zawierającego też czynności niekrytyczne. Krok 6.B mówi o tym, że gdy najniższe koszty są związane z przekrojem nie w pełni krytycznym, to skracamy jedynie czas trwania czynności krytycznych należących do tej kombinacji. Skracanie czynności niekrytycznych może z jednej strony szybciej zmniejszyć zbiór ścieżek niedopuszczalnych, lecz z drugiej strony istnieje ryzyko, że w ostatecznym rozrachunku przyspieszenie takich działań okaże się zbędne, a przez to droższe aniżeli wynikałoby to z rozwiązania optymalnego. Za skracaniem tylko działań krytycznych 37 Metoda skracania przekrojów ścieżek niedopuszczalnych sieci przekroju przemawia jeszcze jeden argument. Otóż samo przyspieszenie czynności krytycznych jest wystarczające, by czas realizacji przedsięwzięcia został skrócony o jednostkę, co wobec funkcji (3) tym bardziej skłania do skracania tylko krytycznej części przekroju. 3. Studium przypadku Działanie algorytmu SPSN jest zilustrowane przykładem. Załóżmy, że czas wykonania przedsięwzięcia zaprezentowanego na rysunku 2 należy skrócić do 9 dni możliwie jak najtaniej. Wartości w nawiasach okrągłych przy węzłach określają najwcześniejsze i najpóźniejsze momenty zajścia zdarzeń. Litery opisują poszczególne czynności przedsięwzięcia. Liczby stojące przy literach to czasy trwania działań. Wartości w nawiasach okrągłych przy łukach oznaczają całkowite zapasy czasu czynności, a wielkości w nawiasach kwadratowych to jednostkowe koszty skracania zadań. Koszty skracania są zmienne. Z wykresu g g wynika, że czasy graniczne czynności wynoszą odpowiednio tA = 2, t B = 7, g g g t C = 1, tD = 1, t E = 1, t F g = 1. D 2 [5] (0) (5, 5) 2 (7, 7) E 4 [4, 4, 6] (11, 11) 5 4 (0) A 5 [2, 3, 3] (0) C 2 [8] (0) 1 (0) F 4 [1, 2, 3] 3 (0, 0) B 7 (0) (7, 7) Rysunek 2. Przykład. Wyjściowa sieć (T = 11) Przejdźmy do rozwiązania postawionego problemu zgodnie z opisaną procedurą: ITERACJA I Krok 2. Czas T * = 11 dni, zatem należy przejść do kroku 3. Krok 3. Wyznaczamy zbiór Dnd = {d1, d2, d3}={A-D-E, A-C-F, B-F}. Zauważmy, że Dk = {d1, d2, d3} = {A-D-E, A-C-F, B-F} i D pk = {Ø} (podkreślamy te czynności, które są krytyczne). Krok 4. Ustalamy możliwe przekroje podsieci niedopuszczalnej: U 1 = {A, B}, U 2 = {D, C, B}, U 3 = {E, C, B}, U 4 = {D, F}, U 5 = {E, F}, U 6 = {A, F}. 38 Helena Gaspars-Wieloch Krok 5. Obliczamy koszty odpowiadające przekrojom: K(U 1) = K k(U 1) + K nk(U 1) = (2 + ) + 0 = , K(U 2) = K k(U 2) + K nk(U 2) = (5 + 8 + ) + 0 = , K(U 3) = K k(U 3) + K nk(U 3) = (4 + 8 + ) + 0 = , K(U 4) = K k(U 4) + K nk(U 4) = (5 + 1) + 0 = 6, K(U 5) = K k(U 5) + K nk(U 5) = (4 + 1) + 0 = 5, K(U 6) = K k(U 6) + K nk(U 6) = (2 + 1) + 0 = 3. Istnieje przynajmniej jeden przekrój, dla którego suma kosztów skracania czynności krytycznych jest różna od , a więc można przejść do kroku 6. Krok 6. A. Znajdujemy najtańszy wariant: U min = U 6 = {A, F}. Zbiór Pnd min = {U 6} jest jednoelementowy, więc U * = U 6. Przechodzimy od razu do kroku 6.B. B. Skracamy czynności krytyczne A i F o jeden dzień (zob. wzór (14)). k w zm « c » ½½ c » « c c » « ° ° « t (d1 ) 9 z A » « t (d2 ) 9 z A z F » « t (d3 ) 9 z F » °° min ®1, min ® , , U6 U6 » ¾¾ « » « » « LUd 6 L L ° °« d2 d3 »¼ «¬ »¼ «¬ »¼ °° 1 ¯¬ ¿¿ ¯ ° «11 9 0 » «11 9 0 0 » «11 9 0 » ½½° min ®1, min ® « »,« »,« » ¾¾ 1. 1 2 1 ¼ ¬ ¼ ¬ ¼ ¿°¿ °¯ ¯¬ Rysunek 3 przedstawia sieć ze zmodyfikowanymi czasami działań A i F. C. Nowy czas projektu (10 dni) przekracza czas dyrektywny, zatem przechodzimy do kroku 3. D 2 [5] (0) (4, 4) 2 (6, 6) E 4 [4, 4, 6] (10, 10) 5 4 (0) A 4 [3, 3] (0) C 2 [8] (1 ) 1 (0) 3 (0, 0) B 7 (0) Rysunek 3. Przykład. Sieć po I iteracji (T = 10) (7, 7) F 3 [2, 3] 39 Metoda skracania przekrojów ścieżek niedopuszczalnych sieci ITERACJA II Krok 3. Wyznaczamy zbiór Dnd = {d1, d3} = {A-D-E, B-F}, Dk = {d1, d3} = = {A-D-E, B-F} i Dpk = {Ø}. Krok 4. Ustalamy możliwe przekroje podsieci niedopuszczalnej: U 1 = {A, B}, U 2 = {D, B}, U 3 = {E, B}, U 4 = {D, F}, U 5 = {E, F}, U 6 = {A, F}. Krok 5. Obliczamy koszty odpowiadające przekrojom: K(U 1) = Kk(U 1) + K nk(U 1) = (3 + ) + 0 = , K(U 2) = Kk(U 2) + K nk(U 2) = (5 + ) + 0 = , K(U 3) = Kk(U 3) + K nk(U 3) = (4 + ) + 0 = , K(U 4) = Kk(U 4) + K nk(U 4) = (5 + 2) + 0 = 7, K(U 5) = Kk(U 5) + K nk(U 5) = (4 + 2) + 0 = 6, K(U 6) = Kk(U 6) + K nk(U 6) = (3 + 2) + 0 = 5. Istnieje przynajmniej jeden przekrój, dla którego suma kosztów skracania czynności krytycznych jest różna od , a więc można przejść do kroku 6. Krok 6. A. Znajdujemy najtańszy wariant: U min = U 6 = {A, F}. Zbiór P nd min = {U 6} jest jednoelementowy. Przekrój U 6 jest przekrojem U *. Przechodzimy do kroku 6.B. B. Skracamy czynności krytyczne A i F o jeden dzień. « c » ½½ c » « ° ° « t (d1 ) 9 z A » « t (d3 ) 9 z F » °° k wzm min ®1, min ® , U6 » ¾¾ « » « LUd 6 L ° °« d3 »¼ «¬ »¼ °° 1 ¯¬ ¿¿ ¯ ° «10 9 0 » «10 9 0 » ½½° min ®1, min ® « »,« » ¾¾ 1. 1 1 ¼ ¬ ¼ ¿¿° ¯¬ ¯° Rysunek 4 przedstawia sieć ze zmodyfikowanymi czasami działań A i F. D 2 [5] (0) (3, 3) 2 (5, 5) E 4 [4, 4, 6] (9, 9) 5 4 (0) A 3 [3] (0) C 2 [8] (2 ) 1 (0) 3 (0, 0) B 7 (0) Rysunek 4. Przykład. Sieć po II iteracji (T = 9) (7, 7) F 2 [3] 40 Helena Gaspars-Wieloch C. Nowy czas wykonania projektu (9 dni) jest równy czasowi dyrektywnemu, zatem kończymy obliczenia. Łączny koszt skracania wynosi (1 · 3) + (1 · 5) = 8 tys. zł. 4. Kilka uwag o implementacji algorytmu SPSN i jego efektywności Choć głównym celem niniejszego artykułu jest przedstawienie szczegółowego opisu algorytmu SPSN, warto przy okazji wspomnieć o tym, jak można usprawnić procedurę w przypadku jej komputerowej implementacji. Przypomnijmy, że krok 3 algorytmu SPSN polega na wyznaczeniu zbioru ścieżek niedopuszczalnych, tj. podsieci niedopuszczalnej. Drogi należące do takiej podsieci muszą spełniać warunek (5). Ustalenie zbioru tychże ścieżek jest proste w przypadku małych problemów (sieci złożone z kilku węzłów). Natomiast w większych zadaniach obliczanie czasu przejścia każdej drogi jest bardzo czasochłonne. Dlatego zdecydowanie lepiej wyznaczyć podsieć niedopuszczalną, wiedząc, że składa się ona z samych czynności uij, dla których jest spełniona następująca zależność. zijc < (T* – T d). (17) Całkowity zapas czasu trwania danego działania jest bowiem zapasem czasu, o jaki można zwiększyć najdłuższą ścieżkę zawierającą to działanie bez wpływu na łączny czas realizacji projektu. Innymi słowy, zijc określa różnicę pomiędzy T* a czasem przejścia najdłuższej drogi przechodzącej przez czynność uij [Guzik i Sikora 1993]. W kroku 4 algorytmu SPSN należy ustalić wszystkie możliwe przekroje podsieci niedopuszczalnej, a w dwóch kolejnych krokach – obliczyć koszty dla każdego przekroju i wybrać przekrój o najniższym koszcie. Takie postępowanie jest bardzo wygodne, gdy rozpatrujemy proste przykłady. W przypadku sieci o kilkunastu, kilkudziesięciu węzłach przegląd zupełny zbioru P nd jest zupełnie nieefektywny. Dlatego warto skorzystać z algorytmu Forda-Fulkersona, który służy właśnie do wyznaczenia przekroju o najniższym koszcie. Problem pojawia się jednak wówczas, gdy podsieć niedopuszczalna zawiera kilka przekrojów spełniających warunek (10). W algorytmie SPSN należy ustalić wszystkie takie przekroje (U min), a następnie, w zależności od statusu czynności do nich należących oraz wielkości kosztów skrócenia działań krytycznych poszczególnych wariantów, wybrać przekrój U *. Tymczasem Metoda skracania przekrojów ścieżek niedopuszczalnych sieci 41 algorytm Forda-Fulkersona pozwala wygenerować tylko jeden z przekrojów o najniższym koszcie2. W związku z powyższym przekrój U * może być ustalany poprzez wykorzystanie algorytmu Forda-Fulkersona dla dwóch zadań pomocniczych: 1. Czynnościom niekrytycznym podsieci niedopuszczalnej należy przypisać koszt M 4, gdzie M jest bardzo dużą liczbą dodatnią. Koszty skracania działań krytycznych pozostają bez zmian, a koszty skracania działań krytycznych, które osiągnęły już czas graniczny, wynoszą M 3. Następnie dla tak skonstruowanego zadania pomocniczego wyznaczany jest najtańszy przekrój za pomocą algorytmu Forda-Fulkersona. Takie postępowanie pozwala znaleźć najtańszy przekrój składający się z samych działań krynd, k tycznych, tj. jeden z przekrojów zbioru Pmin . Jeżeli koszt tak znalezionego przekroju w zadaniu pomocniczym jest przynajmniej równy M 3, to nd, k oznacza to, że zbiór Pmin jest pusty, ponieważ wskazany przekrój zawiera działania krytyczne, których skrócić już się nie da, lub składa się z działań o dodatnim całkowitym zapasie czasu. 2. Krytycznym czynnościom należy przypisać koszt (M + 1) ∙ sij, gdzie sij to jednostkowy koszt skrócenia czynności uij. Krytycznym działaniom, które osiągnęły czas graniczny – koszt M 3 + M 2. Koszty działań niekrytycznych wynoszą odpowiednio sij (jeżeli tij > t ijg) i M 2 (jeżeli tij = t ijg ). Następnie za pomocą algorytmu Forda-Fulkersona ustalany jest najtańszy przekrój dla tak sformułowanego zadania pomocniczego. Całkowity koszt przekroju wyraża się wzorem: M ∙ K(U l) + K k(U l), (18) gdzie: K k(U l) – suma jednostkowych kosztów skrócenia czynności krytycznych przekroju U l, K(U l) – suma jednostkowych kosztów skrócenia wszystkich czynności przekroju U l. Dzięki temu w pierwszej kolejności są preferowane przekroje o najniższym koszcie całkowitym, a w przypadku dwóch równych kosztów całkowitych – te o najniższym koszcie krytycznym. Jeżeli koszt najtańszego przekroju znajduje się w przedziale M 2, M 3), to oznacza to, że zawiera on działania niekrytyczne, których nie można skrócić. Nie jest to jednak powód, by 2 Jeżeli istnieje kilka przekrojów o najniższym koszcie, to algorytm Forda-Fulkersona wskaże przekrój leżący najbliżej węzła początkowego. 42 Helena Gaspars-Wieloch wykluczyć taki przekrój, ponieważ czynności niekrytycznych nie skracamy. Przekroje o koszcie równym przynajmniej M 3 są niedopuszczalne, gdyż należą do nich działania krytyczne, których nie można skracać. Po wyznaczeniu najtańszego przekroju dla zadania pomocniczego, rzeczywisty koszt przekroju jest obliczany poprzez ponowne przyjęcie rzeczywistych kosztów skrócenia. Jeżeli tak wyliczony koszt jest niższy od kosztu z punktu 1, to wybieramy ostatecznie przekrój z punktu 2. W kroku 6 algorytmu SPSN zaproponowano stosowanie wzorów (12)–(14). Mają one podwójne znaczenie. Po pierwsze, służą do ustalenia maksymalnej liczby jednostek, o którą warto od razu skrócić czynności wskazanego przekroju (dotyczy to przypadku, gdy krańcowe koszty skracania działań są stałe, wzory (12)–(13)). Po drugie, pozwalają określić, czy skrócenie działań wybranego przekroju nie spowoduje nadmiernego przyspieszenia momentu zakończenia projektu (w stosunku do podanego czasu dyrektywnego). Gdyby taka sytuacja miała wystąpić, wówczas wskaźniki w stk i w kzm przyjmą zerowe wartości. Stosowanie wzorów (12)–(14) wymaga jednak dokonania przeglądu wszystkich ścieżek niedopuszczalnych. Dlatego wspomniane wzory znajdują zwłaszcza zastosowanie przy rozwiązywaniu prostych problemów optymalizacyjnych. Analizując większe zadania, można wykonać następujące kroki: 1. Skracać czas realizacji projektu zgodnie z krokami 3–6 algorytmu, przy czym w każdej iteracji należy zmniejszać czas trwania czynności krytycznych wskazanego przekroju o 1 jednostkę. 2. A. Jeżeli po danej iteracji T* = T d, zakończyć obliczenia. B. Jeżeli po danej iteracji T* < T d, wrócić do poprzedniej iteracji, wyznaczyć przekrój o najniższym koszcie na podstawie podsieci krytycznej (a nie podsieci niedopuszczalnej), skrócić wybrane czynności krytyczne o jedną jednostkę i powrócić do kroku 3 algorytmu. Rezygnując ze stosowania wzorów (12)–(14), należy mieć świadomość tego, że tracimy możliwość wielokrotnego skracania czasu trwania działań przekroju wskazanego w danej iteracji, co niekorzystnie wpływa na czas generowania rozwiązań. Zwiększa się również ryzyko nadmiernego skrócenia czasu przejścia niektórych ścieżek w porównaniu z ustalonym czasem dyrektywnym! Rozwiązanie zaproponowane w dwóch powyższych krokach nie jest więc wiernym odzwierciedleniem pierwotnej idei algorytmu SPSN3. Badanie czasu działania procedury oraz średniej dokładności uzyskiwanych za jej pomocą rozwiązań również nie jest głównym celem niniejszego 3 Autorka dziękuje Marcinowi Anholcerowi za sugestie dotyczące niektórych kwestii związanych z komputerową implementacją algorytmu. Metoda skracania przekrojów ścieżek niedopuszczalnych sieci 43 opracowania. Warto jednak podkreślić, że w pracy Gaspars-Wieloch [2009] przedstawiono już wyniki przeprowadzonych symulacji dla różnych typów losowo generowanych zadań. Efektywność algorytmu SPSN porównano z efektywnością ogólnej metody optymalizacyjnej (metody Dantziga) oraz algorytmu Kaufmanna i Desbazeille’a (AKD). Jako jeden z punktów odniesienia wybrano właśnie AKD, gdyż procedura ta (w przeciwieństwie do innych metod optymalizacji czasowo-kosztowej) pozwala rozwiązywać te same typy zadań (ten sam cel optymalizacyjny, te same rodzaje jednostkowych kosztów skracania działań) co algorytm SPSN [Anholcer i Gaspars-Wieloch 2011, 2013]. Dzięki otrzymanym wynikom sformułowano następujące wnioski: 1. Algorytm SPSN rozwiązuje problemy czasowo-kosztowe ponad 100 (w przypadku 10 węzłów), ponad 600 (w przypadku 20 węzłów), a nawet ponad kilka tysięcy (w przypadku 50 węzłów) razy szybciej aniżeli metoda Dantziga (metoda simpleks). 2. Algorytm SPSN generuje rozwiązania prawie dwa razy wolniej aniżeli AKD, ale za to średnia dokładność (tj. względne odchylenie rozwiązań od rozwiązań optymalnych) tego pierwszego jest istotnie wyższa. Różnice w poziomie dokładności rozwiązań (na korzyść SPSN) są najbardziej widoczne w przypadku sieci z wieloma ścieżkami podkrytycznymi, które mają dużo wspólnych czynności. Konstruując przekrój na podstawie wszystkich ścieżek niedopuszczalnych, unikamy bowiem sytuacji charakterystycznej dla AKD, w której skracana jest w danej iteracji czynność o względnie najniższym koszcie skrócenia, ale należąca tylko do jednej drogi. Algorytm SPSN preferuje przekroje zawierające czynności wchodzące w skład kilku ścieżek jednocześnie, gdyż skrócenie takich działań sprawia, że jednostkowe koszty skrócenia czasu przejścia przypadające na poszczególne drogi niedopuszczalne są niższe. Ponadto algorytm SPSN, w przeciwieństwie do AKD, zapobiega nadmiernemu (a więc generującemu dodatkowe zbędne koszty) skróceniu niektórych działań. Podsumowanie W pracy przedstawiono sformalizowany i kompleksowy opis metody skracania przekroju ścieżek niedopuszczalnych sieci (SPSN). Służy ona do optymalizacji czasowo-kosztowej projektów, których strukturę można opisać w postaci sieci deterministycznej. Jednostkowe koszty skracania działań mogą być stałe lub zmienne, przy czym w drugim wypadku preferowane są wypukłe krzywe 44 Helena Gaspars-Wieloch czasowo-kosztowe, gdyż przy wklęsłych krzywych (nierosnące koszty skracania) obniża się dokładność procedury. Idea algorytmu różni się bardzo od koncepcji innych istniejących procedur. Na przykład podczas skracania czasu realizacji projektu poszukuje się najtańszego przekroju dla sieci niedopuszczalnej. Tymczasem w innych metodach ustala się minimalne cięcie dla całej sieci [Phillips i Dessouky 1977] lub minimalny przekrój dla sieci krytycznej [Kaufmann, Desbazeille i Ventura 1964]. Dokonywanie tej operacji na podstawie ścieżek niedopuszczalnych jest bardzo korzystne, gdyż zbiór takich dróg nie rośnie w miarę zbliżania się do ostatniej iteracji (w przeciwieństwie do zbioru ścieżek krytycznych, który podczas skracania się zwiększa [Moder i Phillips 1964]). Ponadto w przypadku algorytmu SPSN koszt przekroju jest obliczany na podstawie kosztów skracania czynności krytycznych i niekrytycznych. Natomiast wcześniej opracowane techniki polegają jedynie na sumowaniu kosztów przyspieszenia działań krytycznych. Dużym atutem metody jest jej relatywna prostota, możliwość skrócenia czasu projektu nawet o kilka jednostek w ramach danej iteracji oraz znacznie wyższa dokładność aniżeli w przypadku algorytmu Kaufmanna i Desbazeille’a, który generuje rozwiązania bardzo dalekie od optymalnego w sieciach o gęstej strukturze i licznym zbiorze ścieżek podkrytycznych. Procedura SPSN została już przedstawiona wcześniej w pracy Gaspars [2006b]. Tym razem jednak wzbogacono poprzedni opis o istotne elementy, dzięki którym wiadomo, jak należy postępować w dowolnym zadaniu (tj. w zadaniu o dowolnej deterministycznej strukturze sieci i o dowolnych wielkościach poszczególnych parametrów). Dodatkowo w niniejszym artykule wyjaśniono, w jaki sposób powinna przebiegać komputerowa implementacja algorytmu oraz poruszono kwestie związane z efektywnością procedury. Bibliografia Anholcer, M., Gaspars-Wieloch, H., 2011, The Efficiency Analysis of the Kaufmann and Desbazeille Algorithm for the Deadline Problem, Operations Research and Decisions, 2, Wydawnictwo Politechniki Wrocławskiej, Wrocław, s. 5–18. Anholcer, M., Gaspars-Wieloch, H., 2013, Accuracy of the Kaufmann and Desbazeille Algorithm for time-cost trade-off project problems, Statistical Review, vol. 3, s. 341–358. Bell, C.E., Han, J., 1991, A New Heuristic Solution Method in Resource-Constrained Project Scheduling, Naval Research Logistics, vol. 38, s. 315–333. Bladowski, S., 1970, Metody sieciowe w planowaniu i organizacji pracy, Państwowe Wydawnictwo Ekonomiczne, Warszawa. Metoda skracania przekrojów ścieżek niedopuszczalnych sieci 45 Gaspars, H., 2006, Analiza czasowo-kosztowa (CPM-COST). Algorytm a model optymalizacyjny, Badania Operacyjne i Decyzje, nr 1, Wydawnictwo Politechniki Wrocławskiej, Wrocław, s. 5–19. Gaspars, H., 2006, Propozycja nowego algorytmu w analizie czasowo-kosztowej przedsięwzięć, Badania Operacyjne i Decyzje, nr 3–4, Wydawnictwo Politechniki Wrocławskiej, Wrocław, s. 5–27. Gaspars-Wieloch, H., 2008a, Analiza sieciowa przedsięwzięć, w: Sikora, W. (red.), Badania operacyjne, Polskie Wydawnictwo Ekonomiczne, Warszawa. Gaspars-Wieloch, H., 2008b, Przegląd modeli optymalizacyjnych stosowanych w analizie czasowo-kosztowej przedsięwzięć, w: Sikora, W. (red.), Z prac Katedry Badań Operacyjnych, Wydawnictwo Akademii Ekonomicznej w Poznaniu, Poznań. Gaspars-Wieloch, H., 2008c, Przegląd wybranych metod skracania czasu realizacji przedsięwzięcia, w: Kopańska-Bródka, D. (red.), Metody i zastosowania badań operacyjnych, Prace Naukowe Akademii Ekonomicznej w Katowicach, Wydawnictwo Akademii Ekonomicznej w Katowicach, Katowice. Gaspars-Wieloch, H., 2009, Metody optymalizacji czasowo-kosztowej przedsięwzięcia [praca doktorska], Uniwersytet Ekonomiczny w Poznaniu, Poznań. Goyal, S.K., 1975, A Note on „A simple CPM time-cost tradeoff algorithm”, Management Science, vol. 216, s. 718–722. Guzik, B., Sikora, W., 1993, Badania operacyjne i ekonometria, Akademia Ekonomiczna w Poznaniu, Poznań. Kaufmann, A., Desbazeille, G., Ventura, E., 1964, La méthode du chemin critique, Dunod, Paris. Moder, J.J., Phillips, C.R., 1964, Project Management with CPM and PERT, Reinhold Publishing Corporation, New York. Moussourakis, J., Haksever, C., 2004, Flexible Model for Time/Cost Tradeoff Problem, Journal of Construction Engineering and Management, vol. 130/3, s. 307–314. Phillips, S.J., Dessouky, M.I., 1977, Solving the Time/Cost Tradeoff Problem using the Minimum Cut Concept, Management Science, vol. 244, s. 393–400. Siemens, N., 1971, A Simple CPM Time-cost Tradeoff Algorithm, Management Science, vol. 176, s. 354–363. Sikora, W., 2012, Metoda wydłużania czynności w analizie czasowo-kosztowej przedsięwzięć, w: Sikora, W. (red.), Z prac Katedry Badań Operacyjnych, Wydawnictwo Uniwersytetu Ekonomicznego w Poznaniu, Poznań, s. 109–130. Trocki, M., Grucza, B., Ogonek, K., 2003, Zarządzanie projektami, Polskie Wydawnictwo Ekonomiczne, Warszawa. STUDIA OECONOMICA POSNANIENSIA 2013, vol. 1, no. 10 (259) Alicja Jajko-Siwek Uniwersytet Ekonomiczny w Poznaniu, Wydział Ekonomii, Katedra Statystyki i Demografii, [email protected] ZASTOSOWANIE DRZEW KLASYFIKACYJNYCH DO OCENY POZIOMU ŚWIADCZEŃ EMERYTALNYCH Z RÓŻNYCH TYPÓW SYSTEMÓW Streszczenie: Systemy emerytalne działające na świecie funkcjonują według różnorodnych rozwiązań, ale każdy system, niezależnie od kształtu, ma spełniać ten sam zasadniczy cel społeczny, polegający na zapewnieniu adekwatnych dochodów na czas po zakończeniu pracy zawodowej. Przydatne do oceny realizacji tego celu może być narzędzie data mining, jakim są drzewa klasyfikacyjne. Wykonane w opracowaniu symulacje świadczeń emerytalnych oraz ocena ich poziomu przy wykorzystaniu drzew klasyfikacyjnych pozwoliły na wskazanie zróżnicowania pomiędzy systemami DB a NDC. Ponadto za pomocą drzew klasyfikacyjnych możliwe było wskazanie czynników odgrywających najistotniejszą rolę w odniesieniu do poziomu świadczeń emerytalnych w poszczególnych analizowanych systemach. Słowa kluczowe: drzewo klasyfikacyjne, świadczenie emerytalne, system emerytalny. Klasyfikacja JEL: C14, C38, H55, J26. THE USE OF CLASSIFICATION TREES TO ASSESS THE LEVEL OF PENSION BENEFITS FROM DIFFERENT TYPES OF SYSTEM Abstract: Pension systems worldwide operate according to a variety of solutions, but every system, regardless of its type, should meet the same basic social goal, which is to provide an adequate income after retirement. Research has shown that the classification tree method is extremely useful in evaluating how to achieve this objective. This paper provides simulations of pension benefits, and by assessing their level using classification trees it enabled the identification of differences between the DB and NDC pension systems. In addition, the use of classification trees made it possible to identify the factors that play a key role with regard to the level of future retirement benefits in the systems analysed and from a notional defined contribution system. Keywords: classification tree, pension benefits, pension system. Zastosowanie drzew klasyfikacyjnych do oceny poziomu świadczeń emerytalnych 47 Wstęp Systemy emerytalne działające na świecie funkcjonują według różnych rozwiązań. Najpopularniejsze są systemy o zdefiniowanym świadczeniu (defined-benefit DB), działające w 18 państwach należących do OECD, oraz systemy o zdefiniowanej składce (defined-contribution DC), wykorzystywane w 11 państwach należących do OECD. Szczególnym rodzajem systemu DC jest system o niefinansowej zdefiniowanej składce (notional defined-contribution NDC), funkcjonujący w czterech krajach z grupy OECD [OECD 2011, s. 106], w tym obecnie w Polsce. Każdy system emerytalny, niezależnie od kształtu, ma jednak spełniać ten sam zasadniczy cel społeczny, polegający na zapewnieniu dochodu wszystkim osobom objętym tym systemem, na cały okres po zakończeniu aktywności zawodowej [Góra 2003, s. 37; European Commission 2003, s. 23]. Precyzyjniej mówiąc, oczekuje się, że emerytura powinna zapewniać adekwatne dochody na czas po zakończeniu kariery zawodowej. Adekwatność oznacza w tym wypadku dochody, które uchronią przed ubóstwem oraz umożliwią zachowanie poziomu życia sprzed emerytury [European Commission 2012, s. 3; Ratajczak-Tuchołka 2012, s. 221]. Realizacja celu społecznego nałożonego na systemy emerytalne powinna być nieustannie monitorowana i oceniana. Metodą, która może być w tym pomocna, jest analiza mikroekonomiczna świadczeń emerytalnych [Chłoń-Domińczak 2012, s. 61]. Rozwinięciem takiej analizy może być wielowymiarowa analiza dyskryminacyjna jaką są drzewa klasyfikacyjne i regresyjne, zaliczane do narzędzi data mining [Łapczyński 2003, s. 93]. Celem niniejszego artykułu jest wykazanie użyteczności metody drzew klasyfikacyjnych do oceny poziomu świadczeń emerytalnych uzyskiwanych z różnych typów systemów emerytalnych w kontekście adekwatności emerytur. Rozważania obejmują system funkcjonujący na zasadzie zdefiniowanego świadczenia i system działający na zasadzie niefinansowej zdefiniowanej składki. W pierwszej kolejności pokazano działanie drzew klasyfikacyjnych dla obydwóch systemów równocześnie. Następnie poddano ocenie świadczenia generowane przez systemy DB i NDC odrębnie. W zakończeniu zawarto najważniejsze konkluzje. 1. Metodologia W opracowaniu są analizowane świadczenia emerytalne kobiet i mężczyzn łącznie oraz w podziale na płeć. Jako przykładowy system DB przyjęto polski 48 Alicja Jajko-Siwek system emerytalny obowiązujący przed 1999 rokiem, natomiast przykład systemu NDC stanowi bazowy polski system emerytalny funkcjonujący obecnie (I i II filar). Formuła emerytalna, służąc do oszacowania świadczeń emerytalnych ze „starego” polskiego systemu (DB), została zastosowana zgodnie z zapisami ustawy o emeryturach i rentach z 1998 roku [Ustawa z 17 grudnia 1998, art. 53; UKNUiFE 2003, s. 12; Owczarek 2009, s. 3]. Do oszacowania emerytur z „nowego” systemu zastosowano formuły emerytalne zgodne z zasadami prawnymi obowiązującymi od 2013 r. [UKNUiFE 2003, s. 29–31; Jajko-Siwek 2006, s. 136–139]. Ponadto podczas obliczania poziomu świadczeń emerytalnych wykorzystano wiele wskaźników makroekonomicznych podawanych przez GUS. Zastosowano tablice trwania życia z 2011 roku [GUS 2012]. Stopę zwrotu uzyskiwaną przez OFE przyjęto na poziomie 4%. Realny wzrost wynagrodzeń założono na poziomie 2,5%. (Porównano założenia społeczno-ekonomiczne przyjęte w rządowym kalkulatorze emerytalnym http://emerytura.gov.pl/oblicz-swoja-emeryture.php [dostęp: 1.06.2013]). Przy kalkulacji poziomu emerytur uwzględniono zmiany w karierach zawodowych przyszłych beneficjentów poprzez wprowadzenie zróżnicowanego poziomu stażu ubezpieczeniowego (od 20 do 52 lat), okresów składkowych i nieskładkowych, wieku emerytalnego (od 60 do 70 lat) oraz zróżnicowanego poziomu wynagrodzenia (od 40% przeciętnego wynagrodzenia (PW) do 600% PW). Uzyskane świadczenia emerytalne zostały następnie przekształcone do postaci względnej, czyli do teoretycznej stopy zastąpienia wynagrodzenia przeciętnego świadczeniem emerytalnym, oraz do teoretycznej stopy zastąpienia wynagrodzenia indywidualnego świadczeniem emerytalnym [European Commission 2006, s. 3]. W wyniku przeprowadzonej symulacji otrzymano zbiory obiektów (stóp zastąpienia) liczące, odpowiednio, dla systemu DB: 8932 elementów oraz dla systemu NDC: 7056 elementów. Kolejny etap analizy polegał na wygenerowaniu drzew klasyfikacyjnych, które klasyfikowały oszacowane stopy zastąpienia na podstawie kryterium realizacji celu społecznego nałożonego na system emerytalny, a polegającego na dostarczeniu przyszłym emerytom adekwatnych świadczeń. Cel ten został sformalizowany poprzez założenie, że emerytury chronią przed ubóstwem w przypadku uzyskiwania przez świadczeniobiorcę emerytury wyższej niż 30% wynagrodzenia przeciętnego (stopa zastąpienia wynagrodzenia przeciętnego), oraz przyjęcie, że zachowanie poziomu życia sprzed emerytury jest możliwe w sytuacji uzyskiwania dochodu emerytalnego wynoszącego co najmniej 60% indywidualnego ostatniego wynagrodzenia (stopa zastąpienia wynagrodzenia indywidualnego) [Czepulis-Rutkowska 2000, s. 104]. Zastosowanie drzew klasyfikacyjnych do oceny poziomu świadczeń emerytalnych 49 2. Ocena świadczeń emerytalnych uzyskiwanych z systemów DB i NDC Pierwszy rozpatrywany przypadek to analiza świadczeń emerytalnych oszacowanych zarówno z systemu DB, jak i z systemu NDC, wspólnie dla kobiet i mężczyzn. Na początku rozważana jest kwestia ochrony beneficjentów przed ubóstwem. SYSTEM DB NDC OCHRONA PW ≤ 0,95 > 0,95 OCHRONA STAŻ > 41,5 ≤ 41,5 UBÓSTWO PW ≤ 0,65 UBÓSTWO > 0,65 OCHRONA Rysunek 1. Drzewo klasyfikacyjne – ochrona przed ubóstwem – emerytury z systemów DB i NDC W wyniku zastosowania drzewa klasyfikacyjnego uzyskano pięć węzłów końcowych [Gatnar 1998, s. 164], które wskazują, że chcąc uniknąć ubóstwa, trzeba postępować według jednej z następujących reguł: – uzyskiwać świadczenie emerytalne z systemu DB, – w przypadku przynależności do systemu NDC osiągać przez cały okres pracy zawodowej wynagrodzenia wyższego niż 95% płacy przeciętnej, – w sytuacji osiągania wynagrodzenia z przedziału 65–95% PW posiadać staż ubezpieczeniowy dłuższy niż 41 lat. Najważniejszą zmienną mającą znaczenie, gdy chodzi o ochronę przed ubóstwem, jest wynagrodzenie w czasie kariery zawodowej (rysunek 2). Błąd klasyfikacji wynoszący 4,46% wszystkich analizowanych obiektów potwierdza poprawność przeprowadzonej klasyfikacji [Gatnar 2001, s. 92]. 50 ważność Alicja Jajko-Siwek 1,1 1,0 0,9 0,8 0,7 0,6 0,5 0,4 0,3 0,2 0,1 0,0 PW staż system wiek płeć Rysunek 2. Ranking ważności – ochrona przed ubóstwem – emerytury z systemów DB i NDC W drugim wypadku jest analizowana możliwość zachowania poziomu życia sprzed emerytury przez przyszłego emeryta, kobietę lub mężczyznę należących do systemu DB albo NDC. SYSTEM DB NDC PW ≤ 1,125 SPADEK > 1,125 STAŻ STAŻ ≤ 19,5 > 19,5 ≤ 31,5 > 31,5 PW BEZ ZMIAN SPADEK PW > 2,25 ≤ 0,65 > 0,65 BEZ ZMIAN SPADEK ≤ 2,25 BEZ ZMIAN SPADEK Rysunek 3. Drzewo klasyfikacyjne – zachowanie standardu życia – emerytury z systemów DB i NDC W tym badaniu uzyskano siedem węzłów końcowych, które wskazują, że chcąc zachować standard życia sprzed emerytury, należy postępować według następujących reguł: Zastosowanie drzew klasyfikacyjnych do oceny poziomu świadczeń emerytalnych 51 ważność – uzyskiwać świadczenie emerytalne z systemu DB i osiągać w czasie pracy zawodowej wynagrodzenie niższe niż 65% PW oraz mieć staż ubezpieczeniowy (łącznie lata składkowe i nieskładkowe) równy co najwyżej 19,5 roku, – jeżeli wynagrodzenie stanowi od 65 do 112,5% PW, staż ubezpieczeniowy powinien być dłuższy niż 19,5 roku, – w przypadku wynagrodzenia przeciętnego z przedziału 112,5–225% PW, staż powinien być co najmniej 32-letni. Warto zauważyć, że w przypadku przynależności emeryta do systemu o charakterze NDC zachowanie przez niego poziomu życia sprzed emerytury okazuje się niemożliwe. Wyniki te potwierdzają przekonanie, że polski „stary” system emerytalny był zbyt „hojny”, i wskazują, że w systemie NDC, w części obowiązkowej, nastąpi znaczne obniżenie wymiaru świadczeń, które powinno zostać przez przyszłych emerytów zrekompensowane uczestnictwem w dodatkowych, dobrowolnych formach oszczędzania na czas emerytury [Fornero 2008, s. 1]. Uzyskane rezultaty wskazują także, że dla osób funkcjonujących w systemie o charakterze DB zbyt wysokie wynagrodzenie skutkuje uzyskaniem emerytury niegwarantującej zachowanie poziomu życia sprzed emerytury. Wynika to z występowania w systemie DB redystrybucji od osób lepiej zarabiających do gorzej zarabiających oraz od osób z dłuższym stażem ubezpieczeniowym do osób z krótszymi okresami składkowymi [Rutecka 2012, s. 229]. Najważniejszą zmienną, która wpływa na utrzymanie standardu życia sprzed emerytury, jest, podobnie jak w przypadku ochrony przed ubóstwem, wynagrodzenie. W tym wypadku wzrasta znaczenie stażu ubezpieczeniowego (rysunek 4). Błąd klasyfikacji wynoszący 4,28% analizowanych obiektów wskazuje na poprawność klasyfikacji. 1,1 1,0 0,9 0,8 0,7 0,6 0,5 0,4 0,3 0,2 0,1 0,0 PW staż system wiek płeć Rysunek 4. Ranking ważności – zachowanie standardu życia – emerytury z systemów DB i NDC 52 Alicja Jajko-Siwek W dalszej analizie adekwatności emerytur, gdy chodzi o ochronę przed ubóstwem, uwzględniono podział na płeć. Związane jest z to z tym, że świadczenia kobiet mogą się różnić znacząco od świadczeń uzyskiwanych przez mężczyzn [European Commission 2008, s. 97]. Sytuacja taka jest wówczas, gdy w kalkulacji świadczeń z II filara uwzględnimy dalsze przeciętne trwanie życia według płci. SYSTEM DB NDC OCHRONA PW ≤ 1,125 > 1,125 OCHRONA PW > 0,85 ≤ 0,85 UBÓSTWO STAŻ ≤ 36,5 UBÓSTWO > 36,5 OCHRONA Rysunek 5. Drzewo klasyfikacyjne – ochrona przed ubóstwem: kobiety – emerytury z systemów DB i NDC W wyniku przeprowadzonej analizy wygenerowano pięć węzłów końcowych. Wynika z nich, że chcąc uniknąć ubóstwa, kobieta, przyszła beneficjentka systemu emerytalnego, powinna postępować według jednej z następujących reguł: – odkładać składki do systemu DB, – w przypadku przynależności do systemu NDC osiągać wynagrodzenie wyższe niż 112,5% przeciętnej płacy, – jeżeli uzyskuje wynagrodzenie z przedziału 85–112,5% PW, posiadać staż ubezpieczeniowy dłuższy niż 36 lat. Uzyskane wyniki wskazują, że wymagania dla kobiet – chcących zapewnić sobie na emeryturze ochronę prze ubóstwem – są wyższe niż dla całej populacji. Najważniejszą zmienną, gdy chodzi o ochronę przed ubóstwem, jest w sytuacji kobiet, podobnie jak dla całej rozpatrywanej zbiorowości, wynagrodzenie. Błąd klasyfikacji na poziomie 4,13% obiektów wskazuje na dostateczną precyzję klasyfikacji. ważność Zastosowanie drzew klasyfikacyjnych do oceny poziomu świadczeń emerytalnych 1,0 0,9 0,8 0,7 0,6 0,5 0,4 0,3 0,2 0,1 0,0 PW staż wiek 53 system Rysunek 6. Ranking ważności – ochrona przed ubóstwem: kobiety – emerytury z systemów DB i NDC Rozważając to samo zagadnienie w odniesieniu do mężczyzn, uzyskano drzewo klasyfikacyjne z pięcioma węzłami końcowymi, według których, podobnie jak w przypadku kobiet, wskazane jest odkładanie przez mężczyzn składki do systemu DB. W przypadku oszczędzania na emeryturę w systemie NDC wymagania w zakresie wynagrodzenia są dla mężczyzn niższe: do ich ochrony przed ubóstwem na emeryturze wystarczy, by w czasie pracy zawodowej osiągali płacę stanowiącą co najmniej 85% PW. Płaca niższa, z zakresu 65–85% PW, wskazuje na konieczność uzyskania przez mężczyznę stażu ubezpieczeniowego nie krótszego niż 41-letni. SYSTEM NDC DB OCHRONA PW > 0,85 ≤ 0,85 OCHRONA PW > 0,65 ≤ 0,65 UBÓSTWO STAŻ ≤ 40,5 UBÓSTWO > 40,5 OCHRONA Rysunek 7. Drzewo klasyfikacyjne – ochrona przed ubóstwem: mężczyźni – emerytury z systemów DB i NDC 54 ważność Alicja Jajko-Siwek 1,1 1,0 0,9 0,8 0,7 0,6 0,5 0,4 0,3 0,2 0,1 0,0 staż PW system wiek Rysunek 8. Ranking ważności – ochrona przed ubóstwem: mężczyźni – emerytury z systemów DB i NDC Najważniejszymi zmiennymi do ochrony przed ubóstwem są dla mężczyzn staż w systemie emerytalnym oraz wynagrodzenie. Błąd klasyfikacji wynosi tylko 2,30% analizowanych obiektów. PW ≤ 1,125 > 1,125 STAŻ ≤ 19,5 STAŻ > 19,5 PW ≤ 0,65 BZ ≤ 31,5 STAŻ > 0,65 ≤ 23,5 ≤ 0,85 BZ STAŻ PW > 23,5 ≤ 26,5 > 26,5 BZ SPADEK PW PW SPADEK > 31,5 > 0,85 SPADEK ≤ 1,75 BZ ≤ 2,25 > 2,25 BZ > 1,75 SPADEK Rysunek 9. Drzewo klasyfikacyjne – zachowanie standardu życia – emerytury z systemu DB SPADEK Zastosowanie drzew klasyfikacyjnych do oceny poziomu świadczeń emerytalnych 55 Analizy przeprowadzone dla zagadnienia zachowania standardu życia sprzed emerytury przeprowadzone rozłącznie dla płci dały takie same rezultaty jak badania dla kobiet i mężczyzn łącznie. Dalsze rozważania dotyczą problemu adekwatności świadczeń emerytalnych oddzielnie w systemach DB i NDC. Rozpatrując świadczenia emerytalne generowane wyłącznie przez system o zdefiniowanym świadczeniu, uzyskujemy wyniki wskazujące, że ochrona przed ubóstwem jest zapewniona uczestnikom tego systemu niezależnie od ich płci, wynagrodzeń i karier zawodowych. W związku z tym zasadne jest poddać dokładniejszej analizie poziom stóp zastąpienia oszacowanych dla systemu DB jedynie w kontekście zapewnienia przez świadczenia zachowania standardu życia sprzed emerytury. Formuła emerytalna stosowana w „starym” polskim systemie DB nie różnicowała świadczeń ze względu na płeć, z tego względu emerytury kobiet i mężczyzn są rozpatrywane łącznie. Wygenerowane drzewo klasyfikacyjne ma dziesięć węzłów końcowych. Stąd wynika, że chcąc zachować poziom życia sprzed emerytury, trzeba realizować następujący scenariusz w trakcie pracy zawodowej: – wynagrodzenie (112,5, 225% PW i staż > 31 lat, – wynagrodzenie (112,5, 175% PW i staż (26, 31 lat, – wynagrodzenie < 112,5% PW i staż > 23 lata, – wynagrodzenie < 85% PW i staż (19, 23 lat, – wynagrodzenie < 65% PW i staż < 19 lat. Powyższe wyniki potwierdzają zasygnalizowane wcześniej zjawisko redystrybucji w systemie DB. Osoby uzyskujące wyższe wynagrodzenia w celu zachowania swojego dotychczasowego standardu życia na emeryturze powinny wykazać się dłuższym stażem w systemie niż osoby z niższymi wynagrodzeniami. 1,2 1,0 ważność 0,8 0,6 0,4 0,2 0,0 PW staż wiek płeć Rysunek 10. Ranking ważności – zachowanie standardu życia – emerytury z systemu DB > 66,5 UBÓSTWO OCHRONA ≤ 66,5 WIEK > 0,85 UBÓSTWO ≤ 0,65 > 41,5 WIEK > 65,5 > 0,65 UBÓSTWO OCHRONA ≤ 65,5 PW UBÓSTWO ≤ 32,5 > 0,95 ≤ 1,125 WIEK > 32,5 > 63,5 PW UBÓSTWO OCHRONA ≤ 63,5 STAŻ Rysunek 11. Drzewo klasyfikacyjne – ochrona przed ubóstwem – emerytury z systemu NDC UBÓSTWO ≤ 0,85 PW ≤ 41,5 STAŻ ≤ 0,95 PW OCHRONA > 1,125 Zastosowanie drzew klasyfikacyjnych do oceny poziomu świadczeń emerytalnych 57 ważność Metoda kalkulacji świadczeń w systemie o zdefiniowanym świadczeniu ułatwia zrekompensowanie dotychczasowych dochodów poprzez emeryturę osobom, które wniosły do systemu mniejszy wkład w postaci składek. Najważniejszą zmienną w tej analizie jest wynagrodzenie, a w drugiej kolejności staż ubezpieczeniowy. Błąd klasyfikacji stanowi 4,84% analizowanych jednostek. W przypadku przynależności przyszłego emeryta do systemu NDC – wykorzystując metodę drzew klasyfikacyjnych – okazuje się, że zachowanie przez uczestnika systemu wcześniejszego standardu życia nie jest możliwe. W związku z tym szczegółowemu dalszemu badaniu podlega tylko kwestia zapewnienia emerytom ochrony przed ubóstwem. Pomimo że w systemie NDC świadczenia kobiet i mężczyzn są zróżnicowane, w celu spójności porównania rozłącznych analiz świadczeń z systemów DB i NDC przyjęto w tym wypadku wspólnie świadczenia kobiet i mężczyzn. Otrzymano drzewo klasyfikacyjne składające się z dziesięciu węzłów końcowych. Pokazują one, że zapewnienie sobie ochrony przed ubóstwem jest możliwe w efekcie realizacji następujących założeń: – wynagrodzenie >112,5% PW, – wynagrodzenie (95, 112,5% PW, staż > 32 lat i wiek > 63 lata, – wynagrodzenie (85, 95% PW, staż < 41 lat i wiek > 66 lat. – wynagrodzenie (65, 95% PW, staż > 41 lat i wiek > 65 lat. W systemie NDC rośnie znaczenie wieku przejścia na emeryturę. Wiąże się to ze znacznym przyrostem wysokości świadczenia emerytalnego z każdym dodatkowym rokiem pracy zawodowej (skumulowany zostaje większy kapitał emerytalny i równocześnie świadczenie jest wyliczane na krótszy czas 1,1 1,0 0,9 0,8 0,7 0,6 0,5 0,4 0,3 0,2 0,1 0,0 wiek PW staż płeć Rysunek 12. Ranking ważności – ochrona przed ubóstwem – emerytury z systemu NDC 58 Alicja Jajko-Siwek dalszego przeciętnego trwania życia). Duże znaczenie ma nadal wynagrodzenie, jednakże niedostatki w jego zakresie mogą być zrekompensowane wydłużeniem stażu ubezpieczeniowego lub podniesieniem wieku emerytalnego. Błąd klasyfikacji wynosi w tym wypadku 6,54% analizowanych obiektów. Podsumowanie Wykonane symulacje świadczeń emerytalnych oraz ocena ich poziomu przy wykorzystaniu drzew klasyfikacyjnych pozwoliły na wygenerowania zwartego zbioru reguł postępowania, które gwarantują uzyskanie przez przyszłych emerytów odpowiednio wysokich świadczeń z różnych typów systemów emerytalnych (tabela). Uzyskane reguły klasyfikacyjne wykazały zasadnicze zróżnicowanie pomiędzy świadczeniami uzyskiwanymi z różnych typów systemów emerytalnych. Świadczenia uzyskiwane z systemu DB są wyższe od generowanych przez system NDC. „Nie można jednak wysnuwać z tego powodu wniosków na temat wyższości starego systemu emerytalnego nad nowym, gdyż lepsze wyniki starego systemu wiążą się po prostu z jego większym niezbilansowaniem – dlatego konsekwencją jego utrzymania w przyszłości nie byłyby wyższe emerytury, ale jedynie krach finansów publicznych” [UKNUiFE 2003, s. 45]. Można jednak zdecydowanie powiedzieć, że zróżnicowanie świadczeń emerytalnych, szacowanych według zasad z różnych typów systemów emerytalnych, zostało bardzo dobrze rozpoznane przy użyciu metody drzew klasyfikacyjnych. Ponadto metoda ta sprawdza się przy ocenie uprawnień emerytalnych uzyskiwanych zarówno z sytemu DB, jak i NDC. Przeprowadzone analizy wykazały także występowanie redystrybucji w systemie emerytalnym typu DB oraz pokazały, że nastąpi obniżenie stopy zastąpienia w wyniku wprowadzenia systemu o charakterze NDC. Co więcej, umożliwiły identyfikację czynników odgrywających najistotniejszą rolę, gdy chodzi o poziom świadczeń emerytalnych w poszczególnych analizowanych systemach. Wykonane badania dały także wskazówki, jaki poziom czynników jest istotny z punktu widzenia przyszłego emeryta, jeżeli chciałby on osiągnąć adekwatne świadczenie emerytalne. Można powiedzieć, że drzewa klasyfikacyjne są w stanie pełnić rolę narzędzia służącego do oceny emerytur generowanych przez rożne systemy emerytalne. Wskazane jest dalsze stosowanie drzew klasyfikacyjnych do analizowania świadczeń emerytalnych kalkulowanych według różnorodnych aktuarialnych formuł emerytalnych w ramach tych samych systemów oraz poszukiwanie Zastosowanie drzew klasyfikacyjnych do oceny poziomu świadczeń emerytalnych 59 Zestawienie reguł uzyskanych dzięki działaniu drzew klasyfikacyjnych System Płeć Zagadnienie K i M ochrona DB i NDC Reguły – przynależność do systemu DB – wynagrodzenie wyższe niż 0,95 płacy przeciętnej – wynagrodzenie wyższe niż 0,65 PW i staż > 41 lat – przynależność do systemu DB, wynagrodzenie ≤ 0,65 i staż ≤ 19,5 roku – przynależność do systemu DB K i M standard życia wynagrodzenie 0,65, 1,25 i staż > 19,5 roku – przynależność do systemu DB wynagrodzenie (1,125, 2,25 i staż > 31,5 roku K ochrona – przynależność do systemu DB – wynagrodzenie wyższe niż 1,125 płacy przeciętnej – wynagrodzenie (0,85, 1,125 i staż > 36 lat standard życia tak jak w przypadku K i M razem M ochrona – przynależność do systemu DB – wynagrodzenie wyższe niż 0,85 płacy przeciętnej – wynagrodzenie (0,65, 0,85 i staż > 40 lat standard życia tak jak w przypadku K i M razem ochrona DB NDC K i M K i M zawsze ochrona – wynagrodzenie (1,125, 2,25 i staż > 31 lat – wynagrodzenie (1,125, 1,75 i staż (26, 31 standard życia – wynagrodzenie <1,125 i staż > 23 lata – wynagrodzenie <0,85 i staż (19, 23 – wynagrodzenie <0,65 i staż < 19 lat ochrona – wynagrodzenie >1,125 – wynagrodzenie (0,95, 1,125, staż > 32 lat i wiek > 63 lata – wynagrodzenie (0,65, 0,95, staż > 41 lat i wiek > 65 lat – wynagrodzenie (0,85, 0,95, staż < 41 lat i wiek > 66 lat standard życia zawsze spadek w tym zakresie rozwiązań optymalnych, biorąc pod uwagę adekwatność świadczeń i stabilność finansową systemu. Uzasadnione jest również rozbudowywanie modelu służącego do oszacowania emerytur, poprzez wprowadzanie do niego nowych czynników, takich jak zmiany długości dalszego przeciętnego trwania życia, większe zróżnicowanie w zakresie karier zawodowych związane z konsekwencjami przebywania na urlopach rodzicielskich i korzystaniem z różnych form zatrudnienia. 60 Alicja Jajko-Siwek Bibliografia Chłoń-Domińczak, A., 2012, Potrzeba prowadzenia długookresowych prognoz w systemach emerytalnych, Roczniki Kolegium Analiz Ekonomicznych, vol. 28, s. 35–64. Czepulis-Rutkowska, Z., 2000, Systemy emerytalne a poziom zabezpieczenia materialnego emerytów, IPiSS, Warszawa. European Commission, 2003, Joint Report by the Commission and the Council on Adequate and Sustainable Pensions, European Commission, Brussels. European Commission, 2006, Current and Prospective Theoretical Pension Replacement Rates, European Commission, Brussels. European Commission, 2008, The Life of Women and Men in Europe, 2008: A Statistical Portrait, European Commission, Brussels. European Commission, 2012, An Agenda for Adequate Safe and Sustainable Pensions. White Paper, European Commission, Brussels. Fornero, E., 2008, Gender Difference in Retirement Income and Pension Policy – Simulating the Effects of Various DB and DC Schemes, CEPS, Brussels. Gatnar, E., 1998, Symboliczne metody klasyfikacji danych, Wydawnictwo Naukowe PWN, Warszawa. Gatnar, E., 2001, Nieparametryczna metoda dyskryminacji i regresji, Wydawnictwo Naukowe PWN, Warszawa. Góra, M., 2003, System emerytalny, PWE, Warszawa. GUS, 2012, Trwanie życia w 2011 r., Warszawa. Jajko-Siwek, A., 2006, Metoda kalkulacji świadczeń emerytalnych w Polsce, w: Roeske-Słomka, I. (red.), Prace statystyczne i demograficzne, Wydawnictwo Uniwersytetu Ekonomicznego w Poznaniu, Poznań. Łapczyński, M., 2003, Drzewa klasyfikacyjne w badaniach satysfakcji i lojalności klientów, w: Analiza satysfakcji i lojalności klientów, Materiały szkoleniowe firmy StatSoft, Warszawa–Kraków, s. 93–102. OECD, 2011, Pensions at a Glance 2011: Retirement-Income Systems in OECD and G20 Countries, Paris. Owczarek, J., 2009, Redystrybucyjność bazowego systemu emerytalnego w Polsce, Rozprawy Ubezpieczeniowe, vol. 7, s. 105–126. Ratajczak-Tucholka, J., 2012, Solidarność w kontekście zmian bazowego systemu emerytalnego w Polsce w latach 1999–2011, Ruch Prawniczy, Ekonomiczny i Socjologiczny, vol. 74, s. 217–235. Rutecka, J., 2012, Zakres redystrybucji dochodowej w ubezpieczeniowym systemie emerytalnym, Oficyna Wydawnicza – Szkoła Główna Handlowa, Warszawa. UKNUiFE, 2003, Wysokość emerytur w nowym systemie ubezpieczeń społecznych, Urząd Kontroli i Nadzoru Ubezpieczeń i Funduszy Emerytalnych, Warszawa. Ustawa z dnia 17 grudnia 1998 r. o emeryturach i rentach z FUS. STUDIA OECONOMICA POSNANIENSIA 2013, vol. 1, no. 10 (259) Michał Konopczyński Uniwersytet Ekonomiczny w Poznaniu, Wydział Informatyki i Gospodarki Elektronicznej, Katedra Ekonomii Matematycznej, [email protected] SUBOPTYMALNA RÓWNOWAGA RYNKOWA W MAŁEJ GOSPODARCE OTWARTEJ W WARUNKACH DOSKONAŁEJ MOBILNOŚCI KAPITAŁU Streszczenie: Przedstawiamy model wzrostu AK opisujący gospodarkę prywatną (bez wyróżnionego sektora publicznego) w warunkach doskonałej mobilności kapitału. Badamy własności gospodarki zdecentralizowanej (wolnorynkowej), w której wszystkie podmioty (konsumenci, producenci) działają wyłącznie w swoim indywidualnym interesie – podejmują takie decyzje, aby maksymalizować własny dobrobyt. Rozwiązujemy w tym celu odpowiednie zadanie sterowania optymalnego, a następnie wyznaczamy równowagę rynkową. Ze względu na pozytywne efekty zewnętrzne akumulacji kapitału, których pojedyncze podmioty nie uwzględniają, równowaga w gospodarce zdecentralizowanej jest suboptymalna. Dowodzimy tego, rozwiązując analogiczne zadanie optymalizacyjne uwzględniające całą wiedzę o gospodarce – w tym efekty zewnętrzne (zadanie tzw. centralnego planisty) – i porównując poziom dobrobytu w obu sytuacjach. Słowa kluczowe: model AK, wzrost gospodarczy, doskonała mobilność kapitału, efekty zewnętrzne, równowaga suboptymalna. Klasyfikacja JEL: D62, D9, F43, O4. SUBOPTIMAL MARKET EQUILIBRIUM IN A SMALL OPEN ECONOMY IN CONDITIONS OF PERFECT CAPITAL MOBILITY Abstract: We present the AK open-economy growth model describing a private sector economy (without an explicit public sector) in conditions of perfect capital mobility where agents may invest abroad or borrow any amount of capital at a fixed interest rate. We investigate the properties of a decentralized (free market) economy, where all the stakeholders (consumers and producers) pursue their individual interests; they take decisions to maximize their own benefits. For this purpose the optimal control is established, and then the market equilibrium 62 Michał Konopczyński determined. Due to the positive external effects of capital accumulation, which does not take into account the individual actors, a decentralized, free-market equilibrium is suboptimal. This proposition is mathematically proved by solving the analogous optimization problem which incorporates all the knowledge about an economy, including externalities (the so-called ‘central planner’ approach), and comparing the level of prosperity in both situations. Keywords: AK model, economic growth, perfect capital mobility, external effects, suboptimal equilibrium. Wstęp Teoria endogenicznego wzrostu gospodarczego, zainicjowana artykułem Romera [1986], rozwinęła się w jeden z obszerniejszych nurtów teorii ekonomii. W jej ramach są konstruowane różnorodne teoretyczne modele równowagi i wzrostu, których wspólną cechą są fundamenty mikroekonomiczne (microfoundations). Gospodarka jest w nich zbiorem optymalnie postępujących podmiotów – na ogół producentów maksymalizujących zyski oraz konsumentów, którzy dążą do osiągnięcia maksymalnej użyteczności. Przy odpowiednich założeniach dotyczących technologii oraz preferencji konsumentów w modelach tych istnieje równowaga rynkowa, charakteryzująca się pewną stopą wzrostu. Następnie bada się zależność owego tempa od przyjętych założeń na przykład od parametrów modelu. Bardzo obszerny i – naszym zdaniem – reprezentatywny przegląd współczesnej teorii endogenicznego wzrostu przedstawia Acemoglu [2008] w liczącej aż 1200 stron monografii. Symptomatyczne jest, że aż 20 z 24 rozdziałów dotyczy w całości gospodarki zamkniętej, a w zaledwie 4 rozdziałach są poruszane jakiekolwiek zagadnienia związane z otwartością gospodarki. Jest to typowe dla teorii wzrostu – zdecydowana większość prac teoretycznych ogranicza się do gospodarki zamkniętej, a więc całkowicie pomijane są takie zagadnienia, jak zadłużenie zagraniczne, międzynarodowe transfery kapitału, inwestycje zagraniczne, handel międzynarodowy, (nie)równowaga bilansu płatniczego itp. W XXI wieku, szczególnie z punktu widzenia zjednoczonej Europy, takie podejście jest nie do przyjęcia, co zauważa coraz liczniejsza grupa badaczy. Wśród nich wyróżnia się Turnovsky, który wiele publikacji poświęcił gospodarce otwartej. W niedawno wydanej monografii Turnovsky [2009] przedstawia kilka wersji modelu małej gospodarki otwartej, z konsumentami maksymalizującymi użyteczność strumienia konsumpcji w sposób „Ramseyowski”, przy czym zarówno sektor publiczny, jak i prywatny mogą się zadłużać i inwestować za granicą. Modele wzrostu gospodarki otwartej Suboptymalna równowaga rynkowa w małej gospodarce otwartej 63 są przedstawiane również w wielu innych publikacjach, z najwcześniejszych warto wymienić prace Nielsena i Sorensena [1991], Rebelo [1992], Razina i Yuena [1994], a z późniejszych Heijdra i Rompa [2009] oraz Fishera [2010]. W tej pracy przedstawiamy model prywatnej gospodarki otwartej (bez wyróżnionego sektora publicznego) będący pewną modyfikacją jednego z modeli Turnovsky’ego [2009]. Preferencje konsumentów definiujemy w nieco odmienny sposób, który przybliża model, w gruncie rzeczy Ramseyowski, do modeli tzw. nakładających się pokoleń. Przyjmujemy też nieco odmienny opis technologii – zagregowaną funkcję produkcji typu AK. Modyfikacje te wpływają na wnioski jakościowe i ilościowe z modelu. 1. Podstawowe założenia Liczba ludności kraju rośnie wykładniczo, ze stałą (egzogeniczną) stopą wzrostu n: L = L0ent, (1) Realną produkcję per capita opisuje funkcja produkcji Cobba-Douglasa z tzw. zerowymi korzyściami skali: y ak α (el )β, α + β =1, α, β > 0, a > 0, (2) gdzie k oznacza zasób kapitału na osobę, a l [0,1] jest wskaźnikiem podaży pracy. Współczynnik e > 0 odzwierciedla indywidualną (przeciętną) wydajność pracy. Zakładamy, że jest ona proporcjonalna do ilości kapitału per capita: e x K L xk, x = const > 0. (3) Mimo zaskakującej prostoty, założenie to ma solidne uzasadnienie w pracach empirycznych (zob. [Barro i Sala-i-Martin 1995]). Mnożąc (2) obustronnie przez L, dostajemy realną produkcję całej gospodarki: Y Ly a(Lk )α (elL)β aK α (elL)β, (4) gdzie K oraz L oznaczają zagregowane zasoby kapitału produkcyjnego i pracy w kraju. Z matematycznego punktu widzenia funkcje produkcji (2) i (4) są identyczne, zatem gospodarkę jako całość można analizować w taki sposób, 64 Michał Konopczyński jakby to była pojedyncza „firma”, której produkcja jest opisana funkcją (2). Uwzględniając (3) i (4), funkcję produkcji (2) można zapisać w postaci: y ak α (el )β ak α ( xkl )β Ak, (5) gdzie A a(xl )β const ! 0 . Popyt na kapitał i pracę wynika z racjonalnych decyzji podejmowanych przez firmy starające się maksymalizować zyski. Zakładamy, że na rynkach czynników produkcji panuje konkurencja doskonała, a zatem pojedyncza firma traktuje ceny jako wielkości „narzucone” przez rynek. Niech wK oznacza realną cenę wynajmu jednostki kapitału, a w realną stawkę płacy. W takim razie każda firma (oraz cała gospodarka) zatrudnia pracowników i wynajmuje kapitał w taki sposób, że stawki płac są równe krańcowym produktywnościom tych czynników, czyli: MPK wy wk MPL αakα1(el )β wy wl αy αA wK , k βy l βak α (el )β1 (6) w. (7) Ludność czerpie „zadowolenie z życia” z dwóch źródeł: konsumpcji oraz czasu wolnego (czasu niepoświęconego na pracę), który utożsamiamy z liczbą 1 l . Poziom szczęścia reprezentatywnego gospodarstwa domowego w danym momencie opisuje tzw. funkcja chwilowej użyteczności (instantaneous utility function): u(t ) γ 1 ct (1 l )θ , γ < 0, θ > 0, γ (8) gdzie ct oznacza konsumpcję per capita, a θ wyraża elastyczność substytucji czasu wolnego przez konsumpcję. Ułamek γ/(1 – γ) jest równy międzyokresowej elastyczności substytucji. Przyjęte założenia gwarantują wklęsłość funkcji u(t) względem ct i 1 l . Poziom szczęścia wynikającego z obecnej i przyszłej konsumpcji oraz czasu wolnego opisuje następujący funkcjonał (tzw. międzyokresowa funkcja użyteczności): f U ³ 0 f u(t )e ( ρn)t dt 1 γ ( ρ n)t θ dt , ³ γ ct (1 l ) e 0 ρ > n; (9) Suboptymalna równowaga rynkowa w małej gospodarce otwartej 65 ρ > 0 oznacza subiektywną stopę dyskonta (przyszłej konsumpcji). Wyjaśnienia wymaga nietypowa, rzadko spotykana w literaturze, stopa efektywnego dyskonta równa ρ – n, którą przyjęliśmy wzorem Acemoglu [2008, s. 310]. Gospodarstwa domowe czerpią użyteczność zarówno z własnej konsumpcji i czasu wolnego, jak i z konsumpcji i czasu wolnego swoich przyszłych członków (dzieci, wnuków itd.), których liczba rośnie ze stopą n. Zatem im wyższą stopą wzrostu populacji n charakteryzuje się dany kraj, tym mniejsza jest efektywna stopa dyskonta, bo liczebność dzieci, wnuków itd., które będą konsumowały, jest większa. Mówiąc nieco bardziej intuicyjnie – im więcej dzieci, tym bardziej cenimy sobie przyszłą konsumpcję. Założenie to przybliża nieco Ramseyowską teorię wzrostu do teorii opartej na modelu tzw. nakładających się pokoleń. Zakładamy, że ρ > n. W przeciwnym razie całka występująca w (9) nie byłaby zbieżna i niemożliwe byłoby rozwiązanie jakiegokolwiek zadania maksymalizacji U. Proces akumulacji kapitału (per capita) jest opisany w standardowy sposób: k i (n δ )k, (10) gdzie δ > 0 oznacza tempo deprecjacji kapitału. Inwestycje obarczone są tzw. kosztami dostosowania (adjustment cost) [Hayashi 1982]. Aby (w ujęciu per capita) zrealizować inwestycje netto równe i, trzeba ponieść odpowiednio większe nakłady równe § χ i· ϕ(i , k ) i ¨ 1 ¸, χ > 0. © 2 k¹ (11) Zakładamy doskonałą mobilność kapitału, co oznacza, że sektor prywatny ma możliwość pożyczania oraz lokowania dowolnych kwot za granicą na stałą (a przynajmniej egzogenicznie daną) stopę procentową r. Sektor prywatny czerpie dochody w formie wynagrodzenia pracy i kapitału oraz odsetek od posiadanych aktywów zagranicznych B (umownie zwanych obligacjami): Yd wlL w K K rB, (12) wl w K k rb. (13) czyli w przeliczeniu na osobę yd Dochody te służą konsumpcji i inwestycjom, a ewentualna nadwyżka jest lokowana w obligacjach zagranicznych. Naturalnie nadwyżka ta również może 66 Michał Konopczyński być ujemna, co oznacza konieczność redukcji salda obligacji zagranicznych (lub nawet zadłużenia się). Równanie budżetowe ma więc postać: B wlL wK K C Φ( I , K ) rB, (14) czyli w ujęciu per capita: § χ i· b wl w K k c i ¨ 1 ¸ (r n)b. © 2 k¹ (15) Ze względu na (6) i (7) dochody z pracy i kapitału są łącznie równe produkcji. Zatem (15) można zapisać w postaci: b § χ i· y c i ¨ 1 ¸ (r n)b. © 2 k¹ (16) Warto podkreślić, że równanie budżetowe (16) w pełni uświadamia sobie centralny planista, ale nie przeciętny Kowalski. Dlatego podejmując decyzje, które za chwilę opiszemy za pomocą zadań sterowania optymalnego, Kowalski posługuje się formułą (15), traktując przy tym stawki płac w i wK jako wielkości dane (egzogeniczne). Natomiast centralny planista wie o gospodarce wszystko, dlatego posługuje się równaniem budżetowym (16). 2. Gospodarka zdecentralizowana (Kowalscy) Sektor prywatny ustala wielkość konsumpcji i inwestycji tak, aby osiągnąć jak najwyższy poziom użyteczności opisanej przez U. Ów problem decyzyjny wygodnie zapisać za pomocą zadania sterowania optymalnego: f γ 1 °max ct (1 l )θ e ( ρn)t dt , γ ° 0 ° (17) § χ i· ° ®b wl w K k c i ¨ 1 ¸ (r n)b, © 2 k¹ ° °k i (n δ )k . ° ° ¯ Zmienne sterujące: ct , it. Zmienne stanu: bt , kt (i pośrednio yt). Wielkości traktowane jako egzogeniczne: w, wK. Dane są początkowe wartości zmiennych stanu: b(t = 0) = b0, k(t = 0) = k0 > 0. Zapiszmy hamiltonian wartości bieżącej: ³ Suboptymalna równowaga rynkowa w małej gospodarce otwartej Hc 1 c(1 l )θ γ γ 67 ª º § χ i· λ1 «wl w K k c i ¨ 1 ¸ (r n)b » λ2 ª¬i (n δ )k º¼ . (18) © 2 k¹ ¬ ¼ Jak widać, zmienna λ1 jest ceną dualną bogactwa ulokowanego w obligacje zagraniczne b. Analogicznie, λ2 jest ceną dualną kapitału k. Dla wygody będziemy używać również ilorazu tych cen: q = λ2/λ1, który można interpretować jako rynkową cenę kapitału w stosunku do rynkowej ceny obligacji zagranicznych. Rozwiązanie optymalne zadania (17) musi spełniać następujące warunki: t wH c wc 0. (19a) t wH c wi 0. (19b) λ1 wH c λ1( ρ n). wb (19c) λ2 wH c λ2 ( ρ n). wk (19d) lim e ( ρn)t λ1(t ) b (t ) 0. (19e) lim e ( ρn)t λ2 (t ) k (t ) 0. (19f) t of t of Warunek (19a) ma postać: λ1 (1 l )θγ c γ 1, (20) co oznacza, że cena dualna bogactwa (w formie obligacji) musi być dla każdego t równa marginalnej użyteczności konsumpcji. Różniczkując to równanie względem t, po przekształceniach otrzymujemy: λ1 c (γ 1) . (21) λ1 c 68 Michał Konopczyński Natomiast (19c) można zapisać w postaci: λ1 λ1 ρ r. (22) Podstawiając (22) do (21), wyznaczamy stopę wzrostu konsumpcji, którą dla wygody będziemy oznaczać symbolem ψ: ψ c c r ρ . 1γ (23) Zauważmy, że rozwiązanie optymalne charakteryzuje się stałą stopą wzrostu konsumpcji, która zależy wyłącznie od parametrów opisujących preferencje konsumentów oraz od stopy procentowej r. Dokładniej mówiąc, stopa wzrostu konsumpcji jest proporcjonalna do różnicy między stopą oprocentowania obligacji zagranicznych oraz stopą dyskonta ρ. Optymalna trajektoria konsumpcji ma postać: c(t ) c(0) e ψt, (24) czyli konsumpcja całkowita w kraju kształtuje się zgodnie z równaniem C(t ) C(0) e(ψ n)t. (25) Warunek (19b) można zapisać w postaci q λ2 λ1 i 1 χ . k (26) Dzieląc (11) obustronnie przez k i uwzględniając (26), dostajemy stopę wzrostu kapitału, którą dla wygody oznaczać będziemy symbolem ϕ: ϕ kˆ q 1 (n δ ). χ (27) Warto podkreślić, że w odróżnieniu od tempa wzrostu konsumpcji, stopa wzrostu kapitału nie jest wielkością stałą, gdyż jest powiązana z trajektorią q(t). Zatem trajektorię kapitału można zapisać jedynie w bardzo ogólnej (całkowej) postaci: t ³ ϕ(s )ds k(t ) k0 e0 . (28) 69 Suboptymalna równowaga rynkowa w małej gospodarce otwartej Z tego wynika, że zasób kapitału w kraju kształtuje się zgodnie z równaniem: K (t ) k(t ) L(t ) K 0 §t · ¨ ϕ (s )ds ¸nt ¨³ ¸ ¹ . e© 0 (29) Aby wyznaczyć ścieżkę q(t), od której zależy trajektoria kapitału, przyjrzyjmy się ostatniemu z warunków koniecznych optymalności (19d). Uwzględniając (22) i (26), można go zapisać w postaci równania: q (r δ)q αA (q 1)2 . 2χ (30) Jest to nieliniowe (kwadratowe) równanie różniczkowe ze stałymi współczynnikami (autonomiczne). Rysunek 1 przedstawia diagram fazowy tego równania. q 0 q1 q2 q Rysunek 1. Diagram fazowy równania (30) Zauważmy, że przedstawiona na wykresie parabola musi mieć co najmniej jedno (rzeczywiste) miejsce zerowe – w przeciwnym razie mielibyśmy of, co ze względu na sens ekonomiczny zmiennej q q 0, a więc q(t ) t of q jest niedopuszczalne. Zatem równanie (r δ )q αA (q 1)2 2χ 0 (31) 70 Michał Konopczyński musi mieć przynajmniej jeden pierwiastek rzeczywisty, co zachodzi wtedy i tylko wtedy, gdy ª χ º αA d (r δ ) «1 (r δ )». ¬ 2 ¼ (32) Pierwiastki równania q 0, są dane wzorami: q1 1 χ(r δ) 2 χ(r δ αA) χ 2 (r δ)2 , (33) q2 1 χ(r δ ) 2 χ(r δ αA) χ 2 (r δ )2 . (34) Łatwo zauważyć, że: (a) Jeżeli r + δ = αA, to q1 = 1, a q2 = 1 + 2χ(r + δ). (b) Jeżeli r + δ > αA, to 0 < q1 < 1 < q2. (c) Jeżeli r + δ < αA, to 1 < q1 < q2. Generalnie, w każdym przypadku q2 > q1 > 0 oraz q2 > 1. Oba punkty stanowią stany stacjonarne, z tym że w punkcie q1 stan ten jest niestabilny, a w punkcie q2 jest lokalnie stabilny. W Aneksie pokazujemy, że warunek transwersalności (19f) jest spełniony jedynie w punkcie q1. Możemy zatem sformułować: Wniosek 1 Jedynym rozwiązaniem równania (30) spełniającym warunek transwersalności (19f) jest q1. Zatem rynkowa cena kapitału musi w każdej chwili t znajdować się w niestabilnym punkcie q1. W reakcji na jakikolwiek szok (zmianę wartości egzogenicznych powodującą zmianę wartości q1) rynkowa cena kapitału musi natychmiast skokowo się dostosować – proces dochodzenia do nowego stanu równowagi jest natychmiastowy. Zatem t q = q1. (35) W konsekwencji kapitał per capita rośnie w tempie ϕ q1 1 (n δ ). χ (36) Dla danego zestawu parametrów i wielkości egzogenicznych, ϕ = const. Trajektorię kapitału (28) można zatem zapisać prościej: k(t) = k0eϕt. (37) Suboptymalna równowaga rynkowa w małej gospodarce otwartej 71 Na koniec przyjrzyjmy się jeszcze drugiemu warunkowi transwersalności (19e), który (jak łatwo się domyślić) determinuje początkową wielkość konsumpcji. Najpierw należy wyznaczyć trajektorię b(t), rozwiązując równanie (16). Korzystając z (24), (26) i (37) można je zapisać w postaci: b υk0 eϕt c(0) eψt (r n)b, (38) gdzie υ A q12 1 . 2χ (39) Rozwiązanie ogólne tego równania ma postać: υk0 c(0) e ϕt e ψt. r n ϕ r n ψ b(t ) Se(r n)t (40) Znając początkowy zasób obligacji b(t = 0) = b0, możemy wyznaczyć stałą S: S b0 υk0 c(0) . r n ϕ r n ψ (41) Wyznaczywszy trajektorię b(t), możemy już przyjrzeć się dokładniej warunkowi transwersalności (19e). Z (22) wynika, że λ1(t ) λ1(0)e( ρr )t. (42) Uwzględniając ten fakt oraz (40) wraz z (41), warunek (19e) można zapisać w postaci: ½ υk0 c(0) λ1(0) lim ®S e(nr ϕ)t e(nr ψ) t ¾ 0, t of ¯ r n ϕ r n ψ ¿ (43) co zachodzi wtedy i tylko wtedy, gdy spełnione są trzy warunki: S b0 υk0 c(0) r n ϕ r n ψ 0, (44a) r – n – ϕ > 0, (44b) r – n – ψ > 0. (44c) 72 Michał Konopczyński Równość (44a) determinuje początkową wielkość konsumpcji: § υk0 · c(0) ¨ b0 ¸ (r n ψ ). r n ϕ ¹ © (45) Uwzględniając (33) i (36), można łatwo wykazać, że warunek (44b) jest spełniony. Natomiast (44c) można przekształcić do równoważnej postaci: ρ > γ(r – n) + n, (46) co oznacza, że aby otrzymane rozwiązanie było optymalne (spełniało warunki transwersalności) stopa dyskonta musi być po prostu dostatecznie wysoka. W szczególnym przypadku, gdy n = 0, warunek ten redukuje się do postaci: ρ > γr. Korzystając z wyznaczonej początkowej wielkości konsumpcji (45), trajektorię b(t) można ostatecznie zapisać w postaci: § υk0 · ψt υk0 b(t ) ¨ b0 e ϕt. ¸ e r n ϕ ¹ r n ϕ © (47) Z oczywistych względów konsumpcja w całym horyzoncie musi być dodatnia. Ponieważ stopa wzrostu konsumpcji jest przy przyjętych założeniach dodatnia, więc warunek ten jest spełniony, jeżeli konsumpcja początkowa jest dodatnia. Zatem zachodzić musi warunek: b0 υk0 , r n ϕ (48) co oznacza, że gospodarka nie może być nadmiernie zadłużona na początku horyzontu planowania. Równowaga w gospodarce zdecentralizowanej k(t ) k0e ϕt , i(t ) q 1 k(t ), χ ϕ q 1 (n δ ), χ q 1 χ(r δ ) 2 χ(r δ αA) χ 2 (r δ )2 , 73 Suboptymalna równowaga rynkowa w małej gospodarce otwartej y(t ) Ak(t ), A a(xl )β c(t ) c0 e ψt , c0 § υk0 · ¨ b0 ¸ (r n ψ ), r n ϕ ¹ © § υk0 · ψt υk0 b(t ) ¨ b0 e ϕt , ¸ e r nϕ ¹ r n ϕ © ψ rρ , 1 γ const ! 0, υ A q2 1 ! 0. 2χ Stan początkowy: k0, b0. Zmienne decyzyjne (sterowania): c(t), i(t). Zmienne stanu: k(t), y(t), b(t). W standardowych modelach gospodarki zamkniętej produkcja tożsama z dochodem narodowym musi zawsze rosnąć w identycznym tempie jak konsumpcja. Tutaj natomiast niekoniecznie. Są trzy możliwości. Do ich opisu przyda się stopa wzrostu salda obligacji zagranicznych, którą łatwo wyznaczyć z (47): υk0 b0 ψ ψ ϕ e (ϕ ψ ) t r n ϕ . (49) bˆ(t ) υk0 (ϕ ψ ) t b0 1 e r n ϕ Zatem stopa wzrostu b(t) nie musi być stała w czasie. Wykorzystując regułę de l’Hospitala, łatwo wykazać, że: – jeżeli ψ = ϕ, to bˆ(t )= ψ, – jeżeli ψ > ϕ, to bˆ(t ) o ψ, t of – jeżeli ψ < ϕ, to bˆ(t ) o ϕ. t of W modelu mamy zatem trzy możliwości: 1. Jeśli ψ = ϕ, to konsumpcja i produkcja (dochód narodowy) rosną w identycznym tempie. Również zasób obligacji zagranicznych rośnie z tą samą stopą ψ = ϕ. 2. Jeśli ψ > ϕ, to konsumpcja rośnie szybciej niż zasób kapitału i produkcja. Utrzymanie wysokiego tempa wzrostu konsumpcji jest możliwe dzięki dochodom z obligacji zagranicznych, których saldo musi (w granicy) rosnąć w tempie równym stopie wzrostu konsumpcji. Oczywiście biorąc pod uwagę relatywnie niskie tempo akumulacji kapitału, zbilansowanie strumienia dochodów ze strumieniem wydatków wymaga relatywnie niskiej konsumpcji w początkowej fazie (c(0) musi być stosunkowo niska). I rzeczywiście łatwo wykazać, że 74 Michał Konopczyński ψ > ϕ ρ γr (1 γ)δ 1 γ 2 χ (r δ αA) χ 2 (r δ )2 . χ (50) Zatem ten przypadek występuje wtedy, gdy konsumenci są wystarczająco cierpliwi (współczynnik dyskonta jest dostatecznie niski). Konsumenci akceptują wówczas niską konsumpcję w początkowej fazie, rok po roku nadwyżki dochodu nad wydatkami inwestują w obligacje zagraniczne, i dzięki temu mogą sobie pozwolić na tempo wzrostu konsumpcji wyższe niż tempo wzrostu gospodarczego. W granicy (dla t ) dochód z produkcji krajowej traci właściwie znaczenie – konsumpcja jest finansowana z odsetek od obligacji zagranicznych, których zasób rośnie w nieskończoność. 3. Jeśli ψ < ϕ, to konsumpcja rośnie wolniej niż zasób kapitału i produkcja. Wówczas (w granicy) saldo obligacji zagranicznych rośnie w tempie odpowiadającym stopie wzrostu produkcji. Zbilansowanie strumienia dochodów ze strumieniem wydatków pozwala na relatywnie wysoką konsumpcję w początkowej fazie (c(0) musi być stosunkowo wysoka). I rzeczywiście ψ < ϕ ρ ! γr (1 γ)δ 1 γ 2 χ (r δ αA) χ 2 (r δ )2 . χ (51) Zatem ten przypadek występuje wtedy, gdy konsumenci są niecierpliwi (współczynnik dyskonta jest relatywnie wysoki). Konsumpcja jest wysoka w początkowej fazie, co wymaga ujemnych inwestycji w obligacje zagraniczne (czyli zadłużania się). Rok po roku nadwyżki wydatków konsumpcyjnych nad dochodami są pokrywane pożyczkami zagranicznymi i w rezultacie saldo obligacji b(t) –, co widać wprost ze wzoru (47). Nie oznacza to jednak, że zadłużenie w stosunku do PKB rośnie w nieskończoność (byłoby to sprzeczne z warunkami transwersalności). Konsumpcja rośnie bowiem w tempie wolniejszym niż produkcja, a w granicy (dla t ) ujemne saldo obligacji (czyli zadłużenie) rośnie w tym samym tempie co produkcja. Zatem stosunek zadłużenia do produkcji stabilizuje się na pewnym skończonym poziomie. Korzystając z (27) i (47), otrzymujemy: b(t ) y(t ) b0 (ψ ϕ) t υ ªe(ψ ϕ) t 1º, e ¼ y0 A(r n ϕ) ¬ (52) Suboptymalna równowaga rynkowa w małej gospodarce otwartej 75 skąd wynika, że: jeżeli ψ = ϕ, to jeżeli ψ > ϕ, to jeżeli ψ < ϕ, to b(t ) t of y (t ) b0 , y0 (53a) b(t ) y(t ) f, (53b) υ , A(r n ϕ) (53c) lim lim t of lim t of b(t ) y(t ) Dwa ostatnie przypadki pokazują, jak bardzo modele małej gospodarki otwartej różnią się od standardowych modeli gospodarki zamkniętej, w których możliwości konsumpcji są zdeterminowane przez akumulację kapitału i produkcję krajową, a wszystkie zmienne realne – w tym produkcja, kapitał, inwestycje, konsumpcja – muszą (przynajmniej w granicy) rosnąć w identycznym tempie. W małej gospodarce otwartej tempo wzrostu konsumpcji może być permanentnie (w nieskończoność) różne od tempa wzrostu produkcji. Naturalnie jest to rezultat założenia o możliwości inwestowania i pożyczania dowolnie dużych kwot na stały procent r. Dobrobyt (gospodarka zdecentralizowana) Uwzględniwszy wyznaczoną trajektorię konsumpcji, dobrobyt mierzony wartością funkcjonału celu (9) można zapisać w postaci: f Ω 1 (1 l )θγ c0γ e (r nψ )t dt . γ ³ (54) 0 Ze względu na warunki transwersalności, a w szczególności (44c), całka we wzorze (54) jest zbieżna. Zatem dobrobyt w gospodarce zdecentralizowanej wyraża się wzorem: Ω (1 l )θγ c0γ . γ(r n ψ ) (55) Wzór ten wydaje się prosty, lecz jest to iluzja. Po podstawieniu wszystkich wyznaczonych zależności otrzymujemy pełną postać parametryczną1: 1 Wzór jest w postaci parametrycznej, jeżeli występują w nim wyłącznie parametry modelu. 76 Michał Konopczyński γ Ω § § q2 1 · · A ¨ ¨ ¸k ¸ γ 1 ¨ 2 χ ¸¹ 0 ¸ § (1 l )θγ ¨ r ρ · © b r n ¸ , ¨ 0 q 1 ¸ ©¨ γ γ 1 ¹ r δ ¨ ¸ χ ¨ ¸ © ¹ (56) gdzie q 1 χ(r δ) 2 χ(r δ αA) χ 2 (r δ )2 . Zatem poziom dobrobytu w równowadze zależy od wszystkich (bez wyjątku!) parametrów gospodarki, a także od początkowych zasobów kapitału i obligacji zagranicznych. 3. Gospodarka centralnie planowana Centralny planista różni się od Kowalskiego tym, że nie traktuje stawek płac jako wielkości „narzucane” przez rynek. On wie o tym, że czynniki produkcji są wynagradzane w taki sposób, że dochody z pracy i kapitału są łącznie równe produkcji. Dlatego w zadaniu sterowania optymalnego posługuje się ograniczeniem budżetowym (16), a nie (15). Ponadto centralny planista ma świadomość, że inwestycje w kapitał rzeczowy wywierają pozytywny wpływ na wydajność pracy (pozytywne efekty zewnętrzne), zgodnie z (4). Dlatego krańcowy produkt kapitału jest z jego punktu widzenia opisany wzorem (8) i równy A. Problem decyzyjny centralnego planisty zapiszemy za pomocą zadania sterowania optymalnego: f γ 1 °max ct (1 l )θ e ( ρn)t dt , γ ° 0 ° § χ i· ° ®b Ak c i ¨ 1 ¸ (r n)b, © 2 k¹ ° °k i (n δ )k. ° ° ¯ ³ (57) Zmienne sterujące: ct, it. Zmienne stanu: bt, kt (i pośrednio yt). Wielkości traktowane jako egzogeniczne: brak. Dane są początkowe wartości zmiennych stanu: b(t = 0) = b0, k(t = 0) = k0 > 0. Zapiszmy hamiltonian wartości bieżącej: Suboptymalna równowaga rynkowa w małej gospodarce otwartej 77 Hc 1 c(1 l )θ γ γ ª º § χ i· λ1 « Ak c i ¨ 1 ¸ (r n)b» λ2 ª¬i (n δ)k º¼. (58) © 2 k¹ ¬ ¼ Rozwiązanie optymalne zadania (57) musi spełniać następujące warunki: wH c wc wH c t wi t 0. (59a) 0. (59b) wH λ1 c λ1( ρ n). wb wH λ2 c λ2 ( ρ n). wk (59c) (59d) lim e ( ρn)t λ1(t )b(t ) 0. (59e) lim e ( ρn)t λ2 (t)k(t) 0. (59f) t of t of Łatwo sprawdzić, że trzy pierwsze warunki (59a-c) prowadzą do identycznych wniosków jak w gospodarce zdecentralizowanej, dzięki czemu wzory (20)–(29) mają zastosowanie również dla gospodarki centralnie planowanej. Natomiast równanie (30) przyjmie postać: q (r δ)q A (q 1)2 , 2χ (60) która różni się od (30) jedynie wartością krańcowej produktywności kapitału. Analiza tego równania jest bardzo podobna do tej, którą przedstawiliśmy w odniesieniu do gospodarki zdecentralizowanej. Wszystkie wzory i wnioski pozostają w mocy, z tym że we wzorach od (30) aż do (50) αA należy zastąpić przez A. Z tego względu warunek (32) przyjmie teraz silniejszą postać: ª χ º A d (r δ ) «1 (r δ )». ¬ 2 ¼ (61) Możemy zatem od razu przedstawić zwięzły opis stanu równowagi w gospodarce centralnie planowanej. 78 Michał Konopczyński Równowaga w gospodarce centralnie planowanej (oznaczamy ją symbolem *) q * 1 (n δ ), χ q * 1 χ (r δ ) k(t ) k0e ϕ *t , i(t ) ϕ* q * 1 k(t ), χ 2 χ (r δ A) χ 2 (r δ )2 , y(t ) Ak(t ), A a(xl )β c(t ) c0* e ψ *t , c*0 const ! 0, § υ * k0 · ¨ b0 ¸ (r n ψ *), r n ϕ* ¹ © § υ * k0 υ * k0 · ψ *t e ϕ *t , b(t ) ¨ b0 ¸ e * r n ϕ * r n ϕ © ¹ r ρ , υ* ψ* 1 γ A q *2 1 . 2χ Stan początkowy: k0, b0. Zmienne decyzyjne (sterowania): c(t), i(t). Zmienne stanu: k(t), y(t), b(t). Opisane na str. 12–13 trzy przypadki występują również w gospodarce centralnie planowanej i ich interpretacja jest identyczna. Dobrobyt (gospodarka centralnie planowana) Wzór (55) nie ulega żadnym zmianom, czyli dla gospodarki centralnie planowanej: Ω* (1 l )θγ (c0*)γ , γ(r n ψ *) (62) Po podstawieniu wyznaczonych zależności otrzymujemy pełną postać parametryczną: γ § § q *2 1 · · A ¨ ¨ ¸¸ k0 ¸ γ 1 ¨ 2 χ (1 l )θγ ¨ rρ· ¸ § © ¹ Ω* r n ¸ , ¨ b0 q * 1 ¸ ¨© γ 1 γ ¹ r δ ¨ ¸ χ ¨ ¸ © ¹ (63) Suboptymalna równowaga rynkowa w małej gospodarce otwartej 79 gdzie q * 1 χ (r δ ) 2 χ (r δ A) χ 2 (r δ )2 . Poziom dobrobytu w równowadze zależy od wszystkich (bez wyjątku!) parametrów gospodarki, a także od początkowych zasobów kapitału i obligacji zagranicznych. 4. Podsumowanie – porównanie gospodarki centralnie planowanej ze zdecentralizowaną Łatwo wykazać, że q* > q > 0, z czego wynika, że υ* < υ oraz ϕ* > ϕ. Zatem centralny planista akumulowałby kapitał w szybszym tempie niż gospodarka Kowalskich, dzięki czemu stopa wzrostu gospodarczego byłaby permanentnie wyższa niż w gospodarce rynkowej. Wynika to z obecności pozytywnych efektów zewnętrznych związanych z inwestowaniem w kapitał, których nie uwzględniają (nie uświadamiają sobie) poszczególne podmioty w gospodarce zdecentralizowanej. Mianowicie pojedyncza firma, decydując o inwestycjach, traktuje wydajność pracy e jako wielkość daną (na którą indywidualnie nie ma wpływu), a więc tzw. prywatny krańcowy produkt kapitału jest, zgodnie ze wzorem (6), równy αA. Tymczasem inwestowanie w kapitał podnosi wydajność pracy e, zgodnie ze wzorem (3), skąd wynika, że rzeczywisty (tzw. społeczny) krańcowy produkt kapitału jest znacznie wyższy i wynosi A. Dlatego gospodarka zdecentralizowana inwestuje „zbyt mało”. Co ciekawe, w obu gospodarkach tempo wzrostu konsumpcji jest takie samo (zależy wyłącznie od parametrów funkcji użyteczności oraz od stopy procentowej r): ψ* ψ r ρ , 1 γ (64) lecz początkowy poziom konsumpcji nie jest taki sam. W gospodarce centralnie sterowanej jest on niższy niż w rynkowej (c*0 < c0), gdyż początkowo większa część dochodu narodowego jest przeznaczana na inwestycje w kapitał. γ Ω * § c0* · ¨ ¸. Ω © c0 ¹ Wiemy, że c*0 < c0, a jednocześnie γ < 0. Zatem, jak można się było spodziewać, Z drugiej strony, ze wzorów opisujących dobrobyt wynika, że Ω* > Ω. (65) Uwzględnienie w zadaniu optymalizacyjnym całej wiedzy o funkcjonowaniu gospodarki pozwala osiągnąć wyższy poziom dobrobytu. 80 Michał Konopczyński Oczywiście w rzeczywistości nie istnieje żaden podmiot, który miałby nie tylko kompletną wiedzę o funkcjonowaniu gospodarki, ale jeszcze możliwość sterowania postępowaniem wszystkich firm i konsumentów (narzucania im swej woli). W gospodarce rynkowej każdy podmiot – jak wiadomo od czasów Adama Smitha – kieruje się swym własnym, indywidualnym interesem. Niemniej jednak istnieje sposób, aby niczego nie narzucając poszczególnym podmiotom, gospodarkę zdecentralizowaną doprowadzić do takiej równowagi, jak gdyby była ona centralnie sterowana. Wystarczy zastosować takie narzędzia, aby decyzje podejmowane przez firmy uwzględniały pozytywne efekty zewnętrzne akumulacji kapitału. W literaturze określa się to mianem tzw. internalizacji (internalization) efektów zewnętrznych. Na przykład do przedstawionego modelu można wprowadzić rząd, który w odpowiedniej wysokości subsydiuje kapitał. ANEKS Dowód, że warunek transwersalności (19f) jest spełniony jedynie w punkcie q1. lim e ( ρn)t λ2 (t )k(t ) 0. (19f) λ2 (t ) q(t ) λ1(0) e( ρr )t. (a.1) t of Z (22) wynika, że Z (27) oraz (28) wynika, że t § q( s ) 1 · n δ¸ ds χ ¹ ³ ¨© k(t ) k0e 0 t § q( s ) 1 · ¸ ds χ ¹ ³ ¨© k0e 0 e (n δ )t . (a.2) Zatem warunek (19f) można zapisać w postaci: t § q ( s )1 · ½ ¨ ¸ ds ³ °° ° © χ ¹ ° λ1(0)k0 lim ®q(t )e (r δ) t e 0 ¾ 0, t of ° ° ¯° ¿° (a.3) 81 Suboptymalna równowaga rynkowa w małej gospodarce otwartej Punkt stały q1 jest niestabilny, dlatego – jak zauważyliśmy we Wniosku 1 – wykluczona jest tu jakakolwiek dynamika przejścia. Jeśli gospodarka ma osiągnąć ten punkt, to musi w nim być od samego początku, czyli musi zachodzić: t q1(t ) q1 const, (a.4) gdzie q1 jest dane wzorem (33). Zatem w tym wypadku zachodzi: t § q( s ) 1 · ¨ ¸ ds χ ¹ © 0 q1 1 t χ ³ § · 2(r δ αA) ( r δ)2 ¸ t ¨¨ r δ ¸ χ © ¹ r δ ... t. (a.5) Z tego wynika, że warunek (a.3) jest spełniony, zachodzi bowiem t § q1 1 · ½ ¨ ¸ds ³ ( r δ ) t r δ °° (r δ)t 0 © χ ¹ °° λ1(0)k0 lim ®q1e e e ¾ λ1(0)k0q1 lim ®e t of t of ¯ ° ° ¯° ¿° ... t ½ λ1(0)k0q1 lim ®e ¾ 0. t of ¯ ¿ ... t ½ ¾ ¿ (a.6) Teraz zajmijmy się punktem q2. Jest to stabilny stan równowagi, zatem do punktu q2 danego wzorem (34) dochodzimy po określonej ścieżce (trajektorii) postaci: q2 (t ) q2 q2 (0) q2 e μt, (a.7) gdzie stopa wzrostu μ < 0 odpowiada ujemnej wartości własnej odpowiedniej macierzy. Zatem t § q2 (s) 1 · ¨ ¸ ds χ ¹ © 0 ³ t q2 1 q (0) q2 t 2 e μs ds χ χ ³ 0 q2 1 q (0) q2 μt t 2 e 1 , χ χμ (a.8) co, wykorzystując wzór (34), można zapisać w postaci: t § q2 (s) 1 · q (0) q2 μt 1 ... t 2 e 1 . ¸ ds (r δ)t χ χ χμ ¹ ³ ¨© 0 (a.9) 82 Michał Konopczyński Po lewej stronie (a.3) mamy zatem: t § q ( s )1 · ½ ³ ¨© 2 χ ¸¹ds °° °° λ1 (0)k0 lim ®q2 (t )e (r δ) t e 0 ¾ t of ° ° °¯ °¿ 1 ( r δ )t ( r δ )t ° χ λ1 (0)k0 lim ®q2 (t )e t of °¯ q (0)q2 μt e 1 ... t 2 χμ ½° ¾ °¿ q (0)q2 μt 1 ... t 2 e 1 ½° °ª χμ μt º χ λ1 (0)k0 lim ® q2 q2 (0) q2 e e ¾ ¼ t of ¬ °¿ °¯ § 1 ... t q2 (0)q2 e μt 1 ½ ° ° χμ ¨ λ1 (0)k0 lim ®q2e χ ¾ ¨¨ t of °¯ °¿ © § 1 · q2 (0)q2 μt · e 1 ½ ¨ μ ... ¸ t ¸ ° ° χ χμ ¹ lim ® q2 (0) q2 e © ¾ ¸ . (a.10) t of ° °¸ ¯ ¿¹ W powyższym wzorze występuje suma dwóch granic. Pierwsza z nich jest 1 1 równa +, a druga jest równa 0 (gdy μ ... 0) lub + (gdy μ ... 0). χ χ Z tego wynika, że lewa strona równania (a.3) jest równa +, a więc w punkcie q2 warunek transwersalności (19f) nie jest spełniony. Bibliografia Acemoglu, D., 2008, Introduction to Modern Economic Growth, Princeton University Press. Barro, R., Sala-i-Martin, X., 1995, Economic Growth, 2nd ed., MIT Press, Cambridge. Fisher, W.H., 2010, Relative Wealth, Growth, and Transitional Dynamics: The Small Open Economy Case, Macroeconomic Dynamics, vol. 14, s. 224–242. Hayashi, F., 1982, Tobin’s Marginal q and Average q: A Neoclassical Interpretation, Econometrica, vol. 50, no. 1, s. 213–224. Heijdra, B.J., Romp, W.E., 2009, Human Capital Formation and Macroeconomic Performance in an Ageing Small Open Economy, Journal of Economic Dynamics and Control, vol. 33(3), s. 725–744. Suboptymalna równowaga rynkowa w małej gospodarce otwartej 83 Nielsen, S.B., Sorensen, P.B., 1991, Capital Income Taxation in a Growing Open Economy, European Economic Review, vol. 35, iss. 1, s. 179–197. Rebelo, S., 1992, Growth in Open Economies, Carnegie-Rochester Conference Series on Public Policy, Elsevier, vol. 36(1), s. 5–46. Romer, P.M., 1986, Increasing Returns and Long-run Growth, Journal of Political Economy, vol. 94, s. 1002–1037. Turnovsky, S.J., 2009, Capital Accumulation and Economic Growth in a Small Open Economy, Cambridge University Press. STUDIA OECONOMICA POSNANIENSIA 2013, vol. 1, no. 10 (259) Henryk J. Runka Uniwersytet Ekonomiczny w Poznaniu, Wydział Informatyki i Gospodarki Elektronicznej, Katedra Ekonomii Matematycznej, [email protected] PROBLEMY Z OGRANICZENIAMI KWADRATOWYMI I OPTYMALIZACJA NA STOŻKACH Streszczenie: W artykule przedstawiamy problem z kwadratową funkcją celu i ograniczeniami kwadratowymi oraz jego transformacje w problem optymalizacji na stożku. Transformując problem optymalizacji nieliniowej poprzez aproksymację funkcji nieliniowych za pomocą funkcji kwadratowych i funkcji liniowych, otrzymujemy nowe problemy. Pierwszym z nich jest problem optymalizacji kwadratowej z ograniczeniami kwadratowymi (i ewentualnie liniowymi), który można z kolei transformować w problem optymalizacji na stożku. We wszystkich trzech przypadkach wymienionych problemów możemy stosować algorytmy punktów wewnętrznych. Słowa kluczowe: ograniczenia kwadratowe, problem optymalizacji kwadratowej, optymalizacja nieliniowa, optymalizacja na stożku, algorytmy prymalno-dualne punktów wewnętrznych. Klasyfikacja JEL: C61, C63. QUADRATICALLY CONSTRAINED QUADRATIC PROBLEMS AND CONE OPTIMIZATION Abstract: In this paper the problem of quadratic objective functions and quadratic constraints is presented, along with its transformation into a cone optimization problem. When transforming a nonlinear optimization problem by approximating nonlinear functions by using the quadratic and linear functions, new problems appear. The first is a quadratically constrained quadratic optimization problem with quadratic constraints (and optionally, linear), which may in turn be transformed into a cone optimization problem. In all three cases, these problems can be solved using internal point algorithms. Keywords: quadratic constrains, quadratic optimization problem, nonlinear optimization, cone optimization, primal-dual interior point algorithms. Problemy z ograniczeniami kwadratowymi i optymalizacja na stożkach 85 Wstęp Rozwiązując instancje (zadania) problemu optymalizacji nieliniowej (problem NLO), stosuje się wiele algorytmów, w których dokonuje się aproksymacji funkcji nieliniowych funkcjami liniowymi (np. GRG), funkcji optymalizowanej funkcją kwadratową, a funkcje nieliniowe w ograniczeniach funkcjami liniowymi (np. SQP) lub rozwiązuje się układ prymalno-dualny za pomocą algorytmów punktów wewnętrznych (IPNLO). Tutaj rozważamy głównie przypadek, gdy funkcja celu oraz funkcje nieliniowe w ograniczeniach są funkcjami kwadratowymi (mogą być one aproksymacjami kwadratowymi funkcji nieliniowych). 1. Problem optymalizacji kwadratowej z ograniczeniami kwadratowymi Problem optymalizacji kwadratowej z ograniczeniami kwadratowymi (QCQO problem – Quadratically Constraint Quadratic Optimization problem) jest definiowany następująco [Anstreicher 2004]: 1 min | max x TQ0 x c0T x d0 , 2 przy ograniczeniach 1 T x Qi x ciT x di d|t bi , i I , 2 1 T x Qi x ciT x di bi , i E , 2 l d x d u, (1) gdzie: I E ^1, }, m`, Qi \nun , Qi QiT i 0, }, m , b \m bi \ , ci n, di , x n, l, u n, Qi 0(min), Qi 0(max), i = 0, …, m, przy czym , oznaczają odpowiednio dodatnią i ujemną półokreśloność symetrycznej macierzy kwadratowej. 86 Henryk J. Runka W szczególnym przypadku, gdy Qi I, elipsoida przechodzi w kulę w n przesuniętą ze względu na ciTx + di. Ponieważ ograniczenia 1 T x Qi x ciT x bi , 2 i E nie generują zbioru wypukłego, albowiem punkty dopuszczalne leżą tylko na brzegu elipsoidy (kuli), więc QCQO jest formułowany również w wersji z liniowymi ograniczeniami równościowymi [Boyd i Vandenberghe 2009, s. 152], zastąpienie układu równań 1 T x Qi x ciT x di 2 bi , i E układem afinicznym (układem równań liniowych, generującym zbiór wypukły, o ile nie jest sprzeczny), postaci αiT x bi , αi \n , bi \, i E , Ax b, A ªαiT º , ¬ ¼i E prowadzi do problemu 1 min | max x TQ0 x c0T x d0 2 przy ograniczeniach 1 T x Qi x ciT x di d|t bi , i I , 2 αiT x bi , i E , (2) l j d x j d u j , j 1, }, n. Problem NLO możemy transformować w problem QCQO, zastępując nieliniowe ograniczenia nierównościowe kwadratowymi ograniczeniami nierównościowymi, a równania nieliniowe równaniami liniowymi. W dalszej części artykułu rozważamy przypadek minimalizacji funkcji celu. Problemy z ograniczeniami kwadratowymi i optymalizacja na stożkach 87 Rozważmy problem optymalizacji nieliniowej postaci [Runka 2009, s. 205]: min f (x) przy ograniczeniach: g i (x ) d 0, i 1, !, m (3) , I hi (x ) 0, i 1, !, m E , lj d x j d uj, j 1, !, n, które można zapisać równoważnie w postaci wektorowo-macierzowej: g (x ) d 0, h(x ) 0, (4) x l d 0, x u d 0. Stosując algorytmy punktów wewnętrznych, funkcję f (x) zastępuje się funkcją barierową, która zawiera również zmienne swobodne postaci: min Φ(x , y , v , w ; μ) m f (x ) μ n I n ¦ ln( yi ) μ¦ ln( vj ) μ¦ ln( wj ), i 1 j 1 μ \ . (5) j 1 Zmienne swobodne w (5) występują w ograniczeniach nierównościowych i w ograniczeniach dolnych i górnych: g i ( x ) yi 0, i 1, !, m hi (x ) 0, i 1, !, m Zatem y \ m I E I , , x j v j l j 0 (x j v j l j ), xj wj uj 0 (x j w j u j ), , v , w \n. j 1, !, n, j 1, !, n. (6) 88 Henryk J. Runka W przypadku problemu (3) funkcja Lagrange’a jest postaci L x ; π , ρ, s l , s u m f (x ) m I ¦ n E ¦ πi gi ( x) i 1 ρi hi ( x) i 1 ¦ n s l j ( x j l j ) j 1 ¦ s u j ( x j u j ), (7) j 1 a jej gradient x L x ; π, ρ, s l , s u m ¦ f ( x ) m I π i g i (x ) i 1 n E ¦ ρi hi (x ) i 1 ¦ n s l j ej j 1 ¦ s u jej . (8) j 1 Natomiast w problemach (5) i (6) przyjmie ona postać L x , y , v , w ; π, ρ, s l , s u ; μ Φ(x , y , v , w ; μ ) π T g (x ) y ρ Th(x ) s Tl ( x v l ) s Tu (x w u) m f (x ) μ I i 1 π T n n j 1 j 1 ¦ ln( yi ) μ¦ ln( vj ) μ¦ ln( wj ) g (x ) y ρ T h(x ) s Tl ( x v l ) s Tu (x w u). (9) Jej gradient jest następujący: L x , y , v , w ; π, ρ, s l , s u ; μ ª L « x « « y L « « v L « « L «¬ w x , y , v , w ; π , ρ, s x , y , v , w ; π , ρ, s x , y , v , w ; π , ρ, s x , y , v , w ; π , ρ, s l l l l ,s u ;μ º » » ,s u ;μ » » , (9) ,s u ;μ » » ,s u ;μ » »¼ Problemy z ograniczeniami kwadratowymi i optymalizacja na stożkach 89 gdzie: L x , y , v , w ; π , ρ , s L x , y , v , w ; π , ρ , s L x , y , v , w ; π , ρ , s ; μ ; μ ; μ x L x , y , v , w ; π , ρ, s l , s u ; μ y l ,s u v l ,s w l ,s u u f (x ) J Tg (x )π J Th (x )ρ s l s u , μY 1e π , μV 1e s l , μW 1e s u . Zgodnie z warunkami optymalności pierwszego rzędu w punkcie (x , y , v , w) X u Y u V uW R 3nm I mamy L x , y , v , w ; π , ρ, s l , s u ; μ 0. (11) Z (3)–(11) wynika następujący układ prymalno-dualny [Runka 2009, s. 218]: g (x ) y ª « h(x ) « « v x « w x « « J T (x )π J T ( x) ρ s l s u h « g « YΠe « VS l e « « WS u e «¬ º » » » » » » » » » » » »¼ 0 ª º « » 0 « » « l » « » u « » « f (x )» , (12) « x » « μe » « μe » « » «¬ μe »¼ gdzie: Y diag( y ), V Sl diag(v ), W diag s l , S u diag(w ), Π diag( π), diag s u . 90 Henryk J. Runka Ze względu na ograniczenia nieliniowe w (12) przekształca go się w następujący układ Newtona (aproksymacja liniowa): k k F ξ 'ξ | F ξ J gdzie: ξ (k ) ξ 'ξ, k F (13) T ª x (k ) y (k ) v (k ) w (k ) π (k ) ρ(k ) s(k ) s(k ) º (rozwiązanie w k-tej itel u » «¬ ¼ racji), T ª 'x 'y 'v 'w 'π 'ρ 's 's º (kierunek zmiany rozwiązania), l u ¼ ¬ (k ) – funkcja wektorowa, F ξ 'ξ J ξ – macierz Jacobianu funkcji wektorowej F ξ . (k ) (k ) F Zmianę rozwiązania otrzymujemy, rozwiązując iteracyjnie układ równań liniowych J ξ 'ξ (k ) F F ξ ( k ) , (14) gdzie: F ξ (k ) ª º g x (k ) y (k ) « » (k ) « » h x « » « » (k ) (k ) l x v « » « » u x (k ) w (k ) « » , (15) « f ( x ) J T x ( k ) π ( k ) J T x ( k ) ρ ( k ) s ( k ) s ( k ) » g h l u » « x « » μe Y(k )π (k ) « » (k ) « » μe V(k )s l « » (k ) « » μe W(k )s u ¬« ¼» 91 Problemy z ograniczeniami kwadratowymi i optymalizacja na stożkach ξ (k ) ª « « « « « « « T (k ) «J g x « « Y(k ) « « « ¬ J h I (k ) I I 2xx L J Th x (k ) Π(k ) S l (k ) S u (k ) T º ª (k ) g x 1 « » « », J « » T « (k ) » «¬g m1 x »¼ x (k ) g g I I J x x (k ) J x (k ) h m π i 2xx g i 1 Y(k ) diag y (k ) , Π (k ) diag π (k ) , S l (k ) m I ¦ f x (k ) E ¦ ρ h x , x (k ) i {J g x , (k ) g J h diag s (lk ) , S (k ) diag s (uk ) . u (k ) {J x , (k ) h x L { x L x (k ), y (k ), v (k ), w (k ); π (k ), ρ(k ), s(lk ), s(uk ); μk oraz 2xx L jak wyżej. 2 xx i 1 Dla uproszczenia notacji przyjmujemy, że: J (16) T º ª (k ) h x 1 « » « », « » T « (k ) » «¬hm2 x »¼ 2xx L { 2xx L x (k ), y (k ), v (k ), w (k ); π (k ), ρ (k ), s (lk ), s (uk ); μk 2xx º » » » » » » », I I » » » » V(k ) » W(k ) » ¼ ! F ! J 92 Henryk J. Runka Korzystając z (13)–(16), rozwiązujemy iteracyjnie układ ª « « « « « « « J Tg « «Y(k ) « « « ¬ J g J h I I I I J Th I 2xx L I Π( k ) S l (k ) V(k ) S u (k ) º ª 'π º »« » « 'ρ »» »« » « 'x »» » « 'y » » I » «« 'v »» » « 'w » »« » « 's l »» »« » W(k ) » ¬ 's u ¼ ¼ ª g x (k ) y (k ) º « » (k ) « » h x « » « (k ) (k ) » « l x v » « u x (k ) w (k ) » » . (17) « « » x L « » (k ) « Y(k )π μk e » « » (k ) « V(k ) s l μke » « » (k ) « W(k ) s u μk e » ¬ ¼ Układ (17) jest już układem ograniczeń liniowych. Kolejne rozwiązania otrzymujemy, wyznaczając ξ (k 1) ξ (k ) 'ξ . Praktycznie proces wyznaczania zmiany rozwiązania (12) na podstawie (17) jest bardziej skomplikowany [Nocedal i Wright 2006, s. 564–594; Runka 2011, s. 194–200]. Niezależnie od metody rozwiązywania układu (17), zmiana rozwiązania układu (12) jest następująca: 93 Problemy z ograniczeniami kwadratowymi i optymalizacja na stożkach ª x (k 1) y (k 1) v (k 1) w (k 1) π (k 1) ρ(k 1) s(k 1) s(k 1) º l u ¼ » ¬« T T ª x (k ) y (k ) v (k ) w (k ) π (k ) ρ (k ) s (k ) s (k ) º l u » «¬ ¼ (18) T αk ª 'x 'y 'v 'w 'π 'ρ 's l 's u º , ¬ ¼ gdzie αk jest długością kroku. Szczegóły związane z wyznaczeniem długości kroku zawierają prace: [Nocedal i Wright 2006, s. 564–594; Runka 2011, s. 194–200]. W przypadku ograniczeń kwadratowych (nierówności) i liniowych (równania) układ prymalno-dualny na podstawie (12) przyjmie następującą postać: 1 T ª x Q1x c1T x « 2 « # « « 1 T x QK x cKT x « 2 « AE x « « x « « x « T «ª¬Q1x c1 !QK x cK º¼π A E ρ « « « « « «¬ y1 yK v w s l YΠe VS l e WS u e s u º » » » » » » » » » » » » » » » » » »¼ ª b1 d1 º « » # « » « bK dK » « » « bE » « » l « », « » u « » Q x c 0» « 0 « » μe « » μe « » « » μe ¬ ¼ w którym (w porównaniu z układem (17)): (19) 94 Henryk J. Runka J g ª Q x (k ) c º 1 « 1 » # « », J « » (k ) ¬«QK x cK ¼» h A E , 2xx L Q0 , x L Q0 x (k ) c0 . Otrzymujemy znacznie prostszy układ do rozwiązywania w kolejnych iteracjach. W przypadku problemu optymalizacji kwadratowej odpowiednik układu (19) jest przedstawiony w pracy Runki [2006, s. 227]. Przykład W poniższym przykładzie przedstawiamy translację zapisu matematycznego zadania optymalizacji nieliniowej na zapis w języku modelowania, opracowanego przez SAS Institute Inc., który umożliwia również formułowanie modeli, co wymaga czytania danych z plików zapisanych w formacie wymaganym przez procedury oprogramowania SAS. Tutaj operujemy tylko zadaniami. W celu pokazania postaci zadania z ograniczeniami kwadratowymi i liniowymi, które otrzymujemy poprzez aproksymacje funkcji nieliniowych wyjściowego zadania funkcjami kwadratowymi, wyznacza się punkt startowy za pomocą procedury model (proc model), której głównym zastosowaniem jest szacowanie modeli ekonometrycznych, ale można również rozwiązywać układy równań nieliniowych. Następnie wykorzystano procedurę IML (proc IML) dla wyznaczenie gradientów i hesjanów funkcji nieliniowych, co pozwoliło sformułować zadanie problemu QCQO. Rozważmy następujące zadanie optymalizacji nieliniowej min f (x ) 1,5x12 0,5x24 0,25e 3 x3 6 x1x2 8 x1x3 4 x2 x3 58 x1 92 x2 75x3 przy ograniczeniach: 0,25x14 0,5x22 0,125x32 d 408, 0,125e 2 x1 0,5x24 2 x32 d 15100, 2 x1 4 x2 5x3 d 96, 6 x1 5x3 t 56, 3,5 d x1 d 20, 4,5 d x2 d 16, 2 d x3 d 18. Problemy z ograniczeniami kwadratowymi i optymalizacja na stożkach 95 W notacji języka modelowania stosowanego przez SAS proc optmodel [SAS/ OR 2011, s. 23–166], zapis tego zadania jest następujący: proc optmodel; number l{1..3} = [3.5 4.5 2.0]; number u{1..3} = [20 16 18.0]; var x{j in 1..3} >= l[j] <= u[j]; minimize fobj= 1.5*x[1]^2 + 0.5*x[2]^4 + 0.25 * exp(3*x[3]) - 6 * x[1] * x[2] - 8* x[1] * x[3] - 4 * x[2] * x[3] - 58*x[1] - 92*x[2] - 75*x[3]; con c1: 0.25 * x[1]^4 + 0.5 * x[2]^2 + 0.125*x[3]^2 <= 408; con c2: 0.125 * exp(2*x[1]) + 0.5 * x[2]** 4 + 2 * x[3]**2 <= 15100; con c3: 2*x[1] + 4*x[2] + 5*x[3] <= 96; con c4: 6.0 * x[1] + 5 * x[3] >= 56; … następne polecenia … Wyznaczono rozwiązania dla przykładowych układów tzw. ograniczeń aktywnych, wykorzystując procedurę SAS proc model [SAS/ETS 2011, s. 1079 i n.], rozwiązując odpowiadające im układy równań nieliniowych. Plik zawierający tzw. punkt startowy, wykorzystywany przez proc model jest następujący: data G1_2_3_4_QCQO_IN; input x1 x2 x3; datalines; 3.61 4.51 2.4 ; run; W poniższym kodzie proc model przez SATISFY określa się ograniczenia, które mają być spełnione z równością. proc model data = G1_2_3_4_QCQO_IN; eq.g1 = 0.25 * x1**4 + 0.5 * x2**2 + 0.125*x3**2 - 408; eq.g2 = 0.125 * exp(2*x1) + 0.5 * x2** 4 + 2 * x3**2 15100; eq.g3 = 2*x1 + 4*x2 + 5*x3 - 96; eq.g4 = 6.0 * x1 + 5 * x3 - 56; eq.g5 = x2 - 4.5; solve x1 x2 x3 SATISFY=(g1 g2 g3) / solveprint out=G1_2_3_ QCQO_SOLUT; solve x1 x2 x3 SATISFY=(g2 g3 g4) / solveprint out=G2_3_4_ QCQO_SOLUT; solve x1 x2 x3 SATISFY=(g1 g2 g4) / solveprint out=G1_2_4_ QCQO_SOLUT; solve x1 x2 x3 SATISFY=(g3 g4 g5) / solveprint out=G3_4_5_ QCQO_SOLUT; 96 Henryk J. Runka solve x1 x2 x3 SATISFY=(g2 g3 g5) / solveprint out=G2_3_5_ QCQO_SOLUT; solve x1 x2 x3 SATISFY=(g2 g4 g5) / solveprint out=G2_4_5_ QCQO_SOLUT; run; Wybrano punkt, w którym drugie i trzecie ograniczenia są spełnione z równością oraz ograniczenie dolne jest postaci x2 = 4,5. Fragment raportu z proc model jest następujący: Procedura MODEL Simultaneous Simulation Obserwacja1Iteracje7CC0.000000eq.g2-0.000000 Solution Values x1 x2 x3 5.83215 4.50000 13.26714 Residual Values x1 x2 x3 -2.22215 0.01000 -10.86714 Procedura MODEL Simultaneous Simulation Opcje zbioru DATA=G1_2_3_4_QCQO_IN OUT= G2_3_5_QCQO_SOLUT Podsumowanie rozwiązania Variables Solved 3 Implicit Equations 3 Solution Method NEWTON CONVERGE= 1E-8 Maximum CC 7.28E-12 Maksymalna liczba iteracji 7 Total Iterations 7 Average Iterations 7 Przetworzone obserwacje Read Solved 1 1 Variables Solved Forx1 x2 x3 Equations Solved g2 g3 g5 Problemy z ograniczeniami kwadratowymi i optymalizacja na stożkach 97 Wyznaczone rozwiązanie: x1 = 5,83215, x2 4,5, x3 = 13,26714. Ten punkt wybrano na zasadzie „zdrowego rozsądku”, który może być względnie blisko punktu optymalnego. Parametry dla zadania optymalizacji kwadratowej z ograniczeniami kwadratowymi wyliczono za pomocą procedury SAS proc iml [SAS/IML 2009 ], następująco: title ‘IML - g2 g3 g5’; proc IML; use work.G2_3_5_QCQO_SOLUT; read point 1 var {x1 x2 x3} into x; constr_arr = (0.25 * x[1]**4 + 0.5 * x[2]**2 + 0.125*x[3]**2 - 408) // (0.125 * exp(2*x[1]) + 0.5 * x[2]** 4 + 2 * x[3]**2 - 15100) // (2*x[1] + 4*x[2] + 5*x[3] - 96 ) // (6.0 * x[1] + 5 * x[3] - 56) // (x[2] - 4.5); print , constr_arr; grad_f = (3 * x[1] - 6*x[2] - 8* x[3] - 58) // (2 * x[2]**3 - 6*x[1] - 4*x[3] - 92) // (0.75 * exp(3*x[3]) 8*x[1] - 4*x[2] - 75); * g3, g4, g5 ; JC = (0.5*exp(2*x[1]) || (2*x[2]**3) || (4*x[3]) ) // ((2) || (-4) || (-5)) // ((0) || (-1) || (0)); grad_g1 = (1*x[1]**3) //(1*x[2]) // (0.5*x[3]) ; grad_g2 = (0.5*exp(2*x[1]) )//(2*x[2]**3) //(4*x[3]); grad_g3 = (-2) // (-4) // (-5); grad_g4 = (6) // (0) // (5); grad_g5 = (0) // (-1) // (0); Lmult = -inv(JC`) * grad_f; print , “g2 & g3 & g5”; print , x; print , lmult; print , “Trans of Jacobian Matrix”; print , (JC`); print , grad_g1; print , grad_g2; print , grad_g3; print , grad_g4; print , grad_g5; print , grad_f; print , x; fobj= 1.5*x[1]**2 + 0.5*x[2]**4 + 0.25 * exp(3*x[3]) - 6 * x[1] * x[2] - 8* x[1] * x[3] - 4 * x[2] * x[3] - 58*x[1] 92*x[2] - 75*x[3]; 98 Henryk J. Runka print fobj; Mult_nams={ “Lmult2” “Lmult3” “Lmult5” }; create G2_3_5_QCQO_Lmult from Lmult [colname = Mult_nams]; append from Lmult; close G2_3_5_QCQO_Lmult; close work.G2_3_5_QCQO_SOLUT; Hessian_f= ((3) || (-6) || (-8)) // ((-6) || 6*x[2]**2 || (-4)) // ((-8) || (-4) || 2.25*exp(3*x[3]) ); Hessian_g1 = (3*x[1] || (0) || (0)) // ((0) || (1) || (0)) // ((0) || (0) || (0.5)); Hessian_g2 = (1.0*exp(2*x[1]) || (0) || (0)) // ((0) || 6* x[2]**2 || (0)) // ((0) || (0) || (4)); print ,Hessian_f; print ,Hessian_g1; print ,Hessian_g2; call eigen(Lambda, P, Hessian_f); print ,Lambda; print, P; quit; Za pomocą tej procedury wyznaczono gradienty i hesjany dla funkcji nieliniowych oraz sprawdzono dopuszczalność rozwiązania (contr_arr), poniżej: constr_arr -86.63507 -7.28E-12 0 45.328604 0 Ograniczenia: drugie, trzecie i piąte są spełnione „prawie” z równością, a pierwsze i czwarte ze ścisłą nierównością. Gradienty są następujące (oznaczone grad_g1 – grad_g5): grad_g1 grad_g2 198.3747 4.5 6.6335698 58171.739 182.25 53.068558 grad_g3 grad_g4 grad_g5 -2 -4 -5 6 0 5 0 -1 0 Gradient funkcji celu jest grad_f -173.6407 2.1885354 1.4474E17 Problemy z ograniczeniami kwadratowymi i optymalizacja na stożkach 99 Hesjany funkcji nieliniowych: Hessian_f 3 -6 -8 -6 121.5 -4 -8 -4 4.3423E17 Hessian_g1 17.496453 0 0 0 0 1 0 0 0.5 Hessian_g2 116343.48 0 0 0 121.5 0 0 0 4 Na podstawie powyższych danych rozwiązujemy zadanie z ograniczeniami kwadratowymi, stosując procedurę optmodel (proc optmodel). title ‘QCQO Problem’; proc optmodel; number l{1..3} = [3.5 4.5 2.0]; number u{1..3} = [20 16 18.0]; var x{j in 1..3} >= l[j] <= u[j]; minimize fobj= 3*x[1]^2 + 121.5*x[2]^2 + 4.3423e1 *x[3]^2 - 12 * x[1] * x[2] - 16 * x[1] * x[3] - 8 * x[2] * x[3] 173.6407*x[1] + 2.1885354*x[2] + 1.4474e17*x[3]; con c1: 17.496453* x[1]^2 + 1.0 * x[2]^2 + 0.5*x[3]^2 <= 408; con c2: 116.343 *x[1]^2 + 121.5 * x[2]^2 + 4 * x[3]^2 <= 15100; con c3: 2*x[1] + 4*x[2] + 5*x[3] <= 96; con c4: 6.0 * x[1] + 5 * x[3] >= 56; /* Staring point x1 = 7, x2 = 5, x3 = 7 */ x[1] = 6.7; x[2] = 4; x[3] = 1.5; SOLVE obj fobj with ipnlp / maxiter=2000; print x 18.4; print c1.dual 18.4 c2.dual 18.4 c3.dual 18.4 c4.dual 18.4; print x.dual 18.4; print fobj 18.4; quit; Otrzymano rozwiązanie (fragment raportu z proc optmodel): QCQO Problem The OPTMODEL Procedure Podsumowanie rozwiązania Solver IPNLP/IPQN Objective Function fobj Solution Status Optimal Objective Value 8.2055437E17 Iterations 138 Infeasibility Optimality Error 8.5345601E-9 9.0532093E-7 100 Henryk J. Runka [1] x 1 4.6090 2 4.5000 3 5.6692 c1.DUAL c2.DUAL c3.DUAL c4.DUAL -1124336466717570-11409.9256 -0.003830222808885300692 [1] x.DUAL 1 3197266.3754 2 10119028212925762 3 53801166.6453 fobj 820554367232925184 Otrzymano wartości zmiennych: x1 = 4,6090, x2 = 4,5, x3 = 5,6692. Należy zauważyć, że określając punkt startowy w powyższym kodzie, przyjęto x3 = 1,5 < 2, które jest dolnym ograniczeniem dla tej zmiennej. Stosując algorytm punktów wewnętrznych, można startować od dowolnego niedopuszczalnego rozwiązania. Nie jest jednak zalecane, ażeby początkowe wartości zmiennych „zbyt daleko” odbiegały od wartości dopuszczalnych, bo może to „istotnie” wydłużyć proces obliczeniowy. Tutaj rozwiązując zadanie z ograniczeniami kwadratowymi, zastosowano w proc model algorytm punktów wewnętrznych optymalizacji nieliniowej. W przedstawionym przykładzie zaprezentowano wykonanie tylko początkowych kroków w celu pokazania przejścia od zadania problemu NLO do zadania problemu QCQO, wykorzystując procedury oprogramowania SAS Institute Inc. Podstawowym utrudnieniem w stosowaniu aproksymacji kwadratowych dla funkcji nieliniowych jest wyznaczanie hesjanów i gradientów. Można je wyznaczać numerycznie [Nocedal i Wright 2006, s. 193–217] lub analitycznie, co wymaga napisania odpowiedniego oprogramowania, w którym wyznaczy się formuły analityczne do wyliczenia wartości elementów wektora gradientu i macierzy hesjanu. Zamiast rozwiązywania zadań optymalizacji nieliniowej z ograniczeniami kwadratowymi i liniowymi można dokonać jego transformacji do zadania problemu SOC (second-order cone). W języku angielskim często używa się SOCP problem (second-order cone program). Tutaj będziemy stosować SOCO (second-order cone optimization) problem. Problemy z ograniczeniami kwadratowymi i optymalizacja na stożkach 101 2. Optymalizacja na stożku Problem SOCO (second-order cone optimization) jest zdefiniowany następująco (por. [Lobo i in. 1998, s. 194]): min f Tx przy ograniczeniach (20) Ai x bi d ciT x di , i 1, !, K , gdzie: Fx g , l d x d u, f \n , Ai \(ni 1)un , bi \ni 1 , ci \n , di \, F \ n E un , g \ nE , l , u \n , u ! l , x \n , { 2 , przy czym Ai x bi d ciT x di jest ograniczeniem na stożku drugiego rzędu wymiaru ni. Jednostkowy stożek drugiego rzędu o wymiarze k zdefiniowany jest jako ° ªv º °½ k 1 ® « » : v \ , t \, v d t ¾ °¿ ¯° ¬ t ¼ i nazywany jest [Labo i in. 1998, s. 104] stożkiem: kwadratowym, ice-cream lub Lorentza. Jego prezentcję w przypadku k = 2 zawiera poniższy rysunek. v 2 v2 v t t v v Stożek Lorentza dla k = 2. Wyznaczamy t t v 2 Bazaraa, Sherali i Shetty [2006, s. 62 i n.] przedstawili inne typy stożków. 102 Henryk J. Runka W przypadku problemu optymalizacji kwadratowej (QO) [Lobo i in. 1998, s. 197] postaci min f TQx + 2cTx + d przy ograniczeniach αiT x d bi , i 1, !, p, l j d x j d u j , j 1, }, n, (21) gdzie Q 0, QT = Q, chcąc przekształcić go w problem SOCO, wprowadza się podstawienie v 1 1 2 Q x Q 2 c. (22) w którym: 1· § 1 V u diag ¨ λ12 , }, λ2n ¸ uV T, ¨ ¸ © ¹ gdzie V, λ : Q = V × diag(λ1, …, λn) × VT, zatem V jest macierzą wektorów własnych, a λi (i = 1, …, n) są wartościami własnymi macierzy Q, 1 1· § 1 • Q 2 V u diag ¨ λ12 , }, λ2n ¸ uV T, ¨ ¸ © ¹ gdzie V, λ : Q–1 = V × diag(λ1, …, λn) × VT i, podobnie jak wyżej, V jest macierzą wektorów własnych, a λi (i = 1, …, n) są wartościami własnymi macierzy Q–1. Mamy wówczas: 1 • Q2 1 v Tv 1 1 1 1 1 x TQ 2 Q 2 x 2 x TQ 2 Q 2 c c TQ 2 Q 2 c x TQx 2x Tc c TQ 1c. (23) Funkcja f (x) = xTQx + 2cTx + d w (21) ma rozwiązanie optymalne bez ograniczeń xopt Q 1c, wyznaczone z warunków optymalności pierwszego rzędu: x f (x) = 2Qx + 2c = 0 Qx + c = 0, a jej wartość optymalna f (xopt ) (1)c TQ 1Q(1)Q 1c 2(1)c TQ 1c d c TQ 1c 2c TQ 1c d c TQ 1c d. Zatem, pomijając powyżej stałą d, zachodzi: v Tv x TQx 2 x Tc f (x opt ) . Ponieważ f (x opt ) d f (x ), x : Ax ≤ b, l ≤ x ≤ u w (21), zatem vTv ≥ 0. Problemy z ograniczeniami kwadratowymi i optymalizacja na stożkach 103 Przyjmując w (20) ciT = 0, i = 1, …, K, otrzymujemy problem SOCO postaci: min t przy ograniczeniach 1 1 2 Q x Q 2c d t, 2 Ax ≤ b, l ≤ x ≤ u, lub w ogólniejszym zapisie, korzystając z (21) i (22): min t przy ograniczeniach 1 1 2 Q x Q 2 c, v Ax d b, l d x d u, (t ; v ) ;^ 0, gdzie (t ; v ) ; ^ 0 v 2 d t i t wyraża minimalną odległość, wyrażoną za pomocą normy, pomiędzy rozwiązaniem względem zmiennych x a rozwiązaniem optymalnym bez ograniczeń xopt Q 1c. Korzystając z przekształcenia problemu QO w problem SOCO, ogólniejszy problem QCQO postaci min x TQ0 x 2 x Tc0 d0 przy ograniczeniach: x TQi x x Tci di d bi , i I lub x TQi x x Tci di bi d 0, i I , αiT x bi , i E , l j d x j d u j , j 1, }, n, można (po podstawieniu di min t przy ograniczeniach 1 1 2 Q0 x Q0 2 c0 di bi) przetransformować w SOCO: d t, (25) 2 1 1 2 2 Qi x Qi ci d ciTQi1ci di 2 αiT x (24) bi , i E , 1 2, i I , 104 Henryk J. Runka Zgodnie z (23), przekształcając w (25) 1 1 2 Qi x Qi 2 ci d ciTQi1ci di 1 2 2 w 1 1 Qi2 x Qi 2 ci 2 d ciTQi1ci di , 2 wyrażenie cTQ–1c występuje po lewej i prawej stronie (co oznacza, że może być wyeliminowane), więc otrzymamy ograniczenia zgodne z (2) postaci x TQi x 2 x Tci di d 0 x TQi x 2 x Tci di d bi . W przypadku funkcji kwadratowej 1 T x Qx x Tc d, 2 stosujemy podstawienie 1 v 1 1 2 1 Q x Q 2 c. 2 2 Wówczas 1 T v v 1 1 1 1 1 1 T 2 2 1 1 1 1 1 2 x TQ 2 Q 2 c c TQ 2 Q 2 c x Q Q x 2 2 2 2 2 2 1 T 1 x Qx x Tc c TQ 1c. 2 2 Teraz (pominąwszy stałą d) zachodzi 1 f (xopt ) (1) c TQ 1Q(1)Q 1c (1)c TQ 1c 2 1 T 1 1 c Q c c TQ 1c c TQ 1c, 2 2 skąd v Tv 1 T x Qx x Tc f (xopt ) t 0. 2 Problemy z ograniczeniami kwadratowymi i optymalizacja na stożkach 105 Podobnie jak przy rozwiązywaniu instancji problemu QCQO, również rozwiązując instancje SOCO oprogramowanie nie jest powszechnie dostępne. Głównymi producentami tego typu oprogramowania są przykładowo: IBM CPLEX, MatLab, Mosek, OpenOpt. Innym problemem wywodzącym się z ekonometrii jest problem estymacji A1 parametrów nieliniowych modeli. Stosując aproksymacje kwadratowe nieliniowych funkcji [Runka 2011, s. 148 i n.]: min eTr+ + eTr– przy ograniczeniach: β Φ xiT ; βk T 'β 'βT2ββ Φ xiT ; βk 'β ri ri y i , ri , ri t 0, i 1, }, n, (26) gdzie : Φ x r , r \n , 'β \m1 , β Φ xiT ; βk \m1 , 2ββ T i ; βk \ (m1)u(m1) , możemy przekształcić go w problem SOCO n min ¦ ti i 1 przy ograniczeniach: 2 1 T 2 § · T T ¨ βΦ(xi ; βk )Δβ 2 Δβ ββΦ( xi ; βk )Δβ y i ¸ d ti , i 1, }, n, © ¹ ti t 0, i 1, }, n, gdzie : y i yi Φ(xiT ; β k ), y (27) y Φ(X ; β k ), y \n . W (27) ograniczenia są stożkami jednostkowymi, jak na rys. 1, zgodnie z który1 2 Φ(x iT; βk ) 'β y i, mi dla skalarnych wartości vi β Φ(x Ti ; β k )'β 'β Tββ 2 v . zachodzi v i 2 i Zatem stosując estymację A1 parametrów nieliniowych modeli, możemy rozwiązywać instancje problemu (27), zamiast instancji problemu (26). Stosując transformacje do problemu SOCO, napotykamy takie same utrudnienia jak w problemie QCQO, a mianowicie – jak wyznaczać gradient i hesjan. 106 Henryk J. Runka Podsumowanie Dla rozwiązywania instancji (zadań) problemu optymalizacji nieliniowej, wykorzystuje się zarówno solwery zawierające implementacje wielu algorytmów stosowanych od dziesiątek lat, jak i nowsze, jak na przykład algorytmu punktów wewnętrznych rozwiązywania zadań optymalizacji kwadratowej i nieliniowej. Poszukiwanie alternatywnych koncepcji algorytmów oraz specyfika zagadnień praktycznych spowodowały pojawienie się problemów QCQO i SOCO. Innym podejściem jest transformacja problemu QCQO w problem SDP (Semidefinite Programming) [Anstreicher 2004], do którego można również transformować problem QCQO. Bibliografia Anstreicher, K.M., 2004, SDP versus RLT for Nonconvex QCQP, Workshop on Integer Programming and Continuous Optimization, Chemnitz. Bazaraa, M.S., Sherali, H.D., Shetty, C.M., 2006, Nonlinear Programming. Theory and Algorithms, J. Wiley & Sons, 3rd ed. Boyd, S., Vandenberghe, L., 2009, Convex Optimization, Cambridge University Press. Lobo, M.S., Vandenberghe, L., Boyd, S., Lebret, H., 1998, Applications of Second-Order Cone Programming, Linear Algebra and its Applications. Nocedal, J., Wright, S.J., 2006, Numerical Optimization, Springer (Series in Operations Research). Runka, H.J., 2006, Ograniczenia na zmienne w algorytmach punktów wewnętrznych, w: Panek, E. (red.), Matematyka w ekonomii, Wydawnictwo Akademii Ekonomicznej w Poznaniu, Poznań. Runka, H.J., 2009, Interior Points in Nonlinear Optimization with Bounds on Variables, w: Panek, E. (red.), Mathematics in Economics, red. nauk. E. Panek, Wydawnictwo Uniwersytetu Ekonomicznego w Poznaniu, Poznań. Runka, H.J., 2012, Metody punktów wewnętrznych w estymacji parametrów modeli ekonometrycznych, w: Panek, E. (red.), Matematyka i informatyka na usługach ekonomii. Modelowanie zjawisk gospodarczych. Elementy teorii, Wydawnictwo Uniwersytetu Ekonomicznego w Poznaniu, Poznań. SAS/ETS ® 9.3, User’s Guide, 2011, SAS Publishing. SAS/IML ® 9.3, User’s Guide, 2011, SAS Publishing. SAS/OR ® 9.3, User’s Guide: Mathematical Programming, 2011, SAS Publishing. STUDIA OECONOMICA POSNANIENSIA 2013, vol. 1, no. 10 (259) Karolina Siemaszkiewicz Uniwersytet Ekonomiczny w Poznaniu, Wydział Informatyki i Gospodarki Elektronicznej, Katedra Matematyki Stosowanej [email protected] TEORIA WARTOŚCI EKSTREMALNYCH – ZASTOSOWANIE DO SEKTORA SUROWCÓW ENERGETYCZNYCH Streszczenie: Rynek surowców energetycznych jest bardzo ważną gałęzią gospodarki. Podstawowym źródłem energii dla transportu oraz elektrowni jest ropa naftowa, natomiast gaz ziemny wykorzystywany jest w przemyśle, produkcji energii elektrycznej i w gospodarstwach domowych. Ponieważ są to bardzo istotne surowce w gospodarce, więc ważnym zadaniem jest zarządzanie ryzykiem niekorzystnych wahań cen wspomnianych paliw energetycznych. Jednym z często stosowanych narzędzi usprawniających proces zarządzania ryzykiem przed wystąpieniem niekorzystnych zmian jest wartość zagrożona (VaR – Value at Risk). Wartość zagrożona jest powszechnie stosowaną miarą ryzyka na rynkach finansowych. Niedoszacowanie i przeszacowanie wartości zagrożonej jest bardzo niekorzystne. Jeżeli niedoszacujemy tę miarę, to możemy narazić się na utratę płynności. Przeszacowanie zaś uniemożliwia wykorzystanie w optymalny sposób całkowitych środków przeznaczonych na inwestycje. Dlatego istotnym zadaniem jest prawidłowe oszacowanie wartości zagrożonej. Jedną z teorii, która może służyć oszacowaniu wartości zagrożonej jest teoria wartości ekstremalnych. Słowa kluczowe: Extreme Value Theory, zarządzanie ryzykiem, wartość zagrożona, warunkowa wartość zagrożona, surowce energetyczne. Klasyfikacja JEL: C13, C51. EXTREME VALUE THEORY – ITS APPLICATION TO ENERGY MARKETS Abstract: The energy market is a very important sector of the economy. Oil is the primary source of energy for transportation and power, with natural gas being used in industry, electricity production and in households. Since this is a very important raw material in the economy it is therefore an important task to manage the risk of adverse fluctuations in the prices of these fuels. 108 Karolina Siemaszkiewicz One of the frequently used tools for safeguarding the risk management process against adverse changes is value at risk (VaR). Due the volatility of energy markets, implementing an effective risk management system becomes an urgent necessity. The VaR methodology as a measure of market risk has gained rapid acceptance and popularity by both institutions and regulators. Moreover, Extreme Value Theory has been successfully applied in many fields where extreme values may appear. In this paper Extreme Value Theory models are compared to conventional models such as Historical Simulation. Our results indicate that Extreme Value Theory offers a better estimation of Value at Risk than traditional methods. Keywords: Extreme Value Theory, risk management, value at risk, conditional value at risk, energy resources. Wstęp Rynek surowców energetycznych jest bardzo istotny dla gospodarki. Ropa naftowa to podstawowe źródło energii dla transportu, elektrowni. Gaz ziemny natomiast ma zastosowanie w przemyśle, produkcji energii elektrycznej jak i w gospodarstwach domowych. Zmiany cen ropy naftowej i gazu ziemnego mają istotny wpływ nie tylko na podaż i popyt tych surowców, ale też na inne gałęzie gospodarki. Silne wahania cen ropy mogą być spowodowane przez wiele czynników. Na cenę ropy naftowej mogą mieć wpływ: polityka prowadzona przez OPEC (Organization of Petroleum Exporting Countries – Organizacja Krajów Eksportujących Ropę), wojny i konflikty polityczne na Środkowym Wschodzie, zakłócenia w dostawach spowodowane katastrofami naturalnymi, jej dostępność oraz rezerwy. Również wzrost gospodarczy może się przyczyniać do zwiększenia popytu na ropę, a w konsekwencji do wzrostu cen ropy. Ceny gazu są kształtowane przez poziom rezerw i wielkość produkcji krajowej [Schofield 2007]. W zawiązku z licznymi, nieprzewidywalnymi czynnikami znaczne mogą być wahania cen ropy, gazu oraz paliwa. Bardzo ważnym zadaniem jest więc modelowanie zmian cen ropy, energii elektrycznej, gazu oraz poszukiwanie bardziej efektywnych narzędzi do skutecznego zarządzania niekorzystnymi wahaniami cen surowców energetycznych. Jedną z powszechnie stosowanych miar wspomagającą zarządzanie ryzykiem przed wystąpieniem niekorzystnych warunków jest wartość zagrożona (VaR – Value at Risk). Wartość zagrożona jest najbardziej popularną miarą ryzyka na rynkach finansowych. Najprościej ujmując, odpowiada na pytanie, ile możemy stracić z określonym prawdopodobieństwem w danym okresie [Jorion 1997]. Teoria wartości ekstremalnych – zastosowanie do sektora surowców energetycznych 109 Istniejące podejścia do wyznaczania wartości zagrożonej możemy podzielić na trzy grupy. Pierwsza to metody nieparametryczne, takie jak historyczna symulacja. W niniejszym artykule będziemy ją nazywać podejściem klasycznym. Druga grupa to metody opierające się na modelach ekonometrycznych zmienności. Trzecia, na której skupia się niniejsza praca, to teoria wartości ekstremalnych (extreme value theory – EVT) modelująca ogony rozkładów. Teoria wartości ekstremalnych ma ogromne zastosowanie wówczas, gdy pojawiają się wartości ekstremalne, czyli w takich obszarach jak: hydrologia, która jest badana w pracach: [Davison i Smith 1990; Katz, Parlagne i Naveau 2002]; ubezpieczenia [McNeil 1999] oraz finanse [Danielsson i de Vries 1997; McNeil 1998; Embrechts, Resnick i Samorodnitsky 1999; Gencay i Selcuk 2004]. W odniesieniu do rynku surowców energetycznych badania dotyczące szacowania wartości zagrożonej były rozważane w pracy Cabedo i Moya [2003], w której autorzy analizowali jakość prognoz VaR dla kursu gotówkowego ropy naftowej Brent od 1992 do 1998 roku. Fan i współautorzy [2008] wykorzystali model GARCH z uogólnionym rozkładem dla błędu (GED). Hung, Lee i Liu [2008] użyli prognoz zmienności z modelu GARCH do szacowania wartości zagrożonej kursu natychmiastowego ropy WTI oraz Brent, oleju opałowego, propanu oraz benzyny. W przeciwieństwie do powyższych modeli, które odnoszą się do całkowitego rozkładu, teoria wartości ekstremalnych skupia się na „ogonach” rozkładu, które są zaledwie małą częścią całego rozkładu. W związku z tym wykorzystanie EVT jest lepsze aniżeli inne podejścia. Na przykład Krehbiel i Adkins [2005] rozważali teorię wartości ekstremalnych. Analizowali ceny ryzyka rynku NYMEX z wykorzystaniem teorii wartości ekstremalnych. Marimoutou, Raggad i Trabelsi [2009] prowadzili podobne badania – z zastosowania EVT. Szacowali VaR kursu natychmiastowego ropy naftowej WTI i ropy Brent. Celem niniejszego artykułu jest zastosowanie teorii wartości ekstremalnych do wyznaczenia wartości zagrożonej oraz warunkowej wartości zagrożonej (CVaR) dla rynku surowców energetycznych. Wyliczono VaR i CVaR przy użyciu uogólnionego rozkładu Pareto oraz porównano je z wynikami otrzymanymi z zastosowaniem historycznej symulacji. 1. Teoria wartości ekstremalnych Istnieją dwa typy metod służących do modelowania wartości ekstremalnych. Pierwszy z nich oparty jest na modelu „bloków maksymalnych” (block 110 Karolina Siemaszkiewicz maxima). Jest to model odpowiedni dla dużej liczby obserwacji wybranych z dużej próby. Obserwacje pochodzą z niepokrywających się, równych bloków [McNeil 1999]. Bardziej efektywnym podejściem do modelowania ekstremalnych wydarzeń jest tak zwany model przekroczeń (peak over threshold model – POT), który pozwala na estymację ogona rozkładu zwrotów przekraczających przyjęty próg. Model POT ma większe zastosowanie w praktyce, gdyż lepiej dopasowuje się do często nielicznych danych wartości ekstremalnych [McNeil 1999]. Niniejsza praca skupia się właśnie na modelu POT. Dla danej zmiennej losowej oraz wartości progowej u rozkład przekroczeń powyżej wartości progowej zdefiniujemy jako [McNeil, Frey i Embrechts 2005]: Fu (x ) P ( X u d x | X ! u) F (x u) F (u) , 1 F (u) (1) gdzie F jest nieznaną dystrybuantą rozkładu zmiennej losowej X. Jeżeli jest wystarczająco dużą wartością, to według twierdzenia Gnedenko–Pickandsa–Balkema–de Haana [Balkema i de Haana 1974], dystrybuanta warunkowa Fu(y) ma rozkład graniczny, który jest uogólnionym rozkładem Pareto GPD (generalized Pareto distribution) z dystrybuantą postaci [Dowd 2002]: § ξ x ·1/ξ °1 ¨ 1 dla ξ z 0, ¸ ° © β ¹ Gξ , β (x ) ® (2) §x· ° ¨ ¸ °1 e © β ¹ dla ξ 0, ¯ gdzie β > 0 oraz x ≥ 0. W rozkładzie tym wyróżniamy dwa parametry: β, czyli tak zwany parametr skali, oraz ξ tzw. parametr kształtu, który odpowiada za grubość ogona rozkładu. Chcąc oszacować dystrybuantę rozkładu Pareto, musimy wybrać rozsądną wielkość wartości progowej u, która jest zależna od ilości obserwacji n oraz wartości Nu, czyli ilości wartości przekroczeń progu u. Wybór wartości u ma wpływ na otrzymane wartości estymatorów. Dystrybuanta rozkładu Pareto jest postaci [Dowd 2002]: F (x ) gdzie x > u. 1 F (u) Gξ , β (x u) F (u), (3) Teoria wartości ekstremalnych – zastosowanie do sektora surowców energetycznych 111 Jeżeli wyestymujemy wartość F(u), która jest ilorazem ilości wartości nien Nu przekraczających próg u, do liczby wszystkich obserwacji, czyli F (u) , n to równanie (3) przyjmuje postać [Dowd 2002]: 1/ξ ª x uº (4) «1 ξ » . β ¼ ¬ Pierwszy etap badania polega na wyestymowaniu parametrów uogólnionego rozkładu Pareto. W tym celu korzystamy z metody największej wiarygodności. Dla wystarczająco dużego progu u mamy Fu(x) = Gξ, β(x), gdzie 0 ≤ x ≤ xF – u i ξ , β > 0. Ponadto dane mamy zmienne X1, …, Xn oraz losową liczbę Nu osiągającą próg u. Oznaczymy dla uproszczenia dane zmienne losowe jako X 1 , }, X N u. Dla każdej z tych zmiennych, przekraczającej próg, obliczamy resztę Y j X j u dla funkcji przekraczającej stratę. Następnie chcemy wyestymować parametry rozkładu GPD w taki sposób, aby dopasować ten rozkład dla Nu funkcji przekraczającej stratę [McNeil, Frey i Embrechts 2005]. Oznaczmy przez gξ, β funkcję gęstości rozkładu GPD, wtedy [McNeil, Frey i Embrechts 2005]: F (x ) 1 Nu n Nu ln L(ξ , β, Y1 , }, YN u ) ¦ ln g ξ, β (Yj ) j 1 N Yj · § 1· u § N u ln β ¨ 1 ¸ ln ¨¨ 1 ξ ¸¸ . β¹ © ξ¹ j 1 © ¦ (5) Yj Funkcję tę maksymalizujemy pod warunkiem, że β > 0 oraz 1 ξ ! 0 β dla każdego j. Jeżeli wybierzemy zbyt dużą wartość progu, może to spowodować zmniejszenie liczby obserwacji niezbędnych do wyznaczenia wartości estymatorów, co w konsekwencji zwiększa wariancję. Wybranie zbyt niskiego progu skutkuje obciążeniem estymatora, gdyż do opisu „ogona” rozkładu użyto by zbyt dużo centralnych obserwacji [Trzpiot 2010]. Najczęściej używaną metodą wyboru progu jest metoda graficzna, w której wykorzystywany jest wykres funkcji wartości oczekiwanej przekroczenia (mean excess). Funkcja gęstości przekroczenia Fu opisuje rozkład strat przekroczeń ponad próg u, pod warunkiem że u jest osiągalne. Funkcja wartości oczekiwanej przekroczeń opisuje wartość oczekiwaną Fu i dana jest wzorem [McNeil, Frey i Embrechts 2005]: e(u) = E(X – u | X > u). (6) 112 Karolina Siemaszkiewicz Dla zmiennej losowej X oraz funkcji gęstości F = Gξ, β, funkcję gęstości przekroczeń można obliczyć ze wzoru: Fu(x) = Gξ, β(u)(x), (7) gdzie β(u) = β + ξu. Wtedy funkcja wartości oczekiwanej przekroczenia dana jest równaniem: e(u) β ξu . 1 ξ (8) Funkcja e(u) powinna być funkcją liniową, co stanowi kryterium wyboru wartości u [Trzpiot 2010]. Czasami wybiera się jako próg wartość 5 lub 10% obserwacji w zależności od liczebności próby. W niniejszym artykule zastosowano tę metodę wyboru progu. 2. Wyznaczenie wartości zagrożonej oraz warunkowej wartości zagrożonej Wartość zagrożona jest jedną z powszechnie używanych miar ryzyka. Najprościej odpowiada ona na pytanie: ile możemy maksymalnie stracić w danym czasie, z określonym prawdopodobieństwem [Jorion 1997]. Ze statystycznego punktu widzenia VaR jest kwantylem rozkładu stóp zwrotu. W niniejszej pracy do szacowania wartości zagrożonej wykorzystujemy teorię wartości ekstremalnych oraz historyczną symulację. Model POT Model POT jest łatwiejszy do zastosowania, ze względu na ograniczoną liczbę danych z ogona rozkładu. W celu wyznaczenia wartości zagrożonej stosujemy wzór (4). Wtedy [Dowd 2002]: · β ª§ n VaR u «¨ (1 α) ¸ ξ «© N u ¹ ¬ ξ º 1», » ¼ gdzie α jest współczynnikiem ufności (bliskim 1) dla VaR. (9) Teoria wartości ekstremalnych – zastosowanie do sektora surowców energetycznych 113 Warunkową wartość zagrożoną (expected shortfall – CVaR) możemy najprościej zdefiniować jako wartość oczekiwaną straty pod warunkiem, że strata ta przekroczy wartość zagrożoną dla danego poziomu ufności [Rockafellar i Uryasev 2000]. Stosując uogólniony rozkład Pareto, wyznaczamy warunkową wartość zagrożoną ze wzoru: CVaR VaRα β ξu . 1 ξ 1 ξ (10) Historyczna symulacja Pierwszą, powszechnie używaną metodą oszacowania wartości zagrożonej jest historyczna symulacja. Jest to najprostsza i najbardziej zrozumiała metoda obliczania wartości zagrożonej. Polega ona na wykorzystaniu danych historycznych, czyli historycznych stóp zwrotu danego instrumentu finansowego, które umożliwiają określenie empirycznego rozkładu stóp zwrotu. Pozwala to na określenie wartości zagrożonej poprzez wyznaczenie kwantyla tego rozkładu [Jajuga 2007]. 3. Dane W niniejszym artykule wyznaczono wartość zagrożoną i warunkową wartość zagrożoną, wykorzystując uogólniony rozkład Pareto. Wyniki tych obliczeń porównano z wynikami wyznaczenia VaR przy użyciu klasycznego podejścia (wyznaczenie odpowiedniego kwantyla). Analizowano szeregi rt dziennych logarytmicznych stóp zwrotu, które obliczono na podstawie wzoru: rt = 100(ln Pt – ln Pt–1). (11) Notowania stóp zwrotu rozważanych surowców energetycznych pochodzą z okresu od 2 stycznia 2007 do 28 marca 2013 roku, co daje 1595 stóp zwrotu. Wybrano tak długi okres, aby umożliwić estymację parametrów rozkładu Pareto. W tabeli 1 umieszczono statystyki opisowe rozważanych logarytmicznych stóp zwrotu z surowców energetycznych. Stopy zwrotu rozważanych paliw energetycznych mają dodatnią średnią wartość stóp zwrotu. Tylko jeden surowiec, olej napędowy, ma prawostronną skośność, natomiast pozostałe mają 114 Karolina Siemaszkiewicz Tabela 1. Statystyki opisowe rozważanych stóp zwrotu Statystyki –12,96 18,59 0,01 2,4937670 Olej napędowy –9,64 11,26 0,00 2,0024554 –11,50 13,00 0,02 2,4688567 Olej grzewczy –9,49 8,39 0,02 2,0383759 –0,0351469 7,5330782 0,0925420 6,0589629 –0,2560778 6,4081596 –0,2037483 4,9185841 Ropa Brent Ropa WTI Minimum –12,59 Maksimum 11,79 Średnia 0,02 Odchylenie 2,2858471 standardowe Skośność –0,2800958 Kurtoza 6,6786983 Benzyna lewostronną skośność. Kurtoza dla danych stóp zwrotu jest większa aniżeli 3, więc badane rozkłady nie są rozkładami normalnymi. Należy również zwrócić uwagę na to, że zarówno najmniejszą minimalną, jak i największą maksymalną dodatnią stopę zwrotu osiągnęła ropa WTI. Rysunek 1 przestawia zachowanie się cen ropy Brent i ropy WTI. Można zauważyć przybliżony ruch cen obu surowców energetycznych. Pierwszy gwałtowny wzrost ceny ropy nastąpił w lipcu 2008 z około 50 dolarów za baryłkę – z początku okresu badania – aż do 150 dolarów za baryłkę. Bezpośrednimi przyczynami gwałtownego wzrostu, po pierwsze, były obawy o zakłócenia w dostawach surowca z Iranu spowodowane manewrami wojennymi przeprowadzanymi przez izraelską armię nad Irakiem, które mogły sugerować atak na Iran. Po drugie, w Nigerii organizacja Ruch Wyzwolenia Delty Nigru (MEND) zapowiedziała wznowienie ataków na instalacje produkcyjne i przesyłowe ropy naftowej. We wrześniu 2008 roku upadł bank inwestycyjny Lehman Brothers. Dzień jego upadku uznaje się za początek światowego kryzysu finansowego. Spowolnienie gospodarcze przyczyniło się do tego, że na początku 2009 roku cena baryłki ropy Brent spadła do poziomu 40–45 dolarów. Na początku 2010 roku cena wzrosła do poziomu 75–80 dolarów. Protesty niezadowolenia społecznego, jakie wybuchły na początku 2011 roku w krajach Afryki i Bliskiego Wschodu, spowodowały, że cena ropy naftowej poszybowała w górę. W styczniu 2011 roku baryłka Brent kosztowała średnio ponad 96 dolarów. W Libii 17 lutego 2011 roku wybuchły masowe protesty przeciw długoletniemu panowaniu pułkownika Kadafiego. Doszło do starć zbrojnych, co natychmiast przyczyniło się do tego, że już 24 lutego cena ropy naftowej wzrosła do 120 dolarów; 2 marca 2011 roku cena nieznacznie spadła do 116 dolarów za baryłkę. Teoria wartości ekstremalnych – zastosowanie do sektora surowców energetycznych 115 Irański serwis informacyjny 1 marca 2012 roku podał, że wybuchł rurociąg w Arabii Saudyjskiej. Informacja ta, jak się później okazało nieprawdziwa, spowodowała skok ceny ropy Brent do 128 dolarów. Cena baryłki ropy Brent w tamtym okresie wyniosła około 120 dolarów, o 20% więcej niż na początku roku. W Sudanie wystąpił konflikt, który również się przyczynił w dużej mierze do światowego spadku podaży ropy i tym samym wpłynął na wzrost cen surowca. Kolejne zakłócenia w światowych dostawach ropy naftowej są skutkiem trwającego konfliktu w Syrii i nałożonego na ten kraj embarga, strajku pracowników sektora naftowego w Jemenie i modernizacji platform wiertniczych na Morzu Północnym. 170 150 130 110 90 70 50 ropa WTI ropa Brent 12.11.2012 25.06.2012 3.02.2012 14.09.2011 27.04.2011 6.12.2010 19.07.2010 26.02.2010 7.10.2009 18.05.2009 19.12.2008 31.07.2008 7.03.2008 16.10.2007 25.05.2007 2.01.2007 30 Rysunek 1. Dzienne ceny ropy Brent i ropy WTI (cena w dolarach amerykańskich za baryłkę) Tabela 2. Parametry uogólnionego rozkładu Pareto dla lewych i prawych „ogonów” rozkładu dla progu u = 10% Surowce energetyczne Ropa Brent Ropa WTI Olej napędowy Benzyna Olej grzewczy Źródło: Obliczenia własne. Lewy ogon β ξ 2,411315 0,3 2,434506 0,3 1,603324 1,1 2,460540 0,3 1,603092 1,1 Prawy ogon β ξ 2,377689 –0,3 2,363828 –0,3 2,300342 –0,3 2,424361 –0,3 1,423678 –1,1 116 Karolina Siemaszkiewicz Z analizy danych zawartych w tabeli 2, w której umieszczono wyniki estymacji parametrów rozkładu GPD dla progu u = 10%, wynika, że wartości parametru kształtu dla lewego „ogona” są dodatnie, natomiast dla prawego są ujemne. Najwyższe wartości indeksu lewego „ogona” należą do surowców: olej napędowy i olej grzewczy, co wiąże się z wyższym ryzykiem związanym z tymi surowcami. Co więcej, wartości indeksu lewego „ogona” każdego z rozważanych instrumentów są cięższe od prawych, co oznacza, że wysokie ujemne stopy zwrotu są bardziej prawdopodobne niż dodatnie. Podobne wyniki można zaobserwować dla danych zawartych w tabeli 3, w której znajdują się wyniki estymacji parametrów rozkładu GPD dla progu u = 5%. Wartości parametru kształtu dla lewego „ogona” są dodatnie, natomiast dla prawego są ujemne. Podobne są wartości wyestymowanych parametrów dla ropy WTI, oleju napędowego oraz oleju grzewczego bez względu na wybór progu. Może to być spowodowane tym, że wartości oszacowań ustabilizowały się już dla progów wyższych aniżeli 5%. Zatem w przypadku tych surowców energetycznych wybór progu pomiędzy 5 a 10% nie miał znaczenia. Można również przeprowadzić badanie, ukazujące przy jakim progu wartości wyestymowanych parametrów się stabilizują, jednakże to nie było głównym celem niniejszego badania. Tabela 3. Parametry uogólnionego rozkładu Pareto dla lewych i prawych „ogonów” rozkładu dla progu u = 5% Surowce energetyczne Ropa Brent Ropa WTI Olej napędowy Benzyna Olej grzewczy Lewy ogon β ξ 1,369552 1,1 2,414293 0,3 1,340253 1,1 1,894925 1,1 1,510520 1,1 Prawy ogon β ξ 2,331123 –0,3 2,380679 –0,3 2,332855 –0,3 2,410998 –0,3 1,451648 –1,1 Źródło: Obliczenia własne. Kolejny etap badania polegał na wyznaczeniu wartości zagrożonej (VaR) oraz warunkowej wartości zagrożonej (CVaR) przy użyciu teorii wartości ekstremalnych. Wartości te wyznaczono, korzystając ze wzorów (9) i (10). Wyniki tych obliczeń porównano z wynikiem wartości zagrożonej otrzymanej z historycznej symulacji (podejście klasyczne). Obliczenia wykonano dla poziomu α = 0,05 – prawy ogon rozkładu (tabela 4) oraz dla α = 0,95 (tabela 5). Z tabeli 4 wynika, że jedynie dla surowca olej grzewczy wielkość wartości zagrożonej jest niższa, jeżeli zastosujemy teorię wartości ekstremalnych dla Teoria wartości ekstremalnych – zastosowanie do sektora surowców energetycznych 117 Tabela 4. Oszacowanie VaR i CVaR dla poziomu 1 – α = 0,95 z wykorzystaniem teorii wartości ekstremalnych i podejściem klasycznym GPD Surowce energetyczne Ropa Brent Ropa WTI Olej napędowy Benzyna Olej grzewczy 10% VaR 3,93 4,21 3,62 4,23 3,18 5% CVaR 5,41 5,68 5,06 5,74 3,49 VaR 3,44 3,69 3,07 3,73 3,25 CVaR 5,23 5,52 4,85 5,58 3,94 VaR – podejście klasyczne 3,44 3,69 3,01 3,73 3,25 Źródło: Obliczenia własne. progu u = 10%, aniżeli stosując metodę historycznej symulacji. Należy pamiętać o tym, że zarówno niedoszacowanie, jak i przeszacowanie wartości zagrożonej może się wiązać z poważnymi konsekwencjami dla firm zarządzających ryzykiem. Niedoszacowanie wartości zagrożonej może powodować brak płynności, natomiast przeszacowanie uniemożliwia wykorzystanie całkowitych środków na inwestycję. Wybór większej liczby obserwacji potrzebnej do oszacowania parametrów rozkładu ma wpływ na wielkość wartości zagrożonej. Prawie dla każdego z rozpatrywanych surowców (wyjątkiem jest olej grzewczy), wartość zagrożona osiąga większe wartości dla progu u = 10% aniżeli dla progu u = 5%. Można również zaobserwować, że dla prawego „ogona” rozkładu wielkość wartości zagrożonej dla progu u = 5% jest prawie identyczna z wielkością VaR uzyskaną z podejścia klasycznego. Wielkości wartości zagrożonej dla każdego rozważanego surowca (tabela 5) są niższe, jeżeli stosujemy teorię wartości ekstremalnych, niż gdy stosujemy podejście klasyczne. Zaobserwować można również, że dla ropy Brent i benTabela 5. Oszacowanie VaR i CVaR dla poziomu 1 – α = 0,05 z wykorzystaniem teorii wartości ekstremalnych i podejściem klasycznym GPD Surowce energetyczne Ropa Brent Ropa WTI Olej napędowy Benzyna Olej grzewczy Źródło: Obliczenia własne. 10% VaR –6,36 –6,65 –3,53 –6,78 –3,62 5% CVaR –4,60 –4,88 –4,86 –4,99 –4,97 VaR –4,70 –8,69 –4,49 –5,79 –4,70 CVaR –5,23 –7,26 –5,03 –6,52 –5,29 VaR – podejście klasyczne –3,49 –3,93 –3,33 –4,11 –3,34 118 Karolina Siemaszkiewicz zyny wielkość wartości zagrożonej jest niższa dla progu u = 10% niż dla progu u = 5%. Dla pozostałych surowców nie zachodzą podobne prawidłowości. Ponadto dla ropy WTI spostrzec można, że wielkości VaR są wyższe aniżeli CVaR. Dodatkowo wielkości VaR dla progu u = 10% i u = 5% są niższe niż wartości otrzymane poprzez zastosowanie podejścia klasycznego. Podsumowanie Głównym celem niniejszego artykułu było zastosowanie teorii wartości ekstremalnych do wyznaczenia wartości zagrożonej i warunkowej wartości zagrożonej dla rynku surowców energetycznych. Wyznaczono wartość zagrożoną i warunkową wartość zagrożoną, wykorzystując teorię wartości ekstremalnych, a w szczególności użyto uogólniony rozkład Pareto. Wykorzystanie teorii wartości ekstremalnych jest korzystniejsze, gdyż umożliwia koncentrację na dokładniejszej estymacji jedynie ogona rozkładu, zamiast modelować cały rozkład. Wyniki tych oszacowań porównano z wynikami estymacji VaR przy użyciu klasycznego podejścia (historycznej symulacji). Analizowano dzienne logarytmiczne stopy zwrotu pięciu surowców energetycznych: ropy Brent, ropy WTI, oleju napędowego, benzyny oraz oleju grzewczego. Wyniki przeprowadzonego badania pokazują, że w większości wypadków wartości VaR otrzymane z wykorzystania teorii wartości ekstremalnych są wyższe dla α = 0,05 niż otrzymane z historycznej symulacji. W związku z tym korzystniejsze jest wykorzystanie teorii wartości ekstremalnych, gdyż niedoszacowanie wartości zagrożonej ma wpływ na płynność w przedsiębiorstwie. Ponadto można zaobserwować wyższe wartości CVaR aniżeli VaR, co wynika z samej definicji warunkowej wartości zagrożonej, gdyż jest to średnia wielkość wartości przekraczających VaR. Bibliografia Balkema, A., Haan, L. de, 1974, Residual Life Time at Great Age, Annals of Probability, vol. 2. Cabedo, J.D., Moya, I., 2003, Estimating Oil Price Value at Risk Using the Historical Simulation Approach, Energy Economics 25. Davison, A.C., Smith, R.L., 1990, Models for Exceedances over High Threshold, Journal of Royal Statistic Society 52 (3). Teoria wartości ekstremalnych – zastosowanie do sektora surowców energetycznych 119 Danielsson, J., Vries, C.G. de, 1997, Tail Index Estimation with Very High Frequency Data, Journal of Empirical Finance 4. Dowd, K., 2002, Measuring Market Risk, John Wiley & Sons, Chichester. Embrechts, P., Resnick, S., Samorodnitsky, G., 1999, Extreme Value Theory as a Risk Management Tool, North American Actuary Journal 26. Fan, Y., Zhang, Y.J., Tsai, H.T., Wei, Y.M., 2008, Estimating Value at Risk of Crude Oil Price and its Spillover Effect Using the GED-GARCH Approach, Energy Economics 30. Fisher, R.A., Tippett, H.C., 1928, Limiting Forms of the Frequency Distribution of the Largest and Smallest Member of a Sample, Proceedings of the Cambridge Philosophical Society, vol. 24. Gencay, R., Selcuk, F., 2004, Extreme Value Theory and Value at Risk: Relative Performance in Emerging Markets, International Journal of Forecasting 20. Hung, J.C., Lee, M.C., Liu, H.C., 2008, Estimation of Value at Risk for Energy Commodities Via Fat-tailed GARCH Models, Energy Economics 30. Jajuga, K., 2007, Zarządzanie ryzykiem, Wydawnictwo Naukowe PWN, Warszawa. Jorion, P., 1997, Value at Risk: The New Benchmark for Managing Financial Risk, McGraw-Hill, New York. Katz, R.W., Parlange, M.B., Naveau, P., 2002, Statistics of Extremes in Hydrology, Advances in Water Resources 25. Krehbiel, T., Adkins, L.C., 2005, Price Risk in the NYMEX Energy Complex: An Extreme Value Approach, Journal of Futures Markets 25 (4). Marimoutou, V., Raggad, B., Trabelsi, A., 2009, Extreme Value Theory and Value at Risk: Application to Oil Market, Energy Economics 31. McNeil, A.J., 1998, Calculating Quantile Risk Measures for Financial Time Series Using Extreme Value Theory, Department of Mathematics. McNeil, A.J., 1999, Extreme Value Theory for risk managers, Mimeo ETZH Zentrum, Zurich. McNeil, A.J., Frey, R., Embrechts, P., 2005, Quantitative Risk Management, Princeton University Press, New Jersey. Rockafellar, R.T., Uryasev, S., 2000, Optimization of Conditional Value-at-Risk, The Journal of Risk, vol. 2, no. 3. Schofield, N.C., 2007, Commodity Derivatives. Markets and Applications, John Wiley & Sons Ltd. Trzpiot, G., 2010, Wielowymiarowe metody statystyczne w analizie ryzyka inwestycyjnego, Polskie Wydawnictwo Ekonomiczne, Warszawa. STUDIA OECONOMICA POSNANIENSIA 2013, vol. 1, no. 10 (259) Tomasz Józefowski Ośrodek Statystyki Małych Obszarów – Urząd Statystyczny w Poznaniu Marcin Szymkowiak Uniwersytet Ekonomiczny w Poznaniu, Wydział Informatyki i Gospodarki Elektronicznej, Katedra Statystyki, Ośrodek Statystyki Małych Obszarów – Urząd Statystyczny w Poznaniu Autor do korespondencji: [email protected] ZASTOSOWANIE ESTYMATORA TYPU SPREE W SZACOWANIU LICZBY OSÓB BEZROBOTNYCH W PRZEKROJU PODREGIONÓW Streszczenie: W literaturze przedmiotu wskazuje się, że estymatory klasy SMO (Statystyka Małych Obszarów – SMO) mają przewagę nad estymatorami znanymi z klasycznej metody reprezentacyjnej, gdyż umożliwiają dostarczenie potrzebnych informacji w sytuacji niewielkiej liczebności lub nawet braku obserwacji w próbie dla danego przekroju [Longford 2005]. Uzyskane w ten sposób oszacowania dla niższych poziomów przestrzennych bądź subpopulacji różnią się często po zsumowaniu od szacunków uzyskanych za pomocą metody reprezentacyjnej dla wyższego poziomu, który jest możliwy ze względu na wystarczającą liczebność próby. Jednym ze sposobów poradzenia sobie z powyżej opisaną niezgodnością jest zastosowanie estymatora typu SPREE [Zhang i Chambers 2004]. Głównym celem artykułu jest zaprezentowanie możliwości, jakie oferuje estymator typu SPREE do oszacowania liczby osób bezrobotnych na poziomie podregionów województwa wielkopolskiego przy wykorzystaniu danych pochodzących z rejestru bezrobotnych oraz Badania Aktywności Ekonomicznej Ludności. Słowa kluczowe: statystyka małych obszarów, estymator typu SPREE, BAEL, kalibracja. Klasyfikacja JEL: C8. USING A SPREE ESTIMATOR TO ESTIMATE THE NUMBER OF UNEMPLOYED PEOPLE ACROSS SUBREGIONS Abstract: The methodology of small area estimation (SAE) plays an important role in the field of modern information gathering, which aims to cut survey costs while lowering the respond- Zastosowanie estymatora typu SPREE w szacowaniu liczby osób bezrobotnych 121 ent burden. SAE methods have an advantage over clasical methods since they enable reliable estimates at lower levels of spatial aggregation and with more domains, where the representative approach displays too much variability. This means that small area estimation can be used to handle cases with few or no observations for a given domain in the sample. However, cell total estimates for lower levels of spatial aggregation or subpopulations tend to differ from estimates calculated by means of higher levels of representation, which is possible due to their adequate sample size. One way of coping with this incompatibility is by applying a SPREE estimator. This is used to adjust the values in the cells of an estimated contingency table to the totals obtained by means of the representative method. Internal cells can initially be filled with data from previous censuses, or current administrative registers. The method seems to be particularly useful for estimating the parameters of the labour market, since the methodology used in the Labour Force Survey can only yield data at the level of a province. The users of statistical data, however, expect information which is more geographically disaggregated. Considering the above, the aim of the present paper is to demonstrate the potential of the SPREE estimator for estimating the number of unemployed at the level of subregions in the Wielkopolska province using data from the unemployment register and the Labour Force Survey. Keywords: small area statistics, SPREE estimator, Labour Force Survey, calibration. Wstęp Metody statystyki małych obszarów odgrywają istotną rolę w kształtowaniu nowoczesnych technik pozyskiwania informacji, które są ukierunkowane na obniżenie kosztów badań przy jednoczesnym zmniejszeniu obciążeń respondentów. Dzięki swoim własnościom umożliwiają uzyskiwanie wiarygodnych szacunków na niższych poziomach agregacji przestrzennej oraz bardziej szczegółowych domen, dla których klasyczne metody estymacji charakteryzują się zbyt dużą wariancją estymatorów. Mają one przewagę nad estymatorami znanymi z klasycznej metody reprezentacyjnej, gdyż umożliwiają dostarczenie potrzebnych informacji w sytuacji niewielkiej liczebności lub nawet braku obserwacji w próbie dla danego przekroju. Uzyskane w ten sposób oszacowania dla niższych poziomów przestrzennych bądź subpopulacji po zsumowaniu różnią się często od szacunków uzyskanych za pomocą metody reprezentacyjnej dla wyższego poziomu, który jest możliwy ze względu na wystarczającą liczebność próby. Jednym ze sposobów poradzenia sobie z powyżej opisaną niezgodnością jest zastosowanie estymatora typu SPREE [Swanson i Tayman 2012]. Umożliwia on dostosowanie wartości w poszczególnych komórkach szacowanej tabeli kontyngencji do wartości brzegowych otrzymanych przy użyciu metody reprezentacyjnej. Komórki wewnętrzne tabeli początkowo mogą być wypełniane danymi z poprzednich spisów bądź też z bieżących re- 122 Tomasz Józefowski, Marcin Szymkowiak jestrów administracyjnych. Metoda ta jest szczególnie atrakcyjna w kontekście estymacji parametrów charakteryzujących rynek pracy, gdyż techniki użyte w Badaniu Aktywności Ekonomicznej Ludności pozwalają na publikowanie danych jedynie na poziomie województwa. Odbiorcy danych statystycznych oczekują jednak informacji dla bardziej szczegółowych przekrojów geograficznych. W związku z powyższym głównym celem artykułu jest zaprezentowanie możliwości, jakie oferuje estymator typu SPREE do oszacowania liczby osób bezrobotnych na poziomie podregionów województwa wielkopolskiego przy wykorzystaniu danych pochodzących z rejestru bezrobotnych oraz Badania Aktywności Ekonomicznej Ludności. 1. Teoretyczne podstawy estymatora SPREE Estymatory SPREE (Structure Preserving Estimation)1 stanowią uogólnioną klasę estymatorów syntetycznych w tym znaczeniu, że wykorzystują pełną informację o ocenach estymatora bezpośredniego. W metodzie tej dokonujemy korekty liczebności znajdujących się w komórkach wielowymiarowej tabeli kontyngencji tak, aby skorygowane wartości sumowały się do znanych liczebności brzegowych. Wyjściowe liczebności w poszczególnych komórkach tabeli kontyngencji mogą na przykład pochodzić z ostatniego spisu, podczas gdy liczebności brzegowe odpowiadają rzetelnym ocenom uzyskanym z wykorzystaniem estymatora bezpośredniego na podstawie danych z badania reprezentacyjnego. Estymatory typu SPREE można wykorzystać na potrzeby szacunków wartości globalnych dla małych obszarów w okresach międzyspisowych [Berg i Fuller 2009]. W niniejszym punkcie przedstawiono teoretyczne podstawy konstrukcji ,,jednokrokowych” estymatorów typu SPREE. W odróżnieniu od ,,dwukrokowych” estymatorów typu SPREE nie jest konieczne stosowanie tzw. metody proporcjonalnego iteracyjnego dopasowywania (iterative proportional fitting – IPF), a liczebności końcowe w tabelach kontyngencji można wyznaczać wprost ze wzoru. Ideę wyznaczania skorygowanych liczebności w tabeli kontyngencji i ich dopasowania do znanych liczebności brzegowych uzyskanych z wykorzystaniem danych z badania reprezentacyjnego i estymatora bezpośredniego przedstawiono dla trójwymiarowych tabel. 1 W polskiej literaturze brak tłumaczenia tego typu estymatora. Ponieważ estymacja typu SPREE jest techniką zachowującą strukturę, można byłoby tłumaczyć SPREE jako „estymator zachowujący strukturę”. Zastosowanie estymatora typu SPREE w szacowaniu liczby osób bezrobotnych 123 Niech Nijk oznacza znane liczebności w trójwymiarowej tabeli kontyngencji pochodzące ze spisu bądź rejestru administracyjnego, gdzie i = 1, …, D oznacza mały obszar (domenę), j oznacza j-ty wariant (j = 1, …, J) zmiennej y, dla której są dokonywane szacunki (na przykład y może oznaczać liczbę bezrobotnych, zatrudnionych itd.), a k oznacza k-ty wariant (k = 1, …, K) pewnej dodatkowej zmiennej związanej ze zmienną y (na przykład może to być płeć bądź klasa miejscowości zamieszkania respondenta – por. tabela 1). Ponadto zakładamy, że istnieją pewne bieżące oszacowania niektórych liczebności brzegowych – na podstawie danych pochodzących z badania reprezentacyjnego. ˆ oznaczają ,,rzetelne” oszacowania liczebności brzegowych M , Niech M . jk . jk które otrzymujemy, wykorzystując znany z metody reprezentacyjnej estymator bezpośredni wartości globalnej. Liczebności brzegowe N . jk N ijk można ¦ i oczywiście uzyskać na podstawie wyjściowej tabeli kontyngencji z liczebnościami Nijk. Z upływem czasu, ze względu na incydentalny charakter spisu, dane te dezaktualizują się, a istnieje potrzeba bieżącego zasilania informacyjnego. Stąd liczebności Nijk w tabeli kontyngencji pochodzące ze spisu, poprzez odpowiednią korektę, są dopasowywane do znanych liczebności brzegowych, które stanowią rzetelne i bieżące oszacowania z badania reprezentacyjnego z wykorzystaniem estymatora bezpośredniego. Oczywiście odpowiednie liczebności brzegowe N . jk N ijk nie będą się sumowały do oszacowanych ¦ i ˆ uzyskanych z badania reprezentacyjnego. Należy liczebności brzegowych M . jk je zatem w taki sposób skorygować, aby były odtwarzane liczebności brzegoˆ . Ważne również, aby nowe liczebności nie różniły się za bardzo od we M . jk liczebności Nijk i nie zmieniały w istotny sposób struktury danych zawartych w tabeli kontyngencji. Rysunek 1 prezentuje opisaną powyżej sytuację w sposób graficzny. Zakładamy przy tym, że znane są informacje o liczbie pracujących i bezrobotnych (J = 2) w przekroju powiatów (D = 2) i uwzględnieniem płci (K = 2). Nijk oznacza zatem liczbę osób ze spisu bądź rejestru administracyjnego, które pochodzą z i-tego powiatu, mają j-ty wariant statusu na rynku pracy i k-ty wariant płci. Informacje te są również zawarte w tabeli 1. Zakładamy przy tym, zgodnie z uwagami poczynionymi powyżej, że znane są bieżące oszacowania z badania reprezentacyjnego liczby pracujących i bezrobotnych mężczyzn oraz kobiet, ˆ . Zwróćmy przy tym uwagę, że nie zakładamy znajomości z badania tj. M . jk ˆ . Ich uzyskareprezentacynego oszacowanych liczebności brzegowych M . jk nie, ze względu na niewielką lub w niektórych wypadkach zerową liczebność w pewnych przekrojach, uniemożliwia uzyskanie rzetelnych oszacowań 124 Tomasz Józefowski, Marcin Szymkowiak z wykorzystaniem estymatora bezpośredniego. Na przykład brak reprezentacji lub niewielka liczebność próby w pewnym powiecie w kategorii pracujących mężczyzn może być przyczyną niemożliwości uzyskania takich oszacowań lub będą się one odznaczały bardzo niską precyzją. W prezentowanym w artykule podejściu zakładamy zatem znajomość tylko jednych liczebności brzegowych, które można uyskać z badania reprezentacyjnego z wykorzystaniem estymacji bezpośredniej. Stąd wcześniejsze określenie w artykule opisywanego podejścia jako ,,jednokrokowe”, w odróżnieniu od estymacji SPREE typu ,,dwukrokowego”, gdzie zakłada się znajomość obydwu liczebności brzegowych. Liczebności Mij w podejściu ,,jednokrokowym” uzyska się po korekcie liczebności Nijk w oczywisty sposób. ˆ M . jk liczebności brzegowe badanie reprezentacyjne po trz sp is eb ne powiat 2 powiat 1 pracujący bezrobotny M ij. Nijk mężczyzna kobieta liczebności brzegowe Rysunek 1. Struktura danych dla małych obszarów Źródło: Opracowano na podstawie pracy: [Purcell i Kish 1980] Niech Mijk oznacza nieznane i poszukiwane liczebności w trójwymiarowej tabeli kontyngencji, które będą odtwarzać oszacowania brzegowe z badania ˆ reprezentacyjnego, tzn. M Mijk , i nie będą się znacznie różniły od . jk ¦ i liczebności wejściowych Nijk. Problem poszukiwania nowych liczebności Zastosowanie estymatora typu SPREE w szacowaniu liczby osób bezrobotnych 125 Tabela 1. Struktura danych dla małych obszarów Powiat Płeć Status osoby na rynku pracy Mij. mężczyzna N111 kobieta N112 M11. Powiat 1 pracująca bezrobotna N121 N122 M12. Powiat 2 pracująca N211 N212 M21. bezrobotna N221 ˆ M N222 ˆ M M22. . j1 . j2 w trójwymiarowej tabeli kontyngencji można zapisać w postaci poniższego zadania optymalizacyjnego. (W1) Minimalizacja funkcji odległości: D(Nijk, Mijk) min, (1) (W2) Równania kalibracyjne: ¦ Mijk ˆ . M . jk (2) i Pierwszy z warunków (W1) oznacza, że wyznaczone nowe liczebności w trójwymiarowej tabeli kontyngencji powinny być bliskie, w sensie przyjętej funkcji odległości, liczebnościom wejściowym ze spisu bądź rejestru administracyjnego. Drugi z warunków oznacza z kolei, że liczebności te powinny być w taki sposób wyznaczone, aby uzyskane na ich podstawie jedne z liczebności brzegowych pokrywały się z oszacowaniami, które zostaną uzyskane z wykorzystaniem estymatora bezpośredniego i informacji pochodzących z bieżącego badania reprezentacyjnego. Z racji na podobieństwo do sposobu w jaki są poszukiwane wagi kalibracyjne w estymatorach kalibracyjnych warunek (W2) określono mianem ,,równań kalibracyjnych”, a sama konstrukcja estymatorów typu SPREE jest w dużej mierze zbliżona do podejścia kalibracyjnego [Szymkowiak 2007; Särndal 2007]. Kluczową rolę w poszukiwaniu nowych liczebności Mijk w trójwymiarowej tabeli kontyngencji odgrywa odpowiednio dobrana funkcja odległości. W literaturze przedmiotu wskazuje się na dwie najczęściej wykorzystywane w praktyce funkcje, które umożliwiają wyznaczenie liczebności Mijk, tj. funkcję odległości χ2 i dyskryminacyjną funkcję odległości. Wyrażają się one następującymi wzorami: 126 Tomasz Józefowski, Marcin Szymkowiak Funkcja odległości χ2 (N ijk Mijk )2 1 . 2 i, j, k N ijk ¦ D(N ijk , Mijk ) (3) Dyskryminacyjna funkcja odległości N ¦ Nijk ln Mijkijk . D(N ijk , Mijk ) (4) i, j, k Definicja 1. Estymatorem typu SPREE liczebności Mijk w trójwymiarowej ˆ będąca rozwiązaniem zadania optytabeli kontyngencji jest statystyka M ijk malizacyjnego postaci: ˆ M ijk (5) arg min D( Mijk , N ijk ), Mijk przy warunku ˆ . M . jk ¦ Mijk (6) i Poniższe twierdzenia rozstrzygają postać estymatora typu SPREE określonego w definicji (1). Twierdzenie 1. Rozwiązaniem zadania minimalizacji (5) dla funkcji odległości (3) i przy warunku (6) jest statystyka postaci: ˆ M ijk N ijk ˆ M . jk N . jk . (7) Dowód. Na potrzeby dowodu tego twierdzenia wykorzystano metodę czynników nieoznaczonych Lagrange’a. Funkcja Lagrange’a ma postać: L (N ijk Mijk )2 1 N ijk 2 i, j, k ¦ § · ¦ λ jk ¨¨ ¦ Mijk Mˆ . jk ¸¸ . j, k © i (8) ¹ Pochodna funkcji L względem Mijk ma postać: wL wMijk 1 2 Mijk 2N ijk λ jk . 2 N ijk (9) Zastosowanie estymatora typu SPREE w szacowaniu liczby osób bezrobotnych 127 Przyrównując obliczoną pochodną do zera, otrzymujemy następujące równanie: Mijk N ijk N ijk λ jk , (10) którego rozwiązaniem jest: N ijk (1 λjk ). Mijk (11) Dokonując sumowania po wszystkich domenach, tj. po i, otrzymujemy następujące równanie: ¦ Mijk ¦ Nijk (1 λjk ). i (12) i Uwzględniając równanie (6), otrzymujemy, że: ˆ M . jk λjk ¦ Nijk ¦ Nijk . i Ponieważ N . jk (13) i ¦ Nijk , więc ostatecznie otrzymujemy: i ˆ N M . jk . jk λ jk N . jk . (14) Podstawiając uzyskane powyżej λjk do równania (11), otrzymujemy poszukiwaną postać estymatora: opt Mijk ˆ M ijk N ijk (1 λjk ) Nijk ˆ M . jk N . jk . (15) ˆ istnieje minimum (warunek Należy jeszcze sprawdzić, czy w punkcie M ijk dostateczny istnienia ekstremum warunkowego). W tym celu trzeba wykazać, że forma kwadratowa d 2 L( M̂ijk )(ξ ) jest dodatnio określona dla pewnego niezerowego wektora ξ. Mamy: ˆ )(ξ ) d 2 L( M ijk w2L ξ ξ . wMijk wMlmn ijk lmn l , m, n ¦ ¦ i, j, k (16) 128 Tomasz Józefowski, Marcin Szymkowiak Zauważmy, że: w2L wMijk Mlmn 1 °N ® ijk °0 ¯ dla i, j, k l , m, n, (17) dla i, j, k z l , m, n. Podstawiając obliczone pochodne drugiego rzędu do formy kwadratowej (16), otrzymujemy: ˆ opt )(ξ ) d 2 L( M ijk w2L ξ ξ wMijk wMlmn ijk lmn l , m, n ¦ ¦ i, j, k 1 ¦ N2 i, j, k 2 ξijk . (18) ijk Jest to oczywiście forma kwadratowa dodatnio określona. Stąd statystyka określona wzorem (7) jest poszukiwanym rozwiązaniem zadania minimalizacji funkcji odległości. Twierdzenie 2. Rozwiązaniem zadania minimalizacji (5) dla funkcji odległości (4) i przy warunku (6) jest statystyka postaci: ˆ M ijk N ijk ˆ M . jk (19) . N . jk Dowód. W celu udowodnienia twierdzenia wykorzystano ponownie metodę czynników nieoznaczonych Lagrange’a. Funkcja Lagrange’a ma postać: L § N · ¦ Nijkln Mijkijk ¦ λ jk ¨¨ ¦ Mijk Mˆ . jk ¸¸ . i, j, k © j, k i (20) ¹ Pochodna funkcji L względem Mijk ma postać: wL wMijk § N ijk N ijk ¨ 2 ¨ Mijk © · M ¸ ijk λ jk . ¸ N ijk ¹ (21) Przyrównując obliczoną pochodną do zera, otrzymujemy następujące równanie: N ijk Mijk λ jk , (22) Zastosowanie estymatora typu SPREE w szacowaniu liczby osób bezrobotnych 129 którego rozwiązaniem jest: Mijk = –Nijk λjk . (23) Dokonując sumowania po wszystkich domenach, tj. po i, otrzymujemy następujące równanie: ¦ Mijk i ¦ Nijk λjk . ¦ Nijk, otrzymujemy: Uwzględniając równanie (6) oraz to, że N . jk λ jk (24) i ˆ M . jk N . jk i (25) . Podstawiając uzyskane powyżej λjk do równania (23), otrzymujemy poszukiwaną postać estymatora: opt Mijk ˆ M ijk N ijk λjk ˆ § M . jk ¨ Nijk ¨ N . jk © · ¸ ¸ ¹ Nijk ˆ M . jk N . jk . (26) ˆ Podobnie jak w twierdzeniu 1 należy jeszcze sprawdzić, czy w punkcie M ijk istnieje minimum (warunek dostateczny istnienia ekstremum warunkowego). W tym celu trzeba wykazać, że forma kwadratowa d 2 L( M̂ijk )(ξ ) jest dodatnio określona dla pewnego niezerowego wektora ξ. Zauważmy, że: w2L wMijk wMlmn ˆ opt )(ξ ) d 2 L( M ijk N ijk ° 2 ® Mijk ° ¯0 (27) dla i, j, k z l , m, n, w2L ξ ξ wMijk wMlmn ijk lmn l , m, n ¦ ¦ i, j, k dla i, j, k l , m, n, N ¦ Mˆ ijk2 ξijk2 . i, j, k (28) ijk Jest to oczywiście forma kwadratowa dodatnio określona. Stąd statystyka określona wzorem (19) jest poszukiwanym rozwiązaniem zadania minimalizacji funkcji odległości. Z powyższych twierdzeń wynika, że – bez względu na wybór funkcji odległości – uzyskujemy tę samą postać estymatora liczebności w trójwymiarowej 130 Tomasz Józefowski, Marcin Szymkowiak ˆ w trójwymiatabeli kontyngencji. Mając wyznaczone nowe liczebności M ijk ˆ rowej tabeli kontyngencji, które sumują się do liczebności brzegowych M . jk uzyskanych z badania reprezentacyjnego, bardzo łatwo można uzyskać pozostałe wartości brzegowe Mij., dokonując sumowania po k, tj. po wszystkich wariantach dodatkowej zmiennej związanej ze zmienną y. Uzyskujemy w ten sposób wzór na liczebności brzegowe Mij.: Mij. ¦ N ijk k ˆ M . jk N . jk . (29) Z racji tego, że liczebności wejściowe Nijk w trójwymiarowej tabeli kontyngencji pochodzą z badania pełnego (spisów, rejestrów administracyjnych) i nie są w związku z tym obarczone błędami losowymi, wariancja estymatora ˆ . Wariancja estymatora typu SPREE jest uzależniona tylko od wariancji M . jk ˆ Mijk wyraża się zatem wzorem: ˆ § M . jk ˆ ) V ¨N V (M ijk ijk ¨ N . jk © · ¸ ¸ ¹ § N ijk ¨ ¨ N . jk © 2 · ˆ ). ¸ V (M . jk ¸ ¹ (30) Celem zilustrowania omawianej metody wyznaczania liczebności w trójwymiarowej tabeli kontyngencji z wykorzystaniem ,,jednokrokowego” estymatora typu SPREE rozważmy następujący przykład – por. tabela 2. Załóżmy, że ze spisu dysponujemy informacją na temat liczby osób pracujących i bezrobotnych w przekroju powiatów i płci. Tabela 2. Bezrobotni i pracujący według powiatów i płci Powiat Status osoby na rynku pracy Płeć mężczyzna 100 Mij. kobieta 150 M11. Powiat 1 pracująca bezrobotna 50 60 M12. Powiat 2 pracująca 150 20 M21. 80 100 M22. 400 380 bezrobotna Na potrzeby przykładu, celem uproszczenia, przyjmijmy, że dane są tylko dwa powiaty tzn. D = 2. Załóżmy ponadto, że wartości brzegowe zostały oszacowane z wykorzystaniem estymatora bezpośredniego i danych pochodzących Zastosowanie estymatora typu SPREE w szacowaniu liczby osób bezrobotnych 131 z bieżącego badania reprezentacyjnego, na przykład Badania Aktywności Ekonomicznej Ludności. Przyjmujemy przy tym, że pracujących i bezrobotnych mężczyzn jest odpowiednio 280 i 120, a pracujących i bezrobotnych kobiet odpowiednio 200 i 180 tzn. M̂..11 = 280, M̂..21 = 120, M̂..12 = 200, M̂..22 = 180. Stąd oszacowana liczba mężczyzn i kobiet po wszystkich powiatach, bez względu na status na rynku pracy wynosi odpowiednio 400 i 380. Zwróćmy jednak uwagę, że liczebności spisowe Nijk w poszczególnych komórkach tabeli kontyngencji nie sumują się do oszacowanych liczebności brzegowych z badania reprezentacyjnego. Należy więc je odpowiednio skorygować tak, aby zapewniona była sumowalność do oszacowanych wartości brzegowych. W tym celu należy skorzystać ze wzoru (7). Tabela 3 zawiera informacje na temat bezrobotnych i pracujących według powiatów i płci po zastosowaniu estymatora typu SPREE, tj. po odpowiedniej korekcie. Tabela 3. Bezrobotni i pracujący według powiatów i płci – po zastosowaniu estymatora typu SPREE Powiat Status osoby na rynku pracy Płeć mężczyzna 112 kobieta 176 Mij. Powiat 1 pracująca bezrobotna 46 68 114 Powiat 2 pracująca 168 24 192 74 112 186 400 380 bezrobotna 288 ˆ w wyznaczonej trójwymiarowej Odpowiednie – skorygowane wartości M ijk tablicy kontyngencji uzyskano z następujących wyliczeń2: 280 120 280 ˆ ˆ ˆ M 112, M 46, M 168, 111 100 121 50 211 150 250 130 250 120 200 180 ˆ ˆ ˆ M 74, M 176, M 68, 221 80 112 150 122 60 130 170 160 200 180 ˆ ˆ M 24, M 112. 212 20 222 100 170 160 Z kolei wartości brzegowe Mij otrzymano ze wzoru (29). 2 Wyniki zaokrąglono do wartości całkowitych. 132 Tomasz Józefowski, Marcin Szymkowiak 2. Estymator typu SPREE w szacowaniu liczby bezrobotnych w przekroju podregionów Podstawowym źródłem informacji o rynku pracy w Polsce jest Badanie Aktywności Ekonomicznej Ludności (BAEL). Jest to badanie reprezentacyjne, które dostarcza kompleksowych danych na temat sytuacji w zakresie aktywności ekonomicznej ludności, tzn. fakcie wykonywania pracy, pozostawania bezrobotnym lub biernym zawodowo. Najniższym poziomem podziału administracyjnego, na którym udostępniane są wyniki z BAEL jest województwo. Jest to konsekwencja reprezentacyjnego charakteru badania i wielkości próby. Oznacza to, że oszacowania na niższym poziomie podziału terytorialnego są obciążone zbyt dużym błędem losowym, podobnie jak dodatkowe przekroje w ujęciu wojewódzkim. Istnieje jednak potrzeba pokrycia informacyjnego na niższych poziomach agregacji przestrzennej czy też bardziej szczegółowych domen. Dla władz powiatu, gminy czy miasta szczególnie istotna z punktu widzenia prowadzenia właściwej polityki rynku pracy jest informacja na temat bezrobocia w ich regionie czy jednostce urbanistycznej, a mniejszą rolę odgrywają dane na poziomie całego kraju bądź województwa. Powstaje zatem luka informacyjna, której wyniki z Badania Aktywności Ekonomicznej Ludności nie są w stanie wypełnić ze względu na niewystarczającą liczebność próby, na niższych aniżeli województwo, poziomach terytorialnych. W tej części artykułu zaprezentowano praktyczne wykorzystanie estymatora typu SPREE w szacowaniu liczby bezrobotnych w przekroju podregionów województwa wielkopolskiego z uwzględnieniem płci oraz wieku3. W tym celu wykorzystano dane pochodzące z Badania Aktywności Ekonomicznej Ludności za II kwartał 2011 roku4. Ze względu na małe liczebności próby w odpowiednich przekrojach podregionów województwa wielkopolskiego wyznaczonych przez płeć i wiek, nie jest zasadne wykorzystanie estymatora Horvitza-Thompsona w szacowaniu liczby bezrobotnych. Ponieważ estymator typu SPREE wymaga danych wejściowych do trójwymiarowej tabeli kontyngencji5, więc wykorzystano informacje pochodzące z miesięcznej spra3 Podregiony stanowią poziom agregacji przestrzennej o jeden niżej aniżeli województwo. Wyniki z BAEL, jak to zostało zasygnalizowane, nie są publikowane na tym poziomie. 4 Dane te zaczerpnięto z Banku Danych Lokalnych. 5 Wymiary tabeli tworzą podregiony województwa wielkopolskiego, kategorie płci oraz wieku. Dane wejściowe pochodzą zazwyczaj z rejestrów administracyjnych, spisu czy z innych źródeł. Zastosowanie estymatora typu SPREE w szacowaniu liczby osób bezrobotnych 133 wozdawczości Ministerstwa Pracy i Polityki Społecznej sporządzanej przez powiatowe urzędy pracy6. Tabela 4 zawiera szczegółowe informacje na temat liczby bezrobotnych zarejestrowanych w podregionach województwa wielkopolskiego w II kwartale 2011 roku w przekroju płci oraz wieku. Dane te pochodzą z miesięcznej sprawozdawczości Ministerstwa Pracy i Polityki Społecznej (formularz MPiPS-01), które są sporządzane przez powiatowe urzędy pracy. W tabeli tej zawarto ponadto informacje o liczbie bezrobotnych w województwie wielkopolskim z uwzględnieniem płci i wieku, ale pochodzące z Badania Aktywności Ekonomicznej Ludności za II kwartał 2011 roku. Tabela 4. Bezrobotni zarejestrowani w podregionach województwa wielkopolskiego w II kwartale 2011 roku Podregion Kaliski Koniński Leszczyński Pilski Poznański Miasto Poznań Województwo wielkopolskie Wiek poniżej 25 lat 25 lat i więcej poniżej 25 lat 25 lat i więcej poniżej 25 lat 25 lat i więcej poniżej 25 lat 25 lat i więcej poniżej 25 lat 25 lat i więcej poniżej 25 lat 25 lat i więcej poniżej 25 lat 25 lat i więcej Płeć mężczyzna 2 317 7 672 3 713 11 151 1 766 5 690 1 830 7 178 1 341 5 060 534 4 850 19 000 45 000 kobieta 4 191 11 487 5 292 14 940 3 155 7 768 3 229 9 758 2 167 7 243 742 5 230 18 000 51 000 Źródło: Miesięczna sprawozdawczość Ministerstwa Pracy i Polityki Społecznej. Zwróćmy uwagę, że wyjściowe liczebności w tabeli kontyngencji nie sumują się do odpowiednich liczebności brzegowych z Badania Aktywności Ekonomicznej Ludności. Zachodzi zatem potrzeba ich korekty celem zapewnienia 6 Należy mieć na uwadze to, że występują nieco inne definicje osoby bezrobotnej w obydwu źródłach, tj. w sprawozdawczości powiatowych urzędów pracy (bezrobocie rejestrowane) i BAEL. Szczegółowe informacje na temat występujących różnic można znaleźć w pracy Janukowicza [2010]. 134 Tomasz Józefowski, Marcin Szymkowiak zgodności z wynikami z badania BAEL. Umożliwi to jednocześnie prezentację liczby bezrobotnych w ujęciu podregionów, płci i wieku zgodnie z definicją z badania BAEL. Celem odpowiedniego dopasowania struktur z dwóch różnych źródeł danych wykorzystano opisany w artykule estymator typu SPREE. Tabela 5 przedstawia wyniki estymacji liczby bezrobotnych w II kwartale 2011 roku w przekroju podregionów województwa wielkopolskiego, z uwzględnieniem płci i wieku i z wykorzystaniem estymatora typu SPREE. Po jego zastosowaniu wartości wewnętrzne w utworzonej tabeli kontyngencji sumują się do odpowiednich liczebności brzegowych pochodzących z BAEL. Co więcej, uzyskano również informacje o liczbie bezrobotnych w poszczególnych grupach wieku w każdym z podregionów. Tabela 5. Bezrobotni w podregionach województwach wielkopolskiego w II kwartale 2011 roku Podregion Kaliski Koniński Leszczyński Pilski Poznański Miasto Poznań Województwo wielkopolskie Wiek poniżej 25 lat 25 lat i więcej poniżej 25 lat 25 lat i więcej poniżej 25 lat 25 lat i więcej poniżej 25 lat 25 lat i więcej poniżej 25 lat 25 lat i więcej poniżej 25 lat 25 lat i więcej poniżej 25 lat 25 lat i więcej Płeć mężczyzna 3 828 8 299 6 134 12 062 2 917 6 155 3 023 7 764 2 215 5 473 882 5 246 19 000 45 000 kobieta 4 018 10 382 5 073 13 503 3 025 7 021 3 096 8 820 2 077 6 547 711 4 727 18 000 51 000 Ogółem 7 846 18 681 11 207 25 565 5 942 13 176 6 119 16 584 4 293 12 020 1 594 9 973 37 000 96 000 Źródło: Opracowanie własne z wykorzystaniem estymatora SPREE. Ze względu na to, że w Banku Danych Lokalnych, z którego zaczerpnięto informacje o liczbie bezrobotnych (definicja zgodna z definicją stosowaną w BAEL), są publikowane wskaźniki precyzji jedynie dla wybranych kategorii, nie było możliwości uzyskania wskaźników precyzji szacunków liczby bezrobotnych w przekroju podregionów, płci i wieku. Analiza danych zawartych w tabelach 4 i 5 wskazuje, że dla wielu przekrojów różnice w liczbie bezrobotnych są na zadowalającym poziomie. Jest to Zastosowanie estymatora typu SPREE w szacowaniu liczby osób bezrobotnych 135 zgodne z filozofią konstrukcji estymatora typu SPREE, w którym poszukuje się nowych liczebności w tabeli kontyngencji, mających zapewnić zgodność z wartościami brzegowymi, i które nie będą się znacznie różniły od wartości wejściowych pochodzących ze spisu, rejestrów administracyjnych czy innych źródeł. Należy jednak podkreślić, że w przypadku mężczyzn w grupie wiekowej poniżej 25 lat różnice te były rzędu 65%. Na przykład w podregionie kaliskim liczba bezrobotnych zarejestrowanych mężczyzn poniżej 25 roku życia wynosiła 2317. Po korekcie, z wykorzystaniem estymatora typu SPREE, wzrosła do 3828. Różnice te w wielu wypadkach są zrozumiałe i wynikają między innymi z innych definicji osoby bezrobotnej w analizowanych źródłach. Oszacowana wartość liczby bezrobotnych ujmuje bowiem nie tylko osoby zarejestrowane, ale i te, które pracują w tzw. szarej strefie. Podsumowanie W artykule przedstawiono w kompleksowy sposób metodę konstrukcji jednokrokowych estymatorów typu SPREE. Podano najważniejsze twierdzenia dotyczące wyprowadzania postaci estymatorów liczebności w trójwymiarowych tabelach kontyngencji, tak aby zapewnić zgodność z wartościami brzegowymi pochodzącymi z badania reprezentacyjnego. Rozważania teoretyczne zilustrowano praktycznym wykorzystaniem estymatora typu SPREE w szacowaniu liczby bezrobotnych osób w przekroju płci i wieku dla podregionów województwa wielkopolskiego. Zaprezentowana metodologia wyznaczania estymatorów typu SPREE może być stosowana w każdym badaniu częściowym, w którym występuje problem uzyskania wiarygodnych informacji obarczonych niewielkimi błędami szacunku na niskich poziomach agregacji przestrzennej. Możliwe jest również zastosowanie w badaniach praktycznych tzw. dwukrokowego estymatora typu SPREE. Jak wskazuje literatura przedmiotu [Rao 2003], można zakładać polepszenie uzyskanych wyników w stosunku do podejścia jednokrokowego. Wymaga to jednak znajomości wszystkich wartości brzegowych z badania reprezentacyjnego. Estymatory typu SPREE mogą znaleźć zatem szczególnie zastosowanie w badaniach prowadzonych przez Główny Urząd Statystyczny, w których wielkość próby i dotychczas stosowane estymatory uniemożliwiają uzyskanie wiarygodnych i obarczonych małymi błędami szacunków na poziomie niższym aniżeli województwo. 136 Tomasz Józefowski, Marcin Szymkowiak Bibliografia Berg, E., Fuller, W.A., 2009, A SPREE Small Area Procedure for Estimating Population Counts, SSC Annual Meeting, Proceedings of the Survey Methods Section. Janukowicz, P., 2010, Bezrobocie rejestrowane a bezrobocie według BAEL, Polityka Społeczna, nr 1. Longford, N., 2005, Missing Data and Small Area Estimation: Modern Analytical Equipment for the Survey Statistician, Series: Statistics for Social and Behavioral Sciences, Springer. Purcell, N.J., Kish, L., 1980, Postcensal Estimates for Local Areas (or Domains), International Statistical Review, 48, s. 3–18. Rao, J.N.K., 2003, Small Area Estimation, John Wiley & Sons, INC., Publication. Särndal, C.-E., 2007, The Calibration Approach in Survey Theory and Practice, Survey Methodology, vol. 33, no. 2, s. 99–119. Swanson, D.A., Tayman, J., 2012, Subnational Population Estimates, The Springer Series on Demographic Methods and Population Analysis, New York. Szymkowiak, M., 2007, Przyczynek do kalibracji w badaniach statystycznych z brakami odpowiedzi, w: Panek, E. (red.), Kapitał ludzki i wiedza w gospodarce: wyzwania XXI wieku, Akademii Ekonomicznej w Poznaniu, Poznań, s. 194–204. Zhang, L., Chambers, R.L., 2004, Small Area Estimates for Cross-classifications, Journal of the Royal Statistical Society B, 66, s. 479–496.