numer 10/2013 - studia oeconomica posnaniensia

Transkrypt

numer 10/2013 - studia oeconomica posnaniensia
STUDIA OECONOMICA
POSNANIENSIA
2013, vol. 1, no. 10 (259)
Spis treści
Wprowadzenie (Marian Matłoka) ........................................................................................
3
Anna Domagała
Metoda DEA jako narzędzie wsparcia w procesie kupna-sprzedaży samochodów
osobowych ...............................................................................................................................
5
Helena Gaspars-Wieloch
Metoda skracania przekrojów ścieżek niedopuszczalnych sieci jako narzędzie optymalizacji czasowo-kosztowej projektu ......................................................................................
26
Alicja Jajko-Siwek
Zastosowanie drzew klasyfikacyjnych do oceny poziomu świadczeń emerytalnych
z różnych typów systemów....................................................................................................
46
Michał Konopczyński
Suboptymalna równowaga rynkowa w małej gospodarce otwartej w warunkach doskonałej mobilności kapitału ................................................................................................
61
Henryk J. Runka
Problemy z ograniczeniami kwadratowymi i optymalizacja na stożkach ......................
84
Karolina Siemaszkiewicz
Teoria wartości ekstremalnych – zastosowanie do sektora surowców energetycznych
107
Tomasz Józefowski, Marcin Szymkowiak
Zastosowanie estymatora typu SPREE w szacowaniu liczby osób bezrobotnych w przekroju podregionów .................................................................................................................
120
WPROWADZENIE
Bieżący, 10 numer STUDIA OECONOMICA POSNANIENSIA, podobnie
jak numer poprzedni, jest kontynuacją Zeszytów Naukowych Uniwersytetu
Ekonomicznego w Poznaniu wydawanych w języku angielskim pod tytułem
QUANTITATIVE METHODS IN ECONOMICS, a w wersji polskiej METODY ILOŚCIOWE W EKONOMII.
Wszystkie artykuły, które znalazły się w tym numerze, dotyczą możliwości
wykorzystania różnorodnego aparatu matematycznego do rozwiązywania
określonych problemów ekonomicznych. Trudno je tematycznie uporządkować, zostały więc ułożone w kolejności alfabetycznej nazwisk autorów. Korzystając z zamieszczonych przez autorów streszczeń, przedstawiam Państwu
cele poszczególnych artykułów oraz osiągnięte w nich wyniki.
Anna Domagała proponuje wykorzystanie metody DEA do konstrukcji
rankingów samochodów osobowych. Efektywność pojazdów autorka szacuje
za pomocą nieradialnego modelu SBM z nadefektywnością, który pozwala nie tylko na konstrukcję rankingów badanych obiektów, ale również na
szczegółową analizę źródeł nadefektywności oraz nieefektywności badanych
obiektów.
Helena Gaspars-Wieloch proponuje algorytm, zwany metodą skracania
przekrojów ścieżek niedopuszczalnych sieci, który pozwala bezpośrednio
rozwiązywać problem minimalizacji kosztu przy określonym czasie, a pośrednio – problem minimalizacji czasu przy dostępnych środkach finansowych.
Autorka przedstawia bardzo sformalizowany, szczegółowy i kompletny opis
procedury. Zwraca także uwagę na różne kwestie związane z jej komputerową
implementacją i efektywnością.
Alicja Jajko-Siwek zajmuje się problemem zastosowania drzew klasyfikacyjnych do oceny poziomu świadczeń emerytalnych z różnych typów systemów.
Autorka wykonała symulacje świadczeń emerytalnych oraz dokonała oceny
ich poziomu.
Michał Konopczyński rozważa suboptymalną równowagę rynkową w małej gospodarce otwartej w warunkach doskonałej mobilności kapitału. Autor
bada własności gospodarki zdecentralizowanej, w której wszystkie podmioty
działają wyłącznie w swoim indywidualnym interesie. W tym celu rozwiązuje
4
Wprowadzenie
zadanie sterowania optymalnego, a następnie wyznacza równowagę rynkową.
Henryk J. Runka przedstawia problem z kwadratową funkcją celu i ograniczeniami kwadratowymi oraz jego transformacje w problem optymalizacji
na stożku.
Artykuł autorstwa Karoliny Siemaszkiewicz jest poświęcony problemowi
zarządzania ryzykiem niekorzystnych wahań cen surowców energetycznych.
Autorka stosuje wartość zagrożoną jako powszechnie stosowaną miarę ryzyka,
a do jej oszacowania teorię wartości ekstremalnych.
Celem ostatniego artykułu, autorstwa Marcina Szymkowiaka i Tomasza
Józefowskiego, jest zaprezentowanie możliwości, jakie daje estymator typu
SPREE do oszacowania liczby osób bezrobotnych na poziomie podregionów
województwa wielkopolskiego przy wykorzystaniu danych pochodzących
z rejestru bezrobotnych oraz Badania Aktywności Ekonomicznej Ludności.
Marian Matłoka
STUDIA OECONOMICA POSNANIENSIA
2013, vol. 1, no. 10 (259)
Anna Domagała
Uniwersytet Ekonomiczny w Poznaniu, Wydział Informatyki i Gospodarki
Elektronicznej, Katedra Ekonometrii
[email protected]
METODA DEA
JAKO NARZĘDZIE WSPARCIA
W PROCESIE KUPNA-SPRZEDAŻY
SAMOCHODÓW OSOBOWYCH
Streszczenie: W artykule zaproponowano wykorzystanie metody DEA (Data Envelopment Analysis) do konstrukcji rankingów samochodów osobowych. W prezentowanym
badaniu przyjęto różne zestawy zmiennych, odzwierciedlające różne profile klienta (takie,
jak oszczędność, dynamika, bezpieczeństwo), co pozwoliło wyłonić pojazdy efektywne
z danego punktu widzenia. Tak skonstruowane rankingi mogą być przydatne zarówno dla
sprzedawcy przygotowującego ofertę dla klienta, jak i dla samego klienta, który chciałby
porównać interesujące go pojazdy, eliminując przy tym wpływ emocji, którymi zazwyczaj
obarczony jest zakup pojazdu. Efektywność pojazdów oszacowano za pomocą nieradialnego modelu SBM (Slacks-Based Measure) z nadefektywnością, który pozwala nie tylko
na konstrukcję rankingów badanych obiektów, ale także na szczegółową analizę źródeł
nadefektywności oraz nieefektywności badanych obiektów.
Słowa kluczowe: DEA (Data Envelopment Analysis), efektywność, nadefektywność, SBM
(Slacks-Based Measure), samochody osobowe.
Klasyfikacja JEL: D12, D24, L23, L92, M11, M31.
DATA ENVELOPMENT ANALYSIS AS A SUPPORTIVE TOOL
IN BUYING AND SELLING CARS
Abstract: The article proposes the use of the Data Envelopment Analysis method in building
passenger car rankings. In this study various combinations of variables were adopted so as
to reflect different customer profiles (such as economy, dynamics and safety) which made it
possible to determine best cars for a given profile. Such rankings can be useful to both the seller
in the process of preparing offers for customers and to the customer who would like to compare
cars by eliminating the influence of the emotions which are usually connected with buying a car.
6
Anna Domagała
The appropriateness of the vehicles was estimated using a non-radial super-efficiency SBM
(Slacks-Based Measure) model, which permits not only the building of the ranking list, but
also a detailed analysis of the sources of super-efficiency and the inefficiency of given aspects.
Keywords: DEA (Data Envelopment Analysis), efficiency, super-efficiency, SBM (Slacks-Based
Measure), cars.
Wstęp
Rynek sprzedaży samochodów osobowych, podobnie jak inne gałęzie gospodarki, podlega wahaniom koniunkturalnym, ale cechuje się dynamicznym
rozwojem. Jest to związane zarówno z postępem technologicznym, jak i dużą
konkurencją wśród producentów oraz sprzedawców (tzw. dealerów samochodowych). Odbiorcą końcowym jest klient, który dokonuje wyboru swojego
samochodu z szerokiej oferty prezentowanej przez dealerów różnych marek.
Pozyskanie i utrzymanie klienta to oczywiście główny cel każdego sprzedawcy, dlatego dealerzy prześcigają się w różnych strategiach marketingowych
i kampaniach promocyjnych.
Sprzedaż samochodów osobowych jest jednak procesem trudnym, gdyż
samochód nie jest dobrem nabywanym regularnie i decyzja o wyborze danej
marki i modelu rzadko jest podejmowana bez wcześniejszego przygotowania.
Klient ma zazwyczaj swoje preferencje dotyczące nabywanego pojazdu, a także
pewne ograniczone możliwości finansowe. Pożądany jest pojazd, który najlepiej będzie spełniać wymagania przyszłego użytkownika. Należy zauważyć, że
konsumenci rzadko kierują się wyłącznie kryterium maksymalizacji jakości
lub minimalizacji ceny towaru. Zazwyczaj starają się optymalizować relację
jakości do ceny.
Celem niniejszej pracy jest propozycja wykorzystania narzędzia, jakim jest
metoda badania efektywności Data Envelopment Analysis do budowy rankingów samochodów osobowych, uwzględniających zarówno cenę pojazdu, jak
i zróżnicowane wymagania klienta, odzwierciedlające różne jego preferencje.
Zastosowanie metody DEA do badania efektywności pojazdów nie jest
koncepcją nową, ale niezbyt powszechną. Wśród najbardziej znanych pozycji
omawiających tę metodę w literaturze przedmiotu należy wymienić prace:
Papahristodoulou [1997], Staata i Hammerschmidta [2005], Oh, Lee, Hwang
i Heshmati [2010], o których więcej w pracy Domagały [2012]1. Badania te
1
Gdzie omówiono pilotaż niniejszego badania, które jest zapowiadanym rozwinięciem
podjętego tam tematu.
Metoda DEA jako narzędzie wsparcia w procesie kupna-sprzedaży samochodów
7
dotyczyły tylko pojazdów o silnikach benzynowych, a wykorzystane zmienne
to przede wszystkim: cena pojazdu, koszty paliwa, wymiary pojazdu, pojemność silnika, moc, prędkość maksymalna oraz przyspieszenie [Papahristodoulou 1997], a także: zmienna obrazująca siłę marki i zmienna wskazująca,
czy pojazd ma klimatyzację i/lub system surround sound stereo [Staat i Hammerschmidt 2005] lub zmienna wskazującą typ skrzyni biegów, pełniąca rolę
zmiennej symptomatycznej2 [Oh i in. 2010]. We wszystkich powyższych
badaniach przy szacowaniu efektywności wykorzystano podstawowe radialne
modele DEA.
We wspomnianych pracach nie wzięto natomiast pod uwagę preferencji
klienta – zaproponowane rankingi pojazdów powstały w wyniku przyjęcia
jednego, wybranego przez danych autorów układu zmiennych. W niniejszym
opracowaniu wykorzystano odrębne zestawy zmiennych, aby odzwierciedlić
różne profile klienta. Ponadto w prezentowanym podejściu ujęto dodatkowo
zmienne, które nie zostały wzięte pod uwagę w pracach wymienionych powyżej, a w celu oszacowania efektywności pojazdów wykorzystano nieradialny
model DEA.
1. Zastosowana metoda badania efektywności
Rankingi pojazdów zbudowano na podstawie nieparametrycznej metody
DEA (Data Envelopment Analysis)3, która jest metodą badania względnej4
efektywności procesu przekształcania nakładów w wyniki w grupie obiektów
opisanych wielowymiarowym układem zmiennych.
Wybrano właśnie tę metodę, gdyż pozwala ona ocenić efektywność obiektów pod względem przekształcania nakładów w wyniki5. Ponadto w metodzie
DEA nakłady i wyniki są ważone w sposób najkorzystniejszy dla analizowanego obiektu. Oznacza to, że najwyższe wartości wag otrzymują zmienne, które
najsilniej wpływają na efektywność tego obiektu.
Poprawne zastosowanie metody DEA jest możliwe po spełnieniu pewnych
założeń, wśród których jest między innymi warunek homogeniczności badanej
2
Pojazdy z automatyczną skrzynią biegów autorzy uznali za luksusowe.
W polskiej literaturze spotykana jest także pod nazwą analizy obwiedni (lub otoczki)
danych.
4
Efektywność danego obiektu jest ustalana na tle pozostałych obiektów w grupie, a dokładniej opierając się na jednostkach wzorcowych, leżących na granicy efektywności ustalonej
na podstawie DEA.
5
Miernik syntetyczny powszechnie stosowany do konstrukcji rankingów nie daje takiej
możliwości.
3
8
Anna Domagała
grupy obiektów oraz możliwość podziału cech opisujących obiekty na nakłady
i wyniki. Badana grupa powinna być także odpowiednio duża w stosunku do
liczby cech opisujących obiekty6.
Metoda DEA została opracowana przez Charnesa, Coopera i Rhodesa
[1978], którzy na podstawie pracy Farrella [1957] zaproponowali podstawowy model DEA – radialny model CCR. W późniejszych latach powstało
wiele modyfikacji tego modelu, które łącznie tworzą tzw. grupę modeli DEA.
W grupie tej znajdują się także modele nieradialne, a więc uwzględniające inny
niż zaproponowany przez Farrella [1957] radialny sposób pomiaru odległości
obiektu od granicy efektywności7. Różnicę między radialnym i nieradialnym
pomiarem odległości obiektu od granicy efektywności obrazuje prosty przykład zilustrowany na rysunku 1.
P
W
x2
Q
granica
efektywności
Z
O
x1
Rysunek 1. Radialna i nieradialna miara odległości od granicy efektywności
Niech będzie dany obiekt P, który wytwarza jednostkowy wynik (oznaczony przez y), wykorzystując do tego dwa nakłady oznaczone przez x1 oraz x2.
Efektywny sposób przekształcania nakładów w wyniki (granica efektywności)
jest wyznaczany na podstawie obiektów najlepszych (W oraz Z, które ten sam
wynik uzyskują przy niższych nakładach). Przyjęto model zorientowany na
nakłady8 oraz założenie o stałych efektach skali.
6
Postulaty te zostały uwzględnione w dalszej części opracowania (punkty 2 i 3).
Więcej o modelach radialnych i nieradialnych DEA na przykład w pracy: [Cooper,
Seiford i Tone 2007].
8
Poszukiwana jest więc redukcja nakładów, dzięki której obiekt P znajdzie się na granicy
efektywności.
7
Metoda DEA jako narzędzie wsparcia w procesie kupna-sprzedaży samochodów
9
Na rysunku 1 obiekt P jest obiektem nieefektywnym, gdyż nie leży na
granicy efektywności. Efektywność radialna to stosunek długości odcinka OQ
do długości odcinka OP. Miara ta pokazuje, jak należy zredukować nakłady
(x1 oraz x2), aby obiekt P stał się efektywny (a więc znalazł się na granicy efektywności). Efektywność radialna zakłada proporcjonalną redukcję wszystkich
nakładów, stąd nazwa tego typu efektywności, gdyż redukcja odbywa się „po
promieniu”, łączącym początek układu współrzędnych i analizowany punkt P.
W taki sposób jest mierzona odległość w modelach radialnych DEA.
Oczywiście proporcjonalna redukcja obu nakładów (do współrzędnych
punktu Q) nie jest dla obiektu P jedynym sposobem znalezienia się na granicy efektywności. W skrajnym wypadku obiekt P może zredukować tylko
jeden nakład – x1 lub x2 – i znaleźć się wtedy odpowiednio w punkcie W lub
Z. Może także dokonać redukcji obu nakładów, ale w sposób nieproporcjonalny (znajdzie się wtedy w punkcie leżącym na fragmencie granicy między
punktami W i Z). Taki sposób redukcji nakładów jest nazywany nieradialnym,
gdyż dokonywana redukcja nakładów nie jest proporcjonalna.
W badaniu będącym przedmiotem niniejszego opracowania zastosowano
jeden z nieradialnych modeli DEA – model SBM (Slacks-Based Measure)
z nadefektywnością [Tone 1997, 2002]. Pozwala on na wyznaczenie jednowymiarowej miary efektywności (tak, jak modele radialne), ale – podobnie jak
inne modele nieradialne – jest pozbawiony wady, którą jest nieuwzględnianie
niezerowych luzów w obliczanych wskaźnikach efektywności.
Wada ta jest cechą charakterystyczną modeli radialnych. Jeżeli luz dla
danego nakładu nie jest zerowy, oznacza to, że można ten nakład zmniejszyć
o wielkość luzu i nie wpłynie to na rozwiązanie zadania (a więc na wartość
wskaźnika efektywności). Wskazuje to na ryzyko wystąpienia obiektu pozornie efektywnego. Obiekt taki leży na granicy efektywności, ale nadal zużywa
więcej niż to konieczne jednego spośród nakładów. Taką sytuację obrazuje
rysunek 2.
Warto przyjrzeć się bliżej jednostce F na rysunku 2. Leży ona na granicy
efektywności, gdyż wykorzystuje minimalną wielkość nakładu x2. Jest więc
efektywna. Wskaźnik efektywności wynikający z optymalnego rozwiązania
modelu radialnego DEA dla tej jednostki wynosi 1,0. Jednakże w rozwiązaniu tym pojawia się dodatni luz związany z nakładem x1, który sugeruje, że
można zredukować nakład x1 o dwie jednostki bez zmiany wartości funkcji
celu (a więc bez zmiany wskaźnika efektywności). Oznacza to, że obiektu F nie
można nazwać silnie efektywnym, gdyż istnieje inny obiekt (C), zużywający
do produkcji jednostki wyniku y tyle samo x2, ale o dwie jednostki mniej
x1. W terminologii DEA jest to tak zwana słaba efektywność (zwana także
10
Anna Domagała
5
G
R
4
granica
efektywności
E
A
3
B
x2
2
D
F
C
1
0O
0
2
4
6
x1
8
10
12
Rysunek 2. Efektywność w sensie Farrella
Źródło: Cooper, Seiford i Tone [2007, s. 57]
efektywnością w sensie Farrella), ponieważ nakłady obiektu F nie wymagają
proporcjonalnej redukcji (znajduje się on bowiem na granicy efektywności).
Jednostka G jest z kolei nieefektywna zarówno w sensie słabej, jak i silnej
efektywności. Jej nieefektywność farrellowską (słabą) odzwierciedla radialna
odległość od granicy efektywności.
Jeżeli obiekt G zredukuje w radialny sposób oba swoje nakłady, to znajdzie
się na granicy efektywności w punkcie R. Jednak punkt R nie jest silnie efektywny w sensie DEA, mimo że jest efektywny w sensie Farrella. Występuje tu
ponownie słaba efektywność, gdyż w punkcie R luz związany z nakładem x2
jest dodatni. Dopiero zredukowanie x2 o wielkość tego luzu (a więc przesunięcie do punku E) spowoduje, że obiekt G stanie się silnie efektywny w sensie
DEA – jednak wskaźnik efektywności modelu radialnego DEA będzie równy
ilorazowi długości odcinków OR/OG, a więc nie będzie zawierał informacji
o dodatkowej nieefektywności wynikającej z niezerowego luzu.
Zastosowany w niniejszym badaniu nieradialny model SBM jest modelem tzw. niezorientowanym9, w którym wskaźnik efektywności uwzględnia
niezerowe luzy zarówno po stronie nakładów, jak i wyników, a więc zawiera
w sobie wszelkie informacje o wymaganej (w celu poprawy efektywności)
redukcji nakładów i wymaganym zwiększeniu wyników10.
9
W modelach radialnych konieczne jest przyjęcie orientacji na nakłady lub na wyniki.
Obiekt F z rysunku 2 w świetle modelu SBM nie byłby już obiektem efektywnym.
10
Metoda DEA jako narzędzie wsparcia w procesie kupna-sprzedaży samochodów
11
W celu budowy rankingów pojazdów wykorzystano model SBM z nadefektywnością11, którego postać zapisano poniżej [Cooper, Seiford i Tone
2007, s. 316]:
1
δoSE SBM
min
ϕ , ψ, λ
1 m
ϕ
m i 1 io
¦
1 s
ψ
1
s r 1 ro
(1)
¦
przy warunkach:
n
¦ xij λjo xioϕio d xio
(i 1, }, m),
j 1
j zo
n
¦ yrj λjo yro ψro t yro
( r 1, }, s),
(2)
j 1
j zo
ϕio , ψro , λjo t 0,
gdzie:
δoSE SBM – oznacza wskaźnik efektywności modelu SE-SBM dla badanego
o-tego obiektu (o = 1, …, n),
xij – to i-ty nakład j-tego obiektu (i = 1, …, m),
yrj – to r-ty wynik j-tego obiektu (r = 1, …, s),
λjo – współczynnik intensywności związany z j-tym obiektem wyznaczony dla analizowanego o-tego obiektu12 (j = 1, …, n),
ϕio – wskazuje wymaganą procentową redukcję i-tego nakładu,
ψro – wskazuje wymagane procentowe zwiększenie r-tego wyniku.
11
Koncepcję nadefektywności zaproponowali Andersen i Petersen [1993]. Przy ustalaniu
granicy efektywności nie jest brany pod uwagę obiekt, którego efektywność jest ustalana. Granica efektywności jest wtedy konstruowana tylko na podstawie pozostałych obiektów. Pozwala
to na rangowanie także jednostek efektywnych, gdyż obliczane wskaźniki efektywności mogą
być większe od 1 (modele bez nadefektywności nadają wszystkim obiektom efektywnym taką
samą wartość wskaźnika równą 1).
12
Ważona (współczynnikami λjo) suma nakładów (wyników) obiektów będących wzorcami
dla badanego o-tego obiektu pokazuje zalecaną wartość nakładu (wyniku) o-tego obiektu, przy
której stanie się on efektywny.
12
Anna Domagała
2. Przyjęte profile klienta
Dla zobrazowania możliwości, jakie daje proponowane podejście, przedstawiono wybrane trzy profile klienta (klient oszczędny, klient zainteresowany
dynamiką pojazdu oraz klient ceniący bezpieczeństwo), które zaprezentowano
poniżej. Należy jednak podkreślić, że modeli takich może być znacznie więcej
– w zależności od przyjętych zestawów zmiennych.
Modele i zestawy zmiennych przyjęte w badaniu
Model 1: Oszczędność
benzyna/diesel, AB/CD
Metoda: DEA, SE -SBM
Nakłady:
t Cena
Wyniki:
t Spalanie_s
t Przyspieszenie_s
t Kubatura pojazdu
t Bezpieczeństwo
t Wycena wyposażenia
dodatkowego zawartego w cenie
Model 2: Dynamika
benzyna/diesel, AB/CD
Metoda: DEA, SE -SBM
Nakłady:
t Cena
Wyniki:
t Moc
t V max
t Przyspieszenie_s
t Maksymalny moment
obrotowy/Obroty (wskaźnik
MMO/Obr)
Model 3: Bezpieczeństwo
benzyna/diesel, AB/CD
Metoda: DEA, SE -SBM
Nakłady:
t Cena
Wyniki:
t Wymiar pojazdu
t Liczba poduszek powietrznych
t Liczba systemów bezpieczeństwa
t Wynik w testach zderzeniowych
– ang. crash-testach (ochrona
dorosłych i dzieci – Euro NCAP)
Każdy z modeli obrazuje klienta o innym profilu. Wspólną cechą wszystkich trzech modeli jest to, że nie uwzględniają one emocji, którymi dodatkowo kierują się klienci. Prezentowane narzędzie może zatem posłużyć nie
tylko sprzedawcom13, ale także samym klientom, którzy chcieliby wyelimi13
Doświadczony sprzedawca jest w stanie bardzo szybko ocenić profil potencjalnego klienta. Znajomość rankingów pojazdów z różnych punktów widzenia może znacząco przyspieszyć
przygotowanie propozycji właściwej dla klienta o danym profilu.
Metoda DEA jako narzędzie wsparcia w procesie kupna-sprzedaży samochodów
13
nować wpływ emocji i oceniać pojazdy tylko z punktu widzenia zadanych
cech.
Badana efektywność pojazdów jest efektywnością postrzeganą przez klienta, dlatego po stronie nakładów przyjęto w każdym z modeli tylko jedną
zmienną – cenę pojazdu, ponieważ jest to nakład ponoszony przez klienta
przy zakupie pojazdu14. Po stronie wyników ujęto zmienne, które mają odzwierciedlać dany profil klienta.
Model 1: Oszczędność
Przyjęto, że klient oszczędny wybierze samochód, który przy danej cenie oferuje:
– niskie spalanie – mierzone średnią liczbą litrów benzyny spalanych
na 100 km w układzie mieszanym (jazda po mieście i poza obszarem
zabudowanym)15,
– dobrą dynamikę – jako zmienną-reprezentanta wybrano przyspieszenie
(liczba sekund do uzyskania prędkości 100 km/h)16,
– dużą przestrzeń – przyjętą zmienną nazwano kubaturą, gdyż na jej wartość
składa się iloczyn długości, szerokości i wysokości samochodu (m3) oraz
pojemność bagażnika (m3)17,
– wysoki poziom bezpieczeństwa – przyjęto zmienną syntetyczną, która jest
sumą liczby poduszek powietrznych zamontowanych w pojeździe i liczby
zainstalowanych systemów bezpieczeństwa18,
14
Zmienną, która byłaby w takim badaniu bardzo pożądana, jest także szacunkowy koszt (na
przykład roczny) eksploatacji pojazdu. Jest to jednak zmienna niezmiernie trudna do oszacowania – powinna bowiem uwzględniać nie tylko koszty przeglądów okresowych pojazdu, ale także
awaryjność, koszt części zamiennych używanych przy najczęściej pojawiających się usterkach
oraz koszty ubezpieczenia (OC, AC), które różnią się ze względu na markę i model pojazdu.
15
Zmienna Spalanie jest destymulantą (pożądana jest jej jak najniższa wartość), a po
stronie wyników w metodzie DEA powinny występować stymulanty. Zmieniono zatem charakter zmiennej na przeciwny (poprzez odjęcie jej wartości od stałej równej 10) i nadano jej
nazwę „Spalanie_s”.
16
Pojazd o lepszym przyspieszeniu, będzie mieć większą moc, a tym samym wyższą prędkość maksymalną i zazwyczaj także wyższy wskaźnik MMO/Obr. Zmienna Przyspieszenie jest
także destymulantą, została więc przekształcona w stymulantę poprzez odjęcie jej wartości od
stałej równej 20 (przekształconej zmiennej nadano nazwę „Przyspieszenie_s”).
17
Warto zwrócić uwagę, że pojemność bagażnika jest już zawarta w iloczynie wymiarów
pojazdu, ale dodana ją celowo, aby silniej podkreślić pojazdy, które mają wyjątkowo dużą pojemność bagażnika – często pojazdy o zbliżonych wymiarach znacząco różnią się pojemnością
bagażnika (w zależności od tego, jak opracowano wnętrze pojazdu, jak składają się fotele itp.).
18
Zsumowano wszystkie systemy poza ABS (który zgodnie z obowiązującymi przepisami jest już obowiązkowym elementem w każdym sprzedawanym pojeździe), a więc systemy
wspomagania hamowania, systemy kontroli trakcji itp.
14
Anna Domagała
– wycena wyposażenia dodatkowego zawartego w cenie – jest to suma wycenionych elementów z ustalonej listy wyposażenia dodatkowego19.
Model 2: Dynamika
Przyjęto, że klient nastawiony na tzw. osiągi pojazdu wybierze samochód, który
przy danej cenie oferuje jak najlepsze parametry określające dynamikę pojazdu. Zmienną, która wymaga tu wyjaśnienia, jest obliczony na potrzeby tego
badania wskaźnik „MMO/Obr”, który informuje o stosunku maksymalnego
momentu obrotowego (MMO) do liczby obrotów silnika, przy których jest
on dostępny (Obr). Jak wiadomo, w dynamicznym pojeździe jest pożądana
wysoka wartość maksymalnego momentu obrotowego, ale najlepiej, jeśli jest
dostępna przy niskich obrotach. Wskaźnik uzyskuje tym wyższą wartość, im
większy jest licznik (maksymalny moment obrotowy) i mniejszy mianownik
(obroty).
Model 3: Bezpieczeństwo
Przyjęto, że klient dbający o bezpieczeństwo wybierze samochód, który przy
danej cenie wydaje się najbardziej bezpieczny. Jako cechy wpływające na
bezpieczeństwo przyjęto:
– wymiar pojazdu20,
– liczbę poduszek powietrznych, w które wyposażono pojazd21,
– liczbę systemów bezpieczeństwa,
– wynik w testach zderzeniowych (crash-testach) – przyjęto średnią z wyników ochrony dorosłych i dzieci – wyniki są publikowane na stronach
Euro NCAP22.
19
Elementy, które są na wyposażeniu wszystkich badanych samochodów ustanowiły listę
podstawową. Wszystkie pozostałe elementy (które występują tylko w niektórych pojazdach)
stworzyły listę wyposażenia dodatkowego. Następnie sprawdzono, ile elementów z listy dodatkowej znajduje się na wyposażeniu danego pojazdu. Elementy te wyceniono, a wyceny zsumowano. Powstała unikatowa zmienna, która pokazuje, jaką wartość wyposażenia dodatkowego
otrzymuje klient w cenie pojazdu.
20
Przyjęto założenie, że większy pojazd jest bezpieczniejszy. W analizie wykorzystano
zmienną syntetyczną „wymiar pojazdu”, będącą iloczynem długości, szerokości i wysokości
pojazdu.
21
Poza poduszką kierowcy w samochodach mogą być: poduszki pasażera, poduszki kurtynowe czy też poduszki chroniące kolana kierowcy.
22
Organizacja Euro NCAP powstała w 1997 roku przy departamencie transportu w rządzie brytyjskim. Zajmuje się przeprowadzaniem crash-testów samochodów i obecnie zrzesza
przedstawicieli siedmiu rządów europejskich oraz organizacje motoryzacyjne i konsumenckie;
http://www.euroncap.com.
Metoda DEA jako narzędzie wsparcia w procesie kupna-sprzedaży samochodów
15
3. Obiekty poddane badaniu efektywności
W omawianym badaniu przeanalizowano łącznie 66 nowych (rocznik 2012)
samochodów osobowych będących w ofercie przykładowego dealera samochodowego. Wzięto pod uwagę samochody małe (tzw. segment A i B) oraz
średnie i duże (segment C i D) o silnikach zarówno benzynowych, jak i diesela.
Wybierając modele do badania, przyjęto następujące wytyczne:
– wybierano pojazdy o podobnej mocy (w przypadku modeli w wersji kombi
ujęto modele o nieco wyższej mocy),
– przyjęto możliwie najniższe wersje wyposażenia (głównie były to wersje
podstawowe lub nieco wyższe – wszystkie pojazdy musiały mieć klimatyzację przynajmniej manualną),
– przyjęto ceny katalogowe producentów23.
Dane pochodziły przede wszystkim z katalogów i cenników producentów
pojazdów, a także z portali motoryzacyjnych euroncap.com oraz autocentrum.
pl. Jeśli brakowało danych, odpowiedni pojazd był usuwany z badania24.
Należy pamiętać, że badana metodami DEA efektywność jest efektywnością względną, co oznacza, że wskaźniki efektywności obiektów nieefektywnych
są ustalane na podstawie jednostek wzorcowych (leżących na granicy efektywności). Stąd też ważne jest, aby analizować obiekty homogeniczne. Wybór
obiektów powinien być zatem starannie przemyślany i oparty na wiedzy na
temat analizowanego obszaru.
W badaniu intuicyjnie przyjęto podział na cztery grupy – ze względu
na segment (A i B lub C i D) oraz typ silnika (benzyna lub diesel). Warto
jednak wykorzystać także narzędzia wielowymiarowej analizy danych, takie
jak analiza skupień czy analiza wariancji. W przypadku omawianego badania zarówno analiza skupień, jak i analiza wariancji potwierdziły słuszność
intuicyjnie dokonanego podziału. Zastosowana jednoczynnikowa ANOVA
(osobno dla zmiennych: cena, moc, spalanie, przyspieszenie, bezpieczeństwo,
wymiar) wskazała na istotne różnice pomiędzy intuicyjnie wyodrębnionymi
czterema podgrupami (statystyka F znacząco przekraczała wartość krytyczną
przy pięcioprocentowym poziomie istotności)25.
23
Obowiązujące w okresie od czerwca do sierpnia 2012 roku.
Zmienne, dla których występowały braki w danych to: Wynik w crash-testach oraz
Wycena wyposażenia dodatkowego.
25
Sytuacja, gdy średnie niektórych cech nie różniły się istotnie, występowała najczęściej
dla podgrupy pojazdów benzynowych z segmentu A i B oraz podgrupy pojazdów z silnikiem
diesela z segmentu A i B (np. dla cechy Wymiar pojazdu – co jest oczywiste).
24
16
Anna Domagała
Również zastosowana metoda Warda26 (dla obiektów opisanych większością zmiennych, ujętych w badaniu27) wskazuje na wyraźny podział na przyjęte
powyżej podgrupy. Widać to na rysunku 3, który prezentuje dendrogram
wygenerowany na podstawie wyników metody Warda.
Na dendrogramie widać podział na pojazdy małe i większe (jeśli przeciąć
dendrogram na poziomie odległości równej 30), a także dalsze podziały ze
względu na typ silnika, co uzasadnia intuicyjnie przyjęty podział badanej
grupy, który postanowiono utrzymać28.
Ostatecznie rankingi zbudowano dla pojazdów z segmentu C i D, gdyż po
podzieleniu samochodów ze względu zarówno na segment, jak i typ silnika
okazało się, że pojazdów z segmentu A i B jest 13 (benzyna) lub 8 (diesel),
co przy łącznie pięciu zmiennych29 w modelu nie spełnia wymogu minimalnej liczby obiektów badania, która wynosi [Cooper, Seiford i Tone 2007,
s. 284]:
n t max ^m ˜ s; 3 ˜ (m s)`,
(3)
gdzie:
m – liczba przyjętych w modelu DEA nakładów,
s – liczba przyjętych wyników.
Warunek ten nie jest konieczny dla rozwiązania modelu (1)–(2), ale prowadzenie analizy przy zbyt małej liczbie obiektów zmniejsza moc dyskryminacyjną metody DEA [Adler i Yazhemsky 2010]. Przejawia się to przeszacowaniem wartości wskaźników efektywności i zwiększeniem liczby obiektów
efektywnych.
26
Jedna z metod analizy skupień.
Wzięto pod uwagę te zmienne, dla których dane występowały dla wszystkich 66 pojazdów.
28
Skupienia sugerowane przez metodę Warda są mało liczne – największe skupienie zawierało 17 obiektów, co jest liczebnością zbyt małą dla poprawności analizy DEA – patrz
wzór (3). Przeprowadzona dodatkowo analiza skupień metodą k-średnich (k = 5) potwierdza
poprawność intuicyjnie przyjętego podziału – wśród pięciu skupień znalazły się dwa mniej
liczne skupienia pojazdów małych (segment A i B) o silniku benzynowym lub diesela, jedno
skupienie obejmujące większe pojazdy (z segmentu C i D) o silniku benzynowym oraz dwa
skupienia pojazdów z silnikiem diesela z segmentu C i D (różniące się tylko ze względu na
zmienne charakteryzujące dynamikę pojazdu).
29
Lub sześciu zmiennych w przypadku Modelu 1: Oszczędność.
27
[17]
diesel
pojazdy większe
benzyna
diagram drzewa
metoda Warda
odległość euklidesowa
Źródło: Opracowanie własne z wykorzystaniem pakietu STATISTICA
0
10
20
30
40
Rysunek 3. Dendrogram metody Warda
odległość wiąz.
50
Optima_die
InsigniaKombi_die
i40wagon_die
Malibu_die
Cruze_5d_die
Cruze_4d_die
Astra3h_die
i30wagon_die
Orlando_die
ZafiraTour_die
Insignia_die
Astra4kombi_die
Astra4h_die
i40_die
C5_die
Zafira_die
C4P_die
InsigniaKombi_ben
Optima_ben
Malibu_ben
Astra3h_ben
Orlando_ben
Elantra_ben
Cruze_5d_ben
Cruze_4d_ben
i40wagon_ben
i40_ben
C5_ben
ZafiraTour_ben
Insignia_ben
Astra4kombi_ben
Zafira_ben
C4P_ben
Merriva_die
Ceed_die
Rio_die
i30_die
Aveo_5d_die
Aveo_4d_die
C4_die
C3P_die
ix20_die
C3_die
Merriva_ben
Astra4h_ben
Ceed_ben
i30wagon_ben
i30_ben
ix20_ben
Aveo_5d_ben
Rio_ben
Aveo_4d_ben
C4_ben
C3P_ben
Picanto_ben
Spark_ben
i20_ben
C3_ben
Corsa_die
Venga_die
AveoC_5d_ben
AveoC_4d_ben
Corsa_ben
Venga_ben
i10_ben
C1_ben
diesel
pojazdy małe
benzyna
pojazdy
najmniejsze
18
Anna Domagała
4. Rezultaty badania empirycznego
Poniżej omówiono rankingi zbudowane na podstawie przyjętych trzech
modeli profilu klienta (zawarte na s. 12). Na szczycie rankingu znalazły się
pojazdy, którymi w pierwszej kolejności powinien się zainteresować klient danego profilu (lub które przede wszystkim w swojej ofercie powinien umieścić
sprzedawca obsługujący danego klienta). Ze względu na obszerność badania,
przedstawiono wyniki tylko dla pojazdów benzynowych.
Model 1: Oszczędność
W pierwszym analizowanym profilu przyjęto, że klient oszczędny będzie poszukiwał pojazdu w korzystnej cenie, którego poziom spalania będzie możliwie
najniższy, ale który równocześnie zaoferuje dobrą dynamikę, przestrzeń wewnątrz pojazdu oraz możliwie najwyższy poziom bezpieczeństwa. Oczywiście
należy mieć świadomość, że na przykład niskie spalanie będzie pociągało za
sobą słabszą dynamikę pojazdu. W profilu tym poszukiwany jest zatem samochód, który będzie kompromisem pomiędzy parametrami ważnymi dla
klienta oszczędnego.
Ranking 20 samochodów (z analizowanej grupy 22 samochodów benzynowych z segmentu C i D)30 wraz z uzyskanymi przez pojazdy wskaźnikami
efektywności przedstawiono na rysunku 4.
100%
80%
60%
40%
Opel Insignia
Citroen C4 Picasso
Opel Insignia kombi
Opel Zafira Tourer
Opel Astra 4 kombi
Opel Zafira
Citroen C5
Opel Astra 4
Opel Merriva
Chevrolet Orlando
Citroen C4
Hyundai i40
Chevrolet Cruze 4d
Hyundai i30 wagon
Hyundai i30
Chevrolet Cruze 5d
Hyundai i40 wagon
Kia Ceed
0%
Hyundai Elantra
20%
Opel Astra 3
wskaźnik efektywności
120%
Rysunek 4. Model 1: Oszczędność
30
Dwa pojazdy (Chevrolet Malibu, Kia Optima) zostały wyłączone z badania z uwagi
na brak danych dla zmiennej Wycena wyposażenia dodatkowego zawartego z cenie pojazdu.
19
Metoda DEA jako narzędzie wsparcia w procesie kupna-sprzedaży samochodów
Rysunek 5. Model 1: Oszczędność – źródła nadefektywności
Hyundai i30 wagon
Chevrolet Cruze 5d
Hyundai i30
Hyundai i40 wagon
Hyundai Elantra
Kia Ceed
0%
–2%
–4%
–6%
–8%
–10%
–12%
–14%
–16%
–18%
–20%
–22%
Opel Astra 3
źródła nadefektywności
W badanej grupie jest siedem pojazdów efektywnych, a więc tych, dla
których wskaźnik efektywności jest większy lub równy 100%.
Pojazdem, którym w pierwszej kolejności powinien zainteresować się klient
oszczędny jest Opel Astra 3. Jest to pojazd, który jest doskonałym kompromisem pomiędzy ceną a poziomem spalania, dynamiką, przestrzenią wewnątrz
pojazdu i bezpieczeństwem.
Warto jednak zwrócić uwagę, że Opel Astra 3 jest jedynym oplem wśród
pojazdów efektywnych. Grupę tę zdominowały pojazdy koreańskie marki
Hyundai. Znalazł się tam także jeden model marki Kia i jeden model Chevroleta. Badanie potwierdza ogólnie panujące przekonanie, że producenci aut
koreańskich postawili sobie za cel oferowanie dobrych pojazdów (mogących
konkurować pod względem różnych parametrów z innymi markami) w atrakcyjnej cenie. Również Chevrolet przyjął taką strategię działania.
Metoda DEA oferuje jednak znacznie więcej niż tylko możliwość oceny
efektywności obiektów w danej grupie i konstrukcji rankingów. Można bowiem przyjrzeć się szczegółowo każdemu z pojazdów pod kątem konkretnej
opisującej go zmiennej. Zastosowanie nieradialnego modelu SBM pozwala
na uzyskanie informacji o źródłach nadefektywności obiektów efektywnych
oraz źródłach nieefektywności pojazdów, które znalazły się poniżej granicy
efektywności. Ilustrują to odpowiednio rysunki 5 oraz 6.
Na rysunku 5 siedem pojazdów efektywnych przedstawiono w kolejności
zgodnej z miejscem w rankingu. Wartości na osi rzędnych to współczynniki
cena
przyspieszenie_s
spalanie_s
bezpieczeństwo
kubatura
wyposażenie dodatkowe
20
Anna Domagała
cena
bezpieczeństwo
Patrz: model (1)–(2).
Opel Insignia
Citroen C4 Picasso
Opel Insignia kombi
Opel Zafira Tourer
przyspieszenie_s
spalanie_s
kubatura
wyposażenie dodatkowe
Rysunek 6. Model 1: Oszczędność – źródła nieefektywności
31
Opel Astra 4 kombi
Opel Zafira
Opel Astra 4
Citroen C5
Chevrolet Orlando
Opel Merriva
Citroen C4
Hyundai i40
160%
140%
120%
100%
80%
60%
40%
20%
0%
–20%
Chevrolet Cruze 4d
źródła nieefektywności
ϕio oraz ψro31, które pokazują o ile procent średnio dany pojazd mógłby odpowiednio zwiększyć swój nakład (czyli cenę) lub zmniejszyć swoje wyniki
(patrz s. 12) i nadal zachować status obiektu efektywnego.
W przypadku każdego badanego pojazdu możliwe zwiększenie ceny wynosi 0%, a więc podniesienie ceny nie jest zalecane. Wartości ujemne dla
pozostałych zmiennych wskazują, w ramach którego parametru dany model
samochodu uzyskuje swoją wysoką pozycję. Wspomniany Opel Astra 3 mógłby pogorszyć wartość zmiennej Spalanie_s aż o 15%. Podobnie z przestrzenią
wewnątrz pojazdu (Kubatura), która mogłaby być mniejsza o ponad 11%,
a pojazd nadal byłby efektywny. Oznacza to, że na tle pozostałych badanych
samochodów atutami Opla Astry 3 jest niskie spalanie oraz duża przestrzeń
wewnątrz pojazdu. W podobny sposób można analizować pozostałe obiekty.
Wnikliwy klient może zatem uzyskać dodatkowe informacje o interesujących go pojazdach. Jeżeli szuka pojazdu oszczędnego (w rozumieniu
Modelu 1), ale najbardziej ze wszystkich parametrów ceni sobie na przykład
bezpieczeństwo, to wybrałby Kię Ceed, która jest efektywna, a więc gwarantuje dobry stosunek ceny do pozostałych parametrów i dodatkowo oferuje
wysoki poziom bezpieczeństwa (najwyższa liczba poduszek powietrznych
i zainstalowanych w pojeździe systemów bezpieczeństwa).
Rysunek 6 ilustruje z kolei źródła nieefektywności obiektów, które w przeprowadzonym badaniu znalazły się poniżej granicy efektywności. Wartości ϕi
21
Metoda DEA jako narzędzie wsparcia w procesie kupna-sprzedaży samochodów
oraz ψr na osi rzędnych wskazują tym razem o ile procent należałoby odpowiednio obniżyć cenę pojazdu lub zwiększyć wartości poszczególnych parametrów po stronie wyników, aby pojazd uzyskał status obiektu efektywnego.
Ponownie pojazdy uporządkowano według miejsca w rankingu.
Analiza źródeł nieefektywności pozwala zidentyfikować parametry danego
samochodu, które są najsłabsze w porównaniu z pozostałymi pojazdami. Na
przykład nieefektywność Citroena C4 wynika przede wszystkim ze zbyt niskiej wartości zmiennej Bezpieczeństwo, która powinna być wyższa o ponad
65%, aby pojazd zbliżył się do granicy efektywności. Ponadto wyniki analizy
sugerują, że wycena wyposażenia dodatkowego zawartego w cenie (zmienna
Wyposażenie dodatkowe) jest zbyt niska. Oznacza to, że – w porównaniu
z pojazdami efektywnymi – Citroen C4 przy swojej cenie powinien oferować bogatsze wyposażenie (wartość wyposażenia dodatkowego powinna być
wyższa o ponad 50%).
Model 2: Dynamika
Ranking w ramach Modelu 2 przygotowano dla klienta, który zwraca uwagę
przede wszystkim na dynamikę pojazdu. Z powodu ograniczonej objętości opracowania rezultaty badania empirycznego dla Modelu 2 i Modelu 3
omówiono w skrócie32. Na rysunku 7 przedstawiono ranking 22 pojazdów
ze względu na przyjęty w Modelu 2 profil klienta.
wskaźnik efektywności
120%
100%
80%
60%
40%
20%
Opel Insignia
Opel Zafira Tourer
Hyundai i40 wagon
Citroen C4 Picasso
Opel Insignia kombi
Citroen C5
Opel Astra 4
Hyundai i40
Opel Zafira
Opel Merriva
Citroen C4
Opel Astra 4 kombi
Chevrolet Malibu
Kia Optima
Hyundai i30 wagon
Kia Ceed
Hyundai i30
Chevrolet Orlando
Hyundai Elantra
Chevrolet Cruze 4d
Chevrolet Cruze 5d
Opel Astra 3
0%
Rysunek 7. Model 2: Dynamika – ranking pojazdów
32
Zarówno w Modelu 2, jak i w Modelu 3 można przeprowadzić równie szczegółową
analizę jak w przypadku opisanego wcześniej Modelu 1.
22
Anna Domagała
Klientowi, który poszukuje pojazdu dynamicznego, warto zatem zaoferować przede wszystkim Opla Astrę 3 lub Chevroleta Cruze w wersji pięciodrzwiowej (wskaźniki efektywności wynoszą odpowiednio 102,73% oraz
102,09%). Są to samochody, które na tle pozostałych pojazdów oferują najlepszy stosunek parametrów dynamiki do ceny.
Warto zauważyć, że poza modelem Astra 3 modele marki Opel znajdują
się w dolnej części rankingu. Analizując (analogicznie jak w Modelu 1) źródła
nieefektywności, okazuje się, że wszystkie modele Opla poza Zafirą mają
zbyt wysoką cenę w stosunku do oferowanych osiągów33. Astra 3 oraz Zafira
to modele starszej generacji, które nadal są w sprzedaży, ale ich następcami
są sprzedawane już także Astra 4 oraz Zafira Tourer. Modele starsze są więc
sprzedawane w atrakcyjniejszej cenie, co widać wyraźnie w rezultatach przeprowadzonego badania.
Model 3: Bezpieczeństwo
Prezentowany na rysunku 8 ranking z punktu widzenia bezpieczeństwa opracowano dla 15 pojazdów34.
120%
wskaźnik efektywności
100%
80%
60%
40%
20%
Chevrolet Malibu
Opel Insignia
Citroen C4 Picasso
Citroen C5
Hyundai i40
Citroen C4
Opel Zafira Tourer
Opel Zafira
Chevrolet Orlando
Chevrolet Cruze 4d
Opel Astra 4
Opel Merriva
Hyundai i30
Opel Astra 3
Kia Ceed
0%
Rysunek 8. Model 3: Bezpieczeństwo – ranking pojazdów
33
Aby zbliżyć się do granicy efektywności, modele te musiałyby cechować się ceną przynajmniej o 30% niższą.
34
Siedem pojazdów zostało wyłączonych z badania z powodu braku danych dla zmiennej
Wynik w testach zderzeniowych (ochrona dorosłych i dzieci – Euro NCAP).
Metoda DEA jako narzędzie wsparcia w procesie kupna-sprzedaży samochodów
23
Pod względem bezpieczeństwa najlepszym pojazdem okazała się Kia Ceed,
która jest wyposażona w największą liczbę poduszek bezpieczeństwa (6) i największą liczbę systemów bezpieczeństwa (8), a przy tym charakteryzuje się
bardzo atrakcyjną ceną (tańszy jest tylko Opel Astra 3 oraz Hyundai i30).
Wynik w testach zderzeniowych także okazał się bardzo dobry (0,885 przy
maksymalnym wyniku 0,90 i minimalnym 0,79).
Na drugim miejscu w rankingu znalazł się Opel Astra 3, który swoją pozycję osiągnął przede wszystkim dzięki atrakcyjnej cenie (najtańszy pojazd
w badanej grupie) i wysokiemu wynikowi w testach zderzeniowych (0,87).
Szczegółowa analiza źródeł nadefektywności wskazuje, że przy posiadanej
liczbie poduszek powietrznych (4) i systemów bezpieczeństwa (5), których jest
stosunkowo mało35 w porównaniu z innymi pojazdami, Opel Astra 3 mógłby
mieć niższy wynik w testach zderzeniowych nawet o 10% i nadal zachowałby
status jednostki efektywnej. Wskazywałoby to na dobrą konstrukcję samego
pojazdu36, który mimo mniejszej liczby poduszek i systemów bezpieczeństwa
w testach zderzeniowych wypada dobrze.
Pojazdem godnym uwagi klienta ceniącego bezpieczeństwo powinien być
także Hyundai i30, który przy 6 poduszkach powietrznych i jedynie 5 systemach bezpieczeństwa (Kia Ceed ma ich aż 8) charakteryzuje się najwyższym
wynikiem w testach zderzeniowych (0,90) i bardzo atrakcyjną ceną (drugi
najtańszy pojazd w badanej grupie).
Podsumowując omawiane rezultaty badania empirycznego, można również
zebrać wnioski z poszczególnych części badania i wyłonić samochód, który
wypada dobrze w każdej kategorii. W przypadku analizowanej grupy pojazdów
samochodem takim wydaje się Opel Astra 3.
Podsumowanie
W pracy przedstawiono propozycję narzędzia wsparcia w procesie podejmowania decyzji o zakupie samochodu, pozwalające na obiektywne porównanie
pojazdów. Narzędzie to może być również wykorzystywane przez sprzedawców – usprawniając proces przygotowania oferty dla konkretnego klienta.
35
Jak już wspomniano, Opel Astra 3 jest modelem starszej generacji, wyposażonym
w mniejszą liczbę poduszek powietrznych i systemów bezpieczeństwa niż nowszy model –
Astra 4.
36
Jakość wykonania, wykorzystane materiały, odpowiednio zaprojektowane strefy zgniotu
itp.
24
Anna Domagała
Zastosowanie proponowanej metody przedstawiono na przykładzie analizy
porównawczej wybranej grupy samochodów osobowych. Celem badania było
wyłonienie pojazdów, które najlepiej będą odpowiadać klientom o danym
profilu. Wybrano w tym celu trzy przykładowe profile klienta: oszczędny,
zainteresowany dynamiką pojazdu, ceniący bezpieczeństwo.
Przeprowadzone badania pozwalają na wstępną ocenę metody DEA. Wadą
metody DEA jest to, że nie daje wiarygodnych rezultatów w przypadku zbyt
małej liczby obiektów poddanych badaniu (należy zatem zadbać o odpowiednią liczebność grupy). Ponadto zastosowanie radialnych modeli DEA
stwarza ryzyko uznania obiektu nieefektywnego za efektywny (efektywność
w sensie Farrella – rysunek 2). Warto jednak przypomnieć, że tej wady nie
mają modele nieradialne37.
Zaletą metody DEA jest budowanie rankingu obiektów na podstawie efektywności przekształcania nakładów w wyniki. Cechy opisujące dany obiekt są
ważone w taki sposób, aby na wskaźnik efektywności najsilniej wpływały te
cechy, które są źródłem przewagi konkurencyjnej danego obiektu nad pozostałymi jednostkami w grupie. Ponadto zastosowanie nieradialnego modelu
SE-SBM pozwala nie tylko na budowę rankingu, ale także na szczegółową
analizę źródeł nadefektywności i nieefektywności badanych jednostek.
W ramach dalszych badań sugeruje się poszukiwanie nowych profili, które mogłyby odzwierciedlać inne preferencje klientów. Równocześnie warto
poszukać możliwości dodania nowych zmiennych do profili już istniejących.
Warto byłoby dodać zmienne szczególnie po stronie nakładów (jak już wspomniano, poza ceną, którą klient płaci za samochód, należałoby uwzględnić
szacunkowe koszty eksploatacji pojazdu).
Bibliografia
Adler, N., Yazhemsky, E., 2010, Improving Discrimination in Data Envelopment Analysis:
PCA–DEA or Variable Reduction, European Journal of Operational Research, no. 202.
Andersen, P., Petersen, N.C., 1993, A Procedure for Ranking Efficient Units in Data Envelopment
Analysis, Management Science 39 (10).
Charnes, A., Cooper, W.W., Rhodes, E., 1978, Measuring the Efficiency of Decision Making Units,
European Journal of Operational Research, vol. 2, no. 6.
Cooper, W.W., Seiford, L.M., Tone, K., 2007, Data Envelopment Analysis. A Comprehensive Text
with Models, Applications, References and DEA-Solver Software, Springer.
37
Takie jak zastosowany w badaniu model SBM.
Metoda DEA jako narzędzie wsparcia w procesie kupna-sprzedaży samochodów
25
Domagała, A., 2012, Efektywność samochodów osobowych oraz perspektywy rozwoju sprzedaży
pojazdów o alternatywnych jednostkach napędowych, w: Borodako, K., Nowosielski, M.
(red.), Foresight w przedsiębiorstwach: Nauka – technologia – wdrożenie, Instytut Zachodni,
Poznań.
Farrell, M.J., 1957, The Measurement of Productive Efficiency, The Journal of the Royal Statistical
Society, Series A, no. 120 (III).
Oh, I., Lee, J-D., Hwang, S., Heshmati, A., 2010, Analysis of Product Efficiency in the Korean
Automobile Market from a Consumer’s Perspective, Empirical Economics, vol. 38, no. 1.
Papahristodoulou, Ch., 1997, A DEA Model to Evaluate Car Efficiency, Applied Economics,
no. 29.
Staat, M., Hammerschmidt, M., 2005, Product Performance Evaluation – A Super-Efficiency
Model, International Journal of Business Performance Management, vol. 7, no. 3.
Tone, K., 1997, A Slack-based Measure of Efficiency in Data Envelopment Analysis, Research
Reports, Graduate School of Policy Science, Saitama University; opublikowane w: European
Journal of Operational Research no. 130, 2001.
Tone, K., 2002, A Slacks-based Measure of Super-efficiency in Data Envelopment Analysis,
European Journal of Operational Research, no. 143.
STUDIA OECONOMICA POSNANIENSIA
2013, vol. 1, no. 10 (259)
Helena Gaspars-Wieloch
Uniwersytet Ekonomiczny w Poznaniu, Wydział Informatyki i Gospodarki
Elektronicznej, Katedra Badań Operacyjnych, [email protected]
METODA SKRACANIA PRZEKROJÓW
ŚCIEŻEK NIEDOPUSZCZALNYCH SIECI
JAKO NARZĘDZIE OPTYMALIZACJI
CZASOWO-KOSZTOWEJ PROJEKTU
Streszczenie: W literaturze można znaleźć wiele różnych algorytmów optymalizacji
czasowo-kosztowej projektu. W ramach wspomnianej optymalizacji najczęściej poszukuje się wektora czasów trwania czynności wchodzących w skład przedsięwzięcia, który
minimalizuje czas całego projektu przy dostępnych środkach finansowych (tzw. Budget
Problem) lub który minimalizuje koszt realizacji przy przyjętym czasie dyrektywnym
(tzw. Deadline Problem). Niektóre algorytmy są dokładne, czyli pozwalają uzyskać optymalne rozwiązanie, lecz zazwyczaj działają wolno. Inne natomiast są heurystyczne, a więc
niekoniecznie prowadzą do uzyskania najlepszego rozwiązania, lecz za to są mniej czasochłonne. Proponowany w pracy algorytm, zwany metodą skracania przekrojów ścieżek
niedopuszczalnych sieci (metoda SPSN), pozwala bezpośrednio rozwiązywać problem
minimalizacji kosztu przy danym czasie, a pośrednio – problem minimalizacji czasu przy
dostępnych środkach finansowych. Można go stosować zarówno wtedy, gdy jednostkowe
koszty skracania są stałe, jak i wówczas, gdy te koszty są zmienne. Algorytm SPSN został
już wcześniej opisany w innym artykule. Natomiast w tej pracy przedstawiono bardziej
sformalizowany, szczegółowy i kompleksowy opis procedury. Ponadto zwrócono uwagę
na różne kwestie związane z jego komputerową implementacją i efektywnością.
Słowa kluczowe: Optymalizacja czasowo-kosztowa projektu, ścieżka niedopuszczalna,
przekrój, jednostkowe koszty skracania, czynność krytyczna, algorytm SPSN, Deadline
Problem.
Klasyfikacja JEL: C44, C61, M11.
Metoda skracania przekrojów ścieżek niedopuszczalnych sieci
27
A METHOD OF REDUCING THE CUT
OF INADMISSIBLE PATHS AS A TOOL
FOR OPTIMIZING THE TIME-COST OF A PROJECT
Abstract: In the literature, many algorithms designed for the time-cost optimization of a project can be found. Usually, this optimization has as the goal of setting certain durations for
particular activities pertaining to the project that minimize the project completion time within
a specified budget (the so called Budget Problem), or that minimize time-dependent project
costs within a specified project deadline (the so called Deadline Problem). Some algorithms
are accurate, that is they allow the optimal solution to be obtained, but in general the computations are slow. Whereas other algorithms are heuristic, hence they do not necessarily lead to
the best solution, but are less time consuming. The procedure proposed in the paper, called
the method of reducing the cut of inadmissible paths (SPSN method), allows the problem to
be solved directly by minimizing the cost within a given time; and indirectly – the problem
of minimizing the time within the available financial resources. It can be used when the unit
shortening cost is either fixed or variable. The algorithm for SPSN has already been described
in another article; however, this paper presents a more formalized, detailed and comprehensive
description of the procedure. Additionally, the author raises some essential issues connected
with the computer implementation and effectiveness of the algorithm.
Keywords: time-cost project optimization, inadmissible path, cut, unit shortening cost, critical
activity, SPSN algorithm, Deadline Problem.
Wstęp
Gdy oszacowany czas wykonania planowanego przedsięwzięcia wydaje się
zbyt długi, podejmowane są próby jego skrócenia przy jednoczesnym dążeniu
do minimalizacji kosztów związanych z przyspieszeniem realizacji projektu.
Owe działania wchodzą w skład optymalizacji czasowo-kosztowej przedsięwzięcia, a ta z kolei jest jednym z istotnych etapów zarządzania projektem.
Dwa główne problemy stawiane w analizie czasowo-kosztowej można zapisać
w postaci następujących modeli decyzyjnych:
I. Decydent minimalizuje czas realizacji przedsięwzięcia (T), mając na względzie dostępne środki K d (Budget Problem):
T(X)  min,
(1)
K(X) ≤ K d.
(2)
II. Decydent dąży do jak najtańszej realizacji projektu w czasie nie dłuższym
niż czas dyrektywny T d (Deadline Problem):
28
Helena Gaspars-Wieloch
K(X)  min,
(3)
T(X) ≤ T d.
(4)
gdzie X = [x1, …, xm]T to wektor czasów trwania m czynności danego projektu.
Modelowaniu powyższych problemów decyzyjnych poświęcono pracę
Gaspars-Wieloch [2008b]. Rozwiązania zadań (3)–(4) dla różnych poziomów
parametru T d tworzą punkty krzywej czasowo-kosztowej przedsięwzięcia,
zwanej także krzywą akceleracji [Bladowski 1970]. Przegląd dokładnych i heurystycznych metod optymalizacji czasowo-kosztowej przedsięwzięć można
znaleźć między innymi w pracach Gaspars [Gaspars 2006b, 2008c; Gaspars-Wieloch 2009]. Liczba opracowanych algorytmów kompresji sieci świadczy
o tym, że badacze wciąż dostrzegają możliwość udoskonalenia istniejących
procedur skracania czasu trwania projektu oraz stworzenia własnych, lepszych
metod [Sikora 2012]. Z analizy przeprowadzonej w pracy Gaspars-Wieloch
[2009] wynika, że nie ma procedury, która realizowałaby wszystkie istotne
kryteria (czas obliczeń, dokładność rozwiązań, obszar zastosowań itd.) nie
gorzej niż inne metody. W literaturze dominują opracowania zawierające opisy
procedur dla zadań (3)–(4), przy czym najczęściej optymalizacji podlegają wyłącznie bezpośrednie koszty wykonania projektu. Analiza czasowo-kosztowa
zakłada, że skróceniu czasu realizacji projektu towarzyszy wzrost kosztów
bezpośrednich (tj. kosztów robocizny, materiałów, nakładów na urządzania
produkcyjne, kosztów skrócenia czasu czynności). Koszty bezpośrednie są
związane z konkretną czynnością. Oprócz kosztów bezpośrednich wyróżnia
się koszty pośrednie (tj. koszty zarządzania, koszty administracyjne, podatki,
kary umowne związane z niedotrzymaniem ustalonego terminu wykonania
pracy oraz koszty utraconych szans). Koszty pośrednie dotyczą przedsięwzięcia jako całości i są podawane jako pojedynczy koszt za każdą dodatkową
jednostkę czasu realizacji projektu [Moussourakis i Haksever 2004]. W przypadku kosztów pośrednich zależność czas-koszt jest odwrotna. Krótszemu
terminowi zakończenia projektu towarzyszą niższe koszty pośrednie, a więc
przebieg całkowitych kosztów realizacji projektu można opisać na przykład
funkcją paraboliczną, której ekstremum oznacza optymalny harmonogram
prac z punktu widzenia minimalizacji łącznych kosztów.
W pracach Gaspars i Anholcera [Gaspars 2006a; Anholcer i Gaspars-Wieloch 2011, 2013] pokazano i udowodniono, że stosowanie powszechnie
znanego algorytmu Kaufmanna i Desbazeille’a (w skrócie algorytmu KD)
[Kaufmann, Desbazeille i Ventura 1964], nazywanego również metodą CPM-COST, polegającego na sukcesywnym skracaniu czasu czynności należących
Metoda skracania przekrojów ścieżek niedopuszczalnych sieci
29
do najtańszego przekroju sieci krytycznej i przez większość użytkowników
uznawanego za procedurę dokładną, nie zawsze prowadzi do rozwiązań optymalnych. Oznacza to, że koszty bezpośrednie niektórych uzyskanych harmonogramów realizacji przedsięwzięcia mogą nie być wcale najniższe.
W związku z powyższym autorka niniejszej pracy postanowiła opracować nowy sposób skracania czasu realizacji projektu. Jego zaletą miało być
w głównej mierze poprawienie dokładności rozwiązań – zwłaszcza w przypadku zadań, dla których algorytm KD daje wyniki najbardziej oddalone od
optimum. Ogólną koncepcję proponowanej metody przedstawiono w pracy
Gaspars [2006b], a w niniejszym opracowaniu autorka dokładnie omawia
poszczególne kroki procedury, podaje formalny jej zapis oraz wskazuje dodatkowe możliwości zwiększenia efektywności algorytmu. Dla wygody zaproponowany sposób nazywamy w pracy algorytmem skracania przekrojów
ścieżek niedopuszczalnych sieci – w skrócie algorytmem SPSN.
Praca ma następującą strukturę. W punkcie 1 przedstawiono pierwotną
i uaktualnioną koncepcję algorytmu SPSN, punkt 2 zawiera formalny opis
procedury, a punkt 3 ilustruje działanie procedury. Kwestie związane z komputerową implementacją algorytmu i jego efektywnością omówiono w punkcie 4.
W podsumowaniu zebrano wnioski.
1. Idea algorytmu skracania przekroju
ścieżek niedopuszczalnych sieci
Metoda SPSN, podobnie jak algorytm KD, dotyczy projektów, których strukturę można przedstawić za pomocą deterministycznego modelu sieciowego
(znane są czynności wchodzące w skład projektu oraz relacje poprzedzania).
Pozwala ona rozwiązywać bezpośrednio zadania (3)–(4) i pośrednio zadania
(1)–(2). Można z niej korzystać, gdy dany jest czas dyrektywny (T d) i – gdy dla
każdego działania uij znana jest lista czynności poprzedzających – normalny
(tnij) oraz graniczny (t ijg) czas trwania, a także jednostkowy koszt skrócenia cij
(gradient kosztu skrócenia).
Jak zasygnalizowano we wprowadzeniu, algorytm SPSN został zaprezentowany już w roku 2006 w pracy Gaspars [2006b]. Istota tejże procedury polegała
na sukcesywnym skracaniu czasu działań należących do ścieżek, których czas
przejścia jest dłuższy od czasu dyrektywnego (tzw. ścieżek niedopuszczalnych).
Pierwotny pomysł zakładał, że wystarczy zrealizować następujące kroki:
1. Narysować sieć obrazującą strukturę projektu.
2. Obliczyć najwcześniejszy moment zakończenia przedsięwzięcia (T*).
START
1. Narysować sieć
obrazującą analizowane
przedsięwzięcie
2. Wyznaczyć T*
nie
Czy
T* !Td ?
STOP
tak
tak
3. Wyznaczyć zbiór
ścieżek
niedopuszczalnych
4. Ustalić
wszystkie
możliwe
przekroje dla
powyższego
zbioru ścieżek
nie
Czy
osiągnięto
już czas T d?
6. Wybrać najtańszy
technicznie możliwy
wariant i skrócić czas
trwania wybranych
czynności
5. Obliczyć
łączne koszty
skrócenia dla
wymienionych
przekrojów
Czy istnieje przekrój,
w którym każda czynność
krytyczna może być
skrócona?
nie
STOP – osiągnięcie T d jest niemożliwe
Rysunek 1. Schemat blokowy algorytmu SPSN
[30]
tak
Metoda skracania przekrojów ścieżek niedopuszczalnych sieci
31
3. Wyznaczyć zbiór ścieżek niedopuszczalnych.
4. Ustalić wszystkie możliwe przekroje dla tego zbioru ścieżek.
5. Obliczyć łączne koszty skrócenia czynności należących do tych przekrojów (stosując odpowiednie etykiety kosztowe dla czynności krytycznych,
niekrytycznych i pozornych).
6. Skrócić o jedną jednostkę czas czynności najtańszego przekroju (pamiętając o kilku zasadach związanych z wyborem najlepszego przekroju).
Jeżeli osiągnięto czas dyrektywny, zakończyć obliczenia. W przeciwnym
razie wrócić do kroku 3.
Warto jednak podkreślić, że choć przy projektowaniu algorytmu starano
się uchronić go od wad innych algorytmów i jednocześnie wprowadzić możliwie jak najwięcej korzystnych rozwiązań zalecanych przez innych autorów,
ówczesny opis metody miał charakter ogólnikowy, niekompletny i niesformalizowany. Dalsze badania wykazały bowiem, że wymaga on rozszerzenia
i doprecyzowania. Rysunek 1 przedstawia aktualne zalecane kroki dla algorytmu SPSN.
Pierwszy krok polega na narysowaniu sieci S obrazującej dany projekt.
Łuki uij oznaczają czynności wchodzące w skład projektu, a węzły 1, 2, …, n
ukazują zdarzenia. Taka forma prezentacji przedsięwzięcia jest charakterystyczna dla techniki AOA (Activities on arcs [Bell i Han 1991]), ale alternatywna procedura, tzw. technika AON (Activities on nodes), jest także możliwa
[Trocki, Grucza i Ogonek 2003].
W drugim kroku jest wyznaczany najkrótszy czas realizacji przedsięwzięcia (T*) przy założeniu, że działania są wykonywane w czasie normalnym
[Gaspars-Wieloch 2008a]. Jeżeli obliczony czas jest krótszy od T d, to skracanie
jest zbędne.
W trzecim kroku należy ustalić zbiór ścieżek niedopuszczalnych1. Ścieżką
niedopuszczalną (dnd) jest każda droga (d), której czas przejścia (t(d)) jest
dłuższy od T d:
t(d) > T d.
(5)
Jest nią zarówno ścieżka krytyczna (tj. droga najdłużej trwająca), jak i każda
droga podkrytyczna z całkowitym zapasem czasu mniejszym od różnicy:
T* – T d. Zbiór ścieżek niedopuszczalnych oznaczmy symbolem Dnd, zbiór
ścieżek krytycznych zdefiniujmy jako Dk, a zbiór ścieżek podkrytycznych
1
Poszukiwanie zbioru ścieżek niedopuszczalnych jest charakterystyczne także dla algorytmów Siemensa i Goyala [Goyal 1975; Siemens 1971].
32
Helena Gaspars-Wieloch
spełniających warunek (5) – jako D pk. Między tymi zbiorami zachodzą następujące zależności:
Dnd = Dk  D pk,
(6)
Dk  D pk = Ø.
(7)
Definicja 1. Przekrojem podsieci niedopuszczalnej Ul jest każdy minimalny podzbiór łuków tejże podsieci, zawierający co najmniej po jednym łuku
z każdej ścieżki niedopuszczalnej, przy czym węzeł początkowy takiego łuku
należy do W1, a węzeł końcowy do W2. Zbiory W1 i W2 to rozłączne podzbiory
zbioru węzłów sieci (W), W1 zawiera węzeł początkowy sieci, a W2 – węzeł
końcowy. Przekrojem podsieci niedopuszczalnej jest zatem każdy minimalny
zbiór łuków, który przechodzi przez wszystkie drogi niedopuszczalne. Zbiór
wszystkich przekrojów podsieci niedopuszczalnej oznaczmy symbolem P nd.
W czwartym kroku są wyznaczane wszystkie możliwe przekroje dla zbioru
ścieżek Dnd, tj. dla podsieci niedopuszczalnej (por. definicja 1).
W piątym kroku dla ustalonych przekrojów są obliczane łączne koszty
skrócenia. Koszt skrócenia dla przekroju podsieci niedopuszczalnej wyznaczamy zgodnie ze wzorem (8)
K(Ul ) = K k(Ul ) + K nk(Ul ),
Ul  Pnd,
(8)
gdzie:
K k(Ul ) – suma jednostkowych kosztów skrócenia czynności krytycznych
przekroju Ul ,
K nk(Ul ) – suma jednostkowych kosztów skrócenia czynności niekrytycznych przekroju Ul .
Koszt przekroju zawierającego czynność pozorną upz (tj. czynność o zerowym zapasie czasu, służącą do ukazania relacji poprzedzania między działaniami, zob. [Moder i Philips 1964]) jest równy :
upz  Ul  K(Ul ) = .
(9)
Jeżeli suma jednostkowych kosztów skrócenia czynności krytycznych jest dla
wszystkich przekrojów równa nieskończoność, oznacza to, że przynajmniej
jedno działanie krytyczne w każdym wyznaczonym przekroju osiągnęło już
swój czas graniczny. W tej sytuacji skracanie momentu zakończenia przedsięwzięcia jest niemożliwe, a postawione zadanie jest sprzeczne (nie można
zrealizować projektu w czasie dyrektywnym).
Metoda skracania przekrojów ścieżek niedopuszczalnych sieci
33
W szóstym kroku jest wybierany najtańszy technicznie możliwy wariant
kompresji sieci, a następnie jest skracany czas trwania wskazanych czynności.
Przekrój Ul spełniający warunek:
K (U min )
^
`
(10)
min K (U l )
U l P nd
jest przekrojem o najniższym koszcie (U min).
nd
k
Niech P min
oznacza zbiór przekrojów o minimalnym koszcie, a P nd,
min –
zbiór przekrojów o minimalnym koszcie takich, że każda czynność należąca
do przekroju jest krytyczna. Procedura wyboru najtańszego przekroju zależy
od liczebności tychże zbiorów:
nd
a) Jeżeli zbiór P min
jest jednoelementowy, to należy skrócić działania krytyczne przekroju U min o jedną jednostkę.
nd
b) Jeżeli zbiór P min
jest wieloelementowy, to należy wybrać dowolny przek
krój ze zbioru P nd,
min i skrócić czas trwania czynności krytycznych wskazanego przekroju o jedną jednostkę.
k
nd
nd, k
c) Jeżeli zbiór P nd,
min jest pusty, to ze zbioru P min\ P min (tj. zbioru przekrojów
o minimalnym koszcie takich, że przynajmniej jedna czynność należąca
do przekroju nie jest krytyczna) jest wybierany przekrój U min(k), czyli
przekrój, dla którego suma kosztów skrócenia czasu trwania czynności
krytycznych jest najniższa:
K k (U min(k ) )
min
nd
U minPmin
^K
k
`
(U min ) .
(11)
W przypadku istnienia kilku przekrojów spełniających warunek (11) wybór
jest dowolny. Przekrój ostatecznie wybrany w kroku szóstym oznaczamy
symbolem U *.
W pracy Gaspars [2006b] zabrakło między innymi analizy dwóch typów problemów decyzyjnych: zadań ze stałymi i zmiennymi jednostkowymi
kosztami skracania, co przy realizacji kroku 6 algorytmu SPSN ma istotne
znaczenie.
Jeżeli gradienty kosztu są dla poszczególnych działań stałe, to w ramach
danej iteracji istnieje możliwość skrócenia czynności wyznaczonego przekroju o więcej niż jedną jednostkę. Czynności krytyczne przekroju U * można
maksymalnie skrócić o w kst jednostek:
w stk
­
d
U * ½½
°
°­ « t (d ) T Zd » °°
» ¾¾,
min ® min {tij tijg zijc }, min ® «
dDnd ° «
»¼ °°
LUd *
°¯uijU *
¯¬
¿¿
(12)
34
Helena Gaspars-Wieloch
gdzie:
tij – aktualny czas trwania czynności uij,
tijg – graniczny czas trwania czynności uij,
z ijc – aktualny całkowity zapas czasu czynności uij,
Dnd – aktualny zbiór ścieżek niedopuszczalnych,
ZdU * – suma całkowitych zapasów czasu czynności należących jednocześnie
do przekroju U * i do ścieżki d,
U*
Ld – liczba działań należących jednocześnie do przekroju U * i do ścieżki d.
Dla każdej czynności krytycznej danego przekroju obowiązuje ta sama
wartość w stk , ponieważ dowolne działanie krytyczne ma zerowy zapas.
Pierwszy element wzoru (12) gwarantuje skracanie czynności co najwyżej
do momentu, w którym dowolna czynność wskazanego przekroju osiąga
swój czas graniczny. Druga część tego wzoru ma zapobiec nadmiernemu,
w stosunku do ustalonego czasu dyrektywnego, skróceniu czasu przejścia
poszczególnych ścieżek podsieci niedopuszczalnej. Jeżeli wybrany przekrój
zawiera więcej niż jedno działanie (np. m) z danej drogi, to należy koniecznie
podzielić wyrażenie t (d ) T d ZdU *
przez L
U*
d ,
aby ta ścieżka nie została
skrócona (m – 1)-krotnie bardziej aniżeli pozostałe drogi niedopuszczalne.
Każdą czynność niekrytyczną uij przekroju U * warto skrócić o wnk
ij jednostek
wijnk
max{0, w k zijc }.
(13)
Czynności niekrytyczne danego przekroju mogą dysponować różnymi zapasami. Dlatego wielkość wnk
ij należy obliczyć oddzielnie dla każdego działania
niekrytycznego.
Z powyższego wynika, że gdy mamy do czynienia ze stałymi jednostkowymi kosztami skracania, to oprócz działań krytycznych w niektórych
wypadkach skracamy także czynności niekrytyczne.
Jeżeli gradienty kosztów są zmienne, to skracamy tylko czynności kryk
tyczne. Zmiana ich czasu trwania wynosi wzm
:
k
w zm
­
d
U * ½½
°
°­ « t (d ) T Zd » °°
«
» ¾¾.
min ®1, min ®
U*
nd
d
D

«
»
L
°¯
°¯ ¬
d
¼ °°
¿¿
(14)
Ze wzoru (14) wynika, że czynności krytyczne można wówczas skrócić
o maksymalnie jedną jednostkę.
Metoda skracania przekrojów ścieżek niedopuszczalnych sieci
35
Po wybraniu przekroju i skróceniu jego działań o odpowiednią liczbę
jednostek należy ustalić nowy najkrótszy czas realizacji projektu na podstawie aktualnych czasów trwania czynności. Jeżeli okaże się, że T* > T d, to
powtarzamy procedurę począwszy od trzeciego kroku. Obliczenia kończymy,
gdy T* = T d.
Kolejną ważną kwestią pominiętą w pracy Gaspars [2006b] jest to, że nak
wet jeżeli w stk lub wzm
wynoszą 0, lecz wynika to z zerowej wartości drugiego
elementu we wzorach (12) lub (14), a czas T* nadal przekracza T d, to należy
szukać najtańszego przekroju w ramach podsieci krytycznej, a nie w obrębie
całej podsieci niedopuszczalnej. W ostatniej więc fazie algorytmu może się
zdarzyć, że będzie trzeba wybrać przekrój spełniający warunek:
K (U min )
^
`
min K (U l ) ,
U l P k
(15)
gdzie P k to zbiór wszystkich możliwych przekrojów wyznaczonych dla podsieci krytycznej,
a następnie skrócić wszystkie czynności należące do tak skonstruowanego
przekroju.
2. Formalny opis algorytmu SPSN
Po prezentacji ogólnej koncepcji algorytmu SPSN wraz z jej doprecyzowaniem
umożliwiającym efektywniejsze działanie procedury przejdźmy do formalnego jej opisu.
Algorytm 1. Algorytm SPSN
Krok 1. Narysować sieć S obrazującą analizowane przedsięwzięcie.
Krok 2. Obliczyć najkrótszy czas realizacji przedsięwzięcia (T *). Jeżeli T * ≤ T d,
zakończyć obliczenia. W przeciwnym razie, przejść do kroku 3.
Krok 3. Wyznaczyć zbiór ścieżek niedopuszczalnych (Dnd).
Krok 4. Ustalić P nd, czyli wszystkie możliwe przekroje U l dla zbioru ścieżek
Dnd.
Krok 5. Obliczyć łączne koszty skrócenia dla wyróżnionych przekrojów. Jeżeli
dla każdego U l  P nd spełniona jest zależność:
K k(U l ) = ,
zakończyć obliczenia.
(16)
36
Helena Gaspars-Wieloch
nd
Krok 6. A. Wyznaczyć zbiór P min
, czyli wszystkie przekroje U min:
a) jeżeli K(U min) ≠ , przejść do kroku 6.A.b), w przeciwnym razie
przejść do kroku 6.A.d),
nd
b) jeżeli zbiór P min
jest jednoelementowy, to U min = U *, a więc
można przejść do kroku 6.B), w przeciwnym razie przejść do
kroku 6.A.c),
nd, k
c) jeżeli zbiór P min
jest pusty, przejść do kroku 6.A.d), w przeciwnym razie należy przyjąć dowolny przekrój z tego zbioru jako
U *, a następnie przejść do kroku 6.B,
nd
nd, k
d) ze zbioru P min
\ P min
przyjąć dowolny przekrój U min(k) jako U *.
B. Skrócić czas trwania czynności wchodzących w skład przekroju U *:
a) jeżeli jednostkowe koszty skrócenia czasu trwania poszczególnych czynności są zmienne, skrócić działania krytyczne przekroju U * o wkzm jednostek, jeśli wkzm = 0, przejść do kroku 6.D,
b) jeżeli jednostkowe koszty skrócenia są stałe, skrócić czynności
krytyczne przekroju U * o wstk jednostek, a każdą czynność niek
krytyczną uij tego przekroju skrócić o wnk
ij jednostek, jeśli wst = 0,
przejść do kroku 6.D.
C. Ustalić aktualny najkrótszy czas realizacji przedsięwzięcia. Jeżeli
T* = T d, zakończyć obliczenia. Jeżeli T* > T d, przejść do kroku 3.
D. a) wyznaczyć najtańszy przekrój podsieci krytycznej,
b) skrócić czynności wybranego przekroju o jedną jednostkę,
c) ustalić aktualny najkrótszy czas realizacji przedsięwzięcia, jeżeli
T* = T d, zakończyć obliczenia, jeżeli T* > T d, przejść do kroku 3.
Z kroków 6.A.a) i 6.A.d) wynika, że można wybrać przekrój, którego koszt
skrócenia jest równy , pod warunkiem, że suma kosztów skracania czynności
krytycznych tego przekroju jest różna od . Krok 6.A.c) dotyczy przekrojów
składających się z samych działań krytycznych. Jeżeli zmieniane są czasy
trwania działań należących do przekroju w pełni krytycznego, to rozwiązanie
dopuszczalne jest uzyskiwane w mniejszej liczbie kroków aniżeli w przypadku
wyboru przekroju zawierającego też czynności niekrytyczne.
Krok 6.B mówi o tym, że gdy najniższe koszty są związane z przekrojem
nie w pełni krytycznym, to skracamy jedynie czas trwania czynności krytycznych należących do tej kombinacji. Skracanie czynności niekrytycznych
może z jednej strony szybciej zmniejszyć zbiór ścieżek niedopuszczalnych,
lecz z drugiej strony istnieje ryzyko, że w ostatecznym rozrachunku przyspieszenie takich działań okaże się zbędne, a przez to droższe aniżeli wynikałoby
to z rozwiązania optymalnego. Za skracaniem tylko działań krytycznych
37
Metoda skracania przekrojów ścieżek niedopuszczalnych sieci
przekroju przemawia jeszcze jeden argument. Otóż samo przyspieszenie czynności krytycznych jest wystarczające, by czas realizacji przedsięwzięcia został
skrócony o jednostkę, co wobec funkcji (3) tym bardziej skłania do skracania
tylko krytycznej części przekroju.
3. Studium przypadku
Działanie algorytmu SPSN jest zilustrowane przykładem. Załóżmy, że czas
wykonania przedsięwzięcia zaprezentowanego na rysunku 2 należy skrócić do
9 dni możliwie jak najtaniej. Wartości w nawiasach okrągłych przy węzłach
określają najwcześniejsze i najpóźniejsze momenty zajścia zdarzeń. Litery
opisują poszczególne czynności przedsięwzięcia. Liczby stojące przy literach to
czasy trwania działań. Wartości w nawiasach okrągłych przy łukach oznaczają
całkowite zapasy czasu czynności, a wielkości w nawiasach kwadratowych to
jednostkowe koszty skracania zadań. Koszty skracania są zmienne. Z wykresu
g
g
wynika, że czasy graniczne czynności wynoszą odpowiednio tA = 2, t B = 7,
g
g
g
t C = 1, tD = 1, t E = 1, t F g = 1.
D 2 [5] (0)
(5, 5)
2
(7, 7)
E 4 [4, 4, 6] (11, 11)
5
4
(0)
A 5 [2, 3, 3]
(0)
C 2 [8]
(0)
1
(0)
F 4 [1, 2, 3]
3
(0, 0)
B 7 (0)
(7, 7)
Rysunek 2. Przykład. Wyjściowa sieć (T = 11)
Przejdźmy do rozwiązania postawionego problemu zgodnie z opisaną
procedurą:
ITERACJA I
Krok 2. Czas T * = 11 dni, zatem należy przejść do kroku 3.
Krok 3. Wyznaczamy zbiór Dnd = {d1, d2, d3}={A-D-E, A-C-F, B-F}. Zauważmy,
że Dk = {d1, d2, d3} = {A-D-E, A-C-F, B-F} i D pk = {Ø} (podkreślamy
te czynności, które są krytyczne).
Krok 4. Ustalamy możliwe przekroje podsieci niedopuszczalnej: U 1 = {A, B},
U 2 = {D, C, B}, U 3 = {E, C, B}, U 4 = {D, F}, U 5 = {E, F}, U 6 = {A, F}.
38
Helena Gaspars-Wieloch
Krok 5. Obliczamy koszty odpowiadające przekrojom:
K(U 1) = K k(U 1) + K nk(U 1) = (2 + ) + 0 = ,
K(U 2) = K k(U 2) + K nk(U 2) = (5 + 8 + ) + 0 = ,
K(U 3) = K k(U 3) + K nk(U 3) = (4 + 8 + ) + 0 = ,
K(U 4) = K k(U 4) + K nk(U 4) = (5 + 1) + 0 = 6,
K(U 5) = K k(U 5) + K nk(U 5) = (4 + 1) + 0 = 5,
K(U 6) = K k(U 6) + K nk(U 6) = (2 + 1) + 0 = 3.
Istnieje przynajmniej jeden przekrój, dla którego suma kosztów skracania czynności krytycznych jest różna od , a więc można przejść
do kroku 6.
Krok 6. A. Znajdujemy najtańszy wariant: U min = U 6 = {A, F}. Zbiór Pnd
min = {U 6}
jest jednoelementowy, więc U * = U 6. Przechodzimy od razu do
kroku 6.B.
B. Skracamy czynności krytyczne A i F o jeden dzień (zob. wzór (14)).
k
w zm
­
­«
c » ½½
c » «
c
c » «
°
° « t (d1 ) 9 z A » « t (d2 ) 9 z A z F » « t (d3 ) 9 z F » °°
min ®1, min ®
,
,
U6
U6
» ¾¾
«
» «
» «
LUd 6
L
L
°
°«
d2
d3
»¼ «¬
»¼ «¬
»¼ °°
1
¯¬
¿¿
¯
­°
­ «11 9 0 » «11 9 0 0 » «11 9 0 » ½½°
min ®1, min ® «
»,«
»,«
» ¾¾ 1.
1
2
1
¼ ¬
¼ ¬
¼ ¿°¿
°¯
¯¬
Rysunek 3 przedstawia sieć ze zmodyfikowanymi czasami działań
A i F.
C. Nowy czas projektu (10 dni) przekracza czas dyrektywny, zatem
przechodzimy do kroku 3.
D 2 [5] (0)
(4, 4)
2
(6, 6)
E 4 [4, 4, 6]
(10, 10)
5
4
(0)
A 4 [3, 3]
(0)
C 2 [8]
(1 )
1
(0)
3
(0, 0)
B 7
(0)
Rysunek 3. Przykład. Sieć po I iteracji (T = 10)
(7, 7)
F
3 [2, 3]
39
Metoda skracania przekrojów ścieżek niedopuszczalnych sieci
ITERACJA II
Krok 3. Wyznaczamy zbiór Dnd = {d1, d3} = {A-D-E, B-F}, Dk = {d1, d3} =
= {A-D-E, B-F} i Dpk = {Ø}.
Krok 4. Ustalamy możliwe przekroje podsieci niedopuszczalnej: U 1 = {A, B},
U 2 = {D, B}, U 3 = {E, B}, U 4 = {D, F}, U 5 = {E, F}, U 6 = {A, F}.
Krok 5. Obliczamy koszty odpowiadające przekrojom:
K(U 1) = Kk(U 1) + K nk(U 1) = (3 + ) + 0 = ,
K(U 2) = Kk(U 2) + K nk(U 2) = (5 + ) + 0 = ,
K(U 3) = Kk(U 3) + K nk(U 3) = (4 + ) + 0 = ,
K(U 4) = Kk(U 4) + K nk(U 4) = (5 + 2) + 0 = 7,
K(U 5) = Kk(U 5) + K nk(U 5) = (4 + 2) + 0 = 6,
K(U 6) = Kk(U 6) + K nk(U 6) = (3 + 2) + 0 = 5.
Istnieje przynajmniej jeden przekrój, dla którego suma kosztów skracania czynności krytycznych jest różna od , a więc można przejść
do kroku 6.
Krok 6. A. Znajdujemy najtańszy wariant: U min = U 6 = {A, F}. Zbiór P nd
min = {U 6}
jest jednoelementowy. Przekrój U 6 jest przekrojem U *. Przechodzimy do kroku 6.B.
B. Skracamy czynności krytyczne A i F o jeden dzień.
­
­«
c » ½½
c » «
°
° « t (d1 ) 9 z A » « t (d3 ) 9 z F » °°
k
wzm min ®1, min ®
,
U6
» ¾¾
«
» «
LUd 6
L
°
°«
d3
»¼ «¬
»¼ °°
1
¯¬
¿¿
¯
­°
­ «10 9 0 » «10 9 0 » ½½°
min ®1, min ® «
»,«
» ¾¾ 1.
1
1
¼ ¬
¼ ¿¿°
¯¬
¯°
Rysunek 4 przedstawia sieć ze zmodyfikowanymi czasami działań
A i F.
D 2 [5] (0)
(3, 3)
2
(5, 5)
E 4 [4, 4, 6]
(9, 9)
5
4
(0)
A 3 [3] (0)
C 2 [8]
(2 )
1
(0)
3
(0, 0)
B 7
(0)
Rysunek 4. Przykład. Sieć po II iteracji (T = 9)
(7, 7)
F 2 [3]
40
Helena Gaspars-Wieloch
C. Nowy czas wykonania projektu (9 dni) jest równy czasowi dyrektywnemu, zatem kończymy obliczenia. Łączny koszt skracania
wynosi (1 · 3) + (1 · 5) = 8 tys. zł.
4. Kilka uwag o implementacji algorytmu SPSN
i jego efektywności
Choć głównym celem niniejszego artykułu jest przedstawienie szczegółowego opisu algorytmu SPSN, warto przy okazji wspomnieć o tym, jak można
usprawnić procedurę w przypadku jej komputerowej implementacji.
Przypomnijmy, że krok 3 algorytmu SPSN polega na wyznaczeniu zbioru
ścieżek niedopuszczalnych, tj. podsieci niedopuszczalnej. Drogi należące do
takiej podsieci muszą spełniać warunek (5). Ustalenie zbioru tychże ścieżek
jest proste w przypadku małych problemów (sieci złożone z kilku węzłów).
Natomiast w większych zadaniach obliczanie czasu przejścia każdej drogi jest
bardzo czasochłonne. Dlatego zdecydowanie lepiej wyznaczyć podsieć niedopuszczalną, wiedząc, że składa się ona z samych czynności uij, dla których
jest spełniona następująca zależność.
zijc < (T* – T d).
(17)
Całkowity zapas czasu trwania danego działania jest bowiem zapasem czasu,
o jaki można zwiększyć najdłuższą ścieżkę zawierającą to działanie bez wpływu
na łączny czas realizacji projektu. Innymi słowy, zijc określa różnicę pomiędzy
T* a czasem przejścia najdłuższej drogi przechodzącej przez czynność uij
[Guzik i Sikora 1993].
W kroku 4 algorytmu SPSN należy ustalić wszystkie możliwe przekroje
podsieci niedopuszczalnej, a w dwóch kolejnych krokach – obliczyć koszty
dla każdego przekroju i wybrać przekrój o najniższym koszcie. Takie postępowanie jest bardzo wygodne, gdy rozpatrujemy proste przykłady. W przypadku sieci o kilkunastu, kilkudziesięciu węzłach przegląd zupełny zbioru
P nd jest zupełnie nieefektywny. Dlatego warto skorzystać z algorytmu Forda-Fulkersona, który służy właśnie do wyznaczenia przekroju o najniższym
koszcie. Problem pojawia się jednak wówczas, gdy podsieć niedopuszczalna
zawiera kilka przekrojów spełniających warunek (10). W algorytmie SPSN
należy ustalić wszystkie takie przekroje (U min), a następnie, w zależności od
statusu czynności do nich należących oraz wielkości kosztów skrócenia działań krytycznych poszczególnych wariantów, wybrać przekrój U *. Tymczasem
Metoda skracania przekrojów ścieżek niedopuszczalnych sieci
41
algorytm Forda-Fulkersona pozwala wygenerować tylko jeden z przekrojów
o najniższym koszcie2. W związku z powyższym przekrój U * może być ustalany poprzez wykorzystanie algorytmu Forda-Fulkersona dla dwóch zadań
pomocniczych:
1. Czynnościom niekrytycznym podsieci niedopuszczalnej należy przypisać
koszt M 4, gdzie M jest bardzo dużą liczbą dodatnią. Koszty skracania
działań krytycznych pozostają bez zmian, a koszty skracania działań krytycznych, które osiągnęły już czas graniczny, wynoszą M 3. Następnie dla
tak skonstruowanego zadania pomocniczego wyznaczany jest najtańszy
przekrój za pomocą algorytmu Forda-Fulkersona. Takie postępowanie
pozwala znaleźć najtańszy przekrój składający się z samych działań krynd, k
tycznych, tj. jeden z przekrojów zbioru Pmin
. Jeżeli koszt tak znalezionego przekroju w zadaniu pomocniczym jest przynajmniej równy M 3, to
nd, k
oznacza to, że zbiór Pmin
jest pusty, ponieważ wskazany przekrój zawiera
działania krytyczne, których skrócić już się nie da, lub składa się z działań
o dodatnim całkowitym zapasie czasu.
2. Krytycznym czynnościom należy przypisać koszt (M + 1) ∙ sij, gdzie sij
to jednostkowy koszt skrócenia czynności uij. Krytycznym działaniom,
które osiągnęły czas graniczny – koszt M 3 + M 2. Koszty działań niekrytycznych wynoszą odpowiednio sij (jeżeli tij > t ijg) i M 2 (jeżeli tij = t ijg ).
Następnie za pomocą algorytmu Forda-Fulkersona ustalany jest najtańszy
przekrój dla tak sformułowanego zadania pomocniczego. Całkowity koszt
przekroju wyraża się wzorem:
M ∙ K(U l) + K k(U l),
(18)
gdzie:
K k(U l) – suma jednostkowych kosztów skrócenia czynności krytycznych przekroju U l,
K(U l) – suma jednostkowych kosztów skrócenia wszystkich czynności
przekroju U l.
Dzięki temu w pierwszej kolejności są preferowane przekroje o najniższym
koszcie całkowitym, a w przypadku dwóch równych kosztów całkowitych
– te o najniższym koszcie krytycznym. Jeżeli koszt najtańszego przekroju
znajduje się w przedziale M 2, M 3), to oznacza to, że zawiera on działania
niekrytyczne, których nie można skrócić. Nie jest to jednak powód, by
2
Jeżeli istnieje kilka przekrojów o najniższym koszcie, to algorytm Forda-Fulkersona
wskaże przekrój leżący najbliżej węzła początkowego.
42
Helena Gaspars-Wieloch
wykluczyć taki przekrój, ponieważ czynności niekrytycznych nie skracamy.
Przekroje o koszcie równym przynajmniej M 3 są niedopuszczalne, gdyż
należą do nich działania krytyczne, których nie można skracać. Po wyznaczeniu najtańszego przekroju dla zadania pomocniczego, rzeczywisty koszt
przekroju jest obliczany poprzez ponowne przyjęcie rzeczywistych kosztów
skrócenia. Jeżeli tak wyliczony koszt jest niższy od kosztu z punktu 1, to
wybieramy ostatecznie przekrój z punktu 2.
W kroku 6 algorytmu SPSN zaproponowano stosowanie wzorów (12)–(14).
Mają one podwójne znaczenie. Po pierwsze, służą do ustalenia maksymalnej liczby jednostek, o którą warto od razu skrócić czynności wskazanego
przekroju (dotyczy to przypadku, gdy krańcowe koszty skracania działań są
stałe, wzory (12)–(13)). Po drugie, pozwalają określić, czy skrócenie działań
wybranego przekroju nie spowoduje nadmiernego przyspieszenia momentu
zakończenia projektu (w stosunku do podanego czasu dyrektywnego). Gdyby
taka sytuacja miała wystąpić, wówczas wskaźniki w stk i w kzm przyjmą zerowe
wartości. Stosowanie wzorów (12)–(14) wymaga jednak dokonania przeglądu
wszystkich ścieżek niedopuszczalnych. Dlatego wspomniane wzory znajdują
zwłaszcza zastosowanie przy rozwiązywaniu prostych problemów optymalizacyjnych. Analizując większe zadania, można wykonać następujące kroki:
1. Skracać czas realizacji projektu zgodnie z krokami 3–6 algorytmu, przy
czym w każdej iteracji należy zmniejszać czas trwania czynności krytycznych wskazanego przekroju o 1 jednostkę.
2. A. Jeżeli po danej iteracji T* = T d, zakończyć obliczenia.
B. Jeżeli po danej iteracji T* < T d, wrócić do poprzedniej iteracji, wyznaczyć przekrój o najniższym koszcie na podstawie podsieci krytycznej
(a nie podsieci niedopuszczalnej), skrócić wybrane czynności krytyczne o jedną jednostkę i powrócić do kroku 3 algorytmu.
Rezygnując ze stosowania wzorów (12)–(14), należy mieć świadomość
tego, że tracimy możliwość wielokrotnego skracania czasu trwania działań
przekroju wskazanego w danej iteracji, co niekorzystnie wpływa na czas generowania rozwiązań. Zwiększa się również ryzyko nadmiernego skrócenia
czasu przejścia niektórych ścieżek w porównaniu z ustalonym czasem dyrektywnym! Rozwiązanie zaproponowane w dwóch powyższych krokach nie jest
więc wiernym odzwierciedleniem pierwotnej idei algorytmu SPSN3.
Badanie czasu działania procedury oraz średniej dokładności uzyskiwanych za jej pomocą rozwiązań również nie jest głównym celem niniejszego
3
Autorka dziękuje Marcinowi Anholcerowi za sugestie dotyczące niektórych kwestii związanych z komputerową implementacją algorytmu.
Metoda skracania przekrojów ścieżek niedopuszczalnych sieci
43
opracowania. Warto jednak podkreślić, że w pracy Gaspars-Wieloch [2009]
przedstawiono już wyniki przeprowadzonych symulacji dla różnych typów
losowo generowanych zadań. Efektywność algorytmu SPSN porównano
z efektywnością ogólnej metody optymalizacyjnej (metody Dantziga) oraz
algorytmu Kaufmanna i Desbazeille’a (AKD). Jako jeden z punktów odniesienia wybrano właśnie AKD, gdyż procedura ta (w przeciwieństwie do innych
metod optymalizacji czasowo-kosztowej) pozwala rozwiązywać te same typy
zadań (ten sam cel optymalizacyjny, te same rodzaje jednostkowych kosztów
skracania działań) co algorytm SPSN [Anholcer i Gaspars-Wieloch 2011,
2013]. Dzięki otrzymanym wynikom sformułowano następujące wnioski:
1. Algorytm SPSN rozwiązuje problemy czasowo-kosztowe ponad 100
(w przypadku 10 węzłów), ponad 600 (w przypadku 20 węzłów), a nawet ponad kilka tysięcy (w przypadku 50 węzłów) razy szybciej aniżeli
metoda Dantziga (metoda simpleks).
2. Algorytm SPSN generuje rozwiązania prawie dwa razy wolniej aniżeli
AKD, ale za to średnia dokładność (tj. względne odchylenie rozwiązań od rozwiązań optymalnych) tego pierwszego jest istotnie wyższa.
Różnice w poziomie dokładności rozwiązań (na korzyść SPSN) są
najbardziej widoczne w przypadku sieci z wieloma ścieżkami podkrytycznymi, które mają dużo wspólnych czynności. Konstruując przekrój na podstawie wszystkich ścieżek niedopuszczalnych, unikamy
bowiem sytuacji charakterystycznej dla AKD, w której skracana jest
w danej iteracji czynność o względnie najniższym koszcie skrócenia,
ale należąca tylko do jednej drogi. Algorytm SPSN preferuje przekroje
zawierające czynności wchodzące w skład kilku ścieżek jednocześnie,
gdyż skrócenie takich działań sprawia, że jednostkowe koszty skrócenia
czasu przejścia przypadające na poszczególne drogi niedopuszczalne
są niższe. Ponadto algorytm SPSN, w przeciwieństwie do AKD, zapobiega nadmiernemu (a więc generującemu dodatkowe zbędne koszty)
skróceniu niektórych działań.
Podsumowanie
W pracy przedstawiono sformalizowany i kompleksowy opis metody skracania
przekroju ścieżek niedopuszczalnych sieci (SPSN). Służy ona do optymalizacji
czasowo-kosztowej projektów, których strukturę można opisać w postaci sieci
deterministycznej. Jednostkowe koszty skracania działań mogą być stałe lub
zmienne, przy czym w drugim wypadku preferowane są wypukłe krzywe
44
Helena Gaspars-Wieloch
czasowo-kosztowe, gdyż przy wklęsłych krzywych (nierosnące koszty skracania) obniża się dokładność procedury. Idea algorytmu różni się bardzo od
koncepcji innych istniejących procedur. Na przykład podczas skracania czasu
realizacji projektu poszukuje się najtańszego przekroju dla sieci niedopuszczalnej. Tymczasem w innych metodach ustala się minimalne cięcie dla całej
sieci [Phillips i Dessouky 1977] lub minimalny przekrój dla sieci krytycznej
[Kaufmann, Desbazeille i Ventura 1964]. Dokonywanie tej operacji na podstawie ścieżek niedopuszczalnych jest bardzo korzystne, gdyż zbiór takich
dróg nie rośnie w miarę zbliżania się do ostatniej iteracji (w przeciwieństwie
do zbioru ścieżek krytycznych, który podczas skracania się zwiększa [Moder
i Phillips 1964]). Ponadto w przypadku algorytmu SPSN koszt przekroju
jest obliczany na podstawie kosztów skracania czynności krytycznych i niekrytycznych. Natomiast wcześniej opracowane techniki polegają jedynie na
sumowaniu kosztów przyspieszenia działań krytycznych. Dużym atutem
metody jest jej relatywna prostota, możliwość skrócenia czasu projektu nawet
o kilka jednostek w ramach danej iteracji oraz znacznie wyższa dokładność
aniżeli w przypadku algorytmu Kaufmanna i Desbazeille’a, który generuje
rozwiązania bardzo dalekie od optymalnego w sieciach o gęstej strukturze
i licznym zbiorze ścieżek podkrytycznych.
Procedura SPSN została już przedstawiona wcześniej w pracy Gaspars
[2006b]. Tym razem jednak wzbogacono poprzedni opis o istotne elementy,
dzięki którym wiadomo, jak należy postępować w dowolnym zadaniu (tj.
w zadaniu o dowolnej deterministycznej strukturze sieci i o dowolnych wielkościach poszczególnych parametrów). Dodatkowo w niniejszym artykule
wyjaśniono, w jaki sposób powinna przebiegać komputerowa implementacja
algorytmu oraz poruszono kwestie związane z efektywnością procedury.
Bibliografia
Anholcer, M., Gaspars-Wieloch, H., 2011, The Efficiency Analysis of the Kaufmann and Desbazeille Algorithm for the Deadline Problem, Operations Research and Decisions, 2, Wydawnictwo Politechniki Wrocławskiej, Wrocław, s. 5–18.
Anholcer, M., Gaspars-Wieloch, H., 2013, Accuracy of the Kaufmann and Desbazeille Algorithm
for time-cost trade-off project problems, Statistical Review, vol. 3, s. 341–358.
Bell, C.E., Han, J., 1991, A New Heuristic Solution Method in Resource-Constrained Project
Scheduling, Naval Research Logistics, vol. 38, s. 315–333.
Bladowski, S., 1970, Metody sieciowe w planowaniu i organizacji pracy, Państwowe Wydawnictwo Ekonomiczne, Warszawa.
Metoda skracania przekrojów ścieżek niedopuszczalnych sieci
45
Gaspars, H., 2006, Analiza czasowo-kosztowa (CPM-COST). Algorytm a model optymalizacyjny,
Badania Operacyjne i Decyzje, nr 1, Wydawnictwo Politechniki Wrocławskiej, Wrocław,
s. 5–19.
Gaspars, H., 2006, Propozycja nowego algorytmu w analizie czasowo-kosztowej przedsięwzięć,
Badania Operacyjne i Decyzje, nr 3–4, Wydawnictwo Politechniki Wrocławskiej, Wrocław,
s. 5–27.
Gaspars-Wieloch, H., 2008a, Analiza sieciowa przedsięwzięć, w: Sikora, W. (red.), Badania
operacyjne, Polskie Wydawnictwo Ekonomiczne, Warszawa.
Gaspars-Wieloch, H., 2008b, Przegląd modeli optymalizacyjnych stosowanych w analizie czasowo-kosztowej przedsięwzięć, w: Sikora, W. (red.), Z prac Katedry Badań Operacyjnych,
Wydawnictwo Akademii Ekonomicznej w Poznaniu, Poznań.
Gaspars-Wieloch, H., 2008c, Przegląd wybranych metod skracania czasu realizacji przedsięwzięcia, w: Kopańska-Bródka, D. (red.), Metody i zastosowania badań operacyjnych, Prace
Naukowe Akademii Ekonomicznej w Katowicach, Wydawnictwo Akademii Ekonomicznej
w Katowicach, Katowice.
Gaspars-Wieloch, H., 2009, Metody optymalizacji czasowo-kosztowej przedsięwzięcia [praca
doktorska], Uniwersytet Ekonomiczny w Poznaniu, Poznań.
Goyal, S.K., 1975, A Note on „A simple CPM time-cost tradeoff algorithm”, Management Science,
vol. 216, s. 718–722.
Guzik, B., Sikora, W., 1993, Badania operacyjne i ekonometria, Akademia Ekonomiczna w Poznaniu, Poznań.
Kaufmann, A., Desbazeille, G., Ventura, E., 1964, La méthode du chemin critique, Dunod, Paris.
Moder, J.J., Phillips, C.R., 1964, Project Management with CPM and PERT, Reinhold Publishing
Corporation, New York.
Moussourakis, J., Haksever, C., 2004, Flexible Model for Time/Cost Tradeoff Problem, Journal
of Construction Engineering and Management, vol. 130/3, s. 307–314.
Phillips, S.J., Dessouky, M.I., 1977, Solving the Time/Cost Tradeoff Problem using the Minimum
Cut Concept, Management Science, vol. 244, s. 393–400.
Siemens, N., 1971, A Simple CPM Time-cost Tradeoff Algorithm, Management Science, vol. 176,
s. 354–363.
Sikora, W., 2012, Metoda wydłużania czynności w analizie czasowo-kosztowej przedsięwzięć,
w: Sikora, W. (red.), Z prac Katedry Badań Operacyjnych, Wydawnictwo Uniwersytetu
Ekonomicznego w Poznaniu, Poznań, s. 109–130.
Trocki, M., Grucza, B., Ogonek, K., 2003, Zarządzanie projektami, Polskie Wydawnictwo
Ekonomiczne, Warszawa.
STUDIA OECONOMICA POSNANIENSIA
2013, vol. 1, no. 10 (259)
Alicja Jajko-Siwek
Uniwersytet Ekonomiczny w Poznaniu, Wydział Ekonomii, Katedra Statystyki
i Demografii, [email protected]
ZASTOSOWANIE DRZEW
KLASYFIKACYJNYCH DO OCENY
POZIOMU ŚWIADCZEŃ EMERYTALNYCH
Z RÓŻNYCH TYPÓW SYSTEMÓW
Streszczenie: Systemy emerytalne działające na świecie funkcjonują według różnorodnych
rozwiązań, ale każdy system, niezależnie od kształtu, ma spełniać ten sam zasadniczy cel
społeczny, polegający na zapewnieniu adekwatnych dochodów na czas po zakończeniu pracy
zawodowej. Przydatne do oceny realizacji tego celu może być narzędzie data mining, jakim
są drzewa klasyfikacyjne. Wykonane w opracowaniu symulacje świadczeń emerytalnych
oraz ocena ich poziomu przy wykorzystaniu drzew klasyfikacyjnych pozwoliły na wskazanie
zróżnicowania pomiędzy systemami DB a NDC. Ponadto za pomocą drzew klasyfikacyjnych
możliwe było wskazanie czynników odgrywających najistotniejszą rolę w odniesieniu do
poziomu świadczeń emerytalnych w poszczególnych analizowanych systemach.
Słowa kluczowe: drzewo klasyfikacyjne, świadczenie emerytalne, system emerytalny.
Klasyfikacja JEL: C14, C38, H55, J26.
THE USE OF CLASSIFICATION TREES TO ASSESS THE LEVEL OF
PENSION BENEFITS FROM DIFFERENT TYPES OF SYSTEM
Abstract: Pension systems worldwide operate according to a variety of solutions, but every
system, regardless of its type, should meet the same basic social goal, which is to provide an
adequate income after retirement. Research has shown that the classification tree method
is extremely useful in evaluating how to achieve this objective. This paper provides simulations of pension benefits, and by assessing their level using classification trees it enabled the
identification of differences between the DB and NDC pension systems. In addition, the use
of classification trees made it possible to identify the factors that play a key role with regard
to the level of future retirement benefits in the systems analysed and from a notional defined
contribution system.
Keywords: classification tree, pension benefits, pension system.
Zastosowanie drzew klasyfikacyjnych do oceny poziomu świadczeń emerytalnych
47
Wstęp
Systemy emerytalne działające na świecie funkcjonują według różnych rozwiązań. Najpopularniejsze są systemy o zdefiniowanym świadczeniu (defined-benefit DB), działające w 18 państwach należących do OECD, oraz systemy
o zdefiniowanej składce (defined-contribution DC), wykorzystywane w 11
państwach należących do OECD. Szczególnym rodzajem systemu DC jest
system o niefinansowej zdefiniowanej składce (notional defined-contribution
NDC), funkcjonujący w czterech krajach z grupy OECD [OECD 2011, s. 106],
w tym obecnie w Polsce. Każdy system emerytalny, niezależnie od kształtu, ma
jednak spełniać ten sam zasadniczy cel społeczny, polegający na zapewnieniu
dochodu wszystkim osobom objętym tym systemem, na cały okres po zakończeniu aktywności zawodowej [Góra 2003, s. 37; European Commission 2003,
s. 23]. Precyzyjniej mówiąc, oczekuje się, że emerytura powinna zapewniać
adekwatne dochody na czas po zakończeniu kariery zawodowej. Adekwatność oznacza w tym wypadku dochody, które uchronią przed ubóstwem oraz
umożliwią zachowanie poziomu życia sprzed emerytury [European Commission 2012, s. 3; Ratajczak-Tuchołka 2012, s. 221]. Realizacja celu społecznego
nałożonego na systemy emerytalne powinna być nieustannie monitorowana
i oceniana. Metodą, która może być w tym pomocna, jest analiza mikroekonomiczna świadczeń emerytalnych [Chłoń-Domińczak 2012, s. 61]. Rozwinięciem takiej analizy może być wielowymiarowa analiza dyskryminacyjna
jaką są drzewa klasyfikacyjne i regresyjne, zaliczane do narzędzi data mining
[Łapczyński 2003, s. 93].
Celem niniejszego artykułu jest wykazanie użyteczności metody drzew
klasyfikacyjnych do oceny poziomu świadczeń emerytalnych uzyskiwanych
z różnych typów systemów emerytalnych w kontekście adekwatności emerytur. Rozważania obejmują system funkcjonujący na zasadzie zdefiniowanego świadczenia i system działający na zasadzie niefinansowej zdefiniowanej
składki. W pierwszej kolejności pokazano działanie drzew klasyfikacyjnych
dla obydwóch systemów równocześnie. Następnie poddano ocenie świadczenia generowane przez systemy DB i NDC odrębnie. W zakończeniu zawarto
najważniejsze konkluzje.
1. Metodologia
W opracowaniu są analizowane świadczenia emerytalne kobiet i mężczyzn
łącznie oraz w podziale na płeć. Jako przykładowy system DB przyjęto polski
48
Alicja Jajko-Siwek
system emerytalny obowiązujący przed 1999 rokiem, natomiast przykład systemu NDC stanowi bazowy polski system emerytalny funkcjonujący obecnie
(I i II filar). Formuła emerytalna, służąc do oszacowania świadczeń emerytalnych ze „starego” polskiego systemu (DB), została zastosowana zgodnie
z zapisami ustawy o emeryturach i rentach z 1998 roku [Ustawa z 17 grudnia
1998, art. 53; UKNUiFE 2003, s. 12; Owczarek 2009, s. 3]. Do oszacowania emerytur z „nowego” systemu zastosowano formuły emerytalne zgodne
z zasadami prawnymi obowiązującymi od 2013 r. [UKNUiFE 2003, s. 29–31;
Jajko-Siwek 2006, s. 136–139]. Ponadto podczas obliczania poziomu świadczeń emerytalnych wykorzystano wiele wskaźników makroekonomicznych
podawanych przez GUS. Zastosowano tablice trwania życia z 2011 roku [GUS
2012]. Stopę zwrotu uzyskiwaną przez OFE przyjęto na poziomie 4%. Realny
wzrost wynagrodzeń założono na poziomie 2,5%. (Porównano założenia
społeczno-ekonomiczne przyjęte w rządowym kalkulatorze emerytalnym
http://emerytura.gov.pl/oblicz-swoja-emeryture.php [dostęp: 1.06.2013]).
Przy kalkulacji poziomu emerytur uwzględniono zmiany w karierach zawodowych przyszłych beneficjentów poprzez wprowadzenie zróżnicowanego
poziomu stażu ubezpieczeniowego (od 20 do 52 lat), okresów składkowych
i nieskładkowych, wieku emerytalnego (od 60 do 70 lat) oraz zróżnicowanego
poziomu wynagrodzenia (od 40% przeciętnego wynagrodzenia (PW) do 600%
PW). Uzyskane świadczenia emerytalne zostały następnie przekształcone
do postaci względnej, czyli do teoretycznej stopy zastąpienia wynagrodzenia
przeciętnego świadczeniem emerytalnym, oraz do teoretycznej stopy zastąpienia wynagrodzenia indywidualnego świadczeniem emerytalnym [European
Commission 2006, s. 3].
W wyniku przeprowadzonej symulacji otrzymano zbiory obiektów (stóp
zastąpienia) liczące, odpowiednio, dla systemu DB: 8932 elementów oraz dla
systemu NDC: 7056 elementów. Kolejny etap analizy polegał na wygenerowaniu drzew klasyfikacyjnych, które klasyfikowały oszacowane stopy zastąpienia
na podstawie kryterium realizacji celu społecznego nałożonego na system
emerytalny, a polegającego na dostarczeniu przyszłym emerytom adekwatnych
świadczeń. Cel ten został sformalizowany poprzez założenie, że emerytury
chronią przed ubóstwem w przypadku uzyskiwania przez świadczeniobiorcę
emerytury wyższej niż 30% wynagrodzenia przeciętnego (stopa zastąpienia
wynagrodzenia przeciętnego), oraz przyjęcie, że zachowanie poziomu życia
sprzed emerytury jest możliwe w sytuacji uzyskiwania dochodu emerytalnego
wynoszącego co najmniej 60% indywidualnego ostatniego wynagrodzenia
(stopa zastąpienia wynagrodzenia indywidualnego) [Czepulis-Rutkowska
2000, s. 104].
Zastosowanie drzew klasyfikacyjnych do oceny poziomu świadczeń emerytalnych
49
2. Ocena świadczeń emerytalnych
uzyskiwanych z systemów DB i NDC
Pierwszy rozpatrywany przypadek to analiza świadczeń emerytalnych oszacowanych zarówno z systemu DB, jak i z systemu NDC, wspólnie dla kobiet
i mężczyzn. Na początku rozważana jest kwestia ochrony beneficjentów przed
ubóstwem.
SYSTEM
DB
NDC
OCHRONA
PW
≤ 0,95
> 0,95
OCHRONA
STAŻ
> 41,5
≤ 41,5
UBÓSTWO
PW
≤ 0,65
UBÓSTWO
> 0,65
OCHRONA
Rysunek 1. Drzewo klasyfikacyjne – ochrona przed ubóstwem – emerytury
z systemów DB i NDC
W wyniku zastosowania drzewa klasyfikacyjnego uzyskano pięć węzłów
końcowych [Gatnar 1998, s. 164], które wskazują, że chcąc uniknąć ubóstwa,
trzeba postępować według jednej z następujących reguł:
– uzyskiwać świadczenie emerytalne z systemu DB,
– w przypadku przynależności do systemu NDC osiągać przez cały okres
pracy zawodowej wynagrodzenia wyższego niż 95% płacy przeciętnej,
– w sytuacji osiągania wynagrodzenia z przedziału 65–95% PW posiadać
staż ubezpieczeniowy dłuższy niż 41 lat.
Najważniejszą zmienną mającą znaczenie, gdy chodzi o ochronę przed ubóstwem, jest wynagrodzenie w czasie kariery zawodowej (rysunek 2). Błąd
klasyfikacji wynoszący 4,46% wszystkich analizowanych obiektów potwierdza
poprawność przeprowadzonej klasyfikacji [Gatnar 2001, s. 92].
50
ważność
Alicja Jajko-Siwek
1,1
1,0
0,9
0,8
0,7
0,6
0,5
0,4
0,3
0,2
0,1
0,0
PW
staż system wiek
płeć
Rysunek 2. Ranking ważności – ochrona przed
ubóstwem – emerytury z systemów DB i NDC
W drugim wypadku jest analizowana możliwość zachowania poziomu
życia sprzed emerytury przez przyszłego emeryta, kobietę lub mężczyznę
należących do systemu DB albo NDC.
SYSTEM
DB
NDC
PW
≤ 1,125
SPADEK
> 1,125
STAŻ
STAŻ
≤ 19,5
> 19,5
≤ 31,5
> 31,5
PW
BEZ ZMIAN
SPADEK
PW
> 2,25
≤ 0,65
> 0,65
BEZ ZMIAN
SPADEK
≤ 2,25
BEZ ZMIAN
SPADEK
Rysunek 3. Drzewo klasyfikacyjne – zachowanie
standardu życia – emerytury z systemów DB i NDC
W tym badaniu uzyskano siedem węzłów końcowych, które wskazują, że
chcąc zachować standard życia sprzed emerytury, należy postępować według
następujących reguł:
Zastosowanie drzew klasyfikacyjnych do oceny poziomu świadczeń emerytalnych
51
ważność
– uzyskiwać świadczenie emerytalne z systemu DB i osiągać w czasie pracy
zawodowej wynagrodzenie niższe niż 65% PW oraz mieć staż ubezpieczeniowy (łącznie lata składkowe i nieskładkowe) równy co najwyżej 19,5 roku,
– jeżeli wynagrodzenie stanowi od 65 do 112,5% PW, staż ubezpieczeniowy
powinien być dłuższy niż 19,5 roku,
– w przypadku wynagrodzenia przeciętnego z przedziału 112,5–225% PW,
staż powinien być co najmniej 32-letni.
Warto zauważyć, że w przypadku przynależności emeryta do systemu o charakterze NDC zachowanie przez niego poziomu życia sprzed emerytury
okazuje się niemożliwe. Wyniki te potwierdzają przekonanie, że polski „stary”
system emerytalny był zbyt „hojny”, i wskazują, że w systemie NDC, w części
obowiązkowej, nastąpi znaczne obniżenie wymiaru świadczeń, które powinno zostać przez przyszłych emerytów zrekompensowane uczestnictwem
w dodatkowych, dobrowolnych formach oszczędzania na czas emerytury
[Fornero 2008, s. 1]. Uzyskane rezultaty wskazują także, że dla osób funkcjonujących w systemie o charakterze DB zbyt wysokie wynagrodzenie skutkuje
uzyskaniem emerytury niegwarantującej zachowanie poziomu życia sprzed
emerytury. Wynika to z występowania w systemie DB redystrybucji od osób
lepiej zarabiających do gorzej zarabiających oraz od osób z dłuższym stażem
ubezpieczeniowym do osób z krótszymi okresami składkowymi [Rutecka
2012, s. 229].
Najważniejszą zmienną, która wpływa na utrzymanie standardu życia
sprzed emerytury, jest, podobnie jak w przypadku ochrony przed ubóstwem,
wynagrodzenie. W tym wypadku wzrasta znaczenie stażu ubezpieczeniowego (rysunek 4). Błąd klasyfikacji wynoszący 4,28% analizowanych obiektów
wskazuje na poprawność klasyfikacji.
1,1
1,0
0,9
0,8
0,7
0,6
0,5
0,4
0,3
0,2
0,1
0,0
PW
staż system wiek
płeć
Rysunek 4. Ranking ważności – zachowanie standardu
życia – emerytury z systemów DB i NDC
52
Alicja Jajko-Siwek
W dalszej analizie adekwatności emerytur, gdy chodzi o ochronę przed ubóstwem, uwzględniono podział na płeć. Związane jest z to z tym, że świadczenia
kobiet mogą się różnić znacząco od świadczeń uzyskiwanych przez mężczyzn
[European Commission 2008, s. 97]. Sytuacja taka jest wówczas, gdy w kalkulacji
świadczeń z II filara uwzględnimy dalsze przeciętne trwanie życia według płci.
SYSTEM
DB
NDC
OCHRONA
PW
≤ 1,125
> 1,125
OCHRONA
PW
> 0,85
≤ 0,85
UBÓSTWO
STAŻ
≤ 36,5
UBÓSTWO
> 36,5
OCHRONA
Rysunek 5. Drzewo klasyfikacyjne – ochrona przed
ubóstwem: kobiety – emerytury z systemów DB i NDC
W wyniku przeprowadzonej analizy wygenerowano pięć węzłów końcowych.
Wynika z nich, że chcąc uniknąć ubóstwa, kobieta, przyszła beneficjentka systemu emerytalnego, powinna postępować według jednej z następujących reguł:
– odkładać składki do systemu DB,
– w przypadku przynależności do systemu NDC osiągać wynagrodzenie
wyższe niż 112,5% przeciętnej płacy,
– jeżeli uzyskuje wynagrodzenie z przedziału 85–112,5% PW, posiadać staż
ubezpieczeniowy dłuższy niż 36 lat.
Uzyskane wyniki wskazują, że wymagania dla kobiet – chcących zapewnić sobie na emeryturze ochronę prze ubóstwem – są wyższe niż dla całej populacji.
Najważniejszą zmienną, gdy chodzi o ochronę przed ubóstwem, jest w sytuacji kobiet, podobnie jak dla całej rozpatrywanej zbiorowości, wynagrodzenie. Błąd klasyfikacji na poziomie 4,13% obiektów wskazuje na dostateczną
precyzję klasyfikacji.
ważność
Zastosowanie drzew klasyfikacyjnych do oceny poziomu świadczeń emerytalnych
1,0
0,9
0,8
0,7
0,6
0,5
0,4
0,3
0,2
0,1
0,0
PW
staż
wiek
53
system
Rysunek 6. Ranking ważności – ochrona przed
ubóstwem: kobiety – emerytury z systemów DB i NDC
Rozważając to samo zagadnienie w odniesieniu do mężczyzn, uzyskano
drzewo klasyfikacyjne z pięcioma węzłami końcowymi, według których, podobnie jak w przypadku kobiet, wskazane jest odkładanie przez mężczyzn
składki do systemu DB. W przypadku oszczędzania na emeryturę w systemie
NDC wymagania w zakresie wynagrodzenia są dla mężczyzn niższe: do ich
ochrony przed ubóstwem na emeryturze wystarczy, by w czasie pracy zawodowej osiągali płacę stanowiącą co najmniej 85% PW. Płaca niższa, z zakresu 65–85% PW, wskazuje na konieczność uzyskania przez mężczyznę stażu
ubezpieczeniowego nie krótszego niż 41-letni.
SYSTEM
NDC
DB
OCHRONA
PW
> 0,85
≤ 0,85
OCHRONA
PW
> 0,65
≤ 0,65
UBÓSTWO
STAŻ
≤ 40,5
UBÓSTWO
> 40,5
OCHRONA
Rysunek 7. Drzewo klasyfikacyjne – ochrona przed
ubóstwem: mężczyźni – emerytury z systemów DB i NDC
54
ważność
Alicja Jajko-Siwek
1,1
1,0
0,9
0,8
0,7
0,6
0,5
0,4
0,3
0,2
0,1
0,0
staż
PW
system
wiek
Rysunek 8. Ranking ważności – ochrona przed ubóstwem:
mężczyźni – emerytury z systemów DB i NDC
Najważniejszymi zmiennymi do ochrony przed ubóstwem są dla mężczyzn
staż w systemie emerytalnym oraz wynagrodzenie. Błąd klasyfikacji wynosi
tylko 2,30% analizowanych obiektów.
PW
≤ 1,125
> 1,125
STAŻ
≤ 19,5
STAŻ
> 19,5
PW
≤ 0,65
BZ
≤ 31,5
STAŻ
> 0,65
≤ 23,5
≤ 0,85
BZ
STAŻ
PW
> 23,5
≤ 26,5
> 26,5
BZ
SPADEK
PW
PW
SPADEK
> 31,5
> 0,85
SPADEK
≤ 1,75
BZ
≤ 2,25 > 2,25
BZ
> 1,75
SPADEK
Rysunek 9. Drzewo klasyfikacyjne – zachowanie standardu życia – emerytury
z systemu DB
SPADEK
Zastosowanie drzew klasyfikacyjnych do oceny poziomu świadczeń emerytalnych
55
Analizy przeprowadzone dla zagadnienia zachowania standardu życia
sprzed emerytury przeprowadzone rozłącznie dla płci dały takie same rezultaty
jak badania dla kobiet i mężczyzn łącznie.
Dalsze rozważania dotyczą problemu adekwatności świadczeń emerytalnych oddzielnie w systemach DB i NDC.
Rozpatrując świadczenia emerytalne generowane wyłącznie przez system
o zdefiniowanym świadczeniu, uzyskujemy wyniki wskazujące, że ochrona
przed ubóstwem jest zapewniona uczestnikom tego systemu niezależnie od
ich płci, wynagrodzeń i karier zawodowych. W związku z tym zasadne jest
poddać dokładniejszej analizie poziom stóp zastąpienia oszacowanych dla
systemu DB jedynie w kontekście zapewnienia przez świadczenia zachowania
standardu życia sprzed emerytury. Formuła emerytalna stosowana w „starym”
polskim systemie DB nie różnicowała świadczeń ze względu na płeć, z tego
względu emerytury kobiet i mężczyzn są rozpatrywane łącznie.
Wygenerowane drzewo klasyfikacyjne ma dziesięć węzłów końcowych.
Stąd wynika, że chcąc zachować poziom życia sprzed emerytury, trzeba realizować następujący scenariusz w trakcie pracy zawodowej:
– wynagrodzenie  (112,5, 225% PW i staż > 31 lat,
– wynagrodzenie  (112,5, 175% PW i staż  (26, 31 lat,
– wynagrodzenie < 112,5% PW i staż > 23 lata,
– wynagrodzenie < 85% PW i staż  (19, 23 lat,
– wynagrodzenie < 65% PW i staż < 19 lat.
Powyższe wyniki potwierdzają zasygnalizowane wcześniej zjawisko redystrybucji w systemie DB. Osoby uzyskujące wyższe wynagrodzenia w celu zachowania swojego dotychczasowego standardu życia na emeryturze powinny wykazać się dłuższym stażem w systemie niż osoby z niższymi wynagrodzeniami.
1,2
1,0
ważność
0,8
0,6
0,4
0,2
0,0
PW
staż
wiek
płeć
Rysunek 10. Ranking ważności – zachowanie standardu
życia – emerytury z systemu DB
> 66,5
UBÓSTWO OCHRONA
≤ 66,5
WIEK
> 0,85
UBÓSTWO
≤ 0,65
> 41,5
WIEK
> 65,5
> 0,65
UBÓSTWO OCHRONA
≤ 65,5
PW
UBÓSTWO
≤ 32,5
> 0,95
≤ 1,125
WIEK
> 32,5
> 63,5
PW
UBÓSTWO OCHRONA
≤ 63,5
STAŻ
Rysunek 11. Drzewo klasyfikacyjne – ochrona przed ubóstwem – emerytury z systemu NDC
UBÓSTWO
≤ 0,85
PW
≤ 41,5
STAŻ
≤ 0,95
PW
OCHRONA
> 1,125
Zastosowanie drzew klasyfikacyjnych do oceny poziomu świadczeń emerytalnych
57
ważność
Metoda kalkulacji świadczeń w systemie o zdefiniowanym świadczeniu ułatwia
zrekompensowanie dotychczasowych dochodów poprzez emeryturę osobom,
które wniosły do systemu mniejszy wkład w postaci składek.
Najważniejszą zmienną w tej analizie jest wynagrodzenie, a w drugiej
kolejności staż ubezpieczeniowy. Błąd klasyfikacji stanowi 4,84% analizowanych jednostek.
W przypadku przynależności przyszłego emeryta do systemu NDC –
wykorzystując metodę drzew klasyfikacyjnych – okazuje się, że zachowanie
przez uczestnika systemu wcześniejszego standardu życia nie jest możliwe.
W związku z tym szczegółowemu dalszemu badaniu podlega tylko kwestia
zapewnienia emerytom ochrony przed ubóstwem. Pomimo że w systemie
NDC świadczenia kobiet i mężczyzn są zróżnicowane, w celu spójności porównania rozłącznych analiz świadczeń z systemów DB i NDC przyjęto w tym
wypadku wspólnie świadczenia kobiet i mężczyzn.
Otrzymano drzewo klasyfikacyjne składające się z dziesięciu węzłów końcowych. Pokazują one, że zapewnienie sobie ochrony przed ubóstwem jest
możliwe w efekcie realizacji następujących założeń:
– wynagrodzenie >112,5% PW,
– wynagrodzenie  (95, 112,5% PW, staż > 32 lat i wiek > 63 lata,
– wynagrodzenie  (85, 95% PW, staż < 41 lat i wiek > 66 lat.
– wynagrodzenie  (65, 95% PW, staż > 41 lat i wiek > 65 lat.
W systemie NDC rośnie znaczenie wieku przejścia na emeryturę. Wiąże się
to ze znacznym przyrostem wysokości świadczenia emerytalnego z każdym
dodatkowym rokiem pracy zawodowej (skumulowany zostaje większy kapitał emerytalny i równocześnie świadczenie jest wyliczane na krótszy czas
1,1
1,0
0,9
0,8
0,7
0,6
0,5
0,4
0,3
0,2
0,1
0,0
wiek
PW
staż
płeć
Rysunek 12. Ranking ważności – ochrona przed
ubóstwem – emerytury z systemu NDC
58
Alicja Jajko-Siwek
dalszego przeciętnego trwania życia). Duże znaczenie ma nadal wynagrodzenie, jednakże niedostatki w jego zakresie mogą być zrekompensowane wydłużeniem stażu ubezpieczeniowego lub podniesieniem wieku emerytalnego.
Błąd klasyfikacji wynosi w tym wypadku 6,54% analizowanych obiektów.
Podsumowanie
Wykonane symulacje świadczeń emerytalnych oraz ocena ich poziomu przy
wykorzystaniu drzew klasyfikacyjnych pozwoliły na wygenerowania zwartego zbioru reguł postępowania, które gwarantują uzyskanie przez przyszłych
emerytów odpowiednio wysokich świadczeń z różnych typów systemów
emerytalnych (tabela).
Uzyskane reguły klasyfikacyjne wykazały zasadnicze zróżnicowanie pomiędzy świadczeniami uzyskiwanymi z różnych typów systemów emerytalnych. Świadczenia uzyskiwane z systemu DB są wyższe od generowanych
przez system NDC. „Nie można jednak wysnuwać z tego powodu wniosków
na temat wyższości starego systemu emerytalnego nad nowym, gdyż lepsze
wyniki starego systemu wiążą się po prostu z jego większym niezbilansowaniem – dlatego konsekwencją jego utrzymania w przyszłości nie byłyby
wyższe emerytury, ale jedynie krach finansów publicznych” [UKNUiFE 2003,
s. 45]. Można jednak zdecydowanie powiedzieć, że zróżnicowanie świadczeń emerytalnych, szacowanych według zasad z różnych typów systemów
emerytalnych, zostało bardzo dobrze rozpoznane przy użyciu metody drzew
klasyfikacyjnych. Ponadto metoda ta sprawdza się przy ocenie uprawnień
emerytalnych uzyskiwanych zarówno z sytemu DB, jak i NDC. Przeprowadzone analizy wykazały także występowanie redystrybucji w systemie
emerytalnym typu DB oraz pokazały, że nastąpi obniżenie stopy zastąpienia
w wyniku wprowadzenia systemu o charakterze NDC. Co więcej, umożliwiły
identyfikację czynników odgrywających najistotniejszą rolę, gdy chodzi o poziom świadczeń emerytalnych w poszczególnych analizowanych systemach.
Wykonane badania dały także wskazówki, jaki poziom czynników jest istotny
z punktu widzenia przyszłego emeryta, jeżeli chciałby on osiągnąć adekwatne
świadczenie emerytalne. Można powiedzieć, że drzewa klasyfikacyjne są
w stanie pełnić rolę narzędzia służącego do oceny emerytur generowanych
przez rożne systemy emerytalne.
Wskazane jest dalsze stosowanie drzew klasyfikacyjnych do analizowania
świadczeń emerytalnych kalkulowanych według różnorodnych aktuarialnych
formuł emerytalnych w ramach tych samych systemów oraz poszukiwanie
Zastosowanie drzew klasyfikacyjnych do oceny poziomu świadczeń emerytalnych
59
Zestawienie reguł uzyskanych dzięki działaniu drzew klasyfikacyjnych
System Płeć
Zagadnienie
K i M ochrona
DB
i NDC
Reguły
– przynależność do systemu DB
– wynagrodzenie wyższe niż 0,95 płacy przeciętnej
– wynagrodzenie wyższe niż 0,65 PW i staż > 41 lat
– przynależność do systemu DB, wynagrodzenie ≤ 0,65
i staż ≤ 19,5 roku
– przynależność do systemu DB
K i M standard życia
wynagrodzenie  0,65, 1,25 i staż > 19,5 roku
– przynależność do systemu DB
wynagrodzenie  (1,125, 2,25 i staż > 31,5 roku
K
ochrona
– przynależność do systemu DB
– wynagrodzenie wyższe niż 1,125 płacy przeciętnej
– wynagrodzenie  (0,85, 1,125 i staż > 36 lat
standard życia tak jak w przypadku K i M razem
M
ochrona
– przynależność do systemu DB
– wynagrodzenie wyższe niż 0,85 płacy przeciętnej
– wynagrodzenie  (0,65, 0,85 i staż > 40 lat
standard życia tak jak w przypadku K i M razem
ochrona
DB
NDC
K i M
K i M
zawsze ochrona
– wynagrodzenie  (1,125, 2,25 i staż > 31 lat
– wynagrodzenie  (1,125, 1,75 i staż  (26, 31
standard życia – wynagrodzenie <1,125 i staż > 23 lata
– wynagrodzenie <0,85 i staż  (19, 23
– wynagrodzenie <0,65 i staż < 19 lat
ochrona
– wynagrodzenie >1,125
– wynagrodzenie  (0,95, 1,125, staż > 32 lat
i wiek > 63 lata
– wynagrodzenie  (0,65, 0,95, staż > 41 lat i wiek > 65 lat
– wynagrodzenie  (0,85, 0,95, staż < 41 lat i wiek > 66 lat
standard życia zawsze spadek
w tym zakresie rozwiązań optymalnych, biorąc pod uwagę adekwatność świadczeń i stabilność finansową systemu. Uzasadnione jest również rozbudowywanie modelu służącego do oszacowania emerytur, poprzez wprowadzanie do
niego nowych czynników, takich jak zmiany długości dalszego przeciętnego
trwania życia, większe zróżnicowanie w zakresie karier zawodowych związane
z konsekwencjami przebywania na urlopach rodzicielskich i korzystaniem
z różnych form zatrudnienia.
60
Alicja Jajko-Siwek
Bibliografia
Chłoń-Domińczak, A., 2012, Potrzeba prowadzenia długookresowych prognoz w systemach
emerytalnych, Roczniki Kolegium Analiz Ekonomicznych, vol. 28, s. 35–64.
Czepulis-Rutkowska, Z., 2000, Systemy emerytalne a poziom zabezpieczenia materialnego
emerytów, IPiSS, Warszawa.
European Commission, 2003, Joint Report by the Commission and the Council on Adequate and
Sustainable Pensions, European Commission, Brussels.
European Commission, 2006, Current and Prospective Theoretical Pension Replacement Rates,
European Commission, Brussels.
European Commission, 2008, The Life of Women and Men in Europe, 2008: A Statistical Portrait,
European Commission, Brussels.
European Commission, 2012, An Agenda for Adequate Safe and Sustainable Pensions. White
Paper, European Commission, Brussels.
Fornero, E., 2008, Gender Difference in Retirement Income and Pension Policy – Simulating the
Effects of Various DB and DC Schemes, CEPS, Brussels.
Gatnar, E., 1998, Symboliczne metody klasyfikacji danych, Wydawnictwo Naukowe PWN,
Warszawa.
Gatnar, E., 2001, Nieparametryczna metoda dyskryminacji i regresji, Wydawnictwo Naukowe
PWN, Warszawa.
Góra, M., 2003, System emerytalny, PWE, Warszawa.
GUS, 2012, Trwanie życia w 2011 r., Warszawa.
Jajko-Siwek, A., 2006, Metoda kalkulacji świadczeń emerytalnych w Polsce, w: Roeske-Słomka, I.
(red.), Prace statystyczne i demograficzne, Wydawnictwo Uniwersytetu Ekonomicznego
w Poznaniu, Poznań.
Łapczyński, M., 2003, Drzewa klasyfikacyjne w badaniach satysfakcji i lojalności klientów,
w: Analiza satysfakcji i lojalności klientów, Materiały szkoleniowe firmy StatSoft, Warszawa–Kraków, s. 93–102.
OECD, 2011, Pensions at a Glance 2011: Retirement-Income Systems in OECD and G20 Countries,
Paris.
Owczarek, J., 2009, Redystrybucyjność bazowego systemu emerytalnego w Polsce, Rozprawy
Ubezpieczeniowe, vol. 7, s. 105–126.
Ratajczak-Tucholka, J., 2012, Solidarność w kontekście zmian bazowego systemu emerytalnego
w Polsce w latach 1999–2011, Ruch Prawniczy, Ekonomiczny i Socjologiczny, vol. 74,
s. 217–235.
Rutecka, J., 2012, Zakres redystrybucji dochodowej w ubezpieczeniowym systemie emerytalnym,
Oficyna Wydawnicza – Szkoła Główna Handlowa, Warszawa.
UKNUiFE, 2003, Wysokość emerytur w nowym systemie ubezpieczeń społecznych, Urząd Kontroli
i Nadzoru Ubezpieczeń i Funduszy Emerytalnych, Warszawa.
Ustawa z dnia 17 grudnia 1998 r. o emeryturach i rentach z FUS.
STUDIA OECONOMICA POSNANIENSIA
2013, vol. 1, no. 10 (259)
Michał Konopczyński
Uniwersytet Ekonomiczny w Poznaniu, Wydział Informatyki
i Gospodarki Elektronicznej, Katedra Ekonomii Matematycznej,
[email protected]
SUBOPTYMALNA RÓWNOWAGA
RYNKOWA W MAŁEJ GOSPODARCE
OTWARTEJ W WARUNKACH DOSKONAŁEJ
MOBILNOŚCI KAPITAŁU
Streszczenie: Przedstawiamy model wzrostu AK opisujący gospodarkę prywatną (bez
wyróżnionego sektora publicznego) w warunkach doskonałej mobilności kapitału. Badamy
własności gospodarki zdecentralizowanej (wolnorynkowej), w której wszystkie podmioty
(konsumenci, producenci) działają wyłącznie w swoim indywidualnym interesie – podejmują takie decyzje, aby maksymalizować własny dobrobyt. Rozwiązujemy w tym celu
odpowiednie zadanie sterowania optymalnego, a następnie wyznaczamy równowagę
rynkową. Ze względu na pozytywne efekty zewnętrzne akumulacji kapitału, których
pojedyncze podmioty nie uwzględniają, równowaga w gospodarce zdecentralizowanej
jest suboptymalna. Dowodzimy tego, rozwiązując analogiczne zadanie optymalizacyjne
uwzględniające całą wiedzę o gospodarce – w tym efekty zewnętrzne (zadanie tzw. centralnego planisty) – i porównując poziom dobrobytu w obu sytuacjach.
Słowa kluczowe: model AK, wzrost gospodarczy, doskonała mobilność kapitału, efekty
zewnętrzne, równowaga suboptymalna.
Klasyfikacja JEL: D62, D9, F43, O4.
SUBOPTIMAL MARKET EQUILIBRIUM IN A SMALL OPEN
ECONOMY IN CONDITIONS OF PERFECT CAPITAL MOBILITY
Abstract: We present the AK open-economy growth model describing a private sector economy
(without an explicit public sector) in conditions of perfect capital mobility where agents may
invest abroad or borrow any amount of capital at a fixed interest rate. We investigate the
properties of a decentralized (free market) economy, where all the stakeholders (consumers
and producers) pursue their individual interests; they take decisions to maximize their own
benefits. For this purpose the optimal control is established, and then the market equilibrium
62
Michał Konopczyński
determined. Due to the positive external effects of capital accumulation, which does not take
into account the individual actors, a decentralized, free-market equilibrium is suboptimal. This
proposition is mathematically proved by solving the analogous optimization problem which
incorporates all the knowledge about an economy, including externalities (the so-called ‘central
planner’ approach), and comparing the level of prosperity in both situations.
Keywords: AK model, economic growth, perfect capital mobility, external effects, suboptimal
equilibrium.
Wstęp
Teoria endogenicznego wzrostu gospodarczego, zainicjowana artykułem Romera [1986], rozwinęła się w jeden z obszerniejszych nurtów teorii ekonomii.
W jej ramach są konstruowane różnorodne teoretyczne modele równowagi
i wzrostu, których wspólną cechą są fundamenty mikroekonomiczne (microfoundations). Gospodarka jest w nich zbiorem optymalnie postępujących podmiotów – na ogół producentów maksymalizujących zyski oraz konsumentów,
którzy dążą do osiągnięcia maksymalnej użyteczności. Przy odpowiednich
założeniach dotyczących technologii oraz preferencji konsumentów w modelach tych istnieje równowaga rynkowa, charakteryzująca się pewną stopą
wzrostu. Następnie bada się zależność owego tempa od przyjętych założeń
na przykład od parametrów modelu.
Bardzo obszerny i – naszym zdaniem – reprezentatywny przegląd współczesnej teorii endogenicznego wzrostu przedstawia Acemoglu [2008] w liczącej aż 1200 stron monografii. Symptomatyczne jest, że aż 20 z 24 rozdziałów dotyczy w całości gospodarki zamkniętej, a w zaledwie 4 rozdziałach są
poruszane jakiekolwiek zagadnienia związane z otwartością gospodarki. Jest
to typowe dla teorii wzrostu – zdecydowana większość prac teoretycznych
ogranicza się do gospodarki zamkniętej, a więc całkowicie pomijane są takie
zagadnienia, jak zadłużenie zagraniczne, międzynarodowe transfery kapitału,
inwestycje zagraniczne, handel międzynarodowy, (nie)równowaga bilansu
płatniczego itp. W XXI wieku, szczególnie z punktu widzenia zjednoczonej
Europy, takie podejście jest nie do przyjęcia, co zauważa coraz liczniejsza
grupa badaczy. Wśród nich wyróżnia się Turnovsky, który wiele publikacji
poświęcił gospodarce otwartej. W niedawno wydanej monografii Turnovsky
[2009] przedstawia kilka wersji modelu małej gospodarki otwartej, z konsumentami maksymalizującymi użyteczność strumienia konsumpcji w sposób
„Ramseyowski”, przy czym zarówno sektor publiczny, jak i prywatny mogą
się zadłużać i inwestować za granicą. Modele wzrostu gospodarki otwartej
Suboptymalna równowaga rynkowa w małej gospodarce otwartej
63
są przedstawiane również w wielu innych publikacjach, z najwcześniejszych
warto wymienić prace Nielsena i Sorensena [1991], Rebelo [1992], Razina
i Yuena [1994], a z późniejszych Heijdra i Rompa [2009] oraz Fishera [2010].
W tej pracy przedstawiamy model prywatnej gospodarki otwartej (bez
wyróżnionego sektora publicznego) będący pewną modyfikacją jednego z modeli Turnovsky’ego [2009]. Preferencje konsumentów definiujemy w nieco
odmienny sposób, który przybliża model, w gruncie rzeczy Ramseyowski,
do modeli tzw. nakładających się pokoleń. Przyjmujemy też nieco odmienny
opis technologii – zagregowaną funkcję produkcji typu AK. Modyfikacje te
wpływają na wnioski jakościowe i ilościowe z modelu.
1. Podstawowe założenia
Liczba ludności kraju rośnie wykładniczo, ze stałą (egzogeniczną) stopą wzrostu n:
L = L0ent,
(1)
Realną produkcję per capita opisuje funkcja produkcji Cobba-Douglasa z tzw.
zerowymi korzyściami skali:
y ak α (el )β, α + β =1, α, β > 0, a > 0,
(2)
gdzie k oznacza zasób kapitału na osobę, a l [0,1] jest wskaźnikiem podaży
pracy. Współczynnik e > 0 odzwierciedla indywidualną (przeciętną) wydajność pracy. Zakładamy, że jest ona proporcjonalna do ilości kapitału per capita:
e
x
K
L
xk, x = const > 0.
(3)
Mimo zaskakującej prostoty, założenie to ma solidne uzasadnienie w pracach
empirycznych (zob. [Barro i Sala-i-Martin 1995]). Mnożąc (2) obustronnie
przez L, dostajemy realną produkcję całej gospodarki:
Y
Ly a(Lk )α (elL)β aK α (elL)β,
(4)
gdzie K oraz L oznaczają zagregowane zasoby kapitału produkcyjnego i pracy
w kraju. Z matematycznego punktu widzenia funkcje produkcji (2) i (4) są
identyczne, zatem gospodarkę jako całość można analizować w taki sposób,
64
Michał Konopczyński
jakby to była pojedyncza „firma”, której produkcja jest opisana funkcją (2).
Uwzględniając (3) i (4), funkcję produkcji (2) można zapisać w postaci:
y ak α (el )β
ak α ( xkl )β
Ak,
(5)
gdzie A a(xl )β const ! 0 .
Popyt na kapitał i pracę wynika z racjonalnych decyzji podejmowanych
przez firmy starające się maksymalizować zyski. Zakładamy, że na rynkach
czynników produkcji panuje konkurencja doskonała, a zatem pojedyncza
firma traktuje ceny jako wielkości „narzucone” przez rynek. Niech wK oznacza
realną cenę wynajmu jednostki kapitału, a w realną stawkę płacy. W takim
razie każda firma (oraz cała gospodarka) zatrudnia pracowników i wynajmuje
kapitał w taki sposób, że stawki płac są równe krańcowym produktywnościom
tych czynników, czyli:
MPK
wy
wk
MPL
αakα1(el )β
wy
wl
αy
αA wK ,
k
βy
l
βak α (el )β1
(6)
w.
(7)
Ludność czerpie „zadowolenie z życia” z dwóch źródeł: konsumpcji oraz
czasu wolnego (czasu niepoświęconego na pracę), który utożsamiamy z liczbą
1 l . Poziom szczęścia reprezentatywnego gospodarstwa domowego w danym
momencie opisuje tzw. funkcja chwilowej użyteczności (instantaneous utility
function):
u(t )
γ
1
ct (1 l )θ , γ < 0, θ > 0,
γ
(8)
gdzie ct oznacza konsumpcję per capita, a θ wyraża elastyczność substytucji
czasu wolnego przez konsumpcję. Ułamek γ/(1 – γ) jest równy międzyokresowej elastyczności substytucji. Przyjęte założenia gwarantują wklęsłość funkcji
u(t) względem ct i 1 l .
Poziom szczęścia wynikającego z obecnej i przyszłej konsumpcji oraz
czasu wolnego opisuje następujący funkcjonał (tzw. międzyokresowa funkcja
użyteczności):
f
U
³
0
f
u(t )e ( ρn)t dt
1
γ
( ρ n)t
θ
dt ,
³ γ ct (1 l ) e
0
ρ > n;
(9)
Suboptymalna równowaga rynkowa w małej gospodarce otwartej
65
ρ > 0 oznacza subiektywną stopę dyskonta (przyszłej konsumpcji). Wyjaśnienia wymaga nietypowa, rzadko spotykana w literaturze, stopa efektywnego
dyskonta równa ρ – n, którą przyjęliśmy wzorem Acemoglu [2008, s. 310].
Gospodarstwa domowe czerpią użyteczność zarówno z własnej konsumpcji i czasu wolnego, jak i z konsumpcji i czasu wolnego swoich przyszłych
członków (dzieci, wnuków itd.), których liczba rośnie ze stopą n. Zatem im
wyższą stopą wzrostu populacji n charakteryzuje się dany kraj, tym mniejsza
jest efektywna stopa dyskonta, bo liczebność dzieci, wnuków itd., które będą
konsumowały, jest większa. Mówiąc nieco bardziej intuicyjnie – im więcej
dzieci, tym bardziej cenimy sobie przyszłą konsumpcję. Założenie to przybliża nieco Ramseyowską teorię wzrostu do teorii opartej na modelu tzw.
nakładających się pokoleń.
Zakładamy, że ρ > n. W przeciwnym razie całka występująca w (9) nie
byłaby zbieżna i niemożliwe byłoby rozwiązanie jakiegokolwiek zadania maksymalizacji U.
Proces akumulacji kapitału (per capita) jest opisany w standardowy sposób:
k i (n δ )k,
(10)
gdzie δ > 0 oznacza tempo deprecjacji kapitału. Inwestycje obarczone są tzw.
kosztami dostosowania (adjustment cost) [Hayashi 1982]. Aby (w ujęciu per
capita) zrealizować inwestycje netto równe i, trzeba ponieść odpowiednio
większe nakłady równe
§ χ i·
ϕ(i , k ) i ¨ 1 ˜ ¸, χ > 0.
© 2 k¹
(11)
Zakładamy doskonałą mobilność kapitału, co oznacza, że sektor prywatny
ma możliwość pożyczania oraz lokowania dowolnych kwot za granicą na stałą
(a przynajmniej egzogenicznie daną) stopę procentową r. Sektor prywatny
czerpie dochody w formie wynagrodzenia pracy i kapitału oraz odsetek od
posiadanych aktywów zagranicznych B (umownie zwanych obligacjami):
Yd
wlL w K K rB,
(12)
wl w K k rb.
(13)
czyli w przeliczeniu na osobę
yd
Dochody te służą konsumpcji i inwestycjom, a ewentualna nadwyżka jest
lokowana w obligacjach zagranicznych. Naturalnie nadwyżka ta również może
66
Michał Konopczyński
być ujemna, co oznacza konieczność redukcji salda obligacji zagranicznych
(lub nawet zadłużenia się). Równanie budżetowe ma więc postać:
B wlL wK K C Φ( I , K ) rB,
(14)
czyli w ujęciu per capita:
§ χ i·
b wl w K k c i ¨ 1 ˜ ¸ (r n)b.
© 2 k¹
(15)
Ze względu na (6) i (7) dochody z pracy i kapitału są łącznie równe produkcji.
Zatem (15) można zapisać w postaci:
b
§ χ i·
y c i ¨ 1 ˜ ¸ (r n)b.
© 2 k¹
(16)
Warto podkreślić, że równanie budżetowe (16) w pełni uświadamia sobie
centralny planista, ale nie przeciętny Kowalski. Dlatego podejmując decyzje,
które za chwilę opiszemy za pomocą zadań sterowania optymalnego, Kowalski
posługuje się formułą (15), traktując przy tym stawki płac w i wK jako wielkości
dane (egzogeniczne). Natomiast centralny planista wie o gospodarce wszystko,
dlatego posługuje się równaniem budżetowym (16).
2. Gospodarka zdecentralizowana (Kowalscy)
Sektor prywatny ustala wielkość konsumpcji i inwestycji tak, aby osiągnąć
jak najwyższy poziom użyteczności opisanej przez U. Ów problem decyzyjny
wygodnie zapisać za pomocą zadania sterowania optymalnego:
f
­
γ
1
°max
ct (1 l )θ e ( ρn)t dt ,
γ
°
0
°
(17)
§ χ i·
°
®b wl w K k c i ¨ 1 ˜ ¸ (r n)b,
© 2 k¹
°
°k i (n δ )k .
°
°
¯
Zmienne sterujące: ct , it. Zmienne stanu: bt , kt (i pośrednio yt). Wielkości
traktowane jako egzogeniczne: w, wK. Dane są początkowe wartości zmiennych
stanu: b(t = 0) = b0, k(t = 0) = k0 > 0. Zapiszmy hamiltonian wartości bieżącej:
³ Suboptymalna równowaga rynkowa w małej gospodarce otwartej
Hc
1
c(1 l )θ
γ
γ
67
ª
º
§ χ i·
λ1 ˜ «wl w K k c i ¨ 1 ˜ ¸ (r n)b » λ2 ˜ ª¬i (n δ )k º¼ . (18)
© 2 k¹
¬
¼
Jak widać, zmienna λ1 jest ceną dualną bogactwa ulokowanego w obligacje
zagraniczne b. Analogicznie, λ2 jest ceną dualną kapitału k. Dla wygody będziemy używać również ilorazu tych cen: q = λ2/λ1, który można interpretować jako rynkową cenę kapitału w stosunku do rynkowej ceny obligacji
zagranicznych.
Rozwiązanie optymalne zadania (17) musi spełniać następujące warunki:
t
wH c
wc
0.
(19a)
t
wH c
wi
0.
(19b)
λ1
wH c
λ1( ρ n).
wb
(19c)
λ2
wH c
λ2 ( ρ n).
wk
(19d)
lim e ( ρn)t λ1(t ) b (t ) 0.
(19e)
lim e ( ρn)t λ2 (t ) k (t ) 0.
(19f)
t of
t of
Warunek (19a) ma postać:
λ1 (1 l )θγ c γ 1,
(20)
co oznacza, że cena dualna bogactwa (w formie obligacji) musi być dla każdego t równa marginalnej użyteczności konsumpcji. Różniczkując to równanie
względem t, po przekształceniach otrzymujemy:
λ1
c
(γ 1) .
(21)
λ1
c
68
Michał Konopczyński
Natomiast (19c) można zapisać w postaci:
λ1
λ1
ρ r.
(22)
Podstawiając (22) do (21), wyznaczamy stopę wzrostu konsumpcji, którą dla
wygody będziemy oznaczać symbolem ψ:
ψ
c
c
r ρ
.
1γ
(23)
Zauważmy, że rozwiązanie optymalne charakteryzuje się stałą stopą wzrostu
konsumpcji, która zależy wyłącznie od parametrów opisujących preferencje
konsumentów oraz od stopy procentowej r. Dokładniej mówiąc, stopa wzrostu
konsumpcji jest proporcjonalna do różnicy między stopą oprocentowania
obligacji zagranicznych oraz stopą dyskonta ρ. Optymalna trajektoria konsumpcji ma postać:
c(t ) c(0) ˜ e ψt,
(24)
czyli konsumpcja całkowita w kraju kształtuje się zgodnie z równaniem
C(t ) C(0) ˜ e(ψ n)t.
(25)
Warunek (19b) można zapisać w postaci
q
λ2
λ1
i
1 χ .
k
(26)
Dzieląc (11) obustronnie przez k i uwzględniając (26), dostajemy stopę wzrostu
kapitału, którą dla wygody oznaczać będziemy symbolem ϕ:
ϕ kˆ
q 1
(n δ ).
χ
(27)
Warto podkreślić, że w odróżnieniu od tempa wzrostu konsumpcji, stopa
wzrostu kapitału nie jest wielkością stałą, gdyż jest powiązana z trajektorią
q(t). Zatem trajektorię kapitału można zapisać jedynie w bardzo ogólnej (całkowej) postaci:
t
³ ϕ(s )ds
k(t ) k0
e0
.
(28)
69
Suboptymalna równowaga rynkowa w małej gospodarce otwartej
Z tego wynika, że zasób kapitału w kraju kształtuje się zgodnie z równaniem:
K (t ) k(t ) ˜ L(t ) K 0
§t
·
¨ ϕ (s )ds ¸nt
¨³
¸
¹ .
e© 0
(29)
Aby wyznaczyć ścieżkę q(t), od której zależy trajektoria kapitału, przyjrzyjmy się ostatniemu z warunków koniecznych optymalności (19d). Uwzględniając (22) i (26), można go zapisać w postaci równania:
q (r δ)q αA (q 1)2
.
2χ
(30)
Jest to nieliniowe (kwadratowe) równanie różniczkowe ze stałymi współczynnikami (autonomiczne). Rysunek 1 przedstawia diagram fazowy tego
równania.
q
0
q1
q2
q
Rysunek 1. Diagram fazowy równania (30)
Zauważmy, że przedstawiona na wykresie parabola musi mieć co najmniej jedno (rzeczywiste) miejsce zerowe – w przeciwnym razie mielibyśmy
of, co ze względu na sens ekonomiczny zmiennej
q q 0, a więc q(t ) 
t of
q jest niedopuszczalne. Zatem równanie
(r δ )q αA (q 1)2
2χ
0
(31)
70
Michał Konopczyński
musi mieć przynajmniej jeden pierwiastek rzeczywisty, co zachodzi wtedy
i tylko wtedy, gdy
ª χ
º
αA d (r δ ) «1 (r δ )».
¬ 2
¼
(32)
Pierwiastki równania q 0, są dane wzorami:
q1 1 χ(r δ) 2 χ(r δ αA) χ 2 (r δ)2 ,
(33)
q2 1 χ(r δ ) 2 χ(r δ αA) χ 2 (r δ )2 .
(34)
Łatwo zauważyć, że:
(a) Jeżeli r + δ = αA, to q1 = 1, a q2 = 1 + 2χ(r + δ).
(b) Jeżeli r + δ > αA, to 0 < q1 < 1 < q2.
(c) Jeżeli r + δ < αA, to 1 < q1 < q2.
Generalnie, w każdym przypadku q2 > q1 > 0 oraz q2 > 1. Oba punkty
stanowią stany stacjonarne, z tym że w punkcie q1 stan ten jest niestabilny,
a w punkcie q2 jest lokalnie stabilny. W Aneksie pokazujemy, że warunek
transwersalności (19f) jest spełniony jedynie w punkcie q1. Możemy zatem
sformułować:
Wniosek 1
Jedynym rozwiązaniem równania (30) spełniającym warunek transwersalności
(19f) jest q1. Zatem rynkowa cena kapitału musi w każdej chwili t znajdować
się w niestabilnym punkcie q1. W reakcji na jakikolwiek szok (zmianę wartości
egzogenicznych powodującą zmianę wartości q1) rynkowa cena kapitału musi
natychmiast skokowo się dostosować – proces dochodzenia do nowego stanu
równowagi jest natychmiastowy. Zatem
t q = q1.
(35)
W konsekwencji kapitał per capita rośnie w tempie
ϕ
q1 1
(n δ ).
χ
(36)
Dla danego zestawu parametrów i wielkości egzogenicznych, ϕ = const.
Trajektorię kapitału (28) można zatem zapisać prościej:
k(t) = k0eϕt.
(37)
Suboptymalna równowaga rynkowa w małej gospodarce otwartej
71
Na koniec przyjrzyjmy się jeszcze drugiemu warunkowi transwersalności
(19e), który (jak łatwo się domyślić) determinuje początkową wielkość konsumpcji. Najpierw należy wyznaczyć trajektorię b(t), rozwiązując równanie
(16). Korzystając z (24), (26) i (37) można je zapisać w postaci:
b υk0 eϕt c(0) ˜ eψt (r n)b,
(38)
gdzie
υ A
q12 1
.
2χ
(39)
Rozwiązanie ogólne tego równania ma postać:
υk0
c(0)
˜ e ϕt ˜ e ψt.
r n ϕ
r n ψ
b(t ) Se(r n)t (40)
Znając początkowy zasób obligacji b(t = 0) = b0, możemy wyznaczyć stałą S:
S b0 υk0
c(0)
.
r n ϕ r n ψ
(41)
Wyznaczywszy trajektorię b(t), możemy już przyjrzeć się dokładniej warunkowi transwersalności (19e). Z (22) wynika, że
λ1(t ) λ1(0)e( ρr )t.
(42)
Uwzględniając ten fakt oraz (40) wraz z (41), warunek (19e) można zapisać
w postaci:
­
½
υk0
c(0)
λ1(0) ˜ lim ®S ˜ e(nr ϕ)t ˜ e(nr ψ) t ¾ 0,
t of ¯
r n ϕ
r n ψ
¿
(43)
co zachodzi wtedy i tylko wtedy, gdy spełnione są trzy warunki:
S b0 υk0
c(0)
r n ϕ r n ψ
0,
(44a)
r – n – ϕ > 0,
(44b)
r – n – ψ > 0.
(44c)
72
Michał Konopczyński
Równość (44a) determinuje początkową wielkość konsumpcji:
§
υk0 ·
c(0) ¨ b0 ¸ (r n ψ ).
r n ϕ ¹
©
(45)
Uwzględniając (33) i (36), można łatwo wykazać, że warunek (44b) jest spełniony. Natomiast (44c) można przekształcić do równoważnej postaci:
ρ > γ(r – n) + n,
(46)
co oznacza, że aby otrzymane rozwiązanie było optymalne (spełniało warunki
transwersalności) stopa dyskonta musi być po prostu dostatecznie wysoka.
W szczególnym przypadku, gdy n = 0, warunek ten redukuje się do postaci:
ρ > γr.
Korzystając z wyznaczonej początkowej wielkości konsumpcji (45), trajektorię b(t) można ostatecznie zapisać w postaci:
§
υk0 · ψt
υk0
b(t ) ¨ b0 ˜ e ϕt.
¸ ˜e r n ϕ ¹
r n ϕ
©
(47)
Z oczywistych względów konsumpcja w całym horyzoncie musi być dodatnia.
Ponieważ stopa wzrostu konsumpcji jest przy przyjętych założeniach dodatnia,
więc warunek ten jest spełniony, jeżeli konsumpcja początkowa jest dodatnia.
Zatem zachodzić musi warunek:
b0 υk0
,
r n ϕ
(48)
co oznacza, że gospodarka nie może być nadmiernie zadłużona na początku
horyzontu planowania.
Równowaga w gospodarce zdecentralizowanej
k(t ) k0e ϕt ,
i(t )
q 1
˜ k(t ),
χ
ϕ
q 1
(n δ ),
χ
q 1 χ(r δ ) 2 χ(r δ αA) χ 2 (r δ )2 ,
73
Suboptymalna równowaga rynkowa w małej gospodarce otwartej
y(t ) Ak(t ),
A a(xl )β
c(t ) c0 ˜ e ψt ,
c0
§
υk0 ·
¨ b0 ¸ (r n ψ ),
r n ϕ ¹
©
§
υk0 · ψt
υk0
b(t ) ¨ b0 ˜ e ϕt ,
¸ ˜e r nϕ ¹
r n ϕ
©
ψ
rρ
,
1 γ
const ! 0,
υ
A
q2 1
! 0.
2χ
Stan początkowy: k0, b0.
Zmienne decyzyjne (sterowania): c(t), i(t).
Zmienne stanu: k(t), y(t), b(t).
W standardowych modelach gospodarki zamkniętej produkcja tożsama
z dochodem narodowym musi zawsze rosnąć w identycznym tempie jak
konsumpcja. Tutaj natomiast niekoniecznie. Są trzy możliwości. Do ich opisu
przyda się stopa wzrostu salda obligacji zagranicznych, którą łatwo wyznaczyć
z (47):
υk0
b0 ψ ψ ϕ ˜ e (ϕ ψ ) t
r
n
ϕ
.
(49)
bˆ(t )
υk0
(ϕ ψ ) t
b0 1 e
r n ϕ
Zatem stopa wzrostu b(t) nie musi być stała w czasie. Wykorzystując regułę
de l’Hospitala, łatwo wykazać, że:
– jeżeli ψ = ϕ, to bˆ(t )= ψ,
– jeżeli ψ > ϕ, to bˆ(t ) 
o ψ,
t of
– jeżeli ψ < ϕ, to bˆ(t ) 
o ϕ.
t of
W modelu mamy zatem trzy możliwości:
1. Jeśli ψ = ϕ, to konsumpcja i produkcja (dochód narodowy) rosną w identycznym tempie. Również zasób obligacji zagranicznych rośnie z tą samą
stopą ψ = ϕ.
2. Jeśli ψ > ϕ, to konsumpcja rośnie szybciej niż zasób kapitału i produkcja.
Utrzymanie wysokiego tempa wzrostu konsumpcji jest możliwe dzięki dochodom z obligacji zagranicznych, których saldo musi (w granicy)
rosnąć w tempie równym stopie wzrostu konsumpcji. Oczywiście biorąc
pod uwagę relatywnie niskie tempo akumulacji kapitału, zbilansowanie
strumienia dochodów ze strumieniem wydatków wymaga relatywnie niskiej konsumpcji w początkowej fazie (c(0) musi być stosunkowo niska).
I rzeczywiście łatwo wykazać, że
74
Michał Konopczyński
ψ > ϕ  ρ γr (1 γ)δ 1 γ
2 χ (r δ αA) χ 2 (r δ )2 .
χ
(50)
Zatem ten przypadek występuje wtedy, gdy konsumenci są wystarczająco
cierpliwi (współczynnik dyskonta jest dostatecznie niski). Konsumenci
akceptują wówczas niską konsumpcję w początkowej fazie, rok po roku
nadwyżki dochodu nad wydatkami inwestują w obligacje zagraniczne,
i dzięki temu mogą sobie pozwolić na tempo wzrostu konsumpcji wyższe
niż tempo wzrostu gospodarczego. W granicy (dla t  ) dochód z produkcji krajowej traci właściwie znaczenie – konsumpcja jest finansowana
z odsetek od obligacji zagranicznych, których zasób rośnie w nieskończoność.
3. Jeśli ψ < ϕ, to konsumpcja rośnie wolniej niż zasób kapitału i produkcja. Wówczas (w granicy) saldo obligacji zagranicznych rośnie w tempie
odpowiadającym stopie wzrostu produkcji. Zbilansowanie strumienia
dochodów ze strumieniem wydatków pozwala na relatywnie wysoką
konsumpcję w początkowej fazie (c(0) musi być stosunkowo wysoka).
I rzeczywiście
ψ < ϕ  ρ ! γr (1 γ)δ 1 γ
2 χ (r δ αA) χ 2 (r δ )2 .
χ
(51)
Zatem ten przypadek występuje wtedy, gdy konsumenci są niecierpliwi
(współczynnik dyskonta jest relatywnie wysoki). Konsumpcja jest wysoka w początkowej fazie, co wymaga ujemnych inwestycji w obligacje
zagraniczne (czyli zadłużania się). Rok po roku nadwyżki wydatków
konsumpcyjnych nad dochodami są pokrywane pożyczkami zagranicznymi i w rezultacie saldo obligacji b(t)  –, co widać wprost ze wzoru
(47). Nie oznacza to jednak, że zadłużenie w stosunku do PKB rośnie
w nieskończoność (byłoby to sprzeczne z warunkami transwersalności).
Konsumpcja rośnie bowiem w tempie wolniejszym niż produkcja, a w granicy (dla t  ) ujemne saldo obligacji (czyli zadłużenie) rośnie w tym
samym tempie co produkcja. Zatem stosunek zadłużenia do produkcji
stabilizuje się na pewnym skończonym poziomie. Korzystając z (27) i (47),
otrzymujemy:
b(t )
y(t )
b0 (ψ ϕ) t
υ
˜ ªe(ψ ϕ) t 1º,
e
¼
y0
A(r n ϕ) ¬
(52)
Suboptymalna równowaga rynkowa w małej gospodarce otwartej
75
skąd wynika, że:
jeżeli
ψ = ϕ,
to
jeżeli
ψ > ϕ,
to
jeżeli
ψ < ϕ,
to
b(t )
t of y (t )
b0
,
y0
(53a)
b(t )
y(t )
f,
(53b)
υ
,
A(r n ϕ)
(53c)
lim
lim
t of
lim
t of
b(t )
y(t )
Dwa ostatnie przypadki pokazują, jak bardzo modele małej gospodarki
otwartej różnią się od standardowych modeli gospodarki zamkniętej, w których możliwości konsumpcji są zdeterminowane przez akumulację kapitału
i produkcję krajową, a wszystkie zmienne realne – w tym produkcja, kapitał,
inwestycje, konsumpcja – muszą (przynajmniej w granicy) rosnąć w identycznym tempie. W małej gospodarce otwartej tempo wzrostu konsumpcji może
być permanentnie (w nieskończoność) różne od tempa wzrostu produkcji.
Naturalnie jest to rezultat założenia o możliwości inwestowania i pożyczania
dowolnie dużych kwot na stały procent r.
Dobrobyt (gospodarka zdecentralizowana)
Uwzględniwszy wyznaczoną trajektorię konsumpcji, dobrobyt mierzony wartością funkcjonału celu (9) można zapisać w postaci:
f
Ω
1
(1 l )θγ c0γ e (r nψ )t dt .
γ
³
(54)
0
Ze względu na warunki transwersalności, a w szczególności (44c), całka we
wzorze (54) jest zbieżna. Zatem dobrobyt w gospodarce zdecentralizowanej
wyraża się wzorem:
Ω
(1 l )θγ c0γ
.
γ(r n ψ )
(55)
Wzór ten wydaje się prosty, lecz jest to iluzja. Po podstawieniu wszystkich
wyznaczonych zależności otrzymujemy pełną postać parametryczną1:
1
Wzór jest w postaci parametrycznej, jeżeli występują w nim wyłącznie parametry modelu.
76
Michał Konopczyński
γ
Ω
§
§
q2 1 · ·
A
¨
¨
¸k ¸
γ 1
¨
2 χ ¸¹ 0 ¸ §
(1 l )θγ ¨
r ρ ·
©
b
r
n
¸ ,
¨ 0
q 1 ¸ ©¨
γ
γ
1
¹
r δ ¨
¸
χ
¨
¸
©
¹
(56)
gdzie q 1 χ(r δ) 2 χ(r δ αA) χ 2 (r δ )2 . Zatem poziom dobrobytu
w równowadze zależy od wszystkich (bez wyjątku!) parametrów gospodarki,
a także od początkowych zasobów kapitału i obligacji zagranicznych.
3. Gospodarka centralnie planowana
Centralny planista różni się od Kowalskiego tym, że nie traktuje stawek płac
jako wielkości „narzucane” przez rynek. On wie o tym, że czynniki produkcji są wynagradzane w taki sposób, że dochody z pracy i kapitału są łącznie
równe produkcji. Dlatego w zadaniu sterowania optymalnego posługuje się
ograniczeniem budżetowym (16), a nie (15). Ponadto centralny planista ma
świadomość, że inwestycje w kapitał rzeczowy wywierają pozytywny wpływ
na wydajność pracy (pozytywne efekty zewnętrzne), zgodnie z (4). Dlatego
krańcowy produkt kapitału jest z jego punktu widzenia opisany wzorem (8)
i równy A.
Problem decyzyjny centralnego planisty zapiszemy za pomocą zadania
sterowania optymalnego:
f
­
γ
1
°max
ct (1 l )θ e ( ρn)t dt ,
γ
°
0
°
§ χ i·
°
®b Ak c i ˜ ¨ 1 ˜ ¸ (r n)b,
© 2 k¹
°
°k i (n δ )k.
°
°
¯
³ (57)
Zmienne sterujące: ct, it. Zmienne stanu: bt, kt (i pośrednio yt). Wielkości
traktowane jako egzogeniczne: brak. Dane są początkowe wartości zmiennych
stanu: b(t = 0) = b0, k(t = 0) = k0 > 0. Zapiszmy hamiltonian wartości bieżącej:
Suboptymalna równowaga rynkowa w małej gospodarce otwartej
77
Hc
1
c(1 l )θ
γ
γ
ª
º
§ χ i·
λ1 ˜ « Ak c i ¨ 1 ˜ ¸ (r n)b» λ2 ˜ ª¬i (n δ)k º¼. (58)
© 2 k¹
¬
¼
Rozwiązanie optymalne zadania (57) musi spełniać następujące warunki:
wH c
wc
wH c
t
wi
t
0.
(59a)
0.
(59b)
wH
λ1 c λ1( ρ n).
wb
wH
λ2 c λ2 ( ρ n).
wk
(59c)
(59d)
lim e ( ρn)t λ1(t )b(t ) 0.
(59e)
lim e ( ρn)t λ2 (t)k(t) 0.
(59f)
t of
t of
Łatwo sprawdzić, że trzy pierwsze warunki (59a-c) prowadzą do identycznych wniosków jak w gospodarce zdecentralizowanej, dzięki czemu wzory
(20)–(29) mają zastosowanie również dla gospodarki centralnie planowanej.
Natomiast równanie (30) przyjmie postać:
q (r δ)q A (q 1)2
,
2χ
(60)
która różni się od (30) jedynie wartością krańcowej produktywności kapitału.
Analiza tego równania jest bardzo podobna do tej, którą przedstawiliśmy
w odniesieniu do gospodarki zdecentralizowanej. Wszystkie wzory i wnioski
pozostają w mocy, z tym że we wzorach od (30) aż do (50) αA należy zastąpić
przez A. Z tego względu warunek (32) przyjmie teraz silniejszą postać:
ª χ
º
A d (r δ ) «1 (r δ )».
¬ 2
¼
(61)
Możemy zatem od razu przedstawić zwięzły opis stanu równowagi w gospodarce centralnie planowanej.
78
Michał Konopczyński
Równowaga w gospodarce centralnie planowanej
(oznaczamy ją symbolem *)
q * 1
(n δ ),
χ
q * 1 χ (r δ ) k(t ) k0e ϕ *t ,
i(t )
ϕ*
q * 1
˜ k(t ),
χ
2 χ (r δ A) χ 2 (r δ )2 ,
y(t ) Ak(t ),
A a(xl )β
c(t ) c0* ˜ e ψ *t ,
c*0
const ! 0,
§
υ * k0 ·
¨ b0 ¸ (r n ψ *),
r n ϕ* ¹
©
§
υ * k0
υ * k0 · ψ *t
˜ e ϕ *t ,
b(t ) ¨ b0 ¸˜ e *
r
n
ϕ
*
r
n
ϕ
©
¹
r ρ
, υ*
ψ*
1 γ
A
q *2 1
.
2χ
Stan początkowy: k0, b0.
Zmienne decyzyjne (sterowania): c(t), i(t).
Zmienne stanu: k(t), y(t), b(t).
Opisane na str. 12–13 trzy przypadki występują również w gospodarce
centralnie planowanej i ich interpretacja jest identyczna.
Dobrobyt (gospodarka centralnie planowana)
Wzór (55) nie ulega żadnym zmianom, czyli dla gospodarki centralnie planowanej:
Ω*
(1 l )θγ (c0*)γ
,
γ(r n ψ *)
(62)
Po podstawieniu wyznaczonych zależności otrzymujemy pełną postać
parametryczną:
γ
§
§
q *2 1 · ·
A
¨
¨
¸¸ k0 ¸
γ 1
¨
2
χ
(1 l )θγ ¨
rρ·
¸ §
©
¹
Ω*
r n ¸ ,
¨ b0 q * 1 ¸ ¨©
γ
1 γ ¹
r δ ¨
¸
χ
¨
¸
©
¹
(63)
Suboptymalna równowaga rynkowa w małej gospodarce otwartej
79
gdzie q * 1 χ (r δ ) 2 χ (r δ A) χ 2 (r δ )2 . Poziom dobrobytu w równowadze zależy od wszystkich (bez wyjątku!) parametrów gospodarki, a także
od początkowych zasobów kapitału i obligacji zagranicznych.
4. Podsumowanie – porównanie gospodarki centralnie
planowanej ze zdecentralizowaną
Łatwo wykazać, że q* > q > 0, z czego wynika, że υ* < υ oraz ϕ* > ϕ. Zatem
centralny planista akumulowałby kapitał w szybszym tempie niż gospodarka
Kowalskich, dzięki czemu stopa wzrostu gospodarczego byłaby permanentnie
wyższa niż w gospodarce rynkowej. Wynika to z obecności pozytywnych
efektów zewnętrznych związanych z inwestowaniem w kapitał, których nie
uwzględniają (nie uświadamiają sobie) poszczególne podmioty w gospodarce
zdecentralizowanej. Mianowicie pojedyncza firma, decydując o inwestycjach,
traktuje wydajność pracy e jako wielkość daną (na którą indywidualnie nie
ma wpływu), a więc tzw. prywatny krańcowy produkt kapitału jest, zgodnie
ze wzorem (6), równy αA. Tymczasem inwestowanie w kapitał podnosi wydajność pracy e, zgodnie ze wzorem (3), skąd wynika, że rzeczywisty (tzw.
społeczny) krańcowy produkt kapitału jest znacznie wyższy i wynosi A. Dlatego gospodarka zdecentralizowana inwestuje „zbyt mało”.
Co ciekawe, w obu gospodarkach tempo wzrostu konsumpcji jest takie
samo (zależy wyłącznie od parametrów funkcji użyteczności oraz od stopy
procentowej r):
ψ* ψ
r ρ
,
1 γ
(64)
lecz początkowy poziom konsumpcji nie jest taki sam. W gospodarce centralnie sterowanej jest on niższy niż w rynkowej (c*0 < c0), gdyż początkowo
większa część dochodu narodowego jest przeznaczana na inwestycje w kapitał.
γ
Ω * § c0* ·
¨ ¸.
Ω © c0 ¹
Wiemy, że c*0 < c0, a jednocześnie γ < 0. Zatem, jak można się było spodziewać,
Z drugiej strony, ze wzorów opisujących dobrobyt wynika, że
Ω* > Ω.
(65)
Uwzględnienie w zadaniu optymalizacyjnym całej wiedzy o funkcjonowaniu
gospodarki pozwala osiągnąć wyższy poziom dobrobytu.
80
Michał Konopczyński
Oczywiście w rzeczywistości nie istnieje żaden podmiot, który miałby nie
tylko kompletną wiedzę o funkcjonowaniu gospodarki, ale jeszcze możliwość
sterowania postępowaniem wszystkich firm i konsumentów (narzucania im
swej woli). W gospodarce rynkowej każdy podmiot – jak wiadomo od czasów Adama Smitha – kieruje się swym własnym, indywidualnym interesem.
Niemniej jednak istnieje sposób, aby niczego nie narzucając poszczególnym
podmiotom, gospodarkę zdecentralizowaną doprowadzić do takiej równowagi, jak gdyby była ona centralnie sterowana. Wystarczy zastosować takie
narzędzia, aby decyzje podejmowane przez firmy uwzględniały pozytywne
efekty zewnętrzne akumulacji kapitału. W literaturze określa się to mianem
tzw. internalizacji (internalization) efektów zewnętrznych. Na przykład do
przedstawionego modelu można wprowadzić rząd, który w odpowiedniej
wysokości subsydiuje kapitał.
ANEKS
Dowód, że warunek transwersalności (19f) jest spełniony jedynie w punkcie q1.
lim e ( ρn)t λ2 (t )k(t ) 0.
(19f)
λ2 (t ) q(t ) ˜ λ1(0) ˜ e( ρr )t.
(a.1)
t of
Z (22) wynika, że
Z (27) oraz (28) wynika, że
t
§ q( s ) 1
·
n δ¸ ds
χ
¹
³ ¨©
k(t ) k0e 0
t
§ q( s ) 1 ·
¸ ds
χ ¹
³ ¨©
k0e 0
˜e
(n δ )t
.
(a.2)
Zatem warunek (19f) można zapisać w postaci:
t
­
§ q ( s )1 · ½
¨
¸ ds
³
°°
°
© χ ¹ °
λ1(0)k0 ˜ lim ®q(t )e (r δ) t ˜ e 0
¾ 0,
t of
°
°
¯°
¿°
(a.3)
81
Suboptymalna równowaga rynkowa w małej gospodarce otwartej
Punkt stały q1 jest niestabilny, dlatego – jak zauważyliśmy we Wniosku 1 –
wykluczona jest tu jakakolwiek dynamika przejścia. Jeśli gospodarka ma osiągnąć ten punkt, to musi w nim być od samego początku, czyli musi zachodzić:
t q1(t ) q1 const,
(a.4)
gdzie q1 jest dane wzorem (33). Zatem w tym wypadku zachodzi:
t
§ q( s ) 1 ·
¨
¸ ds
χ ¹
©
0
q1 1
˜t
χ
³
§
·
2(r δ αA)
( r δ)2 ¸ ˜ t
¨¨ r δ ¸
χ
©
¹
r δ ... ˜ t.
(a.5)
Z tego wynika, że warunek (a.3) jest spełniony, zachodzi bowiem
t
­
§ q1 1 · ½
¨
¸ds
³
­ ( r δ ) t r δ °° (r δ)t 0 © χ ¹ °°
λ1(0)k0 ˜ lim ®q1e
˜e
˜e
¾ λ1(0)k0q1 ˜ lim ®e
t of
t of ¯
°
°
¯°
¿°
­ ... t ½
λ1(0)k0q1 ˜ lim ®e
¾ 0.
t of ¯
¿
... t ½
¾
¿
(a.6)
Teraz zajmijmy się punktem q2. Jest to stabilny stan równowagi, zatem do
punktu q2 danego wzorem (34) dochodzimy po określonej ścieżce (trajektorii)
postaci:
q2 (t ) q2 q2 (0) q2 ˜ e μt,
(a.7)
gdzie stopa wzrostu μ < 0 odpowiada ujemnej wartości własnej odpowiedniej
macierzy. Zatem
t
§ q2 (s) 1 ·
¨
¸ ds
χ ¹
©
0
³
t
q2 1
q (0) q2
˜t 2
˜ e μs ds
χ
χ
³
0
q2 1
q (0) q2 μt
˜t 2
˜ e 1 ,
χ
χμ
(a.8)
co, wykorzystując wzór (34), można zapisać w postaci:
t
§ q2 (s) 1 ·
q (0) q2 μt
1
... ˜ t 2
˜ e 1 .
¸ ds (r δ)t χ
χ
χμ
¹
³ ¨©
0
(a.9)
82
Michał Konopczyński
Po lewej stronie (a.3) mamy zatem:
t
­
§ q ( s )1 · ½
³ ¨© 2 χ ¸¹ds °°
°°
λ1 (0)k0 ˜ lim ®q2 (t )e (r δ) t ˜ e 0
¾
t of
°
°
°¯
°¿
1
­
( r δ )t ( r δ )t °
χ
λ1 (0)k0 ˜ lim ®q2 (t )e
t of
°¯
q (0)q2 μt
e 1
... ˜ t 2
χμ
½°
¾
°¿
q (0)q2 μt
1
­
... ˜ t 2
e 1 ½°
°ª
χμ
μt º χ
λ1 (0)k0 ˜ lim ® q2 q2 (0) q2 ˜ e e
¾
¼
t of ¬
°¿
°¯
§
­ 1 ... ˜ t q2 (0)q2 e μt 1 ½
°
°
χμ
¨
λ1 (0)k0 ˜ lim ®q2e χ
¾
¨¨ t of
°¯
°¿
©
§ 1
·
q2 (0)q2 μt
·
­
e 1 ½
¨ μ ... ¸ ˜ t ¸
°
°
χ
χμ
¹
lim ® q2 (0) q2 ˜ e ©
¾ ¸ . (a.10)
t of
°
°¸
¯
¿¹
W powyższym wzorze występuje suma dwóch granic. Pierwsza z nich jest
1
1
równa +, a druga jest równa 0 (gdy μ ... 0) lub + (gdy μ ... 0).
χ
χ
Z tego wynika, że lewa strona równania (a.3) jest równa +, a więc w punkcie
q2 warunek transwersalności (19f) nie jest spełniony.
Bibliografia
Acemoglu, D., 2008, Introduction to Modern Economic Growth, Princeton University Press.
Barro, R., Sala-i-Martin, X., 1995, Economic Growth, 2nd ed., MIT Press, Cambridge.
Fisher, W.H., 2010, Relative Wealth, Growth, and Transitional Dynamics: The Small Open Economy Case, Macroeconomic Dynamics, vol. 14, s. 224–242.
Hayashi, F., 1982, Tobin’s Marginal q and Average q: A Neoclassical Interpretation, Econometrica,
vol. 50, no. 1, s. 213–224.
Heijdra, B.J., Romp, W.E., 2009, Human Capital Formation and Macroeconomic Performance in
an Ageing Small Open Economy, Journal of Economic Dynamics and Control, vol. 33(3),
s. 725–744.
Suboptymalna równowaga rynkowa w małej gospodarce otwartej
83
Nielsen, S.B., Sorensen, P.B., 1991, Capital Income Taxation in a Growing Open Economy,
European Economic Review, vol. 35, iss. 1, s. 179–197.
Rebelo, S., 1992, Growth in Open Economies, Carnegie-Rochester Conference Series on Public
Policy, Elsevier, vol. 36(1), s. 5–46.
Romer, P.M., 1986, Increasing Returns and Long-run Growth, Journal of Political Economy,
vol. 94, s. 1002–1037.
Turnovsky, S.J., 2009, Capital Accumulation and Economic Growth in a Small Open Economy,
Cambridge University Press.
STUDIA OECONOMICA POSNANIENSIA
2013, vol. 1, no. 10 (259)
Henryk J. Runka
Uniwersytet Ekonomiczny w Poznaniu, Wydział Informatyki i Gospodarki
Elektronicznej, Katedra Ekonomii Matematycznej, [email protected]
PROBLEMY Z OGRANICZENIAMI
KWADRATOWYMI
I OPTYMALIZACJA NA STOŻKACH
Streszczenie: W artykule przedstawiamy problem z kwadratową funkcją celu i ograniczeniami kwadratowymi oraz jego transformacje w problem optymalizacji na stożku.
Transformując problem optymalizacji nieliniowej poprzez aproksymację funkcji nieliniowych za pomocą funkcji kwadratowych i funkcji liniowych, otrzymujemy nowe
problemy. Pierwszym z nich jest problem optymalizacji kwadratowej z ograniczeniami
kwadratowymi (i ewentualnie liniowymi), który można z kolei transformować w problem
optymalizacji na stożku. We wszystkich trzech przypadkach wymienionych problemów
możemy stosować algorytmy punktów wewnętrznych.
Słowa kluczowe: ograniczenia kwadratowe, problem optymalizacji kwadratowej, optymalizacja nieliniowa, optymalizacja na stożku, algorytmy prymalno-dualne punktów
wewnętrznych.
Klasyfikacja JEL: C61, C63.
QUADRATICALLY CONSTRAINED QUADRATIC PROBLEMS
AND CONE OPTIMIZATION
Abstract: In this paper the problem of quadratic objective functions and quadratic constraints is
presented, along with its transformation into a cone optimization problem. When transforming
a nonlinear optimization problem by approximating nonlinear functions by using the quadratic
and linear functions, new problems appear. The first is a quadratically constrained quadratic
optimization problem with quadratic constraints (and optionally, linear), which may in turn
be transformed into a cone optimization problem. In all three cases, these problems can be
solved using internal point algorithms.
Keywords: quadratic constrains, quadratic optimization problem, nonlinear optimization,
cone optimization, primal-dual interior point algorithms.
Problemy z ograniczeniami kwadratowymi i optymalizacja na stożkach
85
Wstęp
Rozwiązując instancje (zadania) problemu optymalizacji nieliniowej (problem
NLO), stosuje się wiele algorytmów, w których dokonuje się aproksymacji
funkcji nieliniowych funkcjami liniowymi (np. GRG), funkcji optymalizowanej funkcją kwadratową, a funkcje nieliniowe w ograniczeniach funkcjami
liniowymi (np. SQP) lub rozwiązuje się układ prymalno-dualny za pomocą
algorytmów punktów wewnętrznych (IPNLO). Tutaj rozważamy głównie
przypadek, gdy funkcja celu oraz funkcje nieliniowe w ograniczeniach są
funkcjami kwadratowymi (mogą być one aproksymacjami kwadratowymi
funkcji nieliniowych).
1. Problem optymalizacji kwadratowej z ograniczeniami
kwadratowymi
Problem optymalizacji kwadratowej z ograniczeniami kwadratowymi (QCQO
problem – Quadratically Constraint Quadratic Optimization problem) jest
definiowany następująco [Anstreicher 2004]:
1
min | max x TQ0 x c0T x d0 ,
2
przy ograniczeniach
1 T
x Qi x ciT x di d|t bi , i  I ,
2
1 T
x Qi x ciT x di bi , i  E ,
2
l d x d u,
(1)
gdzie:
I ‰ E
^1, }, m`, Qi  \nun , Qi
QiT i 0, }, m , b  \m bi  \ ,
ci  n, di  , x  n, l, u  n, Qi  0(min), Qi  0(max), i = 0, …, m,
przy czym ,  oznaczają odpowiednio dodatnią i ujemną półokreśloność
symetrycznej macierzy kwadratowej.
86
Henryk J. Runka
W szczególnym przypadku, gdy Qi  I, elipsoida przechodzi w kulę w n
przesuniętą ze względu na ciTx + di.
Ponieważ ograniczenia
1 T
x Qi x ciT x bi ,
2
i E
nie generują zbioru wypukłego, albowiem punkty dopuszczalne leżą tylko
na brzegu elipsoidy (kuli), więc QCQO jest formułowany również w wersji
z liniowymi ograniczeniami równościowymi [Boyd i Vandenberghe 2009,
s. 152], zastąpienie układu równań
1 T
x Qi x ciT x di
2
bi , i  E
układem afinicznym (układem równań liniowych, generującym zbiór wypukły, o ile nie jest sprzeczny), postaci
αiT x bi , αi  \n , bi  \, i  E , Ax b, A ªαiT º
,
¬ ¼i E
prowadzi do problemu
1
min | max x TQ0 x c0T x d0
2
przy ograniczeniach
1 T
x Qi x ciT x di d|t bi , i  I ,
2
αiT x bi , i  E ,
(2)
l j d x j d u j , j 1, }, n.
Problem NLO możemy transformować w problem QCQO, zastępując nieliniowe ograniczenia nierównościowe kwadratowymi ograniczeniami nierównościowymi, a równania nieliniowe równaniami liniowymi. W dalszej części
artykułu rozważamy przypadek minimalizacji funkcji celu.
Problemy z ograniczeniami kwadratowymi i optymalizacja na stożkach
87
Rozważmy problem optymalizacji nieliniowej postaci [Runka 2009, s. 205]:
min f (x)
przy ograniczeniach:
g i (x ) d 0, i 1, !, m
(3)
,
I
hi (x ) 0, i 1, !, m E ,
lj d x j d uj,
j 1, !, n,
które można zapisać równoważnie w postaci wektorowo-macierzowej:
g (x ) d 0,
h(x ) 0,
(4)
x l d 0,
x u d 0.
Stosując algorytmy punktów wewnętrznych, funkcję f (x) zastępuje się
funkcją barierową, która zawiera również zmienne swobodne postaci:
min Φ(x , y , v , w ; μ)
m
f (x ) μ
n
I
n
¦ ln( yi ) μ¦ ln( vj ) μ¦ ln( wj ),
i 1
j 1
μ \ .
(5)
j 1
Zmienne swobodne w (5) występują w ograniczeniach nierównościowych
i w ograniczeniach dolnych i górnych:
g i ( x ) yi
0, i 1, !, m
hi (x ) 0, i 1, !, m
Zatem y  \
m
I
E
I
,
,
x j v j l j
0 (x j v j
l j ),
xj wj uj
0 (x j w j
u j ),
, v , w  \n.
j 1, !, n,
j 1, !, n.
(6)
88
Henryk J. Runka
W przypadku problemu (3) funkcja Lagrange’a jest postaci
L x ; π , ρ, s l , s u
m
f (x ) m
I
¦
n
E
¦
πi gi ( x) i 1
ρi hi ( x) i 1
¦
n
s l j ( x j l j ) j 1
¦ s u j ( x j u j ), (7)
j 1
a jej gradient
’ x L x ; π, ρ, s l , s u
m
¦
’f ( x ) m
I
π i ’g i (x ) i 1
n
E
¦
ρi ’hi (x ) i 1
¦
n
s
l
j ej j 1
¦ s u jej .
(8)
j 1
Natomiast w problemach (5) i (6) przyjmie ona postać
L x , y , v , w ; π, ρ, s l , s u ; μ
Φ(x , y , v , w ; μ ) π T g (x ) y ρ Th(x ) s Tl ( x v l ) s Tu (x w u)
m
f (x ) μ
I
i 1
π
T
n
n
j 1
j 1
¦ ln( yi ) μ¦ ln( vj ) μ¦ ln( wj ) g (x ) y ρ
T
h(x ) s Tl
( x v l ) s Tu (x w u).
(9)
Jej gradient jest następujący:
’L x , y , v , w ; π, ρ, s l , s u ; μ
ª ’ L
« x
« «’ y L
«
« ’v L
«
«’ L
«¬ w
x , y , v , w ; π , ρ, s
x , y , v , w ; π , ρ, s
x , y , v , w ; π , ρ, s
x , y , v , w ; π , ρ, s
l
l
l
l
,s u ;μ º
»
»
,s u ;μ »
» , (9)
,s u ;μ »
»
,s u ;μ »
»¼
Problemy z ograniczeniami kwadratowymi i optymalizacja na stożkach
89
gdzie:
’ L x , y , v , w ; π , ρ , s
’ L x , y , v , w ; π , ρ , s
’ L x , y , v , w ; π , ρ , s
; μ
; μ
; μ
’ x L x , y , v , w ; π , ρ, s l , s u ; μ
y
l
,s u
v
l
,s
w
l
,s u
u
’f (x ) J Tg (x )π J Th (x )ρ s l s u ,
μY 1e π ,
μV 1e s l ,
μW 1e s u .
Zgodnie z warunkami optymalności pierwszego rzędu w punkcie
(x , y , v , w)  X u Y u V uW Ž R
3nm
I
mamy
’L x , y , v , w ; π , ρ, s l , s u ; μ
0.
(11)
Z (3)–(11) wynika następujący układ prymalno-dualny [Runka 2009, s. 218]:
g (x ) y
ª
«
h(x )
«
«
v
x
«
w
x
«
« J T (x )π J T ( x) ρ
s l s u
h
« g
«
YΠe
«
VS l e
«
«
WS u e
«¬
º
»
»
»
»
»
»
»
»
»
»
»
»¼
0
ª
º
«
»
0
«
»
« l »
«
»
u
«
»
« ’ f (x )» , (12)
« x
»
« μe »
« μe »
«
»
«¬ μe »¼
gdzie:
Y
diag( y ), V
Sl
diag(v ), W
diag s l , S u
diag(w ), Π diag( π),
diag s u .
90
Henryk J. Runka
Ze względu na ograniczenia nieliniowe w (12) przekształca go się w następujący układ Newtona (aproksymacja liniowa):
k
k
F ξ 'ξ | F ξ J
gdzie:
ξ (k )
ξ 'ξ,
k
F
(13)
T
ª x (k ) y (k ) v (k ) w (k ) π (k ) ρ(k ) s(k ) s(k ) º (rozwiązanie w k-tej itel
u »
«¬
¼
racji),
T
ª 'x 'y 'v 'w 'π 'ρ 's 's º (kierunek zmiany rozwiązania),
l
u ¼
¬
(k )
– funkcja wektorowa,
F ξ
'ξ
J ξ – macierz Jacobianu funkcji wektorowej F ξ .
(k )
(k )
F
Zmianę rozwiązania otrzymujemy, rozwiązując iteracyjnie układ równań
liniowych
J
ξ 'ξ
(k )
F
F ξ ( k ) ,
(14)
gdzie:
F ξ (k )
ª
º
g x (k ) y (k )
«
»
(k )
«
»
h x
«
»
«
»
(k )
(k )
l x v
«
»
«
»
u x (k ) w (k )
«
» , (15)
«’ f ( x ) J T x ( k ) π ( k ) J T x ( k ) ρ ( k ) s ( k ) s ( k ) »
g
h
l
u »
« x
«
»
μe Y(k )π (k )
«
»
(k )
«
»
μe V(k )s l
«
»
(k )
«
»
μe W(k )s u
¬«
¼»
91
Problemy z ograniczeniami kwadratowymi i optymalizacja na stożkach
ξ (k )
ª
«
«
«
«
«
«
« T
(k )
«J g x
«
« Y(k )
«
«
«
¬
J
h
I
(k )
I
I
’2xx L
J Th x (k )
Π(k )
S l (k )
S u (k )
T º
ª
(k )
’
g
x
1
«
»
«
», J
«
»
T
«
(k ) »
«¬’g m1 x
»¼
x (k )
g
g
I
I
J
x x (k )
J
x (k )
h
m
π i ’2xx g
i 1
Y(k )
diag y (k ) , Π (k )
diag π (k ) , S
l (k )
m
I
¦
f x
(k )
E
¦ ρ ’ h x ,
x
(k )
i
{J
g
x ,
(k )
g
J
h
diag s (lk ) , S
(k )
diag s (uk ) .
u (k )
{J
x ,
(k )
h
’ x L { ’ x L x (k ), y (k ), v (k ), w (k ); π (k ), ρ(k ), s(lk ), s(uk ); μk
oraz ’2xx L jak wyżej.
2
xx
i 1
Dla uproszczenia notacji przyjmujemy, że:
J
(16)
T º
ª
(k )
’
h
x
1
«
»
«
»,
«
»
T
«
(k ) »
«¬’hm2 x
»¼
’2xx L { ’2xx L x (k ), y (k ), v (k ), w (k ); π (k ), ρ (k ), s (lk ), s (uk ); μk
’2xx
º
»
»
»
»
»
»
»,
I I »
»
»
»
V(k )
»
W(k ) »
¼
!
F
!
J
92
Henryk J. Runka
Korzystając z (13)–(16), rozwiązujemy iteracyjnie układ
ª
«
«
«
«
«
«
« J Tg
«
«Y(k )
«
«
«
¬
J
g
J
h
I
I
I
I
J Th
I
’2xx L
I
Π( k )
S l (k )
V(k )
S u (k )
º ª 'π º
»«
» « 'ρ »»
»«
» « 'x »»
» « 'y »
»
I » «« 'v »»
» « 'w »
»«
» « 's l »»
»«
»
W(k ) » ¬ 's u ¼
¼
ª g x (k ) y (k ) º
«
»
(k )
«
»
h x
«
»
«
(k )
(k ) »
« l x v
»
« u x (k ) w (k ) »
» . (17)
«
«
»
’ x L
«
»
(k )
« Y(k )π μk e »
«
»
(k )
« V(k ) s l μke »
«
»
(k )
« W(k ) s u μk e »
¬
¼
Układ (17) jest już układem ograniczeń liniowych. Kolejne rozwiązania otrzymujemy, wyznaczając
ξ (k 1) ξ (k ) 'ξ .
Praktycznie proces wyznaczania zmiany rozwiązania (12) na podstawie (17)
jest bardziej skomplikowany [Nocedal i Wright 2006, s. 564–594; Runka 2011,
s. 194–200].
Niezależnie od metody rozwiązywania układu (17), zmiana rozwiązania
układu (12) jest następująca:
93
Problemy z ograniczeniami kwadratowymi i optymalizacja na stożkach
ª x (k 1) y (k 1) v (k 1) w (k 1) π (k 1) ρ(k 1) s(k 1) s(k 1) º
l
u ¼
»
¬«
T
T
ª x (k ) y (k ) v (k ) w (k ) π (k ) ρ (k ) s (k ) s (k ) º l
u »
«¬
¼
(18)
T
αk ª 'x 'y 'v 'w 'π 'ρ 's l 's u º ,
¬
¼
gdzie αk jest długością kroku. Szczegóły związane z wyznaczeniem długości
kroku zawierają prace: [Nocedal i Wright 2006, s. 564–594; Runka 2011,
s. 194–200].
W przypadku ograniczeń kwadratowych (nierówności) i liniowych (równania) układ prymalno-dualny na podstawie (12) przyjmie następującą postać:
1 T
ª
x Q1x c1T x
«
2
«
#
«
«
1 T
x QK x cKT x
«
2
«
AE x
«
«
x
«
«
x
«
T
«ª¬Q1x c1 !QK x cK º¼π A E ρ
«
«
«
«
«
«¬
y1
yK
v
w
s l
YΠe
VS l e
WS u e
s u
º
»
»
»
»
»
»
»
»
»
»
»
»
»
»
»
»
»
»¼
ª b1 d1 º
«
»
#
«
»
« bK dK »
«
»
« bE
»
«
»
l
«
»,
«
»
u
«
»
Q
x
c
0»
« 0
«
»
μe
«
»
μe
«
»
«
»
μe
¬
¼
w którym (w porównaniu z układem (17)):
(19)
94
Henryk J. Runka
J
g
ª Q x (k ) c º
1
« 1
»
#
«
», J
«
»
(k )
¬«QK x cK ¼»
h
A E , ’2xx L Q0 , ’ x L Q0 x (k ) c0 .
Otrzymujemy znacznie prostszy układ do rozwiązywania w kolejnych iteracjach.
W przypadku problemu optymalizacji kwadratowej odpowiednik układu
(19) jest przedstawiony w pracy Runki [2006, s. 227].
Przykład
W poniższym przykładzie przedstawiamy translację zapisu matematycznego
zadania optymalizacji nieliniowej na zapis w języku modelowania, opracowanego przez SAS Institute Inc., który umożliwia również formułowanie
modeli, co wymaga czytania danych z plików zapisanych w formacie wymaganym przez procedury oprogramowania SAS. Tutaj operujemy tylko zadaniami. W celu pokazania postaci zadania z ograniczeniami kwadratowymi
i liniowymi, które otrzymujemy poprzez aproksymacje funkcji nieliniowych
wyjściowego zadania funkcjami kwadratowymi, wyznacza się punkt startowy
za pomocą procedury model (proc model), której głównym zastosowaniem
jest szacowanie modeli ekonometrycznych, ale można również rozwiązywać
układy równań nieliniowych. Następnie wykorzystano procedurę IML (proc
IML) dla wyznaczenie gradientów i hesjanów funkcji nieliniowych, co pozwoliło sformułować zadanie problemu QCQO.
Rozważmy następujące zadanie optymalizacji nieliniowej
min f (x )
1,5x12 0,5x24 0,25e 3 x3 6 x1x2 8 x1x3 4 x2 x3 58 x1 92 x2 75x3
przy ograniczeniach:
0,25x14 0,5x22 0,125x32 d 408,
0,125e 2 x1 0,5x24 2 x32 d 15100,
2 x1 4 x2 5x3 d 96,
6 x1 5x3 t 56,
3,5 d x1 d 20, 4,5 d x2 d 16, 2 d x3 d 18.
Problemy z ograniczeniami kwadratowymi i optymalizacja na stożkach
95
W notacji języka modelowania stosowanego przez SAS proc optmodel [SAS/
OR 2011, s. 23–166], zapis tego zadania jest następujący:
proc optmodel;
number l{1..3} = [3.5 4.5 2.0];
number u{1..3} = [20 16 18.0];
var x{j in 1..3} >= l[j] <= u[j];
minimize fobj= 1.5*x[1]^2 + 0.5*x[2]^4 + 0.25 *
exp(3*x[3]) - 6 * x[1] * x[2] - 8* x[1] * x[3] - 4 * x[2]
* x[3] - 58*x[1] - 92*x[2] - 75*x[3];
con c1: 0.25 * x[1]^4 + 0.5 * x[2]^2 + 0.125*x[3]^2 <= 408;
con c2: 0.125 * exp(2*x[1]) + 0.5 * x[2]** 4 + 2 * x[3]**2
<= 15100;
con c3: 2*x[1] + 4*x[2] + 5*x[3] <= 96;
con c4: 6.0 * x[1] + 5 * x[3] >= 56;
… następne polecenia …
Wyznaczono rozwiązania dla przykładowych układów tzw. ograniczeń
aktywnych, wykorzystując procedurę SAS proc model [SAS/ETS 2011, s. 1079
i n.], rozwiązując odpowiadające im układy równań nieliniowych.
Plik zawierający tzw. punkt startowy, wykorzystywany przez proc model
jest następujący:
data G1_2_3_4_QCQO_IN;
input x1 x2 x3;
datalines;
3.61 4.51 2.4
;
run;
W poniższym kodzie proc model przez SATISFY określa się ograniczenia,
które mają być spełnione z równością.
proc model data = G1_2_3_4_QCQO_IN;
eq.g1 = 0.25 * x1**4 + 0.5 * x2**2 + 0.125*x3**2 - 408;
eq.g2 = 0.125 * exp(2*x1) + 0.5 * x2** 4 + 2 * x3**2 15100;
eq.g3 = 2*x1 + 4*x2 + 5*x3 - 96;
eq.g4 = 6.0 * x1 + 5 * x3 - 56;
eq.g5 = x2 - 4.5;
solve x1 x2 x3 SATISFY=(g1 g2 g3) / solveprint out=G1_2_3_
QCQO_SOLUT;
solve x1 x2 x3 SATISFY=(g2 g3 g4) / solveprint out=G2_3_4_
QCQO_SOLUT;
solve x1 x2 x3 SATISFY=(g1 g2 g4) / solveprint out=G1_2_4_
QCQO_SOLUT;
solve x1 x2 x3 SATISFY=(g3 g4 g5) / solveprint out=G3_4_5_
QCQO_SOLUT;
96
Henryk J. Runka
solve x1 x2 x3 SATISFY=(g2 g3 g5) / solveprint out=G2_3_5_
QCQO_SOLUT;
solve x1 x2 x3 SATISFY=(g2 g4 g5) / solveprint out=G2_4_5_
QCQO_SOLUT;
run;
Wybrano punkt, w którym drugie i trzecie ograniczenia są spełnione
z równością oraz ograniczenie dolne jest postaci x2 = 4,5. Fragment raportu
z proc model jest następujący:
Procedura MODEL
Simultaneous Simulation
Obserwacja1Iteracje7CC0.000000eq.g2-0.000000
Solution Values
x1
x2
x3
5.83215 4.50000 13.26714
Residual Values
x1
x2
x3
-2.22215 0.01000 -10.86714
Procedura MODEL
Simultaneous Simulation
Opcje zbioru
DATA=G1_2_3_4_QCQO_IN
OUT= G2_3_5_QCQO_SOLUT
Podsumowanie rozwiązania
Variables Solved
3
Implicit Equations
3
Solution Method
NEWTON
CONVERGE=
1E-8
Maximum CC
7.28E-12
Maksymalna liczba iteracji
7
Total Iterations
7
Average Iterations
7
Przetworzone
obserwacje
Read
Solved
1
1
Variables Solved Forx1 x2 x3
Equations Solved g2 g3 g5
Problemy z ograniczeniami kwadratowymi i optymalizacja na stożkach
97
Wyznaczone rozwiązanie: x1 = 5,83215, x2 4,5, x3 = 13,26714. Ten punkt
wybrano na zasadzie „zdrowego rozsądku”, który może być względnie blisko
punktu optymalnego.
Parametry dla zadania optymalizacji kwadratowej z ograniczeniami kwadratowymi wyliczono za pomocą procedury SAS proc iml [SAS/IML 2009 ],
następująco:
title ‘IML - g2 g3 g5’;
proc IML;
use work.G2_3_5_QCQO_SOLUT;
read point 1 var {x1 x2 x3} into x;
constr_arr = (0.25 * x[1]**4 + 0.5 * x[2]**2 +
0.125*x[3]**2 - 408) // (0.125 * exp(2*x[1]) + 0.5 *
x[2]** 4 + 2 * x[3]**2 - 15100) //
(2*x[1] + 4*x[2] + 5*x[3] - 96 ) // (6.0 * x[1] + 5 *
x[3] - 56) // (x[2] - 4.5);
print , constr_arr;
grad_f = (3 * x[1] - 6*x[2] - 8* x[3] - 58) // (2 *
x[2]**3 - 6*x[1] - 4*x[3] - 92) // (0.75 * exp(3*x[3]) 8*x[1] - 4*x[2] - 75);
* g3, g4, g5 ;
JC = (0.5*exp(2*x[1]) || (2*x[2]**3) || (4*x[3]) ) // ((2) || (-4) || (-5)) // ((0) || (-1) || (0));
grad_g1 = (1*x[1]**3) //(1*x[2]) // (0.5*x[3]) ;
grad_g2 = (0.5*exp(2*x[1]) )//(2*x[2]**3) //(4*x[3]);
grad_g3 = (-2) // (-4) // (-5);
grad_g4 = (6) // (0) // (5);
grad_g5 = (0) // (-1) // (0);
Lmult = -inv(JC`) * grad_f;
print , “g2 & g3 & g5”;
print , x;
print , lmult;
print , “Trans of Jacobian Matrix”;
print , (JC`);
print , grad_g1;
print , grad_g2;
print , grad_g3;
print , grad_g4;
print , grad_g5;
print , grad_f;
print , x;
fobj= 1.5*x[1]**2 + 0.5*x[2]**4 + 0.25 * exp(3*x[3]) - 6 *
x[1] * x[2] - 8* x[1] * x[3] - 4 * x[2] * x[3] - 58*x[1] 92*x[2] - 75*x[3];
98
Henryk J. Runka
print fobj;
Mult_nams={ “Lmult2” “Lmult3” “Lmult5” };
create G2_3_5_QCQO_Lmult from Lmult [colname = Mult_nams];
append from Lmult;
close G2_3_5_QCQO_Lmult;
close work.G2_3_5_QCQO_SOLUT;
Hessian_f= ((3) || (-6) || (-8)) // ((-6) || 6*x[2]**2 ||
(-4)) // ((-8) || (-4) || 2.25*exp(3*x[3]) );
Hessian_g1 = (3*x[1] || (0) || (0)) // ((0) || (1) || (0))
// ((0) || (0) || (0.5));
Hessian_g2 = (1.0*exp(2*x[1]) || (0) || (0)) // ((0) || 6*
x[2]**2 || (0)) // ((0) || (0) || (4));
print ,Hessian_f;
print ,Hessian_g1;
print ,Hessian_g2;
call eigen(Lambda, P, Hessian_f);
print ,Lambda;
print, P;
quit;
Za pomocą tej procedury wyznaczono gradienty i hesjany dla funkcji nieliniowych oraz sprawdzono dopuszczalność rozwiązania (contr_arr), poniżej:
constr_arr
-86.63507
-7.28E-12
0
45.328604
0
Ograniczenia: drugie, trzecie i piąte są spełnione „prawie” z równością,
a pierwsze i czwarte ze ścisłą nierównością. Gradienty są następujące (oznaczone grad_g1 – grad_g5):
grad_g1
grad_g2
198.3747
4.5
6.6335698
58171.739
182.25
53.068558
grad_g3
grad_g4
grad_g5
-2
-4
-5
6
0
5
0
-1
0
Gradient funkcji celu jest
grad_f
-173.6407
2.1885354
1.4474E17
Problemy z ograniczeniami kwadratowymi i optymalizacja na stożkach
99
Hesjany funkcji nieliniowych:
Hessian_f
3 -6
-8
-6 121.5
-4
-8 -4 4.3423E17
Hessian_g1
17.496453
0
0
0 0
1 0
0 0.5
Hessian_g2
116343.48
0 0
0 121.5 0
0
0 4
Na podstawie powyższych danych rozwiązujemy zadanie z ograniczeniami
kwadratowymi, stosując procedurę optmodel (proc optmodel).
title ‘QCQO Problem’;
proc optmodel;
number l{1..3} = [3.5 4.5 2.0];
number u{1..3} = [20 16 18.0];
var x{j in 1..3} >= l[j] <= u[j];
minimize fobj= 3*x[1]^2 + 121.5*x[2]^2 + 4.3423e1 *x[3]^2
- 12 * x[1] * x[2] - 16 * x[1] * x[3] - 8 * x[2] * x[3] 173.6407*x[1] + 2.1885354*x[2] + 1.4474e17*x[3];
con c1: 17.496453* x[1]^2 + 1.0 * x[2]^2 + 0.5*x[3]^2 <=
408;
con c2: 116.343 *x[1]^2 + 121.5 * x[2]^2 + 4 * x[3]^2 <=
15100;
con c3: 2*x[1] + 4*x[2] + 5*x[3] <= 96;
con c4: 6.0 * x[1] + 5 * x[3] >= 56;
/* Staring point x1 = 7, x2 = 5, x3 = 7 */
x[1] = 6.7; x[2] = 4; x[3] = 1.5;
SOLVE obj fobj with ipnlp / maxiter=2000;
print x 18.4;
print c1.dual 18.4 c2.dual 18.4 c3.dual 18.4 c4.dual 18.4;
print x.dual 18.4;
print fobj 18.4;
quit;
Otrzymano rozwiązanie (fragment raportu z proc optmodel):
QCQO Problem
The OPTMODEL Procedure
Podsumowanie rozwiązania
Solver
IPNLP/IPQN
Objective Function
fobj
Solution Status
Optimal
Objective Value 8.2055437E17
Iterations
138
Infeasibility
Optimality Error
8.5345601E-9
9.0532093E-7
100
Henryk J. Runka
[1]
x
1 4.6090
2 4.5000
3 5.6692
c1.DUAL
c2.DUAL c3.DUAL
c4.DUAL
-1124336466717570-11409.9256 -0.003830222808885300692
[1]
x.DUAL
1
3197266.3754
2 10119028212925762
3
53801166.6453
fobj
820554367232925184
Otrzymano wartości zmiennych: x1 = 4,6090, x2 = 4,5, x3 = 5,6692. Należy zauważyć, że określając punkt startowy w powyższym kodzie, przyjęto
x3 = 1,5 < 2, które jest dolnym ograniczeniem dla tej zmiennej. Stosując algorytm punktów wewnętrznych, można startować od dowolnego niedopuszczalnego rozwiązania. Nie jest jednak zalecane, ażeby początkowe wartości
zmiennych „zbyt daleko” odbiegały od wartości dopuszczalnych, bo może to
„istotnie” wydłużyć proces obliczeniowy. Tutaj rozwiązując zadanie z ograniczeniami kwadratowymi, zastosowano w proc model algorytm punktów
wewnętrznych optymalizacji nieliniowej.
W przedstawionym przykładzie zaprezentowano wykonanie tylko początkowych kroków w celu pokazania przejścia od zadania problemu NLO
do zadania problemu QCQO, wykorzystując procedury oprogramowania
SAS Institute Inc.
Podstawowym utrudnieniem w stosowaniu aproksymacji kwadratowych
dla funkcji nieliniowych jest wyznaczanie hesjanów i gradientów. Można je
wyznaczać numerycznie [Nocedal i Wright 2006, s. 193–217] lub analitycznie,
co wymaga napisania odpowiedniego oprogramowania, w którym wyznaczy
się formuły analityczne do wyliczenia wartości elementów wektora gradientu
i macierzy hesjanu.
Zamiast rozwiązywania zadań optymalizacji nieliniowej z ograniczeniami
kwadratowymi i liniowymi można dokonać jego transformacji do zadania
problemu SOC (second-order cone). W języku angielskim często używa się
SOCP problem (second-order cone program). Tutaj będziemy stosować SOCO
(second-order cone optimization) problem.
Problemy z ograniczeniami kwadratowymi i optymalizacja na stożkach
101
2. Optymalizacja na stożku
Problem SOCO (second-order cone optimization) jest zdefiniowany następująco (por. [Lobo i in. 1998, s. 194]):
min f Tx
przy ograniczeniach
(20)
Ai x bi d ciT x di , i 1, !, K ,
gdzie:
Fx g ,
l d x d u,
f  \n , Ai  \(ni 1)un , bi  \ni 1 , ci  \n , di  \, F  \
n
E
un
, g \
nE
,
l , u  \n , u ! l , x  \n , ˜ { ˜ 2 ,
przy czym Ai x bi d ciT x di jest ograniczeniem na stożku drugiego rzędu
wymiaru ni.
Jednostkowy stożek drugiego rzędu o wymiarze k zdefiniowany jest jako
°­ ªv º
°½
k 1
® « » : v  \ , t  \, v d t ¾
°¿
¯° ¬ t ¼
i nazywany jest [Labo i in. 1998, s. 104] stożkiem: kwadratowym, ice-cream
lub Lorentza. Jego prezentcję w przypadku k = 2 zawiera poniższy rysunek.
v
2
v2
v
t
t
v
v
Stożek Lorentza dla k = 2. Wyznaczamy t t v
2
Bazaraa, Sherali i Shetty [2006, s. 62 i n.] przedstawili inne typy stożków.
102
Henryk J. Runka
W przypadku problemu optymalizacji kwadratowej (QO) [Lobo i in. 1998,
s. 197] postaci
min f TQx + 2cTx + d
przy ograniczeniach
αiT x d bi , i 1, !, p,
l j d x j d u j , j 1, }, n,
(21)
gdzie Q  0, QT = Q,
chcąc przekształcić go w problem SOCO, wprowadza się podstawienie
v
1
1
2
Q x Q 2 c.
(22)
w którym:
1·
§ 1
V u diag ¨ λ12 , }, λ2n ¸ uV T,
¨
¸
©
¹
gdzie V, λ : Q = V × diag(λ1, …, λn) × VT, zatem V jest macierzą wektorów własnych, a λi (i = 1, …, n) są wartościami własnymi macierzy Q,
1
1·
§ 1
• Q 2 V u diag ¨ λ12 , }, λ2n ¸ uV T,
¨
¸
©
¹
gdzie V, λ : Q–1 = V × diag(λ1, …, λn) × VT i, podobnie jak wyżej,
V jest macierzą wektorów własnych, a λi (i = 1, …, n) są wartościami
własnymi macierzy Q–1.
Mamy wówczas:
1
• Q2
1
v Tv
1
1
1
1
1
x TQ 2 Q 2 x 2 x TQ 2 Q 2 c c TQ 2 Q 2 c
x TQx 2x Tc c TQ 1c. (23)
Funkcja f (x) = xTQx + 2cTx + d w (21) ma rozwiązanie optymalne bez ograniczeń xopt Q 1c, wyznaczone z warunków optymalności pierwszego rzędu:
x f (x) = 2Qx + 2c = 0  Qx + c = 0,
a jej wartość optymalna
f (xopt ) (1)c TQ 1Q(1)Q 1c 2(1)c TQ 1c d
c TQ 1c 2c TQ 1c d
c TQ 1c d.
Zatem, pomijając powyżej stałą d, zachodzi: v Tv x TQx 2 x Tc f (x opt ) .
Ponieważ f (x opt ) d f (x ), x : Ax ≤ b, l ≤ x ≤ u w (21), zatem vTv ≥ 0.
Problemy z ograniczeniami kwadratowymi i optymalizacja na stożkach
103
Przyjmując w (20) ciT = 0, i = 1, …, K, otrzymujemy problem SOCO postaci:
min t
przy ograniczeniach
1
1
2
Q x Q 2c
d t,
2
Ax ≤ b,
l ≤ x ≤ u,
lub w ogólniejszym zapisie, korzystając z (21) i (22):
min t
przy ograniczeniach
1
1
2
Q x Q 2 c,
v
Ax d b,
l d x d u,
(t ; v ) ;^ 0,
gdzie (t ; v ) ;
^ 0 œ v 2 d t i t wyraża minimalną odległość, wyrażoną za pomocą normy, pomiędzy rozwiązaniem względem zmiennych x a rozwiązaniem
optymalnym bez ograniczeń xopt Q 1c.
Korzystając z przekształcenia problemu QO w problem SOCO, ogólniejszy
problem QCQO postaci
min x TQ0 x 2 x Tc0 d0
przy ograniczeniach:
x TQi x x Tci di d bi , i  I lub x TQi x x Tci di bi d 0, i  I ,
αiT x bi , i  E ,
l j d x j d u j , j 1, }, n,
można (po podstawieniu di
min t
przy ograniczeniach
1
1
2
Q0 x Q0 2 c0
di bi) przetransformować w SOCO:
d t,
(25)
2
1
1
2
2
Qi x Qi ci
d ciTQi1ci di
2
αiT x
(24)
bi , i  E ,
1
2,
i I ,
104
Henryk J. Runka
Zgodnie z (23), przekształcając w (25)
1
1
2
Qi x Qi 2 ci
d
ciTQi1ci
di
1
2
2
w
1
1
Qi2 x Qi 2 ci
2
d ciTQi1ci di ,
2
wyrażenie cTQ–1c występuje po lewej i prawej stronie (co oznacza, że może
być wyeliminowane), więc otrzymamy ograniczenia zgodne z (2) postaci
x TQi x 2 x Tci di d 0 x TQi x 2 x Tci di d bi .
W przypadku funkcji kwadratowej
1 T
x Qx x Tc d,
2
stosujemy podstawienie
1
v
1
1 2
1 Q x Q 2 c.
2
2
Wówczas
1
T
v v
1
1
1
1
1
1 T 2 2 1
1
1
1
1
2 x TQ 2 Q 2 c
c TQ 2 Q 2 c
x Q Q x
2
2
2
2
2
2
1 T
1
x Qx x Tc c TQ 1c.
2
2
Teraz (pominąwszy stałą d) zachodzi
1
f (xopt ) (1) c TQ 1Q(1)Q 1c (1)c TQ 1c
2
1 T 1
1
c Q c c TQ 1c c TQ 1c,
2
2
skąd
v Tv
1 T
x Qx x Tc f (xopt ) t 0.
2
Problemy z ograniczeniami kwadratowymi i optymalizacja na stożkach
105
Podobnie jak przy rozwiązywaniu instancji problemu QCQO, również rozwiązując instancje SOCO oprogramowanie nie jest powszechnie dostępne.
Głównymi producentami tego typu oprogramowania są przykładowo: IBM
CPLEX, MatLab, Mosek, OpenOpt.
Innym problemem wywodzącym się z ekonometrii jest problem estymacji A1 parametrów nieliniowych modeli. Stosując aproksymacje kwadratowe
nieliniowych funkcji [Runka 2011, s. 148 i n.]:
min eTr+ + eTr–
przy ograniczeniach:
’ β Φ xiT ; βk
T
'β 'βT’2ββ Φ xiT ; βk 'β ri ri
y i ,
ri , ri t 0, i 1, }, n,
(26)
gdzie :
Φ x
r , r  \n , '⠏ \m1 , ’ β Φ xiT ; βk  \m1 ,
’2ββ
T
i ; βk
\
(m1)u(m1)
,
możemy przekształcić go w problem SOCO
n
min
¦ ti
i 1
przy ograniczeniach:
2
1 T 2
§
·
T
T
¨ ’ βΦ(xi ; βk )Δβ 2 Δβ ’ ββΦ( xi ; βk )Δβ y i ¸ d ti , i 1, }, n,
©
¹
ti t 0, i 1, }, n,
gdzie :
y i
yi Φ(xiT ; β k ), y
(27)
y Φ(X ; β k ), y  \n .
W (27) ograniczenia są stożkami jednostkowymi, jak na rys. 1, zgodnie z który1
2
Φ(x iT; βk ) 'β y i,
mi dla skalarnych wartości vi ’β Φ(x Ti ; β k )'β 'β T’ββ
2
v .
zachodzi v
i 2
i
Zatem stosując estymację A1 parametrów nieliniowych modeli, możemy
rozwiązywać instancje problemu (27), zamiast instancji problemu (26).
Stosując transformacje do problemu SOCO, napotykamy takie same utrudnienia jak w problemie QCQO, a mianowicie – jak wyznaczać gradient i hesjan.
106
Henryk J. Runka
Podsumowanie
Dla rozwiązywania instancji (zadań) problemu optymalizacji nieliniowej,
wykorzystuje się zarówno solwery zawierające implementacje wielu algorytmów stosowanych od dziesiątek lat, jak i nowsze, jak na przykład algorytmu
punktów wewnętrznych rozwiązywania zadań optymalizacji kwadratowej
i nieliniowej. Poszukiwanie alternatywnych koncepcji algorytmów oraz specyfika zagadnień praktycznych spowodowały pojawienie się problemów QCQO
i SOCO. Innym podejściem jest transformacja problemu QCQO w problem
SDP (Semidefinite Programming) [Anstreicher 2004], do którego można
również transformować problem QCQO.
Bibliografia
Anstreicher, K.M., 2004, SDP versus RLT for Nonconvex QCQP, Workshop on Integer Programming and Continuous Optimization, Chemnitz.
Bazaraa, M.S., Sherali, H.D., Shetty, C.M., 2006, Nonlinear Programming. Theory and Algorithms,
J. Wiley & Sons, 3rd ed.
Boyd, S., Vandenberghe, L., 2009, Convex Optimization, Cambridge University Press.
Lobo, M.S., Vandenberghe, L., Boyd, S., Lebret, H., 1998, Applications of Second-Order Cone
Programming, Linear Algebra and its Applications.
Nocedal, J., Wright, S.J., 2006, Numerical Optimization, Springer (Series in Operations Research).
Runka, H.J., 2006, Ograniczenia na zmienne w algorytmach punktów wewnętrznych, w: Panek, E.
(red.), Matematyka w ekonomii, Wydawnictwo Akademii Ekonomicznej w Poznaniu,
Poznań.
Runka, H.J., 2009, Interior Points in Nonlinear Optimization with Bounds on Variables, w: Panek, E. (red.), Mathematics in Economics, red. nauk. E. Panek, Wydawnictwo Uniwersytetu
Ekonomicznego w Poznaniu, Poznań.
Runka, H.J., 2012, Metody punktów wewnętrznych w estymacji parametrów modeli ekonometrycznych, w: Panek, E. (red.), Matematyka i informatyka na usługach ekonomii. Modelowanie zjawisk gospodarczych. Elementy teorii, Wydawnictwo Uniwersytetu Ekonomicznego
w Poznaniu, Poznań.
SAS/ETS ® 9.3, User’s Guide, 2011, SAS Publishing.
SAS/IML ® 9.3, User’s Guide, 2011, SAS Publishing.
SAS/OR ® 9.3, User’s Guide: Mathematical Programming, 2011, SAS Publishing.
STUDIA OECONOMICA POSNANIENSIA
2013, vol. 1, no. 10 (259)
Karolina Siemaszkiewicz
Uniwersytet Ekonomiczny w Poznaniu, Wydział Informatyki i Gospodarki
Elektronicznej, Katedra Matematyki Stosowanej
[email protected]
TEORIA WARTOŚCI EKSTREMALNYCH –
ZASTOSOWANIE DO SEKTORA
SUROWCÓW ENERGETYCZNYCH
Streszczenie: Rynek surowców energetycznych jest bardzo ważną gałęzią gospodarki.
Podstawowym źródłem energii dla transportu oraz elektrowni jest ropa naftowa, natomiast gaz ziemny wykorzystywany jest w przemyśle, produkcji energii elektrycznej
i w gospodarstwach domowych. Ponieważ są to bardzo istotne surowce w gospodarce, więc
ważnym zadaniem jest zarządzanie ryzykiem niekorzystnych wahań cen wspomnianych
paliw energetycznych. Jednym z często stosowanych narzędzi usprawniających proces
zarządzania ryzykiem przed wystąpieniem niekorzystnych zmian jest wartość zagrożona
(VaR – Value at Risk). Wartość zagrożona jest powszechnie stosowaną miarą ryzyka na
rynkach finansowych. Niedoszacowanie i przeszacowanie wartości zagrożonej jest bardzo
niekorzystne. Jeżeli niedoszacujemy tę miarę, to możemy narazić się na utratę płynności. Przeszacowanie zaś uniemożliwia wykorzystanie w optymalny sposób całkowitych
środków przeznaczonych na inwestycje. Dlatego istotnym zadaniem jest prawidłowe
oszacowanie wartości zagrożonej. Jedną z teorii, która może służyć oszacowaniu wartości
zagrożonej jest teoria wartości ekstremalnych.
Słowa kluczowe: Extreme Value Theory, zarządzanie ryzykiem, wartość zagrożona, warunkowa wartość zagrożona, surowce energetyczne.
Klasyfikacja JEL: C13, C51.
EXTREME VALUE THEORY – ITS APPLICATION TO ENERGY
MARKETS
Abstract: The energy market is a very important sector of the economy. Oil is the primary source
of energy for transportation and power, with natural gas being used in industry, electricity
production and in households. Since this is a very important raw material in the economy it is
therefore an important task to manage the risk of adverse fluctuations in the prices of these fuels.
108
Karolina Siemaszkiewicz
One of the frequently used tools for safeguarding the risk management process against adverse
changes is value at risk (VaR). Due the volatility of energy markets, implementing an effective
risk management system becomes an urgent necessity. The VaR methodology as a measure of
market risk has gained rapid acceptance and popularity by both institutions and regulators.
Moreover, Extreme Value Theory has been successfully applied in many fields where extreme
values may appear. In this paper Extreme Value Theory models are compared to conventional
models such as Historical Simulation. Our results indicate that Extreme Value Theory offers
a better estimation of Value at Risk than traditional methods.
Keywords: Extreme Value Theory, risk management, value at risk, conditional value at risk,
energy resources.
Wstęp
Rynek surowców energetycznych jest bardzo istotny dla gospodarki. Ropa
naftowa to podstawowe źródło energii dla transportu, elektrowni. Gaz ziemny
natomiast ma zastosowanie w przemyśle, produkcji energii elektrycznej jak
i w gospodarstwach domowych. Zmiany cen ropy naftowej i gazu ziemnego
mają istotny wpływ nie tylko na podaż i popyt tych surowców, ale też na
inne gałęzie gospodarki. Silne wahania cen ropy mogą być spowodowane
przez wiele czynników. Na cenę ropy naftowej mogą mieć wpływ: polityka
prowadzona przez OPEC (Organization of Petroleum Exporting Countries –
Organizacja Krajów Eksportujących Ropę), wojny i konflikty polityczne na
Środkowym Wschodzie, zakłócenia w dostawach spowodowane katastrofami
naturalnymi, jej dostępność oraz rezerwy. Również wzrost gospodarczy może
się przyczyniać do zwiększenia popytu na ropę, a w konsekwencji do wzrostu
cen ropy. Ceny gazu są kształtowane przez poziom rezerw i wielkość produkcji
krajowej [Schofield 2007].
W zawiązku z licznymi, nieprzewidywalnymi czynnikami znaczne mogą
być wahania cen ropy, gazu oraz paliwa. Bardzo ważnym zadaniem jest więc
modelowanie zmian cen ropy, energii elektrycznej, gazu oraz poszukiwanie
bardziej efektywnych narzędzi do skutecznego zarządzania niekorzystnymi
wahaniami cen surowców energetycznych.
Jedną z powszechnie stosowanych miar wspomagającą zarządzanie ryzykiem przed wystąpieniem niekorzystnych warunków jest wartość zagrożona
(VaR – Value at Risk). Wartość zagrożona jest najbardziej popularną miarą
ryzyka na rynkach finansowych. Najprościej ujmując, odpowiada na pytanie,
ile możemy stracić z określonym prawdopodobieństwem w danym okresie
[Jorion 1997].
Teoria wartości ekstremalnych – zastosowanie do sektora surowców energetycznych
109
Istniejące podejścia do wyznaczania wartości zagrożonej możemy podzielić
na trzy grupy. Pierwsza to metody nieparametryczne, takie jak historyczna
symulacja. W niniejszym artykule będziemy ją nazywać podejściem klasycznym. Druga grupa to metody opierające się na modelach ekonometrycznych
zmienności. Trzecia, na której skupia się niniejsza praca, to teoria wartości
ekstremalnych (extreme value theory – EVT) modelująca ogony rozkładów.
Teoria wartości ekstremalnych ma ogromne zastosowanie wówczas, gdy
pojawiają się wartości ekstremalne, czyli w takich obszarach jak: hydrologia,
która jest badana w pracach: [Davison i Smith 1990; Katz, Parlagne i Naveau
2002]; ubezpieczenia [McNeil 1999] oraz finanse [Danielsson i de Vries 1997;
McNeil 1998; Embrechts, Resnick i Samorodnitsky 1999; Gencay i Selcuk
2004].
W odniesieniu do rynku surowców energetycznych badania dotyczące szacowania wartości zagrożonej były rozważane w pracy Cabedo i Moya [2003],
w której autorzy analizowali jakość prognoz VaR dla kursu gotówkowego ropy
naftowej Brent od 1992 do 1998 roku. Fan i współautorzy [2008] wykorzystali
model GARCH z uogólnionym rozkładem dla błędu (GED). Hung, Lee i Liu
[2008] użyli prognoz zmienności z modelu GARCH do szacowania wartości
zagrożonej kursu natychmiastowego ropy WTI oraz Brent, oleju opałowego,
propanu oraz benzyny.
W przeciwieństwie do powyższych modeli, które odnoszą się do całkowitego rozkładu, teoria wartości ekstremalnych skupia się na „ogonach” rozkładu,
które są zaledwie małą częścią całego rozkładu. W związku z tym wykorzystanie EVT jest lepsze aniżeli inne podejścia. Na przykład Krehbiel i Adkins
[2005] rozważali teorię wartości ekstremalnych. Analizowali ceny ryzyka
rynku NYMEX z wykorzystaniem teorii wartości ekstremalnych. Marimoutou,
Raggad i Trabelsi [2009] prowadzili podobne badania – z zastosowania EVT.
Szacowali VaR kursu natychmiastowego ropy naftowej WTI i ropy Brent.
Celem niniejszego artykułu jest zastosowanie teorii wartości ekstremalnych
do wyznaczenia wartości zagrożonej oraz warunkowej wartości zagrożonej
(CVaR) dla rynku surowców energetycznych. Wyliczono VaR i CVaR przy
użyciu uogólnionego rozkładu Pareto oraz porównano je z wynikami otrzymanymi z zastosowaniem historycznej symulacji.
1. Teoria wartości ekstremalnych
Istnieją dwa typy metod służących do modelowania wartości ekstremalnych. Pierwszy z nich oparty jest na modelu „bloków maksymalnych” (block
110
Karolina Siemaszkiewicz
maxima). Jest to model odpowiedni dla dużej liczby obserwacji wybranych
z dużej próby. Obserwacje pochodzą z niepokrywających się, równych bloków
[McNeil 1999].
Bardziej efektywnym podejściem do modelowania ekstremalnych wydarzeń jest tak zwany model przekroczeń (peak over threshold model – POT),
który pozwala na estymację ogona rozkładu zwrotów przekraczających przyjęty próg. Model POT ma większe zastosowanie w praktyce, gdyż lepiej dopasowuje się do często nielicznych danych wartości ekstremalnych [McNeil
1999]. Niniejsza praca skupia się właśnie na modelu POT.
Dla danej zmiennej losowej oraz wartości progowej u rozkład przekroczeń
powyżej wartości progowej zdefiniujemy jako [McNeil, Frey i Embrechts
2005]:
Fu (x ) P ( X u d x | X ! u)
F (x u) F (u)
,
1 F (u)
(1)
gdzie F jest nieznaną dystrybuantą rozkładu zmiennej losowej X.
Jeżeli jest wystarczająco dużą wartością, to według twierdzenia Gnedenko–Pickandsa–Balkema–de Haana [Balkema i de Haana 1974], dystrybuanta
warunkowa Fu(y) ma rozkład graniczny, który jest uogólnionym rozkładem
Pareto GPD (generalized Pareto distribution) z dystrybuantą postaci [Dowd
2002]:
­ § ξ x ·1/ξ
°1 ¨ 1 dla ξ z 0,
¸
° ©
β ¹
Gξ , β (x ) ®
(2)
§x·
°
¨ ¸
°1 e © β ¹
dla ξ 0,
¯
gdzie β > 0 oraz x ≥ 0.
W rozkładzie tym wyróżniamy dwa parametry: β, czyli tak zwany parametr skali, oraz ξ tzw. parametr kształtu, który odpowiada za grubość ogona
rozkładu. Chcąc oszacować dystrybuantę rozkładu Pareto, musimy wybrać
rozsądną wielkość wartości progowej u, która jest zależna od ilości obserwacji
n oraz wartości Nu, czyli ilości wartości przekroczeń progu u. Wybór wartości
u ma wpływ na otrzymane wartości estymatorów.
Dystrybuanta rozkładu Pareto jest postaci [Dowd 2002]:
F (x )
gdzie x > u.
1 F (u) Gξ , β (x u) F (u),
(3)
Teoria wartości ekstremalnych – zastosowanie do sektora surowców energetycznych
111
Jeżeli wyestymujemy wartość F(u), która jest ilorazem ilości wartości nien Nu
przekraczających próg u, do liczby wszystkich obserwacji, czyli F (u)
,
n
to równanie (3) przyjmuje postać [Dowd 2002]:
1/ξ
ª
x uº
(4)
«1 ξ
» .
β ¼
¬
Pierwszy etap badania polega na wyestymowaniu parametrów uogólnionego rozkładu Pareto. W tym celu korzystamy z metody największej
wiarygodności. Dla wystarczająco dużego progu u mamy Fu(x) = Gξ, β(x),
gdzie 0 ≤ x ≤ xF – u i ξ  , β > 0. Ponadto dane mamy zmienne X1, …, Xn
oraz losową liczbę Nu osiągającą próg u. Oznaczymy dla uproszczenia dane
zmienne losowe jako X 1 , }, X N u. Dla każdej z tych zmiennych, przekraczającej próg, obliczamy resztę Y j X j u dla funkcji przekraczającej stratę.
Następnie chcemy wyestymować parametry rozkładu GPD w taki sposób,
aby dopasować ten rozkład dla Nu funkcji przekraczającej stratę [McNeil,
Frey i Embrechts 2005].
Oznaczmy przez gξ, β funkcję gęstości rozkładu GPD, wtedy [McNeil, Frey
i Embrechts 2005]:
F (x ) 1 Nu
n
Nu
ln L(ξ , β, Y1 , }, YN u )
¦ ln g ξ, β (Yj ) j 1
N
Yj ·
§ 1· u §
N u ln β ¨ 1 ¸ ln ¨¨ 1 ξ ¸¸ .
β¹
© ξ¹ j 1 ©
¦
(5)
Yj
Funkcję tę maksymalizujemy pod warunkiem, że β > 0 oraz 1 ξ ! 0
β
dla każdego j.
Jeżeli wybierzemy zbyt dużą wartość progu, może to spowodować zmniejszenie liczby obserwacji niezbędnych do wyznaczenia wartości estymatorów,
co w konsekwencji zwiększa wariancję. Wybranie zbyt niskiego progu skutkuje
obciążeniem estymatora, gdyż do opisu „ogona” rozkładu użyto by zbyt dużo
centralnych obserwacji [Trzpiot 2010].
Najczęściej używaną metodą wyboru progu jest metoda graficzna, w której wykorzystywany jest wykres funkcji wartości oczekiwanej przekroczenia
(mean excess). Funkcja gęstości przekroczenia Fu opisuje rozkład strat przekroczeń ponad próg u, pod warunkiem że u jest osiągalne. Funkcja wartości
oczekiwanej przekroczeń opisuje wartość oczekiwaną Fu i dana jest wzorem
[McNeil, Frey i Embrechts 2005]:
e(u) = E(X – u | X > u).
(6)
112
Karolina Siemaszkiewicz
Dla zmiennej losowej X oraz funkcji gęstości F = Gξ, β, funkcję gęstości
przekroczeń można obliczyć ze wzoru:
Fu(x) = Gξ, β(u)(x),
(7)
gdzie β(u) = β + ξu.
Wtedy funkcja wartości oczekiwanej przekroczenia dana jest równaniem:
e(u)
β ξu
.
1 ξ
(8)
Funkcja e(u) powinna być funkcją liniową, co stanowi kryterium wyboru
wartości u [Trzpiot 2010].
Czasami wybiera się jako próg wartość 5 lub 10% obserwacji w zależności
od liczebności próby. W niniejszym artykule zastosowano tę metodę wyboru
progu.
2. Wyznaczenie wartości zagrożonej oraz warunkowej
wartości zagrożonej
Wartość zagrożona jest jedną z powszechnie używanych miar ryzyka. Najprościej odpowiada ona na pytanie: ile możemy maksymalnie stracić w danym
czasie, z określonym prawdopodobieństwem [Jorion 1997]. Ze statystycznego
punktu widzenia VaR jest kwantylem rozkładu stóp zwrotu. W niniejszej
pracy do szacowania wartości zagrożonej wykorzystujemy teorię wartości
ekstremalnych oraz historyczną symulację.
Model POT
Model POT jest łatwiejszy do zastosowania, ze względu na ograniczoną liczbę
danych z ogona rozkładu. W celu wyznaczenia wartości zagrożonej stosujemy
wzór (4). Wtedy [Dowd 2002]:
·
β ª§ n
VaR u Ǭ
(1 α) ¸
ξ «© N u
¹
¬
ξ
º
1»,
»
¼
gdzie α jest współczynnikiem ufności (bliskim 1) dla VaR.
(9)
Teoria wartości ekstremalnych – zastosowanie do sektora surowców energetycznych
113
Warunkową wartość zagrożoną (expected shortfall – CVaR) możemy najprościej zdefiniować jako wartość oczekiwaną straty pod warunkiem, że strata
ta przekroczy wartość zagrożoną dla danego poziomu ufności [Rockafellar
i Uryasev 2000].
Stosując uogólniony rozkład Pareto, wyznaczamy warunkową wartość
zagrożoną ze wzoru:
CVaR
VaRα β ξu
.
1 ξ
1 ξ
(10)
Historyczna symulacja
Pierwszą, powszechnie używaną metodą oszacowania wartości zagrożonej jest
historyczna symulacja. Jest to najprostsza i najbardziej zrozumiała metoda
obliczania wartości zagrożonej. Polega ona na wykorzystaniu danych historycznych, czyli historycznych stóp zwrotu danego instrumentu finansowego,
które umożliwiają określenie empirycznego rozkładu stóp zwrotu. Pozwala
to na określenie wartości zagrożonej poprzez wyznaczenie kwantyla tego
rozkładu [Jajuga 2007].
3. Dane
W niniejszym artykule wyznaczono wartość zagrożoną i warunkową wartość
zagrożoną, wykorzystując uogólniony rozkład Pareto. Wyniki tych obliczeń
porównano z wynikami wyznaczenia VaR przy użyciu klasycznego podejścia
(wyznaczenie odpowiedniego kwantyla). Analizowano szeregi rt dziennych
logarytmicznych stóp zwrotu, które obliczono na podstawie wzoru:
rt = 100(ln Pt – ln Pt–1).
(11)
Notowania stóp zwrotu rozważanych surowców energetycznych pochodzą
z okresu od 2 stycznia 2007 do 28 marca 2013 roku, co daje 1595 stóp zwrotu.
Wybrano tak długi okres, aby umożliwić estymację parametrów rozkładu
Pareto.
W tabeli 1 umieszczono statystyki opisowe rozważanych logarytmicznych
stóp zwrotu z surowców energetycznych. Stopy zwrotu rozważanych paliw
energetycznych mają dodatnią średnią wartość stóp zwrotu. Tylko jeden surowiec, olej napędowy, ma prawostronną skośność, natomiast pozostałe mają
114
Karolina Siemaszkiewicz
Tabela 1. Statystyki opisowe rozważanych stóp zwrotu
Statystyki
–12,96
18,59
0,01
2,4937670
Olej
napędowy
–9,64
11,26
0,00
2,0024554
–11,50
13,00
0,02
2,4688567
Olej
grzewczy
–9,49
8,39
0,02
2,0383759
–0,0351469
7,5330782
0,0925420
6,0589629
–0,2560778
6,4081596
–0,2037483
4,9185841
Ropa Brent
Ropa WTI
Minimum
–12,59
Maksimum
11,79
Średnia
0,02
Odchylenie
2,2858471
standardowe
Skośność
–0,2800958
Kurtoza
6,6786983
Benzyna
lewostronną skośność. Kurtoza dla danych stóp zwrotu jest większa aniżeli 3,
więc badane rozkłady nie są rozkładami normalnymi. Należy również zwrócić
uwagę na to, że zarówno najmniejszą minimalną, jak i największą maksymalną
dodatnią stopę zwrotu osiągnęła ropa WTI.
Rysunek 1 przestawia zachowanie się cen ropy Brent i ropy WTI. Można
zauważyć przybliżony ruch cen obu surowców energetycznych. Pierwszy
gwałtowny wzrost ceny ropy nastąpił w lipcu 2008 z około 50 dolarów za
baryłkę – z początku okresu badania – aż do 150 dolarów za baryłkę. Bezpośrednimi przyczynami gwałtownego wzrostu, po pierwsze, były obawy
o zakłócenia w dostawach surowca z Iranu spowodowane manewrami wojennymi przeprowadzanymi przez izraelską armię nad Irakiem, które mogły
sugerować atak na Iran. Po drugie, w Nigerii organizacja Ruch Wyzwolenia
Delty Nigru (MEND) zapowiedziała wznowienie ataków na instalacje produkcyjne i przesyłowe ropy naftowej.
We wrześniu 2008 roku upadł bank inwestycyjny Lehman Brothers. Dzień
jego upadku uznaje się za początek światowego kryzysu finansowego. Spowolnienie gospodarcze przyczyniło się do tego, że na początku 2009 roku cena
baryłki ropy Brent spadła do poziomu 40–45 dolarów. Na początku 2010 roku
cena wzrosła do poziomu 75–80 dolarów.
Protesty niezadowolenia społecznego, jakie wybuchły na początku 2011
roku w krajach Afryki i Bliskiego Wschodu, spowodowały, że cena ropy naftowej poszybowała w górę. W styczniu 2011 roku baryłka Brent kosztowała
średnio ponad 96 dolarów. W Libii 17 lutego 2011 roku wybuchły masowe
protesty przeciw długoletniemu panowaniu pułkownika Kadafiego. Doszło do
starć zbrojnych, co natychmiast przyczyniło się do tego, że już 24 lutego cena
ropy naftowej wzrosła do 120 dolarów; 2 marca 2011 roku cena nieznacznie
spadła do 116 dolarów za baryłkę.
Teoria wartości ekstremalnych – zastosowanie do sektora surowców energetycznych
115
Irański serwis informacyjny 1 marca 2012 roku podał, że wybuchł rurociąg
w Arabii Saudyjskiej. Informacja ta, jak się później okazało nieprawdziwa,
spowodowała skok ceny ropy Brent do 128 dolarów. Cena baryłki ropy Brent
w tamtym okresie wyniosła około 120 dolarów, o 20% więcej niż na początku
roku.
W Sudanie wystąpił konflikt, który również się przyczynił w dużej mierze do
światowego spadku podaży ropy i tym samym wpłynął na wzrost cen surowca.
Kolejne zakłócenia w światowych dostawach ropy naftowej są skutkiem
trwającego konfliktu w Syrii i nałożonego na ten kraj embarga, strajku pracowników sektora naftowego w Jemenie i modernizacji platform wiertniczych
na Morzu Północnym.
170
150
130
110
90
70
50
ropa WTI
ropa Brent
12.11.2012
25.06.2012
3.02.2012
14.09.2011
27.04.2011
6.12.2010
19.07.2010
26.02.2010
7.10.2009
18.05.2009
19.12.2008
31.07.2008
7.03.2008
16.10.2007
25.05.2007
2.01.2007
30
Rysunek 1. Dzienne ceny ropy Brent i ropy WTI (cena w dolarach amerykańskich za
baryłkę)
Tabela 2. Parametry uogólnionego rozkładu Pareto dla lewych i prawych „ogonów” rozkładu dla progu u = 10%
Surowce
energetyczne
Ropa Brent
Ropa WTI
Olej napędowy
Benzyna
Olej grzewczy
Źródło: Obliczenia własne.
Lewy ogon
β
ξ
2,411315
0,3
2,434506
0,3
1,603324
1,1
2,460540
0,3
1,603092
1,1
Prawy ogon
β
ξ
2,377689 –0,3
2,363828 –0,3
2,300342 –0,3
2,424361 –0,3
1,423678 –1,1
116
Karolina Siemaszkiewicz
Z analizy danych zawartych w tabeli 2, w której umieszczono wyniki estymacji parametrów rozkładu GPD dla progu u = 10%, wynika, że wartości
parametru kształtu dla lewego „ogona” są dodatnie, natomiast dla prawego są
ujemne. Najwyższe wartości indeksu lewego „ogona” należą do surowców: olej
napędowy i olej grzewczy, co wiąże się z wyższym ryzykiem związanym z tymi
surowcami. Co więcej, wartości indeksu lewego „ogona” każdego z rozważanych instrumentów są cięższe od prawych, co oznacza, że wysokie ujemne
stopy zwrotu są bardziej prawdopodobne niż dodatnie.
Podobne wyniki można zaobserwować dla danych zawartych w tabeli 3,
w której znajdują się wyniki estymacji parametrów rozkładu GPD dla progu
u = 5%. Wartości parametru kształtu dla lewego „ogona” są dodatnie, natomiast dla prawego są ujemne. Podobne są wartości wyestymowanych parametrów dla ropy WTI, oleju napędowego oraz oleju grzewczego bez względu
na wybór progu. Może to być spowodowane tym, że wartości oszacowań
ustabilizowały się już dla progów wyższych aniżeli 5%. Zatem w przypadku
tych surowców energetycznych wybór progu pomiędzy 5 a 10% nie miał znaczenia. Można również przeprowadzić badanie, ukazujące przy jakim progu
wartości wyestymowanych parametrów się stabilizują, jednakże to nie było
głównym celem niniejszego badania.
Tabela 3. Parametry uogólnionego rozkładu Pareto dla
lewych i prawych „ogonów” rozkładu dla progu u = 5%
Surowce
energetyczne
Ropa Brent
Ropa WTI
Olej napędowy
Benzyna
Olej grzewczy
Lewy ogon
β
ξ
1,369552
1,1
2,414293
0,3
1,340253
1,1
1,894925
1,1
1,510520
1,1
Prawy ogon
β
ξ
2,331123 –0,3
2,380679 –0,3
2,332855 –0,3
2,410998 –0,3
1,451648 –1,1
Źródło: Obliczenia własne.
Kolejny etap badania polegał na wyznaczeniu wartości zagrożonej (VaR)
oraz warunkowej wartości zagrożonej (CVaR) przy użyciu teorii wartości
ekstremalnych. Wartości te wyznaczono, korzystając ze wzorów (9) i (10).
Wyniki tych obliczeń porównano z wynikiem wartości zagrożonej otrzymanej
z historycznej symulacji (podejście klasyczne). Obliczenia wykonano dla poziomu α = 0,05 – prawy ogon rozkładu (tabela 4) oraz dla α = 0,95 (tabela 5).
Z tabeli 4 wynika, że jedynie dla surowca olej grzewczy wielkość wartości
zagrożonej jest niższa, jeżeli zastosujemy teorię wartości ekstremalnych dla
Teoria wartości ekstremalnych – zastosowanie do sektora surowców energetycznych
117
Tabela 4. Oszacowanie VaR i CVaR dla poziomu 1 – α = 0,95 z wykorzystaniem teorii
wartości ekstremalnych i podejściem klasycznym
GPD
Surowce energetyczne
Ropa Brent
Ropa WTI
Olej napędowy
Benzyna
Olej grzewczy
10%
VaR
3,93
4,21
3,62
4,23
3,18
5%
CVaR
5,41
5,68
5,06
5,74
3,49
VaR
3,44
3,69
3,07
3,73
3,25
CVaR
5,23
5,52
4,85
5,58
3,94
VaR –
podejście
klasyczne
3,44
3,69
3,01
3,73
3,25
Źródło: Obliczenia własne.
progu u = 10%, aniżeli stosując metodę historycznej symulacji. Należy pamiętać o tym, że zarówno niedoszacowanie, jak i przeszacowanie wartości
zagrożonej może się wiązać z poważnymi konsekwencjami dla firm zarządzających ryzykiem. Niedoszacowanie wartości zagrożonej może powodować
brak płynności, natomiast przeszacowanie uniemożliwia wykorzystanie całkowitych środków na inwestycję. Wybór większej liczby obserwacji potrzebnej do oszacowania parametrów rozkładu ma wpływ na wielkość wartości
zagrożonej. Prawie dla każdego z rozpatrywanych surowców (wyjątkiem jest
olej grzewczy), wartość zagrożona osiąga większe wartości dla progu u = 10%
aniżeli dla progu u = 5%. Można również zaobserwować, że dla prawego
„ogona” rozkładu wielkość wartości zagrożonej dla progu u = 5% jest prawie
identyczna z wielkością VaR uzyskaną z podejścia klasycznego.
Wielkości wartości zagrożonej dla każdego rozważanego surowca (tabela 5)
są niższe, jeżeli stosujemy teorię wartości ekstremalnych, niż gdy stosujemy
podejście klasyczne. Zaobserwować można również, że dla ropy Brent i benTabela 5. Oszacowanie VaR i CVaR dla poziomu 1 – α = 0,05 z wykorzystaniem teorii
wartości ekstremalnych i podejściem klasycznym
GPD
Surowce energetyczne
Ropa Brent
Ropa WTI
Olej napędowy
Benzyna
Olej grzewczy
Źródło: Obliczenia własne.
10%
VaR
–6,36
–6,65
–3,53
–6,78
–3,62
5%
CVaR
–4,60
–4,88
–4,86
–4,99
–4,97
VaR
–4,70
–8,69
–4,49
–5,79
–4,70
CVaR
–5,23
–7,26
–5,03
–6,52
–5,29
VaR –
podejście
klasyczne
–3,49
–3,93
–3,33
–4,11
–3,34
118
Karolina Siemaszkiewicz
zyny wielkość wartości zagrożonej jest niższa dla progu u = 10% niż dla progu
u = 5%. Dla pozostałych surowców nie zachodzą podobne prawidłowości.
Ponadto dla ropy WTI spostrzec można, że wielkości VaR są wyższe aniżeli
CVaR. Dodatkowo wielkości VaR dla progu u = 10% i u = 5% są niższe niż
wartości otrzymane poprzez zastosowanie podejścia klasycznego.
Podsumowanie
Głównym celem niniejszego artykułu było zastosowanie teorii wartości ekstremalnych do wyznaczenia wartości zagrożonej i warunkowej wartości zagrożonej dla rynku surowców energetycznych.
Wyznaczono wartość zagrożoną i warunkową wartość zagrożoną, wykorzystując teorię wartości ekstremalnych, a w szczególności użyto uogólniony
rozkład Pareto. Wykorzystanie teorii wartości ekstremalnych jest korzystniejsze, gdyż umożliwia koncentrację na dokładniejszej estymacji jedynie
ogona rozkładu, zamiast modelować cały rozkład. Wyniki tych oszacowań
porównano z wynikami estymacji VaR przy użyciu klasycznego podejścia
(historycznej symulacji).
Analizowano dzienne logarytmiczne stopy zwrotu pięciu surowców energetycznych: ropy Brent, ropy WTI, oleju napędowego, benzyny oraz oleju
grzewczego. Wyniki przeprowadzonego badania pokazują, że w większości
wypadków wartości VaR otrzymane z wykorzystania teorii wartości ekstremalnych są wyższe dla α = 0,05 niż otrzymane z historycznej symulacji. W związku
z tym korzystniejsze jest wykorzystanie teorii wartości ekstremalnych, gdyż
niedoszacowanie wartości zagrożonej ma wpływ na płynność w przedsiębiorstwie. Ponadto można zaobserwować wyższe wartości CVaR aniżeli VaR, co
wynika z samej definicji warunkowej wartości zagrożonej, gdyż jest to średnia
wielkość wartości przekraczających VaR.
Bibliografia
Balkema, A., Haan, L. de, 1974, Residual Life Time at Great Age, Annals of Probability, vol. 2.
Cabedo, J.D., Moya, I., 2003, Estimating Oil Price Value at Risk Using the Historical Simulation
Approach, Energy Economics 25.
Davison, A.C., Smith, R.L., 1990, Models for Exceedances over High Threshold, Journal of Royal
Statistic Society 52 (3).
Teoria wartości ekstremalnych – zastosowanie do sektora surowców energetycznych
119
Danielsson, J., Vries, C.G. de, 1997, Tail Index Estimation with Very High Frequency Data,
Journal of Empirical Finance 4.
Dowd, K., 2002, Measuring Market Risk, John Wiley & Sons, Chichester.
Embrechts, P., Resnick, S., Samorodnitsky, G., 1999, Extreme Value Theory as a Risk Management
Tool, North American Actuary Journal 26.
Fan, Y., Zhang, Y.J., Tsai, H.T., Wei, Y.M., 2008, Estimating Value at Risk of Crude Oil Price and
its Spillover Effect Using the GED-GARCH Approach, Energy Economics 30.
Fisher, R.A., Tippett, H.C., 1928, Limiting Forms of the Frequency Distribution of the Largest and
Smallest Member of a Sample, Proceedings of the Cambridge Philosophical Society, vol. 24.
Gencay, R., Selcuk, F., 2004, Extreme Value Theory and Value at Risk: Relative Performance in
Emerging Markets, International Journal of Forecasting 20.
Hung, J.C., Lee, M.C., Liu, H.C., 2008, Estimation of Value at Risk for Energy Commodities Via
Fat-tailed GARCH Models, Energy Economics 30.
Jajuga, K., 2007, Zarządzanie ryzykiem, Wydawnictwo Naukowe PWN, Warszawa.
Jorion, P., 1997, Value at Risk: The New Benchmark for Managing Financial Risk, McGraw-Hill,
New York.
Katz, R.W., Parlange, M.B., Naveau, P., 2002, Statistics of Extremes in Hydrology, Advances in
Water Resources 25.
Krehbiel, T., Adkins, L.C., 2005, Price Risk in the NYMEX Energy Complex: An Extreme Value
Approach, Journal of Futures Markets 25 (4).
Marimoutou, V., Raggad, B., Trabelsi, A., 2009, Extreme Value Theory and Value at Risk: Application to Oil Market, Energy Economics 31.
McNeil, A.J., 1998, Calculating Quantile Risk Measures for Financial Time Series Using Extreme
Value Theory, Department of Mathematics.
McNeil, A.J., 1999, Extreme Value Theory for risk managers, Mimeo ETZH Zentrum, Zurich.
McNeil, A.J., Frey, R., Embrechts, P., 2005, Quantitative Risk Management, Princeton University
Press, New Jersey.
Rockafellar, R.T., Uryasev, S., 2000, Optimization of Conditional Value-at-Risk, The Journal of
Risk, vol. 2, no. 3.
Schofield, N.C., 2007, Commodity Derivatives. Markets and Applications, John Wiley & Sons Ltd.
Trzpiot, G., 2010, Wielowymiarowe metody statystyczne w analizie ryzyka inwestycyjnego, Polskie
Wydawnictwo Ekonomiczne, Warszawa.
STUDIA OECONOMICA POSNANIENSIA
2013, vol. 1, no. 10 (259)
Tomasz Józefowski
Ośrodek Statystyki Małych Obszarów – Urząd Statystyczny w Poznaniu
Marcin Szymkowiak
Uniwersytet Ekonomiczny w Poznaniu, Wydział Informatyki i Gospodarki
Elektronicznej, Katedra Statystyki, Ośrodek Statystyki Małych Obszarów – Urząd
Statystyczny w Poznaniu
Autor do korespondencji: [email protected]
ZASTOSOWANIE ESTYMATORA
TYPU SPREE W SZACOWANIU LICZBY
OSÓB BEZROBOTNYCH
W PRZEKROJU PODREGIONÓW
Streszczenie: W literaturze przedmiotu wskazuje się, że estymatory klasy SMO (Statystyka
Małych Obszarów – SMO) mają przewagę nad estymatorami znanymi z klasycznej metody
reprezentacyjnej, gdyż umożliwiają dostarczenie potrzebnych informacji w sytuacji niewielkiej liczebności lub nawet braku obserwacji w próbie dla danego przekroju [Longford
2005]. Uzyskane w ten sposób oszacowania dla niższych poziomów przestrzennych bądź
subpopulacji różnią się często po zsumowaniu od szacunków uzyskanych za pomocą
metody reprezentacyjnej dla wyższego poziomu, który jest możliwy ze względu na wystarczającą liczebność próby. Jednym ze sposobów poradzenia sobie z powyżej opisaną
niezgodnością jest zastosowanie estymatora typu SPREE [Zhang i Chambers 2004].
Głównym celem artykułu jest zaprezentowanie możliwości, jakie oferuje estymator
typu SPREE do oszacowania liczby osób bezrobotnych na poziomie podregionów województwa wielkopolskiego przy wykorzystaniu danych pochodzących z rejestru bezrobotnych oraz Badania Aktywności Ekonomicznej Ludności.
Słowa kluczowe: statystyka małych obszarów, estymator typu SPREE, BAEL, kalibracja.
Klasyfikacja JEL: C8.
USING A SPREE ESTIMATOR TO ESTIMATE THE NUMBER
OF UNEMPLOYED PEOPLE ACROSS SUBREGIONS
Abstract: The methodology of small area estimation (SAE) plays an important role in the field
of modern information gathering, which aims to cut survey costs while lowering the respond-
Zastosowanie estymatora typu SPREE w szacowaniu liczby osób bezrobotnych
121
ent burden. SAE methods have an advantage over clasical methods since they enable reliable
estimates at lower levels of spatial aggregation and with more domains, where the representative
approach displays too much variability. This means that small area estimation can be used to
handle cases with few or no observations for a given domain in the sample. However, cell total
estimates for lower levels of spatial aggregation or subpopulations tend to differ from estimates
calculated by means of higher levels of representation, which is possible due to their adequate
sample size. One way of coping with this incompatibility is by applying a SPREE estimator. This
is used to adjust the values in the cells of an estimated contingency table to the totals obtained
by means of the representative method. Internal cells can initially be filled with data from
previous censuses, or current administrative registers. The method seems to be particularly
useful for estimating the parameters of the labour market, since the methodology used in the
Labour Force Survey can only yield data at the level of a province. The users of statistical data,
however, expect information which is more geographically disaggregated. Considering the
above, the aim of the present paper is to demonstrate the potential of the SPREE estimator for
estimating the number of unemployed at the level of subregions in the Wielkopolska province
using data from the unemployment register and the Labour Force Survey.
Keywords: small area statistics, SPREE estimator, Labour Force Survey, calibration.
Wstęp
Metody statystyki małych obszarów odgrywają istotną rolę w kształtowaniu
nowoczesnych technik pozyskiwania informacji, które są ukierunkowane na
obniżenie kosztów badań przy jednoczesnym zmniejszeniu obciążeń respondentów. Dzięki swoim własnościom umożliwiają uzyskiwanie wiarygodnych
szacunków na niższych poziomach agregacji przestrzennej oraz bardziej szczegółowych domen, dla których klasyczne metody estymacji charakteryzują
się zbyt dużą wariancją estymatorów. Mają one przewagę nad estymatorami
znanymi z klasycznej metody reprezentacyjnej, gdyż umożliwiają dostarczenie
potrzebnych informacji w sytuacji niewielkiej liczebności lub nawet braku obserwacji w próbie dla danego przekroju. Uzyskane w ten sposób oszacowania
dla niższych poziomów przestrzennych bądź subpopulacji po zsumowaniu
różnią się często od szacunków uzyskanych za pomocą metody reprezentacyjnej dla wyższego poziomu, który jest możliwy ze względu na wystarczającą
liczebność próby. Jednym ze sposobów poradzenia sobie z powyżej opisaną
niezgodnością jest zastosowanie estymatora typu SPREE [Swanson i Tayman
2012]. Umożliwia on dostosowanie wartości w poszczególnych komórkach
szacowanej tabeli kontyngencji do wartości brzegowych otrzymanych przy
użyciu metody reprezentacyjnej. Komórki wewnętrzne tabeli początkowo
mogą być wypełniane danymi z poprzednich spisów bądź też z bieżących re-
122
Tomasz Józefowski, Marcin Szymkowiak
jestrów administracyjnych. Metoda ta jest szczególnie atrakcyjna w kontekście
estymacji parametrów charakteryzujących rynek pracy, gdyż techniki użyte
w Badaniu Aktywności Ekonomicznej Ludności pozwalają na publikowanie
danych jedynie na poziomie województwa. Odbiorcy danych statystycznych
oczekują jednak informacji dla bardziej szczegółowych przekrojów geograficznych. W związku z powyższym głównym celem artykułu jest zaprezentowanie
możliwości, jakie oferuje estymator typu SPREE do oszacowania liczby osób
bezrobotnych na poziomie podregionów województwa wielkopolskiego przy
wykorzystaniu danych pochodzących z rejestru bezrobotnych oraz Badania
Aktywności Ekonomicznej Ludności.
1. Teoretyczne podstawy estymatora SPREE
Estymatory SPREE (Structure Preserving Estimation)1 stanowią uogólnioną
klasę estymatorów syntetycznych w tym znaczeniu, że wykorzystują pełną
informację o ocenach estymatora bezpośredniego. W metodzie tej dokonujemy korekty liczebności znajdujących się w komórkach wielowymiarowej
tabeli kontyngencji tak, aby skorygowane wartości sumowały się do znanych
liczebności brzegowych. Wyjściowe liczebności w poszczególnych komórkach
tabeli kontyngencji mogą na przykład pochodzić z ostatniego spisu, podczas
gdy liczebności brzegowe odpowiadają rzetelnym ocenom uzyskanym z wykorzystaniem estymatora bezpośredniego na podstawie danych z badania
reprezentacyjnego. Estymatory typu SPREE można wykorzystać na potrzeby
szacunków wartości globalnych dla małych obszarów w okresach międzyspisowych [Berg i Fuller 2009].
W niniejszym punkcie przedstawiono teoretyczne podstawy konstrukcji ,,jednokrokowych” estymatorów typu SPREE. W odróżnieniu od ,,dwukrokowych” estymatorów typu SPREE nie jest konieczne stosowanie tzw.
metody proporcjonalnego iteracyjnego dopasowywania (iterative proportional
fitting – IPF), a liczebności końcowe w tabelach kontyngencji można wyznaczać wprost ze wzoru. Ideę wyznaczania skorygowanych liczebności w tabeli
kontyngencji i ich dopasowania do znanych liczebności brzegowych uzyskanych z wykorzystaniem danych z badania reprezentacyjnego i estymatora
bezpośredniego przedstawiono dla trójwymiarowych tabel.
1
W polskiej literaturze brak tłumaczenia tego typu estymatora. Ponieważ estymacja typu
SPREE jest techniką zachowującą strukturę, można byłoby tłumaczyć SPREE jako „estymator
zachowujący strukturę”.
Zastosowanie estymatora typu SPREE w szacowaniu liczby osób bezrobotnych
123
Niech Nijk oznacza znane liczebności w trójwymiarowej tabeli kontyngencji pochodzące ze spisu bądź rejestru administracyjnego, gdzie i = 1, …, D
oznacza mały obszar (domenę), j oznacza j-ty wariant (j = 1, …, J) zmiennej y,
dla której są dokonywane szacunki (na przykład y może oznaczać liczbę bezrobotnych, zatrudnionych itd.), a k oznacza k-ty wariant (k = 1, …, K) pewnej
dodatkowej zmiennej związanej ze zmienną y (na przykład może to być płeć
bądź klasa miejscowości zamieszkania respondenta – por. tabela 1). Ponadto
zakładamy, że istnieją pewne bieżące oszacowania niektórych liczebności brzegowych – na podstawie danych pochodzących z badania reprezentacyjnego.
ˆ oznaczają ,,rzetelne” oszacowania liczebności brzegowych M ,
Niech M
. jk
. jk
które otrzymujemy, wykorzystując znany z metody reprezentacyjnej estymator
bezpośredni wartości globalnej. Liczebności brzegowe N . jk
N ijk można
¦
i
oczywiście uzyskać na podstawie wyjściowej tabeli kontyngencji z liczebnościami Nijk. Z upływem czasu, ze względu na incydentalny charakter spisu, dane
te dezaktualizują się, a istnieje potrzeba bieżącego zasilania informacyjnego.
Stąd liczebności Nijk w tabeli kontyngencji pochodzące ze spisu, poprzez odpowiednią korektę, są dopasowywane do znanych liczebności brzegowych,
które stanowią rzetelne i bieżące oszacowania z badania reprezentacyjnego
z wykorzystaniem estymatora bezpośredniego. Oczywiście odpowiednie liczebności brzegowe N . jk
N ijk nie będą się sumowały do oszacowanych
¦
i
ˆ uzyskanych z badania reprezentacyjnego. Należy
liczebności brzegowych M
. jk
je zatem w taki sposób skorygować, aby były odtwarzane liczebności brzegoˆ . Ważne również, aby nowe liczebności nie różniły się za bardzo od
we M
. jk
liczebności Nijk i nie zmieniały w istotny sposób struktury danych zawartych
w tabeli kontyngencji.
Rysunek 1 prezentuje opisaną powyżej sytuację w sposób graficzny. Zakładamy przy tym, że znane są informacje o liczbie pracujących i bezrobotnych
(J = 2) w przekroju powiatów (D = 2) i uwzględnieniem płci (K = 2). Nijk oznacza zatem liczbę osób ze spisu bądź rejestru administracyjnego, które pochodzą
z i-tego powiatu, mają j-ty wariant statusu na rynku pracy i k-ty wariant płci.
Informacje te są również zawarte w tabeli 1. Zakładamy przy tym, zgodnie
z uwagami poczynionymi powyżej, że znane są bieżące oszacowania z badania
reprezentacyjnego liczby pracujących i bezrobotnych mężczyzn oraz kobiet,
ˆ . Zwróćmy przy tym uwagę, że nie zakładamy znajomości z badania
tj. M
. jk
ˆ . Ich uzyskareprezentacynego oszacowanych liczebności brzegowych M
. jk
nie, ze względu na niewielką lub w niektórych wypadkach zerową liczebność w pewnych przekrojach, uniemożliwia uzyskanie rzetelnych oszacowań
124
Tomasz Józefowski, Marcin Szymkowiak
z wykorzystaniem estymatora bezpośredniego. Na przykład brak reprezentacji
lub niewielka liczebność próby w pewnym powiecie w kategorii pracujących
mężczyzn może być przyczyną niemożliwości uzyskania takich oszacowań lub
będą się one odznaczały bardzo niską precyzją. W prezentowanym w artykule
podejściu zakładamy zatem znajomość tylko jednych liczebności brzegowych,
które można uyskać z badania reprezentacyjnego z wykorzystaniem estymacji
bezpośredniej. Stąd wcześniejsze określenie w artykule opisywanego podejścia
jako ,,jednokrokowe”, w odróżnieniu od estymacji SPREE typu ,,dwukrokowego”, gdzie zakłada się znajomość obydwu liczebności brzegowych. Liczebności
Mij w podejściu ,,jednokrokowym” uzyska się po korekcie liczebności Nijk
w oczywisty sposób.
ˆ
M
. jk
liczebności
brzegowe
badanie
reprezentacyjne
po
trz
sp
is
eb
ne
powiat 2
powiat 1
pracujący
bezrobotny
M ij.
Nijk
mężczyzna
kobieta
liczebności
brzegowe
Rysunek 1. Struktura danych dla małych obszarów
Źródło: Opracowano na podstawie pracy: [Purcell i Kish 1980]
Niech Mijk oznacza nieznane i poszukiwane liczebności w trójwymiarowej
tabeli kontyngencji, które będą odtwarzać oszacowania brzegowe z badania
ˆ
reprezentacyjnego, tzn. M
Mijk , i nie będą się znacznie różniły od
. jk
¦
i
liczebności wejściowych Nijk. Problem poszukiwania nowych liczebności
Zastosowanie estymatora typu SPREE w szacowaniu liczby osób bezrobotnych
125
Tabela 1. Struktura danych dla małych obszarów
Powiat
Płeć
Status osoby na
rynku pracy
Mij.
mężczyzna
N111
kobieta
N112
M11.
Powiat 1
pracująca
bezrobotna
N121
N122
M12.
Powiat 2
pracująca
N211
N212
M21.
bezrobotna
N221
ˆ
M
N222
ˆ
M
M22.
. j1
. j2
w trójwymiarowej tabeli kontyngencji można zapisać w postaci poniższego
zadania optymalizacyjnego.
(W1) Minimalizacja funkcji odległości:
D(Nijk, Mijk)  min,
(1)
(W2) Równania kalibracyjne:
¦ Mijk
ˆ .
M
. jk
(2)
i
Pierwszy z warunków (W1) oznacza, że wyznaczone nowe liczebności
w trójwymiarowej tabeli kontyngencji powinny być bliskie, w sensie przyjętej
funkcji odległości, liczebnościom wejściowym ze spisu bądź rejestru administracyjnego. Drugi z warunków oznacza z kolei, że liczebności te powinny być
w taki sposób wyznaczone, aby uzyskane na ich podstawie jedne z liczebności
brzegowych pokrywały się z oszacowaniami, które zostaną uzyskane z wykorzystaniem estymatora bezpośredniego i informacji pochodzących z bieżącego
badania reprezentacyjnego. Z racji na podobieństwo do sposobu w jaki są
poszukiwane wagi kalibracyjne w estymatorach kalibracyjnych warunek (W2)
określono mianem ,,równań kalibracyjnych”, a sama konstrukcja estymatorów
typu SPREE jest w dużej mierze zbliżona do podejścia kalibracyjnego [Szymkowiak 2007; Särndal 2007].
Kluczową rolę w poszukiwaniu nowych liczebności Mijk w trójwymiarowej tabeli kontyngencji odgrywa odpowiednio dobrana funkcja odległości.
W literaturze przedmiotu wskazuje się na dwie najczęściej wykorzystywane
w praktyce funkcje, które umożliwiają wyznaczenie liczebności Mijk, tj. funkcję
odległości χ2 i dyskryminacyjną funkcję odległości. Wyrażają się one następującymi wzorami:
126
Tomasz Józefowski, Marcin Szymkowiak
Funkcja odległości χ2
(N ijk Mijk )2
1
.
2 i, j, k
N ijk
¦
D(N ijk , Mijk )
(3)
Dyskryminacyjna funkcja odległości
N
¦ Nijk ln Mijkijk .
D(N ijk , Mijk )
(4)
i, j, k
Definicja 1. Estymatorem typu SPREE liczebności Mijk w trójwymiarowej
ˆ będąca rozwiązaniem zadania optytabeli kontyngencji jest statystyka M
ijk
malizacyjnego postaci:
ˆ
M
ijk
(5)
arg min D( Mijk , N ijk ),
Mijk
przy warunku
ˆ .
M
. jk
¦ Mijk
(6)
i
Poniższe twierdzenia rozstrzygają postać estymatora typu SPREE określonego
w definicji (1).
Twierdzenie 1. Rozwiązaniem zadania minimalizacji (5) dla funkcji odległości
(3) i przy warunku (6) jest statystyka postaci:
ˆ
M
ijk
N ijk
ˆ
M
. jk
N . jk
.
(7)
Dowód. Na potrzeby dowodu tego twierdzenia wykorzystano metodę czynników nieoznaczonych Lagrange’a. Funkcja Lagrange’a ma postać:
L
(N ijk Mijk )2
1
N ijk
2 i, j, k
¦
§
·
¦ λ jk ¨¨ ¦ Mijk Mˆ . jk ¸¸ .
j, k
©
i
(8)
¹
Pochodna funkcji L względem Mijk ma postać:
wL
wMijk
1 2 Mijk 2N ijk
˜
λ jk .
2
N ijk
(9)
Zastosowanie estymatora typu SPREE w szacowaniu liczby osób bezrobotnych
127
Przyrównując obliczoną pochodną do zera, otrzymujemy następujące równanie:
Mijk N ijk
N ijk
λ jk ,
(10)
którego rozwiązaniem jest:
N ijk (1 λjk ).
Mijk
(11)
Dokonując sumowania po wszystkich domenach, tj. po i, otrzymujemy następujące równanie:
¦ Mijk ¦ Nijk (1 λjk ).
i
(12)
i
Uwzględniając równanie (6), otrzymujemy, że:
ˆ
M
. jk
λjk
¦ Nijk ¦ Nijk .
i
Ponieważ N . jk
(13)
i
¦ Nijk , więc ostatecznie otrzymujemy:
i
ˆ N
M
. jk
. jk
λ jk
N . jk
.
(14)
Podstawiając uzyskane powyżej λjk do równania (11), otrzymujemy poszukiwaną postać estymatora:
opt
Mijk
ˆ
M
ijk
N ijk (1 λjk ) Nijk
ˆ
M
. jk
N . jk
.
(15)
ˆ istnieje minimum (warunek
Należy jeszcze sprawdzić, czy w punkcie M
ijk
dostateczny istnienia ekstremum warunkowego). W tym celu trzeba wykazać, że forma kwadratowa d 2 L( M̂ijk )(ξ ) jest dodatnio określona dla pewnego
niezerowego wektora ξ. Mamy:
ˆ )(ξ )
d 2 L( M
ijk
w2L
ξ ξ .
wMijk wMlmn ijk lmn
l , m, n
¦ ¦
i, j, k
(16)
128
Tomasz Józefowski, Marcin Szymkowiak
Zauważmy, że:
w2L
wMijk Mlmn
­ 1
°N
® ijk
°0
¯
dla i, j, k l , m, n,
(17)
dla i, j, k z l , m, n.
Podstawiając obliczone pochodne drugiego rzędu do formy kwadratowej
(16), otrzymujemy:
ˆ opt )(ξ )
d 2 L( M
ijk
w2L
ξ ξ
wMijk wMlmn ijk lmn
l , m, n
¦ ¦
i, j, k
1
¦ N2
i, j, k
2
ξijk
.
(18)
ijk
Jest to oczywiście forma kwadratowa dodatnio określona. Stąd statystyka
określona wzorem (7) jest poszukiwanym rozwiązaniem zadania minimalizacji funkcji odległości.
Twierdzenie 2. Rozwiązaniem zadania minimalizacji (5) dla funkcji odległości
(4) i przy warunku (6) jest statystyka postaci:
ˆ
M
ijk
N ijk
ˆ
M
. jk
(19)
.
N . jk
Dowód. W celu udowodnienia twierdzenia wykorzystano ponownie metodę
czynników nieoznaczonych Lagrange’a. Funkcja Lagrange’a ma postać:
L
§
N
·
¦ Nijkln Mijkijk ¦ λ jk ¨¨ ¦ Mijk Mˆ . jk ¸¸ .
i, j, k
©
j, k
i
(20)
¹
Pochodna funkcji L względem Mijk ma postać:
wL
wMijk
§ N ijk
N ijk ˜ ¨ 2
¨ Mijk
©
· M
¸ ˜ ijk λ jk .
¸ N ijk
¹
(21)
Przyrównując obliczoną pochodną do zera, otrzymujemy następujące równanie:
N ijk
Mijk
λ jk ,
(22)
Zastosowanie estymatora typu SPREE w szacowaniu liczby osób bezrobotnych
129
którego rozwiązaniem jest:
Mijk = –Nijk λjk .
(23)
Dokonując sumowania po wszystkich domenach, tj. po i, otrzymujemy następujące równanie:
¦ Mijk
i
¦ Nijk λjk .
¦ Nijk, otrzymujemy:
Uwzględniając równanie (6) oraz to, że N . jk
λ jk
(24)
i
ˆ
M
. jk
N . jk
i
(25)
.
Podstawiając uzyskane powyżej λjk do równania (23), otrzymujemy poszukiwaną postać estymatora:
opt
Mijk
ˆ
M
ijk
N ijk λjk
ˆ
§ M
. jk
¨
Nijk ¨ N . jk
©
·
¸
¸
¹
Nijk ˜
ˆ
M
. jk
N . jk
.
(26)
ˆ
Podobnie jak w twierdzeniu 1 należy jeszcze sprawdzić, czy w punkcie M
ijk
istnieje minimum (warunek dostateczny istnienia ekstremum warunkowego).
W tym celu trzeba wykazać, że forma kwadratowa d 2 L( M̂ijk )(ξ ) jest dodatnio
określona dla pewnego niezerowego wektora ξ.
Zauważmy, że:
w2L
wMijk wMlmn
ˆ opt )(ξ )
d 2 L( M
ijk
­ N ijk
° 2
® Mijk
°
¯0
(27)
dla i, j, k z l , m, n,
w2L
ξ ξ
wMijk wMlmn ijk lmn
l , m, n
¦ ¦
i, j, k
dla i, j, k l , m, n,
N
¦ Mˆ ijk2 ξijk2 .
i, j, k
(28)
ijk
Jest to oczywiście forma kwadratowa dodatnio określona. Stąd statystyka
określona wzorem (19) jest poszukiwanym rozwiązaniem zadania minimalizacji funkcji odległości.
Z powyższych twierdzeń wynika, że – bez względu na wybór funkcji odległości – uzyskujemy tę samą postać estymatora liczebności w trójwymiarowej
130
Tomasz Józefowski, Marcin Szymkowiak
ˆ w trójwymiatabeli kontyngencji. Mając wyznaczone nowe liczebności M
ijk
ˆ
rowej tabeli kontyngencji, które sumują się do liczebności brzegowych M
. jk
uzyskanych z badania reprezentacyjnego, bardzo łatwo można uzyskać pozostałe wartości brzegowe Mij., dokonując sumowania po k, tj. po wszystkich
wariantach dodatkowej zmiennej związanej ze zmienną y. Uzyskujemy w ten
sposób wzór na liczebności brzegowe Mij.:
Mij.
¦
N ijk
k
ˆ
M
. jk
N . jk
.
(29)
Z racji tego, że liczebności wejściowe Nijk w trójwymiarowej tabeli kontyngencji pochodzą z badania pełnego (spisów, rejestrów administracyjnych)
i nie są w związku z tym obarczone błędami losowymi, wariancja estymatora
ˆ . Wariancja estymatora
typu SPREE jest uzależniona tylko od wariancji M
. jk
ˆ
Mijk wyraża się zatem wzorem:
ˆ
§
M
. jk
ˆ ) V ¨N
V (M
ijk
ijk
¨
N . jk
©
·
¸
¸
¹
§ N ijk
¨
¨ N . jk
©
2
·
ˆ ).
¸ V (M
. jk
¸
¹
(30)
Celem zilustrowania omawianej metody wyznaczania liczebności w trójwymiarowej tabeli kontyngencji z wykorzystaniem ,,jednokrokowego” estymatora typu SPREE rozważmy następujący przykład – por. tabela 2. Załóżmy,
że ze spisu dysponujemy informacją na temat liczby osób pracujących i bezrobotnych w przekroju powiatów i płci.
Tabela 2. Bezrobotni i pracujący według powiatów i płci
Powiat
Status osoby na
rynku pracy
Płeć
mężczyzna
100
Mij.
kobieta
150
M11.
Powiat 1
pracująca
bezrobotna
50
60
M12.
Powiat 2
pracująca
150
20
M21.
80
100
M22.
400
380
bezrobotna
Na potrzeby przykładu, celem uproszczenia, przyjmijmy, że dane są tylko
dwa powiaty tzn. D = 2. Załóżmy ponadto, że wartości brzegowe zostały oszacowane z wykorzystaniem estymatora bezpośredniego i danych pochodzących
Zastosowanie estymatora typu SPREE w szacowaniu liczby osób bezrobotnych
131
z bieżącego badania reprezentacyjnego, na przykład Badania Aktywności Ekonomicznej Ludności. Przyjmujemy przy tym, że pracujących i bezrobotnych
mężczyzn jest odpowiednio 280 i 120, a pracujących i bezrobotnych kobiet
odpowiednio 200 i 180 tzn. M̂..11 = 280, M̂..21 = 120, M̂..12 = 200, M̂..22 = 180.
Stąd oszacowana liczba mężczyzn i kobiet po wszystkich powiatach, bez
względu na status na rynku pracy wynosi odpowiednio 400 i 380. Zwróćmy
jednak uwagę, że liczebności spisowe Nijk w poszczególnych komórkach tabeli kontyngencji nie sumują się do oszacowanych liczebności brzegowych
z badania reprezentacyjnego. Należy więc je odpowiednio skorygować tak,
aby zapewniona była sumowalność do oszacowanych wartości brzegowych.
W tym celu należy skorzystać ze wzoru (7). Tabela 3 zawiera informacje na
temat bezrobotnych i pracujących według powiatów i płci po zastosowaniu
estymatora typu SPREE, tj. po odpowiedniej korekcie.
Tabela 3. Bezrobotni i pracujący według powiatów i płci – po zastosowaniu estymatora
typu SPREE
Powiat
Status osoby na
rynku pracy
Płeć
mężczyzna
112
kobieta
176
Mij.
Powiat 1
pracująca
bezrobotna
46
68
114
Powiat 2
pracująca
168
24
192
74
112
186
400
380
bezrobotna
288
ˆ w wyznaczonej trójwymiarowej
Odpowiednie – skorygowane wartości M
ijk
tablicy kontyngencji uzyskano z następujących wyliczeń2:
280
120
280
ˆ
ˆ
ˆ
M
112, M
46, M
168,
111 100 ˜
121 50 ˜
211 150 ˜
250
130
250
120
200
180
ˆ
ˆ
ˆ
M
74, M
176, M
68,
221 80 ˜
112 150 ˜
122 60 ˜
130
170
160
200
180
ˆ
ˆ
M
24, M
112.
212 20 ˜
222 100 ˜
170
160
Z kolei wartości brzegowe Mij otrzymano ze wzoru (29).
2
Wyniki zaokrąglono do wartości całkowitych.
132
Tomasz Józefowski, Marcin Szymkowiak
2. Estymator typu SPREE w szacowaniu liczby bezrobotnych
w przekroju podregionów
Podstawowym źródłem informacji o rynku pracy w Polsce jest Badanie
Aktywności Ekonomicznej Ludności (BAEL). Jest to badanie reprezentacyjne,
które dostarcza kompleksowych danych na temat sytuacji w zakresie aktywności ekonomicznej ludności, tzn. fakcie wykonywania pracy, pozostawania
bezrobotnym lub biernym zawodowo. Najniższym poziomem podziału administracyjnego, na którym udostępniane są wyniki z BAEL jest województwo.
Jest to konsekwencja reprezentacyjnego charakteru badania i wielkości próby.
Oznacza to, że oszacowania na niższym poziomie podziału terytorialnego są
obciążone zbyt dużym błędem losowym, podobnie jak dodatkowe przekroje
w ujęciu wojewódzkim.
Istnieje jednak potrzeba pokrycia informacyjnego na niższych poziomach
agregacji przestrzennej czy też bardziej szczegółowych domen. Dla władz powiatu, gminy czy miasta szczególnie istotna z punktu widzenia prowadzenia
właściwej polityki rynku pracy jest informacja na temat bezrobocia w ich
regionie czy jednostce urbanistycznej, a mniejszą rolę odgrywają dane na
poziomie całego kraju bądź województwa. Powstaje zatem luka informacyjna,
której wyniki z Badania Aktywności Ekonomicznej Ludności nie są w stanie
wypełnić ze względu na niewystarczającą liczebność próby, na niższych aniżeli
województwo, poziomach terytorialnych.
W tej części artykułu zaprezentowano praktyczne wykorzystanie estymatora typu SPREE w szacowaniu liczby bezrobotnych w przekroju podregionów
województwa wielkopolskiego z uwzględnieniem płci oraz wieku3. W tym
celu wykorzystano dane pochodzące z Badania Aktywności Ekonomicznej
Ludności za II kwartał 2011 roku4. Ze względu na małe liczebności próby
w odpowiednich przekrojach podregionów województwa wielkopolskiego
wyznaczonych przez płeć i wiek, nie jest zasadne wykorzystanie estymatora
Horvitza-Thompsona w szacowaniu liczby bezrobotnych. Ponieważ estymator typu SPREE wymaga danych wejściowych do trójwymiarowej tabeli
kontyngencji5, więc wykorzystano informacje pochodzące z miesięcznej spra3
Podregiony stanowią poziom agregacji przestrzennej o jeden niżej aniżeli województwo.
Wyniki z BAEL, jak to zostało zasygnalizowane, nie są publikowane na tym poziomie.
4
Dane te zaczerpnięto z Banku Danych Lokalnych.
5
Wymiary tabeli tworzą podregiony województwa wielkopolskiego, kategorie płci oraz
wieku. Dane wejściowe pochodzą zazwyczaj z rejestrów administracyjnych, spisu czy z innych
źródeł.
Zastosowanie estymatora typu SPREE w szacowaniu liczby osób bezrobotnych
133
wozdawczości Ministerstwa Pracy i Polityki Społecznej sporządzanej przez
powiatowe urzędy pracy6.
Tabela 4 zawiera szczegółowe informacje na temat liczby bezrobotnych
zarejestrowanych w podregionach województwa wielkopolskiego w II kwartale
2011 roku w przekroju płci oraz wieku. Dane te pochodzą z miesięcznej sprawozdawczości Ministerstwa Pracy i Polityki Społecznej (formularz MPiPS-01),
które są sporządzane przez powiatowe urzędy pracy. W tabeli tej zawarto
ponadto informacje o liczbie bezrobotnych w województwie wielkopolskim
z uwzględnieniem płci i wieku, ale pochodzące z Badania Aktywności Ekonomicznej Ludności za II kwartał 2011 roku.
Tabela 4. Bezrobotni zarejestrowani w podregionach województwa wielkopolskiego
w II kwartale 2011 roku
Podregion
Kaliski
Koniński
Leszczyński
Pilski
Poznański
Miasto Poznań
Województwo wielkopolskie
Wiek
poniżej 25 lat
25 lat i więcej
poniżej 25 lat
25 lat i więcej
poniżej 25 lat
25 lat i więcej
poniżej 25 lat
25 lat i więcej
poniżej 25 lat
25 lat i więcej
poniżej 25 lat
25 lat i więcej
poniżej 25 lat
25 lat i więcej
Płeć
mężczyzna
2 317
7 672
3 713
11 151
1 766
5 690
1 830
7 178
1 341
5 060
534
4 850
19 000
45 000
kobieta
4 191
11 487
5 292
14 940
3 155
7 768
3 229
9 758
2 167
7 243
742
5 230
18 000
51 000
Źródło: Miesięczna sprawozdawczość Ministerstwa Pracy i Polityki Społecznej.
Zwróćmy uwagę, że wyjściowe liczebności w tabeli kontyngencji nie sumują
się do odpowiednich liczebności brzegowych z Badania Aktywności Ekonomicznej Ludności. Zachodzi zatem potrzeba ich korekty celem zapewnienia
6
Należy mieć na uwadze to, że występują nieco inne definicje osoby bezrobotnej w obydwu źródłach, tj. w sprawozdawczości powiatowych urzędów pracy (bezrobocie rejestrowane) i BAEL. Szczegółowe informacje na temat występujących różnic można znaleźć w pracy
Janukowicza [2010].
134
Tomasz Józefowski, Marcin Szymkowiak
zgodności z wynikami z badania BAEL. Umożliwi to jednocześnie prezentację
liczby bezrobotnych w ujęciu podregionów, płci i wieku zgodnie z definicją
z badania BAEL. Celem odpowiedniego dopasowania struktur z dwóch różnych źródeł danych wykorzystano opisany w artykule estymator typu SPREE.
Tabela 5 przedstawia wyniki estymacji liczby bezrobotnych w II kwartale 2011 roku w przekroju podregionów województwa wielkopolskiego,
z uwzględnieniem płci i wieku i z wykorzystaniem estymatora typu SPREE.
Po jego zastosowaniu wartości wewnętrzne w utworzonej tabeli kontyngencji
sumują się do odpowiednich liczebności brzegowych pochodzących z BAEL.
Co więcej, uzyskano również informacje o liczbie bezrobotnych w poszczególnych grupach wieku w każdym z podregionów.
Tabela 5. Bezrobotni w podregionach województwach wielkopolskiego w II kwartale
2011 roku
Podregion
Kaliski
Koniński
Leszczyński
Pilski
Poznański
Miasto Poznań
Województwo wielkopolskie
Wiek
poniżej 25 lat
25 lat i więcej
poniżej 25 lat
25 lat i więcej
poniżej 25 lat
25 lat i więcej
poniżej 25 lat
25 lat i więcej
poniżej 25 lat
25 lat i więcej
poniżej 25 lat
25 lat i więcej
poniżej 25 lat
25 lat i więcej
Płeć
mężczyzna
3 828
8 299
6 134
12 062
2 917
6 155
3 023
7 764
2 215
5 473
882
5 246
19 000
45 000
kobieta
4 018
10 382
5 073
13 503
3 025
7 021
3 096
8 820
2 077
6 547
711
4 727
18 000
51 000
Ogółem
7 846
18 681
11 207
25 565
5 942
13 176
6 119
16 584
4 293
12 020
1 594
9 973
37 000
96 000
Źródło: Opracowanie własne z wykorzystaniem estymatora SPREE.
Ze względu na to, że w Banku Danych Lokalnych, z którego zaczerpnięto
informacje o liczbie bezrobotnych (definicja zgodna z definicją stosowaną
w BAEL), są publikowane wskaźniki precyzji jedynie dla wybranych kategorii, nie było możliwości uzyskania wskaźników precyzji szacunków liczby
bezrobotnych w przekroju podregionów, płci i wieku.
Analiza danych zawartych w tabelach 4 i 5 wskazuje, że dla wielu przekrojów różnice w liczbie bezrobotnych są na zadowalającym poziomie. Jest to
Zastosowanie estymatora typu SPREE w szacowaniu liczby osób bezrobotnych
135
zgodne z filozofią konstrukcji estymatora typu SPREE, w którym poszukuje
się nowych liczebności w tabeli kontyngencji, mających zapewnić zgodność
z wartościami brzegowymi, i które nie będą się znacznie różniły od wartości
wejściowych pochodzących ze spisu, rejestrów administracyjnych czy innych
źródeł. Należy jednak podkreślić, że w przypadku mężczyzn w grupie wiekowej poniżej 25 lat różnice te były rzędu 65%. Na przykład w podregionie
kaliskim liczba bezrobotnych zarejestrowanych mężczyzn poniżej 25 roku
życia wynosiła 2317. Po korekcie, z wykorzystaniem estymatora typu SPREE,
wzrosła do 3828. Różnice te w wielu wypadkach są zrozumiałe i wynikają między innymi z innych definicji osoby bezrobotnej w analizowanych źródłach.
Oszacowana wartość liczby bezrobotnych ujmuje bowiem nie tylko osoby
zarejestrowane, ale i te, które pracują w tzw. szarej strefie.
Podsumowanie
W artykule przedstawiono w kompleksowy sposób metodę konstrukcji jednokrokowych estymatorów typu SPREE. Podano najważniejsze twierdzenia dotyczące wyprowadzania postaci estymatorów liczebności w trójwymiarowych
tabelach kontyngencji, tak aby zapewnić zgodność z wartościami brzegowymi
pochodzącymi z badania reprezentacyjnego. Rozważania teoretyczne zilustrowano praktycznym wykorzystaniem estymatora typu SPREE w szacowaniu
liczby bezrobotnych osób w przekroju płci i wieku dla podregionów województwa wielkopolskiego.
Zaprezentowana metodologia wyznaczania estymatorów typu SPREE może
być stosowana w każdym badaniu częściowym, w którym występuje problem
uzyskania wiarygodnych informacji obarczonych niewielkimi błędami szacunku na niskich poziomach agregacji przestrzennej. Możliwe jest również
zastosowanie w badaniach praktycznych tzw. dwukrokowego estymatora
typu SPREE. Jak wskazuje literatura przedmiotu [Rao 2003], można zakładać
polepszenie uzyskanych wyników w stosunku do podejścia jednokrokowego.
Wymaga to jednak znajomości wszystkich wartości brzegowych z badania
reprezentacyjnego. Estymatory typu SPREE mogą znaleźć zatem szczególnie
zastosowanie w badaniach prowadzonych przez Główny Urząd Statystyczny,
w których wielkość próby i dotychczas stosowane estymatory uniemożliwiają
uzyskanie wiarygodnych i obarczonych małymi błędami szacunków na poziomie niższym aniżeli województwo.
136
Tomasz Józefowski, Marcin Szymkowiak
Bibliografia
Berg, E., Fuller, W.A., 2009, A SPREE Small Area Procedure for Estimating Population Counts,
SSC Annual Meeting, Proceedings of the Survey Methods Section.
Janukowicz, P., 2010, Bezrobocie rejestrowane a bezrobocie według BAEL, Polityka Społeczna,
nr 1.
Longford, N., 2005, Missing Data and Small Area Estimation: Modern Analytical Equipment
for the Survey Statistician, Series: Statistics for Social and Behavioral Sciences, Springer.
Purcell, N.J., Kish, L., 1980, Postcensal Estimates for Local Areas (or Domains), International
Statistical Review, 48, s. 3–18.
Rao, J.N.K., 2003, Small Area Estimation, John Wiley & Sons, INC., Publication.
Särndal, C.-E., 2007, The Calibration Approach in Survey Theory and Practice, Survey Methodology, vol. 33, no. 2, s. 99–119.
Swanson, D.A., Tayman, J., 2012, Subnational Population Estimates, The Springer Series on
Demographic Methods and Population Analysis, New York.
Szymkowiak, M., 2007, Przyczynek do kalibracji w badaniach statystycznych z brakami odpowiedzi, w: Panek, E. (red.), Kapitał ludzki i wiedza w gospodarce: wyzwania XXI wieku,
Akademii Ekonomicznej w Poznaniu, Poznań, s. 194–204.
Zhang, L., Chambers, R.L., 2004, Small Area Estimates for Cross-classifications, Journal of the
Royal Statistical Society B, 66, s. 479–496.

Podobne dokumenty