Analiza składek ubezpieczeniowych wyznaczonych w

Transkrypt

Analiza składek ubezpieczeniowych wyznaczonych w
MICHA×KRZESZOWIEC
Analiza sk÷
adek ubezpieczeniowych w oparciu
o teorie¾ skumulowanej perspektywy
Kahnemana-Tversky’ego
Praca doktorska napisana
w Instytucie Matematycznym Polskiej Akademii Nauk
pod kierunkiem dr. hab. Marka Ka÷
uszki, prof. P×.
Warszawa, maj 2013 r.
Spis treści
Spis oznaczeń i umów przyjetych
¾
w pracy
4
1 Wstep
¾
5
2 Teorie wyborów w warunkach ryzyka i niepewności
7
2.1 Funkcja uz·yteczności
7
2.2 Teoria skumulowanej perspektywy
9
2.3 Ca÷
ka Choqueta
10
3 Sk÷
adki ubezpieczeniowe
14
3.1 Wybrane sk÷
adki ubezpieczeniowe
14
3.2 W÷
asności sk÷
adek ubezpieczeniowych
19
4 Sk÷
adka mean-value w teorii skumulowanej perspektywy
24
4.1 De…nicja sk÷
adki
24
4.2 Przyk÷
ady
25
4.3 W÷
asności sk÷
adki mean-value w teorii skumulowanej perspektywy
29
5 Sk÷
adka zerowej uz·yteczności w teorii skumulowanej perspektywy
50
5.1 De…nicja sk÷
adki
50
5.2 Przyk÷
ady
51
5.3 W÷
asności sk÷
adki zerowej uz·yteczności w teorii skumulowanej perspektywy
53
Bibliogra…a
80
3
Spis oznaczeń i umów przyjetych
¾
w pracy
w ca÷
ej pracy zak÷
adamy, z·e wszystkie zmienne losowe określone sa¾ na pewnej przestrzeni
probabilistycznej ( ; A; P );
sup X = inf ft : P (X
sup ; =
inf X =
1);
sup ( X)
t) = 1g
istotny kres górny zmiennej losowej X (zak÷
adamy, z·e
istotny kres dolny zmiennej losowej X;
X+ = max f0; Xg;
X =d Y
FX 1
równość rozk÷
adów prawdopodobieństwa zmiennych losowych X i Y ;
FX 1 (p) = inf ft 2 R : p
U
FX (t)g dla p 2 (0; 1)
dolny kwantyl rzedu
¾ p;
rodzina funkcji wartości, tzn. funkcji u : R ! R rosnacych,
¾
ciag÷
¾ ych i takich, z·e
u (0) = 0;
cx
U0
podrodzina U sk÷
adajaca
¾ sie¾ z funkcji postaci u (x) = cx, u (x) = (1
G
rodzina funkcji zniekszta÷
cajacych
¾
prawdopodobieństwo, tzn. funkcji g : [0; 1] ! [0; 1]
(ecx
e
) =d, u (x) =
1) =d dla wszystkich x 2 R i pewnych c; d > 0;
niemalejacych
¾
oraz takich, z·e g (0) = 0 i g (1) = 1;
X2 rodzina zmiennych losowych takich, z·e P (X = 0) = 1
q, P (X = s) = q, gdzie s > 0
oraz q 2 [0; 1];
X=Y
X
równość p.w. P , tzn. P (X = Y ) = 1;
Y - nierówność p.w. P , tzn. P (X
f (x+), f (x )
W1, W2, ..., W9
Y ) = 1;
granice prawostronna i lewostronna funkcji f w punkcie x;
w÷
asności, odpowiednio, uogólnionej ca÷
ki Choqueta (patrz Lemat 2.1 na
stronie 12).
4
1
Wstep
¾
Z
praktycznego
punktu
widzenia,
przy
wyznaczaniu
sk÷
adek
ubezpieczeniowych
zde…niowanych w ujeciu
¾
teorii oczekiwanej uz·yteczności zak÷
ada sie¾ domyślnie, z·e ludzie
uz·ywaja¾ funkcji uz·yteczności przy podejmowaniu decyzji w warunkach ryzyka i niepewności
oraz potra…a¾ w÷
aściwie ocenić prawdopodobieństwa zysków i strat. Pratt (1964) oraz inni
matematycy i ekonomiści badaja¾ w÷
asności sk÷
adek ubezpieczeniowych w teorii oczekiwanej
uz·yteczności przy za÷
oz·eniu wypuk÷
ości lub wkles÷
¾ ości oraz dwukrotnej róz·niczkowalności
funkcji uz·yteczności. W rzeczywistości te za÷
oz·enia prowadza¾ do wniosków sprzecznych
z badaniami empirycznymi, co potwierdza teoria skumulowanej perspektywy KahnemanaTversky’ego.
Celem tej pracy jest wprowadzenie i analiza nowych typów sk÷
adek ubezpieczeniowych
dostosowanych do teorii skumulowanej perspektywy. Aby móc jak najwierniej uwzglednić
¾
czynniki behawioralne w sposobie wyznaczenia sk÷
adek, w naszych rozwaz·aniach bedziemy
¾
przyjmowali moz·liwie s÷
abe za÷
oz·enia określajace
¾ funkcje, za pomoca¾ których dane sk÷
adki
sa¾ zde…niowane. Przeprowadzona w tej pracy analiza sk÷
adek ubezpieczeniowych jest
uogólnieniem wyników przedstawionych przez Gerbera (1979), Goovaertsa i innych (1984),
Rolskiego i innych (1999), Van der Hoeka i Sherrisa (2001), Luana (2001) i Heilperna (2003)
oraz stanowi kontynuacje¾ badań prowadzonych przez matematyków i ekonomistów (np.
Hardy i inni, 1952, Wang i inni, 1997) nad funkcjona÷
ami wystepuj
¾ acymi
¾
w matematyce
ubezpieczeniowej.
Uk÷
ad dalszej cześci
¾ pracy jest nastepuj
¾ acy.
¾ W rozdziale 2 znajduje sie¾ rys historyczny
oraz wspó÷
czesne teorie dotyczace
¾ podejmowania decyzji w warunkach ryzyka i niepewności.
Rozdzia÷3 poświecony
¾
jest sk÷
adkom ubezpieczeniowym, ich najwaz·niejszym przyk÷
adom
oraz w÷
asnościom.
W rozdziale 4 de…niujemy sk÷
adk¾
e mean-value w ujeciu
¾
teorii
skumulowanej perspektywy. Podajemy takz·e jawne wzory na sk÷
adki dla pewnych funkcji
wartości i funkcji zniekszta÷
cajacych
¾
prawdopodobieństwo oraz analizujemy w÷
asności
wprowadzonej sk÷
adki.
W badaniach nie zak÷
adamy róz·niczkowalności, wkles÷
¾ ości ani
wypuk÷
ości funkcji wartości oraz, o ile to moz·liwe, odrzucamy za÷
oz·enia o róz·niczkowalności,
ciag÷
¾ ości, wkles÷
¾ ości oraz wypuk÷
ości funkcji zniekszta÷
cajacych
¾
prawdopodobieństwo.
Os÷
abienie wspomnianych za÷
oz·eń powoduje, z·e sposób dowodzenia twierdzeń bazuje na
rozwiazywaniu
¾
równań funkcyjnych oraz równań róz·niczkowych z pochodna¾ jednostronna,¾
a nie równań róz·niczkowych, co mia÷
o miejsce we wcześniejszych pracach. Rozwiazanie
¾
równań funkcyjnych nierozwaz·anych do tej pory w literaturze, a takz·e rozwiazanie
¾
równań
funkcyjnych przy s÷
abszych za÷
oz·eniach niz· w innych pracach (np. Lax, 2008), pozwala
5
wzbogacić wiedze¾ w tym zakresie. W rozdziale 5 analizujemy sk÷
adk¾
e zerowej uz·yteczności
w teorii skumulowanej perspektywy. Wyniki przedstawione w niniejszej pracy sa¾ zawarte w
znacznej wiekszości
¾
w pracach Ka÷
uszki i Krzeszowca (2012 a, 2012 b, 2013 a, 2013 b).
Podziekowania
¾
Pragne¾ podziekować
¾
promotorowi mojej rozprawy doktorskiej za opiek¾
e
i owocna¾ wspó÷
prace.
¾
Dziekuj
¾ e¾ równiez· opiekunowi studiów doktoranckich profesorowi
×ukaszowi Stettnerowi za z·yczliwość i opiek¾
e w trakcie trwania studiów doktoranckich.
Dziekuj
¾ e¾ za wsparcie …nansowe uzyskane od Narodowego Centrum Nauki w ramach
projektu badawczego pt.
"Analiza sk÷
adek ubezpieczeniowych w teorii Kahnemana-
Tversky’ego" o numerze 2011/01/N/HS4/05627. Dziekuj
¾ e¾ równiez· za do…nansowanie badań
uzyskane z dotacji na zadania s÷
uz·ace
¾ rozwojowi m÷
odych naukowców w ramach …nansowania
dzia÷
alności statutowej Wydzia÷
u Fizyki Technicznej, Informatyki i Matematyki Stosowanej
Politechniki ×ódzkiej.
6
2
Teorie wyborów w warunkach ryzyka i niepewności
2.1
Funkcja uz·yteczności
Za prekursora matematycznej teorii wyborów w warunkach ryzyka i niepewności uznaje
sie¾ Daniela Bernoulliego (1700-1782), który w rozwiazaniu
¾
problemu postawionego przez
swojego stryja Nicolasa Bernoulliego, jako pierwszy wprowadzi÷ do literatury pojecie
¾
uz·yteczności.
Nicolas Bernoulli na poczatku
¾
XVIII wieku dostrzeg÷ pewna¾ s÷
abość
niesformalizowanej wówczas teorii prawdopodobieństwa zapoczatkowanej
¾
przez Cardano,
Fermata oraz Pascala. W 1713 roku w liście do Pierre’a Raymonda de Montmort przedstawi÷
tzw. paradoks petersburski, w którym podany jest nieskomplikowany przyk÷
ad gry losowej
o nieskończonej wartości oczekiwanej wygranej. Skoro wartość oczekiwana wygranej jest
nieskończona, to z teoretycznego punktu widzenia osoba podejmujaca
¾ ryzyko powinna
zgodzić sie¾ na zap÷
acenie dowolnie duz·ej kwoty za przystapienie
¾
do gry. Jednakz·e w praktyce
niewiele osób zgodzi÷
oby sie¾ na uczestnictwo w tej grze nawet za 25 dolarów (patrz Martin,
2004). Daniel Bernoulli (1738) zaproponowa÷natepuj
¾ acy
¾ sposób rozwiazania
¾
paradoksu.
Zauwaz·y÷on, z·e "Wyznaczanie wartości przedmiotu nie moz·e być oparte na jego cenie, ale
raczej na uz·yteczności jaka¾ ze soba¾ niesie... Nie ulega watpliwości,
¾
z·e zysk tysiaca
¾ dukatów
jest bardziej znaczacy
¾ dla biedaka niz· dla osoby zamoz·nej, mimo iz· w obu przypadkach
zysk jest taki sam". Bernoulli zasugerowa÷
, aby decyzja o cenie za przystapienie
¾
do gry
by÷
a wyznaczana przy wykorzystaniu logarytmicznej funkcji uz·yteczności, która zalez·y od
wartości posiadanego przez decydenta majatku.
¾
Prze÷
omowym wydarzeniem w teorii podejmowania decyzji w obecności ryzyka i
niepewności by÷
o opublikowanie przez von Neumanna i Morgensterna (1947) uk÷
adu
aksjomatów, które wed÷
ug nich charakteryzuja¾ racjonalnego decydenta.
aksjomaty określaja¾ relacje¾ porzadkuj
¾
ac
¾ a¾
Wspomniane
na zbiorze dopuszczalnych zmiennych losowych
(kaz·da ze zmiennych utoz·samiana jest z ryzykiem na jakie jesteśmy naraz·eni w danej
sytuacji). Dla dowolnych zmiennych L, M , N relacja ta:
jest zupe÷
na: L
M lub M
jest przechodnia: jez·eli L
jest ciag÷
¾ a: jez·eli L
L;
M iM
N , to L
N;
N , to istnieje p 2 [0; 1] takie, z·e pL + (1 p) N = M ;
spe÷
nia aksjomat niezalez·ności: jeśli L M , to dla dowolnego ryzyka N oraz p 2 (0; 1]
mamy pL + (1
p) N
M
pM + (1
p) N .
Okazuje sie,
¾ z·e relacja
spe÷
nia wspomniane aksjomaty
wtedyZ i tylko wtedy, gdy istnieje
Z
niemalejaca
¾ funkcja u taka, z·e X
Y ()
u (X) dP
u (Y ) dP . Funkcja u jest
7
wyznaczona w sposób jednoznaczny z dok÷
adnościa¾ do dodatnich przekszta÷
ceń a…nicznych.
Teoria oczekiwanej uz·yteczności von Neumanna i Morgensterna by÷
a oparta o aksjomaty,
co prowadzi÷
o do powszechnego przekonania, z·e jest to jedyny prawid÷
owy model s÷
uz·acy
¾
do opisu podejmowania decyzji w warunkach ryzyka i niepewności. Przekonanie to jest
dodatkowo wzmocnione faktem, z·e kszta÷
t funkcji uz·yteczności pozwala zaklasy…kować
decydentów do jednej z trzech grup: sk÷
onnych lub niechetnych
¾
do podejmowania ryzyka
oraz obojetnych
¾
na ryzyko. Wkles÷
¾ a funkcja uz·yteczności opisuje osobe¾ stroniac
¾ a¾ od ryzyka,
zaś wypuk÷
a funkcja uz·yteczności charakteryzuje decydenta lubiacego
¾
podejmować ryzyko.
Poczawszy
¾
od lat czterdziestych XX wieku powsta÷
y liczne prace, w których starano sie¾
wyznaczyć kszta÷
t funkcji uz·yteczności tak, aby w najlepszym stopniu odzwierciedla÷
a ona
zachowanie ludzi przy podejmowaniu decyzji. Friedman i Savage (1948) proponuja¾ funkcje
uz·yteczności, które sa¾ róz·niczkowalne, ale maja¾ dwa punkty przegiecia.
¾
Markowitz (1952),
który krytykuje taki pomys÷
, uwaz·a za stosowne wykorzystywanie funkcji uz·yteczności, które
maja¾ tylko jeden punkt przegiecia
¾ znajdujacy
¾ sie¾ w pobliz·u obecnego majatku
¾
decydenta.
Pod wp÷
ywem wspomnianych dwóch koncepcji, Gillen i Markowitz (2010) sugeruja¾ klase¾
funkcji uz·yteczności, które sa¾ róz·niczkowalne, ale sa¾ kawa÷
kami wkles÷
¾ e i wypuk÷
e. Analiza
pewnych podrodzin tego typu funkcji pozwala na ustalenie wp÷
ywu majatku
¾
na decyzje
podejmowane przez inwestora oraz na scharakteryzowanie jego sk÷
onności badź
¾ awersji do
ryzyka. Schmidt i Zank (2007) stosuja¾ kawa÷
kami liniowa,
¾ a wiec
¾ nieróz·niczkowalna¾ funkcje¾
uz·yteczności w problemach matematyki …nansowej i ubezpieczeniowej.
W prze÷
omowej pracy stanowiacej
¾ poczatki
¾ teorii perspektywy, Kahneman i Tversky
(1979),
po przeprowadzeniu licznych eksperymentów potwierdzaja¾ fakt,
z·e przy
podejmowaniu decyzji w warunkach ryzyka i niepewności ludzie uz·ywaja¾ funkcji, która
wynikom …nansowym przypisuje pewne wirtualne wartości, ale dodatkowo ustalaja¾ punkt
referencyjny i wyniki …nansowe od niego mniejsze postrzegaja¾ jako straty, zaś te wyz·sze
jako zyski. Kahneman i Tversky sugeruja¾ zastapienie
¾
funkcji uz·yteczności, która mierzy
bezwzgledn
¾ a¾wartość majatku,
¾
funkcja¾wartości, która zalez·y od wzglednej
¾
wielkości majatku
¾
oraz mierzy zyski i straty. Sugeruja¾ oni uz·ywanie funkcji uz·yteczności, które sa¾ wypuk÷
e dla
argumentów ujemnych i wkles÷
¾ e dla argumentów dodatnich oraz u0+ (0) < u0 (0), gdzie u0+ i
u0 oznaczaja¾ odpowiednio prawo- i lewostronna¾ pochodna¾ funkcji u.
W uzupe÷
nieniu do tych obserwacji, K½oszegi i Rabin (2007) zauwaz·aja,
¾ z·e podejmowanie
decyzji w warunkach niepewności zwieksza
¾
awersje¾ do ryzyka, gdy jest ono oczekiwane.
Punkty referencyjne, których moz·e być kilka, wp÷
ywajace
¾ na podjecie
¾
decyzji przez
decydenta, sa¾ wyznaczone w oparciu o jego przekonania dotyczace
¾ moz·liwości uzyskania
danego wyniku …nansowego i moga¾ być one wyznaczone w sposób stochastyczny. Decyzja
8
podejmowana jest poprzez maksymalizacje¾ funkcjona÷
u EF
R
v (wjr) dG (r), gdzie v jest
funkcja¾ wartości zaproponowana¾ przez Kahnemana i Tversky’ego, w jest zmienna¾ losowa¾
o rozk÷
adzie F opisujac
¾ a¾ wartość majatku,
¾
zaś G jest dystrybuanta¾ dyskretnej zmiennej
losowej R o skończonym nośniku. Przy tych za÷
oz·eniach moz·emy mieć do czynienia z
R
funkcja¾wartości postaci v (w) = v (wjr) dG (r), która ma bardzo nieregularne kszta÷
ty, a w
szczególności moz·e nie być róz·niczkowalna w wielu punktach. Schmidt i inni (2008) rozwijaja¾
koncepcje¾ zaproponowana¾ przez Tversky’ego i Kahnemana i w swoim modelu, oprócz
za÷
oz·enia o zniekszta÷
caniu prawdopodobieństw przy podejmowaniu decyzji w warunkach
ryzyka i niepewności, porównuja¾ równiez· konsekwencje, które wynikaja¾ z podjecia
¾
przez
osobe¾ konkretnej decyzji.
W badanym przez nich przypadku funkcje uz·yteczności sa¾
kawa÷
kami wkles÷
¾ e i wypuk÷
e i maja¾ wiele punktów nieróz·niczkowalności.
Wcia¾z· pozostaje kwestia¾ nierozstrzygniet
¾ a,
¾ jaki typ funkcji uz·yteczności najlepiej
odpowiada ludzkiemu zachowaniu przy podejmowaniu decyzji.
Wobec tego rozwaz·ajac
¾
modele matematyczne uwzgledniaj
¾
ace
¾ w swoich za÷
oz·eniach funkcje¾ wartości i chcac
¾
otrzymać wyniki dla moz·liwie duz·ej klasy tych funkcji, powinniśmy przyjmować moz·liwie
najs÷
absze za÷
oz·enia je opisujace.
¾
2.2
Teoria skumulowanej perspektywy
Równolegle do dyskusji o kszta÷
cie funkcji uz·yteczności, liczni naukowcy zastanawiali sie¾
nad prawdziwościa¾ aksjomatów przyjetych
¾
przez von Neumanna i Morgensterna. Znane
paradoksy (np. Allais, 1953, Ellsberg, 1961, Yaari, 1987, Rabin, 2000) ukazuja¾ s÷
abość teorii
oczekiwanej uz·yteczności i pokazuja,
¾ z·e zachowanie ludzi w warunkach ryzyka i niepewności
nie jest zgodne z jej za÷
oz·eniami. Kahneman i Tversky (1979) w sposób empiryczny zbadali,
z·e ludzie zniekszta÷
caja¾ prawdopodobieństwa przy podejmowaniu decyzji w warunkach
ryzyka i niepewności. Odkrycie to stanowi÷
o motywacje¾ dla ekonomistów, którzy zbadali
to zjawisko i uzasadnili je proponujac
¾ os÷
abienie aksjomatu niezalez·ności i zastapienie
¾
go
innnymi warunkami (patrz Quiggin, 1982, Yaari, 1987, Green i Jullien, 1988, Segal, 1989,
Puppe, 1991, Wakker, 1994, Abdellaoui, 2002).
W oparciu o przeprowadzone eksperymenty, Tversky i Kahneman (1992) udoskonalaja¾
teorie¾ oczekiwanej uz·yteczności i tworza¾ teorie¾ skumulowanej perspektywy.
Zak÷
ada
sie¾ w niej, z·e prawdopodobieństwa zysków i strat sa¾ zniekszta÷
cane, kaz·de z nich w
inny sposób. Zaproponowali oni, by wykorzystać uogólniona¾ ca÷
k¾
e Choqueta do opisu
podejmowania decyzji w warunkach ryzyka i niepewności (pojecie
¾ uogólnionej ca÷
ki Choqueta
jest wprowadzone w podrozdziale 2.3).
Po drugie, Tversky i Kahneman zauwaz·yli, z·e
9
decydenci ustalaja¾ pewien punkt referencyjny w i wyniki …nansowe wieksze
¾
badź
¾ równe
od tej wartości traktuja¾ jako zyski, zaś rezultaty mniejsze od w - jako straty. Po trzecie,
sugeruja¾ oni, by uz·ywać opisanej wcześniej funkcji wartości, która jest nieróz·niczkowalna
w zerze, zamiast funkcji uz·yteczności. Przy za÷
oz·eniach teorii skumulowanej perspektywy,
zarówno funkcja wartości jak i funkcja zniekszta÷
cajaca
¾ prawdopodobieństwo nie musza¾ być
róz·niczkowalne, wkles÷
¾ e czy wypuk÷
e (patrz Wang, 1996, K½oszegi i Rabin, 2007, Schmidt i
inni, 2008). W uznaniu za swoje osiagni
¾ ecia,
¾
Daniel Kahneman zosta÷w 2002 roku laureatem
Nagrody im. Alfreda Nobla z ekonomii. Amos Tversky zmar÷w roku 1996.
Teoria skumulowanej perspektywy by÷
a w ciagu
¾ ostatnich lat szeroko omawiana i
stosowana w ekonomii (np. Schmidt i inni, 2008, Teitelbaum, 2007). Powsta÷
y równiez· prace,
w których autorzy wykorzystuja¾te¾ teorie¾ w matematyce …nansowej i ubezpieczeniowej (patrz
De Giorgi i Hens, 2006, Schmidt i Zank, 2007, De Giorgi i inni, 2009, Bernard i Ghossoub,
2010).
2.3
Ca÷
ka Choqueta
Giuseppe Vitali w 1925 roku wprowadzi÷pojecie
¾ ca÷
ki, która jest szczególnym przypadkiem
później wprowadzonej ca÷
ki Choqueta przy za÷
oz·eniu, z·e wystepuj
¾ ace
¾ tam miary sa¾
addytywne. Gustave Choquet w obszernej pracy z 1954 r. stworzy÷narzedzie
¾
matematyczne,
dzieki
¾ któremu moz·na obliczać ca÷
ki wzgledem
¾
pojemności, tzn. niemalejacej
¾ i nieujemnej
funkcji zbioru spe÷
niajacej
¾ pewne warunki ciag÷
¾ ości. Mia÷
a ona znaleźć zastosowanie w
mechanice statystycznej oraz teorii potencja÷
ów. Wraz z up÷
ywem czasu, ca÷
ka Choqueta
zacze÷
¾ a być wykorzystywana przez matematyków i ekonomistów do opisu modeli dotyczacych
¾
podejmowania decyzji. Spostrzez·enia Kahnemana i Tversky’ego o zniekszta÷
caniu przez
ludzi prawdopodobieństw moz·na opisać w pewnym modelu matematycznym.
W teorii
dualnej ryzyka Yaari (1987) wprowadzi÷aksjomat komonotonicznej niezalez·ności, który
doprowadzi÷do stworzenia modelu rank-dependent utility, który m.in. eliminuje problem
przeszacowywania bardzo ma÷
ych prawdopodobieństw (patrz np. Quiggin, 1982, Green i
Jullien, 1988, Segal, 1989). Zak÷
ada Zsie¾ w nim, z·e relacja preferencji
za pomoca¾ ca÷
ki Choqueta postaci
jest określona
u (X) d (g P ), gdzie g : [0; 1] ! [0; 1] jest
funkcja¾ niemalejac
¾ a¾ taka,¾ z·e g (0) = 0 i g (1) = 1, nazywana¾ funkcja¾ zniekszta÷
cajac
¾ a¾
prawdopodobieństwo (patrz np. Segal, 1989, Denneberg, 1994). Niech G oznacza klase¾
wszystkich funkcji zniekszta÷
cajacych
¾
prawdopodobieństwo. Dla ustalonego g 2 G i dowolnej
10
zmiennej losowej X ca÷
k¾
e Choqueta oznaczamy poprzez Eg X i moz·emy ja¾ obliczyć ze wzoru
Eg X :=
Z0
(g (P (X > t))
1) dt +
1
Z1
g (P (X > t)) dt,
0
o ile obie ca÷
ki sa¾ skończone (patrz Chateauneuf i inni, 1997, Chateauneuf i Cohen, 2000).
Gdy X przyjmuje skończona¾ liczbe¾ wartości x1 < x2 < ::: < xn z prawdopodobieństwami
P (X = xi ) = pi > 0, to
Eg X = x1 +
n 1
X
g (qi ) (xi+1
xi ) ,
i=1
gdzie qi =
n
P
pk ; w szczególności dla n = 2 mamy
k=i+1
g (p2 )) + g (p2 ) x2 .
Eg X = x1 (1
Ca÷
ka Choqueta jest addytywna dla zmiennych losowych komonotonicznych, dodatnio
jednorodna, monotoniczna (tzn. Eg X
Eg Y gdy X
Ponadto
Eg ( X) =
gdzie funkcja g (x) = 1
g (1
Y ) oraz Eg (c) = c dla c 2 R.
Eg X,
x) jest nazywana dualna¾ funkcja¾ zniekszta÷
cajac
¾ a¾
prawdopodobieństwo.
W literaturze moz·emy znaleźć nastepuj
¾ ace
¾ przyk÷
ady funkcji
zniekszta÷
cajacych
¾
prawdopodobieństwo:
g (p) =
p
(p + (1
1=
p) )
,
g (p) = exp ( ( ln p) ) ,
gdzie
g (p) =
p
p + (1
g (p) = p +
p
p)
,
p2 ,
2 (0; 1) jest ustalone (patrz Tversky i Kahneman, 1992, Goldstein i Einhorn, 1987,
Prelec, 1998, Sereda i inni, 2010, Wang, 1995, 1996, Diecidue i inni, 2009). O zastosowaniu
ca÷
ki Choqueta w praktyce dotyczacej
¾ podejmowania decyzji pisza¾ Heilpern (2002) i Wakker
(2010).
Tversky i Kahneman (1992) uz·yli dla zmiennej losowej typu dyskretnego pojecie
¾
uogólnionej ca÷
ki Choqueta, dzieki
¾ której prawdopodobieństwa zysków i strat moga¾ być
zniekszta÷
cane róz·nymi funkcjami. Dla g; h 2 G i dowolnej zmiennej losowej X, de…niujemy
11
uogólniona¾ ca÷
k¾
e Choqueta wzorem
Egh X = Eg X+
Eh ( X)+ ,
o ile obie ca÷
ki Choqueta sa¾ skończone. Kszta÷
ty funkcji g i h sa¾ zwykle do siebie podobne, a
róz·nia¾ sie¾ wartościami wspó÷
czynników wystepuj
¾ acych
¾
w ich wzorach. Ponadto, gdy h (p) =
g (p) = 1
p), to Egg X = Eg X.
g (1
W poniz·szym lemacie podajemy najwaz·niejsze w÷
asności uogólnionej ca÷
ki Choqueta.
Poza standardowymi w÷
asnościami, podajemy równiez· w÷
asności, które sa¾ nieznane w
literaturze aktuarialnej (W8 i W9).
Lemat 2.1 Uogólniona ca÷ka Choqueta ma nastepuj
¾ ace
¾ w÷asno´sci:
W1 Egh 1A = g (P (A));
W2 Egh (cX) = cEgh X dla wszystkich c
W3 Egh ( X) =
W4 je´sli X
0;
Ehg X;
Y , to Egh X
W5 je´sli g (x)
x i h (x)
W5’je´sli g (x)
x i h (x)
Egh Y ;
x dla x 2 [0; 1], to Egh X
EX;
x dla x 2 [0; 1], to Egh X
EX;
W6 je´sli g (x) = h (x) = x, to Egh X = EX;
W7 Egh c = c dla wszystkich c 2 R;
W8 dla wszystkich c 2 R prawdziwe sa¾wzory
Egh (X + c) = Egh X + c +
Zc
[h (P ( X > s))
g (P ( X > s))] ds,
(2.1)
g (P (X
(2.2)
0
Egh (X + c) = Egh X + c +
Zc
h (P (X
s))
s)) ds;
0
W9 nierówno´s´c Jensena: je´sli u : R ! R jest niemalejaca,
¾ wkles÷
¾ a i u (0) = 0, to dla g; h 2 G
i dowolnej zmiennej losowej X takiej, ·ze Egh X istnieje, mamy
u0 (m)m
Z u(m)
h (P (u0 (m) X
g (P (u0 (m) X
s)) ds,
(2.3)
gdzie m = Egh X oraz u0 jest prawostronna¾ pochodna¾ funkcji u. Ponadto, je´sli h (x)
g (x)
Egh u (X)
u (m) +
s))
0
lub X
0, to Egh u (X)
u (Egh X).
12
Dowód Dowody w÷
asności W1, W3 i W6 sa¾ oczywiste. W÷
asności W2, W5, W5’ i W7
wynikaja¾ z de…nicji uogólnionej ca÷
ki Choqueta, ca÷
ki Choqueta i w÷
asności ca÷
ki Choqueta.
Ad W4 Jeśli X
Y , to P (X > t)
Eg X+ =
Z1
P (Y > t) dla t 2 R. Stad
¾
Z1
g (P (X > t)) dt
0
Ponadto, jeśli X
g (P (Y > t)) dt = Eg Y+ .
0
Y , to
X i P ( Y > t)
Y
P ( X > t) dla t 2 R. Zatem
Eh ( Y )+ .
Eh ( X)+
Ad W8 Jako pierwszy udowodnimy wzór (2.1). Mamy
Egh (X + c) =
Z1
=
Z1
g (P (X > t
Z1
c)) dt
h (P ( X > t + c)) dt
0
0
g (P (X > t)) dt
c
Z1
h (P ( X > t)) dt
c
= Egh X +
Z0
= Egh X +
Zc
g (P (X > t)) dt
c
Z0
h (P ( X > t)) dt
c
g (P ( X < s)) ds +
0
= Egh X + c +
Zc
h (P ( X > s)) ds
0
Zc
[h (P ( X > s))
g (P ( X > s))] ds,
0
gdyz· mody…kacja funkcji podca÷
kowej w przeliczalnej liczbie punktów nie zmienia wartości
ca÷
ki. Wzór (2.2) otrzymujemy ze wzoru (2.1) po wykonaniu elementarnych przekszta÷
ceń.
u (m) + u0 (m) (x
Ad W9 Oczywiście u (x)
m) dla wszystkich x, gdzie u0 jest
prawostronna¾ pochodna¾ funkcji u. Stad,
¾ z W2, W4 i (2.2) mamy
Egh u (X)
Egh [u (m)
= u (m) +
u0 (m) m + u0 (m) X]
u0 (m)m
Z u(m)
h (P (u0 (m) X
s))
g (P (u0 (m) X
s)) ds,
0
co daje (2.3). Ponadto, u0 (m) m
u (Egh X). Gdy X
u (m)
0, to P (u0 (m) X
0 i u (0) = 0, wiec
¾ jeśli h
s) = 1, a zatem Egh u (X)
13
g, to Egh u (X)
u (Egh X).
3
Sk÷
adki ubezpieczeniowe
Sk÷
adka¾ ubezpieczeniowa¾ nazywamy kwote,
¾ za jaka¾ …rma ubezpieczeniowa jest sk÷
onna
sprzedać ubezpieczenie na wypadek ryzyka X, które jest zmienna¾ losowa.
¾ Kwota ta nie
moz·e być za wysoka, co mog÷
oby zniechecić
¾ potencjalnych klientów do ubezpieczania sie¾ lub
sk÷
onić do ubezpieczenia sie¾ w innej …rmie. Sk÷
adka nie moz·e być równiez· za niska, gdyz·
wówczas ubezpieczyciel naraz·ony jest na potencjalnie duz·e straty.
Z matematycznego punktu widzenia, zasada¾ wyznaczania sk÷
adek ubezpieczeniowych
nazywamy funkcjona÷ H, który dowolnej zmiennej losowej X z pewnej rodziny X
przyporzadkowuje
¾
liczbe¾ H (X) zwana¾ sk÷
adka¾ za ubezpieczenie sie¾ na wypadek ryzyka X,
lub w skrócie: sk÷
adka.¾ W dalszej cześci
¾ pracy s÷
owo "sk÷
adka" bedzie
¾
uz·ywane równiez· w
odniesieniu do funkcjona÷
u H. Wartość H (X)
EX nazywamy narzutem bezpieczeństwa
na sk÷
adk¾
e netto.
Aby wybrać sk÷
adk¾
e ubezpieczeniowa¾ najlepiej pasujac
¾ a¾ do danej sytuacji, korzysta
sie¾ zazwyczaj z jednej z trzech opisanych dalej metod.
Pierwsza z nich, wybór
sk÷
adki ad hoc, polega na ustaleniu racjonalnej sk÷
adki ubezpieczeniowej, zbadaniu jej
w÷
asności i sprawdzeniu, które z poz·adanych
¾
w÷
asności sa¾ spe÷
nione (np. sk÷
adka wartości
oczekiwanej jest z regu÷
y postrzegana jako sk÷
adka wyznaczona ad hoc i spe÷
nia wiekszość
¾
poz·adanych
¾
w÷
asności). Drugim ze sposobów, trudniejszym w implementacji, jest metoda
charakteryzacji. Polega ona na utworzeniu listy w÷
asności jakich oczekujemy od sk÷
adki
ubezpieczeniowej, a nastepnie
¾
na wyznaczeniu sk÷
adki lub sk÷
adek, które je spe÷
niaja.¾
Ostatnim ze sposobów wyznaczania odpowiedniej sk÷
adki jest tzw. metoda ekonomiczna.
Polega ona na przyjeciu
¾ przez aktuariusza pewnej teorii ekonomicznej i wyznaczeniu na jej
podstawie odpowiedniej sk÷
adki.
Niektóre ze sk÷
adek moga¾ być otrzymane w oparciu o dwa lub trzy zaprezentowane
sposoby. Na przyk÷
ad, sk÷
adk¾
e proporcjonalnego hazardu wprowadzi÷Wang (1995), który
szuka÷sk÷
adki spe÷
niajacej
¾ warunek przedzia÷
owej addytywności (ang. layer additivity), a
wiec
¾ uz·y÷metody charakteryzacji. Wang i inni (1997) pokazali później, z·e sk÷
adka ta jako
jedyna spe÷
nia uk÷
ad pewnych postulatów. Ponadto okazuje sie,
¾ z·e sk÷
adka proporcjonalnego
hazardu moz·e zostać uzyskana w oparciu o metode¾ ekonomiczna¾ (patrz Yaari, 1987).
3.1
Wybrane sk÷
adki ubezpieczeniowe
Poniz·ej przedstawiamy najpopularniejsze rodzaje wyznaczania sk÷
adek ubezpieczeniowych.
Zak÷
adamy, z·e X jest ca÷
kowalna¾ zmienna¾ losowa,
¾ zaś
14
> 0 jest pewna¾ ustalona¾ liczba.
¾
S1 Sk÷
adka netto: H (X) = EX. Jest to jeden z najprostszych przyk÷
adów sk÷
adki
ubezpieczeniowej.
Mimo iz· sk÷
adka netto nie zawiera narzutu bezpieczeństwa, to jest
powszechnie uz·ywana w literaturze aktuarialnej, gdyz· zak÷
ada sie,
¾ z·e ryzyko jest zasadniczo
pomijalne w przypadku, gdy …rma ubezpieczeniowa sprzeda duz·a¾ ilość niezalez·nych polis o
tym samym rozk÷
adzie (patrz Boyle i Schwartz, 1977, Bacinello i Ortu, 1993, Aase i Persson,
1994, Nielsen i Sandmann, 1995).
S2 Sk÷
adka wartości oczekiwanej: H (X) = (1 + ) EX.
Sk÷
adka ta powsta÷
a
w oparciu o sk÷
adk¾
e netto i zawiera proporcjonalny narzut bezpieczeństwa.
Jest ona
powszechnie wykorzystywana w teorii ryzyka (patrz Bowers i inni, 1997).
S3 Sk÷
adka wariancji: H (X) = EX + V arX. Jest ona suma¾ sk÷
adki netto oraz
dodatkowego sk÷
adnika, który jest proporcjonalny do wariancji ryzyka. Bühlmann (1970)
omówi÷szczegó÷
owo w÷
asności tej sk÷
adki. Okazuje sie,
¾ z·e sk÷
adka wariancji jest równiez·
dobrym przybliz·eniem sk÷
adki zerowej uz·yteczności.
p
S4 Sk÷
adka odchylenia standardowego: H (X) = EX +
V arX. Bazuje ona na
sk÷
adce netto z uwzglednieniem
¾
narzutu bezpieczeństwa, który jest wprost proporcjonalny
do odchylenia standardowego ryzyka. W÷
asności tej sk÷
adki bada÷Bühlmann (1970), który
zauwaz·y÷
, z·e czesto
¾ uz·ywa sie¾ jej w ubezpieczeniach majatkowych.
¾
Schweizer (2001) i Moller
(2001) omawiaja¾ jak zastosować sk÷
adki wariancji i odchylenia standardowego do wyceny
ryzyka w dynamicznych modelach …nansowych. Denneberg (1990) argumentuje, z·e sk÷
adka
odchylenia standardowego powinna zostać zastapiona
¾
przez sk÷
adk¾
e odchylenia przecietnego
¾
od mediany.
S5 Sk÷
adka odchylenia przecietnego
¾
od mediany: H (X) = EX + E jX
M edXj,
gdzie M edX jest mediana¾ryzyka X. Sk÷
adk¾
e te¾ oraz jej w÷
asności omawia Denneberg (1990).
1
S6 Sk÷
adka wyk÷
adnicza: H (X) =
ln Ee
X
.
Jest to szczególny przypadek
sk÷
adki zerowej uz·yteczności, gdy funkcja uz·yteczności jest wyk÷
adnicza (patrz Gerber, 1974
a). Sk÷
adka wyk÷
adnicza ma szereg poz·adanych
¾
w÷
asności, w÷
acznie
¾
z addytywnościa¾ dla
zmiennych losowych niezalez·nych. Musiela i Zariphopoulou (2002) wykorzystali te¾ sk÷
adk¾
e
w wycenie …nansowych instrumentów zabezpieczajacych
¾
na rynkach niezupe÷
nych. Young i
Zariphopoulou (2002), Moore i Young (2002) oraz Young (2003) uz·yli sk÷
adki wyk÷
adniczej
do wyceny róz·nych produktów ubezpieczeniowych w modelach dynamicznych.
S7 Sk÷
adka Esschera: H (X) =
E (XeZ )
,
EeZ
gdzie Z jest pewna¾ zmienna¾ losowa.
¾ Sk÷
adka
zosta÷
a wprowadzona przez Bühlmanna (1980, 1984), który bada÷wymiane¾ ryzyka. W
tym przypadku Z jest dodatnia¾ wielokrotnościa¾ zagregowanego ryzyka, które ma zostać
15
wymienione. Gerber i Shiu (1994, 1996) wykorzystuja¾ sk÷
adk¾
e Esschera w matematyce
…nansowej. Heilmann (1989) omawia przypadek szczególny, w którym Z = f (X) dla pewnej
funkcji f , zaś Kamps (1998) analizuje sk÷
adk¾
e Esschera przy eZ = 1
e
X
dla pewnego
> 0. Niektóre źród÷
a podaja¾ de…nicje¾ tej sk÷
adki z Z = hX dla h > 0.
S8 Sk÷
adka mean-value jest rozwiazaniem
¾
równania
u (w
gdzie w
H (X)) = Eu (w
X) ,
(3.1)
0 jest ustalone, zaś u : R ! R jest ciag÷
¾ a¾i rosnac
¾ a¾funkcja.
¾ Wartość H (X) moz·na
interpretować jako maksymalna¾ sk÷
adk¾
e, za która¾ potencjalny klient …rmy ubezpieczeniowej
jest sk÷
onny kupić polise¾ na wypadek ryzyka X, zaś w jako majatek
¾ decydenta. Po lewej
stronie równania (3.1) mamy uz·yteczność majatku
¾
decydenta, który decyduje sie¾ na zakup
polisy za kwote¾ H (X), zaś prawa strona równania (3.1) to oczekiwana uz·yteczność tego
majatku
¾
w przypadku, gdy nie zakupi polisy ubezpieczeniowej. Wartość H (X) jest zatem
cena,
¾ wobec której decydent jest obojetny
¾
na przyjecie
¾ lub odrzucenie ryzyka X (cene¾ taka¾
nazywa sie¾ równiez· cena¾ obojetności,
¾
ang. reservation price). Sk÷
adka mean-value ma te¾
zalete,
¾ z·e moz·e zawsze zostać wyznaczona w sposób jawny:
H (X) = w
u
1
(Eu (w
X)) .
Po raz pierwszy quasi-liniowy funkcjona÷mean-value u
1
(Eu (X)) badali Ko÷
mogorow
(1930) oraz Hardy i inni (1952).
S9 Sk÷
adka zerowej uz·yteczności (równowaz·nej uz·yteczności) jest rozwiazaniem
¾
równania
u (w) = Eu (w + H (X)
gdzie w
X) ,
(3.2)
0 jest ustalone, zaś u : R ! R jest rosnac
¾ a¾ i wkles÷
¾ a¾ funkcja,
¾ nazywana¾
funkcja¾ uz·yteczności. Jest to odpowiednik sk÷
adki mean-value z punktu widzenia …rmy
ubezpieczeniowej.
Po lewej stronie równania (3.2) wystepuje
¾
uz·yteczność majatku
¾
ubezpieczyciela, który nie sprzedaje ubezpieczenia na wypadek ryzyka X, zaś po prawej
stronie mamy oczekiwana¾ uz·yteczność majatku
¾
…rmy, która decyduje sie¾ na pokrycie strat
wynik÷
ych z ryzyka X w zamian za kwote¾ H (X). Wartość H (X) jest w tym przypadku
równiez· cena¾ obojetności.
¾
Gdy funkcja uz·yteczności jest liniowa, to sk÷
adka zerowej
uz·yteczności jest sk÷
adka¾ netto, zaś gdy u jest funkcja¾ wyk÷
adnicza,
¾ to H (X) jest sk÷
adka¾
wyk÷
adnicza.¾
Aktuarialne odniesienia do teorii oczekiwanej uz·yteczności podaja¾ Borch
16
(1963, 1968) oraz Gerber i Pafumi (1998). Pratt (1964) analizowa÷jak cena obojetności
¾
zmienia sie¾ wraz ze zmiana¾ awersji do ryzyka wyraz·onego poprzez odpowiedni kszta÷
t
funkcji uz·yteczności. Wykaza÷on, z·e jez·eli wartości ryzyka X sa¾ ma÷
e, to sk÷
adka zerowej
u00 (w)
uz·yteczności jest aproksymowana przez sk÷
adk¾
e wariancji z = 2u0 (w) . Wówczas jest
równa po÷
owie miary bezwzglednej
¾
awersji do ryzyka. Wiecej
¾ informacji na temat awersji do
ryzyka podaje Arrow (1971).
S10 Sk÷
adka Wanga:
H (X) =
Z0
(g (P (X > t))
1) dt +
1
Z1
g (P (X > t)) dt,
0
gdzie g : [0; 1] ! [0; 1] jest ciag÷
¾ a,
¾ rosnac
¾ a¾ i wkles÷
¾ a¾ funkcja,
¾ nazywana¾ funkcja¾
zniekszta÷
cajac
¾ a¾ prawdopodobieństwo. Sk÷
adka Wanga wywodzi sie¾ z dualnej teorii ryzyka
Yaari’ego (1987) i jest powiazana
¾
z idea¾ koherentnych miar ryzyka (patrz Artzner i inni,
1999, Wirch i Hardy, 1999). Idee wyznaczania sk÷
adek Wanga oraz zerowej uz·yteczności
moz·na ze soba¾ po÷
aczyć,
¾
otrzymujac
¾ nowe klasy sk÷
adek ubezpieczeniowych, w których
prawdopodobieństwa strat sa¾zniekszta÷
cane (patrz Quiggin, 1982, Gilboa, 1987, Schmeidler,
1989). Young (1999) oraz Wang (2000) uzyskali pewne wyniki dla sk÷
adki Wanga dla
rodzin zmiennych losowych z parametrem po÷
oz·enia i skali. Landsman i Sherris (2001)
zaproponowali sk÷
adk¾
e alternatywna¾ do sk÷
adki Wanga. Wang i inni (1997) podaja,
¾ w jaki
sposób moz·na uzyskać sk÷
adk¾
e Wanga metoda¾ charakteryzacji.
S11 Sk÷
adka proporcjonalnego hazardu:
H (X) =
Z0
c
([P (X > t)]
1) dt +
1
Z1
[P (X > t)]c dt,
0
gdzie c 2 (0; 1) jest ustalone. Jest to szczególny przypadek sk÷
adki Wanga, który bada÷jej
w÷
asności (patrz Wang, 1995). Sk÷
adk¾
e proporcjonalnego hazardu moz·na uzyskać metoda¾
charakteryzacji (patrz Wang i inni, 1997).
S12 Sk÷
adka szwajcarska jest rozwiazaniem
¾
równania
u (X
cH (X)) = u ((1
c) H (X)) ,
gdzie c 2 [0; 1] jest ustalone, zaś u jest pewna¾ rosnac
¾ a¾ i wypuk÷
a¾ funkcja.
¾ Sk÷
adka ta
jest pewnym uogólnieniem sk÷
adki zerowej uz·yteczności i sk÷
adki mean-value przy w = 0.
17
Sk÷
adk¾
e szwajcarska¾ wprowadzili Bühlmann i inni (1977), zaś jej w÷
asności badali De Vylder
i Goovaerts (1979), Goovaerts i De Vylder (1979), Goovaerts i inni (1980) oraz Beyer i Riedel
(1993).
S13 Sk÷
adka holenderska: H (X) = EX+aE (X
bEX)+ , gdzie a
1 i b 2 (0; 1] sa¾
ustalone. Sk÷
adk¾
e te¾ wprowadzili Van Heerwaarden i Kaas (1992), zaś uogólni÷ja¾Hürlimann
(1994).
S14 Sk÷
adka VaR (sk÷
adka wartości zagroz·onej): H (X) = FX 1 (p), gdzie p 2 (0; 1),
zaś FX 1 (p) jest dolnym kwantylem rzedu
¾ p zmiennej losowej X. Poczatków
¾
metody VaR
moz·na dopatrywać sie¾ w pracy Baumola (1963), choć sama nazwa przyje÷
¾ a sie¾ w latach
dziewiećdziesi
¾
atych
¾
XX wieku. Choć w g÷
ównej mierze VaR funkcjonuje jako miara ryzyka
…nansowego i rynkowego, to moz·na znaleźć jej zastosowania równiez· w ubezpieczeniach
(patrz Dowd i Blake, 2006). Jej popularność zacze÷
¾ a rosnać
¾ po kryzysie gie÷
dowym, który
nastapi÷w
¾
1987 roku. Nowa Umowa Kapita÷
owa Basel II opublikowana w 2004 uznaje
VaR jako preferowana¾ miare¾ ryzyka rynkowego. Taleb (1997) i Hoppe (1998) oraz wielu
innych naukowców krytykuje VaR jako koncepcje¾ zbyt naiwna¾ i zbyt trudna¾ w dok÷
adnej
implementacji.
S15 Sk÷
adka TVaR (wartości zagroz·onej na ogonie rozk÷
adu ): H (X) =
FX 1 (p)+ 1 1 p E X
zmiennej X.
FX 1 (p)
+
, gdzie FX 1 jest uogólniona¾funkcja¾odwrotna¾do dystrybuanty
TVaR, podobnie jak VaR, funkcjonuje g÷
ównie jako miara ryzyka.
W dyrektywie Solvency II wydanej przez Unie¾ Europejska¾ w 2009 roku TVaR jest
rekomendowana¾ miara¾ ryzyka …nansowego i ubezpieczeniowego.
Analize¾ wiekszości
¾
z zaprezentowanych sk÷
adek moz·na znaleźć równiez· w monogra…ach:
Bühlmann (1970), Gerber (1979), Goovaerts i inni (1984), Rolski i inni (1999).
W miare¾ rozwoju matematyki …nansowej i ubezpieczeniowej, coraz waz·niejsza¾role¾ zacze÷
¾y
odgrywać miary ryzyka. Podobnie jak sk÷
adki ubezpieczeniowe, sa¾to funkcjona÷
y rzeczywiste
zde…niowane na pewnej ustalonej przestrzeni zmiennych losowych. Powstaje wobec tego
jest pytanie, jaka jest róz·nica pomiedzy
¾
sk÷
adkami ubezpieczeniowymi a miarami ryzyka?
Odpowiedź na to pytanie zmienia÷
a sie¾ z czasem. Goovaerts i inni (2003) twierdza,
¾ z·e w
pewnym sensie miary ryzyka stanowia¾ szersze pojecie
¾ od sk÷
adek ubezpieczeniowych, od
których z regu÷
y wymaga sie,
¾ by by÷
y wyraz·one w wartościach pienie¾z·nych. Wobec tego np.
EX) jest miara¾ ryzyka, ale nie jest sk÷
adka.
¾ Argumentuja¾ oni równiez·, z·e rodzina
sk÷
adek ubezpieczeniowych zawiera w sobie klase¾ jednorodnych miar ryzyka.
P (X
Goovaerts i inni (2010 b) twierdza,
¾ z·e miary ryzyka sa¾ to funkcjona÷
y wyznaczone w
oparciu o pewna¾ aksjomatyczna¾ charakteryzacje.
¾ Jej celem jest uwzglednienie
¾
poz·adanych
¾
18
za÷
oz·eń, jakie ma spe÷
niać miara ryzyka i w÷
aściwe opisanie parametrów lub funkcji ja¾
de…niujacych.
¾
Miara ryzyka jest w÷
aściwa wtedy i tylko wtedy, gdy istnieja¾ aksjomaty
ja¾ charakteryzujace.
¾
Aksjomatyczna charakteryzacja tych funkcjona÷
ów pozwala na
sprawdzenie i uzasadnienie czy dana miara ryzyka jest odpowiednia w konkretnej sytuacji.
Przy zaprezentowanym podejściu, sk÷
adka ubezpieczeniowa jest pojeciem
¾
pochodnym
od miary ryzyka.
Zasada wyznaczania sk÷
adek ubezpieczeniowych polega zwykle na
rozwiazaniu
¾
jakiegoś zagadnienia optymalizacyjnego (np. minimalizacja ca÷
kowitego ryzyka
mierzonego za pomoca¾ ustalonej wcześniej miary ryzyka lub wybór sk÷
adki na takim
poziomie, aby prawdopodobieństwo ruiny by÷
o mniejsze od jakiejś liczby) lub oparta jest
na zasadzie równowaz·ności (np. sk÷
adka zerowej uz·yteczności, sk÷
adka mean-value). Choć
z matematycznego punktu widzenia zarówno miary ryzyka jak i sk÷
adki ubezpieczeniowe
sa¾ funkcjona÷
ami rzeczywistymi zde…niowanymi na przestrzeni zmiennych losowych, to
uzasadnienie i wyprowadzenie tych dwóch pojeć
¾ jest róz·ne.
3.2
W÷
asności sk÷
adek ubezpieczeniowych
W tej cześci
¾
przedstawimy najwaz·niejsze w÷
asności sk÷
adek ubezpieczeniowych, które
zbadamy w nastepnych
¾
dwóch rozdzia÷
ach dla nowych rodzajów sk÷
adek. Za÷
óz·my, z·e X,
X1 , ..., Xn , Y sa¾ dowolnymi ca÷
kowalnymi zmiennymi losowymi takimi, z·e H (X), H (X1 ),
..., H (Xn ) i H (Y ) sa¾ skończone.
P1 Niezmienniczość ze wzgledu
¾
na rozk÷
ad: sk÷
adka H (X) zalez·y jedynie od
rozk÷
adu zmiennej losowej X. W÷
asność ta oznacza, z·e sk÷
adka nie zalez·y od sposobu, w
jaki dojdzie do szkody, a wp÷
yw na jej wielkość ma jedynie wysokość ewentualnej szkody i
prawdopodobieństwo, z jakim moz·e zajść. W szczególności, gdy X =d Y , to H (X) = H (Y ).
P2 Monotoniczność: H (X)
H (Y ), gdy X
Y . Jez·eli strata X jest mniejsza badź
¾
równa od straty Y , to sk÷
adka H (X) nie powinna być wieksza
¾
od H (Y ).
P3 Brak nieuzasadnionego ÷
adowania bezpieczeństwa: H (a) = a dla a 2 R.
Gdy jesteśmy naraz·eni na pewne ryzyko w wysokości a, wówczas nie ma niepewności co do
wielkości wyp÷
aty, a wiec
¾ pobrana sk÷
adka powinna być równa stracie.
P4 Brak nadmiernego i zbyt ma÷
ego ÷
adowania bezpieczeństwa: inf X
H (X)
sup X. Rozsadnym
¾
jest, aby zebrana sk÷
adka by÷
a wieksza
¾
od minimalnej, ale
jednocześnie mniejsza od maksymalnej straty. Jez·eli spe÷
nione sa¾ w÷
asności P1, P2 i P3, to
w÷
asność P4 równiez· zachodzi.
19
P5 Zgodność (niezmienniczość ze wzgledu
¾ na translacje):
¾ H (X + b) = H (X)+b
dla b 2 R. W÷
asność ta mówi, z·e sk÷
adka za ryzyko powiekszone
¾
o pewna¾ sta÷
a¾ wartość
powinna być równa sk÷
adce za wyjściowe ryzyko powiekszonej
¾
o te¾ sama¾ wartość. Analize¾
zgodności dla wybranych sk÷
adek ubezpieczeniowych podaje Reich (1984 a).
P6 Proporcjonalność (dodatnia jednorodność): H (aX) = aH (X) dla a
0. Z
w÷
asności tej moz·emy wywnioskować, z·e sk÷
adka za ubezpieczenie sie¾ na wypadek ryzyka
2X powinna być dwa razy wieksza
¾
od sk÷
adki za ubezpieczenie sie¾ na wypadek ryzyka X.
Przy za÷
oz·eniu o braku arbitraz·u moz·emy wyjaśnić zasadność tej w÷
asności. Gdyby sk÷
adka
H (2X) by÷
a ponad dwukrotnie wieksza
¾
od H (X), wówczas decydent móg÷
by ubezpieczyć sie¾
dwukrotnie na wypadek ryzyka X u róz·nych ubezpieczycieli lub zakupić dwie róz·ne polisy u
jednego sprzedawcy. Podobnie, gdyby H (2X) by÷
a mniej niz· dwukrotnie wieksza
¾
od H (X),
to moz·na ubezpieczyć sie¾ na wypadek ryzyka 2X i sprzedać z osobna kaz·de z ubezpieczeń
na wypadek ryzyka X, osiagaj
¾ ac
¾ w ten sposób arbitraz·owy zysk. Proporcjonalność nie
jest jednak poz·adan
¾ a¾ w÷
asnościa,
¾ gdy ryzyko X jest duz·e i …rma ubezpieczeniowa lub
rynek ubezpieczeniowy sa¾obcia¾z·one dodatkowymi kosztami w przypadkach ubezpieczania na
wypadek ryzyka o duz·ej wartości. Wówczas nalez·y sie¾ spodziewać, z·e sk÷
adka H (2X) bedzie
¾
ponad dwukrotnie wieksza
¾
od H (X). W÷
asność proporcjonalności szczegó÷
owo analizowa÷
Reich (1984 b).
P7 Addytywność dla zmiennych losowych komonotonicznych: H (X + Y ) =
H (X) + H (Y ) dla komonotonicznych zmiennych losowych X i Y .
De…nicja 3.1 Zmienne losowe X1 , ..., Xn nazywamy komonotonicznymi, gdy istnieje
zmienna losowa Z oraz niemalejace
¾ funkcje v1 ; :::; vn : R ! R takie, ·ze wektory losowe
(X1 ; :::; Xn ) i (v1 (Z) ; :::; vn (Z)) maja¾ten sam rozk÷ad.
Poniz·sze twierdzenie podaje charakteryzacje¾ zmiennych losowych komonotonicznych.
Twierdzenie 3.1 Za÷ó·zmy, ·ze Fi jest dystrybuanta¾ zmiennej losowej Xi dla i = 1; :::; n.
Nastepuj
¾ ace
¾ warunki sa¾równowa·zne:
(i) zmienne losowe X1 , ..., Xn sa¾komonotoniczne;
(ii) P (X1
x1 ; :::; Xn
xn ) = min fP (X1
(iii) wektory (X1 ; :::; Xn ) i
1
x1 ) ; :::; P (Xn
1
F1 (U ) ; :::; Fn (U )
maja¾ taki sam rozk÷ad, gdzie U jest
zmienna¾losowa¾o rozk÷adzie jednostajnym na (0; 1).
Dowód Twierdzenia 3.1 podaja¾ Dhaene i inni (2002a).
20
xn )g dla x1 ; :::; xn 2 R;
Gdy zmienne losowe X i Y sa¾ komonotoniczne, to sa¾ nieujemnie skorelowane, a
wiec
¾ nie ma w tym przypadku moz·liwości wzajemnej os÷
ony przed ryzykiem.
Na
rynku konkurencyjnym rozsadnym
¾
jest przyjmowanie za÷
oz·enia o addytywności sk÷
adki
ubezpieczeniowej w celu unikniecia
¾ systematycznych okazji do arbitraz·u (patrz Venter, 1991).
Jednakz·e addytywność sk÷
adki ubezpieczeniowej nie wyjaśnia efektu grupowania róz·nych klas
ryzyka w celu zwiekszenia
¾
zysków badź
¾ zmniejszenia ÷
acznego
¾
ryzyka (ang. pooling), co jest
istota¾ rynku ubezpieczeniowego (patrz Albrecht, 1992). Dlatego tez· postuluje sie¾ s÷
absza¾
form¾
e addytywności, obejmujac
¾ a¾ jedynie zmienne losowe komonotoniczne. Jez·eli X i Y sa¾
komonotonicznymi zmiennymi losowymi oraz Z = X + Y , to z powodu braku moz·liwości
wzajemnej os÷
ony przed ryzykiem, sk÷
adka H (Z) powinna być niemniejsza od H (X)+H (Y ).
Z drugiej strony, sk÷
adka H (Z) nie moz·e przekraczać H (X) + H (Y ), gdyz· w przeciwnym
razie moz·na by by÷
o zakupić dwie osobne polisy ubezpieczeniowe. Praktyczne zastosowanie
zmiennych losowych komonotonicznych w matematyce …nansowej i ubezpieczeniowej podaja¾
Dhaene i inni (2002 a, b) oraz Goovaerts i inni (2010 a).
P8 Addytywność dla zmiennych losowych niezalez·nych: H (X + Y ) = H (X) +
H (Y ) dla niezalez·nych zmiennych losowych X i Y . W÷
asność ta jest poz·adana
¾
na rynku
ubezpieczeniowym i reasekuracyjnym, na co uwage¾ zwróci÷juz· Borch (1962). Uzasadnia
on, z·e naturalnym jest wymaganie, by …rma ubezpieczeniowa otrzyma÷
a te¾ sama¾ sk÷
adk¾
e
niezalez·nie od tego, czy zaakceptuje ona dwa róz·ne portfele osobno, czy w pojedynczej
transakcji.
W÷
asność addytywności sk÷
adki dla zmiennych losowych niezalez·nych bada÷
równiez· Gerber (1974 a, 1985). Goovaerts i inni (2004) podali aksjomatyzacje¾ sk÷
adek
ubezpieczeniowych, które sa¾ addytywne dla zmiennych losowych niezalez·nych.
P9 Subaddytywność: H (X + Y )
H (X) + H (Y ). Z jednej strony moz·na twierdzić,
z·e jest to dobra w÷
asność sk÷
adki ubezpieczeniowej na rynku, w którym nie ma moz·liwości
arbitraz·u. Gdyby bowiem suma sk÷
adek za ubezpieczenie sie¾ na wypadek ryzyka X i Y
osobno by÷
a mniejsza badź
¾ równa od sk÷
adki za ubezpieczenie sie¾ na wypadek jednego
duz·ego ryzyka, to bardziej op÷
acalnym by÷
oby zakupienie dwóch osobnych kontraktów
ubezpieczeniowych. Z drugiej jednak strony przy braku arbitraz·u na rynku, za÷
oz·enie, z·e
H (X + Y ) nie moz·e być mniejsze niz· H (X) + H (Y ) jest nieprawdziwe, gdyz· podmiot
kupujacy
¾ kontrakt ubezpieczajacy
¾ na wypadek ryzyka X +Y nie moz·e go sprzedać w postaci
dwóch osobnych kontraktów
odpowiednio dla ryzyka X i Y .
P10 Zachowanie pierwszego porzadku
¾
stochastycznego: H (X)
X
ST
H (Y ), gdy
Y.
De…nicja 3.2 Mówimy, ·ze zmienna losowa X jest mniejsza od zmiennej losowej Y w
21
pierwszym porzadku
¾
stochastycznym, co oznaczamy X
ST
Y , gdy P (X
t)
P (Y
t)
dla wszystkich t 2 R.
Poniz·sze twierdzenie charakteryzuje pierwszy porzadek
¾
stochastyczny.
Twierdzenie 3.2 Nastepuj
¾ ace
¾ warunki sa¾równowa·zne:
(i) X
ST
Y;
(ii) Ev (X)
istnieja;¾
Ev (Y ) dla dowolnej funkcji rosnacej
¾ v : R ! R takiej, ·ze Ev (X) i Ev (Y )
(iii) istnieje przestrze´n probabilistyczna ( 0 ; A0 ; P 0 ) i zmienne losowe X 0 , Y 0 okre´slone na tej
przestrzeni takie, ·ze X =d X 0 i Y =d Y 0 oraz P 0 (X 0
Y 0 ) = 1.
Dowód Twierdzenia 3.2 podaja¾ Goovaerts i inni (1990), Rolski i inni (1999) oraz Shaked
i Shanthikumar (2007).
Jez·eli spe÷
nione sa¾ w÷
asności P1 i P2, to zachodzi równiez· w÷
asność P10 (patrz Wang i
inni, 1997).
P11 Zachowanie porzadku
¾
stop-loss: H (X)
H (Y ), gdy X
SL
Y.
De…nicja 3.3 Mówimy, ·ze zmienna losowa X jest mniejsza od zmiennej losowej Y w
porzadku
¾
stop-loss, co oznaczamy X SL Y , gdy E (X d)+
E (Y d)+ dla ka·zdego
d 2 R.
Poniz·sze twierdzenie podaje charakteryzacje¾ porzadku
¾
stop-loss.
Twierdzenie 3.3 Nastepuj
¾ ace
¾ warunki sa¾równowa·zne:
(i) X
SL
Y;
(ii) Ew (X)
Ew (Y ) dla dowolnej rosnacej
¾ i wypuk÷ej funkcji w : R ! R takiej, ·ze Ew (X)
i Ew (Y ) istnieja;¾
(iii) istnieje przestrze´n probabilistyczna ( 0 ; A0 ; P 0 ) i zmienne losowe X 0 , Y 0 okre´slone na tej
przestrzeni takie, ·ze X =d X 0 i Y =d Y 0 oraz P 0 (X 0 E (Y 0 jX 0 )) = 1;
R1
R1
(iv) P (X > t) dt
P (Y > t) dt dla ka·zdego x 2 R.
x
x
Podamy teraz dwa twierdzenia, dzieki
¾ którym moz·na sprawdzić czy X
SL Y
.
Twierdzenie 3.4 (kryterium jednego przeciecia
¾ dla dystrybuant) Je·zeli X i Y sa¾zmiennymi
losowymi takimi, ·ze EX
EY oraz istnieje x0 2 R takie, ·ze P (X
x < x0 i P (X x) P (Y
x) dla x > x0 , to X SL Y .
22
x)
P (Y
x) dla
Twierdzenie 3.5 (kryterium dwóch przecie¾´c dla gesto
¾ ´sci) Je·zeli X i Y sa¾ zmiennymi
losowymi o gesto
¾ ´sciach fX i fY takimi, ·ze EX EY oraz istnieja¾sta÷e x0 ; x1 2 R takie, ·ze
fX (x)
fY (x) dla x 2 ( 1; x0 ) [ (x1 ; 1) i fX (x)
fY (y) dla x 2 (x0 ; x1 ), to X
SL
Y.
Dowody Twierdzeń 3.3- 3.5 podaja¾ Goovaerts i inni (1990), Rolski i inni (1999) oraz
Shaked i Shanthikumar (2007). Z zachowania porzadku
¾
stop-loss wynika w÷
asność P10 (patrz
Rothschild i Stiglitz, 1970). W÷
asności P10 i P11 sa¾ uz·ywane w matematyce aktuarialnej,
gdyz· pozwalaja¾ one na uporzadkowanie
¾
róz·nych grup decydentów (patrz Van Heervaarden,
1991, Kaas i inni, 1994). Hürlimann (1998) analizowa÷porzadek
¾ stop-loss dla sk÷
adki Wanga.
P12 Warunek zysku netto: H (X)
EX. Warunek ten jest poz·adany,
¾
a wrecz
¾ i
niezbedny
¾
patrzac
¾ z punktu widzenia …rmy ubezpieczeniowej. W przeciwnym wypadku w
d÷
uz·szej perspektywie czasu ubezpieczyciel średnio ponosi÷
by strate.
¾
P13 Iteracyjność: H (X) = H (H (XjY )) dla dowolnych zmiennych losowych X i Y ,
dla których sk÷
adki te istnieja.
¾ Wed÷
ug naszej wiedzy pojecie
¾ iteracyjności pojawia sie¾ po raz
pierwszy w ksia¾z·ce Bühlmanna (1970), który wyjaśnia róz·nice¾ miedzy
¾
sk÷
adka¾indywidualna¾a
sk÷
adka¾kolektywna.
¾ Za÷
óz·my, z·e H (X) jest sk÷
adka¾za ubezpieczenie sie¾ na wypadek ryzyka
X. W celu wyznaczenia sk÷
adki indywidualnej, …rma ubezpieczeniowa bierze pod uwage¾
moz·liwie jak najwiecej
¾ cech opisujacych
¾
dane ryzyko i potencjalnego ubezpieczonego. Jez·eli
parametr y opisujacy
¾ te cechy jest znany, wówczas H (Xjy) jest sk÷
adka¾ za ubezpieczenie
sie¾ na wypadek ryzyka X o charakterystyce y. Z regu÷
y jednak ta specy…czna cecha y
jest realizacja¾ pewnej zmiennej losowej Y . Wobec tego sk÷
adka kolektywna powinna być
wyznaczona w dwóch krokach. Najpierw nalez·y wyznaczyć sk÷
adk¾
e H (XjY ), która jest
pewna¾ zmienna¾ losowa¾ zalez·na¾ od Y , a nastepnie
¾
obliczyć H (H (XjY )). Poniewaz· sk÷
adka
H (X) jest w wiekszości
¾
przypadków róz·na od H (H (XjY )), wiec
¾ powstaje pytanie przy
jakich za÷
oz·eniach wspomniane dwie wartości sa¾ równe. Bühlmann (1970) i Gerber (1974 b)
zauwaz·aja¾ analogie¾ pomiedzy
¾
iteracyjnościa,
¾ a metoda¾ wyznaczania sk÷
adek wiarygodności.
Gerber (1974 b) dowodzi, z·e sk÷
adka ubezpieczeniowa, która spe÷
nia pewien warunek
ciag÷
¾ ości jest iteracyjna wtedy i tylko wtedy, gdy jest sk÷
adka¾ mean-value wyznaczona¾ przy
w = 0. Uogólnienie wyniku Gerbera zosta÷
o podane przez Goovaertsa i de Vyldera (1979).
Wykazuja¾ oni, z·e sk÷
adka szwajcarska jest iteracyjna wtedy i tylko wtedy, gdy redukuje
sie¾ ona do sk÷
adki mean-value lub sk÷
adki zerowej uz·yteczności z liniowa¾ lub wyk÷
adnicza¾
funkcja¾ uz·yteczności. Gerber (1979) zauwaz·a równiez·, z·e jeśli S = X1 + ::: + XN jest suma¾
o losowej liczbie sk÷
adników, zaś sk÷
adka H (X) jest addytywna i iteracyjna, to H (S) =
H (H (SjN )) = H (H (X) N ). Goovaerts i inni (2010 a) podaja¾ równiez· charakteryzacje¾
warunku iteracyjności dla pewnej klasy sk÷
adek ubezpieczeniowych.
23
4
Sk÷
adka
mean-value
w
teorii
skumulowanej
perspektywy
4.1
De…nicja sk÷
adki
Zde…niujemy sk÷
adk¾
e mean-value dostosowana¾ do teorii skumulowanej perspektywy.
Za÷
óz·my, z·e X jest dowolna¾ zmienna¾ losowa¾ (w szczególności moz·e ona przyjmować
wartości ujemne). Wówczas X moz·emy interpretować jako ca÷
kowita¾ szkode¾ ubezpieczonego
pomniejszona¾ o ewentualny zysk z inwestycji.
Umoz·liwia nam to analize¾ produktów
ubezpieczeniowych uwzgledniaj
¾
acych
¾
moz·liwość inwestowania kapita÷
u, np. ubezpieczenia
na z·ycie z funduszem inwestycyjnym czy tzw. renty zmienne (ang. variable annuity).
W przypadku ubezpieczeń majatkowych
¾
uzasadnione jest badanie jedynie nieujemnych
zmiennych losowych.
Rozwaz·my klienta, który podejmuje decyzje w oparciu o punkt referencyjny w 2 R
i chce zakupić polise¾ ubezpieczeniowa¾ wyp÷
acajac
¾ a¾ pienie¾z·na¾ równowartość losowej straty.
W dalszej cześci
¾ wartości (X
Gdy X
0, to (X
w)+ bedziemy
¾
nazywali stratami, zaś (w
w)+ oraz (w
X)+ zyskami.
X)+ oznaczaja¾ odpowiednio strate¾ katastro…czna¾ i
niekatastro…czna.¾ W tym drugim przypadku wystepuje
¾
bezpośrednia analogia do sposobu
reasekuracji stop-loss. Za÷
óz·my, z·e u1 ; u2 : R+ ! R+ sa¾ niemalejacymi
¾
funkcjami wartości,
przy czym u1 mierzy zyski, zaś u2 straty. Niech g i h bed
¾ a¾ funkcjami zniekszta÷
cajacymi
¾
prawdopodobieństwa, odpowiednio, zysków i strat. Sk÷
adk¾
e mean-value H (X) w teorii
skumulowanej perspektywy za ubezpieczenie sie¾ na wypadek ryzyka X w ujeciu
¾
teorii
skumulowanej perspektywy de…niujemy jako rozwiazanie
¾
równania
u1 (w
H (X))+
u2 (H (X)
w)+ = Eg u1 (w
X)+
Eh u2 (X
w)+ .
(4.1)
Zauwaz·my, z·e wzór (4.1) moz·emy zapisać w postaci
u (w
gdzie u (x) = u1 (x+ )
H (X)) = Egh u (w
X) ,
(4.2)
u2 ( x)+ jest niemalejac
¾ a¾ funkcja¾ wartości dla x 2 R . Gerber
(1979) rozwaz·a sk÷
adk¾
e H (X) wyznaczona¾ze wzoru (4.2) przy za÷
oz·eniu, z·e funkcja wartości
jest wkles÷
¾ a, zaś prawdopodobieństwa nie sa¾ zniekszta÷
cane, tzn.
g (p) = h (p) = p.
a, zaś u jest
W uogólnionym modelu, Luan (2001) zak÷
ada, z·e h = g, g jest wypuk÷
wkles÷
¾ a. Van der Hoek i Sherris (2001) badaja¾ funkcjona÷H (X) z róz·nymi funkcjami
24
zniekszta÷
cajacymi
¾
prawdopodobieństwo dla zysków i strat. Jednakz·e analizuja¾ oni tylko
przypadek, gdy funkcja wartości jest liniowa. Al-Nowaihi i inni (2008), dzieki
¾ rozwiazaniu
¾
pewnych równań funkcyjnych, podaja¾ charakteryzacje¾ jednorodności preferencji i awersji
do ryzyka w ujeciu
¾
teorii skumulowanej perspektywy. W szczególności dowodza¾ oni, z·e
w analizowanym przez nich przypadku funkcje zniekszta÷
cajace
¾ prawdopodobieństwo dla
zysków i strat sa¾ jednakowe.
Określimy teraz minimalne za÷
oz·enia dotyczace
¾ funkcji u, przy których sk÷
adka
wyznaczona ze wzoru (4.2) istnieje i jest wyznaczona jednoznacznie.
Powszechnie
akceptowanym jest za÷
oz·enie, z·e funkcja u jest niemalejaca.
¾
Gdyby jednak u by÷
a sta÷
a
na pewnym przedziale, to sk÷
adka mog÷
aby nie być wyznaczona jednoznacznie. Wobec tego
zak÷
adamy, z·e u jest rosnaca.
¾ Okazuje sie,
¾ z·e u powinna być równiez· ciag÷
¾ a. W przeciwnym
przypadku równanie (4.2) moz·e nie mieć rozwiazań.
¾
Bez straty ogólności moz·emy za÷
oz·yć,
z·e u (0) = 0. Zatem bedziemy
¾
rozwaz·ali ciag÷
¾ e i rosnace
¾ funkcje u takie, z·e u (0) = 0. W
dalszym ciagu
¾ bedziemy
¾
pisali u 2 U, gdy funkcja u spe÷
nia te trzy warunki. Oznaczamy
równiez· u 2 U0 , jeśli u (x) = cx, u (x) = (1
e
cx
) =d lub u (x) = (ecx
pewnych c; d > 0.
4.2
1) =d dla x 2 R i
Przyk÷
ady
W poniz·szych dwóch przyk÷
adach wyznaczymy sk÷
adk¾
e H (X) w przypadku, gdy u 2 U0 .
Przyk÷
ad 4.1 Je´sli u (x) = cx, to równanie (4.2) mo·zemy zapisa´c jako
c (w
H (X)) = cEgh (w
0
X) = c @w
Ehg X +
Zw
[h (P (X > s))
0
1
g (P (X > s))] dsA .
Korzystajac
¾ z z (2.1), W2, W3 (patrz Lemat 2.1) mamy
H (X) = Ehg X +
Zw
[g (P (X > s))
(4.3)
h (P (X > s))] ds:
0
Przyk÷
ad 4.2 Dla u (x) = (1
1
e
c(w H(X))
e
= 1
+
cx
) =d z (2.1) i W3, równanie (4.2) ma posta´c
Eh e
Z1
cw cX
e
h P e
c(w X)
0
25
>s
g P e
c(w X)
>s
ds.
Stad
¾ i z W2 mamy
cH(X)
e
cw
+e
Z1
h P ecX > secw
g P ecX > secw
ds = Ehg ecX .
0
Zatem
H (X) =
2
1 4
ln Eh ecX +
c
exp(cw)
Z
g P ecX > t
3
dt5 .
h P ecX > t
0
W podobny sposób wyznaczamy wzór na H (X), gdy u (x) = (ecx
(4.4)
1) =d.
W kolejnych przyk÷
adach pokaz·emy, z·e przy pewnych za÷
oz·eniach sk÷
adka wyznaczona ze
wzoru (4.2) redukuje sie¾ do sk÷
adek rozwaz·anych juz· w literaturze aktuarialnej.
Przyk÷
ad 4.3 Niech u 2 U oraz g (x) = h (x) = x dla x 2 [0; 1]. Wtedy sk÷adka H (X) jest
sk÷adka¾mean-value. W szczególno´sci, gdy u (x) = x, to z (4.3) mamy H (X) = Egh X = EX,
a wiec
¾ otrzymana sk÷adka jest sk÷adka¾ netto. Je´sli za´s u (x) = 1
> 0, to z (4.4) mamy H (X) = 1 ln Ee
X
e
x
= dla pewnego
, a wiec
¾ otrzymali´smy sk÷adke¾ wyk÷adnicza.¾
Przyk÷
ad 4.4 Gdy u (x) = x oraz g 2 G, h (x) = g (x) dla x 2 [0; 1], to
H (X) = Ehg X = Eg X =
Z0
(g (P (X > t))
1) dt +
1
Z1
g (P (X > t)) dt,
0
a wiec
¾ otrzymana sk÷adka jest sk÷adka¾ Wanga. W szczególno´sci, gdy g (x) = xc , gdzie c 2
(0; 1) jest ustalone, to H (X) jest sk÷adka¾proporcjonalnego hazardu.
Przyk÷
ad 4.5 Niech u (x) = x,
g (x) =
gdzie
(
(1
) x dla x 2 0; 12
(1 + ) x
dla x 2
,
1
;1
2
2 (0; 1) jest ustalone oraz
h (x) = g (x) =
(
(1 + ) x dla x 2 0; 12
+ (1
26
) x dla x 2
1
;1
2
.
Je´sli inf X
sup X oraz M edX oznacza mediane¾ zmiennej X, to
0
sup
Z X
H (X) = Eg X =
(1 + ) P (X > t) dt +
+
[(1 + ) P (X > t)
min(0;M edX)
=
B
P (X > t) dt + @
Z0
inf X
1] dt +
min(0;M
Z edX)
[ + (1
sup
Z X
P (X > t) dt +
0
= EX + @
) P (X > t)
B
t) dt + @
Z0
P (X > t) dt +
min(0;M edX)
sup
Z X
P (X > t) dt +
M edX
max(0;M
Z edX)
P (X
0
max(0;M edX)
0
P (X
) P (X > t)] dt
inf X
0
sup
Z X
0
[ + (1
0
max(0;M edX)
Z0
max(0;M
Z edX)
M
ZedX
P (X
inf X
1
min(0;M
Z edX)
P (X
inf X
t) dtA = EX + E jX
1] dt
1
C
t) dtA
1
C
t) dtA
M edXj ,
a wiec
¾ otrzymana sk÷adka jest sk÷adka¾odchylenia przecietnego
¾
od mediany.
Przyk÷
ad 4.6 Niech u (x) = x oraz g (x) = 1[
;1]
(x) oraz h (x) = g (x) = 1(1
;1]
(x), gdzie
2 (0; 1) jest ustalone. Wówczas
Z1
Z0
H (X) = Ehg X = Eg X = g (P (X > t)) dt +
(g (P (X > t))
0
1
max(FX ( );0)
=
Z
1dt
1
min(sup
Z X;0)
1dt
min(FX 1 ( );0)
max(inf X;0)
= max FX 1 ( ) ; 0 + min FX 1 ( ) ; 0
= FX 1 ( )
Je·zeli inf X
0
1) dt
max (inf X; 0)
max (inf X; 0)
min (sup X; 0) .
sup X, to H (X) = FX 1 ( ), która jest sk÷adka¾VaR.
Przyk÷
ad 4.7 Niech u (x) = x,
g (x) =
(
0 dla x 2 [0; p)
x p
1 p
dla x 2 [p; 1]
27
,
min (sup X; 0)
gdzie p 2 (0; 1) jest ustalone oraz
h (x) = g (x) =
Za÷ó·zmy, ·ze inf X
0
1
F
H (X) = Eg X =
=
1
p
sup
Z X
dla x 2 [0; 1
1 dla x 2 (1
P (X > t)
dt +
1 p
p]
p; 1]
.
FZ 1 (p)
1dt
0
FX 1 (p)
1
x
1 p
sup X. Wtedy
(p)
sup
Z X
(
P (X > t) dt + FX 1 (p)
FX 1 (p)
= FX 1 (p) +
= FX 1 (p) +
1
1
p
1
1
p
1
E X : X > FX 1 (p)
FX 1 (p)
E X
+
1
p
FX 1 (p) P X > FX 1 (p)
.
Sk÷adka H (X) jest zatem sk÷adka¾TVaR.
Przyk÷
ad 4.8 Niech u (x) = x. Za÷ó·zmy, ·ze g (x) = c + dx, h (x) = a + bx dla x 2 (0; 1),
gdzie b; d 0, a; c 0, a + b 1 i c + d 1. Wówczas g i h sa¾neo-addytywnymi funkcjami
wagowymi (patrz Wakker, 2010, str. 208). Je´sli inf X
H (X) =
sup
Z X
Zinf X
[c + dP ( X > s)] ds
[a + bP (X > s)] ds
0
+
sup X, to z (4.3) mamy
0
0
w(X)
Z
[(1
a
c
d) + (d
b) P (X > s)] ds
0
= (1
a
c
d) w (X) + (d
b)
w(X)
Z
P (X > s) ds
(4.5)
0
+a sup X + c inf X + bEX+
dE ( X)+ ,
gdzie w (X) = min (max (inf X; w) ; sup X). Je·zeli c = 0, 0
d < 1, inf X = 0 oraz
sup X = w, to H (X) = EX + (1 d) (sup X EX). Sk÷adke¾ tej postaci badali Ka÷uszka i
Okolewski (2008). Je´sli w = 0, b = 1
H (X) = EX + a (sup X+
aid=1
EX+ )
28
c, to z równania (4.5) otrzymujemy
c sup ( X)+
E ( X)+ .
Gdy inf X
w
sup X i b = d, to z (4.5) mamy
H (X) = (1
4.3
W÷
asności
a
sk÷
adki
c
d) w + a sup X + c inf X + dEX.
mean-value
w
teorii
skumulowanej
perspektywy
W rozdziale tym zajmiemy sie¾ analiza¾ w÷
asności sk÷
adki ubezpieczeniowej H (X) bed
¾ acej
¾
rozwiazaniem
¾
równania (4.2).
P1 Niezmienniczość ze wzgledu
¾ na rozk÷
ad.
W÷
asność jest spe÷
niona dla wszystkich funkcji u 2 U i g; h 2 G, co wynika z de…nicji
uogólnionej ca÷
ki Choqueta oraz wzoru (4.2).
P2 Monotoniczność.
W÷
asność ta jest spe÷
niona dla wszystkich funkcji u 2 U i g; h 2 G, co jest konsekwencja¾ W4
i W7.
P3 Brak nieuzasadnionego ÷
adowania bezpieczeństwa.
Z W7 wynika, z·e warunek ten zachodzi dla wszystkich funkcji u 2 U i g; h 2 G.
P4 Brak zbyt ma÷
ego i nadmiernego ÷
adowania bezpieczeństwa.
W÷
asność ta jest spe÷
niona dla wszystkich funkcji u 2 U i g; h 2 G, poniewaz· zachodza¾
w÷
asności P1, P2 i P3.
P5 Zgodność.
Twierdzenie 4.1 Niech u 2 U0 i g; h 2 G. Wtedy H (X) jest zgodna wtedy i tylko wtedy,
gdy h = g.
Dowód Niech u (x) = cx. Z (4.3) i W8 mamy
H (X + b) = Ehg X + b +
Zb
[h (P ( X > s))
g (P ( X > s))] ds
0
+
Zw
[g (P (X > s
0
29
b))
h (P (X > s
b))] ds.
Stad
¾ H (X + b) = H (X) + b dla b 2 R wtedy i tylko wtedy, gdy
Zb
[h (P ( X > s))
Zw
[g (P (X > s))
(4.6)
g (P ( X > s))] ds
0
=
g (P (X > s
b))
(h (P (X > s))
h (P (X > s
b)))] ds.
0
Oczywiście, jeśli h = g, to H (X) jest zgodna. Za÷
óz·my teraz, z·e h (z) 6= g (z) dla pewnego z.
Niech b > w
0, zaś X bedzie
¾
zmienna¾ losowa¾ taka,
¾ z·e P (X = s0 ) = z = 1
w < s0 < b. Wówczas równanie (4.6) moz·emy zapisać jako
gdzie b
[h (z)
g (z)] s0 =
w
Z
P (X = 0),
b
[h (1
z)
g (1
z)] dt = (h (1
z)
g (1
b + s0 ) .
z)) (w
s0
Poniewaz· (h (z)
g (z)) s0 6= 0, otrzymujemy sprzeczność z tym, z·e b jest dowolne, takie z·e
max (s0 ; w) < b < s0 + w. Dla w < 0 niech b < w, zaś X bedzie
¾
zmienna¾ losowa¾ taka,¾ z·e
P (X = s0 ) = z = 1 P (X = 0), gdzie 0 < w b < s0 < b. Wtedy (4.6) moz·emy zapisać
jako
s0 (g (1
z)
h (1
z)) = (s0
w + b) (h (z)
g (z)) ,
co przeczy temu, z·e b jest dowolne, takie z·e w s0 < b < min ( s0 ; w).
Niech u (x) = (1 e cx ) =a. Z (4.4) przy b > w 0 mamy
H (X + b) =
2
1 4
ln Eh ecX +
c
exp(c(w
Z b))
g P ecX > s
h P ecX > s
0
3
ds5 + b. (4.7)
Jeśli h = g, to H (X + b) = H (X) + b dla wszystkich b 2 R. Za÷
óz·my, z·e g (z) 6= h (z)
dla pewnego z. Niech X bedzie
¾
takie, z·e P (X = s0 ) = 1 z = 1 P (X = 0), gdzie
b < 0. Wtedy
s0 < w
exp(c(w
Z b))
g P ecX > s
h P ecX > s
ds = (g (z)
h (z)) ecs0
ec(w
b)
6= 0
0
oraz z (4.7) i (4.4) wynika, z·e H (X) nie jest zgodna.
przeprowadzić w przypadku, gdy u (x) = (ecx 1) =d.
30
Analogiczny dowód moz·na
Twierdzenie 4.2 Niech u 2 U0 , g; h 2 G i b
0. Wówczas H (X + b) = H (X) + b dla
nieujemnych zmiennych losowych X wtedy i tylko wtedy, gdy h = g lub w
Dowód Poniewaz· P (X > t) = 1 dla t < 0 i g (1) = h (1) = 1, wiec
¾ dla b
Zw
[g (P (X > s
b))
h (P (X > s
b
b))] ds =
w
Z
b
=
w
Z
0
[g (P (X > t))
0.
0 mamy
h (P (X > t))] dt
b
[g (P (X > t))
h (P (X > t))] dt.
0
Zauwaz·my, z·e Ehg (X + b) = Ehg X + b, poniewaz· X + b
wynika, z·e
H (X + b) = H (X) + b +
Zw
0. Zatem dla u (x) = cx z (4.3)
[h (P (X > s))
g (P (X > s))] ds.
(4.8)
(w b)+
Z (4.8) wnioskujemy, z·e jeśli w
óz·my, z·e w > 0 i
0 lub g = h, to H (X + b) = H (X)+b. Za÷
g (z) 6= h (z) dla pewnego z. Niech b > w i X bed
¾ a¾takie, z·e P (X = s0 ) = z = 1 P (X = 0),
gdzie 0 < s0 < w. Wtedy
Zw
[h (P (X > s))
g (P (X > s))] ds = s0 (h (z)
g (z)) 6= 0,
(w b)+
co oznacza, z·e H (X) nie jest zgodna.
Gdy u (x) = (1 e cx ) =d, to z (4.4) i (4.7) dla b > 0 mamy
H (X + b) =
Jeśli w
2
1 6
ln 4Eh ecX +
c
ec(w
Z
b)
g P ecX > s
h P ecX > s
0
0 lub g = h, to H (X) jest zgodna, poniewaz· ec(w
b)
< 1 dla b
3
7
ds5 + b.
0 oraz ecX
1.
Niech w > 0 i g (z) 6= h (z) dla jakiegoś z. Dla zmiennej losowej X takiej, z·e P (X = s0 ) =
z = 1 P (X = 0), gdzie 0 < s0 < w b, otrzymujemy
ec(w
Z
b)
g P ecX > s
h P ecX > s
0
31
ds = (ecs0
1) (g (z)
h (z)) 6= 0,
co oznacza, z·e H (X) nie jest zgodna. Analogiczny dowód przeprowadzamy, gdy u (x) =
(ecx 1) =d.
Twierdzenie 4.3 Niech u 2 U i g; h 2 G bed
¾ a¾ ciag÷
¾ e. Je´sli H (X + b) = H (X) + b dla
b
0 oraz dla w = 0 i pewnego w > 0, to u 2 U0 i h = g.
Dowód Za÷
óz·my, z·e H (X + b) = H (X) + b dla wszystkich b
Wtedy z (4.2) przy w = 0 mamy
0. Rozwaz·my X 2 X2 .
Eh ( u ( X))+ = u ( s) h (q) .
u ( H (X)) = Egh u ( X) =
Stad
¾
u ( H (X))
.
u ( s)
h (q) =
(4.9)
Poniewaz· H (X) = 0 dla q = 0 oraz H (X) = s dla q = 1, wiec
¾ z monotoniczności i ciag÷
¾ ości
u i h wynika, z·e H (X) jest ciag÷
¾ a¾ i niemalejac
¾ a¾ funkcja¾ zmiennej q, a zatem przyjmuje
wszystkie wartości ze zbioru [0; s]. Ze zgodności H (X), równanie (4.2) dla zmiennej X + b
moz·emy zapisać w postaci
u ( H (X)
b) = Egh u ( X
b) =
= u ( b) (1
Eh ( u ( X
h (q)) + u ( s
Wstawiajac
¾ (4.9) do (4.10), oznaczajac
¾ x =
H (X), y =
b))+
(4.10)
b) h (q) .
b i dzielac
¾ obie strony
otrzymanego równania przez u (x) u ( s) otrzymujemy
f (x; y) = f ( s; y)
dla wszystkich y
0, s > 0 oraz
s
x
0, gdzie f (x; y) = (u (x + y)
(4.11)
u (y)) =u (x).
K÷
adac
¾ s = 1 w (4.11) mamy
f (x; y) = f ( 1; y)
dla y
0,
1
x
0. Wstawiajac
¾ x=
1 do (4.11) dostajemy
f ( s; y) = f ( 1; y)
dla y
0i
s
(4.12)
1. Z (4.12) i (4.13) mamy f (x; y) = f ( 1; y) dla x; y
(4.13)
0. Stad
¾ dla
ustalonego y mamy
u (x + y) = c (y) u (x) + u (y)
32
(4.14)
dla x
0, gdzie c (y) jest pewna¾ funkcja.
¾ Z symetrii wystepuj
¾ acej
¾ w równaniu (4.14)
otrzymujemy
c (y) u (x) + u (y) = c (x) u (y) + u (x)
dla x; y
0, co jest równowaz·ne temu, z·e
(c (y)
dla x; y
1) u (x) = (c (x)
(4.15)
1) u (y)
0. Jez·eli c (y) 6= 1 dla y < 0, to
u (x)
u (y)
=
c (x) 1
c (y) 1
dla x; y
0. Stad
¾ u (x) = d (c (x)
z·e
1) dla pewnego d 2 Rn f0g, a wiec
¾ z (4.14) dostajemy,
(4.16)
c (x + y) = c (x) c (y)
dla x; y
0. Poniewaz· u (x) = d (c (x)
1) oraz u 2 U, wiec
¾ funkcja c jest ciag÷
¾ a. Wobec
tego jedynym rozwiazaniem
¾
równania (4.16) jest c (x) = eax dla x
0 i pewnego a 2 R (patrz
Kuczma, 2009, str. 349). Stad
¾ funkcja u ma postać u (x) = d (eax
1) dla x < 0 i pewnych
a 2 R i d 2 Rn f0g. Poniewaz· u jest funkcja¾rosnac
¾ a,
¾ wiec
¾ jedynymi rozwiazaniami
¾
równania
(4.14) sa¾ funkcje u (x) = (eax 1) =d dla x 0 i pewnych a; d > 0 oraz u (x) = (1 e ax ) =d
dla x < 0 i pewnych a; d > 0. Jeśli c (y) = 1 dla jakiegoś y, to z równania (4.15) wynika, z·e
c (x) = 1 dla x 0. Z (4.14) i ciag÷
¾ ości funkcji u wnioskujemy, z·e u (x) = ax dla wszystkich
x
0.
Udowodnimy, z·e u jest liniowa lub wyk÷
adnicza na R oraz h = g. Zapisujac
¾ równanie
(4.2) dla X 2 X2 i korzystajac
¾ ze zgodności H (X) mamy
u (w
o ile b
w
b) = u (w
b) g (1
q) + u (w
s
b) h (q)
(4.17)
b + s oraz
u (w
dla b
H (X)
H (X)
b) = u (w
b) (1
h (q)) + u (w
s
b) h (q)
(4.18)
w. Niech u (x) = cx dla x < 0. Gdy b > w, to z (4.18) mamy H (X) = sh (q).
Dla q0 2 (0; 1) takiego, z·e h (q0 ) = 1=2, s = 2 (w b) oraz H (X) = sh (q0 ), z równania
(4.17) otrzymujemy u (x) = c1 x dla x > 0, gdzie c1 = c= (2g (1 q0 )). K÷
adac
¾ s=w b
w (4.17), dostajemy g = h oraz c1 = c. Niech teraz u (x) = (1
33
e
cx
) =a dla x < 0. Z
(4.18) mamy H (X) =
1
c
ln (ecs h (q) + (1
h (q))). Wstawiajac
¾ s = ln 2ec(w
wzór na H (X) z q0 do równania (4.17), otrzymujemy u (x) = (1
e
cx
b)
1 =c oraz
) =a1 dla x > 0,
q0 ). Aby udowodnić, z·e u (x) = (1 e cx ) =a dla x
0 i h = g,
wykorzystujemy podobne rozumowanie jak w przypadku funkcji liniowej. Analogiczny dowód
gdzie a1 = 2ag (1
przeprowadza sie¾ dla u (x) = (ecx
1) =a.
Uwaga 4.1 W za÷o·zeniach Twierdzenia 4.3 wystarczy sprawdzi´c zgodno´s´c sk÷adki jedynie
dla b
0, aby wywnioskowa´c, ·ze funkcja warto´sci jest liniowa lub wyk÷adnicza na R oraz
prawdopodobie´nstwa zysków i strat sa¾zniekszta÷cane w ten sam sposób.
P6 Proporcjonalność.
Twierdzenie 4.4 Niech u 2 U i g; h 2 G.
(i) Niech u (x) = cx dla pewnego c > 0. Je´sli w = 0 lub h = g, to H (aX) = aH (X) dla
wszystkich a > 0.
(ii) Niech h bedzie
¾
ciag÷
¾ a. Je´sli X
u (x) =
d
c ( x) dla x
0 oraz H (X) jest proporcjonalna dla w = 0, to
0 i pewnego c; d > 0.
(iii) Niech g; h bed
¾ a¾ ciag÷
¾ e. Je´sli H (X) jest proporcjonalna dla w = 0 i wszystkich X, to
u (x) =
c ( x)d dla x
0 i pewnych c; d > 0 oraz u (x) = axb dla x > 0 i pewnych a; b > 0.
(iv) Je´sli h jest ciag÷
¾ a i H (X) jest proporcjonalna dla wszystkich w
0, to u (x) = cx dla
pewnego c > 0 i wszystkich x 2 R oraz g = h.
Dowód (i) Jez·eli u (x) = cx, to z (4.3) dla a > 0 mamy
H (aX) = Ehg (aX) +
Zw
= aEhg X + a
Zw=a
[g (P (X > s=a))
h (P (X > s=a))] ds
0
[g (P (X > s))
h (P (X > s))] ds.
0
Gdy w = 0 lub h = g, to H (X) jest proporcjonalna.
(ii) Za÷
óz·my, z·e H (aX) = aH (X). Dla X 2 X2 z (4.2) przy w = 0 dostajemy
u ( ay) = h (q) u ( as)
dla wszystkich a > 0, gdzie y = H (X). K÷
adac
¾ f (x) =
34
(4.19)
u ( x) i wyznaczajac
¾ h (q) z (4.19)
przy a = 1, moz·emy zapisać równanie (4.19) w postaci
f (ay) = f (as)
dla wszystkich s > 0 i 0
y
f (y)
f (s)
(4.20)
s. Wstawiajac
¾ s = 1 do (4.20) i dzielac
¾ obie strony
tego równania przez u ( 1), otrzymujemy z (ay) = z (a) z (y) dla 0
y
1 i a > 0, gdzie
z (x) = f (x) = ( u ( 1)). K÷
adac
¾ y = 1 w (4.20), mamy z (a) z (s) = z (as) dla s
1 i a > 0.
Z ostatnich dwóch równań wynika, z·e z (ax) = z (a) z (x) dla x > 0 i a > 0. Z ciag÷
¾ ości funkcji
z dostajemy z (x) = xd dla wszystkich x
349). Stad
¾ u (x) =
0 i pewnego d > 0 (patrz Kuczma, 2009, str.
c ( x)d dla wszystkich x
0 oraz pewnych c =
u ( 1) > 0 i d > 0.
(iii) Wzór na u (x) dla x
0 wynika z (ii). Za÷
óz·my, z·e H (aX) = aH (X). Niech X bedzie
¾
zmienna¾losowa¾taka,
¾ z·e P (X = s) = q = 1 P (X = 0), gdzie s > 0 i q 2 [0; 1] sa¾dowolne.
Z (4.2) przy w = 0 mamy
(4.21)
u (ay) = g (q) u (as)
dla wszystkich a > 0, gdzie y =
H (X). Wyznaczajac
¾ g (q) z (4.21) przy a = 1 i wstawiajac
¾
otrzymane wyraz·enie do (4.21), ponownie otrzymujemy równanie (4.20) z f (x) = u (x). Stad
¾
u (x) = axb dla x
0 i pewnych a; b > 0.
(iv) Z proporcjonalności H (X) i z (4.2) mamy
u (w
gdy a
aH (X)) = u (w) g (1
q) + u (w
as) h (q) ,
(4.22)
w=s oraz
u (w
aH (X)) = u (w) g (1
q) + u (w
as) (1
g (1
q)) ,
(4.23)
jeśli 0
a < w=s. K÷
adac
¾ as = 2w w (4.22) i wybierajac
¾ q0 2 [0; 1] takie, z·e H (X) = s=2,
z (ii) wynika, z·e u (w) = cwd h (q0 ) = (1 g (q0 )). Stad
¾ u (x) = c1 xd dla x
0 i pewnego
c1 > 0. Wstawiajac
¾ otrzymana¾funkcje¾ do (4.23), róz·niczkujac
¾ obie strony równania (4.23) ze
wzgledu
¾ na a i k÷
adac
¾ a = 0, otrzymujemy H (X) = sg (q). Jeśli podstawimy H (X) = sg (q),
a = 1 oraz w = s do (4.23), to otrzymamy (1
g (q))d = (1
g (q)). Stad
¾ d = 1. K÷
adac
¾
w = 0 do (4.22) mamy H (X) = sh (q). Poniewaz· H (X) = sg (q), wiec
¾ g = h. Z faktu, z·e
c1 = ch (q0 ) = (1 g (q0 )) i h (q0 ) = 1=2, dostajemy ostatecznie, z·e c = c1 .
35
P7 Addytywność dla zmiennych losowych komonotonicznych.
Twierdzenie 4.5 (i) Niech u (x) = cx. Je´sli h = g 2 G, to H (X) jest addytywna dla
zmiennych losowych komonotonicznych.
(ii) Je·zeli u 2 U, g; h 2 G, h jest ciag÷
¾ a i H (X), która jest wyznaczona ze wzoru (4.2), jest
addytywna dla zmiennych losowych komonotonicznych dla wszystkich w 0, to u (x) = cx
oraz h = g.
Dowód (i) Niech u (x) = cx. Gdy h = g, to H (X) = Eg X i z addytywności ca÷
ki Choqueta
dla zmiennych losowych komonotonicznych otrzymujemy teze.
¾
(ii) Jez·eli sk÷
adka H (X) jest addytywna dla zmiennych losowych komonotonicznych, to jest
proporcjonalna. Z twierdzenia 5.1 wynika, z·e u (x) = cx i h = g.
P8 Addytywność dla zmiennych losowych niezalez·nych.
Twierdzenie 4.6 (i) Je·zeli g (p) = h (p) = p i u 2 U, to sk÷adka H (X) jest addytywna dla
zmiennych losowych niezale·znych wtedy i tylko wtedy, gdy u 2 U0 .
(ii) Niech u 2 U0 , g; h 2 G bed
¾ a¾ takie, ·ze h (0+) = 0, h (1 ) = 1 oraz istnieje lewostronna
pochodna funkcji h w x = 0. Je·zeli funkcjona÷H (X) jest addytywny dla zmiennych losowych
niezale·znych dla w = 0 i pewnego w > 0, to g (p) = h (p) = p.
Zauwaz·my, z·e w Twierdzeniu 4.6 nie przyjmujemy dodatkowych za÷
oz·eń o funkcji g.
Ponadto, z (ii) wynika, z·e w praktyce wystarczy sprawdzić addytywność dla zmiennych
losowych niezalez·nych dla dwóch wartości w, aby otrzymać, z·e prawdopodobieństwa nie sa¾
zniekszta÷
cane.
W dowodzie Twierdzenia 4.6 bedziemy
¾
korzystali z nastepuj
¾ acego
¾
lematu.
Lemat 4.1 Je·zeli dziedzina¾funkcji u jest 0; 12 , to rozwiazaniem
¾
równania
u (2x) = 2u (x)
(4.24)
jest funkcja u (x) = xh (ln x), gdzie h jest funkcja¾okresowa¾o okresie ln 2 oraz 0 h ( 1) = 0.
Je´sli za÷o·zymy dodatkowo, ·ze u ma pochodna¾ prawostronna¾ w punkcie x = 0 (dopuszczamy
przypadek u+ (0) = 1), to jedynym rozwiazaniem
¾
jest u (x) = cx dla pewnego c > 0.
Dowód K÷
adac
¾ x = 0 w (4.24) mamy u (0) = 0. Niech u bedzie
¾
rozwiazaniem
¾
równania
(4.24). ×atwo sprawdzić, z·e h (t) = e t u (et ) jest funkcja¾ okresowa¾ o okresie ln 2. K÷
adac
¾
36
x = et mamy u (x) = xh (ln x) dla x > 0, gdzie h jest dowolna¾ funkcja¾ okresowa¾ o okresie
ln 2. Poniewaz· u ma pochodna¾ prawostronna¾ w x = 0 oraz
u0 (0) = lim+
x!0
u (x)
= lim+ h (ln x) ,
x!0
x
wiec
¾ h jest sta÷
a jako funkcja okresowa, która ma granice¾ w
1.
Uwaga 4.2 Lemat 4.1 jest uogólnieniem wyniku w pracy Laxa (2008), w której równanie
(4.24) jest rozwiazywane
¾
przy za÷o·zeniu, ·ze pochodna (obustronna) funkcji u w x = 0 jest
sko´nczona.
Dowód Twierdzenia 4.6 (i) Dowód przeprowadzimy w oparciu o pomys÷Gerbera (1979).
Niech X bedzie
¾
dowolna¾zmienna¾losowa,
¾ zaś Y bedzie
¾
sta÷
a, tzn. P (Y = d) = 1 dla pewnego
d > 0. Poniewaz· H (X) spe÷
nia warunek braku nieuzasadnionego ÷
adowania bezpieczeństwa,
wiec
¾ z addytywności dla zmiennych losowych niezalez·nych wynika, z·e H (X) jest zgodna. Z
Twierdzenia 4.3 wynika, z·e u 2 U0 .
(ii) Niech u (x) = cx i w = 0. Za÷
óz·my, z·e H (X) jest addytywna dla zmiennych
losowych niezalez·nych. Niech X; Y 2 X2 bed
¾ a¾ niezalez·nymi zmiennymi losowymi takimi,
z·e P (X = 1) = p, P (Y = 1) = q. Wtedy
H (X) = h (p) , H (Y ) = h (q) ,
H (X + Y ) = h (p + q
(4.25)
pq) + h (pq) .
(4.26)
Poniewaz· H (X) jest addytywna dla zmiennych losowych niezalez·nych, wiec
¾ z (4.25) i (4.26)
wynika, z·e
h (p + q
dla wszystkich 0
1. Po÷
óz·my q = c
p; q
(4.27)
pq) + h (pq) = h (p) + h (q)
p, gdzie 0
c
1. Niech (pn )n2N bedzie
¾
c
2
ciagiem
¾
takim, z·e p0 = oraz pn+1 = pn (c pn ). Wtedy (pn )n2N jest ciagiem
¾
generowanym
przez odwzorowanie logistyczne (patrz Polyanin i Manzhirov, 2007, str. 875). Z (4.27) we
mamy
h (c
pn ) + h (pn ) = ::: = 2h (c=2) .
pn+1 ) + h (pn+1 ) = h (c
Poniewaz· pn+1 =c = c pn =c (1
pn =c), gdzie c
pn
n!1 c
1, wiec
¾ lim
(4.28)
= 0. Stad
¾ lim pn = 0.
n!1
Funkcja h jest prawostronnie ciag÷
¾ a w x = 0 i lewostronnie ciag÷
¾ a w x = 1, a wiec
¾ przechodzac
¾
w granicy z n ! 1 w (4.28) otrzymujemy h (c) = 2h (c=2) dla wszystkich 0
0
c
1.
Poniewaz· h ma prawostronna¾ pochodna¾ w x = 0 (dopuszczamy moz·liwość, z·e h (0) = 1),
37
wiec
¾ z Lematu 4.1 wynika, z·e h (p) = p. Wykaz·emy teraz, z·e g (p) = p. Niech w > 0 bedzie
¾
takie, z·e sk÷
adka H (X) jest addytywna dla zmiennych losowych niezalez·nych. Niech X, Y
bed
¾ a¾ niezalez·nymi zmiennymi losowymi takimi, z·e P (X = 2w=3) = 1, P (Y = 2w=3) = q =
1 P (Y = 0). Wtedy dla h (x) = x z (4.3) dostajemy
2
2
H (X) = w, H (Y ) = qw +
3
3
Zw
q] 1[0;2w=3] (s) ds,
(4.29)
q] 1[2w=3;4w=3] (s) ds.
(4.30)
[g (q)
0
2
H (X + Y ) = w (1 + q) +
3
Zw
[g (q)
0
Z (4.29), (4.30) i addytywności H (X) dla zmiennych losowych niezalez·nych mamy
Zw
[g (q)
q] 1[0;2w=3] (s) ds =
0
Stad
¾ 2w (g (q)
Zw
[g (q)
q] 1[2w=3;4w=3] (s) ds.
0
q). Zatem g (q) = q i ostatecznie g (q) = q.
q) = w (g (q)
Niech teraz u (x) = (1
cx
e
) =d oraz X , Y 2 X2 bed
¾ a¾niezalez·nymi zmiennymi losowymi
takimi, z·e P (X = s) = p, P (Y = s) = q. Z (4.4) przy w = 0 dostajemy
H (X) =
1
ln [1
c
h (p) + h (p) ecs ] , H (Y ) =
H (X + Y ) =
1
ln 1
c
h (p + q
1
ln [1
c
pq) + ecs (h (p + q
pq)
h (q) + h (q) ecs ] ,
h (pq)) + h (pq) e2cs .
Z addytywności H (X) dla zmiennych losowych niezalez·nych mamy
(1
= 1
h (p)) (1
h (p + q
h (q)) + ecs (h (p) + h (q)
pq) + ecs (h (p + q
pq)
2h (p) h (q)) + e2cs h (p) h (q)
h (pq)) + h (pq) e2cs .
Otrzymaliśmy równość dwóch wielomianów zmiennej ecs . Porównujac
¾ wspó÷
czynniki tych
wielomianów dostajemy (4.27). Zatem h (x) = x. Niech w > 0 bedzie
¾
takie, z·e H (X) jest
addytywna dla zmiennych losowych niezalez·nych. Dla p = 1 mamy
H (X) = s, H (Y ) =
2
1 4
ln 1
c
q + qecs
Zecw
[q
0
38
3
g (q)] 1[0;ecs ] (t) dt5 ,
(4.31)
H (X + Y ) =
2
1 4 cs
ln e (1
c
3
Zecw
[q
q) + e2cs q
g (q)] 1[ecs ;e2cs ] (t) dt5 .
0
(4.32)
Z (4.31), (4.32) i addytywności dla zmiennych losowych niezalez·nych wynika, z·e
Zecw
[q
0
Zecw
g (q)] 1[0;ecs ] (t) dt =
[q
g (q)] 1[ecs ;e2cs ] (t) dt.
0
Stad
¾ g (q) = q i ostatecznie g (q) = q. Analogiczny dowód moz·na przeprowadzić dla u (x) =
(ecx
1) =d.
P9 Subaddytywność.
Twierdzenie 4.7 Niech u (x) = cx dla pewnego c > 0 i h = g, gdzie g 2 G. Wówczas
sk÷adka H (X) jest subaddytywna wtedy i tylko wtedy, gdy g jest wypuk÷a.
Dowód Niech u (x) = cx. Z (4.3) mamy wówczas, z·e H (X) = Eg X. Za÷
óz·my, z·e g jest
wypuk÷
a. Wiadomo, z·e Eg (X + Y ) Eg X + Eg Y wtedy i tylko wtedy, gdy g jest wkles÷
¾ a
(patrz Denneberg, 1994). Zatem dla g, która jest wkles÷
¾ a, mamy
H (X + Y ) = Eg (X + Y )
Eg X + Eg Y = H (X) + H (Y ) .
(4.33)
Za÷
óz·my teraz, z·e H (X) jest subaddytywna. Wtedy spe÷
niona jest nierówność (4.33), a wiec
¾
g jest wkles÷
¾ a.
P10 Zachowanie pierwszego porzadku
¾
stochastycznego
W÷
asność ta jest spe÷
niona dla wszystkich funkcji u 2 U i g; h 2 G, poniewaz· zachodza¾
w÷
asności P1 i P2.
P11 Zachowanie porzadku
¾
stop-loss.
Twierdzenie 4.8 Je·zeli u 2 U jest wkles÷
¾ a, g; h 2 G sa¾ takie, ·ze g = h, g jest wypuk÷a i
X SL Y , to H (X) H (Y ).
Dowód Niech g = h i X
Eg [u (w
X)]
Eg [u (w
SL
Y . Wtedy Eg [ u (w
X)]
Y )], poniewaz· Eg [ u (X)] =
Eg [ u (w
Eg [u (X)]. Z de…nicji H (X)
mamy
u (w
H (Y )) = Eg [u (w
Y )]
Eg [u (w
39
Y )]. Stad
¾
X)] = u (w
H (X)) .
Z monotoniczności u dostajemy H (Y )
H (X).
P12 Warunek zysku netto.
W ogólności warunek zysku netto jest spe÷
niony, jez·eli
EX
w
u
1
(Egh u (w
X)) .
(4.34)
Poniewaz· wyznaczenie prawej strony nierówności (4.34) jest z regu÷
y trudne, wiec
¾ podajemy
warunki wystarczajace,
¾ kiedy warunek zysku netto jest spe÷
niony.
Twierdzenie 4.9 Je´sli u 2 U jest wkles÷
¾ a, w
dla 0
x
1, to H (X)
EX.
0 i g; h 2 G sa¾ takie, ·ze g (x)
h (x)
x
Dowód Z W9 mamy
u (w
H (X)) = Egh (u (w
X))
u (Egh (w
X)) .
Stad,
¾ z W3 i (2.1) otrzymujemy
H (X)
Ehg X +
Zw
[g (P (X > s))
h (P (X > s))] ds.
0
Poniewaz· g (x)
h (x)
x, z W5 wynika, z·e H (X)
Ehg X
EX.
Twierdzenie 4.10 Za÷ó·zmy, ·ze u 2 U, g; h 2 G, za´s X jest nieujemna,¾ ograniczona¾
zmienna¾ losowa¾ taka,¾ ·ze 0
w < s = sup X. Wtedy warunek H (X)
EX zachodzi,
je´sli
E (X)
w
u
1
[g (P (X < w)) u (w) + h (P (X = s)) u (w
s)] .
Gdy P (X 2 f0; w; sg) = 1, to nierówno´s´c (4.35) jest równowa·zna temu, ·ze H (X)
Dowód Po÷
óz·my Y = 0, gdy X < w, Y = w, jeśli w
Poniewaz· Y
H (X)) = Egh u (w
X)
Egh u (w
Y)
= g (P (X < w)) u (w) + h (P (X = s)) u (w
Stad
¾ i z (4.35) wynika, z·e H (X)
EX.
40
EX.
X < s oraz Y = s , gdy X = s.
X, wiec
¾ z W4 mamy
u (w
(4.35)
s) .
Twierdzenie 4.11 Za÷ó·zmy, ·ze u 2 U, g 2 G, X
je´sli
EX
w
u
1
0 oraz w
0. Wtedy H (X)
(u (w) g (P (X < w))) .
EX,
(4.36)
Je·zeli P (X = 0) + P (X = w) = 1, to nierówno´s´c (4.36) jest równowa·zna warunkowi
H (X) EX.
Dowód Po÷
óz·my Y = 0 , gdy X < w oraz Y = w, jeśli X
w. Wówczas X = Y wtedy i
tylko wtedy, gdy P (X = 0) + P (X = w) = 1. Poniewaz· Y
X, to z W4 mamy
u (w
H (X)) = Egh u (w
X)
Eg u (w
Y)
= g (P (X < w)) u (w) .
Stad
¾ i z (4.36) mamy H (X)
Przyk÷
ad 4.9 Dla
E (X).
wybranych
funkcji
warto´sci
i
funkcji
zniekszta÷cajacych
¾
prawdopodobie´nstwo mo·zemy w sposób bezpo´sredni sprawdzi´c czy warunek zysku netto
zachodzi. Niech u (x) = x, g (p) = p + 1 (p p2 ) i h (p) = p + 2 (p p2 ), gdzie
j 1j ; j 2j
g (p)
1. Je´sli
0, to g jest wypuk÷a, za´s dla
1
h (p) =
p (1
H (X) =
Z1
p) (
+
1
2 ).
[P (X > s) +
0 funkcja g jest wkles÷
¾ a. Ponadto
1
Z (4.3) mamy
2P
(X > s) P (X
s)] ds
0
(
1
+
2)
Zw
P (X > s) P (X
s) ds
0
Z1
[P ( X
s) +
1P
( X
s) P ( X < s)] ds
0
= EX +
2
Z1
P (X > s) P (X
s) ds
1
w
Stad
¾ H (X)
Zw
P (X > s) P (X
s) ds.
1
EX wtedy i tylko wtedy, gdy
2
Z1
P (X > s) P (X
s) ds
1
w
Zw
P (X > s) P (X
s) ds.
1
Warunek ten jest spe÷niony na przyk÷ad, gdy
41
2
0 i
1
0. Niech X = max (X; w)
oraz X= min (X; w). Zauwa·zmy, ·ze je´sli X i X 0 sa¾ niezale·znymi zmiennymi losowymi o
jednakowym rozk÷adzie, to
Z1
P (X > s) P (X
s) ds = E
w
Z1
1 (X 0 > s) 1 (X
s) ds
w
= E X0
X
+
1
= E X0
2
X ,
co jest znane jako wspó÷czynnik Giniego.
W podobny sposób pokazujemy, ·ze
Rw
P (X > s) P (X s) ds = 21 E jX 0 Xj. Poniewa·z jx yj = 2 max (x; y) x y, wiec
¾
1
H (X) = EX +
2
EX 2:2
EX
1
(EX 2:2
EX) ,
gdzie X 2:2 = max X; X 0 i X 2:2 = max (X; X 0 ).
P13 Iteracyjność.
De…niujemy uogólniona¾ warunkowa¾ ca÷
k¾
e Choqueta wzorem
Egh (XjY ) =
Z1
g (P (X+ > sjY )) ds
0
Z1
h P ( X)+ > sjY
ds,
(4.37)
0
pod warunkiem, z·e obie wystepuj
¾ ace
¾ we wzorze ca÷
ki sa¾ skończone. Wówczas H (XjY )
de…niujemy jako rozwiazanie
¾
równania
u (w
H (XjY )) = Egh [u (w
X) jY ] .
W celu podania charakteryzacji warunku iteracyjności, udowodnimy najpierw nastepuj
¾ acy
¾
Lemat.
Lemat 4.2 Niech X, Y bed
¾ a¾dowolnymi zmiennymi losowymi. Wówczas sup (sup (XjY )) =
sup X.
Dowód Lematu 4.2.
Niech sup (XjY ) = inf fx : P (X > xjY ) = 0g.
P (X > 0) > 0. Poniewaz· X
X+k = (X+ )k . Stad
¾ E X+k jY
sup X, wiec
¾ X+k
1=k
Za÷
óz·my, z·e
(sup X) dla wszystkich k 2 N, gdzie
k
sup X dla wszystkich k 2 N oraz
sup (XjY ) = sup E X+k jY
k2N
42
1=k
sup X
Zatem sup (sup (XjY ))
sup X. Poniewaz· sup Z = sup EZ+k
1=k
dla dowolnej zmiennej
k2N
losowej Z (patrz Aliprantis i Border, 2007, str. 462), wiec
¾ dla k 2 N mamy
1=k
sup (sup (XjY )) = sup E (sup (XjY ))k+
E (sup (XjY ))k+
k2N
E
E
X+k jY
1=k k
1=k
= EX+k
+
1=k
1=k
(4.38)
.
Z (4.38) wynika, z·e sup (sup (XjY )) sup X. Ostatecznie sup (sup (XjY )) = sup X. Gdy
P (X 0) = 1, moz·emy dodać c > 0 takie, z·e P (X + c > 0) > 0 i skorzystać z faktu, z·e
sup (X + c) = sup X + c.
Za÷
óz·my, z·e H (X) jest sk÷
adka¾ wyznaczona¾ ze wzoru (4.2). Rozwaz·my nastepuj
¾ ace
¾
przypadki.
(i) Gdy g (x) = h (x) = x dla 0
1, to Egh X = EX i H (X) = w
x
u
1
(Eu (w
X)).
Zatem H (X) jest sk÷
adka¾ mean-value, która jest iteracyjna (patrz Gerber, 1979, Goovaerts
i inni, 1984).
(ii) Gdy g (x) = 1f1g (x) i h (x) = g (x) = 1(0;1] (x) dla 0
1, to Egh X = inf X i
x
H (X) = sup X. Z Lematu 4.2 wynika, z·e H (X) jest iteracyjna.
(iii) Gdy g (x) = 1(0;1] (x) i h (x) = g (x) = 1f1g (x) dla 0
x
1, to Egh X = sup X i
H (X) = inf X. Poniewaz· inf X = sup ( X), wiec
¾ z (ii) mamy, z·e inf (inf (XjY )) = inf X.
(iv) Gdy g (x) = h (x) = 1f1g (x) dla 0 x 1, to Egh X = (inf X)+ ( sup X)+ oraz
H (X) =
8
>
>
< sup X
inf X
>
>
:
w
gdy X
w
gdy X
w
gdy inf X
w
.
sup X
Jez·eli H (X) = w, to H (X) jest iteracyjna. Stad,
¾ z (ii) i (iii) wynika, z·e H (X) jest
iteracyjna.
(v) Gdy g (x) = x i h (x) = 1f1g (x) dla 0
H (X) =
8
>
>
<
>
>
: w
w
u
1
(Eu (w
x
1, to Egh X = EX+
X))
inf X
u
1
E [u (w
X)]+
( sup X)+ oraz
gdy X
w
gdy X
w
gdy inf X
w
.
sup X
Zauwaz·my, z·e E [E (X+ jY )]+ = E [E (X+ jY )] = EX+ . Stad,
¾ z (i) i (iii) wynika, z·e H (X)
jest iteracyjna.
43
(vi) Gdy g (x) = 1f1g (x) i h (x) = x dla 0
H (X) =
8
>
>
<
1, to Egh X = (inf X)+
x
sup X
>
>
: w
w
u
u
1
1
E [ u (w
(Eu (w
X))
X)]+
gdy X
w
gdy X
w
gdy inf X
w
E ( X)+ oraz
.
sup X
Z (i), (ii) i (v) mamy, z·e H (X) jest iteracyjna.
Twierdzenie 4.12 Niech w
0 bedzie
¾
ustalone. Za÷ó·zmy, ·ze u 2 U i g; h 2 G. Wtedy
sk÷adka H (X), która jest rozwiazaniem
¾
równania (4.2), jest iteracyjna wtedy i tylko wtedy,
gdy H (X) jest zde…niowana w jednym z przypadków (i)-(vi).
Dowód Dla ustalonego w, niech v (x) := u (w
x). Wtedy H (X) = v
1
(Egh v (X)).
Ponadto,
H (XjY ) = v
1
(Egh (v (X) jY ))
(4.39)
oraz
v (H (H (XjY ))) = Egh v (H (XjY )) .
(4.40)
Z (4.39) i (4.40) warunek H (X) = H (H (XjY )) jest równowaz·ny temu, z·e
v
1
(Egh v (X)) = v
1
(Egh v (H (XjY ))) = v
1
(Egh (Egh (v (X) jY ))) ,
co oznacza, z·e sk÷
adka H (X) jest iteracyjna wtedy i tylko wtedy, gdy
Egh Z = Egh (Egh (ZjY )) ,
(4.41)
gdzie Z = v (X). Dowód pierwszej implikacji tego faktu wynika z (i)-(vi). Udowodnimy
teraz implikacje¾ przeciwna.¾
Niech (Z; Y ) bedzie
¾
wektorem losowym o rozk÷
adzie P (Z = 0; Y = 1)
=
1=4,
P (Z = s; Y = 1) = 1=4, P (Z = s; Y = 2) = 1=4, P (Z = 1; Y = 2) = 1=4, gdzie 0 < s < 1
jest dowolne. Wtedy
g (1=4)) + g (1=4) ,
Egh Z = s (g (3=4)
Egh (ZjY = 1) = sg (1=2) ,
Egh (ZjY = 2) = s (1
44
g (1=2)) + g (1=2) .
(4.42)
Poniewaz· Egh (ZjY = 1)
Egh (ZjY = 2), wiec
¾
Egh (Egh (ZjY )) = s 2g (1=2)
2 (g (1=2))2 + (g (1=2))2 .
(4.43)
Z (4.41), (4.42) i (4.43) wynika, z·e sk÷
adka H (X) jest iteracyjna, gdy
s (g (3=4)
g (1=4)) + g (1=4) = s 2g (1=2)
2 (g (1=2))2 + (g (1=2))2
dla 0 < s < 1. Otrzymaliśmy równość dwóch wielomianów zmiennej s. Porównujac
¾ ich
wspó÷
czynniki mamy
(
g (3=4)
g (1=4) = 2g (1=2)
2 (g (1=2))2
.
g (1=4) = (g (1=2))2
(4.44)
Niech teraz wektor (Z; Y ) ma rozk÷
ad P (Z = 0; Y = 1) = 1=4, P (Z = 1; Y = 1) = 1=4,
P (Z = g (1=2) ; Y = 2) = 1=2. Wówczas
g (1=4)) + g (1=4) ,
Egh Z = g (1=2) (g (3=4)
(4.45)
Egh (ZjY = 1) = Egh (ZjY = 2) = g (1=2)
oraz z W7 mamy
Egh (Egh (ZjY )) = g (1=2) .
(4.46)
Z (4.41), (4.45) i (4.46) wynika, z·e H (X) jest iteracyjna, gdy g (1=2) (g (3=4) g (1=4)) +
g (1=4) = g (1=2). Stad
¾ i z (4.44) mamy 2 (g (1=2))3 3 (g (1=2))2 + g (1=2) = 0. Zatem
g (1=2) = 0, g (1=2) = 1=2 lub g (1=2) = 1.
Rozwaz·my wektor losowy (Z; Y ) o rozk÷
adzie P (Z = s; Y = 1)
P (Z = 1; Y = 1) = 1=4
=
1=4 + c,
c, P (Z = s; Y = 2) = 1=4 + d, P (Z = 1; Y = 2) = 1=4
gdzie 0 < s < 1 jest dowolne oraz 0
Egh Z = s (1
c; d
g (1=2
d,
1=4. Wtedy
c
d)) + g (1=2
c
d) ,
Egh (ZjY = 1) = s (1
g (1=2
2c)) + g (1=2
2c) ,
Egh (ZjY = 2) = s (1
g (1=2
2d)) + g (1=2
2d) .
45
(4.47)
Ponadto Egh (ZjY = 1)
Egh (ZjY = 2) wtedy i tylko wtedy, gdy c
Egh (Egh (ZjY )) = [s (1
g (1=2
+ [s (1
dla 0
c
d
g (1=2
2d)) + g (1=2
g (1=2
+ [s (1
d
2c)] (1
(4.48)
g (1=2))
2d)] g (1=2)
1=4 oraz
Egh (Egh (ZjY )) = [s (1
gdy 0
2c)) + g (1=2
d. Stad
¾
c
2d)) + g (1=2
g (1=2
2d)] (1
2c)) + g (1=2
(4.49)
g (1=2))
2c)] g (1=2) ,
1=4. Z (4.41), (4.47), (4.48) i (4.49) wynika, z·e H (X) jest iteracyjna, gdy
s (1
g (1=2
c
= [s (1
g (1=2
2c)) + g (1=2
+ [s (1
dla 0 < s < 1 i 0
c
g (1=2
(4.50)
d)
2c)] (1
2d)) + g (1=2
s (1
g (1=2
c
= [s (1
g (1=2
2d)) + g (1=2
d
c
g (1=2))
2d)] g (1=2)
1=4 oraz
d
+ [s (1
gdy 0 < s < 1 i 0
d)) + g (1=2
d)) + g (1=2
g (1=2
c
2d)] (1
2c)) + g (1=2
(4.51)
d)
g (1=2))
2c)] g (1=2) ,
1=4. Rozwaz·my nastepuj
¾ ace
¾ przypadki:
c
1 g (1=2) = 0. Wtedy g (x) = 0 dla 0
x
1=2.
2 g (1=2) = 1=2. Wówczas z (4.50) i (4.51) mamy
2s (1
= s (1
g (1=2
g (1=2
dla 0 < s < 1 oraz 0
c
d)) + 2g (1=2
2c)) + g (1=2
c; d
c
d)
2c) + s (1
g (1=2
2d)) + g (1=2
2d)
1=4. Porównujac
¾ wspó÷
czynniki powyz·szych wielomianów
otrzymujemy
2g (1=2
dla 0
c; d
c
d) = g (1=2
1=4. Niech f (x) = g (1=2
2f ((c + d) =2) = f (c) + f (d) dla 0
2c) + g (1=2
2d)
(4.52)
2x). Wtedy (4.52) moz·emy zapisać jako
1=4, a wiec
¾ dostaliśmy równanie funkcyjne
c; d
Jensena. Poniewaz· funkcja f jest mierzalna jako monotoniczna, wiec
¾ f jest funkcja¾ liniowa¾
46
(patrz Kuczma, 2009, str. 354). Poniewaz· f (0) = g (1=2) = 1=2 oraz f (1=4) = g (0) = 0,
wiec
¾ f (x) = 2x + 1=2 dla 0 x 1=4. Ostatecznie g (x) = x dla 0 x 1=2.
3 g (1=2) = 1. Wówczas z (4.50) mamy
s (1
g (1=2
dla 0 < s < 1 i 0
c
d
d)) + g (1=2
d
c
d) = s (1
g (1=2
2d)) + g (1=2
2d)
1=4. Porównujac
¾ wspó÷
czynniki powyz·szych wielomianów mamy
c
g (1=2
dla 0
c
c
d) = g (1=2
1=4. K÷
adac
¾ d = 0 otrzymujemy g (1=2
Stad
¾ g (x) = 1 dla 1=4
(4.53)
2d)
c) = g (1=2) = 1 dla 0
c
1=4.
1=2. K÷
adac
¾ c = 1=4 w (4.53) dostajemy g (x) = g (2x) dla
x
1=4. Poniewaz· g (1=2) = 1, wiec
¾ g (1=2) = g (2=4) = g (1=4) = g (2=8) = g (1=8) i
tak dalej. Stad
¾ g (x) = 1 dla 0 < x 1=2.
0
x
Rozwaz·my wektor losowy (Z; Y ) o rozk÷
adzie P (Z = s; Y = 1)
P (Z = 1; Y = 1) = 1=4 + c, P (Z = s; Y = 2) = 1=4
gdzie 0 < s < 1 jest dowolne oraz 0
=
1=4
c,
d, P (Z = 1; Y = 2) = 1=4 + d,
1=4. Wówczas rozumowanie analogiczne do
c; d
zastosowanego wcześniej pokazuje, z·e H (X) jest iteracyjna, gdy
s (1
= [s (1
g (1=2 + 2c)) + g (1=2 + 2c)] (1
+ [s (1
dla 0 < s < 1, gdy 0
c
g (1=2 + 2d)) + g (1=2 + 2d)] (1
+ [s (1
c
g (1=2 + 2d)) + g (1=2 + 2d)] g (1=2)
(4.55)
g (1=2 + c + d)) + g (1=2 + c + d)
= [s (1
d
g (1=2))
1=4 oraz
d
s (1
gdy 0 < s < 1 i 0
(4.54)
g (1=2 + c + d)) + g (1=2 + c + d)
g (1=2))
g (1=2 + 2c)) + g (1=2 + 2c)] g (1=2) ,
1=4. Rozwaz·my nastepuj
¾ ace
¾ przypadki:
1 g (1=2) = 0. Z (4.54) mamy
s (1
g (1=2 + c + d)) + g (1=2 + c + d) = s (1
47
g (1=2 + 2c)) + g (1=2 + 2c)
(4.56)
dla 0
c
1=4. Porównujac
¾ wspó÷
czynniki wielomianów we wzorze (4.56) mamy
d
(4.57)
g (1=2 + c + d) = g (1=2 + 2c)
dla 0
c
d
1=4. K÷
adac
¾ c = 0 otrzymujemy g (1=2 + d) = g (1=2) = 0 dla 0
Stad
¾ g (x) = 0 dla 1=2
d
3=4. Wstawiajac
¾ d = 1=4 do wzoru (4.57) dostajemy
x
(4.58)
g (3=4 + c) = g (1=2 + 2c)
dla 0
1=4. K÷
adac
¾ c = 1=8 w (4.58) mamy g (7=8) = g (3=4) = 0. Stad
¾ g (x) = 0
c
dla 1=2
x
7=8. Wstawiajac
¾ c = 3=16 do (4.58) otrzymujemy g (15=16) = g (7=8) = 0.
Zatem g (x) = 0 dla 1=2
1=2
1=4.
x
15=16. Kontynuujac
¾ to postepowanie
¾
mamy, z·e g (x) = 0 dla
x < 1.
2 g (1=2) = 1=2. Wtedy z (4.54) i (4.55) mamy
2s (1
= s (1
dla 0 < s < 1 i 0
g (1=2 + c + d)) + 2g (1=2 + c + d)
g (1=2 + 2c)) + g (1=2 + 2c) + s (1
c; d
g (1=2 + 2d)) + g (1=2 + 2d)
1=4. Porównujac
¾ wspó÷
czynniki powyz·szych wielomianów mamy
2g (1=2 + c + d) = g (1=2 + 2c) + g (1=2 + 2d)
dla 0
c; d
(4.59)
1=4. Niech f (x) = g (1=2 + 2x). Wtedy moz·emy zapisać równanie (4.59)
w postaci 2f ((c + d) =2) = f (c) + f (d) dla 0
c; d
1=4. Poniewaz· f jest mierzalna,
wiec
¾ jest liniowa (patrz Kuczma, 2009, str. 354). Z faktu, z·e f (0) = g (1=2) = 1=2 i
f (1=4) = g (1) = 1 wynika, z·e f (x) = 2x + 1=2 dla 0 x 1=4. Ostatecznie, g (x) = x dla
1=2
x
1.
3 g (1=2) = 1. Wtedy g (x) = 1 dla 1=2
x
1.
Podsumowujac,
¾ udowodniliśmy do tej pory, z·e jeśli sk÷
adka H (X) jest iteracyjna, to
g (x) = x, g (x) = 1f1g (x) lub g (x) = 1(0;1] (x) dla 0
x
1. Dalej wystarczy
zauwaz·yć, z·e Egh ( X) =
h (x) = 1(0;1] (x) dla 0 x
Ehg X, aby wywnioskować, z·e h (x) = x, h (x) = 1f1g (x) lub
1 (patrz (4.41)). Otrzymujemy w ten sposób dziewieć
¾ róz·nych
par funkcji g i h. Wykaz·emy, z·e dla trzech z tych par w÷
asność iteracyjności nie zachodzi.
Za÷
óz·my, z·e wektor (Z; Y ) ma rozk÷
ad P (Z = 1; Y = 1) = 1=4, P (Z = 1; Y = 1) =
1=2, P (Z =
g (2=3)
1; Y = 2) = 1=4.
Wtedy Egh Z = g (1=2)
h (1=3) oraz Egh (ZjY = 2) =
h (1=2), Egh (ZjY = 1) =
1. Poniewaz· Egh (ZjY = 1)
48
Egh (ZjY = 2),
wiec
¾ Egh (Egh (ZjY )) = (g (2=3)
Egh (Egh (ZjY )) = (g (2=3)
h (1=3)) g (3=4)
h (1=3)) (1
h (1=4))
h (1=4) gdy g (2=3)
h (1=4) dla g (2=3)
h (1=3)
h (1=3)
0 oraz
0. Z
(4.41) wynika, z·e H (X) jest iteracyjna, gdy
g (1=2)
dla g (2=3)
h (1=3)
g (1=2)
h (1=2) = (g (2=3)
h (1=3)) g (3=4)
h (1=4)
(4.60)
0 oraz
h (1=2) = (g (2=3)
h (1=3)) (1
o ile g (2=3)
h (1=4))
h (1=4) ,
(4.61)
h (1=3) < 0. Z (4.60) i (4.61) wynika, z·e H (X) nie jest iteracyjna, gdy
g (x) = 1(0;1] (x) i h (x) = x, lub g (x) = x i h (x) = 1(0;1] (x), lub g (x) = h (x) = 1(0;1] (x).
49
5
Sk÷
adka zerowej uz·yteczności w teorii skumulowanej
perspektywy
5.1
De…nicja sk÷
adki
W tym rozdziale zde…niujemy sk÷
adk¾
e zerowej uz·yteczności w ujeciu
¾
teorii skumulowanej
perspektywy. Niech X bedzie
¾
dowolna¾ zmienna¾ losowa.
¾ Rozwaz·my …rm¾
e ubezpieczeniowa,
¾
która podejmuje decyzje w oparciu o punkt referencyjny w 2 R (np.
jej majatek
¾
poczatkowy).
¾
Za÷
óz·my, z·e potencjalny klient tej …rmy chce od niej kupić ubezpieczenie,
które wyp÷
aca pienie¾z·na¾ równowartość losowej straty X. Za÷
óz·my, z·e u1 ; u2 : R+ ! R+
sa¾ niemalejacymi
¾
funkcjami wartości, przy czym u1 mierzy zyski, zaś u2 straty. Niech g
i h bed
¾ a¾ funkcjami zniekszta÷
cajacymi
¾
prawdopodobieństwa odpowiednio zysków i strat.
Sk÷
adk¾
e zerowej uz·yteczności H (X) w teorii skumulowanej perspektywy za ubezpieczenie
sie¾ na wypadek ryzyka X de…niujemy jako rozwiazanie
¾
równania
u1 (w+ )
u2 ( w)+ = Eg u1 (w + H (X)
X)+
Eh u2 (X
w
H (X))+ .
(5.1)
Zauwaz·my, z·e wzór (5.1) moz·emy zapisać w postaci
u (w) = Egh u (w + H (X)
X) ,
(5.2)
gdzie u (x) = u1 (x+ ) u2 ( x)+ jest pewna¾niemalejac
¾ a¾funkcja¾dla x 2 R . Gerber (1979)
rozwaz·a równanie na sk÷
adk¾
e H (X) przy za÷
oz·eniach, z·e funkcja wartości u jest wkles÷
¾ a, a
prawdopodobieństwa nie sa¾ zniekszta÷
cane, tzn. g (p) = h (p) = p. W bardziej ogólnym
a, zaś funkcja wartości jest wkles÷
¾ a.
modelu Heilpern (2003) zak÷
ada, z·e h = g, g jest wypuk÷
Goovaerts i inni (2010 a) badaja¾ addytywność miary ryzyka otrzymanej przez zastosowanie
zasady równowaz·nej uz·yteczności w teorii perspektywy. Okazuje sie,
¾ z·e rozwaz·ana przez
nich miara ryzyka odpowiada sk÷
adce H (X) wyznaczonej z (5.1) przy w = 0. W pracy tej
uogólniamy g÷
ówne twierdzenie z ich pracy przy s÷
abszych za÷
oz·eniach dotyczacych
¾
funkcji
wartości i funkcji zniekszta÷
cajacych
¾
prawdopodobieństwo (patrz Twierdzenie 5.4).
Aby sk÷
adka wyznaczona z równania (5.2) istnia÷
a i by÷
a wyznaczona jednoznacznie,
podobnie jak w przypadku sk÷
adki mean-value, nalez·y przyjać,
¾ z·e u 2 U.
50
5.2
Przyk÷
ady
W poniz·szych dwóch przyk÷
adach wyprowadzimy wzory jawne na sk÷
adk¾
e H (X) bed
¾ ac
¾ a¾
rozwiazaniem
¾
równania (5.2) w przypadku, gdy u 2 U0 .
Przyk÷
ad 5.1 Je·zeli u (x) = cx , to z (5.2) mamy
cw = Egh [c (w + H (X)
X)] .
(5.3)
Z W2, W3 i (2.1) wynika, ·ze
w=
w+H(X)
Z
Ehg X + w + H (X) +
[h (P (X > s))
(5.4)
g (P (X > s))] ds.
0
Rt
Po÷ó·zmy ' (t) = t + [h (P (X > s))
0
ciag÷
¾ ego i h (q)+g (1
Zatem '
1
istnieje i
g (P (X > s))] ds. Je·zeli X jest zmienna¾losowa¾typu
q) > 0 dla q 2 [0; 1], to '0 (t) = 1+h (P (X > t)) g (P (X > t)) > 0.
H (X) = '
Przyk÷
ad 5.2 Niech u (x) = (1
1
e
e
cw
cx
1
(w + Ehg X)
w.
) =a. Z (5.2) i W2 mamy
= Egh 1
e
c(w+H(X) X)
.
Z (2.1) i W3 wynika, ·ze
1
= 1
e
cw
Eh e
c(w+H(X) X)
+
Z1
h P e
c(w+H(X) X)
>s
g P e
c(w+H(X) X)
>s
ds.
0
Stad
¾ i z W2 dostajemy
e
c(w+H(X))
Eh ecX = e
cw
+e
c(w+H(X))
exp(c(w+H(X)))
Z
h P ecX > t
g P ecX > t
dt.
0
(5.5)
51
ecH(X) = Eh ecX , gdzie
Zatem
(t) = t +
t exp(cw)
Z
h P ecX > s
g P ecX > s
ds.
0
Je·zeli X jest zmienna¾ losowa¾ typu ciag÷
¾ ego i h (q) + g (1 q) > 0 dla wszystkich q 2 [0; 1],
to 0 > 0. Stad
¾
1
H (X) = ln 1 Eh ecX .
c
Dla h = g otrzymujemy sk÷adke¾ zaproponowana¾przez Heilperna (2003) i Tsanakasa (2009).
W podobny sposób wyprowadzamy wzór na H (X), gdy u (x) = (ecx
1) =a.
Przyk÷
ad 5.3 Niech u 2 U oraz g (x) = h (x) = x dla x 2 [0; 1]. Wtedy sk÷adka H (X)
jest sk÷adka¾ zerowej u·zyteczno´sci. W szczególnym przypadku, gdy u (x) = x, to z (5.4)
mamy H (X) = Egh X = EX, a wiec
¾ otrzymana sk÷adka jest sk÷adka¾netto. Je´sli za´s u (x) =
1
e
x
> 0, to z (5.5) mamy H (X) = 1 ln Ee
= dla pewnego
X
, a wiec
¾ otrzymali´smy
sk÷adke¾ wyk÷adnicza.¾
Ze wzorów (4.3) i (5.4) wynika, z·e gdy u (x) = x i h = g, to wzór na sk÷
adk¾
e wyznaczona¾z
równania (5.2) jest identyczny ze wzorem na H (X) wyznaczona¾ z równania (4.2). Oznacza
to, z·e sk÷
adki wyprowadzone w Przyk÷
adach 4.4-4.7 moga¾ zostać równiez· otrzymane jako
rozwiazanie
¾
równania (5.2) dla tych samych funkcji zniekszta÷
cajacych
¾
prawdopodobieństwo,
które wystepuj
¾ a¾ we wspomnianych przyk÷
adach. W kolejnych przyk÷
adach pokaz·emy, z·e
szczególnymi przypadkami sk÷
adki wyznaczonej ze wzoru (5.2) sa¾ pewne znane sk÷
adki.
Przyk÷
ad 5.4 Niech u (x) = x. Za÷ó·zmy, ·ze h (p) = a + bp, g (p) = c + dp dla p 2 (0; 1),
gdzie b; d > 0, a + b < 1 i c + d < 1. Je·zeli inf X = 0 oraz X w, to z (5.3) mamy
H (X) = Eg X =
sup
Z X
g (P (X > s)) ds =
0
= EX + (1
Gdy c = 0 i 0
d) (sup X
sup
Z X
[(1
c
d)
dP (X > s)] ds
0
EX)
d < 1, to H (X) = EX + (1
c sup X.
d) (sup X
52
EX) (porównaj Przyk÷ad 4.8).
5.3
W÷
asności sk÷
adki zerowej uz·yteczności w ujeciu
¾
teorii
skumulowanej perspektywy
W rozdziale tym zajmiemy sie¾ analiza¾sk÷
adki ubezpieczeniowej H (X) bed
¾ acej
¾ rozwiazaniem
¾
równania (5.2).
P1 Niezmienniczość ze wzgledu
¾ na rozk÷
ad.
W÷
asność jest spe÷
niona dla wszystkich funkcji u 2 U i g; h 2 G, co wynika z de…nicji
uogólnionej ca÷
ki Choqueta oraz wzoru (5.2).
P2 Monotoniczność.
W÷
asność ta jest spe÷
niona dla wszystkich funkcji u 2 U i g; h 2 G, co jest konsekwencja¾ W4
i W7.
P3 Brak nieuzasadnionego ÷
adowania bezpieczeństwa.
Z W7 wynika, z·e warunek ten zachodzi dla wszystkich funkcji u 2 U i g; h 2 G.
P4 Brak zbyt ma÷
ego i nadmiernego ÷
adowania bezpieczeństwa.
W÷
asność ta jest spe÷
niona dla wszystkich funkcji u 2 U i g; h 2 G, poniewaz· zachodza¾
w÷
asności P1, P2 i P3.
P5 Zgodność.
W÷
asność ta jest spe÷
niona dla wszystkich u 2 U i g; h 2 G. Istotnie, z równania (5.2) mamy
Egh u (w + H (X + b)
(X + b)) = u (w) = Egh u (w + (H (X) + b)
(X + b)) .
Stad,
¾ z róz·nowartościowości funkcji u i jednoznaczności sk÷
adki H (X) mamy, z·e H (X + b) =
H (X) + b dla b 2 R.
P6 Proporcjonalność.
Twierdzenie 5.1 (i) Niech w = 0, u 2 U i g; h 2 G bed
¾ a¾ funkcjami ciag÷
¾ ymi takimi, ·ze
istnieja¾0 q0 < q1 1 takie, ·ze g (1 q) h (q) > 0 dla q 2 (q0 ; q1 ). Wówczas sk÷adka H (X)
jest proporcjonalna wtedy i tylko wtedy, gdy u (x) = c1 ( x)d dla x < 0 oraz u (x) = c2 xd dla
x > 0, gdzie d > 0 i c1 < 0 < c2 .
(ii) Je·zeli dodatkowo (5.2) zachodzi dla pewnego w > 0, to H (X) jest proporcjonalna wtedy
i tylko wtedy, gdy u (x) = cx dla x 2 R, pewnego c > 0 oraz g = h.
53
Dowód (i) Niech w = 0. ×atwo sprawdzić, z·e z W2 wynika proporcjonalność sk÷
adki H (X)
dla funkcji u podanej w tezie (i). Za÷
óz·my teraz, z·e H (X) jest proporcjonalna. Niech
X 2 X2 . Dla a > 0 mamy
0 = Egh u (a (H (X)
= u (aH (X)) g (1
X)) = Eg [u (a (H (X)
X))]+
Eh [ u (a (H (X)
X))]+
s)) h (q) .
q) + u (a (H (X)
Stad
¾
0 = u (aH (X)) (1
s)) h (q) ,
g (q)) + u (a (H (X)
(5.6)
przy czym z ciag÷
¾ ości g, h i u wynika, z·e H (X) przyjmuje wszystkie wartości z przedzia÷
u
(0; s). Wyznaczajac
¾ h (q) z (5.6) przy a = 1 i wstawiajac
¾ te¾ wartość do (5.6) otrzymujemy
u (aH (X))
u (a (H (X) s))
=
u (H (X))
u (H (X) s)
(5.7)
dla wszystkich a > 0 i 0 < H (X) < s. K÷
adac
¾ H (X) = 1 i s = 2 do (5.7) dostajemy
u (a) =
u (1)
u ( a)
u ( 1)
(5.8)
dla a > 0. Ponadto, z (5.7) dla x = H (X) i s = x + 1 mamy
u (ax) = u (x)
u ( a)
u (x) u (a)
=
u ( 1)
u (1)
dla a; x > 0, gdzie skorzystaliśmy z (5.8). Z ostatniego równania otrzymujemy, z·e funkcja
u (x) = ln (u (ex ) =u (1)) spe÷
nia równanie funkcyjne Cauchy’ego
u (b + y) = u (b) + u (y)
dla wszystkich b; y 2 R. Stad
¾ u (x) = dx dla wszystkich x 2 R i pewnego d > 0 (patrz
Kuczma, 2009, str. 129). Zatem u (x) = c2 xd dla x > 0 i pewnych d; c2 > 0. Z (5.8) wynika,
z·e u (x) = c1 ( x)d dla x < 0 i pewnego c1 < 0.
(ii) Za÷
óz·my dodatkowo, z·e (5.2) zachodzi dla pewnego w > 0. Dla w = 0 z proporcjonalności
H (X) i z (5.2) mamy
wd = (w + aH (X))d g (1
q) + (w + a (H (X)
54
s))d (1
g (1
q)) ,
(5.9)
gdy 0
w
s H(X)
a
oraz
c2 wd = c2 (w + aH (X))d g (1
gdy a
w= (s
q) + c1 ( w
a (H (X)
s))d h (q) ,
H (X)). Róz·niczkujac
¾ obie strony równania (5.9) ze wzgledu
¾ na a i k÷
adac
¾
a = 0 mamy H (X) = sg (q). Wstawiajac
¾ te¾ zalez·ność do (5.9) przy a =
[g (1
d 1
q)]
(5.10)
w
s(1 g(q))
dostajemy
= 1. Poniewaz· q jest dowolne, wiec
¾ d = 1. Równanie (5.10) dla d = 1 jest
postaci
g (q)) (c2 g (q) + c1 h (q)) .
w (c2 g (q) + c1 h (q)) = as (1
Z dowolności s wynika, z·e lewa i prawa strona powyz·szego równania jest równa 0. Stad
¾
c2 g (q) + c1 h (q) = 0 dla q 2 [0; 1]. K÷
adac
¾ q = 1 dostajemy c1 = c2 oraz g (q) = h (q).
Poniewaz· pewne funkcje zniekszta÷
cajace
¾ prawdopodobieństwo rozwaz·ane w literaturze
nie sa¾ ciag÷
¾ e, wiec
¾ w poniz·szym twierdzeniu os÷
abiamy za÷
oz·enie o ciag÷
¾ ości g i h, ale
nak÷
adamy pewien dodatkowy warunek na funkcje¾ u.
Twierdzenie 5.2 Je·zeli w = 0, u 2 U jest wkles÷
¾ a i istnieje q 2 (0; 1) takie, ·ze
g (1 q) h (q) > 0, to sk÷adka H (X) jest proporcjonalna wtedy i tylko wtedy, gdy u (x) = c1 x
dla x < 0 i u (x) = c2 x dla x
0, gdzie 0 < c2
c1 . Je´sli dodatkowo równanie (5.2)
zachodzi dla jakiego´s w > 0, to u (x) = cx dla x 2 R i pewnego c > 0.
Dowód Z W2 dla kawa÷
kami liniowej funkcji u mamy
Egh u (a (H (X)
X)) = Egh (au (H (X)
X)) = aEgh u (H (X)
X) = 0,
a wiec
¾ sk÷
adka H (X) jest proporcjonalna. Za÷
óz·my teraz, z·e u 2 U oraz X 2 X2 . Z (5.6)
mamy
u (aH (X)) (1
g (q)) =
u (a (H (X)
s)) h (q) .
(5.11)
Po lewej stronie równania (5.11) znajduje sie¾ funkcja wkles÷
¾ a zmiennej a, zaś po prawej
stronie mamy funkcje¾ wypuk÷
a¾ zmiennej a. Wnioskujemy stad,
¾ z·e u jest liniowa dla x < 0
i dla x > 0 z być moz·e róz·nymi wspó÷
czynnikami kierunkowymi. Dla w > 0 liniowość u
otrzymujemy w sposób analogiczny do tego w Twierdzeniu 5.1.
P7 Addytywność dla zmiennych losowych komonotonicznych.
Poniewaz· kaz·da funkcja sta÷
a jest komonotoniczna z dowolna¾ zmienna¾ losowa¾ X, wiec
¾
z W8 wynika, z·e warunek Egh (X + Y ) = Egh X + Egh Y nie musi być spe÷
niony dla
komonotonicznych zmiennych losowych X i Y . W Twierdzeniu 5.3 podajemy charakteryzacje¾
55
addytywności dla zmiennych losowych komonotonicznych dla sk÷
adki wyznaczonej z
równania (5.2).
Twierdzenie 5.3 (i) Je·zeli u (x) = cx i h = g 2 G, to sk÷adka H (X) jest addytywna dla
zmiennych losowych komonotonicznych.
(ii) Je·zeli u 2 U, g; h 2 G sa¾ciag÷
¾ e oraz istnieja¾0 q1 < q2 1 takie, ·ze g (1 q) h (q) > 0
dla q 2 (q1 ; q2 ), równanie (5.2) zachodzi dla w = 0 i pewnego w > 0, za´s sk÷adka H (X) jest
addytywna dla zmiennych losowych komonotonicznych, to u (x) = cx dla pewnego c > 0 oraz
g = h.
Dowód (i) Gdy h = g, to H (X) = Eg X i z addytywności ca÷
ki Choqueta dla zmiennych
losowych komonotonicznych otrzymujemy teze.
¾
(ii) Wiadomo, z·e jeśli sk÷
adka jest addytywna dla zmiennych losowych komonotonicznych,
to jest proporcjonalna. Z Twierdzenia 5.1 wnioskujemy, z·e u (x) = cx oraz g = h.
P8 Addytywność dla zmiennych losowych niezalez·nych.
Twierdzenie 5.4 Niech u 2 U.
(i) Je·zeli g (p) = h (p) = p i u 2 U0 , to sk÷adka H (X) jest addytywna dla zmiennych losowych
niezale·znych.
(ii) Je·zeli g (p) = h (p) = p i sk÷adka H (X) jest addytywna dla zmiennych losowych
niezale·znych przy w = 0, to u 2 U0 .
(iii) Je·zeli u 2 U0 , g; h 2 G, g jest prawostronnie ciag÷
¾ a w x = 0, lewostronnie ciag÷
¾a w
x = 1, ma pochodna¾lewostronna¾w x = 1 oraz g (1
q) + h (q) > 0 dla wszystkich q 2 [0; 1],
to H (X) jest addytywna dla zmiennych losowych niezale·znych dla dowolnego w
tylko wtedy, gdy g (p) = h (p) = p.
0 wtedy i
W celu wykazania Twierdzenia 5.4 udowodnimy nastepuj
¾ ace
¾ lematy.
Lemat 5.1 Je·zeli u 2 U, to
u (x + y)
= eay
x!1 u (x)
lim
dla pewnego a > 0, o ile granica istnieje i jest sko´nczona.
u(x+y)
.
x!1 u(x)
Dowód Niech z (y) = lim
Wówczas dla x; y 2 R mamy
u (z + x + y)
u (z + y + x)
= lim
z!1
z+y!1 u (z + y)
u (z)
z (x + y) = lim
56
u (z + y)
= z (x) z (y) .
z!1 u (z)
lim
Poniewaz· funkcja z jest mierzalna jako granica funkcji ciag÷
¾ ych, wiec
¾ jedynym rozwiazaniem
¾
otrzymanego równania jest z (x) = eax (patrz Kuczma, 2009, str. 349-350). Funkcja u jest
rosnaca,
¾ a wiec
¾ 0 < u (x) < u (x + y) dla x; y > 0. Stad
¾ z (x)
1 dla x
0 i ostatecznie
a > 0.
Funkcje¾ f : R2 ! R nazywamy symetryczna,
¾ gdy f (x; y) = f (y; x) dla wszystkich
x; y 2 R.
Lemat 5.2 Funkcja symetryczna f : R2 ! R spe÷nia równanie
f (x; y)
f (a; y)
f (x; b) + f (a; b) = 0
(5.12)
dla wszystkich a; b < 0 < x; y wtedy i tylko wtedy, gdy f (x; y) = h (x) + h (y) dla x, y 2
Rn f0g, gdzie h : R ! R jest dowolna.
Dowód ×atwo sprawdzić, z·e funkcja f (x; y) = h (x)+h (y) spe÷
nia warunek (5.12). Za÷
óz·my,
z·e wzór (5.12) zachodzi dla pewnej funkcji f . Po÷
óz·my h (x) = f (x; 1) 21 f ( 1; 1) dla
x > 0 oraz h (a) = f (a; 1)
1
f
2
(1; 1) dla a < 0. Zde…niujmy F (x; y) = h (x) + h (y) dla
x; y 6= 0. Pokaz·emy, z·e F = f . Dla x; y > 0 z symetrii f mamy
F (x; y) = f (x; 1) + f ( 1; y)
Z (5.12) dla b = a =
f ( 1; 1) .
(5.13)
f ( 1; 1) .
(5.14)
1 dostajemy
f (x; y) = f ( 1; y) + f (x; 1)
Z (5.13) i (5.14) mamy F (x; y) = f (x; y) dla x; y > 0. W podobny sposób, k÷
adac
¾ x=y=1
otrzymujemy F (a; b) = f (a; b) dla a; b < 0. Poniewaz· F jest symetryczna, wiec
¾ wystarczy
udowodnić, z·e F (x; a) = f (x; a) dla x > 0 i a < 0. Z (5.12) mamy f (x; x) f (x; a)
f (a; x) + f (a; a) = 0. Zatem
f (x; a) =
1
1
(f (x; x) + f (a; a)) = (F (x; x) + F (a; a)) = h (x) + h (a) = F (x; a) .
2
2
Dowód Twierdzenia 5.4. (i) Niech g (p) = h (p) = p. Gdy u 2 U0 , to ÷
atwo sprawdzić, z·e
H (X) jest addytywna dla zmiennych losowych niezalez·nych.
(ii) Za÷
óz·my teraz, z·e H (X + Y ) = H (X) + H (Y ) dla dowolnych niezalez·nych zmiennych
losowych X i Y . Niech X, Y bed
¾ a¾niezalez·nymi zmiennymi losowymi takimi, z·e P (X = s) =
57
q = 1 P (X = 0), P (Y = z) = p = 1 P (Y = 0), gdzie s, z > 0 sa¾dowolne oraz p; q 2 [0; 1].
Oznaczmy x = H (X), y = H (Y ). Z (5.2) dla w = 0 i zmiennych losowych X, Y , X + Y
mamy odpowiednio
0 = (1
0 = (1
q) u (x) + qu (x
s) ,
(5.15)
0 = (1
p) u (y) + pu (y
z) ,
(5.16)
p) (1
+q (1
q) u (x + y) + p (1
p) u (x + y
q) u (x + y
s) + pqu (x + y
s
(5.17)
z)
z) .
Wyznaczajac
¾ p i q z (5.15) i (5.16) oraz wstawiajac
¾ te wartości do (5.17) mamy
0 = u (x
s) u (y
u (x) u (y
Po÷
óz·my a = x
s, b = y
z) u (x + y)
z) u (x + y
u (y) u (x
s) u (x + y
s) + u (x) u (y) u (x + y
z i zde…niujmy funkcje¾ f (x; y) =
0 = f (x; y)
f (a; y)
u(x+y)
.
u(x)u(y)
z)
s
(5.18)
z) .
Z (5.18) mamy
f (x; b) + f (a; b)
(5.19)
dla wszystkich a; b < 0 < x; y. Z Lematu 5.2 dla pewnej funkcji s otrzymujemy
u (x + y) = u (x) u (y) (s (x) + s (y))
(5.20)
dla x; y 6= 0. Dla x = y = 1 mamy stad
¾ s (1) = u (2) = (2u2 (1)). Jez·eli po÷
oz·ymy y = 1 we
wzorze (5.20), to
s (x) =
u (x + 1)
u (x) u (1)
u (2)
2u2 (1)
(5.21)
dla x 6= 0. Z (5.20) i (5.21) mamy
u (x + y) = u (y)
u (x + 1)
u (y + 1)
+ u (x)
u (1)
u (1)
u (2)
u (x) u (y)
u2 (1)
u(x+y)
x!1 u(x)
dla x; y 2 R. Z (5.22) wnioskujemy, z·e granica lim
u(x+1)
x!1 u(x)
wszystkich y wtedy i tylko wtedy, gdy lim
58
(5.22)
istnieje i jest skończona dla
istnieje i jest skończona. Wstawiajac
¾ y=2
do (5.22) otrzymujemy
u (x + 2)
u (2)
u (x + 1) +
u (1)
u (2)
u (1)
2
u (3)
u (1)
!
u (x) = 0
dla x 2 R. Otrzymane równanie funkcyjne moz·e mieć nastepuj
¾ ace
¾ rozwiazania:
¾
gdzie c1 , c2 ,
,
u (x) = '1 (x) ec1 x + '2 (x) ec2 x ,
(5.23)
u (x) = ('1 (x) + x'2 (x)) ec1 x ,
(5.24)
u (x) = ('1 (x) cos x + '2 (x) sin x) e x , x 2 R,
(5.25)
sa¾ pewnymi sta÷
ymi, zaś '1 , '2 sa¾ dowolnymi funkcjami okresowymi o
okresie 1 (patrz Polyanin i Manzhirow, 2007, str. 894). Wykaz·emy, z·e funkcja u ze wzoru
p
(5.25) nie jest monotoniczna. Dla (x) takiego, z·e sin (x) = '1 (x) = '21 (x) + '22 (x) i
p
cos (x) = '2 (x) = '21 (x) + '22 (x) mamy
u (x) =
q
'21 (x) + '22 (x) sin ( x + (x)) e x ,
gdzie (x) jest dowolna¾ funkcja¾ okresowa¾ o okresie 1. Wobec tego istnieje x0 > 0 takie, z·e
u (x0 ) = 0, co oznacza, z·e u nie jest rosnaca.
¾
Zauwaz·my, z·e dla funkcji u ze wzoru (5.23) mamy
u (x + 1)
'1 (x) e(c1 c2 )(x+1) + '2 (x)
c2
lim
= e lim
= ec2 < 1,
x!1 u (x)
x!1 '1 (x) e(c1 c2 )x + '2 (x)
gdzie dla c1
c2 skorzystaliśmy z faktu, z·e ' jest okresowa. Dla u z (5.24) mamy
u (x + 1)
' (x) + (x + 1) '2 (x)
= ec1 lim 1
= ec1 < 1.
x!1
x!1 u (x)
'1 (x) + x'2 (x)
lim
u(x+y)
x!1 u(x)
Dla funkcji u ze wzorów (5.23) i (5.24) granica lim
wszystkich y. Z Lematu 5.1 istnieje sta÷
ac
istnieje i jest skończona dla
0 taka, z·e
u (x + y)
= ecy .
x!1 u (x)
(5.26)
lim
Z Lematu 5.2, kaz·de rozwiazanie
¾
równania (5.19) moz·na zapisać w postaci f (x; y) = p (x) +
p (y). Stad
¾ i z (5.26) mamy ecy =u (y) = p (1) + p (y), a wiec
¾ p (y) = ecy =u (y)
59
d
,
2
gdzie
d = 2p (1) < 1 (z (5.21) i (5.26) wynika, z·e p (1) < 1). Z de…nicji funkcji f
dostajemy
ecx
ecy
u (x + y)
=
+
d.
u (x) u (y)
u (x) u (y)
0
K÷
adac
¾ v (x) = u (x) e
cx
mamy
v (x + y) = v (x) + v (y)
(5.27)
dv (x) v (y)
dla x; y 2 R. Gdy d = 0, to jedynym rozwiazaniem
¾
równania (5.27) jest v (x) = ax.
Stad
¾ u (x) = axecx dla x 2 R, gdzie a > 0, c
podstawiajac
¾ z (x) = 1
0 (porównaj Gerber, 1985). Dla d > 0,
dv (x), równanie (5.27) moz·emy zapisać w postaci z (x + y) =
z (x) z (y). Zatem u (x) = ecx (1
e x ) =d dla x 2 R, gdzie
, c 2 R (patrz Kuczma,
2009, str. 349). ×atwo sprawdzić, z·e wśród nastepuj
¾ acych
¾
klas funkcji: u (x) = axecx oraz
u (x) = ecx (1 e x ) =d, jedynymi rosnacymi
¾
sa¾ u (x) = ax, a > 0, u (x) = (1 e x ) =d,
< 0, d > 0 oraz u (x) = (ecx
1) =d, c; d > 0.
(iii) Gdy u (x) = cx, to
H (X) +
w+H(X)
Z
[h (P (X > s))
g (P (X > s))] ds = Ehg X.
0
Niech X, Y bed
¾ a¾ niezalez·nymi zmiennymi losowymi takimi, z·e P (X = 1) = q = 1
P (X = 0), P (Y = 1) = p = 1 P (Y = 0) dla p; q 2 [0; 1]. Poniewaz· Ehg X = Eh X = h (q),
wiec
¾
H (X) +
w+H(X)
Z
h q1(0;1) (s)
g q1(0;1) (s)
ds = h (q) .
0
Stad
¾
Dla w
H (X) + (h (q)
g (q)) min fw + H (X) ; 1g = h (q) ,
H (Y ) + (h (p)
g (p)) min fw + H (Y ) ; 1g = h (p) .
1 mamy
H (X) = g (q) , H (Y ) = g (p) .
60
(5.28)
Ponadto
H (X + Y ) +
w+H(X+Y
)
Z
[h (p + q
pq)
g (p + q
pq)] 1[0;1) (t)
0
+ [h (pq)
g (pq)] 1[1;2) (t) dt = Ehg (X + Y ) ,
gdzie Ehg (X + Y ) = Eh (X + Y ) = h (p + q
w
(5.29)
pq) + h (pq) oraz H (X + Y )
2. Stad
¾ dla
2 dostajemy
pq) + g (pq) .
H (X + Y ) = g (p + q
Dla w
(5.30)
2 z addytywności H (X), z (5.28) i (5.30) mamy
g (p) + g (q) = g (p + q
(5.31)
pq) + g (pq)
dla p; q 2 [0; 1]. W taki sam sposób jak w dowodzie Twierdzenia 4.6 wykazujemy, z·e g (p) = p.
Stad
¾ g (p) = p. Wykaz·emy, z·e h (p) = p. Niech w = 1. Gdy H (X + Y )
mamy
p + q pq + h (pq)
H (X + Y ) =
.
1 + h (pq) pq
Jeśli p; q 2 [0; 1] sa¾ takie, z·e p + q
H (X + Y ) 1 oraz
p+q =
dla p; q 2 [0; 1] i p + q
q 2 0;
1
4
1, to z (5.29)
1, to z addytywności H (X) otrzymujemy, z·e
p + q pq + h (pq)
1 + h (pq) pq
1. Stad
¾ h (pq) = pq. K÷
adac
¾ p=
1
2
dostajemy, z·e h (q) = q dla
. Niech w = 0. Wtedy
H (Y ) =
h (p)
1 + h (p)
p
,
(5.32)
zaś wzór na H (X) otrzymujemy zmieniajac
¾ p na q we wzorze (5.32). Ponadto
H (X + Y ) =
gdy 0
H (X + Y )
1
h (p + q pq) + h (pq)
,
p q + pq + h (p + q pq)
1. Jeśli po÷
oz·ymy p = 1
(5.33)
q, to H (X + Y ) = 1 i z addytywności
H (X) mamy
1=
h (p)
1 + h (p)
p
+
h (1 p)
.
h (1 p) + p
(5.34)
K÷
adac
¾ p = 1=2 w (5.34) otrzymujemy h (1=2) = 1=2. Ponadto z (5.34) wynika, z·e h (p) = p
61
dla p 2 [3=4; 1]. Niech teraz p = q
dla 0
1=2 oraz H (X + Y )
p
1=2. Poniewaz· h jest niemalejaca,
¾ wiec
¾ h (p) 1 p
1 dla 0 p 1=2. Z addytywności H (X), z (5.32) i
(5.33) mamy
2h (p)
h (2p
=
1 + h (p) p
1 + h (2p
p2 ) + h (p2 )
.
p2 ) (2p p2 )
p2 ) = 2p
Poniewaz· h (p) = p dla 0
p
h (p) = p dla 0
1=16 = 7=16. Z (5.35) dla 0
p2 dla 0
p
1=2
7
16
25
16
1=4, wiec
¾ h (2p
(5.35)
p2 dla 0
p
1=4. Stad
¾
7=16 mamy h (2p
p
p2 ) =
175
.
256
Z faktu, z·e 175=256 > 1=2, dostajemy, z·e h (p) = p dla
0 p 1=2. Z (5.34) wynika, z·e h (p) = p dla p 2 [0; 1].
Niech teraz u (x) = (1 e cx ) =a. Wówczas
2p
p
ecH(X) +
=
exp(c(w+H(X)))
Z
h P ecX > t
g P ecX > t
dt = Ehg ecX .
0
Niech X, Y bed
¾ a¾ niezalez·nymi zmiennymi losowymi takimi, z·e P (X = s) = q = 1
P (X = 0), P (Y = s) = p = 1 P (Y = 0). Wtedy Ehg ecX = Eh ecX = ecs h (q) + 1 h (q)
oraz
Eh ec(X+Y ) = 1
h (p + q
pq) + ecs (h (p + q
pq)
h (pq)) + e2cs h (pq) .
Poniewaz· P ecX > t = 1[0;1) (t) + q1[1;ecs ) (t), wiec
¾
ecH(X) +
exp(c(w+H(X)))
Z
[h (q)
g (q)] 1[1;ecs ) (t) dt = ecs h (q) + 1
h (q) .
1
Stad
¾
ecH(X) + (h (q)
Jez·eli w
g (q)) min ec(w+H(X)) ; ecs
s, to
ecH(X) = ecs g (q) + 1
Zatem
1 = ecs h (q) + 1
1
ln (ecs g (q) + 1
c
1
H (Y ) = ln (ecs g (p) + 1
c
H (X) =
62
g (q) .
g (q)) ,
g (p)) .
h (1) .
Ponadto
H (X + Y ) = ecH(X+Y )
exp(c(w+H(X+Y
)))
Z
+
[h (p + q
pq)
g (p + q
pq)] 1[1;ecs ) (t)
1) + (h (pq)
g (pq)) e2cs
1
+ [h (pq)
Gdy w
g (pq)] 1[ecs ;e2cs ] (t) dt.
2s, to
ecH(X+Y ) + (h (p + q
= 1
pq)
pq) + ecs (h (p + q
h (p + q
pq)) (ecs
g (p + q
pq)
ecs
h (pq)) + e2cs h (pq) .
Z addytywności H (X) otrzymujemy równość dwóch wielomianów zmiennej ecs . Poniewaz· s
jest dowolne, wiec
¾ porównujac
¾ wspó÷
czynniki przy e2cs wnioskujemy, z·e g (p) g (q) = g (pq)
dla p; q 2 [0; 1]. Korzystajac
¾ z tego faktu i porównujac
¾ wspó÷
czynniki wielomianów przy
ecs , otrzymujemy ponownie równanie (5.31). Stad
¾ g (p) = p dla p 2 [0; 1]. Udowodnimy, z·e
h (p) = p. Niech w = 0. Wtedy
H (X) =
1
ln
c
ecs h (q) + 1 q
1 + h (q) q
.
(5.36)
Zmieniajac
¾ q na p w (5.36) otrzymujemy wzór na H (Y ). Ponadto
H (X + Y ) =
gdy 0
1
ln
c
q + pq) + ecs (h (p + q
1 + h (p + q pq)
pq) h (pq)) + e2cs h (pq)
(p + q pq)
,
1
ln
c
(1
p
q + pq) + ecs (p + q 2pq) + e2cs h (pq)
1 + h (pq) pq
,
2s. Z addytywności H (X) mamy
H (X + Y )
=
p
s oraz
H (X + Y )
H (X + Y ) =
jeśli s
(1
(1
p
(1
p
q + pq) + ecs (h (p + q pq) h (pq)) + e2cs h (pq)
1 + h (p + q pq) (p + q pq)
q + pq) + ecs (h (p) (1 q) + h (q) (1 p)) + e2cs h (p) h (q)
,
(1 + h (q) q) (1 + h (p) p)
63
(5.37)
gdy 0
=
dla s
s oraz
H (X + Y )
(1
p
(1
p
q + pq) + ecs (p + q 2pq) + e2cs h (pq)
1 + h (pq) pq
q + pq) + ecs (h (p) (1 q) + h (q) (1 p)) + e2cs h (p) h (q)
(1 + h (q) q) (1 + h (p) p)
(5.38)
2s. Poniewaz· we wzorach (5.37) i (5.38) s jest dowolne, wiec
¾ otrzymujemy
H (X)
równość dwóch wielomianów zmiennej ecs . Porównujac
¾ wyrazy wolne wielomianów w (5.37)
i (5.38) otrzymujemy
1 + h (p + q
pq)
1 + h (pq)
(p + q
pq) = (1 + h (q)
pq = (1 + h (q)
q) (1 + h (p)
q) (1 + h (p)
p) ,
p) ,
(5.39)
co oznacza, z·e mianowniki po lewych i prawych stronach równości (5.37) i (5.38) sa¾ równe.
Porównujac
¾ teraz w obu przypadkach wspó÷
czynniki przy e2cs dostajemy h (p) h (q) = h (pq)
dla p; q 2 [0; 1]. Poniewaz· h jest niemalejaca,
¾ wiec
¾ jest mierzalna, a zatem h (p) = pd dla
p 2 [0; 1] i pewnego d 2 R (patrz Kuczma, 2009, str. 345-350). K÷
adac
¾ p = q = 1=2 w
(5.39) mamy (1=2)d = 1=2. Stad
¾ d = 1. Dowód w przypadku, gdy u (x) = (ecx
1) =a jest
analogiczny.
Goovaerts i inni (2010 a) wprowadzaja¾ funkcjona÷
(X) =
Z0
(g (P (X > x))
1) du (x) +
1
i miare¾ ryzyka
Z1
g (P (X > x)) du (x)
(5.40)
0
zmiennej losowej X, która jest rozwiazaniem
¾
równania
0=
(X
).
(5.41)
Przekszta÷
cajac
¾ prawa¾ strone¾ równania (5.40) otrzymujemy
(X) =
Z0
1
(g (P (u (X) > y))
1) dy +
Z1
g (P (u (X) > y)) dy = Eg u (X) .
(5.42)
0
Po÷
óz·my u
e (x) =
u ( x). Z (5.41) i (5.42) wynika, z·e miara ryzyka odpowiada sk÷
adce
e (H (X) X) = 0. Poprzez przyjecie
¾ s÷
abszych
H (X), która jest rozwiazaniem
¾
równania Eg u
64
za÷
oz·eń dotyczacych
¾
funkcji wartości i funkcji zniekszta÷
cajacych
¾
prawdopodobieństwo oraz
fakt, z·e prawdopodobieństwa zysków i strat moga¾ być zniekszta÷
cane w inny sposób,
Twierdzenie 5.4 jest uogólnieniem g÷
ównego wyniku podanego przez Goovaertsa i innych
(2010 a).
P9 Subaddytywność.
Twierdzenie 5.5 Niech u (x) = cx dla pewnego c > 0, za´s g; h 2 G bed
¾ a¾ takie, ·ze h = g.
Wtedy H (X) jest subaddytywna wtedy i tylko wtedy, gdy g jest wypuk÷a.
Dowód Niech u (x) = cx. Wtedy H (X) = Eg X. Za÷
óz·my, z·e g jest wypuk÷
a. Wiadomo, z·e
Eg (X + Y ) Eg X + Eg Y wtedy i tylko wtedy, gdy g jest wkles÷
¾ a (patrz Denneberg, 1994).
¾ a, mamy
Zatem dla g, która jest wkles÷
H (X + Y ) = Eg (X + Y )
Eg X + Eg Y = H (X) + H (Y ) .
(5.43)
Za÷
óz·my teraz, z·e H (X) jest subaddywtywna. Wtedy warunek (5.43) jest spe÷
niony, a wiec
¾
g jest wkles÷
¾ a.
P10 Zachowanie pierwszego porzadku
¾
stochastycznego
W÷
asność ta spe÷
niona jest dla wszystkich funkcji u 2 U i g; h 2 G, poniewaz· zachodza¾
w÷
asności P1 i P2.
P11 Zachowanie porzadku
¾
stop-loss.
Twierdzenie 5.6 Je·zeli u 2 U jest wkles÷
¾ a, g; h 2 G sa¾takie, ·ze g = h, g jest wypuk÷a oraz
X SL Y , to H (X) H (Y ).
Dowód Twierdzenia 5.6 podaje Heilpern (2003).
P12 Warunek zysku netto.
Twierdzenie 5.7 Je·zeli u 2 U jest wkles÷
¾ a, g; h 2 G sa¾ takie, ·ze g (p)
wszystkich 0 p 1 oraz X 0, to H (X) EX.
Dowód Z W9 mamy
u (w) = Egh u (w + H (X)
X)
65
u (Egh (w + H (X)
X)) .
h (p)
p dla
Stad,
¾ z W3 i (2.1) dostajemy
w
w + H (X)
Ehg X +
w+H(X)
Z
[h (P (X > s))
g (P (X > s))] ds.
0
Poniewaz· X
0, wiec
¾
H (X)
Eh X +
w+H(X)
Z
[g (P (X > s))
h (P (X > s))] ds.
0
Z faktu, z·e g (p)
h (p)
p oraz z W5 otrzymujemy H (X)
Eh X
EX.
Twierdzenie 5.8 Je´sli u 2 U jest wkles÷
¾ a, g; h 2 G, X < s = sup X, h (P (X = s))
g (P (X < s)), 0 < w < s oraz
1
EX
to EX
(g (P (X
w))
g (P (X = s))) w + g (P (X = s)) s,
H (X).
Dowód Niech Y = 0, gdy X < w, Y = w dla w
X < s oraz Y = s gdy X = s. Wtedy
X. Rozwaz·my nastepuj
¾ ace
¾ przypadki.
Y
1 0
u (w)
w + H (X)
s. Wówczas
Eg u (w + H (X)
= u (w
s + H (X)) (1
+ (g (P (X < s))
2 w + H (X)
u (w)
Y)
g (P (X < s)))
g (P (X < w))) u (H (X)) + g (P (X < w)) u (w + H (X)) .
s < 0. Poniewaz· h (P (X = s))
Egh u (w + H (X)
g (P (X < w))) + u (w + H (X)) g (P (X < w))
+h (P (X = s)) u (w + H (X)
s + H (X)) (1
+ (g (P (X < s))
g (P (X < s)), wiec
¾
Y)
= u (H (X)) (g (P (X < s))
u (w
1
s)
g (P (X < s)))
g (P (X < w))) u (H (X)) + g (P (X < w)) u (w + H (X)) .
66
Z nierówności Jensena mamy
H (X)
w (g (P (X < s))
= (g (P (X
w))
g (P (X < w))) + s (1
g (P (X < s)))
g (P (X = s))) w + g (P (X = s)) s:
Twierdzenie 5.9 Je´sli u 2 U jest wkles÷
¾ a na [0; 1), g; h 2 G, w
EX
to H (X)
w (1
0 oraz
g (P (X < w))) ,
EX.
Dowód Po÷
óz·my Y = 0, gdy X < w oraz Y = w, gdy X
w. Wtedy Y
X. Z
monotoniczności uogólnionej ca÷
ki Choqueta mamy
u (w)
Egh u (w + H (X)
= u (H (X)) (1
Y ) = Eg u (w + H (X)
Y)
g (P (X < w))) + u (w + H (X)) g (P (X < w))
u (wg (P (X < w)) + H (X)) ,
gdzie skorzystaliśmy z faktu,
w (1
z·e u jest wkles÷
¾ a na [0; 1).
g (P (X < w))), co kończy dowód.
Stad
¾ H (X)
W Twierdzeniu 5.9 zak÷
adamy wkles÷
¾ ość funkcji u tylko dla dodatnich argumentów. Klasa
funkcji wartości zaproponowana przez Kahnemana i Tversky’ego spe÷
nia te za÷
oz·enia, choć
takie funkcje nie musza¾ być wkles÷
¾ e na R jak to jest zak÷
adane w Twierdzeniu 5.7. Warunek
EX
oraz 0
w (1
X
g (P (X < w))) jest spe÷
niony, gdy g (P (X < w)) jest ma÷
a¾ liczba,
¾ EX < w
s, przy czym s > w.
P13 Iteracyjność.
Sk÷
adk¾
e H (XjY ) de…niujemy jako rozwiazanie
¾
równania
u (w) = Egh [u (w + H (XjY )
X) jY ]
(patrz wzór (4.37)).
Twierdzenie 5.10 (i) Je·zeli g (p) = h (p) = p oraz u 2 U0 , to sk÷adka H (X) ; która jest
rozwiazaniem
¾
równania (5.2) jest iteracyjna.
67
(ii) Niech u 2 U bedzie
¾
taka, ·ze istnieje pochodna prawostronna u, która jest dodatnia dla
wszystkich x 6= 0. Niech g; h 2 G bed
¾ a¾ rosnace
¾ i ciag÷
¾ e na [0; 1] oraz za÷ó·zmy, ·ze istnieja¾
sko´nczone pochodne jednostronne g 0 (x) i h0+ (x) dla x 2 (0; 1) oraz 0 < h0+ (0) ; g 0 (1) < 1.
Je·zeli sk÷adka H (X) jest iteracyjna dla w = 0, to g (p) = h (p) = p oraz u 2 U0 :
W twierdzeniu tym nie zak÷
adamy róz·niczkowalności funkcji u, g i h, co jest zgodne z
za÷
oz·eniami teorii skumulowanej perspektywy.
Niech I
R bedzie
¾
przedzia÷
em oraz f : I ! R. W dalszym ciagu
¾ poprzez f 0 (x)
bedziemy
¾
oznaczali pochodna¾ prawostronna¾ funkcji f w punkcie x 2 Infsup Ig.
Lemat 5.3 Niech f : [0; 1] ! R bedzie
¾
ciag÷
¾ a. Je·zeli f jest prawostronnie ró·zniczkowalna w
ka·zdym punkcie x 2 [0; 1) oraz f 0 (x) = 0 dla x 2 [0; 1), to f jest funkcja¾sta÷¾
a na [0; 1].
Uwaga 5.1 Dowód Lematu 5.3 podaja¾ Rajwade i Bhandari (2007). Za÷o·zenie o ciag÷
¾ o´sci
f w powy·zszym lemacie nie mo·ze by´c pominiete.
¾
Istotnie, funkcja f (x) = 1[x0 ;1] (x) dla
x0 2 (0; 1] spe÷nia równanie f 0 (x) = 0 dla x 2 [0; 1), ale f nie jest sta÷a na [0; 1].
Uwaga 5.2 Niech f : [0; 1] ! R bedzie
¾
ciag÷
¾ a oraz f (0) = a, gdzie a 2 R jest ustalone.
Za÷ó·zmy, ·ze f spe÷nia równanie ró·zniczkowe f 0 (x) = g (x) dla x 2 [0; 1), gdzie funkcja g jest
znana. Je·zeli G jest ciag÷
¾ ym rozwiazaniem
¾
tego równania ró·zniczkowego, to (f G)0 = 0. Z
Lematu 5.3 wynika, ·ze G jest jedynym rozwiazaniem
¾
równania f 0 (x) = g (x).
Lemat 5.4 Przy za÷o·zeniach Twierdzenia 5.10, niech f : [0; 1] ! R bedzie
¾
funkcja¾
spe÷niajac
¾ a¾warunek
u (f (x)) g (1
x) + u (f (x)
s) h (x) = 0,
(5.44)
gdzie s > 0. Wówczas funkcja f jest dobrze okre´slona, rosnaca,
¾ ciag÷
¾ a i ma prawostronna¾
pochodna.¾
Dowód Niech ' (y) = u (y) g (1
Ponadto ' (0) = u ( s) h (x)
s) h (x). Z ciag÷
¾ ości u wynika, z·e ' jest ciag÷
¾ a.
0, ' (s) = u (s) g (1 x) 0 oraz z monotoniczności u, g i
x) + u (y
h wynika, z·e ' ma dok÷
adnie jedno miejsce zerowe. Zatem f jest określona jednoznacznie.
Pokaz·emy, z·e f jest funkcja¾ róz·nowartościowa.
¾ Istotnie, przypuśćmy, z·e istnieja¾ 0
x1 <
x2
1 takie, z·e f (x1 ) = f (x2 ). Wówczas
u (f (xi )) g (1
xi ) + u (f (xi )
68
s) h (xi ) = 0 dla i = 1; 2.
(5.45)
Jez·eli x1 = 0, to u (f (x1 )) = 0 oraz f (x1 ) = 0. Zatem jeśli f (x1 ) = f (x2 ), to h (x2 ) = 0,
co oznacza, z·e x2 = 0
sprzeczność. Moz·emy zatem za÷
oz·yć, z·e x1 > 0. Poniewaz·
u (f (x1 )) = u (f (x2 )), wiec
¾ przyrównujac
¾ lewe strony równania (5.45) dla i = 1 oraz
i = 2 mamy 1 < h (x2 ) =h (x1 ) = g (1
x2 ) =g (1
x1 ) < 1 - sprzeczność. Wobec tego
f jest róz·nowartościowa. Pokaz·emy, z·e f jest ciag÷
¾ a i ma pochodna¾ prawostronna.
¾ Niech
x 2 [0; 1). Z (5.44) mamy u (f (x)) =u (f (x) s) = h (x) =g (1 x). Zde…niujmy (x) =
s) dla x 2 [0; s). Z za÷
oz·eń dotyczacych
¾
funkcji u wynika, z·e jest dobrze
zde…niowana, ciag÷
¾ a i ma pochodna¾ prawostronna.
¾ Stad
¾ f (x) = 1 ( h (x) =g (1 x)) jest
u (x) =u (x
równiez· ciag÷
¾ a i ma pochodna¾ prawostronna¾ na [0; 1). Wykaz·emy, z·e f jest ciag÷
¾ a w x = 1.
Niech xn ! 1 , gdy n ! 1. Za÷
óz·my, z·e f (xn ) ! a dla pewnego a. Wtedy z (5.45) mamy
u (f (xn )) g (1
xn ) + u (f (xn )
s) h (xn ) = 0. Gdy n ! 1 , to z ciag÷
¾ ości u, g i h wynika,
z·e a = f (1). Zatem f jest ciag÷
¾ a na [0; 1]. Poniewaz· f (0) = 0 i f (1) = s, wiec
¾ z ciag÷
¾ ości
funkcji f wynika, z·e jest ona rosnaca.
¾
Dowód Twierdzenia 5.10 (i) Ta cześć
¾ twierdzenia zosta÷
a udowodniona przez Gerbera
(1979).
(ii) Za÷
óz·my, z·e H (X) jest iteracyjna. Rozwaz·my wektor losowy (X; Y ) o rozk÷
adzie
P (X = 0; Y = 1) = 1=2
a, P (X = 0; Y = 2) = 1=2
b, P (X = s; Y = 1) = a,
P (X = s; Y = 2) = b, gdzie 0
a; b
1=2 oraz s > 0 sa¾ dowolnie ustalone. Jez·eli w = 0,
to sk÷
adka H (XjY ) jest wyznaczona ze wzoru
0 = Egh (u (H (XjY )
X) jY ) .
(5.46)
Stad
¾ dla H1 = H (XjY = 1), H2 = H (XjY = 2) mamy
g (1
2a) u (H1 ) + h (2a) u (H1
s) = 0,
(5.47)
g (1
2b) u (H2 ) + h (2b) u (H2
s) = 0.
(5.48)
Z Lematu 5.4 wynika, z·e H1 < H2 dla a < b. Z warunku H (X) = H (H (XjY )) wnioskujemy,
z·e 0 = Egh u (H (X)
H (XjY )), a zatem
0 = g (1=2) u (H (X)
H1 ) + h (1=2) u (H (X)
H2 ) .
(5.49)
Ponadto równanie (5.2) dla zmiennej losowej X przy w = 0 moz·emy zapisać jako
g (1
(a + b)) u (H (X)) + h (a + b) u (H (X)
69
s) = 0.
(5.50)
Pokaz·emy, z·e 0 < f 0 (x) < 1 dla x 2 [0; 1). Z (5.47), (5.48) i (5.50), równanie (5.49) moz·emy
zapisać jako
g (1=2) u (f (a + b)
dla wszystkich 0
a<b
f (2a)) + h (1=2) u (f (a + b)
(5.51)
f (2b)) = 0
1=2, gdzie f jest funkcja¾spe÷
niajac
¾ a¾(5.44). Obliczajac
¾ pochodne
prawostronne obu stron równania (5.51) ze wzgledu
¾ na a i b dostajemy odpowiednio
g (1=2) u0 (f (a + b)
+ h (1=2) u0 (f (a + b)
g (1=2) u0 (f (a + b)
+ h (1=2) u0 (f (a + b)
dla 0
f (2a)) (f 0 (a + b)
2f 0 (2a))
(5.52)
f (2b)) f 0 (a + b) = 0
f (2a)) f 0 (a + b)
f (2b)) (f 0 (a + b)
(5.53)
2f 0 (2b)) = 0
a < b < 1=2. Odejmujac
¾ stronami równanie (5.53) od równania (5.52) otrzymujemy
g (1=2) u0 (f (a + b)
dla 0
f (2a)) f 0 (2a) = h (1=2) u0 (f (a + b)
f (2b)) f 0 (2b)
a < b < 1=2, gdzie g (1=2) h (1=2) > 0, co wynika z monotoniczności g i h. Jez·eli
0
0, to z za÷
oz·enia u0 (x) 6= 0 dla x 6= 0 i faktu, z·e f jest
róz·nowartościowa mamy f 0 (2b) = 0 dla a < b < 1=2. Gdyby pochodna prawostronna by÷
a
równa 0 na pewnym przedziale, to z Lematu 5.3 i ciag÷
¾ ości f wynika÷
oby, z·e f jest sta÷
a,
f (2a) = 0 dla jakiegoś a
co przeczy÷
oby faktowi, z·e jest róz·nowartościowa. Pokazaliśmy zatem, z·e f 0 (x) > 0 dla
wszystkich 0
x < 1. Gdyby f 0 (2a) = 1 dla pewnego a
0, to z za÷
oz·enia u0 (x) < 1
wynika÷
oby, z·e f 0 (2b) = 1 dla wszystkich a < b < 1=2, co jest niemoz·liwe. Stad
¾ 0 < f 0 (x) <
1 dla 0
x < 1.
Z (5.53) mamy
u0 (f (a + b)
f (2a)) =
h (1=2) (u0 (f (a + b) f (2b))) (f 0 (a + b)
g (1=2) f 0 (a + b)
2f 0 (2b))
.
(5.54)
Wstawiajac
¾ (5.54) do (5.52) i korzystajac
¾ z za÷
oz·enia, z·e u0 (x) 6= 0 dla x 6= 0, mamy
(f 0 (a + b)
dla 0
2f 0 (2a)) (f 0 (a + b)
2f 0 (2b)) =f 0 (a + b) + f 0 (a + b) = 0
a < b < 1=2. Zde…niujmy funkcje¾ F (x) = f 0 (0) =f 0 (x)
70
(5.55)
1. Z (5.55) i symetrii
wynika, z·e 2F (a + b) = F (2a) + F (2b) dla 0 a; b < 1=2. Poniewaz· f 0 jest mierzalna jako
granica punktowa funkcji mierzalnych, wiec
¾ F jest równiez· mierzalna. Stad
¾ F (x) = cx dla
pewnego c 2 R (patrz Kuczma 2009, str. 354). Rozwaz·my nastepuj
¾ ace
¾ przypadki.
1 Niech c = 0. Wtedy f 0 (x) = f 0 (0) > 0 dla x 2 [0; 1). Poniewaz· f jest ciag÷
¾ a i f (1) = s,
wiec
¾ z Lematu 5.3 mamy, z·e f (x) = sx. Z (5.44) dostajemy
u (sx) g (1
dla s
1i0
1 i 0
u ( 1) h ((s
1) =s) = 0 dla s
dla wszystkich t
0.
s) h (1=s) = 0 dla s
(5.57)
u ( 1) h
1) g (1
(s
1 dostajemy
t
1+t
=g 1
t
1+t
(5.58)
K÷
adac
¾ y = 1 w (5.57) otrzymujemy u (1) g (1
1. Podstawiajac
¾1
1) =s) +
1=s) +
s = t mamy
1
u (1) g 1
1
t
=h
1
1
(5.59)
t
0. Wstawiajac
¾ (5.58) i (5.59) do (5.56) dostajemy
u ( 1)
dla s
s) h (y=s) = 0
1 mamy u (s
1. K÷
adac
¾ t=s
u (t) =
dla t
y=s) + u (y
s. Z (5.57) dla y = s
y
u (t) =
u (1
(5.56)
1. Stad
¾ dla y = sx otrzymujemy
x
u (y) g (1
dla s
s) h (x) = 0
x) + u (sx
1i0
sx
1 + sx
x < 1, gdzie
+ u (1)
(x) =
1
1 + s (1
x)
(5.60)
=0
x). Rozwia¾z·emy teraz równanie (5.60).
(x) = h (x) =g (1
Wstawiajac
¾ x = 1=s < 1 do (5.60) mamy u ( 1)
(1=2) + u (1) = 0 dla s > 1. Zatem
u (1) = ( u ( 1))
(1=2) .
(5.61)
Jeśli wstawimy (5.61) do (5.60), otrzymamy
sx
1 + sx
dla s
1 oraz 0
1
1 + s (1
x)
=
1
2
x < 1. K÷
adac
¾ x = 1=2 w (5.62) mamy
71
(x)
(s= (2 + s))
(5.62)
(2= (2 + s)) =
2
(1=2) dla s
1. Stad
¾
(x)
(1
2
x) =
(x)
(1
(1=2) dla x 2 (0; 2=3]. Z symetrii otrzymujemy
x) =
2
(5.63)
(1=2)
dla 0 < x < 1. Obliczajac
¾ pochodna¾ prawostronna¾ obu stron równania (5.62) ze wzgledu
¾ na
x, mamy
0
+
dla 0
x<1is
s
(1 + sx)2
sx
1 + sx
sx
1 + sx
1
1 + s (1
0
x)
x)
s
(1 + s (1
1. Poniewaz·
0
0
(0)
(1= (1 + s)) =
t
(1=2)
0
(x)
0
(5.64)
(0)
(5.65)
t)
1=2. Z (5.63) i (5.65) mamy
2
(1=2) = (1
t) = t (1=2) = (1
t)
(5.66)
t < 1. Poniewaz· (0) = 0, z (5.65) i (5.66) dostajemy
(t) = t (1=2) = (1
dla 0
=
(0) = h0 (0) > 0, wiec
¾ k÷
adac
¾ t = 1= (1 + s) w (5.64) otrzymujemy
(t) =
dla 1=2
x))
(1=2)
(t) = t (1=2) = (1
dla 0 < t
2
1. Dla x = 0 dostajemy
s
dla s
1
1 + s (1
(5.67)
t)
t < 1. Wstawiajac
¾ (5.67) do (5.58) i (5.59) mamy u (t) = ( u ( 1))
(1=2) t dla
0 oraz u (t) = u (1) t= (1=2) dla t < 0. Z (5.61) otrzymujemy
(1=2) t dla t
u (t) =
u ( 1)
u (t) =
u ( 1) t dla t < 0.
0
(5.68)
(5.69)
Pokazaliśmy, z·e u jest liniowa na ( 1; 0) i (0; 1). Później wyznaczymy postać funkcji g i
h oraz wykaz·emy, z·e u jest liniowa na R.
2 Niech c > 0. Wtedy F (x) = cx oraz f 0 (x) = f 0 (0) = (1 + cx), gdzie f (0) = 0. Poniewaz·
f jest ciag÷
¾ a, wiec
¾ z Uwagi 5.2 wynika, z·e f (x) =
72
1
ln (1 + cx) dla x 2 [0; 1], gdzie
1
= c=f 0 (0) jest ustalone, niezalez·ne od s. Ponadto z faktu, z·e f (1) = s =
ln (1 + c)
mamy c = es
1. Równanie (5.44) jest wówczas postaci u0 (ln (1 + cx)) g (1 x) +
z) h (x) = 0 dla z > 0 i 0
u0 (ln (1 + cx)
1, gdzie u0 (x) = u (x= ) oraz z = s .
x
y
K÷
adac
¾ e = 1 + cx mamy
(ey
u0 (y) g (1
dla z
y
0, poniewaz· f (x)
Wtedy
u0 (z
dla z
1) g 1
1. Poniewaz· c = es
0, gdzie
y = 1.
ez
(5.71)
1
(e
1) =c) + u0 (1
dla t = 1
z mamy c = e1
t
ez
1 =c + u0 ( 1) h
1 = ez
dla z > y
(5.72)
1. Poniewaz· c = ez
1) =c) = 0 dla z
1, wiec
¾
1 oraz
u0 (1) =
1) = e1
(e
t
g 1
ey
ez
1
1
(5.73)
1
1 dostajemy
1
u0 (1)
e 1
e1+z
y
ey
ez
h
1
1
1
=0
0. Stad
¾
u0 ( 1)
dla z > y
1, z (5.71) mamy
x < 1. K÷
adac
¾ y = 1 w (5.70) otrzymujemy
dla t < 0. Wstawiajac
¾ (5.72) i (5.73) do (5.70) przy c = ez
ey 1
ey+1 1
1 =c = 0
ex 1
ex+1 1
u0 ( 1)
z) h ((e
u0 (t) =
u0 ( 1)
1
1, wiec
¾ przyjmujac
¾ x=z
x) dla 0
(x) = h (x) =g (1
u0 (1) g (1
(5.70)
1) =c) = 0
s dla x 2 [0; 1]. Niech x 2 [0; 1] bedzie
¾
takie, z·e z
u0 (x) =
dla x
z) h ((ey
1) =c) + u0 (y
ey 1
ey+1 1
0. K÷
adac
¾ y=z
u0 ( 1)
e
1
e1+z y
1
ey
ez
+ u0 (1)
1
1
=0
(5.74)
1 w (5.74) mamy
ez 1 1
ez 1
e
e2
1
1
+ u0 (1)
ez 1 1
ez 1
=0
dla z > 1. Poniewaz· (x) > 0 dla x > 0, wiec
¾
u0 (1) =
u0 ( 1)
(e
73
1) = e2
1
.
(5.75)
Z (5.74) i (5.75) mamy
ey 1
ey+1 1
dla 0
e
1
e1+z y
ey
ez
=
1
1
1
e
e2
1
1
(5.76)
y < z. Obliczajac
¾ pochodna¾ prawostronna¾ obu stron równania (5.76) ze wzgledu
¾ na
y mamy
0
+
ey 1
ey+1 1
ey 1
ey+1 1
ey (e
(ey+1
0
e1+z y
K÷
adac
¾ y = 0, z faktu z·e
e
1)
1)2
e 1
1
(e 1) e1+z y
=
(e1+z y 1)2
1
0
(0) = 0 oraz
e
(e
1
1)2
dla z > 0. Podstawiajac
¾ r = (e
1
e1+z y
e
ey
ez
1
1
ey
ez
1
e
e2
1
1
.
(0) = h0 (0) > 0 wynika, z·e
1
e1+z
e
e2
=
1
1) = (e1+z
(r) =
0
1
1
1
ez
1
1) otrzymujemy
r
1
r
e
e2
e
1
1
(5.77)
dla 0 < r < 1. Z (5.72), (5.73) i (5.77) mamy
u0 (x) =
u0 ( 1)
u0 (x) = u0 (1)
1
x
e
e
1
1
e
e
x
e
1
u0 ( 1) 1
e
e
e2
1
e 1
e2 1
1
1
dla x > 0,
(5.78)
dla x < 0.
Z (5.75) mamy
u0 (x) =
x
= (e
1) dla x < 0.
(5.79)
Z (5.78) i (5.79) wynika, z·e u jest wyk÷
adnicza na ( 1; 0) i (0; 1). Aby udowodnić, z·e u
jest wyk÷
adnicza na R, musimy najpierw wyznaczyć funkcje g i h.
3 Gdy c < 0, to w podobny sposób pokazujemy, z·e u jest kawa÷
kami wyk÷
adnicza.
Wyznaczymy teraz funkcje g i h. Niech (X; Y ) bedzie
¾
wektorem losowym o rozk÷
adzie
P (X = 0; Y = 1) = 1=4
a, P (X = 0; Y = 2) = 1=4
P (X = z; Y = 2) = 1=4
d, P (X = s; Y = 1) = a + c, P (X = s; Y = 2) = b + d, gdzie
0
a; b; c; d
1=4, a + c
1=2, b + d
b, P (X = z; Y = 1) = 1=4
c,
1=2 i 0 < z < s. Niech w = 0. Po÷
óz·my
74
H1 = H (XjY = 1), H2 = H (XjY = 2), H = H (X). Jez·eli u (H1
mamy
0 = g (1
2 (a + c)) u (H1
z)+g (1=2
2a) (u (H1 )
u (H1
z)
0, to z (5.46)
z))+h (2 (a + c)) u (H1
s) ,
(5.80)
poniewaz· u (H1
s) < 0, przy czym (u (H1
X))+ przyjmuje wartości 0, u (H1
z prawdopodobieństwami warunkowymi odpowiednio 2 (a + c), 1=2
( u (H1
X))+ przyjmuje wartości 0 i
i 2 (a + c). Jez·eli u (H1
0 = g (1=2
u (H1
z) i u (H1 )
2c i 1=2
2a, zaś
s) z prawdopodobieństwami 1
2 (a + c)
z) < 0, to
2a) u (H1 ) + h (1=2 + 2a) u (H1
z) + h (2 (a + c)) (u (H1
s)
u (H1
z)) .
(5.81)
Niech u bedzie
¾
funkcja¾ określona¾ wzorami (5.68) i (5.69). Przyjmujac,
¾ z·e
(5.67)-(5.69) wynika, z·e
h (x) = g (1
x)
h (1=2) x
dla 0
g (1=2) 1 x
u (x) = h (1=2) x=g (1=2) dla x
u ( 1) = 1, z
x < 1,
(5.82)
0,
(5.83)
u (x) = x dla x < 0.
(5.84)
Wstawiajac
¾ (5.82)-(5.84) do (5.80) i (5.81) mamy
H1 = z (1
gdy H1
g (1=2 2a)
g (1 2 (a + c))
2 (a + c)) 1
+ 2 (a + c) s,
(5.85)
g (1 2 (a + c)) (a + c) (1 4a)
g (1=2 2a)
1 2 (a + c)
(5.86)
z i a + c < 1=2 oraz
H1 = (1=2 + 2a) z + (s
z)
dla H1 < z i a + c < 1=2. Wzór na H2 otrzymujemy zamieniajac
¾ a na b i c na d we wzorach
(5.85) i (5.86). W podobny sposób otrzymujemy wzór na H:
H = z (1
(a + b + c + d)) 1
g (1=2 (a + b))
g (1 (a + b + c + d))
75
+ (a + b + c + d) s,
(5.87)
gdy H
H=
z oraz
1
+ (a + b) z +(s
2
z)
g (1 (a + b + c + d)) (a + b + c + d) (1 2 (a + b))
, (5.88)
2g (1=2 (a + b))
1 (a + b + c + d)
jeśli H < z. Z (5.83) i (5.84), po skorzystaniu z warunku iteracyjności, wzór (5.49) dla
H1 < H2 jest równowaz·ny temu, z·e
(5.89)
(H1 + H2 ) =2 = H,
poniewaz· H
H1 > 0 > H
H2 co jest konsekwencja¾ (5.49).
Ten sam warunek
otrzymujemy, gdy H2 < H1 . Po÷
óz·my a + c = 1=4, b + d = 1=4. Z (5.85) dostajemy
2a) =g (1=2)) =2 + s=2. ×atwo sprawdzić, z·e dla 0 a
z. Podobnie, dla 0
b
1=4 i b + d = 1=4 dostajemy H2
H1 = z (1
g (1=2
mamy H1
1=4 i s = 2z
z. Z (5.87)
równanie (5.89) dla a + c = 1=4, b + d = 1=4 i s = 2z moz·emy zapisać w postaci
1
2
z
=
2
z
2
1
g (1=2 2a)
z
+z+
g (1=2)
2
g (1=2 (a + b))
+ z,
g (1=2)
1
g (1=2 2b)
g (1=2)
1
+z
co jest równowaz·ne temu, z·e (g (1=2 2a) + g (1=2 2b)) =2 = g (1=2 (a + b)) dla 0
a; b
1=4. Otrzymaliśmy równanie funkcyjne Jensena postaci (g (x) + g (y)) =2 =
g ((x + y) =2) dla 0
1=2. Stad,
¾ z ciag÷
¾ ości i monotoniczności g wynika, z·e g (x) = x
1=2 i pewnego 0 <
2 (patrz Kuczma, 2009, str. 354). W celu wyznaczenia
dla 0 < x
x; y
wartości funkcji g na [1=2; 1], po÷
óz·my a = 0, 0
c
1=4 i s = 3z=2 we wzorze (5.86).
Wtedy
H1 =
gdy H1 < z. Poniewaz· 2cg (1
a = 0, 0
c
2c) = (1
z z 2cg (1 2c)
+
,
2 2 (1 2c)
2c)
2c= (1
2c)
(5.90)
1 dla 0
c
1=4, wiec
¾ dla
1=4 i s = 3z=2 mamy H1 < z. W analogiczny sposób dostajemy wzór
H2 =
z z 2dg (1 2d)
+
< z.
2 2 (1 2d)
(5.91)
Z (5.88) dla a = b = 0 przy s = 3z=2 otrzymujemy
H=
z z
+ g (1
2 2
(c + d))
76
(c + d)
< z.
(1 (c + d))
(5.92)
Z (5.90), (5.91), (5.92) i (5.89), warunek równowaz·ny iteracyjności ma postać
1
g (1
2
dla 0
2c)
2c
+ g (1
1 2c
1=4. K÷
adac
¾ x=1
c; d
2d)
2d
= g (1
1 2d
(c + d))
(c + d)
1 (c + d)
2d i z (x) = g (x) (1=x
2c, y = 1
1), otrzymujemy
równanie funkcyjne Jensena. Stad
¾ z jest liniowa na [1=2; 1]. Poniewaz· z (1) = 0 i z (1=2) =
=2, wiec
¾ z (x) =
(x 1) dla 1=2
x
1 i pewnego 0 <
2. Stad
¾ g (x) = x
dla 1=2
1 i pewnego 0 <
x
1. Ostatecznie g (x) = x dla 0
1 i pewnego
x
1. Z ciag÷
¾ ości g wynika, z·e g (x) = x dla x 2 [0; 1]. Z (5.82) mamy zatem, z·e
h (x) = x dla 0 x 1. Poniewaz· h (1=2) = g (1=2) = 1=2, wiec
¾ z (5.83) i (5.84) dostajemy
0 <
u (x) = x dla x 2 R.
Rozwaz·my teraz przypadek, gdy u0 jest dana wzorami (5.78)-(5.79). Bez straty ogólności
rozwaz·ań moz·emy za÷
oz·yć, z·e u0 ( 1) = e 1. Z (5.77) wynika, z·e
Wobec tego wzory (5.77)-(5.79) moz·emy zapisać w postaci
h (t) = g (1
u0 (x) = 1
t)
e
t
1
x
h (1=2)
dla 0
t g (1=2)
e
x
dla x
(5.95)
0.
e (H1 z) + g (1=2 2a) 1
2 (a + c)
1 e (H1 s) .
2 (a + c))
1 2 (a + c)
2 (a + c)) 1
+g (1
Stad
¾
e
o ile H1
H1
= (1
z. Gdy H2
2 (a + c)) e
g (1=2 2a) e z 1
g (1 2 (a + c))
z
z, to wzór na e
H2
H
= (1
(a + b + c + d)) e
z
e
!
H1
z)
1
0 mamy
e
(H1 z)
+ 2 (a + c) e s ,
jest podobny do powyz·szego, przy czym a jest
zastapione
¾
przez b, zaś c przez d. Zatem z (5.50) dla H
e
.
(5.94)
0,
Przypomnijmy, z·e u (x) = u0 ( x). Z (5.93)-(5.94) i (5.80) dla u0 (H1
0 = g (1
e 1
e2 1
(5.93)
t < 1,
h (1=2) =g (1=2) dla x
u0 (x) = 1
(1=2) = e
g (1=2
g (1
z mamy
(a + b)) e z 1
(a + b + c + d))
!
+ (a + b + c + d) e s .
Warunek iteracyjności dla H1 < H2 moz·emy zapisać jako 0 = g (1=2) u (H
77
H1 ) +
H2 ) (patrz wzór (5.49)). Z (5.49) mamy H
h (1=2) u (H
H2 , a wiec
¾
H1 > 0 > H
z (5.94) i (5.95) przy u (x) = u0 ( x) dostajemy
H
e
H1
= e
Identyczny warunek otrzymujemy dla H2
1=4. Nierówność eH1
b
H1
e
ez dla 0
1
=
2
H2
(5.96)
=2.
H1 . Niech a + c = 1=4, 0
a
1=4, b + d = 1=4,
1=4 jest równowaz·na temu, z·e
a
g (1=2
z
e
+e
z
2a) e
g (1=2)
!
1
1
+ e
2
s
e
z
1=4. ×atwo sprawdzić, z·e jest ona spe÷
niona, gdy e s
2e z 1. Ten sam
warunek otrzymujemy, gdy e H2 > e z . Wobec tego równanie (5.96) jest równowaz·ne temu,
dla 0
a
z·e [g (1=2 2a) + g (1=2 2b)] =2 = g (1=2 (a + b)) dla 0 a; b 1=4. Stad
¾ i z ciag÷
¾ ości g
wynika, z·e g (x) = x dla 0 x 1=2 i pewnego 0
2. Aby udowodnić, z·e g (x) = x
dla 0
1, rozwaz·my przypadek, gdy H1 < z. Wstawiajac
¾ (5.93)-(5.94) do (5.81) dla
x
H1 < z mamy
0 = g (1=2
2a) 1
+g (1
H1
e
2 (a + c))
+ g (1=2
2 (a + c)
1
1 2 (a + c)
2a)
1=2 + 2a
1
1=2 2a
e
(H1 s)
e
(H1 z)
(H1 z)
1+e
.
Zatem
e
H1
= 1=2
2a + (1=2 + 2a) e
Po÷
óz·my a = 0 i 0
e
H1
z
e
2 (a + c)
2 (a + c))
1 2 (a + c)
g (1
z
= 1+e
=2 + h (2c) e
z
=2
g (1
2c) c e
s
e
z
e . Wówczas nierówność 1 + e
c
e
z
e
s
= [g (1=2) (1
2c)] .
= 1+e
z
2c) = [g (1=2) (1
=2 + h (2c) e
1=4. Poniewaz· dla 0
H1
z
2c)], co oznacza, z·e e
= (2h (1=2)). Dla dowolnego z > 0 po÷
óz·my e s = 2e z
z
dla wszystkich 0
e s (1=2 2a)
.
g (1=2 2a)
1=4. Wtedy
c
Z (5.93) mamy h (2c) =h (1=2) = 2cg (1
1+e
z
s
78
= (2h (1=2))
1=4 mamy
c; d
=2 + h (2c) e
e
z
s
e
z
= (2h (1=2)) ,
e
z
H1
=
1>
jest spe÷
niona
H2
e
e
H
= 1+e
= 1+e
z
z
=2 + h (2d) e
=2 + h (c + d) e
s
e
s
e
z
= (2h (1=2)) ,
z
= (2h (1=2)) ,
wiec
¾ (5.96) moz·emy zapisać jako h (c + d) = (h (2c) + h (2d)) =2 dla 0
h (x) = x dla 0
x
g (1
dla 0
x
1=2 i pewnego 0
ostatecznie g (x) =
g (x) = x dla 0
x
x dla 0
x
1=4. Stad
¾
2. Z (5.82) mamy
x) = h (x) g (1=2) (1
1=2. Zatem g (x) =
c; d
x) = (xh (1=2)) =
x dla 1=2
x
(1
x)
1 i pewnego 0
1 i pewnego 0
1. Z (5.82) mamy h (x) = x dla 0
1, a wiec
¾
1. Z ciag÷
¾ ości g wynika, z·e
x 1 i pewnego 0
1.
Z ciag÷
¾ ości h wnioskujemy, z·e h (x) = x dla 0 x 1. Ponadto z (5.94)-(5.95) wynika, z·e
u0 (x) = 1 e x dla x 2 R. Stad
¾ u (x) = u0 ( x) = 1 e x dla pewnego > 0 i wszystkich
x 2 R. Analogiczny dowód przeprowadzamy dla drugiego przypadku funkcji wyk÷
adniczej i
otrzymujemy, z·e u (x) = ecx
1 dla wszystkich x 2 R i pewnego c > 0.
79
Bibliogra…a
[1] Aase, K. K., Persson, S.-A. (1994) Pricing of unit-linked life insurance policies.
Scandinavian Actuarial Journal, 26–52.
[2] Abdellaoui, M. (2002) A genuine rank-dependent generalization of the von Neumann–
Morgenstern expected utility theorem. Econometrica 70, 717–736.
[3] Albrecht, P. (1992) Premium calculation without arbitrage? –A note on a contribution
by G. Venter. ASTIN Bulletin 22, 247–254.
[4] Aliprantis, C. D., Border, K. C. (2007) In…nite Dimensional Analysis: A Hitchhiker’s
Guide. Springer-Verlag, Berlin.
[5] Allais, M. (1953) Le comportement de l’homme rationnel devant le risque: critique de
postulats et axiomes de l’ecole americaine. Econometrica 21, 503–546.
[6] Al-Nowaihi, A., Bradley, I., Dhami, S. (2008) A note on the utility function under
prospect theory. Economics Letters 99, 337-339.
[7] Arrow, K. J. (1971) Essays in the Theory of Risk-Bearing. North-Holland Pub. Co.,
Amsterdam.
[8] Artzner, P., Delbaen, F., Eber, J.-M., Heath, D. (1999) Coherent risk measures.
Mathematical Finance 9, 207–225.
[9] Bacinello, A. R., Ortu, F. (1993) Pricing equity-linked life insurance with endogenous
minimum guarantees. Insurance: Mathematics and Economics 12, 245–257.
[10] Baumol, W. J. (1963) An expected gain con…dence limit criterion for portfolio selection.
Management Science 10, 174-182.
[11] Bernard, C., Ghossoub, M. (2010) Static portfolio choice under Cumulative Prospect
Theory. Mathematics and Financial Economics 2, 277-306.
[12] Bernoulli, D. (1738). Specimen theoriae novae de mensura sortis. Commentarii
Academiae Scientarum Imperalis Petropolitanae 5, 175–192 (t÷
umaczenie: Sommer,
L. (1954) Exposition of a new theory on the measurement of risk. Econometrica 22,
23–36).
80
[13] Beyer, D., Riedel, M. (1993) Remarks on the Swiss premium principle on positive risks.
Insurance: Mathematics and Economics 13, 39–44.
[14] Borch, K. (1962) Equilibrium in a reinsurance market. Econometrica 30, 424-444.
[15] Borch, K. (1963) Recent developments in economic theory and their application to
insurance. ASTIN Bulletin 2, 322–341.
[16] Borch, K. (1968) The Economics of Uncertainty. Princeton University Press, Princeton,
NJ.
[17] Bowers, N. L., Gerber, H. U., Hickman, J. C., Jones, D. A., Nesbitt, C. J. (1997)
Actuarial Mathematics. Second edition, Society of Actuaries, Schaumburg, IL.
[18] Boyle, P. P., Schwartz, E. S. (1977) Equilibrium prices of guarantees under equitylinked contracts. Journal of Risk and Insurance 44, 639–660.
[19] Bühlmann, H. (1970) Mathematical Methods in Risk Theory. Springer-Verlag, Berlin.
[20] Bühlmann, H. (1980) An economic premium principle. ASTIN Bulletin 11, 52–60.
[21] Bühlmann, H. (1984) The general economic premium principle. ASTIN Bulletin 14,
13–22.
[22] Chateauneuf, A., Cohen, M. (2000) Choquet expected utility model: a new approach
to individual behavior under uncertainty and to social welfare. In: Grabisch, M.,
Mirofushi, T., Sugeno, M. (Eds.), Fuzzy Measure and Integral. Kluwer Academic
Publishers, Boston.
[23] Chateauneuf, A., Cohen, M., Meilijson, I. (1997) New tools to better model behavior
under risk and uncertainty: an overview. Finance 18, 25–46.
[24] Choquet, G. (1954) Theory of capacities. Annales de l’institut Fourier 5, 131-295.
[25] De Giorgi, E., Hens, T. (2006) Making prospect theory …t for …nance. Financial
Markets and Portfolio Management 20, 339-360.
[26] De Giorgi, E., Hens, T., Rieger, M. O. (2009) Financial market equilibria with
Cumulative Prospect Theory. Swiss Finance Institute Research Paper No. 07-21.
[27] De Vylder, F., Goovaerts, M. J. (1979) An invariance property of the Swiss premium
calculation principle. M.V.S.V. 79, 105–120.
81
[28] Denneberg, D. (1990) Premium calculation: Why standard deviation should be
replaced by absolute deviation. ASTIN Bulletin 20, 181–190.
[29] Denneberg, D. (1994) Lectures on Non-additive Measure and Integral. Kluwer
Academic Publishers, Boston.
[30] Dhaene, J., Denuit, M., Goovaerts, M. J., Kaas, R., Vyncke, D., (2002 a) The concept
of comonotonicity in actuarial science and …nance: theory. Insurance: Mathematics
and Economics 31, 3–33.
[31] Dhaene, J., Denuit, M., Goovaerts, M. J., Kaas, R., Vyncke, D. (2002 b) The concept of
comonotonicity in actuarial science and …nance: applications. Insurance: Mathematics
and Economics 31, 133–161.
[32] Diecidue, E., Schmidt, U., Zank, H. (2009) Parametric weighting functions. Journal of
Economic Theory 144, 1102-1118.
[33] Dowd, K., Blake, D. (2006) After VaR: The theory, estimation, and insurance
applications of quantile-based risk measures. Journal of Risk and Insurance 73, 193229.
[34] Ellsberg, D. (1961). Risk, ambiguity, and the Savage axioms. Quarterly Journal of
Economics 75, 643–669.
[35] Friedman, M., Savage, L. P. (1948) The utility analysis of choices involving risk. Journal
of Political Economy 56, 279-304.
[36] Gerber, H. U. (1974 a) On additive premium calculation principles. ASTIN Bulletin
7, 215-222.
[37] Gerber, H. U. (1974 b) On iterative premium calculation principles. Bulletin of the
Swiss Association of Actuaries, 163-172.
[38] Gerber, H. U. (1979) An Introduction to Mathematical Risk Theory. Homewood,
Philadelphia.
[39] Gerber, H. U. (1985) On additive principles of zero utility. Insurance: Mathematics
and Economics 4, 249-251.
[40] Gerber, H. U., Pafumi, G. (1998) Utility functions: from risk theory to …nance,
including discussion. North American Actuarial Journal 2, 74–100.
82
[41] Gerber, H. U., Shiu, E. S. W. (1994) Option pricing by Esscher transforms, with
discussion. Transactions of the Society of Actuaries 46, 99–140.
[42] Gerber, H. U., Shiu, E. S. W. (1996) Actuarial bridges to dynamic hedging and option
pricing. Insurance: Mathematics and Economics 18, 183–218.
[43] Gilboa, I. (1987) Expected utility theory with purely subjective nonadditive
probabilities. Journal of Mathematical Economics 16, 65–88.
[44] Gillen B. J., Markowitz H. M. (2010) A taxonomy of utility functions. Variations in
Economic Analysis, Springer New York, 61-69.
[45] Goldstein, W. M., Einhorn, H. J. (1987) Expression theory and the preference reversal
phenomenon. Psychological Review 94, 236-54.
[46] Goovaerts, M. J., De Vylder, F. (1979) A note on iterative premium calculation
principles. ASTIN Bulletin 10, 326-329.
[47] Goovaerts, M. J., De Vylder, F., Haezendonck, J. (1984) Insurance Premiums: Theory
and Applications. North-Holland, Amsterdam.
[48] Goovaerts, M.J., De Vylder, F., Martens, F., Hardy, R. (1980) An extension of an
invariance property of Swiss premium calculation principle. ASTIN Bulletin 11, 145–
153.
[49] Goovaerts, M. J., Kaas, R., Dhaene, J., Tang, Q. (2003) A uni…ed approach to generate
risk measures. ASTIN Bulletin 33, 173-191.
[50] Goovaerts, M. J., Kaas, R., Laeven, R. J. A. (2010a) A note on additive risk measures
in rank-dependent utility. Insurance: Mathematics and Economics 47, 187-189.
[51] Goovaerts, M. J., Kaas, R., Laeven, R. J. A. (2010b) Decision principles derived from
risk measures. Insurance: Mathematics and Economics 47, 294-302.
[52] Goovaerts, M. J., Kaas, R., Laeven, R. J. A., Tang, Q. (2004) A comonotonic image of
independence for additive risk measures. Insurance: Mathematics and Economics 35,
581-594.
[53] Goovaerts, M. J., Kaas, R., Van Heerwaarden, A. E., Bauwelinckx, T. (1990) E¤ective
Actuarial Methods. Elsevier Science Publishers B. V., North Holland.
83
[54] Green, J. R., Jullien, B. (1988) Ordinal independence in nonlinear utility theory.
Journal of Risk and Uncertainty 1, 355–387.
[55] Hardy, H. G., Littlewood, J. E., Pólya, G. (1952) Inequalities. Cambridge University
Press.
[56] Heilmann, W. R. (1989) Decision theoretic foundations of credibility theory. Insurance:
Mathematics and Economics 8, 77–95.
[57] Heilpern, S. (2002) Using Choquet integral in economics. Statistical Papers 43, 53–74.
[58] Heilpern, S. (2003) A rank-dependent generalization of zero utility principle. Insurance:
Mathematics and Economics 33, 67-73.
[59] Hoppe, R. (1998) VaR and the unreal world. Risk 11, 45–50.
[60] Hürlimann, W. (1994) A note on experience rating, reinsurance and premium
principles. Insurance: Mathematics and Economics 14, 197–204.
[61] Hürlimann, W. (1998) On stop-loss order and distortion pricing principles. ASTIN
Bulletin 28, 119–134.
[62] Kaas, R., van Heerwaarden, A. E., Goovaerts, M. (1994) Ordering of Actuarial
Risks. Amsterdam: Institute for Acturial Science and Econometrics, University of
Amsterdam.
[63] Kahneman, D., Tversky, A. (1979) Prospect theory: An analysis of decisions under
risk. Econometrica 47, 313-327.
[64] Kamps, U. (1998) On a class of premium principles including the Esscher principle.
Scandinavian Actuarial Journal, 75–80.
[65] Ka÷
uszka, M., Krzeszowiec, M. (2012 a) Mean-value principle under Cumulative
Prospect Theory. ASTIN Bulletin 42, 103-122.
[66] Ka÷
uszka, M., Krzeszowiec, M. (2012 b) Pricing insurance contracts under Cumulative
Prospect Theory. Insurance: Mathematics and Economics 50, 159-166.
[67] Ka÷
uszka, M., Krzeszowiec, M. (2013 a) An iterativity condition for the mean-value
principle under Cumulative Prospect Theory. Praca przyjeta
¾ do ASTIN Bulletin.
84
[68] Ka÷
uszka, M., Krzeszowiec, M. (2013 b) On iterative premium calculation principles
under Cumulative Prospect Theory. Insurance: Mathematics and Economics 52, 435440.
[69] Kaluszka, M., Okolewski, A. (2008) An extension of Arrow’s result on optimal
reinsurance contract. Journal of Risk and Insurance 75, 275-288.
[70] Ko÷
mogorow, A. I. (1930) Sur la notion de la moyenne. Rendiconti Accademia
Nazionale dei Lincei 12, 388-391.
[71] K½oszegi, B., Rabin, M. (2007) Reference-dependent risk attitudes. American Economic
Review 97, 1047-1073.
[72] Kuczma, M. (2009) An Introduction to the Theory of Functional Equations and
Inequalities. Second edition, Edited by Attila Gilányi, Birkhäuser. Berlin.
[73] Landsman, Z., Sherris, M. (2001) Risk measures and insurance premium principles.
Insurance: Mathematics and Economics 29, 103–115.
[74] Lax, P. D. (2008) A curious functional equation. Journal d’Analyse Mathematique 105,
383-390.
[75] Luan, C. (2001) Insurance premium calculations with anticipated utility theory. ASTIN
Bulletin 31, 23-35.
[76] Markowitz, H. (1952) The utility of wealth. The Journal of Political Economy 60,
151-158.
[77] Martin, R. (2004). The St. Petersburg paradox. In Edward N. Zalta. The Stanford
Encyclopedia of Philosophy (Fall 2004 ed.). Stanford, California: Stanford University.
[78] Moller, T. (2001) On transformations of actuarial valuation principles. Insurance:
Mathematics and Economics 28, 281–303.
[79] Moore, K. S., Young, V. R. (2002) Pricing equity-linked pure endowments via the
principle of equivalent utility. Working paper, Department of Mathematics, University
of Michigan, Ann Arbor, Michigan.
[80] Musiela, M., Zariphopoulou, T. (2002) Indi¤erence prices and related measures.
Technical report, The University of Texas at Austin.
85
[81] Nielsen, J. A., Sandmann, K. (1995) Equity-linked life insurance: a model with
stochastic interest rates. Insurance: Mathematics and Economics 16, 225–253.
[82] Polyanin, A. D., Manzhirov, A. H. (2007) Handbook of Mathematics for Engineers
and Scientists. Chapman & Hall/CRC Press, Boca Raton–London.
[83] Pratt, J. W. (1964) Risk aversion in the small and in the large. Econometrica 32,
122-136.
[84] Prelec, D. (1998) The probability weighting function, Econometrica 66, 497-527.
[85] Puppe, C. (1991) Distorted Probabilities and Choice Under Risk. Springer, Berlin.
[86] Quiggin, J. (1982) A theory of anticipated utility. Journal of Economic Behavior and
Organization 3, 323–343.
[87] Rabin, M. (2000) Risk aversion and expected utility theory: a calibration theorem.
Econometrica 68, 1281-1292
[88] Rajwade, A. R., Bhandari, A. K. (2007) Surprises and Counterexamples in Real
Funtion Theory. Hindustan Book Agency.
[89] Reich, A. (1984 a) Premium principles and translation invariance. Insurance:
Mathematics and Economics 3, 57-66.
[90] Reich, A. (1984 b) Homogeneous premium calculation principles. ASTIN Bulletin 14,
123–134.
[91] Rolski, T., Schmidli, H., Schmidt, V., Teugels, J. (1999) Stochastic Processes for
Insurance and Finance. John Wiley & Sons, New York.
[92] Rothschild, M., Stiglitz, J. (1970) Increasing risk: I. A de…nition. Journal of Economic
Theory 2, 225–243.
[93] Schmeidler, D. (1989) Subjective probability and expected utility without additivity.
Econometrica 57, 571–587.
[94] Schmidt, U., Starmer, C., Sugden, R. (2008) Third-generation prospect theory. Journal
of Risk and Uncertainty, 36, 203-223.
86
[95] Schmidt, U., Zank, H. (2007) Linear cumulative prospect theory with applications to
portfolio selection and insurance demand. Decisions in Economics and Finance, 30,
1-18.
[96] Schweizer, M. (2001) From actuarial to …nancial valuation principles. Insurance:
Mathematics and Economics 28, 31–47.
[97] Segal, U. (1989) Anticipated utility theory: a measure representation approach. Annals
of Operations Research 19, 359–373.
[98] Sereda E.N., Bronshtein E.M., Rachev S.T., Fabozzi F. J., Wei Sun, Stoyanov
S.V. (2010) Distortion risk measures in portfolio optimization. In Handbook of
Portfolio Construction: Contemporary Applications of Markowitz Techniques. Edited
by Guerard J.B., 649-673.
[99] Shaked, M., Shanthikumar, J. G. (2007) Stochastic orders. Springer, New York.
[100] Taleb, N. (1997) The world according to Nassim Taleb. Derivatives Strategy 2, 37–40.
[101] Teitelbaum, J. (2007) A unilateral accident model under ambiguity. Journal of Legal
Studies 36, 431-477.
[102] Tsanakas, A. (2009) To split or not to split: capital allocation with convex risk
measures. Insurance: Mathematics and Economics 44, 268–277.
[103] Tversky, A., Kahneman, D. (1992) Advances in prospect theory:
Cumulative
representation of uncertainty. Journal of Risk and Uncertainty 5, 297–323.
[104] Van Heerwaarden, A. E. (1991) Ordering of Risks: Theory and Actuarial Applications.
Thesis Publishers, Amsterdam.
[105] Van Heerwaarden, A. E., Kaas, R. (1992) The Dutch premium principle. Insurance:
Mathematics and Economics 11, 129–133.
[106] Van der Hoek, J., Sherris, M. (2001) A class of non-expected utility risk measures and
implications for asset allocation. Insurance: Mathematics and Economics 28, 69–82.
[107] Venter, G. G. (1991) Premium calculation implications of reinsurance without
arbitrage. ASTIN Bulletin 21, 223–230.
87
[108] Vitali, G. (1925) Sulla de…nizione di integraledelle funzionidi una variabile. Annali di
Matematica Pura ed Applicata 4, 111-121. T÷
umaczenie: Marinacci, M. (1997) On the
de…nition of integral of functions of one variable. Rivista di Matematica per le Scienze
Economiche e Sociali 20, 159–168.
[109] von Neumann, J., Morgenstern, O. (1947) Theory of Games and Economic Behavior.
Wydanie drugie. Princeton University Press, Princeton, NJ.
[110] Wakker, P. P. (1994) Separating marginal utility and probabilistic risk aversion. Theory
and Decision 36, 1–44.
[111] Wakker, P. P. (2010) Prospect Theory: For Risk and Ambiguity. Cambridge University
Press.
[112] Wang, J. L. (2000) A note on Christo…des’ conjecture regarding Wang’s premium
principle. ASTIN Bulletin 30, 13–17.
[113] Wang, S. (1995) Insurance pricing and increased limits ratemaking by proportional
hazards transforms. Insurance: Mathematics and Economics 17, 43–54.
[114] Wang, S. (1996) Premium calculation by transforming the layer premium density.
ASTIN Bulletin 26, 71–92.
[115] Wang, S., Young, V. R., Panjer, H. H. (1997) Axiomatic characterization of insurance
prices. Insurance: Mathematics and Economics 21, 173-183.
[116] Wirch, J. L., Hardy, M. R. (1999) A synthesis of risk measures for capital adequacy.
Insurance: Mathematics and Economics 25, 337-347
[117] Yaari, M. E. (1987) The dual theory of choice under risk. Econometrica 55, 95–116.
[118] Young, V. R. (1999) Discussion of Christo…des’conjecture regarding Wang’s premium
principle. ASTIN Bulletin 29, 191–195.
[119] Young, V. R. (2003) Equity-indexed life insurance: pricing and reserving using the
principle of equivalent utility. North American Actuarial Journal 7, 68–86.
[120] Young, V. R., Zariphopoulou, T. (2002) Pricing dynamic insurance risks using the
principle of equivalent utility. Scandinavian Actuarial Journal, 246–279.
88

Podobne dokumenty