Analiza składek ubezpieczeniowych wyznaczonych w
Transkrypt
Analiza składek ubezpieczeniowych wyznaczonych w
MICHA×KRZESZOWIEC Analiza sk÷ adek ubezpieczeniowych w oparciu o teorie¾ skumulowanej perspektywy Kahnemana-Tversky’ego Praca doktorska napisana w Instytucie Matematycznym Polskiej Akademii Nauk pod kierunkiem dr. hab. Marka Ka÷ uszki, prof. P×. Warszawa, maj 2013 r. Spis treści Spis oznaczeń i umów przyjetych ¾ w pracy 4 1 Wstep ¾ 5 2 Teorie wyborów w warunkach ryzyka i niepewności 7 2.1 Funkcja uz·yteczności 7 2.2 Teoria skumulowanej perspektywy 9 2.3 Ca÷ ka Choqueta 10 3 Sk÷ adki ubezpieczeniowe 14 3.1 Wybrane sk÷ adki ubezpieczeniowe 14 3.2 W÷ asności sk÷ adek ubezpieczeniowych 19 4 Sk÷ adka mean-value w teorii skumulowanej perspektywy 24 4.1 De…nicja sk÷ adki 24 4.2 Przyk÷ ady 25 4.3 W÷ asności sk÷ adki mean-value w teorii skumulowanej perspektywy 29 5 Sk÷ adka zerowej uz·yteczności w teorii skumulowanej perspektywy 50 5.1 De…nicja sk÷ adki 50 5.2 Przyk÷ ady 51 5.3 W÷ asności sk÷ adki zerowej uz·yteczności w teorii skumulowanej perspektywy 53 Bibliogra…a 80 3 Spis oznaczeń i umów przyjetych ¾ w pracy w ca÷ ej pracy zak÷ adamy, z·e wszystkie zmienne losowe określone sa¾ na pewnej przestrzeni probabilistycznej ( ; A; P ); sup X = inf ft : P (X sup ; = inf X = 1); sup ( X) t) = 1g istotny kres górny zmiennej losowej X (zak÷ adamy, z·e istotny kres dolny zmiennej losowej X; X+ = max f0; Xg; X =d Y FX 1 równość rozk÷ adów prawdopodobieństwa zmiennych losowych X i Y ; FX 1 (p) = inf ft 2 R : p U FX (t)g dla p 2 (0; 1) dolny kwantyl rzedu ¾ p; rodzina funkcji wartości, tzn. funkcji u : R ! R rosnacych, ¾ ciag÷ ¾ ych i takich, z·e u (0) = 0; cx U0 podrodzina U sk÷ adajaca ¾ sie¾ z funkcji postaci u (x) = cx, u (x) = (1 G rodzina funkcji zniekszta÷ cajacych ¾ prawdopodobieństwo, tzn. funkcji g : [0; 1] ! [0; 1] (ecx e ) =d, u (x) = 1) =d dla wszystkich x 2 R i pewnych c; d > 0; niemalejacych ¾ oraz takich, z·e g (0) = 0 i g (1) = 1; X2 rodzina zmiennych losowych takich, z·e P (X = 0) = 1 q, P (X = s) = q, gdzie s > 0 oraz q 2 [0; 1]; X=Y X równość p.w. P , tzn. P (X = Y ) = 1; Y - nierówność p.w. P , tzn. P (X f (x+), f (x ) W1, W2, ..., W9 Y ) = 1; granice prawostronna i lewostronna funkcji f w punkcie x; w÷ asności, odpowiednio, uogólnionej ca÷ ki Choqueta (patrz Lemat 2.1 na stronie 12). 4 1 Wstep ¾ Z praktycznego punktu widzenia, przy wyznaczaniu sk÷ adek ubezpieczeniowych zde…niowanych w ujeciu ¾ teorii oczekiwanej uz·yteczności zak÷ ada sie¾ domyślnie, z·e ludzie uz·ywaja¾ funkcji uz·yteczności przy podejmowaniu decyzji w warunkach ryzyka i niepewności oraz potra…a¾ w÷ aściwie ocenić prawdopodobieństwa zysków i strat. Pratt (1964) oraz inni matematycy i ekonomiści badaja¾ w÷ asności sk÷ adek ubezpieczeniowych w teorii oczekiwanej uz·yteczności przy za÷ oz·eniu wypuk÷ ości lub wkles÷ ¾ ości oraz dwukrotnej róz·niczkowalności funkcji uz·yteczności. W rzeczywistości te za÷ oz·enia prowadza¾ do wniosków sprzecznych z badaniami empirycznymi, co potwierdza teoria skumulowanej perspektywy KahnemanaTversky’ego. Celem tej pracy jest wprowadzenie i analiza nowych typów sk÷ adek ubezpieczeniowych dostosowanych do teorii skumulowanej perspektywy. Aby móc jak najwierniej uwzglednić ¾ czynniki behawioralne w sposobie wyznaczenia sk÷ adek, w naszych rozwaz·aniach bedziemy ¾ przyjmowali moz·liwie s÷ abe za÷ oz·enia określajace ¾ funkcje, za pomoca¾ których dane sk÷ adki sa¾ zde…niowane. Przeprowadzona w tej pracy analiza sk÷ adek ubezpieczeniowych jest uogólnieniem wyników przedstawionych przez Gerbera (1979), Goovaertsa i innych (1984), Rolskiego i innych (1999), Van der Hoeka i Sherrisa (2001), Luana (2001) i Heilperna (2003) oraz stanowi kontynuacje¾ badań prowadzonych przez matematyków i ekonomistów (np. Hardy i inni, 1952, Wang i inni, 1997) nad funkcjona÷ ami wystepuj ¾ acymi ¾ w matematyce ubezpieczeniowej. Uk÷ ad dalszej cześci ¾ pracy jest nastepuj ¾ acy. ¾ W rozdziale 2 znajduje sie¾ rys historyczny oraz wspó÷ czesne teorie dotyczace ¾ podejmowania decyzji w warunkach ryzyka i niepewności. Rozdzia÷3 poświecony ¾ jest sk÷ adkom ubezpieczeniowym, ich najwaz·niejszym przyk÷ adom oraz w÷ asnościom. W rozdziale 4 de…niujemy sk÷ adk¾ e mean-value w ujeciu ¾ teorii skumulowanej perspektywy. Podajemy takz·e jawne wzory na sk÷ adki dla pewnych funkcji wartości i funkcji zniekszta÷ cajacych ¾ prawdopodobieństwo oraz analizujemy w÷ asności wprowadzonej sk÷ adki. W badaniach nie zak÷ adamy róz·niczkowalności, wkles÷ ¾ ości ani wypuk÷ ości funkcji wartości oraz, o ile to moz·liwe, odrzucamy za÷ oz·enia o róz·niczkowalności, ciag÷ ¾ ości, wkles÷ ¾ ości oraz wypuk÷ ości funkcji zniekszta÷ cajacych ¾ prawdopodobieństwo. Os÷ abienie wspomnianych za÷ oz·eń powoduje, z·e sposób dowodzenia twierdzeń bazuje na rozwiazywaniu ¾ równań funkcyjnych oraz równań róz·niczkowych z pochodna¾ jednostronna,¾ a nie równań róz·niczkowych, co mia÷ o miejsce we wcześniejszych pracach. Rozwiazanie ¾ równań funkcyjnych nierozwaz·anych do tej pory w literaturze, a takz·e rozwiazanie ¾ równań funkcyjnych przy s÷ abszych za÷ oz·eniach niz· w innych pracach (np. Lax, 2008), pozwala 5 wzbogacić wiedze¾ w tym zakresie. W rozdziale 5 analizujemy sk÷ adk¾ e zerowej uz·yteczności w teorii skumulowanej perspektywy. Wyniki przedstawione w niniejszej pracy sa¾ zawarte w znacznej wiekszości ¾ w pracach Ka÷ uszki i Krzeszowca (2012 a, 2012 b, 2013 a, 2013 b). Podziekowania ¾ Pragne¾ podziekować ¾ promotorowi mojej rozprawy doktorskiej za opiek¾ e i owocna¾ wspó÷ prace. ¾ Dziekuj ¾ e¾ równiez· opiekunowi studiów doktoranckich profesorowi ×ukaszowi Stettnerowi za z·yczliwość i opiek¾ e w trakcie trwania studiów doktoranckich. Dziekuj ¾ e¾ za wsparcie …nansowe uzyskane od Narodowego Centrum Nauki w ramach projektu badawczego pt. "Analiza sk÷ adek ubezpieczeniowych w teorii Kahnemana- Tversky’ego" o numerze 2011/01/N/HS4/05627. Dziekuj ¾ e¾ równiez· za do…nansowanie badań uzyskane z dotacji na zadania s÷ uz·ace ¾ rozwojowi m÷ odych naukowców w ramach …nansowania dzia÷ alności statutowej Wydzia÷ u Fizyki Technicznej, Informatyki i Matematyki Stosowanej Politechniki ×ódzkiej. 6 2 Teorie wyborów w warunkach ryzyka i niepewności 2.1 Funkcja uz·yteczności Za prekursora matematycznej teorii wyborów w warunkach ryzyka i niepewności uznaje sie¾ Daniela Bernoulliego (1700-1782), który w rozwiazaniu ¾ problemu postawionego przez swojego stryja Nicolasa Bernoulliego, jako pierwszy wprowadzi÷ do literatury pojecie ¾ uz·yteczności. Nicolas Bernoulli na poczatku ¾ XVIII wieku dostrzeg÷ pewna¾ s÷ abość niesformalizowanej wówczas teorii prawdopodobieństwa zapoczatkowanej ¾ przez Cardano, Fermata oraz Pascala. W 1713 roku w liście do Pierre’a Raymonda de Montmort przedstawi÷ tzw. paradoks petersburski, w którym podany jest nieskomplikowany przyk÷ ad gry losowej o nieskończonej wartości oczekiwanej wygranej. Skoro wartość oczekiwana wygranej jest nieskończona, to z teoretycznego punktu widzenia osoba podejmujaca ¾ ryzyko powinna zgodzić sie¾ na zap÷ acenie dowolnie duz·ej kwoty za przystapienie ¾ do gry. Jednakz·e w praktyce niewiele osób zgodzi÷ oby sie¾ na uczestnictwo w tej grze nawet za 25 dolarów (patrz Martin, 2004). Daniel Bernoulli (1738) zaproponowa÷natepuj ¾ acy ¾ sposób rozwiazania ¾ paradoksu. Zauwaz·y÷on, z·e "Wyznaczanie wartości przedmiotu nie moz·e być oparte na jego cenie, ale raczej na uz·yteczności jaka¾ ze soba¾ niesie... Nie ulega watpliwości, ¾ z·e zysk tysiaca ¾ dukatów jest bardziej znaczacy ¾ dla biedaka niz· dla osoby zamoz·nej, mimo iz· w obu przypadkach zysk jest taki sam". Bernoulli zasugerowa÷ , aby decyzja o cenie za przystapienie ¾ do gry by÷ a wyznaczana przy wykorzystaniu logarytmicznej funkcji uz·yteczności, która zalez·y od wartości posiadanego przez decydenta majatku. ¾ Prze÷ omowym wydarzeniem w teorii podejmowania decyzji w obecności ryzyka i niepewności by÷ o opublikowanie przez von Neumanna i Morgensterna (1947) uk÷ adu aksjomatów, które wed÷ ug nich charakteryzuja¾ racjonalnego decydenta. aksjomaty określaja¾ relacje¾ porzadkuj ¾ ac ¾ a¾ Wspomniane na zbiorze dopuszczalnych zmiennych losowych (kaz·da ze zmiennych utoz·samiana jest z ryzykiem na jakie jesteśmy naraz·eni w danej sytuacji). Dla dowolnych zmiennych L, M , N relacja ta: jest zupe÷ na: L M lub M jest przechodnia: jez·eli L jest ciag÷ ¾ a: jez·eli L L; M iM N , to L N; N , to istnieje p 2 [0; 1] takie, z·e pL + (1 p) N = M ; spe÷ nia aksjomat niezalez·ności: jeśli L M , to dla dowolnego ryzyka N oraz p 2 (0; 1] mamy pL + (1 p) N M pM + (1 p) N . Okazuje sie, ¾ z·e relacja spe÷ nia wspomniane aksjomaty wtedyZ i tylko wtedy, gdy istnieje Z niemalejaca ¾ funkcja u taka, z·e X Y () u (X) dP u (Y ) dP . Funkcja u jest 7 wyznaczona w sposób jednoznaczny z dok÷ adnościa¾ do dodatnich przekszta÷ ceń a…nicznych. Teoria oczekiwanej uz·yteczności von Neumanna i Morgensterna by÷ a oparta o aksjomaty, co prowadzi÷ o do powszechnego przekonania, z·e jest to jedyny prawid÷ owy model s÷ uz·acy ¾ do opisu podejmowania decyzji w warunkach ryzyka i niepewności. Przekonanie to jest dodatkowo wzmocnione faktem, z·e kszta÷ t funkcji uz·yteczności pozwala zaklasy…kować decydentów do jednej z trzech grup: sk÷ onnych lub niechetnych ¾ do podejmowania ryzyka oraz obojetnych ¾ na ryzyko. Wkles÷ ¾ a funkcja uz·yteczności opisuje osobe¾ stroniac ¾ a¾ od ryzyka, zaś wypuk÷ a funkcja uz·yteczności charakteryzuje decydenta lubiacego ¾ podejmować ryzyko. Poczawszy ¾ od lat czterdziestych XX wieku powsta÷ y liczne prace, w których starano sie¾ wyznaczyć kszta÷ t funkcji uz·yteczności tak, aby w najlepszym stopniu odzwierciedla÷ a ona zachowanie ludzi przy podejmowaniu decyzji. Friedman i Savage (1948) proponuja¾ funkcje uz·yteczności, które sa¾ róz·niczkowalne, ale maja¾ dwa punkty przegiecia. ¾ Markowitz (1952), który krytykuje taki pomys÷ , uwaz·a za stosowne wykorzystywanie funkcji uz·yteczności, które maja¾ tylko jeden punkt przegiecia ¾ znajdujacy ¾ sie¾ w pobliz·u obecnego majatku ¾ decydenta. Pod wp÷ ywem wspomnianych dwóch koncepcji, Gillen i Markowitz (2010) sugeruja¾ klase¾ funkcji uz·yteczności, które sa¾ róz·niczkowalne, ale sa¾ kawa÷ kami wkles÷ ¾ e i wypuk÷ e. Analiza pewnych podrodzin tego typu funkcji pozwala na ustalenie wp÷ ywu majatku ¾ na decyzje podejmowane przez inwestora oraz na scharakteryzowanie jego sk÷ onności badź ¾ awersji do ryzyka. Schmidt i Zank (2007) stosuja¾ kawa÷ kami liniowa, ¾ a wiec ¾ nieróz·niczkowalna¾ funkcje¾ uz·yteczności w problemach matematyki …nansowej i ubezpieczeniowej. W prze÷ omowej pracy stanowiacej ¾ poczatki ¾ teorii perspektywy, Kahneman i Tversky (1979), po przeprowadzeniu licznych eksperymentów potwierdzaja¾ fakt, z·e przy podejmowaniu decyzji w warunkach ryzyka i niepewności ludzie uz·ywaja¾ funkcji, która wynikom …nansowym przypisuje pewne wirtualne wartości, ale dodatkowo ustalaja¾ punkt referencyjny i wyniki …nansowe od niego mniejsze postrzegaja¾ jako straty, zaś te wyz·sze jako zyski. Kahneman i Tversky sugeruja¾ zastapienie ¾ funkcji uz·yteczności, która mierzy bezwzgledn ¾ a¾wartość majatku, ¾ funkcja¾wartości, która zalez·y od wzglednej ¾ wielkości majatku ¾ oraz mierzy zyski i straty. Sugeruja¾ oni uz·ywanie funkcji uz·yteczności, które sa¾ wypuk÷ e dla argumentów ujemnych i wkles÷ ¾ e dla argumentów dodatnich oraz u0+ (0) < u0 (0), gdzie u0+ i u0 oznaczaja¾ odpowiednio prawo- i lewostronna¾ pochodna¾ funkcji u. W uzupe÷ nieniu do tych obserwacji, K½oszegi i Rabin (2007) zauwaz·aja, ¾ z·e podejmowanie decyzji w warunkach niepewności zwieksza ¾ awersje¾ do ryzyka, gdy jest ono oczekiwane. Punkty referencyjne, których moz·e być kilka, wp÷ ywajace ¾ na podjecie ¾ decyzji przez decydenta, sa¾ wyznaczone w oparciu o jego przekonania dotyczace ¾ moz·liwości uzyskania danego wyniku …nansowego i moga¾ być one wyznaczone w sposób stochastyczny. Decyzja 8 podejmowana jest poprzez maksymalizacje¾ funkcjona÷ u EF R v (wjr) dG (r), gdzie v jest funkcja¾ wartości zaproponowana¾ przez Kahnemana i Tversky’ego, w jest zmienna¾ losowa¾ o rozk÷ adzie F opisujac ¾ a¾ wartość majatku, ¾ zaś G jest dystrybuanta¾ dyskretnej zmiennej losowej R o skończonym nośniku. Przy tych za÷ oz·eniach moz·emy mieć do czynienia z R funkcja¾wartości postaci v (w) = v (wjr) dG (r), która ma bardzo nieregularne kszta÷ ty, a w szczególności moz·e nie być róz·niczkowalna w wielu punktach. Schmidt i inni (2008) rozwijaja¾ koncepcje¾ zaproponowana¾ przez Tversky’ego i Kahnemana i w swoim modelu, oprócz za÷ oz·enia o zniekszta÷ caniu prawdopodobieństw przy podejmowaniu decyzji w warunkach ryzyka i niepewności, porównuja¾ równiez· konsekwencje, które wynikaja¾ z podjecia ¾ przez osobe¾ konkretnej decyzji. W badanym przez nich przypadku funkcje uz·yteczności sa¾ kawa÷ kami wkles÷ ¾ e i wypuk÷ e i maja¾ wiele punktów nieróz·niczkowalności. Wcia¾z· pozostaje kwestia¾ nierozstrzygniet ¾ a, ¾ jaki typ funkcji uz·yteczności najlepiej odpowiada ludzkiemu zachowaniu przy podejmowaniu decyzji. Wobec tego rozwaz·ajac ¾ modele matematyczne uwzgledniaj ¾ ace ¾ w swoich za÷ oz·eniach funkcje¾ wartości i chcac ¾ otrzymać wyniki dla moz·liwie duz·ej klasy tych funkcji, powinniśmy przyjmować moz·liwie najs÷ absze za÷ oz·enia je opisujace. ¾ 2.2 Teoria skumulowanej perspektywy Równolegle do dyskusji o kszta÷ cie funkcji uz·yteczności, liczni naukowcy zastanawiali sie¾ nad prawdziwościa¾ aksjomatów przyjetych ¾ przez von Neumanna i Morgensterna. Znane paradoksy (np. Allais, 1953, Ellsberg, 1961, Yaari, 1987, Rabin, 2000) ukazuja¾ s÷ abość teorii oczekiwanej uz·yteczności i pokazuja, ¾ z·e zachowanie ludzi w warunkach ryzyka i niepewności nie jest zgodne z jej za÷ oz·eniami. Kahneman i Tversky (1979) w sposób empiryczny zbadali, z·e ludzie zniekszta÷ caja¾ prawdopodobieństwa przy podejmowaniu decyzji w warunkach ryzyka i niepewności. Odkrycie to stanowi÷ o motywacje¾ dla ekonomistów, którzy zbadali to zjawisko i uzasadnili je proponujac ¾ os÷ abienie aksjomatu niezalez·ności i zastapienie ¾ go innnymi warunkami (patrz Quiggin, 1982, Yaari, 1987, Green i Jullien, 1988, Segal, 1989, Puppe, 1991, Wakker, 1994, Abdellaoui, 2002). W oparciu o przeprowadzone eksperymenty, Tversky i Kahneman (1992) udoskonalaja¾ teorie¾ oczekiwanej uz·yteczności i tworza¾ teorie¾ skumulowanej perspektywy. Zak÷ ada sie¾ w niej, z·e prawdopodobieństwa zysków i strat sa¾ zniekszta÷ cane, kaz·de z nich w inny sposób. Zaproponowali oni, by wykorzystać uogólniona¾ ca÷ k¾ e Choqueta do opisu podejmowania decyzji w warunkach ryzyka i niepewności (pojecie ¾ uogólnionej ca÷ ki Choqueta jest wprowadzone w podrozdziale 2.3). Po drugie, Tversky i Kahneman zauwaz·yli, z·e 9 decydenci ustalaja¾ pewien punkt referencyjny w i wyniki …nansowe wieksze ¾ badź ¾ równe od tej wartości traktuja¾ jako zyski, zaś rezultaty mniejsze od w - jako straty. Po trzecie, sugeruja¾ oni, by uz·ywać opisanej wcześniej funkcji wartości, która jest nieróz·niczkowalna w zerze, zamiast funkcji uz·yteczności. Przy za÷ oz·eniach teorii skumulowanej perspektywy, zarówno funkcja wartości jak i funkcja zniekszta÷ cajaca ¾ prawdopodobieństwo nie musza¾ być róz·niczkowalne, wkles÷ ¾ e czy wypuk÷ e (patrz Wang, 1996, K½oszegi i Rabin, 2007, Schmidt i inni, 2008). W uznaniu za swoje osiagni ¾ ecia, ¾ Daniel Kahneman zosta÷w 2002 roku laureatem Nagrody im. Alfreda Nobla z ekonomii. Amos Tversky zmar÷w roku 1996. Teoria skumulowanej perspektywy by÷ a w ciagu ¾ ostatnich lat szeroko omawiana i stosowana w ekonomii (np. Schmidt i inni, 2008, Teitelbaum, 2007). Powsta÷ y równiez· prace, w których autorzy wykorzystuja¾te¾ teorie¾ w matematyce …nansowej i ubezpieczeniowej (patrz De Giorgi i Hens, 2006, Schmidt i Zank, 2007, De Giorgi i inni, 2009, Bernard i Ghossoub, 2010). 2.3 Ca÷ ka Choqueta Giuseppe Vitali w 1925 roku wprowadzi÷pojecie ¾ ca÷ ki, która jest szczególnym przypadkiem później wprowadzonej ca÷ ki Choqueta przy za÷ oz·eniu, z·e wystepuj ¾ ace ¾ tam miary sa¾ addytywne. Gustave Choquet w obszernej pracy z 1954 r. stworzy÷narzedzie ¾ matematyczne, dzieki ¾ któremu moz·na obliczać ca÷ ki wzgledem ¾ pojemności, tzn. niemalejacej ¾ i nieujemnej funkcji zbioru spe÷ niajacej ¾ pewne warunki ciag÷ ¾ ości. Mia÷ a ona znaleźć zastosowanie w mechanice statystycznej oraz teorii potencja÷ ów. Wraz z up÷ ywem czasu, ca÷ ka Choqueta zacze÷ ¾ a być wykorzystywana przez matematyków i ekonomistów do opisu modeli dotyczacych ¾ podejmowania decyzji. Spostrzez·enia Kahnemana i Tversky’ego o zniekszta÷ caniu przez ludzi prawdopodobieństw moz·na opisać w pewnym modelu matematycznym. W teorii dualnej ryzyka Yaari (1987) wprowadzi÷aksjomat komonotonicznej niezalez·ności, który doprowadzi÷do stworzenia modelu rank-dependent utility, który m.in. eliminuje problem przeszacowywania bardzo ma÷ ych prawdopodobieństw (patrz np. Quiggin, 1982, Green i Jullien, 1988, Segal, 1989). Zak÷ ada Zsie¾ w nim, z·e relacja preferencji za pomoca¾ ca÷ ki Choqueta postaci jest określona u (X) d (g P ), gdzie g : [0; 1] ! [0; 1] jest funkcja¾ niemalejac ¾ a¾ taka,¾ z·e g (0) = 0 i g (1) = 1, nazywana¾ funkcja¾ zniekszta÷ cajac ¾ a¾ prawdopodobieństwo (patrz np. Segal, 1989, Denneberg, 1994). Niech G oznacza klase¾ wszystkich funkcji zniekszta÷ cajacych ¾ prawdopodobieństwo. Dla ustalonego g 2 G i dowolnej 10 zmiennej losowej X ca÷ k¾ e Choqueta oznaczamy poprzez Eg X i moz·emy ja¾ obliczyć ze wzoru Eg X := Z0 (g (P (X > t)) 1) dt + 1 Z1 g (P (X > t)) dt, 0 o ile obie ca÷ ki sa¾ skończone (patrz Chateauneuf i inni, 1997, Chateauneuf i Cohen, 2000). Gdy X przyjmuje skończona¾ liczbe¾ wartości x1 < x2 < ::: < xn z prawdopodobieństwami P (X = xi ) = pi > 0, to Eg X = x1 + n 1 X g (qi ) (xi+1 xi ) , i=1 gdzie qi = n P pk ; w szczególności dla n = 2 mamy k=i+1 g (p2 )) + g (p2 ) x2 . Eg X = x1 (1 Ca÷ ka Choqueta jest addytywna dla zmiennych losowych komonotonicznych, dodatnio jednorodna, monotoniczna (tzn. Eg X Eg Y gdy X Ponadto Eg ( X) = gdzie funkcja g (x) = 1 g (1 Y ) oraz Eg (c) = c dla c 2 R. Eg X, x) jest nazywana dualna¾ funkcja¾ zniekszta÷ cajac ¾ a¾ prawdopodobieństwo. W literaturze moz·emy znaleźć nastepuj ¾ ace ¾ przyk÷ ady funkcji zniekszta÷ cajacych ¾ prawdopodobieństwo: g (p) = p (p + (1 1= p) ) , g (p) = exp ( ( ln p) ) , gdzie g (p) = p p + (1 g (p) = p + p p) , p2 , 2 (0; 1) jest ustalone (patrz Tversky i Kahneman, 1992, Goldstein i Einhorn, 1987, Prelec, 1998, Sereda i inni, 2010, Wang, 1995, 1996, Diecidue i inni, 2009). O zastosowaniu ca÷ ki Choqueta w praktyce dotyczacej ¾ podejmowania decyzji pisza¾ Heilpern (2002) i Wakker (2010). Tversky i Kahneman (1992) uz·yli dla zmiennej losowej typu dyskretnego pojecie ¾ uogólnionej ca÷ ki Choqueta, dzieki ¾ której prawdopodobieństwa zysków i strat moga¾ być zniekszta÷ cane róz·nymi funkcjami. Dla g; h 2 G i dowolnej zmiennej losowej X, de…niujemy 11 uogólniona¾ ca÷ k¾ e Choqueta wzorem Egh X = Eg X+ Eh ( X)+ , o ile obie ca÷ ki Choqueta sa¾ skończone. Kszta÷ ty funkcji g i h sa¾ zwykle do siebie podobne, a róz·nia¾ sie¾ wartościami wspó÷ czynników wystepuj ¾ acych ¾ w ich wzorach. Ponadto, gdy h (p) = g (p) = 1 p), to Egg X = Eg X. g (1 W poniz·szym lemacie podajemy najwaz·niejsze w÷ asności uogólnionej ca÷ ki Choqueta. Poza standardowymi w÷ asnościami, podajemy równiez· w÷ asności, które sa¾ nieznane w literaturze aktuarialnej (W8 i W9). Lemat 2.1 Uogólniona ca÷ka Choqueta ma nastepuj ¾ ace ¾ w÷asno´sci: W1 Egh 1A = g (P (A)); W2 Egh (cX) = cEgh X dla wszystkich c W3 Egh ( X) = W4 je´sli X 0; Ehg X; Y , to Egh X W5 je´sli g (x) x i h (x) W5’je´sli g (x) x i h (x) Egh Y ; x dla x 2 [0; 1], to Egh X EX; x dla x 2 [0; 1], to Egh X EX; W6 je´sli g (x) = h (x) = x, to Egh X = EX; W7 Egh c = c dla wszystkich c 2 R; W8 dla wszystkich c 2 R prawdziwe sa¾wzory Egh (X + c) = Egh X + c + Zc [h (P ( X > s)) g (P ( X > s))] ds, (2.1) g (P (X (2.2) 0 Egh (X + c) = Egh X + c + Zc h (P (X s)) s)) ds; 0 W9 nierówno´s´c Jensena: je´sli u : R ! R jest niemalejaca, ¾ wkles÷ ¾ a i u (0) = 0, to dla g; h 2 G i dowolnej zmiennej losowej X takiej, ·ze Egh X istnieje, mamy u0 (m)m Z u(m) h (P (u0 (m) X g (P (u0 (m) X s)) ds, (2.3) gdzie m = Egh X oraz u0 jest prawostronna¾ pochodna¾ funkcji u. Ponadto, je´sli h (x) g (x) Egh u (X) u (m) + s)) 0 lub X 0, to Egh u (X) u (Egh X). 12 Dowód Dowody w÷ asności W1, W3 i W6 sa¾ oczywiste. W÷ asności W2, W5, W5’ i W7 wynikaja¾ z de…nicji uogólnionej ca÷ ki Choqueta, ca÷ ki Choqueta i w÷ asności ca÷ ki Choqueta. Ad W4 Jeśli X Y , to P (X > t) Eg X+ = Z1 P (Y > t) dla t 2 R. Stad ¾ Z1 g (P (X > t)) dt 0 Ponadto, jeśli X g (P (Y > t)) dt = Eg Y+ . 0 Y , to X i P ( Y > t) Y P ( X > t) dla t 2 R. Zatem Eh ( Y )+ . Eh ( X)+ Ad W8 Jako pierwszy udowodnimy wzór (2.1). Mamy Egh (X + c) = Z1 = Z1 g (P (X > t Z1 c)) dt h (P ( X > t + c)) dt 0 0 g (P (X > t)) dt c Z1 h (P ( X > t)) dt c = Egh X + Z0 = Egh X + Zc g (P (X > t)) dt c Z0 h (P ( X > t)) dt c g (P ( X < s)) ds + 0 = Egh X + c + Zc h (P ( X > s)) ds 0 Zc [h (P ( X > s)) g (P ( X > s))] ds, 0 gdyz· mody…kacja funkcji podca÷ kowej w przeliczalnej liczbie punktów nie zmienia wartości ca÷ ki. Wzór (2.2) otrzymujemy ze wzoru (2.1) po wykonaniu elementarnych przekszta÷ ceń. u (m) + u0 (m) (x Ad W9 Oczywiście u (x) m) dla wszystkich x, gdzie u0 jest prawostronna¾ pochodna¾ funkcji u. Stad, ¾ z W2, W4 i (2.2) mamy Egh u (X) Egh [u (m) = u (m) + u0 (m) m + u0 (m) X] u0 (m)m Z u(m) h (P (u0 (m) X s)) g (P (u0 (m) X s)) ds, 0 co daje (2.3). Ponadto, u0 (m) m u (Egh X). Gdy X u (m) 0, to P (u0 (m) X 0 i u (0) = 0, wiec ¾ jeśli h s) = 1, a zatem Egh u (X) 13 g, to Egh u (X) u (Egh X). 3 Sk÷ adki ubezpieczeniowe Sk÷ adka¾ ubezpieczeniowa¾ nazywamy kwote, ¾ za jaka¾ …rma ubezpieczeniowa jest sk÷ onna sprzedać ubezpieczenie na wypadek ryzyka X, które jest zmienna¾ losowa. ¾ Kwota ta nie moz·e być za wysoka, co mog÷ oby zniechecić ¾ potencjalnych klientów do ubezpieczania sie¾ lub sk÷ onić do ubezpieczenia sie¾ w innej …rmie. Sk÷ adka nie moz·e być równiez· za niska, gdyz· wówczas ubezpieczyciel naraz·ony jest na potencjalnie duz·e straty. Z matematycznego punktu widzenia, zasada¾ wyznaczania sk÷ adek ubezpieczeniowych nazywamy funkcjona÷ H, który dowolnej zmiennej losowej X z pewnej rodziny X przyporzadkowuje ¾ liczbe¾ H (X) zwana¾ sk÷ adka¾ za ubezpieczenie sie¾ na wypadek ryzyka X, lub w skrócie: sk÷ adka.¾ W dalszej cześci ¾ pracy s÷ owo "sk÷ adka" bedzie ¾ uz·ywane równiez· w odniesieniu do funkcjona÷ u H. Wartość H (X) EX nazywamy narzutem bezpieczeństwa na sk÷ adk¾ e netto. Aby wybrać sk÷ adk¾ e ubezpieczeniowa¾ najlepiej pasujac ¾ a¾ do danej sytuacji, korzysta sie¾ zazwyczaj z jednej z trzech opisanych dalej metod. Pierwsza z nich, wybór sk÷ adki ad hoc, polega na ustaleniu racjonalnej sk÷ adki ubezpieczeniowej, zbadaniu jej w÷ asności i sprawdzeniu, które z poz·adanych ¾ w÷ asności sa¾ spe÷ nione (np. sk÷ adka wartości oczekiwanej jest z regu÷ y postrzegana jako sk÷ adka wyznaczona ad hoc i spe÷ nia wiekszość ¾ poz·adanych ¾ w÷ asności). Drugim ze sposobów, trudniejszym w implementacji, jest metoda charakteryzacji. Polega ona na utworzeniu listy w÷ asności jakich oczekujemy od sk÷ adki ubezpieczeniowej, a nastepnie ¾ na wyznaczeniu sk÷ adki lub sk÷ adek, które je spe÷ niaja.¾ Ostatnim ze sposobów wyznaczania odpowiedniej sk÷ adki jest tzw. metoda ekonomiczna. Polega ona na przyjeciu ¾ przez aktuariusza pewnej teorii ekonomicznej i wyznaczeniu na jej podstawie odpowiedniej sk÷ adki. Niektóre ze sk÷ adek moga¾ być otrzymane w oparciu o dwa lub trzy zaprezentowane sposoby. Na przyk÷ ad, sk÷ adk¾ e proporcjonalnego hazardu wprowadzi÷Wang (1995), który szuka÷sk÷ adki spe÷ niajacej ¾ warunek przedzia÷ owej addytywności (ang. layer additivity), a wiec ¾ uz·y÷metody charakteryzacji. Wang i inni (1997) pokazali później, z·e sk÷ adka ta jako jedyna spe÷ nia uk÷ ad pewnych postulatów. Ponadto okazuje sie, ¾ z·e sk÷ adka proporcjonalnego hazardu moz·e zostać uzyskana w oparciu o metode¾ ekonomiczna¾ (patrz Yaari, 1987). 3.1 Wybrane sk÷ adki ubezpieczeniowe Poniz·ej przedstawiamy najpopularniejsze rodzaje wyznaczania sk÷ adek ubezpieczeniowych. Zak÷ adamy, z·e X jest ca÷ kowalna¾ zmienna¾ losowa, ¾ zaś 14 > 0 jest pewna¾ ustalona¾ liczba. ¾ S1 Sk÷ adka netto: H (X) = EX. Jest to jeden z najprostszych przyk÷ adów sk÷ adki ubezpieczeniowej. Mimo iz· sk÷ adka netto nie zawiera narzutu bezpieczeństwa, to jest powszechnie uz·ywana w literaturze aktuarialnej, gdyz· zak÷ ada sie, ¾ z·e ryzyko jest zasadniczo pomijalne w przypadku, gdy …rma ubezpieczeniowa sprzeda duz·a¾ ilość niezalez·nych polis o tym samym rozk÷ adzie (patrz Boyle i Schwartz, 1977, Bacinello i Ortu, 1993, Aase i Persson, 1994, Nielsen i Sandmann, 1995). S2 Sk÷ adka wartości oczekiwanej: H (X) = (1 + ) EX. Sk÷ adka ta powsta÷ a w oparciu o sk÷ adk¾ e netto i zawiera proporcjonalny narzut bezpieczeństwa. Jest ona powszechnie wykorzystywana w teorii ryzyka (patrz Bowers i inni, 1997). S3 Sk÷ adka wariancji: H (X) = EX + V arX. Jest ona suma¾ sk÷ adki netto oraz dodatkowego sk÷ adnika, który jest proporcjonalny do wariancji ryzyka. Bühlmann (1970) omówi÷szczegó÷ owo w÷ asności tej sk÷ adki. Okazuje sie, ¾ z·e sk÷ adka wariancji jest równiez· dobrym przybliz·eniem sk÷ adki zerowej uz·yteczności. p S4 Sk÷ adka odchylenia standardowego: H (X) = EX + V arX. Bazuje ona na sk÷ adce netto z uwzglednieniem ¾ narzutu bezpieczeństwa, który jest wprost proporcjonalny do odchylenia standardowego ryzyka. W÷ asności tej sk÷ adki bada÷Bühlmann (1970), który zauwaz·y÷ , z·e czesto ¾ uz·ywa sie¾ jej w ubezpieczeniach majatkowych. ¾ Schweizer (2001) i Moller (2001) omawiaja¾ jak zastosować sk÷ adki wariancji i odchylenia standardowego do wyceny ryzyka w dynamicznych modelach …nansowych. Denneberg (1990) argumentuje, z·e sk÷ adka odchylenia standardowego powinna zostać zastapiona ¾ przez sk÷ adk¾ e odchylenia przecietnego ¾ od mediany. S5 Sk÷ adka odchylenia przecietnego ¾ od mediany: H (X) = EX + E jX M edXj, gdzie M edX jest mediana¾ryzyka X. Sk÷ adk¾ e te¾ oraz jej w÷ asności omawia Denneberg (1990). 1 S6 Sk÷ adka wyk÷ adnicza: H (X) = ln Ee X . Jest to szczególny przypadek sk÷ adki zerowej uz·yteczności, gdy funkcja uz·yteczności jest wyk÷ adnicza (patrz Gerber, 1974 a). Sk÷ adka wyk÷ adnicza ma szereg poz·adanych ¾ w÷ asności, w÷ acznie ¾ z addytywnościa¾ dla zmiennych losowych niezalez·nych. Musiela i Zariphopoulou (2002) wykorzystali te¾ sk÷ adk¾ e w wycenie …nansowych instrumentów zabezpieczajacych ¾ na rynkach niezupe÷ nych. Young i Zariphopoulou (2002), Moore i Young (2002) oraz Young (2003) uz·yli sk÷ adki wyk÷ adniczej do wyceny róz·nych produktów ubezpieczeniowych w modelach dynamicznych. S7 Sk÷ adka Esschera: H (X) = E (XeZ ) , EeZ gdzie Z jest pewna¾ zmienna¾ losowa. ¾ Sk÷ adka zosta÷ a wprowadzona przez Bühlmanna (1980, 1984), który bada÷wymiane¾ ryzyka. W tym przypadku Z jest dodatnia¾ wielokrotnościa¾ zagregowanego ryzyka, które ma zostać 15 wymienione. Gerber i Shiu (1994, 1996) wykorzystuja¾ sk÷ adk¾ e Esschera w matematyce …nansowej. Heilmann (1989) omawia przypadek szczególny, w którym Z = f (X) dla pewnej funkcji f , zaś Kamps (1998) analizuje sk÷ adk¾ e Esschera przy eZ = 1 e X dla pewnego > 0. Niektóre źród÷ a podaja¾ de…nicje¾ tej sk÷ adki z Z = hX dla h > 0. S8 Sk÷ adka mean-value jest rozwiazaniem ¾ równania u (w gdzie w H (X)) = Eu (w X) , (3.1) 0 jest ustalone, zaś u : R ! R jest ciag÷ ¾ a¾i rosnac ¾ a¾funkcja. ¾ Wartość H (X) moz·na interpretować jako maksymalna¾ sk÷ adk¾ e, za która¾ potencjalny klient …rmy ubezpieczeniowej jest sk÷ onny kupić polise¾ na wypadek ryzyka X, zaś w jako majatek ¾ decydenta. Po lewej stronie równania (3.1) mamy uz·yteczność majatku ¾ decydenta, który decyduje sie¾ na zakup polisy za kwote¾ H (X), zaś prawa strona równania (3.1) to oczekiwana uz·yteczność tego majatku ¾ w przypadku, gdy nie zakupi polisy ubezpieczeniowej. Wartość H (X) jest zatem cena, ¾ wobec której decydent jest obojetny ¾ na przyjecie ¾ lub odrzucenie ryzyka X (cene¾ taka¾ nazywa sie¾ równiez· cena¾ obojetności, ¾ ang. reservation price). Sk÷ adka mean-value ma te¾ zalete, ¾ z·e moz·e zawsze zostać wyznaczona w sposób jawny: H (X) = w u 1 (Eu (w X)) . Po raz pierwszy quasi-liniowy funkcjona÷mean-value u 1 (Eu (X)) badali Ko÷ mogorow (1930) oraz Hardy i inni (1952). S9 Sk÷ adka zerowej uz·yteczności (równowaz·nej uz·yteczności) jest rozwiazaniem ¾ równania u (w) = Eu (w + H (X) gdzie w X) , (3.2) 0 jest ustalone, zaś u : R ! R jest rosnac ¾ a¾ i wkles÷ ¾ a¾ funkcja, ¾ nazywana¾ funkcja¾ uz·yteczności. Jest to odpowiednik sk÷ adki mean-value z punktu widzenia …rmy ubezpieczeniowej. Po lewej stronie równania (3.2) wystepuje ¾ uz·yteczność majatku ¾ ubezpieczyciela, który nie sprzedaje ubezpieczenia na wypadek ryzyka X, zaś po prawej stronie mamy oczekiwana¾ uz·yteczność majatku ¾ …rmy, która decyduje sie¾ na pokrycie strat wynik÷ ych z ryzyka X w zamian za kwote¾ H (X). Wartość H (X) jest w tym przypadku równiez· cena¾ obojetności. ¾ Gdy funkcja uz·yteczności jest liniowa, to sk÷ adka zerowej uz·yteczności jest sk÷ adka¾ netto, zaś gdy u jest funkcja¾ wyk÷ adnicza, ¾ to H (X) jest sk÷ adka¾ wyk÷ adnicza.¾ Aktuarialne odniesienia do teorii oczekiwanej uz·yteczności podaja¾ Borch 16 (1963, 1968) oraz Gerber i Pafumi (1998). Pratt (1964) analizowa÷jak cena obojetności ¾ zmienia sie¾ wraz ze zmiana¾ awersji do ryzyka wyraz·onego poprzez odpowiedni kszta÷ t funkcji uz·yteczności. Wykaza÷on, z·e jez·eli wartości ryzyka X sa¾ ma÷ e, to sk÷ adka zerowej u00 (w) uz·yteczności jest aproksymowana przez sk÷ adk¾ e wariancji z = 2u0 (w) . Wówczas jest równa po÷ owie miary bezwzglednej ¾ awersji do ryzyka. Wiecej ¾ informacji na temat awersji do ryzyka podaje Arrow (1971). S10 Sk÷ adka Wanga: H (X) = Z0 (g (P (X > t)) 1) dt + 1 Z1 g (P (X > t)) dt, 0 gdzie g : [0; 1] ! [0; 1] jest ciag÷ ¾ a, ¾ rosnac ¾ a¾ i wkles÷ ¾ a¾ funkcja, ¾ nazywana¾ funkcja¾ zniekszta÷ cajac ¾ a¾ prawdopodobieństwo. Sk÷ adka Wanga wywodzi sie¾ z dualnej teorii ryzyka Yaari’ego (1987) i jest powiazana ¾ z idea¾ koherentnych miar ryzyka (patrz Artzner i inni, 1999, Wirch i Hardy, 1999). Idee wyznaczania sk÷ adek Wanga oraz zerowej uz·yteczności moz·na ze soba¾ po÷ aczyć, ¾ otrzymujac ¾ nowe klasy sk÷ adek ubezpieczeniowych, w których prawdopodobieństwa strat sa¾zniekszta÷ cane (patrz Quiggin, 1982, Gilboa, 1987, Schmeidler, 1989). Young (1999) oraz Wang (2000) uzyskali pewne wyniki dla sk÷ adki Wanga dla rodzin zmiennych losowych z parametrem po÷ oz·enia i skali. Landsman i Sherris (2001) zaproponowali sk÷ adk¾ e alternatywna¾ do sk÷ adki Wanga. Wang i inni (1997) podaja, ¾ w jaki sposób moz·na uzyskać sk÷ adk¾ e Wanga metoda¾ charakteryzacji. S11 Sk÷ adka proporcjonalnego hazardu: H (X) = Z0 c ([P (X > t)] 1) dt + 1 Z1 [P (X > t)]c dt, 0 gdzie c 2 (0; 1) jest ustalone. Jest to szczególny przypadek sk÷ adki Wanga, który bada÷jej w÷ asności (patrz Wang, 1995). Sk÷ adk¾ e proporcjonalnego hazardu moz·na uzyskać metoda¾ charakteryzacji (patrz Wang i inni, 1997). S12 Sk÷ adka szwajcarska jest rozwiazaniem ¾ równania u (X cH (X)) = u ((1 c) H (X)) , gdzie c 2 [0; 1] jest ustalone, zaś u jest pewna¾ rosnac ¾ a¾ i wypuk÷ a¾ funkcja. ¾ Sk÷ adka ta jest pewnym uogólnieniem sk÷ adki zerowej uz·yteczności i sk÷ adki mean-value przy w = 0. 17 Sk÷ adk¾ e szwajcarska¾ wprowadzili Bühlmann i inni (1977), zaś jej w÷ asności badali De Vylder i Goovaerts (1979), Goovaerts i De Vylder (1979), Goovaerts i inni (1980) oraz Beyer i Riedel (1993). S13 Sk÷ adka holenderska: H (X) = EX+aE (X bEX)+ , gdzie a 1 i b 2 (0; 1] sa¾ ustalone. Sk÷ adk¾ e te¾ wprowadzili Van Heerwaarden i Kaas (1992), zaś uogólni÷ja¾Hürlimann (1994). S14 Sk÷ adka VaR (sk÷ adka wartości zagroz·onej): H (X) = FX 1 (p), gdzie p 2 (0; 1), zaś FX 1 (p) jest dolnym kwantylem rzedu ¾ p zmiennej losowej X. Poczatków ¾ metody VaR moz·na dopatrywać sie¾ w pracy Baumola (1963), choć sama nazwa przyje÷ ¾ a sie¾ w latach dziewiećdziesi ¾ atych ¾ XX wieku. Choć w g÷ ównej mierze VaR funkcjonuje jako miara ryzyka …nansowego i rynkowego, to moz·na znaleźć jej zastosowania równiez· w ubezpieczeniach (patrz Dowd i Blake, 2006). Jej popularność zacze÷ ¾ a rosnać ¾ po kryzysie gie÷ dowym, który nastapi÷w ¾ 1987 roku. Nowa Umowa Kapita÷ owa Basel II opublikowana w 2004 uznaje VaR jako preferowana¾ miare¾ ryzyka rynkowego. Taleb (1997) i Hoppe (1998) oraz wielu innych naukowców krytykuje VaR jako koncepcje¾ zbyt naiwna¾ i zbyt trudna¾ w dok÷ adnej implementacji. S15 Sk÷ adka TVaR (wartości zagroz·onej na ogonie rozk÷ adu ): H (X) = FX 1 (p)+ 1 1 p E X zmiennej X. FX 1 (p) + , gdzie FX 1 jest uogólniona¾funkcja¾odwrotna¾do dystrybuanty TVaR, podobnie jak VaR, funkcjonuje g÷ ównie jako miara ryzyka. W dyrektywie Solvency II wydanej przez Unie¾ Europejska¾ w 2009 roku TVaR jest rekomendowana¾ miara¾ ryzyka …nansowego i ubezpieczeniowego. Analize¾ wiekszości ¾ z zaprezentowanych sk÷ adek moz·na znaleźć równiez· w monogra…ach: Bühlmann (1970), Gerber (1979), Goovaerts i inni (1984), Rolski i inni (1999). W miare¾ rozwoju matematyki …nansowej i ubezpieczeniowej, coraz waz·niejsza¾role¾ zacze÷ ¾y odgrywać miary ryzyka. Podobnie jak sk÷ adki ubezpieczeniowe, sa¾to funkcjona÷ y rzeczywiste zde…niowane na pewnej ustalonej przestrzeni zmiennych losowych. Powstaje wobec tego jest pytanie, jaka jest róz·nica pomiedzy ¾ sk÷ adkami ubezpieczeniowymi a miarami ryzyka? Odpowiedź na to pytanie zmienia÷ a sie¾ z czasem. Goovaerts i inni (2003) twierdza, ¾ z·e w pewnym sensie miary ryzyka stanowia¾ szersze pojecie ¾ od sk÷ adek ubezpieczeniowych, od których z regu÷ y wymaga sie, ¾ by by÷ y wyraz·one w wartościach pienie¾z·nych. Wobec tego np. EX) jest miara¾ ryzyka, ale nie jest sk÷ adka. ¾ Argumentuja¾ oni równiez·, z·e rodzina sk÷ adek ubezpieczeniowych zawiera w sobie klase¾ jednorodnych miar ryzyka. P (X Goovaerts i inni (2010 b) twierdza, ¾ z·e miary ryzyka sa¾ to funkcjona÷ y wyznaczone w oparciu o pewna¾ aksjomatyczna¾ charakteryzacje. ¾ Jej celem jest uwzglednienie ¾ poz·adanych ¾ 18 za÷ oz·eń, jakie ma spe÷ niać miara ryzyka i w÷ aściwe opisanie parametrów lub funkcji ja¾ de…niujacych. ¾ Miara ryzyka jest w÷ aściwa wtedy i tylko wtedy, gdy istnieja¾ aksjomaty ja¾ charakteryzujace. ¾ Aksjomatyczna charakteryzacja tych funkcjona÷ ów pozwala na sprawdzenie i uzasadnienie czy dana miara ryzyka jest odpowiednia w konkretnej sytuacji. Przy zaprezentowanym podejściu, sk÷ adka ubezpieczeniowa jest pojeciem ¾ pochodnym od miary ryzyka. Zasada wyznaczania sk÷ adek ubezpieczeniowych polega zwykle na rozwiazaniu ¾ jakiegoś zagadnienia optymalizacyjnego (np. minimalizacja ca÷ kowitego ryzyka mierzonego za pomoca¾ ustalonej wcześniej miary ryzyka lub wybór sk÷ adki na takim poziomie, aby prawdopodobieństwo ruiny by÷ o mniejsze od jakiejś liczby) lub oparta jest na zasadzie równowaz·ności (np. sk÷ adka zerowej uz·yteczności, sk÷ adka mean-value). Choć z matematycznego punktu widzenia zarówno miary ryzyka jak i sk÷ adki ubezpieczeniowe sa¾ funkcjona÷ ami rzeczywistymi zde…niowanymi na przestrzeni zmiennych losowych, to uzasadnienie i wyprowadzenie tych dwóch pojeć ¾ jest róz·ne. 3.2 W÷ asności sk÷ adek ubezpieczeniowych W tej cześci ¾ przedstawimy najwaz·niejsze w÷ asności sk÷ adek ubezpieczeniowych, które zbadamy w nastepnych ¾ dwóch rozdzia÷ ach dla nowych rodzajów sk÷ adek. Za÷ óz·my, z·e X, X1 , ..., Xn , Y sa¾ dowolnymi ca÷ kowalnymi zmiennymi losowymi takimi, z·e H (X), H (X1 ), ..., H (Xn ) i H (Y ) sa¾ skończone. P1 Niezmienniczość ze wzgledu ¾ na rozk÷ ad: sk÷ adka H (X) zalez·y jedynie od rozk÷ adu zmiennej losowej X. W÷ asność ta oznacza, z·e sk÷ adka nie zalez·y od sposobu, w jaki dojdzie do szkody, a wp÷ yw na jej wielkość ma jedynie wysokość ewentualnej szkody i prawdopodobieństwo, z jakim moz·e zajść. W szczególności, gdy X =d Y , to H (X) = H (Y ). P2 Monotoniczność: H (X) H (Y ), gdy X Y . Jez·eli strata X jest mniejsza badź ¾ równa od straty Y , to sk÷ adka H (X) nie powinna być wieksza ¾ od H (Y ). P3 Brak nieuzasadnionego ÷ adowania bezpieczeństwa: H (a) = a dla a 2 R. Gdy jesteśmy naraz·eni na pewne ryzyko w wysokości a, wówczas nie ma niepewności co do wielkości wyp÷ aty, a wiec ¾ pobrana sk÷ adka powinna być równa stracie. P4 Brak nadmiernego i zbyt ma÷ ego ÷ adowania bezpieczeństwa: inf X H (X) sup X. Rozsadnym ¾ jest, aby zebrana sk÷ adka by÷ a wieksza ¾ od minimalnej, ale jednocześnie mniejsza od maksymalnej straty. Jez·eli spe÷ nione sa¾ w÷ asności P1, P2 i P3, to w÷ asność P4 równiez· zachodzi. 19 P5 Zgodność (niezmienniczość ze wzgledu ¾ na translacje): ¾ H (X + b) = H (X)+b dla b 2 R. W÷ asność ta mówi, z·e sk÷ adka za ryzyko powiekszone ¾ o pewna¾ sta÷ a¾ wartość powinna być równa sk÷ adce za wyjściowe ryzyko powiekszonej ¾ o te¾ sama¾ wartość. Analize¾ zgodności dla wybranych sk÷ adek ubezpieczeniowych podaje Reich (1984 a). P6 Proporcjonalność (dodatnia jednorodność): H (aX) = aH (X) dla a 0. Z w÷ asności tej moz·emy wywnioskować, z·e sk÷ adka za ubezpieczenie sie¾ na wypadek ryzyka 2X powinna być dwa razy wieksza ¾ od sk÷ adki za ubezpieczenie sie¾ na wypadek ryzyka X. Przy za÷ oz·eniu o braku arbitraz·u moz·emy wyjaśnić zasadność tej w÷ asności. Gdyby sk÷ adka H (2X) by÷ a ponad dwukrotnie wieksza ¾ od H (X), wówczas decydent móg÷ by ubezpieczyć sie¾ dwukrotnie na wypadek ryzyka X u róz·nych ubezpieczycieli lub zakupić dwie róz·ne polisy u jednego sprzedawcy. Podobnie, gdyby H (2X) by÷ a mniej niz· dwukrotnie wieksza ¾ od H (X), to moz·na ubezpieczyć sie¾ na wypadek ryzyka 2X i sprzedać z osobna kaz·de z ubezpieczeń na wypadek ryzyka X, osiagaj ¾ ac ¾ w ten sposób arbitraz·owy zysk. Proporcjonalność nie jest jednak poz·adan ¾ a¾ w÷ asnościa, ¾ gdy ryzyko X jest duz·e i …rma ubezpieczeniowa lub rynek ubezpieczeniowy sa¾obcia¾z·one dodatkowymi kosztami w przypadkach ubezpieczania na wypadek ryzyka o duz·ej wartości. Wówczas nalez·y sie¾ spodziewać, z·e sk÷ adka H (2X) bedzie ¾ ponad dwukrotnie wieksza ¾ od H (X). W÷ asność proporcjonalności szczegó÷ owo analizowa÷ Reich (1984 b). P7 Addytywność dla zmiennych losowych komonotonicznych: H (X + Y ) = H (X) + H (Y ) dla komonotonicznych zmiennych losowych X i Y . De…nicja 3.1 Zmienne losowe X1 , ..., Xn nazywamy komonotonicznymi, gdy istnieje zmienna losowa Z oraz niemalejace ¾ funkcje v1 ; :::; vn : R ! R takie, ·ze wektory losowe (X1 ; :::; Xn ) i (v1 (Z) ; :::; vn (Z)) maja¾ten sam rozk÷ad. Poniz·sze twierdzenie podaje charakteryzacje¾ zmiennych losowych komonotonicznych. Twierdzenie 3.1 Za÷ó·zmy, ·ze Fi jest dystrybuanta¾ zmiennej losowej Xi dla i = 1; :::; n. Nastepuj ¾ ace ¾ warunki sa¾równowa·zne: (i) zmienne losowe X1 , ..., Xn sa¾komonotoniczne; (ii) P (X1 x1 ; :::; Xn xn ) = min fP (X1 (iii) wektory (X1 ; :::; Xn ) i 1 x1 ) ; :::; P (Xn 1 F1 (U ) ; :::; Fn (U ) maja¾ taki sam rozk÷ad, gdzie U jest zmienna¾losowa¾o rozk÷adzie jednostajnym na (0; 1). Dowód Twierdzenia 3.1 podaja¾ Dhaene i inni (2002a). 20 xn )g dla x1 ; :::; xn 2 R; Gdy zmienne losowe X i Y sa¾ komonotoniczne, to sa¾ nieujemnie skorelowane, a wiec ¾ nie ma w tym przypadku moz·liwości wzajemnej os÷ ony przed ryzykiem. Na rynku konkurencyjnym rozsadnym ¾ jest przyjmowanie za÷ oz·enia o addytywności sk÷ adki ubezpieczeniowej w celu unikniecia ¾ systematycznych okazji do arbitraz·u (patrz Venter, 1991). Jednakz·e addytywność sk÷ adki ubezpieczeniowej nie wyjaśnia efektu grupowania róz·nych klas ryzyka w celu zwiekszenia ¾ zysków badź ¾ zmniejszenia ÷ acznego ¾ ryzyka (ang. pooling), co jest istota¾ rynku ubezpieczeniowego (patrz Albrecht, 1992). Dlatego tez· postuluje sie¾ s÷ absza¾ form¾ e addytywności, obejmujac ¾ a¾ jedynie zmienne losowe komonotoniczne. Jez·eli X i Y sa¾ komonotonicznymi zmiennymi losowymi oraz Z = X + Y , to z powodu braku moz·liwości wzajemnej os÷ ony przed ryzykiem, sk÷ adka H (Z) powinna być niemniejsza od H (X)+H (Y ). Z drugiej strony, sk÷ adka H (Z) nie moz·e przekraczać H (X) + H (Y ), gdyz· w przeciwnym razie moz·na by by÷ o zakupić dwie osobne polisy ubezpieczeniowe. Praktyczne zastosowanie zmiennych losowych komonotonicznych w matematyce …nansowej i ubezpieczeniowej podaja¾ Dhaene i inni (2002 a, b) oraz Goovaerts i inni (2010 a). P8 Addytywność dla zmiennych losowych niezalez·nych: H (X + Y ) = H (X) + H (Y ) dla niezalez·nych zmiennych losowych X i Y . W÷ asność ta jest poz·adana ¾ na rynku ubezpieczeniowym i reasekuracyjnym, na co uwage¾ zwróci÷juz· Borch (1962). Uzasadnia on, z·e naturalnym jest wymaganie, by …rma ubezpieczeniowa otrzyma÷ a te¾ sama¾ sk÷ adk¾ e niezalez·nie od tego, czy zaakceptuje ona dwa róz·ne portfele osobno, czy w pojedynczej transakcji. W÷ asność addytywności sk÷ adki dla zmiennych losowych niezalez·nych bada÷ równiez· Gerber (1974 a, 1985). Goovaerts i inni (2004) podali aksjomatyzacje¾ sk÷ adek ubezpieczeniowych, które sa¾ addytywne dla zmiennych losowych niezalez·nych. P9 Subaddytywność: H (X + Y ) H (X) + H (Y ). Z jednej strony moz·na twierdzić, z·e jest to dobra w÷ asność sk÷ adki ubezpieczeniowej na rynku, w którym nie ma moz·liwości arbitraz·u. Gdyby bowiem suma sk÷ adek za ubezpieczenie sie¾ na wypadek ryzyka X i Y osobno by÷ a mniejsza badź ¾ równa od sk÷ adki za ubezpieczenie sie¾ na wypadek jednego duz·ego ryzyka, to bardziej op÷ acalnym by÷ oby zakupienie dwóch osobnych kontraktów ubezpieczeniowych. Z drugiej jednak strony przy braku arbitraz·u na rynku, za÷ oz·enie, z·e H (X + Y ) nie moz·e być mniejsze niz· H (X) + H (Y ) jest nieprawdziwe, gdyz· podmiot kupujacy ¾ kontrakt ubezpieczajacy ¾ na wypadek ryzyka X +Y nie moz·e go sprzedać w postaci dwóch osobnych kontraktów odpowiednio dla ryzyka X i Y . P10 Zachowanie pierwszego porzadku ¾ stochastycznego: H (X) X ST H (Y ), gdy Y. De…nicja 3.2 Mówimy, ·ze zmienna losowa X jest mniejsza od zmiennej losowej Y w 21 pierwszym porzadku ¾ stochastycznym, co oznaczamy X ST Y , gdy P (X t) P (Y t) dla wszystkich t 2 R. Poniz·sze twierdzenie charakteryzuje pierwszy porzadek ¾ stochastyczny. Twierdzenie 3.2 Nastepuj ¾ ace ¾ warunki sa¾równowa·zne: (i) X ST Y; (ii) Ev (X) istnieja;¾ Ev (Y ) dla dowolnej funkcji rosnacej ¾ v : R ! R takiej, ·ze Ev (X) i Ev (Y ) (iii) istnieje przestrze´n probabilistyczna ( 0 ; A0 ; P 0 ) i zmienne losowe X 0 , Y 0 okre´slone na tej przestrzeni takie, ·ze X =d X 0 i Y =d Y 0 oraz P 0 (X 0 Y 0 ) = 1. Dowód Twierdzenia 3.2 podaja¾ Goovaerts i inni (1990), Rolski i inni (1999) oraz Shaked i Shanthikumar (2007). Jez·eli spe÷ nione sa¾ w÷ asności P1 i P2, to zachodzi równiez· w÷ asność P10 (patrz Wang i inni, 1997). P11 Zachowanie porzadku ¾ stop-loss: H (X) H (Y ), gdy X SL Y. De…nicja 3.3 Mówimy, ·ze zmienna losowa X jest mniejsza od zmiennej losowej Y w porzadku ¾ stop-loss, co oznaczamy X SL Y , gdy E (X d)+ E (Y d)+ dla ka·zdego d 2 R. Poniz·sze twierdzenie podaje charakteryzacje¾ porzadku ¾ stop-loss. Twierdzenie 3.3 Nastepuj ¾ ace ¾ warunki sa¾równowa·zne: (i) X SL Y; (ii) Ew (X) Ew (Y ) dla dowolnej rosnacej ¾ i wypuk÷ej funkcji w : R ! R takiej, ·ze Ew (X) i Ew (Y ) istnieja;¾ (iii) istnieje przestrze´n probabilistyczna ( 0 ; A0 ; P 0 ) i zmienne losowe X 0 , Y 0 okre´slone na tej przestrzeni takie, ·ze X =d X 0 i Y =d Y 0 oraz P 0 (X 0 E (Y 0 jX 0 )) = 1; R1 R1 (iv) P (X > t) dt P (Y > t) dt dla ka·zdego x 2 R. x x Podamy teraz dwa twierdzenia, dzieki ¾ którym moz·na sprawdzić czy X SL Y . Twierdzenie 3.4 (kryterium jednego przeciecia ¾ dla dystrybuant) Je·zeli X i Y sa¾zmiennymi losowymi takimi, ·ze EX EY oraz istnieje x0 2 R takie, ·ze P (X x < x0 i P (X x) P (Y x) dla x > x0 , to X SL Y . 22 x) P (Y x) dla Twierdzenie 3.5 (kryterium dwóch przecie¾´c dla gesto ¾ ´sci) Je·zeli X i Y sa¾ zmiennymi losowymi o gesto ¾ ´sciach fX i fY takimi, ·ze EX EY oraz istnieja¾sta÷e x0 ; x1 2 R takie, ·ze fX (x) fY (x) dla x 2 ( 1; x0 ) [ (x1 ; 1) i fX (x) fY (y) dla x 2 (x0 ; x1 ), to X SL Y. Dowody Twierdzeń 3.3- 3.5 podaja¾ Goovaerts i inni (1990), Rolski i inni (1999) oraz Shaked i Shanthikumar (2007). Z zachowania porzadku ¾ stop-loss wynika w÷ asność P10 (patrz Rothschild i Stiglitz, 1970). W÷ asności P10 i P11 sa¾ uz·ywane w matematyce aktuarialnej, gdyz· pozwalaja¾ one na uporzadkowanie ¾ róz·nych grup decydentów (patrz Van Heervaarden, 1991, Kaas i inni, 1994). Hürlimann (1998) analizowa÷porzadek ¾ stop-loss dla sk÷ adki Wanga. P12 Warunek zysku netto: H (X) EX. Warunek ten jest poz·adany, ¾ a wrecz ¾ i niezbedny ¾ patrzac ¾ z punktu widzenia …rmy ubezpieczeniowej. W przeciwnym wypadku w d÷ uz·szej perspektywie czasu ubezpieczyciel średnio ponosi÷ by strate. ¾ P13 Iteracyjność: H (X) = H (H (XjY )) dla dowolnych zmiennych losowych X i Y , dla których sk÷ adki te istnieja. ¾ Wed÷ ug naszej wiedzy pojecie ¾ iteracyjności pojawia sie¾ po raz pierwszy w ksia¾z·ce Bühlmanna (1970), który wyjaśnia róz·nice¾ miedzy ¾ sk÷ adka¾indywidualna¾a sk÷ adka¾kolektywna. ¾ Za÷ óz·my, z·e H (X) jest sk÷ adka¾za ubezpieczenie sie¾ na wypadek ryzyka X. W celu wyznaczenia sk÷ adki indywidualnej, …rma ubezpieczeniowa bierze pod uwage¾ moz·liwie jak najwiecej ¾ cech opisujacych ¾ dane ryzyko i potencjalnego ubezpieczonego. Jez·eli parametr y opisujacy ¾ te cechy jest znany, wówczas H (Xjy) jest sk÷ adka¾ za ubezpieczenie sie¾ na wypadek ryzyka X o charakterystyce y. Z regu÷ y jednak ta specy…czna cecha y jest realizacja¾ pewnej zmiennej losowej Y . Wobec tego sk÷ adka kolektywna powinna być wyznaczona w dwóch krokach. Najpierw nalez·y wyznaczyć sk÷ adk¾ e H (XjY ), która jest pewna¾ zmienna¾ losowa¾ zalez·na¾ od Y , a nastepnie ¾ obliczyć H (H (XjY )). Poniewaz· sk÷ adka H (X) jest w wiekszości ¾ przypadków róz·na od H (H (XjY )), wiec ¾ powstaje pytanie przy jakich za÷ oz·eniach wspomniane dwie wartości sa¾ równe. Bühlmann (1970) i Gerber (1974 b) zauwaz·aja¾ analogie¾ pomiedzy ¾ iteracyjnościa, ¾ a metoda¾ wyznaczania sk÷ adek wiarygodności. Gerber (1974 b) dowodzi, z·e sk÷ adka ubezpieczeniowa, która spe÷ nia pewien warunek ciag÷ ¾ ości jest iteracyjna wtedy i tylko wtedy, gdy jest sk÷ adka¾ mean-value wyznaczona¾ przy w = 0. Uogólnienie wyniku Gerbera zosta÷ o podane przez Goovaertsa i de Vyldera (1979). Wykazuja¾ oni, z·e sk÷ adka szwajcarska jest iteracyjna wtedy i tylko wtedy, gdy redukuje sie¾ ona do sk÷ adki mean-value lub sk÷ adki zerowej uz·yteczności z liniowa¾ lub wyk÷ adnicza¾ funkcja¾ uz·yteczności. Gerber (1979) zauwaz·a równiez·, z·e jeśli S = X1 + ::: + XN jest suma¾ o losowej liczbie sk÷ adników, zaś sk÷ adka H (X) jest addytywna i iteracyjna, to H (S) = H (H (SjN )) = H (H (X) N ). Goovaerts i inni (2010 a) podaja¾ równiez· charakteryzacje¾ warunku iteracyjności dla pewnej klasy sk÷ adek ubezpieczeniowych. 23 4 Sk÷ adka mean-value w teorii skumulowanej perspektywy 4.1 De…nicja sk÷ adki Zde…niujemy sk÷ adk¾ e mean-value dostosowana¾ do teorii skumulowanej perspektywy. Za÷ óz·my, z·e X jest dowolna¾ zmienna¾ losowa¾ (w szczególności moz·e ona przyjmować wartości ujemne). Wówczas X moz·emy interpretować jako ca÷ kowita¾ szkode¾ ubezpieczonego pomniejszona¾ o ewentualny zysk z inwestycji. Umoz·liwia nam to analize¾ produktów ubezpieczeniowych uwzgledniaj ¾ acych ¾ moz·liwość inwestowania kapita÷ u, np. ubezpieczenia na z·ycie z funduszem inwestycyjnym czy tzw. renty zmienne (ang. variable annuity). W przypadku ubezpieczeń majatkowych ¾ uzasadnione jest badanie jedynie nieujemnych zmiennych losowych. Rozwaz·my klienta, który podejmuje decyzje w oparciu o punkt referencyjny w 2 R i chce zakupić polise¾ ubezpieczeniowa¾ wyp÷ acajac ¾ a¾ pienie¾z·na¾ równowartość losowej straty. W dalszej cześci ¾ wartości (X Gdy X 0, to (X w)+ bedziemy ¾ nazywali stratami, zaś (w w)+ oraz (w X)+ zyskami. X)+ oznaczaja¾ odpowiednio strate¾ katastro…czna¾ i niekatastro…czna.¾ W tym drugim przypadku wystepuje ¾ bezpośrednia analogia do sposobu reasekuracji stop-loss. Za÷ óz·my, z·e u1 ; u2 : R+ ! R+ sa¾ niemalejacymi ¾ funkcjami wartości, przy czym u1 mierzy zyski, zaś u2 straty. Niech g i h bed ¾ a¾ funkcjami zniekszta÷ cajacymi ¾ prawdopodobieństwa, odpowiednio, zysków i strat. Sk÷ adk¾ e mean-value H (X) w teorii skumulowanej perspektywy za ubezpieczenie sie¾ na wypadek ryzyka X w ujeciu ¾ teorii skumulowanej perspektywy de…niujemy jako rozwiazanie ¾ równania u1 (w H (X))+ u2 (H (X) w)+ = Eg u1 (w X)+ Eh u2 (X w)+ . (4.1) Zauwaz·my, z·e wzór (4.1) moz·emy zapisać w postaci u (w gdzie u (x) = u1 (x+ ) H (X)) = Egh u (w X) , (4.2) u2 ( x)+ jest niemalejac ¾ a¾ funkcja¾ wartości dla x 2 R . Gerber (1979) rozwaz·a sk÷ adk¾ e H (X) wyznaczona¾ze wzoru (4.2) przy za÷ oz·eniu, z·e funkcja wartości jest wkles÷ ¾ a, zaś prawdopodobieństwa nie sa¾ zniekszta÷ cane, tzn. g (p) = h (p) = p. a, zaś u jest W uogólnionym modelu, Luan (2001) zak÷ ada, z·e h = g, g jest wypuk÷ wkles÷ ¾ a. Van der Hoek i Sherris (2001) badaja¾ funkcjona÷H (X) z róz·nymi funkcjami 24 zniekszta÷ cajacymi ¾ prawdopodobieństwo dla zysków i strat. Jednakz·e analizuja¾ oni tylko przypadek, gdy funkcja wartości jest liniowa. Al-Nowaihi i inni (2008), dzieki ¾ rozwiazaniu ¾ pewnych równań funkcyjnych, podaja¾ charakteryzacje¾ jednorodności preferencji i awersji do ryzyka w ujeciu ¾ teorii skumulowanej perspektywy. W szczególności dowodza¾ oni, z·e w analizowanym przez nich przypadku funkcje zniekszta÷ cajace ¾ prawdopodobieństwo dla zysków i strat sa¾ jednakowe. Określimy teraz minimalne za÷ oz·enia dotyczace ¾ funkcji u, przy których sk÷ adka wyznaczona ze wzoru (4.2) istnieje i jest wyznaczona jednoznacznie. Powszechnie akceptowanym jest za÷ oz·enie, z·e funkcja u jest niemalejaca. ¾ Gdyby jednak u by÷ a sta÷ a na pewnym przedziale, to sk÷ adka mog÷ aby nie być wyznaczona jednoznacznie. Wobec tego zak÷ adamy, z·e u jest rosnaca. ¾ Okazuje sie, ¾ z·e u powinna być równiez· ciag÷ ¾ a. W przeciwnym przypadku równanie (4.2) moz·e nie mieć rozwiazań. ¾ Bez straty ogólności moz·emy za÷ oz·yć, z·e u (0) = 0. Zatem bedziemy ¾ rozwaz·ali ciag÷ ¾ e i rosnace ¾ funkcje u takie, z·e u (0) = 0. W dalszym ciagu ¾ bedziemy ¾ pisali u 2 U, gdy funkcja u spe÷ nia te trzy warunki. Oznaczamy równiez· u 2 U0 , jeśli u (x) = cx, u (x) = (1 e cx ) =d lub u (x) = (ecx pewnych c; d > 0. 4.2 1) =d dla x 2 R i Przyk÷ ady W poniz·szych dwóch przyk÷ adach wyznaczymy sk÷ adk¾ e H (X) w przypadku, gdy u 2 U0 . Przyk÷ ad 4.1 Je´sli u (x) = cx, to równanie (4.2) mo·zemy zapisa´c jako c (w H (X)) = cEgh (w 0 X) = c @w Ehg X + Zw [h (P (X > s)) 0 1 g (P (X > s))] dsA . Korzystajac ¾ z z (2.1), W2, W3 (patrz Lemat 2.1) mamy H (X) = Ehg X + Zw [g (P (X > s)) (4.3) h (P (X > s))] ds: 0 Przyk÷ ad 4.2 Dla u (x) = (1 1 e c(w H(X)) e = 1 + cx ) =d z (2.1) i W3, równanie (4.2) ma posta´c Eh e Z1 cw cX e h P e c(w X) 0 25 >s g P e c(w X) >s ds. Stad ¾ i z W2 mamy cH(X) e cw +e Z1 h P ecX > secw g P ecX > secw ds = Ehg ecX . 0 Zatem H (X) = 2 1 4 ln Eh ecX + c exp(cw) Z g P ecX > t 3 dt5 . h P ecX > t 0 W podobny sposób wyznaczamy wzór na H (X), gdy u (x) = (ecx (4.4) 1) =d. W kolejnych przyk÷ adach pokaz·emy, z·e przy pewnych za÷ oz·eniach sk÷ adka wyznaczona ze wzoru (4.2) redukuje sie¾ do sk÷ adek rozwaz·anych juz· w literaturze aktuarialnej. Przyk÷ ad 4.3 Niech u 2 U oraz g (x) = h (x) = x dla x 2 [0; 1]. Wtedy sk÷adka H (X) jest sk÷adka¾mean-value. W szczególno´sci, gdy u (x) = x, to z (4.3) mamy H (X) = Egh X = EX, a wiec ¾ otrzymana sk÷adka jest sk÷adka¾ netto. Je´sli za´s u (x) = 1 > 0, to z (4.4) mamy H (X) = 1 ln Ee X e x = dla pewnego , a wiec ¾ otrzymali´smy sk÷adke¾ wyk÷adnicza.¾ Przyk÷ ad 4.4 Gdy u (x) = x oraz g 2 G, h (x) = g (x) dla x 2 [0; 1], to H (X) = Ehg X = Eg X = Z0 (g (P (X > t)) 1) dt + 1 Z1 g (P (X > t)) dt, 0 a wiec ¾ otrzymana sk÷adka jest sk÷adka¾ Wanga. W szczególno´sci, gdy g (x) = xc , gdzie c 2 (0; 1) jest ustalone, to H (X) jest sk÷adka¾proporcjonalnego hazardu. Przyk÷ ad 4.5 Niech u (x) = x, g (x) = gdzie ( (1 ) x dla x 2 0; 12 (1 + ) x dla x 2 , 1 ;1 2 2 (0; 1) jest ustalone oraz h (x) = g (x) = ( (1 + ) x dla x 2 0; 12 + (1 26 ) x dla x 2 1 ;1 2 . Je´sli inf X sup X oraz M edX oznacza mediane¾ zmiennej X, to 0 sup Z X H (X) = Eg X = (1 + ) P (X > t) dt + + [(1 + ) P (X > t) min(0;M edX) = B P (X > t) dt + @ Z0 inf X 1] dt + min(0;M Z edX) [ + (1 sup Z X P (X > t) dt + 0 = EX + @ ) P (X > t) B t) dt + @ Z0 P (X > t) dt + min(0;M edX) sup Z X P (X > t) dt + M edX max(0;M Z edX) P (X 0 max(0;M edX) 0 P (X ) P (X > t)] dt inf X 0 sup Z X 0 [ + (1 0 max(0;M edX) Z0 max(0;M Z edX) M ZedX P (X inf X 1 min(0;M Z edX) P (X inf X t) dtA = EX + E jX 1] dt 1 C t) dtA 1 C t) dtA M edXj , a wiec ¾ otrzymana sk÷adka jest sk÷adka¾odchylenia przecietnego ¾ od mediany. Przyk÷ ad 4.6 Niech u (x) = x oraz g (x) = 1[ ;1] (x) oraz h (x) = g (x) = 1(1 ;1] (x), gdzie 2 (0; 1) jest ustalone. Wówczas Z1 Z0 H (X) = Ehg X = Eg X = g (P (X > t)) dt + (g (P (X > t)) 0 1 max(FX ( );0) = Z 1dt 1 min(sup Z X;0) 1dt min(FX 1 ( );0) max(inf X;0) = max FX 1 ( ) ; 0 + min FX 1 ( ) ; 0 = FX 1 ( ) Je·zeli inf X 0 1) dt max (inf X; 0) max (inf X; 0) min (sup X; 0) . sup X, to H (X) = FX 1 ( ), która jest sk÷adka¾VaR. Przyk÷ ad 4.7 Niech u (x) = x, g (x) = ( 0 dla x 2 [0; p) x p 1 p dla x 2 [p; 1] 27 , min (sup X; 0) gdzie p 2 (0; 1) jest ustalone oraz h (x) = g (x) = Za÷ó·zmy, ·ze inf X 0 1 F H (X) = Eg X = = 1 p sup Z X dla x 2 [0; 1 1 dla x 2 (1 P (X > t) dt + 1 p p] p; 1] . FZ 1 (p) 1dt 0 FX 1 (p) 1 x 1 p sup X. Wtedy (p) sup Z X ( P (X > t) dt + FX 1 (p) FX 1 (p) = FX 1 (p) + = FX 1 (p) + 1 1 p 1 1 p 1 E X : X > FX 1 (p) FX 1 (p) E X + 1 p FX 1 (p) P X > FX 1 (p) . Sk÷adka H (X) jest zatem sk÷adka¾TVaR. Przyk÷ ad 4.8 Niech u (x) = x. Za÷ó·zmy, ·ze g (x) = c + dx, h (x) = a + bx dla x 2 (0; 1), gdzie b; d 0, a; c 0, a + b 1 i c + d 1. Wówczas g i h sa¾neo-addytywnymi funkcjami wagowymi (patrz Wakker, 2010, str. 208). Je´sli inf X H (X) = sup Z X Zinf X [c + dP ( X > s)] ds [a + bP (X > s)] ds 0 + sup X, to z (4.3) mamy 0 0 w(X) Z [(1 a c d) + (d b) P (X > s)] ds 0 = (1 a c d) w (X) + (d b) w(X) Z P (X > s) ds (4.5) 0 +a sup X + c inf X + bEX+ dE ( X)+ , gdzie w (X) = min (max (inf X; w) ; sup X). Je·zeli c = 0, 0 d < 1, inf X = 0 oraz sup X = w, to H (X) = EX + (1 d) (sup X EX). Sk÷adke¾ tej postaci badali Ka÷uszka i Okolewski (2008). Je´sli w = 0, b = 1 H (X) = EX + a (sup X+ aid=1 EX+ ) 28 c, to z równania (4.5) otrzymujemy c sup ( X)+ E ( X)+ . Gdy inf X w sup X i b = d, to z (4.5) mamy H (X) = (1 4.3 W÷ asności a sk÷ adki c d) w + a sup X + c inf X + dEX. mean-value w teorii skumulowanej perspektywy W rozdziale tym zajmiemy sie¾ analiza¾ w÷ asności sk÷ adki ubezpieczeniowej H (X) bed ¾ acej ¾ rozwiazaniem ¾ równania (4.2). P1 Niezmienniczość ze wzgledu ¾ na rozk÷ ad. W÷ asność jest spe÷ niona dla wszystkich funkcji u 2 U i g; h 2 G, co wynika z de…nicji uogólnionej ca÷ ki Choqueta oraz wzoru (4.2). P2 Monotoniczność. W÷ asność ta jest spe÷ niona dla wszystkich funkcji u 2 U i g; h 2 G, co jest konsekwencja¾ W4 i W7. P3 Brak nieuzasadnionego ÷ adowania bezpieczeństwa. Z W7 wynika, z·e warunek ten zachodzi dla wszystkich funkcji u 2 U i g; h 2 G. P4 Brak zbyt ma÷ ego i nadmiernego ÷ adowania bezpieczeństwa. W÷ asność ta jest spe÷ niona dla wszystkich funkcji u 2 U i g; h 2 G, poniewaz· zachodza¾ w÷ asności P1, P2 i P3. P5 Zgodność. Twierdzenie 4.1 Niech u 2 U0 i g; h 2 G. Wtedy H (X) jest zgodna wtedy i tylko wtedy, gdy h = g. Dowód Niech u (x) = cx. Z (4.3) i W8 mamy H (X + b) = Ehg X + b + Zb [h (P ( X > s)) g (P ( X > s))] ds 0 + Zw [g (P (X > s 0 29 b)) h (P (X > s b))] ds. Stad ¾ H (X + b) = H (X) + b dla b 2 R wtedy i tylko wtedy, gdy Zb [h (P ( X > s)) Zw [g (P (X > s)) (4.6) g (P ( X > s))] ds 0 = g (P (X > s b)) (h (P (X > s)) h (P (X > s b)))] ds. 0 Oczywiście, jeśli h = g, to H (X) jest zgodna. Za÷ óz·my teraz, z·e h (z) 6= g (z) dla pewnego z. Niech b > w 0, zaś X bedzie ¾ zmienna¾ losowa¾ taka, ¾ z·e P (X = s0 ) = z = 1 w < s0 < b. Wówczas równanie (4.6) moz·emy zapisać jako gdzie b [h (z) g (z)] s0 = w Z P (X = 0), b [h (1 z) g (1 z)] dt = (h (1 z) g (1 b + s0 ) . z)) (w s0 Poniewaz· (h (z) g (z)) s0 6= 0, otrzymujemy sprzeczność z tym, z·e b jest dowolne, takie z·e max (s0 ; w) < b < s0 + w. Dla w < 0 niech b < w, zaś X bedzie ¾ zmienna¾ losowa¾ taka,¾ z·e P (X = s0 ) = z = 1 P (X = 0), gdzie 0 < w b < s0 < b. Wtedy (4.6) moz·emy zapisać jako s0 (g (1 z) h (1 z)) = (s0 w + b) (h (z) g (z)) , co przeczy temu, z·e b jest dowolne, takie z·e w s0 < b < min ( s0 ; w). Niech u (x) = (1 e cx ) =a. Z (4.4) przy b > w 0 mamy H (X + b) = 2 1 4 ln Eh ecX + c exp(c(w Z b)) g P ecX > s h P ecX > s 0 3 ds5 + b. (4.7) Jeśli h = g, to H (X + b) = H (X) + b dla wszystkich b 2 R. Za÷ óz·my, z·e g (z) 6= h (z) dla pewnego z. Niech X bedzie ¾ takie, z·e P (X = s0 ) = 1 z = 1 P (X = 0), gdzie b < 0. Wtedy s0 < w exp(c(w Z b)) g P ecX > s h P ecX > s ds = (g (z) h (z)) ecs0 ec(w b) 6= 0 0 oraz z (4.7) i (4.4) wynika, z·e H (X) nie jest zgodna. przeprowadzić w przypadku, gdy u (x) = (ecx 1) =d. 30 Analogiczny dowód moz·na Twierdzenie 4.2 Niech u 2 U0 , g; h 2 G i b 0. Wówczas H (X + b) = H (X) + b dla nieujemnych zmiennych losowych X wtedy i tylko wtedy, gdy h = g lub w Dowód Poniewaz· P (X > t) = 1 dla t < 0 i g (1) = h (1) = 1, wiec ¾ dla b Zw [g (P (X > s b)) h (P (X > s b b))] ds = w Z b = w Z 0 [g (P (X > t)) 0. 0 mamy h (P (X > t))] dt b [g (P (X > t)) h (P (X > t))] dt. 0 Zauwaz·my, z·e Ehg (X + b) = Ehg X + b, poniewaz· X + b wynika, z·e H (X + b) = H (X) + b + Zw 0. Zatem dla u (x) = cx z (4.3) [h (P (X > s)) g (P (X > s))] ds. (4.8) (w b)+ Z (4.8) wnioskujemy, z·e jeśli w óz·my, z·e w > 0 i 0 lub g = h, to H (X + b) = H (X)+b. Za÷ g (z) 6= h (z) dla pewnego z. Niech b > w i X bed ¾ a¾takie, z·e P (X = s0 ) = z = 1 P (X = 0), gdzie 0 < s0 < w. Wtedy Zw [h (P (X > s)) g (P (X > s))] ds = s0 (h (z) g (z)) 6= 0, (w b)+ co oznacza, z·e H (X) nie jest zgodna. Gdy u (x) = (1 e cx ) =d, to z (4.4) i (4.7) dla b > 0 mamy H (X + b) = Jeśli w 2 1 6 ln 4Eh ecX + c ec(w Z b) g P ecX > s h P ecX > s 0 0 lub g = h, to H (X) jest zgodna, poniewaz· ec(w b) < 1 dla b 3 7 ds5 + b. 0 oraz ecX 1. Niech w > 0 i g (z) 6= h (z) dla jakiegoś z. Dla zmiennej losowej X takiej, z·e P (X = s0 ) = z = 1 P (X = 0), gdzie 0 < s0 < w b, otrzymujemy ec(w Z b) g P ecX > s h P ecX > s 0 31 ds = (ecs0 1) (g (z) h (z)) 6= 0, co oznacza, z·e H (X) nie jest zgodna. Analogiczny dowód przeprowadzamy, gdy u (x) = (ecx 1) =d. Twierdzenie 4.3 Niech u 2 U i g; h 2 G bed ¾ a¾ ciag÷ ¾ e. Je´sli H (X + b) = H (X) + b dla b 0 oraz dla w = 0 i pewnego w > 0, to u 2 U0 i h = g. Dowód Za÷ óz·my, z·e H (X + b) = H (X) + b dla wszystkich b Wtedy z (4.2) przy w = 0 mamy 0. Rozwaz·my X 2 X2 . Eh ( u ( X))+ = u ( s) h (q) . u ( H (X)) = Egh u ( X) = Stad ¾ u ( H (X)) . u ( s) h (q) = (4.9) Poniewaz· H (X) = 0 dla q = 0 oraz H (X) = s dla q = 1, wiec ¾ z monotoniczności i ciag÷ ¾ ości u i h wynika, z·e H (X) jest ciag÷ ¾ a¾ i niemalejac ¾ a¾ funkcja¾ zmiennej q, a zatem przyjmuje wszystkie wartości ze zbioru [0; s]. Ze zgodności H (X), równanie (4.2) dla zmiennej X + b moz·emy zapisać w postaci u ( H (X) b) = Egh u ( X b) = = u ( b) (1 Eh ( u ( X h (q)) + u ( s Wstawiajac ¾ (4.9) do (4.10), oznaczajac ¾ x = H (X), y = b))+ (4.10) b) h (q) . b i dzielac ¾ obie strony otrzymanego równania przez u (x) u ( s) otrzymujemy f (x; y) = f ( s; y) dla wszystkich y 0, s > 0 oraz s x 0, gdzie f (x; y) = (u (x + y) (4.11) u (y)) =u (x). K÷ adac ¾ s = 1 w (4.11) mamy f (x; y) = f ( 1; y) dla y 0, 1 x 0. Wstawiajac ¾ x= 1 do (4.11) dostajemy f ( s; y) = f ( 1; y) dla y 0i s (4.12) 1. Z (4.12) i (4.13) mamy f (x; y) = f ( 1; y) dla x; y (4.13) 0. Stad ¾ dla ustalonego y mamy u (x + y) = c (y) u (x) + u (y) 32 (4.14) dla x 0, gdzie c (y) jest pewna¾ funkcja. ¾ Z symetrii wystepuj ¾ acej ¾ w równaniu (4.14) otrzymujemy c (y) u (x) + u (y) = c (x) u (y) + u (x) dla x; y 0, co jest równowaz·ne temu, z·e (c (y) dla x; y 1) u (x) = (c (x) (4.15) 1) u (y) 0. Jez·eli c (y) 6= 1 dla y < 0, to u (x) u (y) = c (x) 1 c (y) 1 dla x; y 0. Stad ¾ u (x) = d (c (x) z·e 1) dla pewnego d 2 Rn f0g, a wiec ¾ z (4.14) dostajemy, (4.16) c (x + y) = c (x) c (y) dla x; y 0. Poniewaz· u (x) = d (c (x) 1) oraz u 2 U, wiec ¾ funkcja c jest ciag÷ ¾ a. Wobec tego jedynym rozwiazaniem ¾ równania (4.16) jest c (x) = eax dla x 0 i pewnego a 2 R (patrz Kuczma, 2009, str. 349). Stad ¾ funkcja u ma postać u (x) = d (eax 1) dla x < 0 i pewnych a 2 R i d 2 Rn f0g. Poniewaz· u jest funkcja¾rosnac ¾ a, ¾ wiec ¾ jedynymi rozwiazaniami ¾ równania (4.14) sa¾ funkcje u (x) = (eax 1) =d dla x 0 i pewnych a; d > 0 oraz u (x) = (1 e ax ) =d dla x < 0 i pewnych a; d > 0. Jeśli c (y) = 1 dla jakiegoś y, to z równania (4.15) wynika, z·e c (x) = 1 dla x 0. Z (4.14) i ciag÷ ¾ ości funkcji u wnioskujemy, z·e u (x) = ax dla wszystkich x 0. Udowodnimy, z·e u jest liniowa lub wyk÷ adnicza na R oraz h = g. Zapisujac ¾ równanie (4.2) dla X 2 X2 i korzystajac ¾ ze zgodności H (X) mamy u (w o ile b w b) = u (w b) g (1 q) + u (w s b) h (q) (4.17) b + s oraz u (w dla b H (X) H (X) b) = u (w b) (1 h (q)) + u (w s b) h (q) (4.18) w. Niech u (x) = cx dla x < 0. Gdy b > w, to z (4.18) mamy H (X) = sh (q). Dla q0 2 (0; 1) takiego, z·e h (q0 ) = 1=2, s = 2 (w b) oraz H (X) = sh (q0 ), z równania (4.17) otrzymujemy u (x) = c1 x dla x > 0, gdzie c1 = c= (2g (1 q0 )). K÷ adac ¾ s=w b w (4.17), dostajemy g = h oraz c1 = c. Niech teraz u (x) = (1 33 e cx ) =a dla x < 0. Z (4.18) mamy H (X) = 1 c ln (ecs h (q) + (1 h (q))). Wstawiajac ¾ s = ln 2ec(w wzór na H (X) z q0 do równania (4.17), otrzymujemy u (x) = (1 e cx b) 1 =c oraz ) =a1 dla x > 0, q0 ). Aby udowodnić, z·e u (x) = (1 e cx ) =a dla x 0 i h = g, wykorzystujemy podobne rozumowanie jak w przypadku funkcji liniowej. Analogiczny dowód gdzie a1 = 2ag (1 przeprowadza sie¾ dla u (x) = (ecx 1) =a. Uwaga 4.1 W za÷o·zeniach Twierdzenia 4.3 wystarczy sprawdzi´c zgodno´s´c sk÷adki jedynie dla b 0, aby wywnioskowa´c, ·ze funkcja warto´sci jest liniowa lub wyk÷adnicza na R oraz prawdopodobie´nstwa zysków i strat sa¾zniekszta÷cane w ten sam sposób. P6 Proporcjonalność. Twierdzenie 4.4 Niech u 2 U i g; h 2 G. (i) Niech u (x) = cx dla pewnego c > 0. Je´sli w = 0 lub h = g, to H (aX) = aH (X) dla wszystkich a > 0. (ii) Niech h bedzie ¾ ciag÷ ¾ a. Je´sli X u (x) = d c ( x) dla x 0 oraz H (X) jest proporcjonalna dla w = 0, to 0 i pewnego c; d > 0. (iii) Niech g; h bed ¾ a¾ ciag÷ ¾ e. Je´sli H (X) jest proporcjonalna dla w = 0 i wszystkich X, to u (x) = c ( x)d dla x 0 i pewnych c; d > 0 oraz u (x) = axb dla x > 0 i pewnych a; b > 0. (iv) Je´sli h jest ciag÷ ¾ a i H (X) jest proporcjonalna dla wszystkich w 0, to u (x) = cx dla pewnego c > 0 i wszystkich x 2 R oraz g = h. Dowód (i) Jez·eli u (x) = cx, to z (4.3) dla a > 0 mamy H (aX) = Ehg (aX) + Zw = aEhg X + a Zw=a [g (P (X > s=a)) h (P (X > s=a))] ds 0 [g (P (X > s)) h (P (X > s))] ds. 0 Gdy w = 0 lub h = g, to H (X) jest proporcjonalna. (ii) Za÷ óz·my, z·e H (aX) = aH (X). Dla X 2 X2 z (4.2) przy w = 0 dostajemy u ( ay) = h (q) u ( as) dla wszystkich a > 0, gdzie y = H (X). K÷ adac ¾ f (x) = 34 (4.19) u ( x) i wyznaczajac ¾ h (q) z (4.19) przy a = 1, moz·emy zapisać równanie (4.19) w postaci f (ay) = f (as) dla wszystkich s > 0 i 0 y f (y) f (s) (4.20) s. Wstawiajac ¾ s = 1 do (4.20) i dzielac ¾ obie strony tego równania przez u ( 1), otrzymujemy z (ay) = z (a) z (y) dla 0 y 1 i a > 0, gdzie z (x) = f (x) = ( u ( 1)). K÷ adac ¾ y = 1 w (4.20), mamy z (a) z (s) = z (as) dla s 1 i a > 0. Z ostatnich dwóch równań wynika, z·e z (ax) = z (a) z (x) dla x > 0 i a > 0. Z ciag÷ ¾ ości funkcji z dostajemy z (x) = xd dla wszystkich x 349). Stad ¾ u (x) = 0 i pewnego d > 0 (patrz Kuczma, 2009, str. c ( x)d dla wszystkich x 0 oraz pewnych c = u ( 1) > 0 i d > 0. (iii) Wzór na u (x) dla x 0 wynika z (ii). Za÷ óz·my, z·e H (aX) = aH (X). Niech X bedzie ¾ zmienna¾losowa¾taka, ¾ z·e P (X = s) = q = 1 P (X = 0), gdzie s > 0 i q 2 [0; 1] sa¾dowolne. Z (4.2) przy w = 0 mamy (4.21) u (ay) = g (q) u (as) dla wszystkich a > 0, gdzie y = H (X). Wyznaczajac ¾ g (q) z (4.21) przy a = 1 i wstawiajac ¾ otrzymane wyraz·enie do (4.21), ponownie otrzymujemy równanie (4.20) z f (x) = u (x). Stad ¾ u (x) = axb dla x 0 i pewnych a; b > 0. (iv) Z proporcjonalności H (X) i z (4.2) mamy u (w gdy a aH (X)) = u (w) g (1 q) + u (w as) h (q) , (4.22) w=s oraz u (w aH (X)) = u (w) g (1 q) + u (w as) (1 g (1 q)) , (4.23) jeśli 0 a < w=s. K÷ adac ¾ as = 2w w (4.22) i wybierajac ¾ q0 2 [0; 1] takie, z·e H (X) = s=2, z (ii) wynika, z·e u (w) = cwd h (q0 ) = (1 g (q0 )). Stad ¾ u (x) = c1 xd dla x 0 i pewnego c1 > 0. Wstawiajac ¾ otrzymana¾funkcje¾ do (4.23), róz·niczkujac ¾ obie strony równania (4.23) ze wzgledu ¾ na a i k÷ adac ¾ a = 0, otrzymujemy H (X) = sg (q). Jeśli podstawimy H (X) = sg (q), a = 1 oraz w = s do (4.23), to otrzymamy (1 g (q))d = (1 g (q)). Stad ¾ d = 1. K÷ adac ¾ w = 0 do (4.22) mamy H (X) = sh (q). Poniewaz· H (X) = sg (q), wiec ¾ g = h. Z faktu, z·e c1 = ch (q0 ) = (1 g (q0 )) i h (q0 ) = 1=2, dostajemy ostatecznie, z·e c = c1 . 35 P7 Addytywność dla zmiennych losowych komonotonicznych. Twierdzenie 4.5 (i) Niech u (x) = cx. Je´sli h = g 2 G, to H (X) jest addytywna dla zmiennych losowych komonotonicznych. (ii) Je·zeli u 2 U, g; h 2 G, h jest ciag÷ ¾ a i H (X), która jest wyznaczona ze wzoru (4.2), jest addytywna dla zmiennych losowych komonotonicznych dla wszystkich w 0, to u (x) = cx oraz h = g. Dowód (i) Niech u (x) = cx. Gdy h = g, to H (X) = Eg X i z addytywności ca÷ ki Choqueta dla zmiennych losowych komonotonicznych otrzymujemy teze. ¾ (ii) Jez·eli sk÷ adka H (X) jest addytywna dla zmiennych losowych komonotonicznych, to jest proporcjonalna. Z twierdzenia 5.1 wynika, z·e u (x) = cx i h = g. P8 Addytywność dla zmiennych losowych niezalez·nych. Twierdzenie 4.6 (i) Je·zeli g (p) = h (p) = p i u 2 U, to sk÷adka H (X) jest addytywna dla zmiennych losowych niezale·znych wtedy i tylko wtedy, gdy u 2 U0 . (ii) Niech u 2 U0 , g; h 2 G bed ¾ a¾ takie, ·ze h (0+) = 0, h (1 ) = 1 oraz istnieje lewostronna pochodna funkcji h w x = 0. Je·zeli funkcjona÷H (X) jest addytywny dla zmiennych losowych niezale·znych dla w = 0 i pewnego w > 0, to g (p) = h (p) = p. Zauwaz·my, z·e w Twierdzeniu 4.6 nie przyjmujemy dodatkowych za÷ oz·eń o funkcji g. Ponadto, z (ii) wynika, z·e w praktyce wystarczy sprawdzić addytywność dla zmiennych losowych niezalez·nych dla dwóch wartości w, aby otrzymać, z·e prawdopodobieństwa nie sa¾ zniekszta÷ cane. W dowodzie Twierdzenia 4.6 bedziemy ¾ korzystali z nastepuj ¾ acego ¾ lematu. Lemat 4.1 Je·zeli dziedzina¾funkcji u jest 0; 12 , to rozwiazaniem ¾ równania u (2x) = 2u (x) (4.24) jest funkcja u (x) = xh (ln x), gdzie h jest funkcja¾okresowa¾o okresie ln 2 oraz 0 h ( 1) = 0. Je´sli za÷o·zymy dodatkowo, ·ze u ma pochodna¾ prawostronna¾ w punkcie x = 0 (dopuszczamy przypadek u+ (0) = 1), to jedynym rozwiazaniem ¾ jest u (x) = cx dla pewnego c > 0. Dowód K÷ adac ¾ x = 0 w (4.24) mamy u (0) = 0. Niech u bedzie ¾ rozwiazaniem ¾ równania (4.24). ×atwo sprawdzić, z·e h (t) = e t u (et ) jest funkcja¾ okresowa¾ o okresie ln 2. K÷ adac ¾ 36 x = et mamy u (x) = xh (ln x) dla x > 0, gdzie h jest dowolna¾ funkcja¾ okresowa¾ o okresie ln 2. Poniewaz· u ma pochodna¾ prawostronna¾ w x = 0 oraz u0 (0) = lim+ x!0 u (x) = lim+ h (ln x) , x!0 x wiec ¾ h jest sta÷ a jako funkcja okresowa, która ma granice¾ w 1. Uwaga 4.2 Lemat 4.1 jest uogólnieniem wyniku w pracy Laxa (2008), w której równanie (4.24) jest rozwiazywane ¾ przy za÷o·zeniu, ·ze pochodna (obustronna) funkcji u w x = 0 jest sko´nczona. Dowód Twierdzenia 4.6 (i) Dowód przeprowadzimy w oparciu o pomys÷Gerbera (1979). Niech X bedzie ¾ dowolna¾zmienna¾losowa, ¾ zaś Y bedzie ¾ sta÷ a, tzn. P (Y = d) = 1 dla pewnego d > 0. Poniewaz· H (X) spe÷ nia warunek braku nieuzasadnionego ÷ adowania bezpieczeństwa, wiec ¾ z addytywności dla zmiennych losowych niezalez·nych wynika, z·e H (X) jest zgodna. Z Twierdzenia 4.3 wynika, z·e u 2 U0 . (ii) Niech u (x) = cx i w = 0. Za÷ óz·my, z·e H (X) jest addytywna dla zmiennych losowych niezalez·nych. Niech X; Y 2 X2 bed ¾ a¾ niezalez·nymi zmiennymi losowymi takimi, z·e P (X = 1) = p, P (Y = 1) = q. Wtedy H (X) = h (p) , H (Y ) = h (q) , H (X + Y ) = h (p + q (4.25) pq) + h (pq) . (4.26) Poniewaz· H (X) jest addytywna dla zmiennych losowych niezalez·nych, wiec ¾ z (4.25) i (4.26) wynika, z·e h (p + q dla wszystkich 0 1. Po÷ óz·my q = c p; q (4.27) pq) + h (pq) = h (p) + h (q) p, gdzie 0 c 1. Niech (pn )n2N bedzie ¾ c 2 ciagiem ¾ takim, z·e p0 = oraz pn+1 = pn (c pn ). Wtedy (pn )n2N jest ciagiem ¾ generowanym przez odwzorowanie logistyczne (patrz Polyanin i Manzhirov, 2007, str. 875). Z (4.27) we mamy h (c pn ) + h (pn ) = ::: = 2h (c=2) . pn+1 ) + h (pn+1 ) = h (c Poniewaz· pn+1 =c = c pn =c (1 pn =c), gdzie c pn n!1 c 1, wiec ¾ lim (4.28) = 0. Stad ¾ lim pn = 0. n!1 Funkcja h jest prawostronnie ciag÷ ¾ a w x = 0 i lewostronnie ciag÷ ¾ a w x = 1, a wiec ¾ przechodzac ¾ w granicy z n ! 1 w (4.28) otrzymujemy h (c) = 2h (c=2) dla wszystkich 0 0 c 1. Poniewaz· h ma prawostronna¾ pochodna¾ w x = 0 (dopuszczamy moz·liwość, z·e h (0) = 1), 37 wiec ¾ z Lematu 4.1 wynika, z·e h (p) = p. Wykaz·emy teraz, z·e g (p) = p. Niech w > 0 bedzie ¾ takie, z·e sk÷ adka H (X) jest addytywna dla zmiennych losowych niezalez·nych. Niech X, Y bed ¾ a¾ niezalez·nymi zmiennymi losowymi takimi, z·e P (X = 2w=3) = 1, P (Y = 2w=3) = q = 1 P (Y = 0). Wtedy dla h (x) = x z (4.3) dostajemy 2 2 H (X) = w, H (Y ) = qw + 3 3 Zw q] 1[0;2w=3] (s) ds, (4.29) q] 1[2w=3;4w=3] (s) ds. (4.30) [g (q) 0 2 H (X + Y ) = w (1 + q) + 3 Zw [g (q) 0 Z (4.29), (4.30) i addytywności H (X) dla zmiennych losowych niezalez·nych mamy Zw [g (q) q] 1[0;2w=3] (s) ds = 0 Stad ¾ 2w (g (q) Zw [g (q) q] 1[2w=3;4w=3] (s) ds. 0 q). Zatem g (q) = q i ostatecznie g (q) = q. q) = w (g (q) Niech teraz u (x) = (1 cx e ) =d oraz X , Y 2 X2 bed ¾ a¾niezalez·nymi zmiennymi losowymi takimi, z·e P (X = s) = p, P (Y = s) = q. Z (4.4) przy w = 0 dostajemy H (X) = 1 ln [1 c h (p) + h (p) ecs ] , H (Y ) = H (X + Y ) = 1 ln 1 c h (p + q 1 ln [1 c pq) + ecs (h (p + q pq) h (q) + h (q) ecs ] , h (pq)) + h (pq) e2cs . Z addytywności H (X) dla zmiennych losowych niezalez·nych mamy (1 = 1 h (p)) (1 h (p + q h (q)) + ecs (h (p) + h (q) pq) + ecs (h (p + q pq) 2h (p) h (q)) + e2cs h (p) h (q) h (pq)) + h (pq) e2cs . Otrzymaliśmy równość dwóch wielomianów zmiennej ecs . Porównujac ¾ wspó÷ czynniki tych wielomianów dostajemy (4.27). Zatem h (x) = x. Niech w > 0 bedzie ¾ takie, z·e H (X) jest addytywna dla zmiennych losowych niezalez·nych. Dla p = 1 mamy H (X) = s, H (Y ) = 2 1 4 ln 1 c q + qecs Zecw [q 0 38 3 g (q)] 1[0;ecs ] (t) dt5 , (4.31) H (X + Y ) = 2 1 4 cs ln e (1 c 3 Zecw [q q) + e2cs q g (q)] 1[ecs ;e2cs ] (t) dt5 . 0 (4.32) Z (4.31), (4.32) i addytywności dla zmiennych losowych niezalez·nych wynika, z·e Zecw [q 0 Zecw g (q)] 1[0;ecs ] (t) dt = [q g (q)] 1[ecs ;e2cs ] (t) dt. 0 Stad ¾ g (q) = q i ostatecznie g (q) = q. Analogiczny dowód moz·na przeprowadzić dla u (x) = (ecx 1) =d. P9 Subaddytywność. Twierdzenie 4.7 Niech u (x) = cx dla pewnego c > 0 i h = g, gdzie g 2 G. Wówczas sk÷adka H (X) jest subaddytywna wtedy i tylko wtedy, gdy g jest wypuk÷a. Dowód Niech u (x) = cx. Z (4.3) mamy wówczas, z·e H (X) = Eg X. Za÷ óz·my, z·e g jest wypuk÷ a. Wiadomo, z·e Eg (X + Y ) Eg X + Eg Y wtedy i tylko wtedy, gdy g jest wkles÷ ¾ a (patrz Denneberg, 1994). Zatem dla g, która jest wkles÷ ¾ a, mamy H (X + Y ) = Eg (X + Y ) Eg X + Eg Y = H (X) + H (Y ) . (4.33) Za÷ óz·my teraz, z·e H (X) jest subaddytywna. Wtedy spe÷ niona jest nierówność (4.33), a wiec ¾ g jest wkles÷ ¾ a. P10 Zachowanie pierwszego porzadku ¾ stochastycznego W÷ asność ta jest spe÷ niona dla wszystkich funkcji u 2 U i g; h 2 G, poniewaz· zachodza¾ w÷ asności P1 i P2. P11 Zachowanie porzadku ¾ stop-loss. Twierdzenie 4.8 Je·zeli u 2 U jest wkles÷ ¾ a, g; h 2 G sa¾ takie, ·ze g = h, g jest wypuk÷a i X SL Y , to H (X) H (Y ). Dowód Niech g = h i X Eg [u (w X)] Eg [u (w SL Y . Wtedy Eg [ u (w X)] Y )], poniewaz· Eg [ u (X)] = Eg [ u (w Eg [u (X)]. Z de…nicji H (X) mamy u (w H (Y )) = Eg [u (w Y )] Eg [u (w 39 Y )]. Stad ¾ X)] = u (w H (X)) . Z monotoniczności u dostajemy H (Y ) H (X). P12 Warunek zysku netto. W ogólności warunek zysku netto jest spe÷ niony, jez·eli EX w u 1 (Egh u (w X)) . (4.34) Poniewaz· wyznaczenie prawej strony nierówności (4.34) jest z regu÷ y trudne, wiec ¾ podajemy warunki wystarczajace, ¾ kiedy warunek zysku netto jest spe÷ niony. Twierdzenie 4.9 Je´sli u 2 U jest wkles÷ ¾ a, w dla 0 x 1, to H (X) EX. 0 i g; h 2 G sa¾ takie, ·ze g (x) h (x) x Dowód Z W9 mamy u (w H (X)) = Egh (u (w X)) u (Egh (w X)) . Stad, ¾ z W3 i (2.1) otrzymujemy H (X) Ehg X + Zw [g (P (X > s)) h (P (X > s))] ds. 0 Poniewaz· g (x) h (x) x, z W5 wynika, z·e H (X) Ehg X EX. Twierdzenie 4.10 Za÷ó·zmy, ·ze u 2 U, g; h 2 G, za´s X jest nieujemna,¾ ograniczona¾ zmienna¾ losowa¾ taka,¾ ·ze 0 w < s = sup X. Wtedy warunek H (X) EX zachodzi, je´sli E (X) w u 1 [g (P (X < w)) u (w) + h (P (X = s)) u (w s)] . Gdy P (X 2 f0; w; sg) = 1, to nierówno´s´c (4.35) jest równowa·zna temu, ·ze H (X) Dowód Po÷ óz·my Y = 0, gdy X < w, Y = w, jeśli w Poniewaz· Y H (X)) = Egh u (w X) Egh u (w Y) = g (P (X < w)) u (w) + h (P (X = s)) u (w Stad ¾ i z (4.35) wynika, z·e H (X) EX. 40 EX. X < s oraz Y = s , gdy X = s. X, wiec ¾ z W4 mamy u (w (4.35) s) . Twierdzenie 4.11 Za÷ó·zmy, ·ze u 2 U, g 2 G, X je´sli EX w u 1 0 oraz w 0. Wtedy H (X) (u (w) g (P (X < w))) . EX, (4.36) Je·zeli P (X = 0) + P (X = w) = 1, to nierówno´s´c (4.36) jest równowa·zna warunkowi H (X) EX. Dowód Po÷ óz·my Y = 0 , gdy X < w oraz Y = w, jeśli X w. Wówczas X = Y wtedy i tylko wtedy, gdy P (X = 0) + P (X = w) = 1. Poniewaz· Y X, to z W4 mamy u (w H (X)) = Egh u (w X) Eg u (w Y) = g (P (X < w)) u (w) . Stad ¾ i z (4.36) mamy H (X) Przyk÷ ad 4.9 Dla E (X). wybranych funkcji warto´sci i funkcji zniekszta÷cajacych ¾ prawdopodobie´nstwo mo·zemy w sposób bezpo´sredni sprawdzi´c czy warunek zysku netto zachodzi. Niech u (x) = x, g (p) = p + 1 (p p2 ) i h (p) = p + 2 (p p2 ), gdzie j 1j ; j 2j g (p) 1. Je´sli 0, to g jest wypuk÷a, za´s dla 1 h (p) = p (1 H (X) = Z1 p) ( + 1 2 ). [P (X > s) + 0 funkcja g jest wkles÷ ¾ a. Ponadto 1 Z (4.3) mamy 2P (X > s) P (X s)] ds 0 ( 1 + 2) Zw P (X > s) P (X s) ds 0 Z1 [P ( X s) + 1P ( X s) P ( X < s)] ds 0 = EX + 2 Z1 P (X > s) P (X s) ds 1 w Stad ¾ H (X) Zw P (X > s) P (X s) ds. 1 EX wtedy i tylko wtedy, gdy 2 Z1 P (X > s) P (X s) ds 1 w Zw P (X > s) P (X s) ds. 1 Warunek ten jest spe÷niony na przyk÷ad, gdy 41 2 0 i 1 0. Niech X = max (X; w) oraz X= min (X; w). Zauwa·zmy, ·ze je´sli X i X 0 sa¾ niezale·znymi zmiennymi losowymi o jednakowym rozk÷adzie, to Z1 P (X > s) P (X s) ds = E w Z1 1 (X 0 > s) 1 (X s) ds w = E X0 X + 1 = E X0 2 X , co jest znane jako wspó÷czynnik Giniego. W podobny sposób pokazujemy, ·ze Rw P (X > s) P (X s) ds = 21 E jX 0 Xj. Poniewa·z jx yj = 2 max (x; y) x y, wiec ¾ 1 H (X) = EX + 2 EX 2:2 EX 1 (EX 2:2 EX) , gdzie X 2:2 = max X; X 0 i X 2:2 = max (X; X 0 ). P13 Iteracyjność. De…niujemy uogólniona¾ warunkowa¾ ca÷ k¾ e Choqueta wzorem Egh (XjY ) = Z1 g (P (X+ > sjY )) ds 0 Z1 h P ( X)+ > sjY ds, (4.37) 0 pod warunkiem, z·e obie wystepuj ¾ ace ¾ we wzorze ca÷ ki sa¾ skończone. Wówczas H (XjY ) de…niujemy jako rozwiazanie ¾ równania u (w H (XjY )) = Egh [u (w X) jY ] . W celu podania charakteryzacji warunku iteracyjności, udowodnimy najpierw nastepuj ¾ acy ¾ Lemat. Lemat 4.2 Niech X, Y bed ¾ a¾dowolnymi zmiennymi losowymi. Wówczas sup (sup (XjY )) = sup X. Dowód Lematu 4.2. Niech sup (XjY ) = inf fx : P (X > xjY ) = 0g. P (X > 0) > 0. Poniewaz· X X+k = (X+ )k . Stad ¾ E X+k jY sup X, wiec ¾ X+k 1=k Za÷ óz·my, z·e (sup X) dla wszystkich k 2 N, gdzie k sup X dla wszystkich k 2 N oraz sup (XjY ) = sup E X+k jY k2N 42 1=k sup X Zatem sup (sup (XjY )) sup X. Poniewaz· sup Z = sup EZ+k 1=k dla dowolnej zmiennej k2N losowej Z (patrz Aliprantis i Border, 2007, str. 462), wiec ¾ dla k 2 N mamy 1=k sup (sup (XjY )) = sup E (sup (XjY ))k+ E (sup (XjY ))k+ k2N E E X+k jY 1=k k 1=k = EX+k + 1=k 1=k (4.38) . Z (4.38) wynika, z·e sup (sup (XjY )) sup X. Ostatecznie sup (sup (XjY )) = sup X. Gdy P (X 0) = 1, moz·emy dodać c > 0 takie, z·e P (X + c > 0) > 0 i skorzystać z faktu, z·e sup (X + c) = sup X + c. Za÷ óz·my, z·e H (X) jest sk÷ adka¾ wyznaczona¾ ze wzoru (4.2). Rozwaz·my nastepuj ¾ ace ¾ przypadki. (i) Gdy g (x) = h (x) = x dla 0 1, to Egh X = EX i H (X) = w x u 1 (Eu (w X)). Zatem H (X) jest sk÷ adka¾ mean-value, która jest iteracyjna (patrz Gerber, 1979, Goovaerts i inni, 1984). (ii) Gdy g (x) = 1f1g (x) i h (x) = g (x) = 1(0;1] (x) dla 0 1, to Egh X = inf X i x H (X) = sup X. Z Lematu 4.2 wynika, z·e H (X) jest iteracyjna. (iii) Gdy g (x) = 1(0;1] (x) i h (x) = g (x) = 1f1g (x) dla 0 x 1, to Egh X = sup X i H (X) = inf X. Poniewaz· inf X = sup ( X), wiec ¾ z (ii) mamy, z·e inf (inf (XjY )) = inf X. (iv) Gdy g (x) = h (x) = 1f1g (x) dla 0 x 1, to Egh X = (inf X)+ ( sup X)+ oraz H (X) = 8 > > < sup X inf X > > : w gdy X w gdy X w gdy inf X w . sup X Jez·eli H (X) = w, to H (X) jest iteracyjna. Stad, ¾ z (ii) i (iii) wynika, z·e H (X) jest iteracyjna. (v) Gdy g (x) = x i h (x) = 1f1g (x) dla 0 H (X) = 8 > > < > > : w w u 1 (Eu (w x 1, to Egh X = EX+ X)) inf X u 1 E [u (w X)]+ ( sup X)+ oraz gdy X w gdy X w gdy inf X w . sup X Zauwaz·my, z·e E [E (X+ jY )]+ = E [E (X+ jY )] = EX+ . Stad, ¾ z (i) i (iii) wynika, z·e H (X) jest iteracyjna. 43 (vi) Gdy g (x) = 1f1g (x) i h (x) = x dla 0 H (X) = 8 > > < 1, to Egh X = (inf X)+ x sup X > > : w w u u 1 1 E [ u (w (Eu (w X)) X)]+ gdy X w gdy X w gdy inf X w E ( X)+ oraz . sup X Z (i), (ii) i (v) mamy, z·e H (X) jest iteracyjna. Twierdzenie 4.12 Niech w 0 bedzie ¾ ustalone. Za÷ó·zmy, ·ze u 2 U i g; h 2 G. Wtedy sk÷adka H (X), która jest rozwiazaniem ¾ równania (4.2), jest iteracyjna wtedy i tylko wtedy, gdy H (X) jest zde…niowana w jednym z przypadków (i)-(vi). Dowód Dla ustalonego w, niech v (x) := u (w x). Wtedy H (X) = v 1 (Egh v (X)). Ponadto, H (XjY ) = v 1 (Egh (v (X) jY )) (4.39) oraz v (H (H (XjY ))) = Egh v (H (XjY )) . (4.40) Z (4.39) i (4.40) warunek H (X) = H (H (XjY )) jest równowaz·ny temu, z·e v 1 (Egh v (X)) = v 1 (Egh v (H (XjY ))) = v 1 (Egh (Egh (v (X) jY ))) , co oznacza, z·e sk÷ adka H (X) jest iteracyjna wtedy i tylko wtedy, gdy Egh Z = Egh (Egh (ZjY )) , (4.41) gdzie Z = v (X). Dowód pierwszej implikacji tego faktu wynika z (i)-(vi). Udowodnimy teraz implikacje¾ przeciwna.¾ Niech (Z; Y ) bedzie ¾ wektorem losowym o rozk÷ adzie P (Z = 0; Y = 1) = 1=4, P (Z = s; Y = 1) = 1=4, P (Z = s; Y = 2) = 1=4, P (Z = 1; Y = 2) = 1=4, gdzie 0 < s < 1 jest dowolne. Wtedy g (1=4)) + g (1=4) , Egh Z = s (g (3=4) Egh (ZjY = 1) = sg (1=2) , Egh (ZjY = 2) = s (1 44 g (1=2)) + g (1=2) . (4.42) Poniewaz· Egh (ZjY = 1) Egh (ZjY = 2), wiec ¾ Egh (Egh (ZjY )) = s 2g (1=2) 2 (g (1=2))2 + (g (1=2))2 . (4.43) Z (4.41), (4.42) i (4.43) wynika, z·e sk÷ adka H (X) jest iteracyjna, gdy s (g (3=4) g (1=4)) + g (1=4) = s 2g (1=2) 2 (g (1=2))2 + (g (1=2))2 dla 0 < s < 1. Otrzymaliśmy równość dwóch wielomianów zmiennej s. Porównujac ¾ ich wspó÷ czynniki mamy ( g (3=4) g (1=4) = 2g (1=2) 2 (g (1=2))2 . g (1=4) = (g (1=2))2 (4.44) Niech teraz wektor (Z; Y ) ma rozk÷ ad P (Z = 0; Y = 1) = 1=4, P (Z = 1; Y = 1) = 1=4, P (Z = g (1=2) ; Y = 2) = 1=2. Wówczas g (1=4)) + g (1=4) , Egh Z = g (1=2) (g (3=4) (4.45) Egh (ZjY = 1) = Egh (ZjY = 2) = g (1=2) oraz z W7 mamy Egh (Egh (ZjY )) = g (1=2) . (4.46) Z (4.41), (4.45) i (4.46) wynika, z·e H (X) jest iteracyjna, gdy g (1=2) (g (3=4) g (1=4)) + g (1=4) = g (1=2). Stad ¾ i z (4.44) mamy 2 (g (1=2))3 3 (g (1=2))2 + g (1=2) = 0. Zatem g (1=2) = 0, g (1=2) = 1=2 lub g (1=2) = 1. Rozwaz·my wektor losowy (Z; Y ) o rozk÷ adzie P (Z = s; Y = 1) P (Z = 1; Y = 1) = 1=4 = 1=4 + c, c, P (Z = s; Y = 2) = 1=4 + d, P (Z = 1; Y = 2) = 1=4 gdzie 0 < s < 1 jest dowolne oraz 0 Egh Z = s (1 c; d g (1=2 d, 1=4. Wtedy c d)) + g (1=2 c d) , Egh (ZjY = 1) = s (1 g (1=2 2c)) + g (1=2 2c) , Egh (ZjY = 2) = s (1 g (1=2 2d)) + g (1=2 2d) . 45 (4.47) Ponadto Egh (ZjY = 1) Egh (ZjY = 2) wtedy i tylko wtedy, gdy c Egh (Egh (ZjY )) = [s (1 g (1=2 + [s (1 dla 0 c d g (1=2 2d)) + g (1=2 g (1=2 + [s (1 d 2c)] (1 (4.48) g (1=2)) 2d)] g (1=2) 1=4 oraz Egh (Egh (ZjY )) = [s (1 gdy 0 2c)) + g (1=2 d. Stad ¾ c 2d)) + g (1=2 g (1=2 2d)] (1 2c)) + g (1=2 (4.49) g (1=2)) 2c)] g (1=2) , 1=4. Z (4.41), (4.47), (4.48) i (4.49) wynika, z·e H (X) jest iteracyjna, gdy s (1 g (1=2 c = [s (1 g (1=2 2c)) + g (1=2 + [s (1 dla 0 < s < 1 i 0 c g (1=2 (4.50) d) 2c)] (1 2d)) + g (1=2 s (1 g (1=2 c = [s (1 g (1=2 2d)) + g (1=2 d c g (1=2)) 2d)] g (1=2) 1=4 oraz d + [s (1 gdy 0 < s < 1 i 0 d)) + g (1=2 d)) + g (1=2 g (1=2 c 2d)] (1 2c)) + g (1=2 (4.51) d) g (1=2)) 2c)] g (1=2) , 1=4. Rozwaz·my nastepuj ¾ ace ¾ przypadki: c 1 g (1=2) = 0. Wtedy g (x) = 0 dla 0 x 1=2. 2 g (1=2) = 1=2. Wówczas z (4.50) i (4.51) mamy 2s (1 = s (1 g (1=2 g (1=2 dla 0 < s < 1 oraz 0 c d)) + 2g (1=2 2c)) + g (1=2 c; d c d) 2c) + s (1 g (1=2 2d)) + g (1=2 2d) 1=4. Porównujac ¾ wspó÷ czynniki powyz·szych wielomianów otrzymujemy 2g (1=2 dla 0 c; d c d) = g (1=2 1=4. Niech f (x) = g (1=2 2f ((c + d) =2) = f (c) + f (d) dla 0 2c) + g (1=2 2d) (4.52) 2x). Wtedy (4.52) moz·emy zapisać jako 1=4, a wiec ¾ dostaliśmy równanie funkcyjne c; d Jensena. Poniewaz· funkcja f jest mierzalna jako monotoniczna, wiec ¾ f jest funkcja¾ liniowa¾ 46 (patrz Kuczma, 2009, str. 354). Poniewaz· f (0) = g (1=2) = 1=2 oraz f (1=4) = g (0) = 0, wiec ¾ f (x) = 2x + 1=2 dla 0 x 1=4. Ostatecznie g (x) = x dla 0 x 1=2. 3 g (1=2) = 1. Wówczas z (4.50) mamy s (1 g (1=2 dla 0 < s < 1 i 0 c d d)) + g (1=2 d c d) = s (1 g (1=2 2d)) + g (1=2 2d) 1=4. Porównujac ¾ wspó÷ czynniki powyz·szych wielomianów mamy c g (1=2 dla 0 c c d) = g (1=2 1=4. K÷ adac ¾ d = 0 otrzymujemy g (1=2 Stad ¾ g (x) = 1 dla 1=4 (4.53) 2d) c) = g (1=2) = 1 dla 0 c 1=4. 1=2. K÷ adac ¾ c = 1=4 w (4.53) dostajemy g (x) = g (2x) dla x 1=4. Poniewaz· g (1=2) = 1, wiec ¾ g (1=2) = g (2=4) = g (1=4) = g (2=8) = g (1=8) i tak dalej. Stad ¾ g (x) = 1 dla 0 < x 1=2. 0 x Rozwaz·my wektor losowy (Z; Y ) o rozk÷ adzie P (Z = s; Y = 1) P (Z = 1; Y = 1) = 1=4 + c, P (Z = s; Y = 2) = 1=4 gdzie 0 < s < 1 jest dowolne oraz 0 = 1=4 c, d, P (Z = 1; Y = 2) = 1=4 + d, 1=4. Wówczas rozumowanie analogiczne do c; d zastosowanego wcześniej pokazuje, z·e H (X) jest iteracyjna, gdy s (1 = [s (1 g (1=2 + 2c)) + g (1=2 + 2c)] (1 + [s (1 dla 0 < s < 1, gdy 0 c g (1=2 + 2d)) + g (1=2 + 2d)] (1 + [s (1 c g (1=2 + 2d)) + g (1=2 + 2d)] g (1=2) (4.55) g (1=2 + c + d)) + g (1=2 + c + d) = [s (1 d g (1=2)) 1=4 oraz d s (1 gdy 0 < s < 1 i 0 (4.54) g (1=2 + c + d)) + g (1=2 + c + d) g (1=2)) g (1=2 + 2c)) + g (1=2 + 2c)] g (1=2) , 1=4. Rozwaz·my nastepuj ¾ ace ¾ przypadki: 1 g (1=2) = 0. Z (4.54) mamy s (1 g (1=2 + c + d)) + g (1=2 + c + d) = s (1 47 g (1=2 + 2c)) + g (1=2 + 2c) (4.56) dla 0 c 1=4. Porównujac ¾ wspó÷ czynniki wielomianów we wzorze (4.56) mamy d (4.57) g (1=2 + c + d) = g (1=2 + 2c) dla 0 c d 1=4. K÷ adac ¾ c = 0 otrzymujemy g (1=2 + d) = g (1=2) = 0 dla 0 Stad ¾ g (x) = 0 dla 1=2 d 3=4. Wstawiajac ¾ d = 1=4 do wzoru (4.57) dostajemy x (4.58) g (3=4 + c) = g (1=2 + 2c) dla 0 1=4. K÷ adac ¾ c = 1=8 w (4.58) mamy g (7=8) = g (3=4) = 0. Stad ¾ g (x) = 0 c dla 1=2 x 7=8. Wstawiajac ¾ c = 3=16 do (4.58) otrzymujemy g (15=16) = g (7=8) = 0. Zatem g (x) = 0 dla 1=2 1=2 1=4. x 15=16. Kontynuujac ¾ to postepowanie ¾ mamy, z·e g (x) = 0 dla x < 1. 2 g (1=2) = 1=2. Wtedy z (4.54) i (4.55) mamy 2s (1 = s (1 dla 0 < s < 1 i 0 g (1=2 + c + d)) + 2g (1=2 + c + d) g (1=2 + 2c)) + g (1=2 + 2c) + s (1 c; d g (1=2 + 2d)) + g (1=2 + 2d) 1=4. Porównujac ¾ wspó÷ czynniki powyz·szych wielomianów mamy 2g (1=2 + c + d) = g (1=2 + 2c) + g (1=2 + 2d) dla 0 c; d (4.59) 1=4. Niech f (x) = g (1=2 + 2x). Wtedy moz·emy zapisać równanie (4.59) w postaci 2f ((c + d) =2) = f (c) + f (d) dla 0 c; d 1=4. Poniewaz· f jest mierzalna, wiec ¾ jest liniowa (patrz Kuczma, 2009, str. 354). Z faktu, z·e f (0) = g (1=2) = 1=2 i f (1=4) = g (1) = 1 wynika, z·e f (x) = 2x + 1=2 dla 0 x 1=4. Ostatecznie, g (x) = x dla 1=2 x 1. 3 g (1=2) = 1. Wtedy g (x) = 1 dla 1=2 x 1. Podsumowujac, ¾ udowodniliśmy do tej pory, z·e jeśli sk÷ adka H (X) jest iteracyjna, to g (x) = x, g (x) = 1f1g (x) lub g (x) = 1(0;1] (x) dla 0 x 1. Dalej wystarczy zauwaz·yć, z·e Egh ( X) = h (x) = 1(0;1] (x) dla 0 x Ehg X, aby wywnioskować, z·e h (x) = x, h (x) = 1f1g (x) lub 1 (patrz (4.41)). Otrzymujemy w ten sposób dziewieć ¾ róz·nych par funkcji g i h. Wykaz·emy, z·e dla trzech z tych par w÷ asność iteracyjności nie zachodzi. Za÷ óz·my, z·e wektor (Z; Y ) ma rozk÷ ad P (Z = 1; Y = 1) = 1=4, P (Z = 1; Y = 1) = 1=2, P (Z = g (2=3) 1; Y = 2) = 1=4. Wtedy Egh Z = g (1=2) h (1=3) oraz Egh (ZjY = 2) = h (1=2), Egh (ZjY = 1) = 1. Poniewaz· Egh (ZjY = 1) 48 Egh (ZjY = 2), wiec ¾ Egh (Egh (ZjY )) = (g (2=3) Egh (Egh (ZjY )) = (g (2=3) h (1=3)) g (3=4) h (1=3)) (1 h (1=4)) h (1=4) gdy g (2=3) h (1=4) dla g (2=3) h (1=3) h (1=3) 0 oraz 0. Z (4.41) wynika, z·e H (X) jest iteracyjna, gdy g (1=2) dla g (2=3) h (1=3) g (1=2) h (1=2) = (g (2=3) h (1=3)) g (3=4) h (1=4) (4.60) 0 oraz h (1=2) = (g (2=3) h (1=3)) (1 o ile g (2=3) h (1=4)) h (1=4) , (4.61) h (1=3) < 0. Z (4.60) i (4.61) wynika, z·e H (X) nie jest iteracyjna, gdy g (x) = 1(0;1] (x) i h (x) = x, lub g (x) = x i h (x) = 1(0;1] (x), lub g (x) = h (x) = 1(0;1] (x). 49 5 Sk÷ adka zerowej uz·yteczności w teorii skumulowanej perspektywy 5.1 De…nicja sk÷ adki W tym rozdziale zde…niujemy sk÷ adk¾ e zerowej uz·yteczności w ujeciu ¾ teorii skumulowanej perspektywy. Niech X bedzie ¾ dowolna¾ zmienna¾ losowa. ¾ Rozwaz·my …rm¾ e ubezpieczeniowa, ¾ która podejmuje decyzje w oparciu o punkt referencyjny w 2 R (np. jej majatek ¾ poczatkowy). ¾ Za÷ óz·my, z·e potencjalny klient tej …rmy chce od niej kupić ubezpieczenie, które wyp÷ aca pienie¾z·na¾ równowartość losowej straty X. Za÷ óz·my, z·e u1 ; u2 : R+ ! R+ sa¾ niemalejacymi ¾ funkcjami wartości, przy czym u1 mierzy zyski, zaś u2 straty. Niech g i h bed ¾ a¾ funkcjami zniekszta÷ cajacymi ¾ prawdopodobieństwa odpowiednio zysków i strat. Sk÷ adk¾ e zerowej uz·yteczności H (X) w teorii skumulowanej perspektywy za ubezpieczenie sie¾ na wypadek ryzyka X de…niujemy jako rozwiazanie ¾ równania u1 (w+ ) u2 ( w)+ = Eg u1 (w + H (X) X)+ Eh u2 (X w H (X))+ . (5.1) Zauwaz·my, z·e wzór (5.1) moz·emy zapisać w postaci u (w) = Egh u (w + H (X) X) , (5.2) gdzie u (x) = u1 (x+ ) u2 ( x)+ jest pewna¾niemalejac ¾ a¾funkcja¾dla x 2 R . Gerber (1979) rozwaz·a równanie na sk÷ adk¾ e H (X) przy za÷ oz·eniach, z·e funkcja wartości u jest wkles÷ ¾ a, a prawdopodobieństwa nie sa¾ zniekszta÷ cane, tzn. g (p) = h (p) = p. W bardziej ogólnym a, zaś funkcja wartości jest wkles÷ ¾ a. modelu Heilpern (2003) zak÷ ada, z·e h = g, g jest wypuk÷ Goovaerts i inni (2010 a) badaja¾ addytywność miary ryzyka otrzymanej przez zastosowanie zasady równowaz·nej uz·yteczności w teorii perspektywy. Okazuje sie, ¾ z·e rozwaz·ana przez nich miara ryzyka odpowiada sk÷ adce H (X) wyznaczonej z (5.1) przy w = 0. W pracy tej uogólniamy g÷ ówne twierdzenie z ich pracy przy s÷ abszych za÷ oz·eniach dotyczacych ¾ funkcji wartości i funkcji zniekszta÷ cajacych ¾ prawdopodobieństwo (patrz Twierdzenie 5.4). Aby sk÷ adka wyznaczona z równania (5.2) istnia÷ a i by÷ a wyznaczona jednoznacznie, podobnie jak w przypadku sk÷ adki mean-value, nalez·y przyjać, ¾ z·e u 2 U. 50 5.2 Przyk÷ ady W poniz·szych dwóch przyk÷ adach wyprowadzimy wzory jawne na sk÷ adk¾ e H (X) bed ¾ ac ¾ a¾ rozwiazaniem ¾ równania (5.2) w przypadku, gdy u 2 U0 . Przyk÷ ad 5.1 Je·zeli u (x) = cx , to z (5.2) mamy cw = Egh [c (w + H (X) X)] . (5.3) Z W2, W3 i (2.1) wynika, ·ze w= w+H(X) Z Ehg X + w + H (X) + [h (P (X > s)) (5.4) g (P (X > s))] ds. 0 Rt Po÷ó·zmy ' (t) = t + [h (P (X > s)) 0 ciag÷ ¾ ego i h (q)+g (1 Zatem ' 1 istnieje i g (P (X > s))] ds. Je·zeli X jest zmienna¾losowa¾typu q) > 0 dla q 2 [0; 1], to '0 (t) = 1+h (P (X > t)) g (P (X > t)) > 0. H (X) = ' Przyk÷ ad 5.2 Niech u (x) = (1 1 e e cw cx 1 (w + Ehg X) w. ) =a. Z (5.2) i W2 mamy = Egh 1 e c(w+H(X) X) . Z (2.1) i W3 wynika, ·ze 1 = 1 e cw Eh e c(w+H(X) X) + Z1 h P e c(w+H(X) X) >s g P e c(w+H(X) X) >s ds. 0 Stad ¾ i z W2 dostajemy e c(w+H(X)) Eh ecX = e cw +e c(w+H(X)) exp(c(w+H(X))) Z h P ecX > t g P ecX > t dt. 0 (5.5) 51 ecH(X) = Eh ecX , gdzie Zatem (t) = t + t exp(cw) Z h P ecX > s g P ecX > s ds. 0 Je·zeli X jest zmienna¾ losowa¾ typu ciag÷ ¾ ego i h (q) + g (1 q) > 0 dla wszystkich q 2 [0; 1], to 0 > 0. Stad ¾ 1 H (X) = ln 1 Eh ecX . c Dla h = g otrzymujemy sk÷adke¾ zaproponowana¾przez Heilperna (2003) i Tsanakasa (2009). W podobny sposób wyprowadzamy wzór na H (X), gdy u (x) = (ecx 1) =a. Przyk÷ ad 5.3 Niech u 2 U oraz g (x) = h (x) = x dla x 2 [0; 1]. Wtedy sk÷adka H (X) jest sk÷adka¾ zerowej u·zyteczno´sci. W szczególnym przypadku, gdy u (x) = x, to z (5.4) mamy H (X) = Egh X = EX, a wiec ¾ otrzymana sk÷adka jest sk÷adka¾netto. Je´sli za´s u (x) = 1 e x > 0, to z (5.5) mamy H (X) = 1 ln Ee = dla pewnego X , a wiec ¾ otrzymali´smy sk÷adke¾ wyk÷adnicza.¾ Ze wzorów (4.3) i (5.4) wynika, z·e gdy u (x) = x i h = g, to wzór na sk÷ adk¾ e wyznaczona¾z równania (5.2) jest identyczny ze wzorem na H (X) wyznaczona¾ z równania (4.2). Oznacza to, z·e sk÷ adki wyprowadzone w Przyk÷ adach 4.4-4.7 moga¾ zostać równiez· otrzymane jako rozwiazanie ¾ równania (5.2) dla tych samych funkcji zniekszta÷ cajacych ¾ prawdopodobieństwo, które wystepuj ¾ a¾ we wspomnianych przyk÷ adach. W kolejnych przyk÷ adach pokaz·emy, z·e szczególnymi przypadkami sk÷ adki wyznaczonej ze wzoru (5.2) sa¾ pewne znane sk÷ adki. Przyk÷ ad 5.4 Niech u (x) = x. Za÷ó·zmy, ·ze h (p) = a + bp, g (p) = c + dp dla p 2 (0; 1), gdzie b; d > 0, a + b < 1 i c + d < 1. Je·zeli inf X = 0 oraz X w, to z (5.3) mamy H (X) = Eg X = sup Z X g (P (X > s)) ds = 0 = EX + (1 Gdy c = 0 i 0 d) (sup X sup Z X [(1 c d) dP (X > s)] ds 0 EX) d < 1, to H (X) = EX + (1 c sup X. d) (sup X 52 EX) (porównaj Przyk÷ad 4.8). 5.3 W÷ asności sk÷ adki zerowej uz·yteczności w ujeciu ¾ teorii skumulowanej perspektywy W rozdziale tym zajmiemy sie¾ analiza¾sk÷ adki ubezpieczeniowej H (X) bed ¾ acej ¾ rozwiazaniem ¾ równania (5.2). P1 Niezmienniczość ze wzgledu ¾ na rozk÷ ad. W÷ asność jest spe÷ niona dla wszystkich funkcji u 2 U i g; h 2 G, co wynika z de…nicji uogólnionej ca÷ ki Choqueta oraz wzoru (5.2). P2 Monotoniczność. W÷ asność ta jest spe÷ niona dla wszystkich funkcji u 2 U i g; h 2 G, co jest konsekwencja¾ W4 i W7. P3 Brak nieuzasadnionego ÷ adowania bezpieczeństwa. Z W7 wynika, z·e warunek ten zachodzi dla wszystkich funkcji u 2 U i g; h 2 G. P4 Brak zbyt ma÷ ego i nadmiernego ÷ adowania bezpieczeństwa. W÷ asność ta jest spe÷ niona dla wszystkich funkcji u 2 U i g; h 2 G, poniewaz· zachodza¾ w÷ asności P1, P2 i P3. P5 Zgodność. W÷ asność ta jest spe÷ niona dla wszystkich u 2 U i g; h 2 G. Istotnie, z równania (5.2) mamy Egh u (w + H (X + b) (X + b)) = u (w) = Egh u (w + (H (X) + b) (X + b)) . Stad, ¾ z róz·nowartościowości funkcji u i jednoznaczności sk÷ adki H (X) mamy, z·e H (X + b) = H (X) + b dla b 2 R. P6 Proporcjonalność. Twierdzenie 5.1 (i) Niech w = 0, u 2 U i g; h 2 G bed ¾ a¾ funkcjami ciag÷ ¾ ymi takimi, ·ze istnieja¾0 q0 < q1 1 takie, ·ze g (1 q) h (q) > 0 dla q 2 (q0 ; q1 ). Wówczas sk÷adka H (X) jest proporcjonalna wtedy i tylko wtedy, gdy u (x) = c1 ( x)d dla x < 0 oraz u (x) = c2 xd dla x > 0, gdzie d > 0 i c1 < 0 < c2 . (ii) Je·zeli dodatkowo (5.2) zachodzi dla pewnego w > 0, to H (X) jest proporcjonalna wtedy i tylko wtedy, gdy u (x) = cx dla x 2 R, pewnego c > 0 oraz g = h. 53 Dowód (i) Niech w = 0. ×atwo sprawdzić, z·e z W2 wynika proporcjonalność sk÷ adki H (X) dla funkcji u podanej w tezie (i). Za÷ óz·my teraz, z·e H (X) jest proporcjonalna. Niech X 2 X2 . Dla a > 0 mamy 0 = Egh u (a (H (X) = u (aH (X)) g (1 X)) = Eg [u (a (H (X) X))]+ Eh [ u (a (H (X) X))]+ s)) h (q) . q) + u (a (H (X) Stad ¾ 0 = u (aH (X)) (1 s)) h (q) , g (q)) + u (a (H (X) (5.6) przy czym z ciag÷ ¾ ości g, h i u wynika, z·e H (X) przyjmuje wszystkie wartości z przedzia÷ u (0; s). Wyznaczajac ¾ h (q) z (5.6) przy a = 1 i wstawiajac ¾ te¾ wartość do (5.6) otrzymujemy u (aH (X)) u (a (H (X) s)) = u (H (X)) u (H (X) s) (5.7) dla wszystkich a > 0 i 0 < H (X) < s. K÷ adac ¾ H (X) = 1 i s = 2 do (5.7) dostajemy u (a) = u (1) u ( a) u ( 1) (5.8) dla a > 0. Ponadto, z (5.7) dla x = H (X) i s = x + 1 mamy u (ax) = u (x) u ( a) u (x) u (a) = u ( 1) u (1) dla a; x > 0, gdzie skorzystaliśmy z (5.8). Z ostatniego równania otrzymujemy, z·e funkcja u (x) = ln (u (ex ) =u (1)) spe÷ nia równanie funkcyjne Cauchy’ego u (b + y) = u (b) + u (y) dla wszystkich b; y 2 R. Stad ¾ u (x) = dx dla wszystkich x 2 R i pewnego d > 0 (patrz Kuczma, 2009, str. 129). Zatem u (x) = c2 xd dla x > 0 i pewnych d; c2 > 0. Z (5.8) wynika, z·e u (x) = c1 ( x)d dla x < 0 i pewnego c1 < 0. (ii) Za÷ óz·my dodatkowo, z·e (5.2) zachodzi dla pewnego w > 0. Dla w = 0 z proporcjonalności H (X) i z (5.2) mamy wd = (w + aH (X))d g (1 q) + (w + a (H (X) 54 s))d (1 g (1 q)) , (5.9) gdy 0 w s H(X) a oraz c2 wd = c2 (w + aH (X))d g (1 gdy a w= (s q) + c1 ( w a (H (X) s))d h (q) , H (X)). Róz·niczkujac ¾ obie strony równania (5.9) ze wzgledu ¾ na a i k÷ adac ¾ a = 0 mamy H (X) = sg (q). Wstawiajac ¾ te¾ zalez·ność do (5.9) przy a = [g (1 d 1 q)] (5.10) w s(1 g(q)) dostajemy = 1. Poniewaz· q jest dowolne, wiec ¾ d = 1. Równanie (5.10) dla d = 1 jest postaci g (q)) (c2 g (q) + c1 h (q)) . w (c2 g (q) + c1 h (q)) = as (1 Z dowolności s wynika, z·e lewa i prawa strona powyz·szego równania jest równa 0. Stad ¾ c2 g (q) + c1 h (q) = 0 dla q 2 [0; 1]. K÷ adac ¾ q = 1 dostajemy c1 = c2 oraz g (q) = h (q). Poniewaz· pewne funkcje zniekszta÷ cajace ¾ prawdopodobieństwo rozwaz·ane w literaturze nie sa¾ ciag÷ ¾ e, wiec ¾ w poniz·szym twierdzeniu os÷ abiamy za÷ oz·enie o ciag÷ ¾ ości g i h, ale nak÷ adamy pewien dodatkowy warunek na funkcje¾ u. Twierdzenie 5.2 Je·zeli w = 0, u 2 U jest wkles÷ ¾ a i istnieje q 2 (0; 1) takie, ·ze g (1 q) h (q) > 0, to sk÷adka H (X) jest proporcjonalna wtedy i tylko wtedy, gdy u (x) = c1 x dla x < 0 i u (x) = c2 x dla x 0, gdzie 0 < c2 c1 . Je´sli dodatkowo równanie (5.2) zachodzi dla jakiego´s w > 0, to u (x) = cx dla x 2 R i pewnego c > 0. Dowód Z W2 dla kawa÷ kami liniowej funkcji u mamy Egh u (a (H (X) X)) = Egh (au (H (X) X)) = aEgh u (H (X) X) = 0, a wiec ¾ sk÷ adka H (X) jest proporcjonalna. Za÷ óz·my teraz, z·e u 2 U oraz X 2 X2 . Z (5.6) mamy u (aH (X)) (1 g (q)) = u (a (H (X) s)) h (q) . (5.11) Po lewej stronie równania (5.11) znajduje sie¾ funkcja wkles÷ ¾ a zmiennej a, zaś po prawej stronie mamy funkcje¾ wypuk÷ a¾ zmiennej a. Wnioskujemy stad, ¾ z·e u jest liniowa dla x < 0 i dla x > 0 z być moz·e róz·nymi wspó÷ czynnikami kierunkowymi. Dla w > 0 liniowość u otrzymujemy w sposób analogiczny do tego w Twierdzeniu 5.1. P7 Addytywność dla zmiennych losowych komonotonicznych. Poniewaz· kaz·da funkcja sta÷ a jest komonotoniczna z dowolna¾ zmienna¾ losowa¾ X, wiec ¾ z W8 wynika, z·e warunek Egh (X + Y ) = Egh X + Egh Y nie musi być spe÷ niony dla komonotonicznych zmiennych losowych X i Y . W Twierdzeniu 5.3 podajemy charakteryzacje¾ 55 addytywności dla zmiennych losowych komonotonicznych dla sk÷ adki wyznaczonej z równania (5.2). Twierdzenie 5.3 (i) Je·zeli u (x) = cx i h = g 2 G, to sk÷adka H (X) jest addytywna dla zmiennych losowych komonotonicznych. (ii) Je·zeli u 2 U, g; h 2 G sa¾ciag÷ ¾ e oraz istnieja¾0 q1 < q2 1 takie, ·ze g (1 q) h (q) > 0 dla q 2 (q1 ; q2 ), równanie (5.2) zachodzi dla w = 0 i pewnego w > 0, za´s sk÷adka H (X) jest addytywna dla zmiennych losowych komonotonicznych, to u (x) = cx dla pewnego c > 0 oraz g = h. Dowód (i) Gdy h = g, to H (X) = Eg X i z addytywności ca÷ ki Choqueta dla zmiennych losowych komonotonicznych otrzymujemy teze. ¾ (ii) Wiadomo, z·e jeśli sk÷ adka jest addytywna dla zmiennych losowych komonotonicznych, to jest proporcjonalna. Z Twierdzenia 5.1 wnioskujemy, z·e u (x) = cx oraz g = h. P8 Addytywność dla zmiennych losowych niezalez·nych. Twierdzenie 5.4 Niech u 2 U. (i) Je·zeli g (p) = h (p) = p i u 2 U0 , to sk÷adka H (X) jest addytywna dla zmiennych losowych niezale·znych. (ii) Je·zeli g (p) = h (p) = p i sk÷adka H (X) jest addytywna dla zmiennych losowych niezale·znych przy w = 0, to u 2 U0 . (iii) Je·zeli u 2 U0 , g; h 2 G, g jest prawostronnie ciag÷ ¾ a w x = 0, lewostronnie ciag÷ ¾a w x = 1, ma pochodna¾lewostronna¾w x = 1 oraz g (1 q) + h (q) > 0 dla wszystkich q 2 [0; 1], to H (X) jest addytywna dla zmiennych losowych niezale·znych dla dowolnego w tylko wtedy, gdy g (p) = h (p) = p. 0 wtedy i W celu wykazania Twierdzenia 5.4 udowodnimy nastepuj ¾ ace ¾ lematy. Lemat 5.1 Je·zeli u 2 U, to u (x + y) = eay x!1 u (x) lim dla pewnego a > 0, o ile granica istnieje i jest sko´nczona. u(x+y) . x!1 u(x) Dowód Niech z (y) = lim Wówczas dla x; y 2 R mamy u (z + x + y) u (z + y + x) = lim z!1 z+y!1 u (z + y) u (z) z (x + y) = lim 56 u (z + y) = z (x) z (y) . z!1 u (z) lim Poniewaz· funkcja z jest mierzalna jako granica funkcji ciag÷ ¾ ych, wiec ¾ jedynym rozwiazaniem ¾ otrzymanego równania jest z (x) = eax (patrz Kuczma, 2009, str. 349-350). Funkcja u jest rosnaca, ¾ a wiec ¾ 0 < u (x) < u (x + y) dla x; y > 0. Stad ¾ z (x) 1 dla x 0 i ostatecznie a > 0. Funkcje¾ f : R2 ! R nazywamy symetryczna, ¾ gdy f (x; y) = f (y; x) dla wszystkich x; y 2 R. Lemat 5.2 Funkcja symetryczna f : R2 ! R spe÷nia równanie f (x; y) f (a; y) f (x; b) + f (a; b) = 0 (5.12) dla wszystkich a; b < 0 < x; y wtedy i tylko wtedy, gdy f (x; y) = h (x) + h (y) dla x, y 2 Rn f0g, gdzie h : R ! R jest dowolna. Dowód ×atwo sprawdzić, z·e funkcja f (x; y) = h (x)+h (y) spe÷ nia warunek (5.12). Za÷ óz·my, z·e wzór (5.12) zachodzi dla pewnej funkcji f . Po÷ óz·my h (x) = f (x; 1) 21 f ( 1; 1) dla x > 0 oraz h (a) = f (a; 1) 1 f 2 (1; 1) dla a < 0. Zde…niujmy F (x; y) = h (x) + h (y) dla x; y 6= 0. Pokaz·emy, z·e F = f . Dla x; y > 0 z symetrii f mamy F (x; y) = f (x; 1) + f ( 1; y) Z (5.12) dla b = a = f ( 1; 1) . (5.13) f ( 1; 1) . (5.14) 1 dostajemy f (x; y) = f ( 1; y) + f (x; 1) Z (5.13) i (5.14) mamy F (x; y) = f (x; y) dla x; y > 0. W podobny sposób, k÷ adac ¾ x=y=1 otrzymujemy F (a; b) = f (a; b) dla a; b < 0. Poniewaz· F jest symetryczna, wiec ¾ wystarczy udowodnić, z·e F (x; a) = f (x; a) dla x > 0 i a < 0. Z (5.12) mamy f (x; x) f (x; a) f (a; x) + f (a; a) = 0. Zatem f (x; a) = 1 1 (f (x; x) + f (a; a)) = (F (x; x) + F (a; a)) = h (x) + h (a) = F (x; a) . 2 2 Dowód Twierdzenia 5.4. (i) Niech g (p) = h (p) = p. Gdy u 2 U0 , to ÷ atwo sprawdzić, z·e H (X) jest addytywna dla zmiennych losowych niezalez·nych. (ii) Za÷ óz·my teraz, z·e H (X + Y ) = H (X) + H (Y ) dla dowolnych niezalez·nych zmiennych losowych X i Y . Niech X, Y bed ¾ a¾niezalez·nymi zmiennymi losowymi takimi, z·e P (X = s) = 57 q = 1 P (X = 0), P (Y = z) = p = 1 P (Y = 0), gdzie s, z > 0 sa¾dowolne oraz p; q 2 [0; 1]. Oznaczmy x = H (X), y = H (Y ). Z (5.2) dla w = 0 i zmiennych losowych X, Y , X + Y mamy odpowiednio 0 = (1 0 = (1 q) u (x) + qu (x s) , (5.15) 0 = (1 p) u (y) + pu (y z) , (5.16) p) (1 +q (1 q) u (x + y) + p (1 p) u (x + y q) u (x + y s) + pqu (x + y s (5.17) z) z) . Wyznaczajac ¾ p i q z (5.15) i (5.16) oraz wstawiajac ¾ te wartości do (5.17) mamy 0 = u (x s) u (y u (x) u (y Po÷ óz·my a = x s, b = y z) u (x + y) z) u (x + y u (y) u (x s) u (x + y s) + u (x) u (y) u (x + y z i zde…niujmy funkcje¾ f (x; y) = 0 = f (x; y) f (a; y) u(x+y) . u(x)u(y) z) s (5.18) z) . Z (5.18) mamy f (x; b) + f (a; b) (5.19) dla wszystkich a; b < 0 < x; y. Z Lematu 5.2 dla pewnej funkcji s otrzymujemy u (x + y) = u (x) u (y) (s (x) + s (y)) (5.20) dla x; y 6= 0. Dla x = y = 1 mamy stad ¾ s (1) = u (2) = (2u2 (1)). Jez·eli po÷ oz·ymy y = 1 we wzorze (5.20), to s (x) = u (x + 1) u (x) u (1) u (2) 2u2 (1) (5.21) dla x 6= 0. Z (5.20) i (5.21) mamy u (x + y) = u (y) u (x + 1) u (y + 1) + u (x) u (1) u (1) u (2) u (x) u (y) u2 (1) u(x+y) x!1 u(x) dla x; y 2 R. Z (5.22) wnioskujemy, z·e granica lim u(x+1) x!1 u(x) wszystkich y wtedy i tylko wtedy, gdy lim 58 (5.22) istnieje i jest skończona dla istnieje i jest skończona. Wstawiajac ¾ y=2 do (5.22) otrzymujemy u (x + 2) u (2) u (x + 1) + u (1) u (2) u (1) 2 u (3) u (1) ! u (x) = 0 dla x 2 R. Otrzymane równanie funkcyjne moz·e mieć nastepuj ¾ ace ¾ rozwiazania: ¾ gdzie c1 , c2 , , u (x) = '1 (x) ec1 x + '2 (x) ec2 x , (5.23) u (x) = ('1 (x) + x'2 (x)) ec1 x , (5.24) u (x) = ('1 (x) cos x + '2 (x) sin x) e x , x 2 R, (5.25) sa¾ pewnymi sta÷ ymi, zaś '1 , '2 sa¾ dowolnymi funkcjami okresowymi o okresie 1 (patrz Polyanin i Manzhirow, 2007, str. 894). Wykaz·emy, z·e funkcja u ze wzoru p (5.25) nie jest monotoniczna. Dla (x) takiego, z·e sin (x) = '1 (x) = '21 (x) + '22 (x) i p cos (x) = '2 (x) = '21 (x) + '22 (x) mamy u (x) = q '21 (x) + '22 (x) sin ( x + (x)) e x , gdzie (x) jest dowolna¾ funkcja¾ okresowa¾ o okresie 1. Wobec tego istnieje x0 > 0 takie, z·e u (x0 ) = 0, co oznacza, z·e u nie jest rosnaca. ¾ Zauwaz·my, z·e dla funkcji u ze wzoru (5.23) mamy u (x + 1) '1 (x) e(c1 c2 )(x+1) + '2 (x) c2 lim = e lim = ec2 < 1, x!1 u (x) x!1 '1 (x) e(c1 c2 )x + '2 (x) gdzie dla c1 c2 skorzystaliśmy z faktu, z·e ' jest okresowa. Dla u z (5.24) mamy u (x + 1) ' (x) + (x + 1) '2 (x) = ec1 lim 1 = ec1 < 1. x!1 x!1 u (x) '1 (x) + x'2 (x) lim u(x+y) x!1 u(x) Dla funkcji u ze wzorów (5.23) i (5.24) granica lim wszystkich y. Z Lematu 5.1 istnieje sta÷ ac istnieje i jest skończona dla 0 taka, z·e u (x + y) = ecy . x!1 u (x) (5.26) lim Z Lematu 5.2, kaz·de rozwiazanie ¾ równania (5.19) moz·na zapisać w postaci f (x; y) = p (x) + p (y). Stad ¾ i z (5.26) mamy ecy =u (y) = p (1) + p (y), a wiec ¾ p (y) = ecy =u (y) 59 d , 2 gdzie d = 2p (1) < 1 (z (5.21) i (5.26) wynika, z·e p (1) < 1). Z de…nicji funkcji f dostajemy ecx ecy u (x + y) = + d. u (x) u (y) u (x) u (y) 0 K÷ adac ¾ v (x) = u (x) e cx mamy v (x + y) = v (x) + v (y) (5.27) dv (x) v (y) dla x; y 2 R. Gdy d = 0, to jedynym rozwiazaniem ¾ równania (5.27) jest v (x) = ax. Stad ¾ u (x) = axecx dla x 2 R, gdzie a > 0, c podstawiajac ¾ z (x) = 1 0 (porównaj Gerber, 1985). Dla d > 0, dv (x), równanie (5.27) moz·emy zapisać w postaci z (x + y) = z (x) z (y). Zatem u (x) = ecx (1 e x ) =d dla x 2 R, gdzie , c 2 R (patrz Kuczma, 2009, str. 349). ×atwo sprawdzić, z·e wśród nastepuj ¾ acych ¾ klas funkcji: u (x) = axecx oraz u (x) = ecx (1 e x ) =d, jedynymi rosnacymi ¾ sa¾ u (x) = ax, a > 0, u (x) = (1 e x ) =d, < 0, d > 0 oraz u (x) = (ecx 1) =d, c; d > 0. (iii) Gdy u (x) = cx, to H (X) + w+H(X) Z [h (P (X > s)) g (P (X > s))] ds = Ehg X. 0 Niech X, Y bed ¾ a¾ niezalez·nymi zmiennymi losowymi takimi, z·e P (X = 1) = q = 1 P (X = 0), P (Y = 1) = p = 1 P (Y = 0) dla p; q 2 [0; 1]. Poniewaz· Ehg X = Eh X = h (q), wiec ¾ H (X) + w+H(X) Z h q1(0;1) (s) g q1(0;1) (s) ds = h (q) . 0 Stad ¾ Dla w H (X) + (h (q) g (q)) min fw + H (X) ; 1g = h (q) , H (Y ) + (h (p) g (p)) min fw + H (Y ) ; 1g = h (p) . 1 mamy H (X) = g (q) , H (Y ) = g (p) . 60 (5.28) Ponadto H (X + Y ) + w+H(X+Y ) Z [h (p + q pq) g (p + q pq)] 1[0;1) (t) 0 + [h (pq) g (pq)] 1[1;2) (t) dt = Ehg (X + Y ) , gdzie Ehg (X + Y ) = Eh (X + Y ) = h (p + q w (5.29) pq) + h (pq) oraz H (X + Y ) 2. Stad ¾ dla 2 dostajemy pq) + g (pq) . H (X + Y ) = g (p + q Dla w (5.30) 2 z addytywności H (X), z (5.28) i (5.30) mamy g (p) + g (q) = g (p + q (5.31) pq) + g (pq) dla p; q 2 [0; 1]. W taki sam sposób jak w dowodzie Twierdzenia 4.6 wykazujemy, z·e g (p) = p. Stad ¾ g (p) = p. Wykaz·emy, z·e h (p) = p. Niech w = 1. Gdy H (X + Y ) mamy p + q pq + h (pq) H (X + Y ) = . 1 + h (pq) pq Jeśli p; q 2 [0; 1] sa¾ takie, z·e p + q H (X + Y ) 1 oraz p+q = dla p; q 2 [0; 1] i p + q q 2 0; 1 4 1, to z (5.29) 1, to z addytywności H (X) otrzymujemy, z·e p + q pq + h (pq) 1 + h (pq) pq 1. Stad ¾ h (pq) = pq. K÷ adac ¾ p= 1 2 dostajemy, z·e h (q) = q dla . Niech w = 0. Wtedy H (Y ) = h (p) 1 + h (p) p , (5.32) zaś wzór na H (X) otrzymujemy zmieniajac ¾ p na q we wzorze (5.32). Ponadto H (X + Y ) = gdy 0 H (X + Y ) 1 h (p + q pq) + h (pq) , p q + pq + h (p + q pq) 1. Jeśli po÷ oz·ymy p = 1 (5.33) q, to H (X + Y ) = 1 i z addytywności H (X) mamy 1= h (p) 1 + h (p) p + h (1 p) . h (1 p) + p (5.34) K÷ adac ¾ p = 1=2 w (5.34) otrzymujemy h (1=2) = 1=2. Ponadto z (5.34) wynika, z·e h (p) = p 61 dla p 2 [3=4; 1]. Niech teraz p = q dla 0 1=2 oraz H (X + Y ) p 1=2. Poniewaz· h jest niemalejaca, ¾ wiec ¾ h (p) 1 p 1 dla 0 p 1=2. Z addytywności H (X), z (5.32) i (5.33) mamy 2h (p) h (2p = 1 + h (p) p 1 + h (2p p2 ) + h (p2 ) . p2 ) (2p p2 ) p2 ) = 2p Poniewaz· h (p) = p dla 0 p h (p) = p dla 0 1=16 = 7=16. Z (5.35) dla 0 p2 dla 0 p 1=2 7 16 25 16 1=4, wiec ¾ h (2p (5.35) p2 dla 0 p 1=4. Stad ¾ 7=16 mamy h (2p p p2 ) = 175 . 256 Z faktu, z·e 175=256 > 1=2, dostajemy, z·e h (p) = p dla 0 p 1=2. Z (5.34) wynika, z·e h (p) = p dla p 2 [0; 1]. Niech teraz u (x) = (1 e cx ) =a. Wówczas 2p p ecH(X) + = exp(c(w+H(X))) Z h P ecX > t g P ecX > t dt = Ehg ecX . 0 Niech X, Y bed ¾ a¾ niezalez·nymi zmiennymi losowymi takimi, z·e P (X = s) = q = 1 P (X = 0), P (Y = s) = p = 1 P (Y = 0). Wtedy Ehg ecX = Eh ecX = ecs h (q) + 1 h (q) oraz Eh ec(X+Y ) = 1 h (p + q pq) + ecs (h (p + q pq) h (pq)) + e2cs h (pq) . Poniewaz· P ecX > t = 1[0;1) (t) + q1[1;ecs ) (t), wiec ¾ ecH(X) + exp(c(w+H(X))) Z [h (q) g (q)] 1[1;ecs ) (t) dt = ecs h (q) + 1 h (q) . 1 Stad ¾ ecH(X) + (h (q) Jez·eli w g (q)) min ec(w+H(X)) ; ecs s, to ecH(X) = ecs g (q) + 1 Zatem 1 = ecs h (q) + 1 1 ln (ecs g (q) + 1 c 1 H (Y ) = ln (ecs g (p) + 1 c H (X) = 62 g (q) . g (q)) , g (p)) . h (1) . Ponadto H (X + Y ) = ecH(X+Y ) exp(c(w+H(X+Y ))) Z + [h (p + q pq) g (p + q pq)] 1[1;ecs ) (t) 1) + (h (pq) g (pq)) e2cs 1 + [h (pq) Gdy w g (pq)] 1[ecs ;e2cs ] (t) dt. 2s, to ecH(X+Y ) + (h (p + q = 1 pq) pq) + ecs (h (p + q h (p + q pq)) (ecs g (p + q pq) ecs h (pq)) + e2cs h (pq) . Z addytywności H (X) otrzymujemy równość dwóch wielomianów zmiennej ecs . Poniewaz· s jest dowolne, wiec ¾ porównujac ¾ wspó÷ czynniki przy e2cs wnioskujemy, z·e g (p) g (q) = g (pq) dla p; q 2 [0; 1]. Korzystajac ¾ z tego faktu i porównujac ¾ wspó÷ czynniki wielomianów przy ecs , otrzymujemy ponownie równanie (5.31). Stad ¾ g (p) = p dla p 2 [0; 1]. Udowodnimy, z·e h (p) = p. Niech w = 0. Wtedy H (X) = 1 ln c ecs h (q) + 1 q 1 + h (q) q . (5.36) Zmieniajac ¾ q na p w (5.36) otrzymujemy wzór na H (Y ). Ponadto H (X + Y ) = gdy 0 1 ln c q + pq) + ecs (h (p + q 1 + h (p + q pq) pq) h (pq)) + e2cs h (pq) (p + q pq) , 1 ln c (1 p q + pq) + ecs (p + q 2pq) + e2cs h (pq) 1 + h (pq) pq , 2s. Z addytywności H (X) mamy H (X + Y ) = p s oraz H (X + Y ) H (X + Y ) = jeśli s (1 (1 p (1 p q + pq) + ecs (h (p + q pq) h (pq)) + e2cs h (pq) 1 + h (p + q pq) (p + q pq) q + pq) + ecs (h (p) (1 q) + h (q) (1 p)) + e2cs h (p) h (q) , (1 + h (q) q) (1 + h (p) p) 63 (5.37) gdy 0 = dla s s oraz H (X + Y ) (1 p (1 p q + pq) + ecs (p + q 2pq) + e2cs h (pq) 1 + h (pq) pq q + pq) + ecs (h (p) (1 q) + h (q) (1 p)) + e2cs h (p) h (q) (1 + h (q) q) (1 + h (p) p) (5.38) 2s. Poniewaz· we wzorach (5.37) i (5.38) s jest dowolne, wiec ¾ otrzymujemy H (X) równość dwóch wielomianów zmiennej ecs . Porównujac ¾ wyrazy wolne wielomianów w (5.37) i (5.38) otrzymujemy 1 + h (p + q pq) 1 + h (pq) (p + q pq) = (1 + h (q) pq = (1 + h (q) q) (1 + h (p) q) (1 + h (p) p) , p) , (5.39) co oznacza, z·e mianowniki po lewych i prawych stronach równości (5.37) i (5.38) sa¾ równe. Porównujac ¾ teraz w obu przypadkach wspó÷ czynniki przy e2cs dostajemy h (p) h (q) = h (pq) dla p; q 2 [0; 1]. Poniewaz· h jest niemalejaca, ¾ wiec ¾ jest mierzalna, a zatem h (p) = pd dla p 2 [0; 1] i pewnego d 2 R (patrz Kuczma, 2009, str. 345-350). K÷ adac ¾ p = q = 1=2 w (5.39) mamy (1=2)d = 1=2. Stad ¾ d = 1. Dowód w przypadku, gdy u (x) = (ecx 1) =a jest analogiczny. Goovaerts i inni (2010 a) wprowadzaja¾ funkcjona÷ (X) = Z0 (g (P (X > x)) 1) du (x) + 1 i miare¾ ryzyka Z1 g (P (X > x)) du (x) (5.40) 0 zmiennej losowej X, która jest rozwiazaniem ¾ równania 0= (X ). (5.41) Przekszta÷ cajac ¾ prawa¾ strone¾ równania (5.40) otrzymujemy (X) = Z0 1 (g (P (u (X) > y)) 1) dy + Z1 g (P (u (X) > y)) dy = Eg u (X) . (5.42) 0 Po÷ óz·my u e (x) = u ( x). Z (5.41) i (5.42) wynika, z·e miara ryzyka odpowiada sk÷ adce e (H (X) X) = 0. Poprzez przyjecie ¾ s÷ abszych H (X), która jest rozwiazaniem ¾ równania Eg u 64 za÷ oz·eń dotyczacych ¾ funkcji wartości i funkcji zniekszta÷ cajacych ¾ prawdopodobieństwo oraz fakt, z·e prawdopodobieństwa zysków i strat moga¾ być zniekszta÷ cane w inny sposób, Twierdzenie 5.4 jest uogólnieniem g÷ ównego wyniku podanego przez Goovaertsa i innych (2010 a). P9 Subaddytywność. Twierdzenie 5.5 Niech u (x) = cx dla pewnego c > 0, za´s g; h 2 G bed ¾ a¾ takie, ·ze h = g. Wtedy H (X) jest subaddytywna wtedy i tylko wtedy, gdy g jest wypuk÷a. Dowód Niech u (x) = cx. Wtedy H (X) = Eg X. Za÷ óz·my, z·e g jest wypuk÷ a. Wiadomo, z·e Eg (X + Y ) Eg X + Eg Y wtedy i tylko wtedy, gdy g jest wkles÷ ¾ a (patrz Denneberg, 1994). ¾ a, mamy Zatem dla g, która jest wkles÷ H (X + Y ) = Eg (X + Y ) Eg X + Eg Y = H (X) + H (Y ) . (5.43) Za÷ óz·my teraz, z·e H (X) jest subaddywtywna. Wtedy warunek (5.43) jest spe÷ niony, a wiec ¾ g jest wkles÷ ¾ a. P10 Zachowanie pierwszego porzadku ¾ stochastycznego W÷ asność ta spe÷ niona jest dla wszystkich funkcji u 2 U i g; h 2 G, poniewaz· zachodza¾ w÷ asności P1 i P2. P11 Zachowanie porzadku ¾ stop-loss. Twierdzenie 5.6 Je·zeli u 2 U jest wkles÷ ¾ a, g; h 2 G sa¾takie, ·ze g = h, g jest wypuk÷a oraz X SL Y , to H (X) H (Y ). Dowód Twierdzenia 5.6 podaje Heilpern (2003). P12 Warunek zysku netto. Twierdzenie 5.7 Je·zeli u 2 U jest wkles÷ ¾ a, g; h 2 G sa¾ takie, ·ze g (p) wszystkich 0 p 1 oraz X 0, to H (X) EX. Dowód Z W9 mamy u (w) = Egh u (w + H (X) X) 65 u (Egh (w + H (X) X)) . h (p) p dla Stad, ¾ z W3 i (2.1) dostajemy w w + H (X) Ehg X + w+H(X) Z [h (P (X > s)) g (P (X > s))] ds. 0 Poniewaz· X 0, wiec ¾ H (X) Eh X + w+H(X) Z [g (P (X > s)) h (P (X > s))] ds. 0 Z faktu, z·e g (p) h (p) p oraz z W5 otrzymujemy H (X) Eh X EX. Twierdzenie 5.8 Je´sli u 2 U jest wkles÷ ¾ a, g; h 2 G, X < s = sup X, h (P (X = s)) g (P (X < s)), 0 < w < s oraz 1 EX to EX (g (P (X w)) g (P (X = s))) w + g (P (X = s)) s, H (X). Dowód Niech Y = 0, gdy X < w, Y = w dla w X < s oraz Y = s gdy X = s. Wtedy X. Rozwaz·my nastepuj ¾ ace ¾ przypadki. Y 1 0 u (w) w + H (X) s. Wówczas Eg u (w + H (X) = u (w s + H (X)) (1 + (g (P (X < s)) 2 w + H (X) u (w) Y) g (P (X < s))) g (P (X < w))) u (H (X)) + g (P (X < w)) u (w + H (X)) . s < 0. Poniewaz· h (P (X = s)) Egh u (w + H (X) g (P (X < w))) + u (w + H (X)) g (P (X < w)) +h (P (X = s)) u (w + H (X) s + H (X)) (1 + (g (P (X < s)) g (P (X < s)), wiec ¾ Y) = u (H (X)) (g (P (X < s)) u (w 1 s) g (P (X < s))) g (P (X < w))) u (H (X)) + g (P (X < w)) u (w + H (X)) . 66 Z nierówności Jensena mamy H (X) w (g (P (X < s)) = (g (P (X w)) g (P (X < w))) + s (1 g (P (X < s))) g (P (X = s))) w + g (P (X = s)) s: Twierdzenie 5.9 Je´sli u 2 U jest wkles÷ ¾ a na [0; 1), g; h 2 G, w EX to H (X) w (1 0 oraz g (P (X < w))) , EX. Dowód Po÷ óz·my Y = 0, gdy X < w oraz Y = w, gdy X w. Wtedy Y X. Z monotoniczności uogólnionej ca÷ ki Choqueta mamy u (w) Egh u (w + H (X) = u (H (X)) (1 Y ) = Eg u (w + H (X) Y) g (P (X < w))) + u (w + H (X)) g (P (X < w)) u (wg (P (X < w)) + H (X)) , gdzie skorzystaliśmy z faktu, w (1 z·e u jest wkles÷ ¾ a na [0; 1). g (P (X < w))), co kończy dowód. Stad ¾ H (X) W Twierdzeniu 5.9 zak÷ adamy wkles÷ ¾ ość funkcji u tylko dla dodatnich argumentów. Klasa funkcji wartości zaproponowana przez Kahnemana i Tversky’ego spe÷ nia te za÷ oz·enia, choć takie funkcje nie musza¾ być wkles÷ ¾ e na R jak to jest zak÷ adane w Twierdzeniu 5.7. Warunek EX oraz 0 w (1 X g (P (X < w))) jest spe÷ niony, gdy g (P (X < w)) jest ma÷ a¾ liczba, ¾ EX < w s, przy czym s > w. P13 Iteracyjność. Sk÷ adk¾ e H (XjY ) de…niujemy jako rozwiazanie ¾ równania u (w) = Egh [u (w + H (XjY ) X) jY ] (patrz wzór (4.37)). Twierdzenie 5.10 (i) Je·zeli g (p) = h (p) = p oraz u 2 U0 , to sk÷adka H (X) ; która jest rozwiazaniem ¾ równania (5.2) jest iteracyjna. 67 (ii) Niech u 2 U bedzie ¾ taka, ·ze istnieje pochodna prawostronna u, która jest dodatnia dla wszystkich x 6= 0. Niech g; h 2 G bed ¾ a¾ rosnace ¾ i ciag÷ ¾ e na [0; 1] oraz za÷ó·zmy, ·ze istnieja¾ sko´nczone pochodne jednostronne g 0 (x) i h0+ (x) dla x 2 (0; 1) oraz 0 < h0+ (0) ; g 0 (1) < 1. Je·zeli sk÷adka H (X) jest iteracyjna dla w = 0, to g (p) = h (p) = p oraz u 2 U0 : W twierdzeniu tym nie zak÷ adamy róz·niczkowalności funkcji u, g i h, co jest zgodne z za÷ oz·eniami teorii skumulowanej perspektywy. Niech I R bedzie ¾ przedzia÷ em oraz f : I ! R. W dalszym ciagu ¾ poprzez f 0 (x) bedziemy ¾ oznaczali pochodna¾ prawostronna¾ funkcji f w punkcie x 2 Infsup Ig. Lemat 5.3 Niech f : [0; 1] ! R bedzie ¾ ciag÷ ¾ a. Je·zeli f jest prawostronnie ró·zniczkowalna w ka·zdym punkcie x 2 [0; 1) oraz f 0 (x) = 0 dla x 2 [0; 1), to f jest funkcja¾sta÷¾ a na [0; 1]. Uwaga 5.1 Dowód Lematu 5.3 podaja¾ Rajwade i Bhandari (2007). Za÷o·zenie o ciag÷ ¾ o´sci f w powy·zszym lemacie nie mo·ze by´c pominiete. ¾ Istotnie, funkcja f (x) = 1[x0 ;1] (x) dla x0 2 (0; 1] spe÷nia równanie f 0 (x) = 0 dla x 2 [0; 1), ale f nie jest sta÷a na [0; 1]. Uwaga 5.2 Niech f : [0; 1] ! R bedzie ¾ ciag÷ ¾ a oraz f (0) = a, gdzie a 2 R jest ustalone. Za÷ó·zmy, ·ze f spe÷nia równanie ró·zniczkowe f 0 (x) = g (x) dla x 2 [0; 1), gdzie funkcja g jest znana. Je·zeli G jest ciag÷ ¾ ym rozwiazaniem ¾ tego równania ró·zniczkowego, to (f G)0 = 0. Z Lematu 5.3 wynika, ·ze G jest jedynym rozwiazaniem ¾ równania f 0 (x) = g (x). Lemat 5.4 Przy za÷o·zeniach Twierdzenia 5.10, niech f : [0; 1] ! R bedzie ¾ funkcja¾ spe÷niajac ¾ a¾warunek u (f (x)) g (1 x) + u (f (x) s) h (x) = 0, (5.44) gdzie s > 0. Wówczas funkcja f jest dobrze okre´slona, rosnaca, ¾ ciag÷ ¾ a i ma prawostronna¾ pochodna.¾ Dowód Niech ' (y) = u (y) g (1 Ponadto ' (0) = u ( s) h (x) s) h (x). Z ciag÷ ¾ ości u wynika, z·e ' jest ciag÷ ¾ a. 0, ' (s) = u (s) g (1 x) 0 oraz z monotoniczności u, g i x) + u (y h wynika, z·e ' ma dok÷ adnie jedno miejsce zerowe. Zatem f jest określona jednoznacznie. Pokaz·emy, z·e f jest funkcja¾ róz·nowartościowa. ¾ Istotnie, przypuśćmy, z·e istnieja¾ 0 x1 < x2 1 takie, z·e f (x1 ) = f (x2 ). Wówczas u (f (xi )) g (1 xi ) + u (f (xi ) 68 s) h (xi ) = 0 dla i = 1; 2. (5.45) Jez·eli x1 = 0, to u (f (x1 )) = 0 oraz f (x1 ) = 0. Zatem jeśli f (x1 ) = f (x2 ), to h (x2 ) = 0, co oznacza, z·e x2 = 0 sprzeczność. Moz·emy zatem za÷ oz·yć, z·e x1 > 0. Poniewaz· u (f (x1 )) = u (f (x2 )), wiec ¾ przyrównujac ¾ lewe strony równania (5.45) dla i = 1 oraz i = 2 mamy 1 < h (x2 ) =h (x1 ) = g (1 x2 ) =g (1 x1 ) < 1 - sprzeczność. Wobec tego f jest róz·nowartościowa. Pokaz·emy, z·e f jest ciag÷ ¾ a i ma pochodna¾ prawostronna. ¾ Niech x 2 [0; 1). Z (5.44) mamy u (f (x)) =u (f (x) s) = h (x) =g (1 x). Zde…niujmy (x) = s) dla x 2 [0; s). Z za÷ oz·eń dotyczacych ¾ funkcji u wynika, z·e jest dobrze zde…niowana, ciag÷ ¾ a i ma pochodna¾ prawostronna. ¾ Stad ¾ f (x) = 1 ( h (x) =g (1 x)) jest u (x) =u (x równiez· ciag÷ ¾ a i ma pochodna¾ prawostronna¾ na [0; 1). Wykaz·emy, z·e f jest ciag÷ ¾ a w x = 1. Niech xn ! 1 , gdy n ! 1. Za÷ óz·my, z·e f (xn ) ! a dla pewnego a. Wtedy z (5.45) mamy u (f (xn )) g (1 xn ) + u (f (xn ) s) h (xn ) = 0. Gdy n ! 1 , to z ciag÷ ¾ ości u, g i h wynika, z·e a = f (1). Zatem f jest ciag÷ ¾ a na [0; 1]. Poniewaz· f (0) = 0 i f (1) = s, wiec ¾ z ciag÷ ¾ ości funkcji f wynika, z·e jest ona rosnaca. ¾ Dowód Twierdzenia 5.10 (i) Ta cześć ¾ twierdzenia zosta÷ a udowodniona przez Gerbera (1979). (ii) Za÷ óz·my, z·e H (X) jest iteracyjna. Rozwaz·my wektor losowy (X; Y ) o rozk÷ adzie P (X = 0; Y = 1) = 1=2 a, P (X = 0; Y = 2) = 1=2 b, P (X = s; Y = 1) = a, P (X = s; Y = 2) = b, gdzie 0 a; b 1=2 oraz s > 0 sa¾ dowolnie ustalone. Jez·eli w = 0, to sk÷ adka H (XjY ) jest wyznaczona ze wzoru 0 = Egh (u (H (XjY ) X) jY ) . (5.46) Stad ¾ dla H1 = H (XjY = 1), H2 = H (XjY = 2) mamy g (1 2a) u (H1 ) + h (2a) u (H1 s) = 0, (5.47) g (1 2b) u (H2 ) + h (2b) u (H2 s) = 0. (5.48) Z Lematu 5.4 wynika, z·e H1 < H2 dla a < b. Z warunku H (X) = H (H (XjY )) wnioskujemy, z·e 0 = Egh u (H (X) H (XjY )), a zatem 0 = g (1=2) u (H (X) H1 ) + h (1=2) u (H (X) H2 ) . (5.49) Ponadto równanie (5.2) dla zmiennej losowej X przy w = 0 moz·emy zapisać jako g (1 (a + b)) u (H (X)) + h (a + b) u (H (X) 69 s) = 0. (5.50) Pokaz·emy, z·e 0 < f 0 (x) < 1 dla x 2 [0; 1). Z (5.47), (5.48) i (5.50), równanie (5.49) moz·emy zapisać jako g (1=2) u (f (a + b) dla wszystkich 0 a<b f (2a)) + h (1=2) u (f (a + b) (5.51) f (2b)) = 0 1=2, gdzie f jest funkcja¾spe÷ niajac ¾ a¾(5.44). Obliczajac ¾ pochodne prawostronne obu stron równania (5.51) ze wzgledu ¾ na a i b dostajemy odpowiednio g (1=2) u0 (f (a + b) + h (1=2) u0 (f (a + b) g (1=2) u0 (f (a + b) + h (1=2) u0 (f (a + b) dla 0 f (2a)) (f 0 (a + b) 2f 0 (2a)) (5.52) f (2b)) f 0 (a + b) = 0 f (2a)) f 0 (a + b) f (2b)) (f 0 (a + b) (5.53) 2f 0 (2b)) = 0 a < b < 1=2. Odejmujac ¾ stronami równanie (5.53) od równania (5.52) otrzymujemy g (1=2) u0 (f (a + b) dla 0 f (2a)) f 0 (2a) = h (1=2) u0 (f (a + b) f (2b)) f 0 (2b) a < b < 1=2, gdzie g (1=2) h (1=2) > 0, co wynika z monotoniczności g i h. Jez·eli 0 0, to z za÷ oz·enia u0 (x) 6= 0 dla x 6= 0 i faktu, z·e f jest róz·nowartościowa mamy f 0 (2b) = 0 dla a < b < 1=2. Gdyby pochodna prawostronna by÷ a równa 0 na pewnym przedziale, to z Lematu 5.3 i ciag÷ ¾ ości f wynika÷ oby, z·e f jest sta÷ a, f (2a) = 0 dla jakiegoś a co przeczy÷ oby faktowi, z·e jest róz·nowartościowa. Pokazaliśmy zatem, z·e f 0 (x) > 0 dla wszystkich 0 x < 1. Gdyby f 0 (2a) = 1 dla pewnego a 0, to z za÷ oz·enia u0 (x) < 1 wynika÷ oby, z·e f 0 (2b) = 1 dla wszystkich a < b < 1=2, co jest niemoz·liwe. Stad ¾ 0 < f 0 (x) < 1 dla 0 x < 1. Z (5.53) mamy u0 (f (a + b) f (2a)) = h (1=2) (u0 (f (a + b) f (2b))) (f 0 (a + b) g (1=2) f 0 (a + b) 2f 0 (2b)) . (5.54) Wstawiajac ¾ (5.54) do (5.52) i korzystajac ¾ z za÷ oz·enia, z·e u0 (x) 6= 0 dla x 6= 0, mamy (f 0 (a + b) dla 0 2f 0 (2a)) (f 0 (a + b) 2f 0 (2b)) =f 0 (a + b) + f 0 (a + b) = 0 a < b < 1=2. Zde…niujmy funkcje¾ F (x) = f 0 (0) =f 0 (x) 70 (5.55) 1. Z (5.55) i symetrii wynika, z·e 2F (a + b) = F (2a) + F (2b) dla 0 a; b < 1=2. Poniewaz· f 0 jest mierzalna jako granica punktowa funkcji mierzalnych, wiec ¾ F jest równiez· mierzalna. Stad ¾ F (x) = cx dla pewnego c 2 R (patrz Kuczma 2009, str. 354). Rozwaz·my nastepuj ¾ ace ¾ przypadki. 1 Niech c = 0. Wtedy f 0 (x) = f 0 (0) > 0 dla x 2 [0; 1). Poniewaz· f jest ciag÷ ¾ a i f (1) = s, wiec ¾ z Lematu 5.3 mamy, z·e f (x) = sx. Z (5.44) dostajemy u (sx) g (1 dla s 1i0 1 i 0 u ( 1) h ((s 1) =s) = 0 dla s dla wszystkich t 0. s) h (1=s) = 0 dla s (5.57) u ( 1) h 1) g (1 (s 1 dostajemy t 1+t =g 1 t 1+t (5.58) K÷ adac ¾ y = 1 w (5.57) otrzymujemy u (1) g (1 1. Podstawiajac ¾1 1) =s) + 1=s) + s = t mamy 1 u (1) g 1 1 t =h 1 1 (5.59) t 0. Wstawiajac ¾ (5.58) i (5.59) do (5.56) dostajemy u ( 1) dla s s) h (y=s) = 0 1 mamy u (s 1. K÷ adac ¾ t=s u (t) = dla t y=s) + u (y s. Z (5.57) dla y = s y u (t) = u (1 (5.56) 1. Stad ¾ dla y = sx otrzymujemy x u (y) g (1 dla s s) h (x) = 0 x) + u (sx 1i0 sx 1 + sx x < 1, gdzie + u (1) (x) = 1 1 + s (1 x) (5.60) =0 x). Rozwia¾z·emy teraz równanie (5.60). (x) = h (x) =g (1 Wstawiajac ¾ x = 1=s < 1 do (5.60) mamy u ( 1) (1=2) + u (1) = 0 dla s > 1. Zatem u (1) = ( u ( 1)) (1=2) . (5.61) Jeśli wstawimy (5.61) do (5.60), otrzymamy sx 1 + sx dla s 1 oraz 0 1 1 + s (1 x) = 1 2 x < 1. K÷ adac ¾ x = 1=2 w (5.62) mamy 71 (x) (s= (2 + s)) (5.62) (2= (2 + s)) = 2 (1=2) dla s 1. Stad ¾ (x) (1 2 x) = (x) (1 (1=2) dla x 2 (0; 2=3]. Z symetrii otrzymujemy x) = 2 (5.63) (1=2) dla 0 < x < 1. Obliczajac ¾ pochodna¾ prawostronna¾ obu stron równania (5.62) ze wzgledu ¾ na x, mamy 0 + dla 0 x<1is s (1 + sx)2 sx 1 + sx sx 1 + sx 1 1 + s (1 0 x) x) s (1 + s (1 1. Poniewaz· 0 0 (0) (1= (1 + s)) = t (1=2) 0 (x) 0 (5.64) (0) (5.65) t) 1=2. Z (5.63) i (5.65) mamy 2 (1=2) = (1 t) = t (1=2) = (1 t) (5.66) t < 1. Poniewaz· (0) = 0, z (5.65) i (5.66) dostajemy (t) = t (1=2) = (1 dla 0 = (0) = h0 (0) > 0, wiec ¾ k÷ adac ¾ t = 1= (1 + s) w (5.64) otrzymujemy (t) = dla 1=2 x)) (1=2) (t) = t (1=2) = (1 dla 0 < t 2 1. Dla x = 0 dostajemy s dla s 1 1 + s (1 (5.67) t) t < 1. Wstawiajac ¾ (5.67) do (5.58) i (5.59) mamy u (t) = ( u ( 1)) (1=2) t dla 0 oraz u (t) = u (1) t= (1=2) dla t < 0. Z (5.61) otrzymujemy (1=2) t dla t u (t) = u ( 1) u (t) = u ( 1) t dla t < 0. 0 (5.68) (5.69) Pokazaliśmy, z·e u jest liniowa na ( 1; 0) i (0; 1). Później wyznaczymy postać funkcji g i h oraz wykaz·emy, z·e u jest liniowa na R. 2 Niech c > 0. Wtedy F (x) = cx oraz f 0 (x) = f 0 (0) = (1 + cx), gdzie f (0) = 0. Poniewaz· f jest ciag÷ ¾ a, wiec ¾ z Uwagi 5.2 wynika, z·e f (x) = 72 1 ln (1 + cx) dla x 2 [0; 1], gdzie 1 = c=f 0 (0) jest ustalone, niezalez·ne od s. Ponadto z faktu, z·e f (1) = s = ln (1 + c) mamy c = es 1. Równanie (5.44) jest wówczas postaci u0 (ln (1 + cx)) g (1 x) + z) h (x) = 0 dla z > 0 i 0 u0 (ln (1 + cx) 1, gdzie u0 (x) = u (x= ) oraz z = s . x y K÷ adac ¾ e = 1 + cx mamy (ey u0 (y) g (1 dla z y 0, poniewaz· f (x) Wtedy u0 (z dla z 1) g 1 1. Poniewaz· c = es 0, gdzie y = 1. ez (5.71) 1 (e 1) =c) + u0 (1 dla t = 1 z mamy c = e1 t ez 1 =c + u0 ( 1) h 1 = ez dla z > y (5.72) 1. Poniewaz· c = ez 1) =c) = 0 dla z 1, wiec ¾ 1 oraz u0 (1) = 1) = e1 (e t g 1 ey ez 1 1 (5.73) 1 1 dostajemy 1 u0 (1) e 1 e1+z y ey ez h 1 1 1 =0 0. Stad ¾ u0 ( 1) dla z > y 1, z (5.71) mamy x < 1. K÷ adac ¾ y = 1 w (5.70) otrzymujemy dla t < 0. Wstawiajac ¾ (5.72) i (5.73) do (5.70) przy c = ez ey 1 ey+1 1 1 =c = 0 ex 1 ex+1 1 u0 ( 1) z) h ((e u0 (t) = u0 ( 1) 1 1, wiec ¾ przyjmujac ¾ x=z x) dla 0 (x) = h (x) =g (1 u0 (1) g (1 (5.70) 1) =c) = 0 s dla x 2 [0; 1]. Niech x 2 [0; 1] bedzie ¾ takie, z·e z u0 (x) = dla x z) h ((ey 1) =c) + u0 (y ey 1 ey+1 1 0. K÷ adac ¾ y=z u0 ( 1) e 1 e1+z y 1 ey ez + u0 (1) 1 1 =0 (5.74) 1 w (5.74) mamy ez 1 1 ez 1 e e2 1 1 + u0 (1) ez 1 1 ez 1 =0 dla z > 1. Poniewaz· (x) > 0 dla x > 0, wiec ¾ u0 (1) = u0 ( 1) (e 73 1) = e2 1 . (5.75) Z (5.74) i (5.75) mamy ey 1 ey+1 1 dla 0 e 1 e1+z y ey ez = 1 1 1 e e2 1 1 (5.76) y < z. Obliczajac ¾ pochodna¾ prawostronna¾ obu stron równania (5.76) ze wzgledu ¾ na y mamy 0 + ey 1 ey+1 1 ey 1 ey+1 1 ey (e (ey+1 0 e1+z y K÷ adac ¾ y = 0, z faktu z·e e 1) 1)2 e 1 1 (e 1) e1+z y = (e1+z y 1)2 1 0 (0) = 0 oraz e (e 1 1)2 dla z > 0. Podstawiajac ¾ r = (e 1 e1+z y e ey ez 1 1 ey ez 1 e e2 1 1 . (0) = h0 (0) > 0 wynika, z·e 1 e1+z e e2 = 1 1) = (e1+z (r) = 0 1 1 1 ez 1 1) otrzymujemy r 1 r e e2 e 1 1 (5.77) dla 0 < r < 1. Z (5.72), (5.73) i (5.77) mamy u0 (x) = u0 ( 1) u0 (x) = u0 (1) 1 x e e 1 1 e e x e 1 u0 ( 1) 1 e e e2 1 e 1 e2 1 1 1 dla x > 0, (5.78) dla x < 0. Z (5.75) mamy u0 (x) = x = (e 1) dla x < 0. (5.79) Z (5.78) i (5.79) wynika, z·e u jest wyk÷ adnicza na ( 1; 0) i (0; 1). Aby udowodnić, z·e u jest wyk÷ adnicza na R, musimy najpierw wyznaczyć funkcje g i h. 3 Gdy c < 0, to w podobny sposób pokazujemy, z·e u jest kawa÷ kami wyk÷ adnicza. Wyznaczymy teraz funkcje g i h. Niech (X; Y ) bedzie ¾ wektorem losowym o rozk÷ adzie P (X = 0; Y = 1) = 1=4 a, P (X = 0; Y = 2) = 1=4 P (X = z; Y = 2) = 1=4 d, P (X = s; Y = 1) = a + c, P (X = s; Y = 2) = b + d, gdzie 0 a; b; c; d 1=4, a + c 1=2, b + d b, P (X = z; Y = 1) = 1=4 c, 1=2 i 0 < z < s. Niech w = 0. Po÷ óz·my 74 H1 = H (XjY = 1), H2 = H (XjY = 2), H = H (X). Jez·eli u (H1 mamy 0 = g (1 2 (a + c)) u (H1 z)+g (1=2 2a) (u (H1 ) u (H1 z) 0, to z (5.46) z))+h (2 (a + c)) u (H1 s) , (5.80) poniewaz· u (H1 s) < 0, przy czym (u (H1 X))+ przyjmuje wartości 0, u (H1 z prawdopodobieństwami warunkowymi odpowiednio 2 (a + c), 1=2 ( u (H1 X))+ przyjmuje wartości 0 i i 2 (a + c). Jez·eli u (H1 0 = g (1=2 u (H1 z) i u (H1 ) 2c i 1=2 2a, zaś s) z prawdopodobieństwami 1 2 (a + c) z) < 0, to 2a) u (H1 ) + h (1=2 + 2a) u (H1 z) + h (2 (a + c)) (u (H1 s) u (H1 z)) . (5.81) Niech u bedzie ¾ funkcja¾ określona¾ wzorami (5.68) i (5.69). Przyjmujac, ¾ z·e (5.67)-(5.69) wynika, z·e h (x) = g (1 x) h (1=2) x dla 0 g (1=2) 1 x u (x) = h (1=2) x=g (1=2) dla x u ( 1) = 1, z x < 1, (5.82) 0, (5.83) u (x) = x dla x < 0. (5.84) Wstawiajac ¾ (5.82)-(5.84) do (5.80) i (5.81) mamy H1 = z (1 gdy H1 g (1=2 2a) g (1 2 (a + c)) 2 (a + c)) 1 + 2 (a + c) s, (5.85) g (1 2 (a + c)) (a + c) (1 4a) g (1=2 2a) 1 2 (a + c) (5.86) z i a + c < 1=2 oraz H1 = (1=2 + 2a) z + (s z) dla H1 < z i a + c < 1=2. Wzór na H2 otrzymujemy zamieniajac ¾ a na b i c na d we wzorach (5.85) i (5.86). W podobny sposób otrzymujemy wzór na H: H = z (1 (a + b + c + d)) 1 g (1=2 (a + b)) g (1 (a + b + c + d)) 75 + (a + b + c + d) s, (5.87) gdy H H= z oraz 1 + (a + b) z +(s 2 z) g (1 (a + b + c + d)) (a + b + c + d) (1 2 (a + b)) , (5.88) 2g (1=2 (a + b)) 1 (a + b + c + d) jeśli H < z. Z (5.83) i (5.84), po skorzystaniu z warunku iteracyjności, wzór (5.49) dla H1 < H2 jest równowaz·ny temu, z·e (5.89) (H1 + H2 ) =2 = H, poniewaz· H H1 > 0 > H H2 co jest konsekwencja¾ (5.49). Ten sam warunek otrzymujemy, gdy H2 < H1 . Po÷ óz·my a + c = 1=4, b + d = 1=4. Z (5.85) dostajemy 2a) =g (1=2)) =2 + s=2. ×atwo sprawdzić, z·e dla 0 a z. Podobnie, dla 0 b 1=4 i b + d = 1=4 dostajemy H2 H1 = z (1 g (1=2 mamy H1 1=4 i s = 2z z. Z (5.87) równanie (5.89) dla a + c = 1=4, b + d = 1=4 i s = 2z moz·emy zapisać w postaci 1 2 z = 2 z 2 1 g (1=2 2a) z +z+ g (1=2) 2 g (1=2 (a + b)) + z, g (1=2) 1 g (1=2 2b) g (1=2) 1 +z co jest równowaz·ne temu, z·e (g (1=2 2a) + g (1=2 2b)) =2 = g (1=2 (a + b)) dla 0 a; b 1=4. Otrzymaliśmy równanie funkcyjne Jensena postaci (g (x) + g (y)) =2 = g ((x + y) =2) dla 0 1=2. Stad, ¾ z ciag÷ ¾ ości i monotoniczności g wynika, z·e g (x) = x 1=2 i pewnego 0 < 2 (patrz Kuczma, 2009, str. 354). W celu wyznaczenia dla 0 < x x; y wartości funkcji g na [1=2; 1], po÷ óz·my a = 0, 0 c 1=4 i s = 3z=2 we wzorze (5.86). Wtedy H1 = gdy H1 < z. Poniewaz· 2cg (1 a = 0, 0 c 2c) = (1 z z 2cg (1 2c) + , 2 2 (1 2c) 2c) 2c= (1 2c) (5.90) 1 dla 0 c 1=4, wiec ¾ dla 1=4 i s = 3z=2 mamy H1 < z. W analogiczny sposób dostajemy wzór H2 = z z 2dg (1 2d) + < z. 2 2 (1 2d) (5.91) Z (5.88) dla a = b = 0 przy s = 3z=2 otrzymujemy H= z z + g (1 2 2 (c + d)) 76 (c + d) < z. (1 (c + d)) (5.92) Z (5.90), (5.91), (5.92) i (5.89), warunek równowaz·ny iteracyjności ma postać 1 g (1 2 dla 0 2c) 2c + g (1 1 2c 1=4. K÷ adac ¾ x=1 c; d 2d) 2d = g (1 1 2d (c + d)) (c + d) 1 (c + d) 2d i z (x) = g (x) (1=x 2c, y = 1 1), otrzymujemy równanie funkcyjne Jensena. Stad ¾ z jest liniowa na [1=2; 1]. Poniewaz· z (1) = 0 i z (1=2) = =2, wiec ¾ z (x) = (x 1) dla 1=2 x 1 i pewnego 0 < 2. Stad ¾ g (x) = x dla 1=2 1 i pewnego 0 < x 1. Ostatecznie g (x) = x dla 0 1 i pewnego x 1. Z ciag÷ ¾ ości g wynika, z·e g (x) = x dla x 2 [0; 1]. Z (5.82) mamy zatem, z·e h (x) = x dla 0 x 1. Poniewaz· h (1=2) = g (1=2) = 1=2, wiec ¾ z (5.83) i (5.84) dostajemy 0 < u (x) = x dla x 2 R. Rozwaz·my teraz przypadek, gdy u0 jest dana wzorami (5.78)-(5.79). Bez straty ogólności rozwaz·ań moz·emy za÷ oz·yć, z·e u0 ( 1) = e 1. Z (5.77) wynika, z·e Wobec tego wzory (5.77)-(5.79) moz·emy zapisać w postaci h (t) = g (1 u0 (x) = 1 t) e t 1 x h (1=2) dla 0 t g (1=2) e x dla x (5.95) 0. e (H1 z) + g (1=2 2a) 1 2 (a + c) 1 e (H1 s) . 2 (a + c)) 1 2 (a + c) 2 (a + c)) 1 +g (1 Stad ¾ e o ile H1 H1 = (1 z. Gdy H2 2 (a + c)) e g (1=2 2a) e z 1 g (1 2 (a + c)) z z, to wzór na e H2 H = (1 (a + b + c + d)) e z e ! H1 z) 1 0 mamy e (H1 z) + 2 (a + c) e s , jest podobny do powyz·szego, przy czym a jest zastapione ¾ przez b, zaś c przez d. Zatem z (5.50) dla H e . (5.94) 0, Przypomnijmy, z·e u (x) = u0 ( x). Z (5.93)-(5.94) i (5.80) dla u0 (H1 0 = g (1 e 1 e2 1 (5.93) t < 1, h (1=2) =g (1=2) dla x u0 (x) = 1 (1=2) = e g (1=2 g (1 z mamy (a + b)) e z 1 (a + b + c + d)) ! + (a + b + c + d) e s . Warunek iteracyjności dla H1 < H2 moz·emy zapisać jako 0 = g (1=2) u (H 77 H1 ) + H2 ) (patrz wzór (5.49)). Z (5.49) mamy H h (1=2) u (H H2 , a wiec ¾ H1 > 0 > H z (5.94) i (5.95) przy u (x) = u0 ( x) dostajemy H e H1 = e Identyczny warunek otrzymujemy dla H2 1=4. Nierówność eH1 b H1 e ez dla 0 1 = 2 H2 (5.96) =2. H1 . Niech a + c = 1=4, 0 a 1=4, b + d = 1=4, 1=4 jest równowaz·na temu, z·e a g (1=2 z e +e z 2a) e g (1=2) ! 1 1 + e 2 s e z 1=4. ×atwo sprawdzić, z·e jest ona spe÷ niona, gdy e s 2e z 1. Ten sam warunek otrzymujemy, gdy e H2 > e z . Wobec tego równanie (5.96) jest równowaz·ne temu, dla 0 a z·e [g (1=2 2a) + g (1=2 2b)] =2 = g (1=2 (a + b)) dla 0 a; b 1=4. Stad ¾ i z ciag÷ ¾ ości g wynika, z·e g (x) = x dla 0 x 1=2 i pewnego 0 2. Aby udowodnić, z·e g (x) = x dla 0 1, rozwaz·my przypadek, gdy H1 < z. Wstawiajac ¾ (5.93)-(5.94) do (5.81) dla x H1 < z mamy 0 = g (1=2 2a) 1 +g (1 H1 e 2 (a + c)) + g (1=2 2 (a + c) 1 1 2 (a + c) 2a) 1=2 + 2a 1 1=2 2a e (H1 s) e (H1 z) (H1 z) 1+e . Zatem e H1 = 1=2 2a + (1=2 + 2a) e Po÷ óz·my a = 0 i 0 e H1 z e 2 (a + c) 2 (a + c)) 1 2 (a + c) g (1 z = 1+e =2 + h (2c) e z =2 g (1 2c) c e s e z e . Wówczas nierówność 1 + e c e z e s = [g (1=2) (1 2c)] . = 1+e z 2c) = [g (1=2) (1 =2 + h (2c) e 1=4. Poniewaz· dla 0 H1 z 2c)], co oznacza, z·e e = (2h (1=2)). Dla dowolnego z > 0 po÷ óz·my e s = 2e z z dla wszystkich 0 e s (1=2 2a) . g (1=2 2a) 1=4. Wtedy c Z (5.93) mamy h (2c) =h (1=2) = 2cg (1 1+e z s 78 = (2h (1=2)) 1=4 mamy c; d =2 + h (2c) e e z s e z = (2h (1=2)) , e z H1 = 1> jest spe÷ niona H2 e e H = 1+e = 1+e z z =2 + h (2d) e =2 + h (c + d) e s e s e z = (2h (1=2)) , z = (2h (1=2)) , wiec ¾ (5.96) moz·emy zapisać jako h (c + d) = (h (2c) + h (2d)) =2 dla 0 h (x) = x dla 0 x g (1 dla 0 x 1=2 i pewnego 0 ostatecznie g (x) = g (x) = x dla 0 x x dla 0 x 1=4. Stad ¾ 2. Z (5.82) mamy x) = h (x) g (1=2) (1 1=2. Zatem g (x) = c; d x) = (xh (1=2)) = x dla 1=2 x (1 x) 1 i pewnego 0 1 i pewnego 0 1. Z (5.82) mamy h (x) = x dla 0 1, a wiec ¾ 1. Z ciag÷ ¾ ości g wynika, z·e x 1 i pewnego 0 1. Z ciag÷ ¾ ości h wnioskujemy, z·e h (x) = x dla 0 x 1. Ponadto z (5.94)-(5.95) wynika, z·e u0 (x) = 1 e x dla x 2 R. Stad ¾ u (x) = u0 ( x) = 1 e x dla pewnego > 0 i wszystkich x 2 R. Analogiczny dowód przeprowadzamy dla drugiego przypadku funkcji wyk÷ adniczej i otrzymujemy, z·e u (x) = ecx 1 dla wszystkich x 2 R i pewnego c > 0. 79 Bibliogra…a [1] Aase, K. K., Persson, S.-A. (1994) Pricing of unit-linked life insurance policies. Scandinavian Actuarial Journal, 26–52. [2] Abdellaoui, M. (2002) A genuine rank-dependent generalization of the von Neumann– Morgenstern expected utility theorem. Econometrica 70, 717–736. [3] Albrecht, P. (1992) Premium calculation without arbitrage? –A note on a contribution by G. Venter. ASTIN Bulletin 22, 247–254. [4] Aliprantis, C. D., Border, K. C. (2007) In…nite Dimensional Analysis: A Hitchhiker’s Guide. Springer-Verlag, Berlin. [5] Allais, M. (1953) Le comportement de l’homme rationnel devant le risque: critique de postulats et axiomes de l’ecole americaine. Econometrica 21, 503–546. [6] Al-Nowaihi, A., Bradley, I., Dhami, S. (2008) A note on the utility function under prospect theory. Economics Letters 99, 337-339. [7] Arrow, K. J. (1971) Essays in the Theory of Risk-Bearing. North-Holland Pub. Co., Amsterdam. [8] Artzner, P., Delbaen, F., Eber, J.-M., Heath, D. (1999) Coherent risk measures. Mathematical Finance 9, 207–225. [9] Bacinello, A. R., Ortu, F. (1993) Pricing equity-linked life insurance with endogenous minimum guarantees. Insurance: Mathematics and Economics 12, 245–257. [10] Baumol, W. J. (1963) An expected gain con…dence limit criterion for portfolio selection. Management Science 10, 174-182. [11] Bernard, C., Ghossoub, M. (2010) Static portfolio choice under Cumulative Prospect Theory. Mathematics and Financial Economics 2, 277-306. [12] Bernoulli, D. (1738). Specimen theoriae novae de mensura sortis. Commentarii Academiae Scientarum Imperalis Petropolitanae 5, 175–192 (t÷ umaczenie: Sommer, L. (1954) Exposition of a new theory on the measurement of risk. Econometrica 22, 23–36). 80 [13] Beyer, D., Riedel, M. (1993) Remarks on the Swiss premium principle on positive risks. Insurance: Mathematics and Economics 13, 39–44. [14] Borch, K. (1962) Equilibrium in a reinsurance market. Econometrica 30, 424-444. [15] Borch, K. (1963) Recent developments in economic theory and their application to insurance. ASTIN Bulletin 2, 322–341. [16] Borch, K. (1968) The Economics of Uncertainty. Princeton University Press, Princeton, NJ. [17] Bowers, N. L., Gerber, H. U., Hickman, J. C., Jones, D. A., Nesbitt, C. J. (1997) Actuarial Mathematics. Second edition, Society of Actuaries, Schaumburg, IL. [18] Boyle, P. P., Schwartz, E. S. (1977) Equilibrium prices of guarantees under equitylinked contracts. Journal of Risk and Insurance 44, 639–660. [19] Bühlmann, H. (1970) Mathematical Methods in Risk Theory. Springer-Verlag, Berlin. [20] Bühlmann, H. (1980) An economic premium principle. ASTIN Bulletin 11, 52–60. [21] Bühlmann, H. (1984) The general economic premium principle. ASTIN Bulletin 14, 13–22. [22] Chateauneuf, A., Cohen, M. (2000) Choquet expected utility model: a new approach to individual behavior under uncertainty and to social welfare. In: Grabisch, M., Mirofushi, T., Sugeno, M. (Eds.), Fuzzy Measure and Integral. Kluwer Academic Publishers, Boston. [23] Chateauneuf, A., Cohen, M., Meilijson, I. (1997) New tools to better model behavior under risk and uncertainty: an overview. Finance 18, 25–46. [24] Choquet, G. (1954) Theory of capacities. Annales de l’institut Fourier 5, 131-295. [25] De Giorgi, E., Hens, T. (2006) Making prospect theory …t for …nance. Financial Markets and Portfolio Management 20, 339-360. [26] De Giorgi, E., Hens, T., Rieger, M. O. (2009) Financial market equilibria with Cumulative Prospect Theory. Swiss Finance Institute Research Paper No. 07-21. [27] De Vylder, F., Goovaerts, M. J. (1979) An invariance property of the Swiss premium calculation principle. M.V.S.V. 79, 105–120. 81 [28] Denneberg, D. (1990) Premium calculation: Why standard deviation should be replaced by absolute deviation. ASTIN Bulletin 20, 181–190. [29] Denneberg, D. (1994) Lectures on Non-additive Measure and Integral. Kluwer Academic Publishers, Boston. [30] Dhaene, J., Denuit, M., Goovaerts, M. J., Kaas, R., Vyncke, D., (2002 a) The concept of comonotonicity in actuarial science and …nance: theory. Insurance: Mathematics and Economics 31, 3–33. [31] Dhaene, J., Denuit, M., Goovaerts, M. J., Kaas, R., Vyncke, D. (2002 b) The concept of comonotonicity in actuarial science and …nance: applications. Insurance: Mathematics and Economics 31, 133–161. [32] Diecidue, E., Schmidt, U., Zank, H. (2009) Parametric weighting functions. Journal of Economic Theory 144, 1102-1118. [33] Dowd, K., Blake, D. (2006) After VaR: The theory, estimation, and insurance applications of quantile-based risk measures. Journal of Risk and Insurance 73, 193229. [34] Ellsberg, D. (1961). Risk, ambiguity, and the Savage axioms. Quarterly Journal of Economics 75, 643–669. [35] Friedman, M., Savage, L. P. (1948) The utility analysis of choices involving risk. Journal of Political Economy 56, 279-304. [36] Gerber, H. U. (1974 a) On additive premium calculation principles. ASTIN Bulletin 7, 215-222. [37] Gerber, H. U. (1974 b) On iterative premium calculation principles. Bulletin of the Swiss Association of Actuaries, 163-172. [38] Gerber, H. U. (1979) An Introduction to Mathematical Risk Theory. Homewood, Philadelphia. [39] Gerber, H. U. (1985) On additive principles of zero utility. Insurance: Mathematics and Economics 4, 249-251. [40] Gerber, H. U., Pafumi, G. (1998) Utility functions: from risk theory to …nance, including discussion. North American Actuarial Journal 2, 74–100. 82 [41] Gerber, H. U., Shiu, E. S. W. (1994) Option pricing by Esscher transforms, with discussion. Transactions of the Society of Actuaries 46, 99–140. [42] Gerber, H. U., Shiu, E. S. W. (1996) Actuarial bridges to dynamic hedging and option pricing. Insurance: Mathematics and Economics 18, 183–218. [43] Gilboa, I. (1987) Expected utility theory with purely subjective nonadditive probabilities. Journal of Mathematical Economics 16, 65–88. [44] Gillen B. J., Markowitz H. M. (2010) A taxonomy of utility functions. Variations in Economic Analysis, Springer New York, 61-69. [45] Goldstein, W. M., Einhorn, H. J. (1987) Expression theory and the preference reversal phenomenon. Psychological Review 94, 236-54. [46] Goovaerts, M. J., De Vylder, F. (1979) A note on iterative premium calculation principles. ASTIN Bulletin 10, 326-329. [47] Goovaerts, M. J., De Vylder, F., Haezendonck, J. (1984) Insurance Premiums: Theory and Applications. North-Holland, Amsterdam. [48] Goovaerts, M.J., De Vylder, F., Martens, F., Hardy, R. (1980) An extension of an invariance property of Swiss premium calculation principle. ASTIN Bulletin 11, 145– 153. [49] Goovaerts, M. J., Kaas, R., Dhaene, J., Tang, Q. (2003) A uni…ed approach to generate risk measures. ASTIN Bulletin 33, 173-191. [50] Goovaerts, M. J., Kaas, R., Laeven, R. J. A. (2010a) A note on additive risk measures in rank-dependent utility. Insurance: Mathematics and Economics 47, 187-189. [51] Goovaerts, M. J., Kaas, R., Laeven, R. J. A. (2010b) Decision principles derived from risk measures. Insurance: Mathematics and Economics 47, 294-302. [52] Goovaerts, M. J., Kaas, R., Laeven, R. J. A., Tang, Q. (2004) A comonotonic image of independence for additive risk measures. Insurance: Mathematics and Economics 35, 581-594. [53] Goovaerts, M. J., Kaas, R., Van Heerwaarden, A. E., Bauwelinckx, T. (1990) E¤ective Actuarial Methods. Elsevier Science Publishers B. V., North Holland. 83 [54] Green, J. R., Jullien, B. (1988) Ordinal independence in nonlinear utility theory. Journal of Risk and Uncertainty 1, 355–387. [55] Hardy, H. G., Littlewood, J. E., Pólya, G. (1952) Inequalities. Cambridge University Press. [56] Heilmann, W. R. (1989) Decision theoretic foundations of credibility theory. Insurance: Mathematics and Economics 8, 77–95. [57] Heilpern, S. (2002) Using Choquet integral in economics. Statistical Papers 43, 53–74. [58] Heilpern, S. (2003) A rank-dependent generalization of zero utility principle. Insurance: Mathematics and Economics 33, 67-73. [59] Hoppe, R. (1998) VaR and the unreal world. Risk 11, 45–50. [60] Hürlimann, W. (1994) A note on experience rating, reinsurance and premium principles. Insurance: Mathematics and Economics 14, 197–204. [61] Hürlimann, W. (1998) On stop-loss order and distortion pricing principles. ASTIN Bulletin 28, 119–134. [62] Kaas, R., van Heerwaarden, A. E., Goovaerts, M. (1994) Ordering of Actuarial Risks. Amsterdam: Institute for Acturial Science and Econometrics, University of Amsterdam. [63] Kahneman, D., Tversky, A. (1979) Prospect theory: An analysis of decisions under risk. Econometrica 47, 313-327. [64] Kamps, U. (1998) On a class of premium principles including the Esscher principle. Scandinavian Actuarial Journal, 75–80. [65] Ka÷ uszka, M., Krzeszowiec, M. (2012 a) Mean-value principle under Cumulative Prospect Theory. ASTIN Bulletin 42, 103-122. [66] Ka÷ uszka, M., Krzeszowiec, M. (2012 b) Pricing insurance contracts under Cumulative Prospect Theory. Insurance: Mathematics and Economics 50, 159-166. [67] Ka÷ uszka, M., Krzeszowiec, M. (2013 a) An iterativity condition for the mean-value principle under Cumulative Prospect Theory. Praca przyjeta ¾ do ASTIN Bulletin. 84 [68] Ka÷ uszka, M., Krzeszowiec, M. (2013 b) On iterative premium calculation principles under Cumulative Prospect Theory. Insurance: Mathematics and Economics 52, 435440. [69] Kaluszka, M., Okolewski, A. (2008) An extension of Arrow’s result on optimal reinsurance contract. Journal of Risk and Insurance 75, 275-288. [70] Ko÷ mogorow, A. I. (1930) Sur la notion de la moyenne. Rendiconti Accademia Nazionale dei Lincei 12, 388-391. [71] K½oszegi, B., Rabin, M. (2007) Reference-dependent risk attitudes. American Economic Review 97, 1047-1073. [72] Kuczma, M. (2009) An Introduction to the Theory of Functional Equations and Inequalities. Second edition, Edited by Attila Gilányi, Birkhäuser. Berlin. [73] Landsman, Z., Sherris, M. (2001) Risk measures and insurance premium principles. Insurance: Mathematics and Economics 29, 103–115. [74] Lax, P. D. (2008) A curious functional equation. Journal d’Analyse Mathematique 105, 383-390. [75] Luan, C. (2001) Insurance premium calculations with anticipated utility theory. ASTIN Bulletin 31, 23-35. [76] Markowitz, H. (1952) The utility of wealth. The Journal of Political Economy 60, 151-158. [77] Martin, R. (2004). The St. Petersburg paradox. In Edward N. Zalta. The Stanford Encyclopedia of Philosophy (Fall 2004 ed.). Stanford, California: Stanford University. [78] Moller, T. (2001) On transformations of actuarial valuation principles. Insurance: Mathematics and Economics 28, 281–303. [79] Moore, K. S., Young, V. R. (2002) Pricing equity-linked pure endowments via the principle of equivalent utility. Working paper, Department of Mathematics, University of Michigan, Ann Arbor, Michigan. [80] Musiela, M., Zariphopoulou, T. (2002) Indi¤erence prices and related measures. Technical report, The University of Texas at Austin. 85 [81] Nielsen, J. A., Sandmann, K. (1995) Equity-linked life insurance: a model with stochastic interest rates. Insurance: Mathematics and Economics 16, 225–253. [82] Polyanin, A. D., Manzhirov, A. H. (2007) Handbook of Mathematics for Engineers and Scientists. Chapman & Hall/CRC Press, Boca Raton–London. [83] Pratt, J. W. (1964) Risk aversion in the small and in the large. Econometrica 32, 122-136. [84] Prelec, D. (1998) The probability weighting function, Econometrica 66, 497-527. [85] Puppe, C. (1991) Distorted Probabilities and Choice Under Risk. Springer, Berlin. [86] Quiggin, J. (1982) A theory of anticipated utility. Journal of Economic Behavior and Organization 3, 323–343. [87] Rabin, M. (2000) Risk aversion and expected utility theory: a calibration theorem. Econometrica 68, 1281-1292 [88] Rajwade, A. R., Bhandari, A. K. (2007) Surprises and Counterexamples in Real Funtion Theory. Hindustan Book Agency. [89] Reich, A. (1984 a) Premium principles and translation invariance. Insurance: Mathematics and Economics 3, 57-66. [90] Reich, A. (1984 b) Homogeneous premium calculation principles. ASTIN Bulletin 14, 123–134. [91] Rolski, T., Schmidli, H., Schmidt, V., Teugels, J. (1999) Stochastic Processes for Insurance and Finance. John Wiley & Sons, New York. [92] Rothschild, M., Stiglitz, J. (1970) Increasing risk: I. A de…nition. Journal of Economic Theory 2, 225–243. [93] Schmeidler, D. (1989) Subjective probability and expected utility without additivity. Econometrica 57, 571–587. [94] Schmidt, U., Starmer, C., Sugden, R. (2008) Third-generation prospect theory. Journal of Risk and Uncertainty, 36, 203-223. 86 [95] Schmidt, U., Zank, H. (2007) Linear cumulative prospect theory with applications to portfolio selection and insurance demand. Decisions in Economics and Finance, 30, 1-18. [96] Schweizer, M. (2001) From actuarial to …nancial valuation principles. Insurance: Mathematics and Economics 28, 31–47. [97] Segal, U. (1989) Anticipated utility theory: a measure representation approach. Annals of Operations Research 19, 359–373. [98] Sereda E.N., Bronshtein E.M., Rachev S.T., Fabozzi F. J., Wei Sun, Stoyanov S.V. (2010) Distortion risk measures in portfolio optimization. In Handbook of Portfolio Construction: Contemporary Applications of Markowitz Techniques. Edited by Guerard J.B., 649-673. [99] Shaked, M., Shanthikumar, J. G. (2007) Stochastic orders. Springer, New York. [100] Taleb, N. (1997) The world according to Nassim Taleb. Derivatives Strategy 2, 37–40. [101] Teitelbaum, J. (2007) A unilateral accident model under ambiguity. Journal of Legal Studies 36, 431-477. [102] Tsanakas, A. (2009) To split or not to split: capital allocation with convex risk measures. Insurance: Mathematics and Economics 44, 268–277. [103] Tversky, A., Kahneman, D. (1992) Advances in prospect theory: Cumulative representation of uncertainty. Journal of Risk and Uncertainty 5, 297–323. [104] Van Heerwaarden, A. E. (1991) Ordering of Risks: Theory and Actuarial Applications. Thesis Publishers, Amsterdam. [105] Van Heerwaarden, A. E., Kaas, R. (1992) The Dutch premium principle. Insurance: Mathematics and Economics 11, 129–133. [106] Van der Hoek, J., Sherris, M. (2001) A class of non-expected utility risk measures and implications for asset allocation. Insurance: Mathematics and Economics 28, 69–82. [107] Venter, G. G. (1991) Premium calculation implications of reinsurance without arbitrage. ASTIN Bulletin 21, 223–230. 87 [108] Vitali, G. (1925) Sulla de…nizione di integraledelle funzionidi una variabile. Annali di Matematica Pura ed Applicata 4, 111-121. T÷ umaczenie: Marinacci, M. (1997) On the de…nition of integral of functions of one variable. Rivista di Matematica per le Scienze Economiche e Sociali 20, 159–168. [109] von Neumann, J., Morgenstern, O. (1947) Theory of Games and Economic Behavior. Wydanie drugie. Princeton University Press, Princeton, NJ. [110] Wakker, P. P. (1994) Separating marginal utility and probabilistic risk aversion. Theory and Decision 36, 1–44. [111] Wakker, P. P. (2010) Prospect Theory: For Risk and Ambiguity. Cambridge University Press. [112] Wang, J. L. (2000) A note on Christo…des’ conjecture regarding Wang’s premium principle. ASTIN Bulletin 30, 13–17. [113] Wang, S. (1995) Insurance pricing and increased limits ratemaking by proportional hazards transforms. Insurance: Mathematics and Economics 17, 43–54. [114] Wang, S. (1996) Premium calculation by transforming the layer premium density. ASTIN Bulletin 26, 71–92. [115] Wang, S., Young, V. R., Panjer, H. H. (1997) Axiomatic characterization of insurance prices. Insurance: Mathematics and Economics 21, 173-183. [116] Wirch, J. L., Hardy, M. R. (1999) A synthesis of risk measures for capital adequacy. Insurance: Mathematics and Economics 25, 337-347 [117] Yaari, M. E. (1987) The dual theory of choice under risk. Econometrica 55, 95–116. [118] Young, V. R. (1999) Discussion of Christo…des’conjecture regarding Wang’s premium principle. ASTIN Bulletin 29, 191–195. [119] Young, V. R. (2003) Equity-indexed life insurance: pricing and reserving using the principle of equivalent utility. North American Actuarial Journal 7, 68–86. [120] Young, V. R., Zariphopoulou, T. (2002) Pricing dynamic insurance risks using the principle of equivalent utility. Scandinavian Actuarial Journal, 246–279. 88