Wykład specjalny dla SKN Ekonometrii
Transkrypt
Wykład specjalny dla SKN Ekonometrii
Podstawowe zasady wnioskowania bayesowskiego Zastosowania ekonometrii bayesowskiej Metody klasy MCMC Ekonometria bayesowska w R Ekonometria bayesowska: szybki start Wprowadzenie do reguª wnioskowania i oblicze« w R SKN Ekonometrii 12.12.2016 r. Andrzej Torój 1 / 23 Podstawowe zasady wnioskowania bayesowskiego Zastosowania ekonometrii bayesowskiej Metody klasy MCMC Ekonometria bayesowska w R Plan wykªadu 1 Podstawowe zasady wnioskowania bayesowskiego 2 Zastosowania ekonometrii bayesowskiej 3 Metody klasy MCMC 4 Ekonometria bayesowska w R 2 / 23 Podstawowe zasady wnioskowania bayesowskiego Zastosowania ekonometrii bayesowskiej Metody klasy MCMC Ekonometria bayesowska w R Plan prezentacji 1 Podstawowe zasady wnioskowania bayesowskiego 2 Zastosowania ekonometrii bayesowskiej 3 Metody klasy MCMC 4 Ekonometria bayesowska w R 3 / 23 Podstawowe zasady wnioskowania bayesowskiego Zastosowania ekonometrii bayesowskiej Metody klasy MCMC Ekonometria bayesowska w R Fundamentalne zasady ekonometrii bayesowskiej (1) Parametry traktujemy jako zmienne losowe. To fundamentalna ró»nica w porównaniu do klasycznej ekonometrii, gdzie zakªadali±my istnienie prawdziwej, nieznanej warto±ci parametru w procesie generuj¡cym dane / populacji. Pewne elementy my±lenia w kategoriach rozkªadów (np. przedziaª ufno±ci) wi¡zaªy si¦ wyª¡cznie z faktem, »e estymatory z próby s¡ zmiennymi losowymi ze wzgl¦du na losowy dobór próby. Nigdy jednak nie dotyczyªo to prawdziwych parametrów. Takie zaªo»enie odzwierciedla fundamentaln¡ ró»nic¦ mi¦dzy bayesistami a klasykami w rozumieniu poj¦cia prawdopodobie«stwa. Klasycy posªuguj¡ si¦ prawdopodobie«stwa cz¦sto±ciow¡ interpretacj¡ uwa»aj¡, »e nale»y si¦ tym poj¦ciem posªugiwa¢ wyª¡cznie w celu opisania, jak cz¦sto zachodzi okre±lone frequentists). subiektywistyczn¡ interpretacj¡ zdarzenie (dlatego bayesi±ci okre±laj¡ ich jako Bayesi±ci posªuguj¡ si¦ dodatkowo prawdopodobie«stwa, która pozwala im okre±li¢ rozkªach ich przekona« co do nieznanej warto±ci parametru. 4 / 23 Podstawowe zasady wnioskowania bayesowskiego Zastosowania ekonometrii bayesowskiej Metody klasy MCMC Ekonometria bayesowska w R Fundamentalne zasady ekonometrii bayesowskiej (1) Parametry traktujemy jako zmienne losowe. To fundamentalna ró»nica w porównaniu do klasycznej ekonometrii, gdzie zakªadali±my istnienie prawdziwej, nieznanej warto±ci parametru w procesie generuj¡cym dane / populacji. Pewne elementy my±lenia w kategoriach rozkªadów (np. przedziaª ufno±ci) wi¡zaªy si¦ wyª¡cznie z faktem, »e estymatory z próby s¡ zmiennymi losowymi ze wzgl¦du na losowy dobór próby. Nigdy jednak nie dotyczyªo to prawdziwych parametrów. Takie zaªo»enie odzwierciedla fundamentaln¡ ró»nic¦ mi¦dzy bayesistami a klasykami w rozumieniu poj¦cia prawdopodobie«stwa. Klasycy posªuguj¡ si¦ prawdopodobie«stwa cz¦sto±ciow¡ interpretacj¡ uwa»aj¡, »e nale»y si¦ tym poj¦ciem posªugiwa¢ wyª¡cznie w celu opisania, jak cz¦sto zachodzi okre±lone frequentists). subiektywistyczn¡ interpretacj¡ zdarzenie (dlatego bayesi±ci okre±laj¡ ich jako Bayesi±ci posªuguj¡ si¦ dodatkowo prawdopodobie«stwa, która pozwala im okre±li¢ rozkªach ich przekona« co do nieznanej warto±ci parametru. 4 / 23 Podstawowe zasady wnioskowania bayesowskiego Zastosowania ekonometrii bayesowskiej Metody klasy MCMC Ekonometria bayesowska w R Fundamentalne zasady ekonometrii bayesowskiej (2) Do procesu estymacji wprowadzamy wiedz¦ spoza próby. Formuªujemy j¡ w postaci rozkªadu a priori nieznanych parametrów. Mo»e on znacz¡co rzutowa¢ na uzyskane wyniki. Miar¡ sukcesu w ekonometrii bayesowskiej jest doprowadzenie do zaw¦»enia (ang. shrinkage) rozkªadu a priori czyli precyzyjniejszej wiedzy o parametrze po konfrontacji z danymi ni» przed. Nie musi to oznacza¢ przesuni¦cia warto±ci oczekiwanej, chodzi o zmniejszenie wariancji. a posteriori niemal pokrywa si¦ z rozkªadem a priori, to oznacza pora»k¦ w analizie empirycznej dane Je»eli rozkªad niczego nie wniosªy do naszej wiedzy o parametrze. 5 / 23 Podstawowe zasady wnioskowania bayesowskiego Zastosowania ekonometrii bayesowskiej Metody klasy MCMC Ekonometria bayesowska w R Twierdzenie Bayesa zastosowanie w ekonometrii P (A|B) = P (B|A) · P (A) P (B) → f (B|Ai ) · f (Ai ) f (Ai |B) = w f (B|Ai ) f (Ai ) di → I f (θ|X ) = w f (X |θ) · f (θ) f (X |θ) f (θ) dθ I Ai rozpatrzymy ka»d¡ mo»liw¡ warto±¢ parametru θ θ1 ,θ2 ,...). Prawdopodobie«stwa tych zdarze« sumuj¡ si¦ do budujemy funkcj¦ g¦sto±ci / prawdopodobie«stwa. Zdarzenie B Jako zdarzenia (zdarzenia gdy» polega na tym, »e zaobserwowali±my okre±lony zestaw danych P (θ|X ) wyznaczany rozkªad a posteriori, tj. 1, X. warunkowy wzgl¦dem zaobserwowanych danych P (θ) rozkªad a priori P (X |θ) funkcja wiarygodno±ci danych X przy zaªo»eniu parametru o warto±ci θ mianownik nie zale»y od θ i peªni rol¦ staªej skaluj¡cej 6 / 23 Podstawowe zasady wnioskowania bayesowskiego Zastosowania ekonometrii bayesowskiej Metody klasy MCMC Ekonometria bayesowska w R Przykªad: rozkªady brzegowe a posteriori w modelu regresji liniowej 7 / 23 Podstawowe zasady wnioskowania bayesowskiego Zastosowania ekonometrii bayesowskiej Metody klasy MCMC Ekonometria bayesowska w R Highest posterior density interval (HPDI) 8 / 23 Podstawowe zasady wnioskowania bayesowskiego Zastosowania ekonometrii bayesowskiej Metody klasy MCMC Ekonometria bayesowska w R Porównania modeli Caªkuj¡c licznik wzoru Bayesa otrzymujemy wiarygodno±¢ brzegow¡ modelu. Iloraz wiarygodno±ci brzegowej dwóch modeli to tzw. czynnik Bayesa. Skala Jereysa (1961, The theory of Kass i Raftery (1995, Bayes factors, probability) Journal of the American Statistical Association) BF < 100 100 − 100.5 100.5 101 − 101 − 101.5 101.5 − 102 > 102 interpretacja negative (supports BF M2 ) barely worth mentioning substantial strong very strong decisive 1 −3 interpretacja not worth more than a bare mention 3 20 − 20 − 150 > 150 positive strong very strong 9 / 23 Podstawowe zasady wnioskowania bayesowskiego Zastosowania ekonometrii bayesowskiej Metody klasy MCMC Ekonometria bayesowska w R Rozkªady predykcyjne p (yh |y ) = ¯ p (yτ , θ|y ) dθ = ¯ p (yτ |θ, y ) p (θ|y ) dθ Θ Θ Dalsze post¦powanie zale»y od tego, czy: yτ jest niezale»ne od y (pierwszy czynnik); znana jest funkcja g¦sto±ci parametrów a posteriori (drugi czynnik). W modelu regresji liniowej o rozkªadzie a priori N-G oba warunki s¡ speªnione. 10 / 23 Podstawowe zasady wnioskowania bayesowskiego Zastosowania ekonometrii bayesowskiej Metody klasy MCMC Ekonometria bayesowska w R Plan prezentacji 1 Podstawowe zasady wnioskowania bayesowskiego 2 Zastosowania ekonometrii bayesowskiej 3 Metody klasy MCMC 4 Ekonometria bayesowska w R 11 / 23 Podstawowe zasady wnioskowania bayesowskiego Zastosowania ekonometrii bayesowskiej Metody klasy MCMC Ekonometria bayesowska w R Zastosowania ekonometrii bayesowskiej Ubogi materiaª empiryczny mo»e zosta¢ wzmocniony wiedz¡ priori a w sformalizowany sposób. Uniwersalne instrumentarium do wnioskowania statystycznego, niezale»ne od rozkªadu skªadnika losowego. Przydatne w szeroko rozumianym zarz¡dzaniu ryzykiem (pozwalaj¡ na wyra»anie i efektywn¡ aktualizacj¦ rozkªadów predykcyjnych o ró»nych ksztaªtach). 12 / 23 Podstawowe zasady wnioskowania bayesowskiego Zastosowania ekonometrii bayesowskiej Metody klasy MCMC Ekonometria bayesowska w R Plan prezentacji 1 Podstawowe zasady wnioskowania bayesowskiego 2 Zastosowania ekonometrii bayesowskiej 3 Metody klasy MCMC 4 Ekonometria bayesowska w R 13 / 23 Podstawowe zasady wnioskowania bayesowskiego Zastosowania ekonometrii bayesowskiej Metody klasy MCMC Ekonometria bayesowska w R Efekty zastosowania metod numerycznych Bardzo rzadko mo»emy otrzyma¢ analitycznie funkcj¦ g¦sto±ci a posteriori, z której potraliby±my losowa¢. Tym samym problematyczne jest wyznaczenie (i) brzegowych g¦sto±ci a posteriori, (ii) wiarygodno±ci brzegowej modelu, (iii) rozkªadów predykcyjnych. 1 Metody numeryczne powinny prowadzi¢ do otrzymania wyników S -krotnego losowania z rozkªadu wynikami (oznaczmy je a posteriori. θ (1) , θ (2) , ..., θ (S) ) Dysponuj¡c tymi mo»emy m.in. naszkicowa¢ histogram rozkªadów brzegowych pojedynczych parametrów i przedziaªy ufno±ci HPDI. 2 Mo»emy równie» oszacowa¢ warto±¢ oczekiwan¡ dowolnej funkcji parametrów g (θ) jako 1 S S P s=1 g θ (s) . Istnieje wiele metod numerycznych. Najpopularniejsz¡ metod¡ klasy Monte Carlo Markov chain) jest algorytm MCMC ( Metropolisa-Hastingsa. 14 / 23 Podstawowe zasady wnioskowania bayesowskiego Zastosowania ekonometrii bayesowskiej Metody klasy MCMC Ekonometria bayesowska w R Algorytm Metropolisa-Hastingsa przypadek ogólny Rozwa»my wektor parametrów g¦sto±ci a posteriori p (θ|y ). θ = (θ1 , θ2 , ..., θK ) o nieznanej Nie znamy równie» rozkªadów warunkowych jednego parametru wzgl¦dem pozostaªych. 1 2 Wybieramy wektor startowy Losujemy kandydata kandydatów, 3 4 q θ|θ (0) θ ∗ θ (0) = (θ1 , θ2 , ..., θK ). korzystaj¡c z g¦sto±ci generuj¡cej . Obliczamy prawdopodobie«stwo akceptacji kandydata, α θ ∗ , θ (0) . θ ∗ θ (1) = θ (0) z prawdopodobie ństwem α θ ∗ , θ (0) z prawdopodobie ństwem 1 − α θ ∗ , θ (0) 5 Powtarzamy kroki 1-4 z wektorem startowym 6 Powtarzamy sekwencj¦ S θ (1) . razy. 15 / 23 Podstawowe zasady wnioskowania bayesowskiego Zastosowania ekonometrii bayesowskiej Metody klasy MCMC Ekonometria bayesowska w R Algorytm Metropolisa-Hastingsa przypadek ogólny Rozwa»my wektor parametrów g¦sto±ci a posteriori p (θ|y ). θ = (θ1 , θ2 , ..., θK ) o nieznanej Nie znamy równie» rozkªadów warunkowych jednego parametru wzgl¦dem pozostaªych. 1 2 Wybieramy wektor startowy Losujemy kandydata kandydatów, 3 4 q θ|θ (0) θ ∗ θ (0) = (θ1 , θ2 , ..., θK ). korzystaj¡c z g¦sto±ci generuj¡cej . Obliczamy prawdopodobie«stwo akceptacji kandydata, α θ ∗ , θ (0) . θ ∗ θ (1) = θ (0) z prawdopodobie ństwem α θ ∗ , θ (0) z prawdopodobie ństwem 1 − α θ ∗ , θ (0) 5 Powtarzamy kroki 1-4 z wektorem startowym 6 Powtarzamy sekwencj¦ S θ (1) . razy. 15 / 23 Podstawowe zasady wnioskowania bayesowskiego Zastosowania ekonometrii bayesowskiej Metody klasy MCMC Ekonometria bayesowska w R Algorytm Metropolisa-Hastingsa przypadek ogólny Rozwa»my wektor parametrów g¦sto±ci a posteriori p (θ|y ). θ = (θ1 , θ2 , ..., θK ) o nieznanej Nie znamy równie» rozkªadów warunkowych jednego parametru wzgl¦dem pozostaªych. 1 2 Wybieramy wektor startowy Losujemy kandydata kandydatów, 3 4 q θ|θ (0) θ ∗ θ (0) = (θ1 , θ2 , ..., θK ). korzystaj¡c z g¦sto±ci generuj¡cej . Obliczamy prawdopodobie«stwo akceptacji kandydata, α θ ∗ , θ (0) . θ ∗ θ (1) = θ (0) z prawdopodobie ństwem α θ ∗ , θ (0) z prawdopodobie ństwem 1 − α θ ∗ , θ (0) 5 Powtarzamy kroki 1-4 z wektorem startowym 6 Powtarzamy sekwencj¦ S θ (1) . razy. 15 / 23 Podstawowe zasady wnioskowania bayesowskiego Zastosowania ekonometrii bayesowskiej Metody klasy MCMC Ekonometria bayesowska w R Algorytm Metropolisa-Hastingsa przypadek ogólny Rozwa»my wektor parametrów g¦sto±ci a posteriori p (θ|y ). θ = (θ1 , θ2 , ..., θK ) o nieznanej Nie znamy równie» rozkªadów warunkowych jednego parametru wzgl¦dem pozostaªych. 1 2 Wybieramy wektor startowy Losujemy kandydata kandydatów, 3 4 q θ|θ (0) θ ∗ θ (0) = (θ1 , θ2 , ..., θK ). korzystaj¡c z g¦sto±ci generuj¡cej . Obliczamy prawdopodobie«stwo akceptacji kandydata, α θ ∗ , θ (0) . θ ∗ θ (1) = θ (0) z prawdopodobie ństwem α θ ∗ , θ (0) z prawdopodobie ństwem 1 − α θ ∗ , θ (0) 5 Powtarzamy kroki 1-4 z wektorem startowym 6 Powtarzamy sekwencj¦ S θ (1) . razy. 15 / 23 Podstawowe zasady wnioskowania bayesowskiego Zastosowania ekonometrii bayesowskiej Metody klasy MCMC Ekonometria bayesowska w R Algorytm Metropolisa-Hastingsa przypadek ogólny Rozwa»my wektor parametrów g¦sto±ci a posteriori p (θ|y ). θ = (θ1 , θ2 , ..., θK ) o nieznanej Nie znamy równie» rozkªadów warunkowych jednego parametru wzgl¦dem pozostaªych. 1 2 Wybieramy wektor startowy Losujemy kandydata kandydatów, 3 4 q θ|θ (0) θ ∗ θ (0) = (θ1 , θ2 , ..., θK ). korzystaj¡c z g¦sto±ci generuj¡cej . Obliczamy prawdopodobie«stwo akceptacji kandydata, α θ ∗ , θ (0) . θ ∗ θ (1) = θ (0) z prawdopodobie ństwem α θ ∗ , θ (0) z prawdopodobie ństwem 1 − α θ ∗ , θ (0) 5 Powtarzamy kroki 1-4 z wektorem startowym 6 Powtarzamy sekwencj¦ S θ (1) . razy. 15 / 23 Podstawowe zasady wnioskowania bayesowskiego Zastosowania ekonometrii bayesowskiej Metody klasy MCMC Ekonometria bayesowska w R Algorytm Metropolisa-Hastingsa przypadek ogólny Rozwa»my wektor parametrów g¦sto±ci a posteriori p (θ|y ). θ = (θ1 , θ2 , ..., θK ) o nieznanej Nie znamy równie» rozkªadów warunkowych jednego parametru wzgl¦dem pozostaªych. 1 2 Wybieramy wektor startowy Losujemy kandydata kandydatów, 3 4 q θ|θ (0) θ ∗ θ (0) = (θ1 , θ2 , ..., θK ). korzystaj¡c z g¦sto±ci generuj¡cej . Obliczamy prawdopodobie«stwo akceptacji kandydata, α θ ∗ , θ (0) . θ ∗ θ (1) = θ (0) z prawdopodobie ństwem α θ ∗ , θ (0) z prawdopodobie ństwem 1 − α θ ∗ , θ (0) 5 Powtarzamy kroki 1-4 z wektorem startowym 6 Powtarzamy sekwencj¦ S θ (1) . razy. 15 / 23 Podstawowe zasady wnioskowania bayesowskiego Zastosowania ekonometrii bayesowskiej Metody klasy MCMC Ekonometria bayesowska w R Algorytm MH g¦sto±¢ generuj¡ca kandydatów W ogólnym przypadku zakªadamy, »e jest zale»na od bie»¡cego punktu θ (s) . Najcz¦stsz¡ implementacj¡ jest losujemy ε∼N θ (s) ,Σ Random Walk MH, gdzie i rozwa»amy kandydata: θ ∗ = θ (s) + ε 16 / 23 Podstawowe zasady wnioskowania bayesowskiego Zastosowania ekonometrii bayesowskiej Metody klasy MCMC Ekonometria bayesowska w R Algorytm MH prawdopodobie«stwo akceptacji 1 Poniewa» q α to funkcja umowna, korzystanie z niej bez dodatkowych korekt nie gwarantuje nam uzyskania sekwencji losowa« przybli»aj¡cych rozkªad 1 a posteriori. Algorytm bez korekt zbyt cz¦sto pozostaje w obszarach o wysokiej g¦sto±ci 2 a posteriori. W zwi¡zku z tym musimy go skorygowa¢, by dostatecznie dobrze zwiedzi¢ caª¡ dziedzin¦ parametrów. 2 Korekta polega na nieakceptowaniu wszystkich kandydatów wylosowanych na podstawie g¦sto±ci q. W przypadku braku akceptacji, kolejnym elementem ªa«cucha jest kopia poprzedniego. 1 Ogólny wzór na prawdopodobie«stwo akceptacji zale»y od g¦sto±ci posteriori (p ) a oraz g¦sto±ci generuj¡cej kandydatów (q ) dla (s) ∗ wektorów: poprzedniego (θ ) oraz kandydata (θ ). 2 Random Walk : tylko od p, ale p (θ ∗ |y ) α θ ∗ , θ (0) = min p θ(s−1) |y , 1 ( ) W implementacji nie q 17 / 23 Podstawowe zasady wnioskowania bayesowskiego Zastosowania ekonometrii bayesowskiej Metody klasy MCMC Ekonometria bayesowska w R Algorytm MH prawdopodobie«stwo akceptacji 1 Poniewa» q α to funkcja umowna, korzystanie z niej bez dodatkowych korekt nie gwarantuje nam uzyskania sekwencji losowa« przybli»aj¡cych rozkªad 1 a posteriori. Algorytm bez korekt zbyt cz¦sto pozostaje w obszarach o wysokiej g¦sto±ci 2 a posteriori. W zwi¡zku z tym musimy go skorygowa¢, by dostatecznie dobrze zwiedzi¢ caª¡ dziedzin¦ parametrów. 2 Korekta polega na nieakceptowaniu wszystkich kandydatów wylosowanych na podstawie g¦sto±ci q. W przypadku braku akceptacji, kolejnym elementem ªa«cucha jest kopia poprzedniego. 1 Ogólny wzór na prawdopodobie«stwo akceptacji zale»y od g¦sto±ci posteriori (p ) a oraz g¦sto±ci generuj¡cej kandydatów (q ) dla (s) ∗ wektorów: poprzedniego (θ ) oraz kandydata (θ ). 2 Random Walk : tylko od p, ale p (θ ∗ |y ) α θ ∗ , θ (0) = min p θ(s−1) |y , 1 ( ) W implementacji nie q 17 / 23 Podstawowe zasady wnioskowania bayesowskiego Zastosowania ekonometrii bayesowskiej Metody klasy MCMC Ekonometria bayesowska w R Algorytm MH α versus q Miar¡ jako±ci wyników jest m.in. ±rednie prawdopodobie«stwo akceptacji ᾱ. Okazuje si¦, »e optymalne warto±ci ᾱ ∈ [0, 2; 0, 4]. Dostatecznie niskie prawdopodobie«stwo akceptacji oznacza, »e dziedzina g¦sto±ci posteriori ᾱ a zostaªa dobrze wyeksplorowana. to jednak warto±¢ wynikowa i nie mo»emy jej wprost wybra¢. Zale»y ona przede wszystkim od doboru g¦sto±ci generuj¡cej kandydatów W przypadku q. Random Walk MH , sprowadza si¦ to do odpowiedniego ustalenia wariancji kroku Relacj¦ mi¦dzy ᾱ a Σ ε, czyli Σ. nale»y zbada¢ w ramach dodatkowej procedury iteracyjnej. (0) Zaczynamy w niej od Σ = c (0) · . W przypadku zbyt wysokiego (0) ᾱ zbyt cz¦sto akceptujemy, a wi¦c jeste±my zbyt konserwatywni w (1) zwiedzaniu dziedziny, czyli powinnismy ustali¢ c > c (0) . I 18 / 23 Podstawowe zasady wnioskowania bayesowskiego Zastosowania ekonometrii bayesowskiej Metody klasy MCMC Ekonometria bayesowska w R Rozrzedzanie i zwielokrotnienie ªa«cucha Aby unikn¡¢ efektu silnej autokorelacji w wygenerowanej sekwencji θ (1) , θ (2) , ..., θ (S) decydujemy si¦ czasami na jej rozrzedzanie thinning), czyli wybór co m-tego elementu. ( Eliminacja autokorelacji jest istotna, bo pozwala (i) pracowa¢ z równie dªugimi ªa«cuchami ale o lepszej zawarto±ci informacyjnej, (ii) uªatwia kalkulacj¦ miar zwi¡zanych z diagnostyk¡ zbie»no±ci ªa«cucha (o tym nast¦pnym razem). Zasadno±¢ tego zabiegu jest jednak czasami przedmiotem kontrowersji w literaturze. Cz¦sto decydujemy si¦ na u»ycie wi¦kszej liczby ªa«cuchów ni» tylko jeden (to równie» przydaje si¦ w diagnostyce zbie»no±ci MCMC). 19 / 23 Podstawowe zasady wnioskowania bayesowskiego Zastosowania ekonometrii bayesowskiej Metody klasy MCMC Ekonometria bayesowska w R Plan prezentacji 1 Podstawowe zasady wnioskowania bayesowskiego 2 Zastosowania ekonometrii bayesowskiej 3 Metody klasy MCMC 4 Ekonometria bayesowska w R 20 / 23 Podstawowe zasady wnioskowania bayesowskiego Zastosowania ekonometrii bayesowskiej Metody klasy MCMC Ekonometria bayesowska w R Podstawowe programy i pakiety Nie istniej¡ na razie pakiety umo»liwiaj¡ce w peªni ogólne wnioskowanie bayesowskie przeprowadzane wyª¡cznie za pomoc¡ R. Istniej¡ce pakiety do symulacji rozkªadu a posteriori s¡ interfejsami do programów zewn¦trznych, takich jak: rstan ) STAN ( BUGS / WinBUGS / JAGS ( runjags, dclone, ...) LaplacesDemon R2WinBUGS, rjags, R2jags, Na podstawie gotowych ªa«cuchów mo»emy wnioskowa¢ z u»yciem pakietu coda. Istniej¡ równie» pakiety umo»liwiaj¡ce szybk¡ estymacj¦ wielu modeli specjalnych ( MCMCpack, BMR, gEcon, ...). 21 / 23 Podstawowe zasady wnioskowania bayesowskiego Zastosowania ekonometrii bayesowskiej Metody klasy MCMC Ekonometria bayesowska w R Analiza z u»yciem BUGS/JAGS Istnieje wiele funkcji, które pozwalaj¡ próbkowa¢ z rozkªadu posteriori: a jags.model + jags.samples (pakiet jags) jags / jags2 / jags.parallel (pakiet R2jags) jags.t / jags.part (pakiet dclone) Posªu»ymy si¦ funkcj¡ jags.parallel z R2jags, której atutem jest wzgl¦dna szybko±¢. Niestety, darwinistyczna natura R nie pomaga w szybkim i wiarygodnym zorientowaniu si¦ w dost¦pnych narz¦dziach... :) 22 / 23 Podstawowe zasady wnioskowania bayesowskiego Zastosowania ekonometrii bayesowskiej Metody klasy MCMC Ekonometria bayesowska w R Praca z rjags / R2jags 1 Deniujemy nasz model w j¦zyku BUGS, jako funkcj¦ w R (wiersze 46-56 towarzysz¡cego kodu). 2 Zapisujemy nasz model w pliku zewn¦trznym (polecenie write.model z pakietu R2WinBUGS, wiersz 59). 3 Nadajemy R dost¦p do JAGS (wiersz 66; je»eli zainstalowali±my JAGS sami, wówczas ten krok nale»y pomin¡¢). 4 Uruchamiamy symulator a posteriori (70-79). 5 Mo»emy wyznaczy¢ ±redni¡ i dowoln¡ inn¡ statystyk¦ posteriori, a HPDI, numeryczny bª¡d standardowy. 6 Nale»y równie» zbada¢ zbie»no±¢ i korelacje w ªa«cuchach. 7 Porównania modeli mo»emy dokona¢ za pomoc¡ DIC (deviance information criterion). 23 / 23