EKONOMETRIA - Przyk adowy egzamin
Transkrypt
EKONOMETRIA - Przyk adowy egzamin
ZESTAW 1. dzie miała 19 kolumn ; Nazwisko i imię . . . . . . . . . . . . . . . . . . . . . B Macierz (X T X)−1 będzie miała Nr indeksu . . . . . . . . . . . . . . . . . . . . . . . . . . 8 kolumn; Przypominamy pewne umowy stosoC Macierz X będzie miała 8 wierwane w ekonometrii: 1) Wektory za- szy; x1 .. pisujemy (x1 , . . . , xn ) lub . i D Macierz X będzie miała 8 kolumn; xn T −1 utożsamiamy z macierzą o n wierszach E Macierz (X X) będzie miała 8 i jednej kolumnie. 2) Macierz o 1 wier- wierszy; szu i jednej kolumnie utożsamiamy z F Macierz A = (X T X)−1 X T Y bęjej jedynym współczynnikiem. dzie miała 9 wierszy . 1. Przeprowadzono cztery obserwacje potencjalnych zmiennych niezależnych X1 , X2 oraz zależnych Y otrzymując wyniki X1 = (0, 1, 0, −1) X2 = (0, 0, 0, 4) Y = (−1, 1, 1, −1) Przy pomocy metody Hellwiga wybrano najlepszy zbiór zmiennych niezależnych (HB oznacza pojemność integralną kombinacji (podzbioru) nośników informacji). Wtedy A Najgorszy jest model III; B Najgorszy jest model I; C Najgorszy jest model II; D Najlepszy jest model II; E Najlepszy jest model I; F Najlepszy jest model III. 5. Uzyskano dane z obserwacji X1 = (4, 5, 8), Y = (12, 21, 42). Rozważano trzy modele nieliniowe. Model I: y = a0 + a1 x2 , model II: y = a0 xa1 ; model III: y = a0 + a1 ex . Aby je zbadać wszystkie trzy zlinearyzowano otrzymując za każdym razem odpowiedni model liniowy u = b0 + b1 z i odpowiednie dane wektory obserwacji Z1 - zmienna niezależna (objaśniająca) oraz U - zmienna zależna (objaśniana). 3. Przeprowadzono trzy obserwacje zmiennej objaśniającej X1 i objaśnianej Y uzyskując dane: X1 = (−1, 0, 1), Y = (0, 0, 6). Następnie metodą najmniejszych kwadratów uzyskano funkcję liniową postaci yb(x) = a0 + a1 x oraz przeprowa dzono podstawowa analizę i obliczono A W modelu II: Z1 = ln(4), ln(5), ln(8) , prognozę yb(2). U = ln(12), ln(21), ln(42) , A R2 > 0,4; b0 = ln(a0 ), b1 = a1 ; A Do tego zbioru można wybrać obie B a0 > −1; zmienne x1 i x2 ; B W modelu III: B Do tego zbioru można wybrać tylko zmienną x1 ; C C Do tego zbioru można wybrać tylko zmienną x2 ; E D H{x1 } > 0,8; D F yb(2) < 0; Z1 = (4, 5, 8), U = ln(12), ln(21), ln(42) , b0 = a0 , b1 = ln(a1 ) ; yb(2) > 2; C W modelu I: Z1 = ln(4), ln(5), ln(8) , U = ln(12), ln(21), ln(42) , b0 = ln(a0 ), b1 = ln(a1 ) ; S 2 > 0,2; a1 > 0. E H{x2 } > 0,3; F H{x1 ,x2 } > 0,3. 2. Wybrano 8 zmiennych niezależnych (objaśniających): X1 , . . . , X8 oraz zmienną zależną (objaśnianą) Y . Dokonano dla nich po 19 odpowiednich obserwacji a następnie zbudowano klasyczną metodą najmniejszych kwadratów model liniowy y = a0 + a1 x1 + · · · + a8 x8 budując kolejno macierze X, X T , X T X, (X T X)−1 itd. A Macierz A = (X T X)−1 X T Y bę- 4. Dla zbioru danych z obserwacji 5 zmiennych niezależnych (objaśniających) i jednej zmiennej zależnej (objaśnianej) zbudowano 3 modele I, II i III i uzyskano rezultaty: Dla modelu I: średnia Y (Y ) równa 2, Y T Y = 30, E T E = 4; Dla modelu II: średnia Y (Y ) równa 2, Y T Y = 30, E T E = 6; Dla modelu III: średnia Y (Y ) równa 2, Y T Y = 30, E T E = 9. Następnie dokonano wyboru najlepszego i najgorszego modelu uwzględniając tylko parametr R2 . 1 D W modelu III: Z1 = (e4 , e5 , e8 ), U = 12, 21, 42), b0 = a0 , b1 = a1 ; E W modelu II: Z1 = ln(4), ln(5), ln(8) , U = (12, 21, 42), b0 = a0 ), b1 = ln(a1 ) ; F W modelu I: Z1 = (42 , 52 , 82 ), U = ln(12), ln(21), ln(42) , b0 = a0 , b1 = a1 .