EKONOMETRIA - Przyk adowy egzamin

Transkrypt

EKONOMETRIA - Przyk adowy egzamin
ZESTAW 1.
dzie miała 19 kolumn ;
Nazwisko i imię . . . . . . . . . . . . . . . . . . . . .
B Macierz (X T X)−1 będzie miała
Nr indeksu . . . . . . . . . . . . . . . . . . . . . . . . . . 8 kolumn;
Przypominamy pewne umowy stosoC Macierz X będzie miała 8 wierwane w ekonometrii: 1) Wektory
za- szy;

x1
 .. 
pisujemy (x1 , . . . , xn ) lub  .  i D Macierz X będzie miała 8 kolumn;
xn
T
−1
utożsamiamy z macierzą o n wierszach E Macierz (X X) będzie miała 8
i jednej kolumnie. 2) Macierz o 1 wier- wierszy;
szu i jednej kolumnie utożsamiamy z F Macierz A = (X T X)−1 X T Y bęjej jedynym współczynnikiem.
dzie miała 9 wierszy .
1. Przeprowadzono cztery obserwacje potencjalnych zmiennych niezależnych X1 , X2 oraz zależnych Y otrzymując wyniki
X1 = (0, 1, 0, −1)
X2 = (0, 0, 0, 4) Y = (−1, 1, 1, −1)
Przy pomocy metody Hellwiga wybrano najlepszy zbiór zmiennych niezależnych (HB oznacza pojemność integralną kombinacji (podzbioru) nośników informacji). Wtedy
A Najgorszy jest model III;
B Najgorszy jest model I;
C Najgorszy jest model II;
D Najlepszy jest model II;
E Najlepszy jest model I;
F Najlepszy jest model III.
5. Uzyskano dane z obserwacji X1 =
(4, 5, 8), Y = (12, 21, 42). Rozważano trzy modele nieliniowe. Model I:
y = a0 + a1 x2 , model II: y = a0 xa1 ;
model III: y = a0 + a1 ex . Aby je
zbadać wszystkie trzy zlinearyzowano
otrzymując za każdym razem odpowiedni model liniowy u = b0 + b1 z i
odpowiednie dane wektory obserwacji
Z1 - zmienna niezależna (objaśniająca) oraz U - zmienna zależna (objaśniana).
3. Przeprowadzono trzy obserwacje zmiennej objaśniającej X1 i objaśnianej Y uzyskując dane: X1 =
(−1, 0, 1), Y = (0, 0, 6). Następnie metodą najmniejszych kwadratów uzyskano funkcję liniową postaci yb(x) = a0 + a1 x oraz przeprowa
dzono podstawowa analizę i obliczono A W modelu II:
Z1 = ln(4), ln(5), ln(8) , prognozę yb(2).
U = ln(12), ln(21), ln(42) ,
A R2 > 0,4;
b0 = ln(a0 ), b1 = a1 ;
A Do tego zbioru można wybrać obie
B a0 > −1;
zmienne x1 i x2 ;
B W modelu III:
B Do tego zbioru można wybrać tylko zmienną x1 ;
C
C Do tego zbioru można wybrać tylko zmienną x2 ;
E
D H{x1 } > 0,8;
D
F
yb(2) < 0;
Z1 = (4, 5, 8),
U = ln(12), ln(21), ln(42) ,
b0 = a0 , b1 = ln(a1 ) ;
yb(2) > 2;
C W modelu I:
Z1 = ln(4), ln(5), ln(8) , U = ln(12), ln(21), ln(42) ,
b0 = ln(a0 ), b1 = ln(a1 ) ;
S 2 > 0,2;
a1 > 0.
E H{x2 } > 0,3;
F H{x1 ,x2 } > 0,3.
2. Wybrano 8 zmiennych niezależnych (objaśniających): X1 , . . . , X8
oraz zmienną zależną (objaśnianą) Y .
Dokonano dla nich po 19 odpowiednich obserwacji a następnie zbudowano klasyczną metodą najmniejszych
kwadratów model liniowy y = a0 +
a1 x1 + · · · + a8 x8 budując kolejno macierze X, X T , X T X, (X T X)−1 itd.
A
Macierz A = (X T X)−1 X T Y bę-
4. Dla zbioru danych z obserwacji
5 zmiennych niezależnych (objaśniających) i jednej zmiennej zależnej (objaśnianej) zbudowano 3 modele I, II i
III i uzyskano rezultaty: Dla modelu
I: średnia Y (Y ) równa 2, Y T Y = 30,
E T E = 4; Dla modelu II: średnia Y
(Y ) równa 2, Y T Y = 30, E T E = 6;
Dla modelu III: średnia Y (Y ) równa
2, Y T Y = 30, E T E = 9. Następnie
dokonano wyboru najlepszego i najgorszego modelu uwzględniając tylko
parametr R2 .
1
D W modelu III:
Z1 = (e4 , e5 , e8 ),
U = 12, 21, 42),
b0 = a0 , b1 = a1 ;
E W modelu II:
Z1 = ln(4), ln(5), ln(8) ,
U = (12, 21, 42),
b0 = a0 ), b1 = ln(a1 ) ;
F W modelu I:
Z1 = (42 , 52 , 82 ),
U = ln(12), ln(21), ln(42) ,
b0 = a0 , b1 = a1 .

Podobne dokumenty