JEDNORÓWNANIOWY LINIOWY MODEL EKONOMETRYCZNY

Transkrypt

JEDNORÓWNANIOWY LINIOWY MODEL EKONOMETRYCZNY
JEDNORÓWNANIOWY LINIOWY MODEL EKONOMETRYCZNY


x1


Będziemy zapisywać wektory w postaci (x1 , . . . , xn ) albo  . . .  traktując go jak macierz jednokolumxn
nową (dzięki temu nie będzie kontrowersji przy „transponowaniu wektora”).
Model ogólny:
y = f (X, A, ε),
gdzie
X = (x1 , . . . , xk ) - zmienne objaśniające (niezależne),
y - zmienna objaśniana (wartość funkcji),
A = (α0 , α1 , . . . , αm ) - wektor parametrów,
ε - składnik losowy.
Model liniowy:
y = α0 + α1 x1 + · · · + αk xk + ε.




Wyniki obserwacji oznaczamy X1 = 




zależnych) oraz Y = 
y1
y2
···
yn


x11
x21
···
xn1




 , · · · , Xk = 


x1k
x2k
···
xnk



 dla zmiennych objaśniających (nie



 dla zmiennej objaśnianej (zależnej).

Współczynnik xij oznacza wartość j-tej zmiennej dla i-tej obserwacji.1
Niech




X=
1 x11 x12
1 x21 x22
... ... ...
1 xn1 xn2
. . . x1k
. . . x2k
... ...
. . . xnk






Y =



y1
y2
...
yn



.

Oszacowania parametrów α0 , α1 , . . . , αk metodą najmniejszych kwadratów (MNK) otrzymujemy wzorem




A=
a0
a1
...
ak

 −1

X T Y.
 = XT X

Wtedy




Yb = 
yb1
yb2
...
ybn



 = XA.

Niech
E = Y − Yb .
1
W wielu podręcznikach ekonometrii jest stosowana symbolika odwrotna, lecz wtedy w macierzy X pierwszy dolny index
przy x odpowiada za numer kolumny, a drugi wiersza co jest niezgodne z zasadami nauczania rachunku macierzowego.
1
Współczynnik determinacji:
R2 = 1 −
ET E
,
Y
− n y2
TY
gdzie y = n1 (y1 + y2 + · · · + yn ).
Skorygowany współczynnik determinacji
2
R = R2 −
k(1 − R2 )
.
n − (k + 1)
Ocena wariancji składnika losowego
S2 =
Niech
ET E
.
n − (k + 1)

XT X
−1
d11 d12
d21 x22
... ...
dn1 dn2



= [dij ] = 
. . . d1(k+1)
. . . d2(k+1)
...
...
. . . dn(k+1)
Błędy standardowe oszacowań parametrów:
Sa i =
q
S 2 d(i+1)(i+1) .
Błędy względne oszacowań parametrów:
Sai
.
|ai |
Prognoza wartości yt w punkcie (xt1 , xt2 , . . . , xtk ):
yt = XtT A,
gdzie
XtT = [ 1 xt1 xt2 . . . xtk ].
Średni błąd prognozy ex ante:
r
S 2 1 + XtT (X T X)−1 Xt .
St =
Względny średni błąd prognozy ex ante:
St
.
|yt |
Statytyka F :
F =
(n − k − 1)R2
.
k(1 − R2 )
Model nieliniowy sprowadzany do liniowego
KROK 1. Sprowadzamy model nieliniowy
y = f (x1 , . . . , xk , α0 , α1 , . . . , αk , ε)
2



.

do liniowego przez przekształcenie obu stron równania funkcją φ otrzymując równanie
φ(y) = φ(f ((x1 , . . . , xk , α0 , α1 , . . . , αk )).
tak aby prawa strona miała postać:
β0 + β1 z1 + · · · + βk zk ,
gdzie zk są odpowiednimi funkcjami zmiennych x1 , . . . , xk .
Krok 2. Szacujemy parametry B = (β0 , β1 , . . . , βk ) wektorem B = (b0 , b1 , . . . , bk ).
Krok 3. Stosujemy przeksztalcenie odwrotne φ−1 i otrzymujemy dane Yb .
Miara dopasowania modelu do obserwacji:
P =
n
1X
|yj − ybj | 2
.
n j=1
yj
Przykład
y = α0 xα1 1 · xα2 2 .
Definiujemy φ(t) = ln t. Otrzymujemy
ln y = ln(α0 ) + α1 ln(x1 ) + α2 ln(x2 ).
Podstawiamy u = ln y, z1 = ln(x1 ), z2 = ln(x2 ), β0 = ln(α0 ), β1 = α1 , β2 = α2 otrzymując model liniowy.
u = β0 + β1 z1 + β2 z2 .
Po oszacowaniu otrzymujemy liczby b0 , b1 , b2 , czyli wzór
b = b 0 + b 1 z1 + b 2 z2 .
u
Po zastosowaniu przekształcenia odwrotnego do φ, czyli exp(t) = et otrzymujemy
yb = a0 xa11 xa22 ,
gdzie a0 = eb0 , a1 = b1 , a2 = b2 .
Dobór zmiennych niezależnych (objaśniających) do modelu - metoda Hellwiga
Niech x1 , . . . , xk będą zmiennymi objaśniającymi. Możemy wybrać do modelu 2k − 1 podzbiorów. Niech B
będzie wybranym niepustym podzbiorem liczb 1, 2, . . . , k.
Dla zmiennej xi , i ∈ B definiujemy indywidualną pojemność nośników informacji:
r2
hiB = P i
,
|rij |
j∈B
gdzie
ri – korelacja wektorów Xi i Y 3
rij – korelacja wektorów Xi i Xj .
Następnie obliczamy pojemność integralną kombinacji (podzbioru) nośników informacji:
HB =
X
hiB .
i∈B
Należy wybierać takie podzbiory B do modelu, dla których HB jest największa.
2
Ta miara wydaje się być niedobra dla danych mogących przyjmować zarówno dodatnie jak i ujemne wartości oraz wartości
bliskie zeru (np. bilans itp.).
3
Przypominamy wzory na kowariancję i korelację wektorów a = (a1 , . . . , an ) i b = (b1 , . . . , bn ): kowariancja C(ab) = n1 [(a1 −
C(ab)
a)(b1 − b) + · · · + (an − a)(bn − b)]; korelacja rab = s(a)s(b)
; a, b odpowiednie średnie, a s(a), s(b) odpowiednie odchylenia
standardowe.
3
ANALIZA PRZEPŁYWÓW MIĘDZYGAŁĘZIOWYCH
Numer Produkt
gałęzi globalny
i
xi
1
x1
2
x2
...
...
n
xn
Amortyzacja bj
Płace
x0j
Zysk
zj
Produkt globalny
Przepływy
międzygałęziowe
xij
x11 x12 . . . x1n
x21 x22 . . . x2n
... ... ... ...
xn1 xn2 . . . xnn
b1
b2 . . .
bn
x01 x02 . . . x0n
z1
z2 . . .
zn
x1
x2 . . . xn
Produkt
końcowy
yi
y1
y2
...
yn
UWAGA: wiersz odpowiadający amortyzacji często sie pomija.
Równanie podziału
xi =
n
X
xij + yi .
j=1
Równanie kosztów
xj =
n
X
xij + bj + x0j + zj .
j=1
Rownanie równowagi ogólnej
n
X
(bj + x0j + zj ) =
j=1
n
X
yi .
i=1
Współczynniki kosztów
aij =
xij
.
xj
Macierz struktury kosztów


a11
 a

A = [aij ] =  21
 ...
an1
a12
a22
...
an2
. . . a1n
. . . a2n
... ...
. . . ann

x11
x1
x21
x1
x12
x2
x22
x2
xn1
x1
xn2
x2

 
 
=
 
 ...

...
...
... ...
...
x1n
xn
x2n
xn




.
... 


xnn
xn
W celu wytworzenia w j-tej gałezi produktu o wartości 1, trzeba zużyć produkcję z i-tej gałęzi o wartości aij .
Współczynnik materiałochłonności j-tej gałęzi (suma elementów j-tej kolumny macierzy A:
mj =
n
X
aij .
i=1
Rentowność j-tej gałezi
rj =
zj
.
xj − zj
MODEL LEONTIEFA
(I − A)X = Y lub (I − A)−1 Y = X,
4
gdzie




X=
x1
x2
...
xn






Y =



y1
y2
...
yn



,

I − A − macierz Leontiefa,
−1
(I − A)
− macierz współczynników pełnej materiałochłonności.
5

Podobne dokumenty