przykładowe zadanie z regresji nieliniowej

Transkrypt

przykładowe zadanie z regresji nieliniowej
W typowym zadaniu z regresji nieliniowej mamy następujące etapy:
Estymacja (uzyskanie ocen punktowych parametrów), w tym:
1. Dobór punktów startowych.
2. Kolejne iteracje algorytmu Gaussa i Newtona.
3. Zakończenie algorytmu Gaussa i Newtona (kryterium zatrzymania)
Następnie:
5. wyliczenie błędów średnich szacunku
6. prowadzenie testów istotności
7. prowadzenie estymacji przedziałowej
Wykorzystujemy wzory:
( )
Vˆas βˆ = s 2 ⎡⎣ A( βˆ) ' A( βˆ ) ⎤⎦
−1
(estymator asymptotycznej macierzy kowariancji estymatora nieliniowej MNK w MNRN)
s2 =
(
( )) (
( ))
1
y − g βˆ ' y − g βˆ
T −k
(wariancja resztowa)
(
z ( j ) = ⎡⎣ A ( β ( j −1) ) ' A ( β ( j −1) ) ⎤⎦ A ( β ( j −1) ) ' y − g ( β ( j −1) )
−1
)
(poprawka w j-tym kroku algorytmu Gaussa i Newtona)
Przede wszystkim powinniśmy przeanalizować równanie obserwacji i zidentyfikować parametry,
zmienne (objaśniające i objaśnianą) oraz składniki losowe.
BARDZO WAŻNE jest sprowadzenie równania do postaci zgodnej z pierwszym założeniem
Modelu Normalnej Regresji Nieliniowej. Dopiero gdy równanie jest w takiej postaci, że
występuje tam składnik losowy (mamy +εt a nie np. ⋅eεt ) możemy prawidłowo zidentyfikować yt
oraz gt(β).
Zaczynamy od wyznaczenia punktów startowych. Są to przybliżone oceny parametrów
strukturalnych modelu – takie wartości, które będą możliwie bliskie ostatecznych ocen (których
oczywiście nie znamy). Im punkty startowe będą bliższe ocen, tym szybciej (w mniejszej liczbie
iteracji) powinniśmy uzyskać wyniki – ale to tylko przybliżona prawidłowość.
Punkty startowe wyznaczamy dowolnymi metodami które można uznać za sensowne. Dla
uzyskania punktów startowych zwykle pomijamy w równaniu występowanie składnika
losowego. Punkty startowe możemy oznaczyć tak jak parametry, tylko z górnym indeksem (0),
np.: δ(0), β1(0).
Metody wyznaczania punktów startowych:
1. Metoda k-punktów: podstawiamy sobie do równania obserwacji z DANYCH konkretne
wartości zmiennych (objaśniających i objaśnianej). Składnik losowy pomijamy. Podstawiamy do
tylu równań, ile jest parametrów (to znaczy k razy do równania obserwacji wstawiamy wartości
odpowiadające różnym k obserwacjom). Uzyskujemy układ k równań z k niewiadomymi
(niewiadomymi są parametry) i próbujemy go rozwiązać. Rozwiązania używamy jako punktów
startowych. Oczywiście jeśli weźmiemy różne podzbiory obserwacji to otrzymamy różne wyniki
– czasem można więc pechowo trafić.
2. Metoda przybliżonej linearyzacji: pomijamy składniki losowe i próbujemy tak przekształcić
równanie obserwacji, żeby uzyskać postać liniową względem parametrów (lub względem ich
wzajemnie jednoznacznych funkcji – np. jeśli uzyskamy postać liniową względem 1/β1 to też jest
OK., bo jak uda nam się oszacować 1/β1 to potem weźmiemy sobie odwrotność z oszacowanego
parametru). Do tak zmodyfikowanego równania stosujemy MNK (tak, jakby był tam jeszcze
składnik losowy +εt) Ta metoda może być nieco bardziej pracochłonna, ale bierze pod uwagę
informację ze wszystkich obserwacji i może dzięki temu dać lepsze punkty startowe.
Algorytm Gaussa i Newtona:
Stosujemy go to wyznaczania ocen nieliniowej MNK w MNRN. Estymator MNK jest
zdefiniowany jako argument minimalizujący sumę kwadratów reszt. Minimum sumy kwadratów
reszt w praktyce szukamy metodami numerycznymi.
Algorytm Gaussa i Newtona ma charakter iteracyjny: każdy kolejny krok zaczynamy od
rezultatów kroku poprzedniego (dla kroku pierwszego – od punktów startowych), musimy też
algorytm zakończyć – przyjąć jakieś kryterium zatrzymania.
W każdym kroku wyliczamy wektor poprawek. Oceny z kroku pierwszego to punkty startowe
plus pierwsza poprawka. Oceny z kroku drugiego to oceny z kroku pierwszego plus wyliczona w
kroku drugim poprawka itd. Do wyliczania poprawki każdorazowo używamy ocen z ostatnio
wykonanego kroku. Schematycznie:
β(0): punkty startowe, z(i) – poprawka w i-tym kroku.
krok 1: β(1) = β(0) + z(1), przy czym dla wyliczenia z(1) używamy β(0).
krok 2: β(2) = β(1) + z(2), przy czym dla wyliczenia z(2) używamy β(1).
krok 3: β(3) = β(2) + z(3), przy czym dla wyliczenia z(3) używamy β(2).
Spodziewamy się, że algorytm w pewnym momencie osiągnie zbieżność, tj, oceny w kolejnych
krokach praktycznie przestaną się zmieniać (tj. poprawki będę praktycznie równe 0). Musimy
pamiętać, że poprawki muszą być praktycznie równe zeru dla WSZYSTKICH parametrów.
Pytanie tylko, co to znaczy „praktycznie równe zeru” – to zależy przecież od rzędu wielkości
parametru (dla oceny parametru rzędu setek zmiana o 0,001 może być nieistotna, dla oceny
parametru wynoszącej 0,01 jest dość istotna). Dlatego rozważamy tzw. względną poprawkę dla itego parametru w j-tym kroku algorytmu:
β i ( j ) − β i ( j −1)
.
λi =
( j)
βi
Jako kryterium zatrzymania algorytmu możemy przyjąć sprawdzenie, czy względne poprawki dla
WSZYSTKICH parametrów są mniejsze niż np. 0,001 (tu zakładamy jakąś arbitralną, bliską zeru
wartość. Kiedy używamy komputera ta progowa wartość może być bliższa zeru, na sprawdzianie
to może być np. 0,01 dla zaoszczędzenia czasu). Jeśli wszystkie względne poprawki
(równoważnie największa z nich) są mniejsze od założonej wartości granicznej, algorytm
zatrzymujemy.
W momencie zatrzymania algorytmu wartości z ostatniego kroku uznajemy za ostateczne oceny
parametrów uzyskane nieliniową MNK.
Przykładowo w 11 kroku:
β i (11 ) − β i (10)
< 0,0001 dla i = 0,1,2 ⇒ βˆ = β (11 )
(10 )
βi
Od zatrzymania algorytmu „zapominamy” o ocenach w kolejnych krokach β(j) i rozważamy tylko
βˆ . Ponieważ w dalszym ciągu (np do wyliczenia Vˆas β̂ ) potrzebujemy również A β̂ , to w
zadaniach dla zaoszczędzenia czasu możemy tak naprawdę wykorzystać wartość z poprzedniego
kroku (mamy ją już wyliczoną przy liczeniu poprawki w ostatnim kroku). Więc (kontynuując
przykład):
β i (11 ) ≈ β i (10 ) to A( βˆ ) = A( β (11 ) ) ≈ A( β (10 ) )
więc w obliczeniach możemy pisać A( βˆ ) i przyjmować wszędzie tam wartości A( β (10 ) ) , nie
()
()
trzeba dodatkowo wyliczać A( β (11 ) ) .
Wnioskowanie, estymacja przedziałowa.
W MNRN estymację przedziałową i testy istotności możemy prowadzić dokładnie tak samo jak
w KMNRL z tą różnicą, że zamiast Vˆ β̂ wykorzystujemy Vˆas β̂ , czyli: zamiast oceny macierzy
kowariancji estymatora MNK (uzyskanej w KMNRL z wykorzystaniem estymatora
nieobciążonego) mamy ocenę asymptotycznej macierzy kowariancji estymatora nieliniowej
MNK (uzyskaną w MNRN z wykorzystaniem estymatora tylko zgodnego). Wobec tego wszelkie
testy oraz przedziały ufności interpretujemy w MNRN jako tylko przybliżone (ponieważ znamy
tylko asymptotyczne własności używanych estymatorów) [asymptotyczne tzn. wykazane przy
założeniu, że liczba obserwacji dąży do nieskończoności, co w praktyce nigdy nie ma miejsca].
Pierwiastki z przekątniowych elementów Vˆas β̂ to będą przybliżone błędy średnie szacunku, zaś
w konkluzji testu piszemy np.: „....na poziomie istotności około 0,05...”, a w interpretacji
przedziału ufności „...pokrywającego nieznaną wartość parametru δ z prawdopodobieństwem
około 0,95”, bo dysponujemy tylko przybliżonym obszarem krytycznym oraz przybliżonym
przedziałem ufności.
()
()
()
Wartości krytyczne możemy brać bądź to z rozkładu t-Studenta (interpretując to jako poprawkę
na małą próbę) bądź ze standaryzowanego rozkładu normalnego. Kiedy T-k jest duże
(kilkadziesiąt, kilkaset) to i tak wartości krytyczne z obu tych rozkładów są praktycznie
identyczne. Wtedy należy po prostu pamiętać wartości krytyczne ze standaryzowanego rozkładu
normalnego (dla prawdopodobieństwa 0,05: 1,96-dwustronna i 1.64 - jednostronna). Kiedy T-k
jest małe (mniejsze niż ok. 30), rozbieżności między tymi rozkładami mogą być dość znaczne.
Ale nawet wtedy każdy wybór da się obronić – tylko po prostu mogą wychodzić różne wyniki.
Przypominam, że wartość krytyczną z rozkładu normalnego standaryzowanego oznaczamy przez
uα.
Podobnie, mogą się Państwo spotkać w książkach z wersjami wzoru na estymator wariancji
składnika losowego (u nas s2), gdzie w mianowniku będzie T zamiast T-k. Teorię i tak mamy
tylko dla T dążącego do nieskończoności - a wtedy to wszystko jedno. Dla małego T ta teoria i
tak jest bardzo przybliżona, więc nie dostarcza nam ona zdecydowanego rozstrzygnięcia na rzecz
którejś wersji. Możemy więc wszystko robić dokładnie tak samo jak w KMNRL (pamiętając
tylko o dodaniu ”w przybliżeniu” lub „około” w interpretacjach i odpowiedniej zmianie oznaczeń
(np. zamiast Vˆ β̂ mamy Vˆas β̂ .
()
()
()
WAŻNE: Kolejność kolumn w A β̂ . W kolejnych kolumnach A(.) mamy pochodne cząstkowe
funkcji g(β) względem parametrów (elementów β). Nie ma jakiejś jedynej poprawnej kolejności.
Jednak ma ona istotne konsekwencje dla wszystkich wzorów, gdzie mamy A(.) . Jeśli np.
pochodna po pewnym parametrze φ będzie w drugiej kolumnie A(.) , to wtedy poprawka dla φ
będzie na drugim miejscu w wektorze poprawek, zaś błąd średni szacunku dla tego parametru to
pierwiastek z elementu w drugim rzędzie i w drugiej kolumnie Vˆas β̂ . Możemy więc przyjąć
dowolną kolejność kolumn w A(.) , jednak należy się jej trzymać i nie pomylić, bo inaczej np.
będziemy dodawać poprawkę do innego parametru i algorytm nigdy się nie zbiegnie, lub źle
weźmiemy błąd średni szacunku.
()
Przykład:
1. Dany jest model:
α + gt
wt =
+ ε t ε ~ iiN (0, σ 2 )
; t
γ + gt
t
ht
yt
1
2
3
4
5
6
7
2
6
2
3
5.5
1
-2.5
0
-1
-2
0
Proszę:
A. podać wstępne oceny parametrów mogących służyć jako punkty startowe.
oszacować parametry modelu przy pomocy nieliniowej MNK (przyjmując jako kryterium
zatrzymania względną poprawkę mniejszą niż 0.01)
B. wyliczyć i podać przybliżone błędy średnie szacunku parametrów
C. zbudować i zinterpretować 90% przedział ufności dla parametru α
D. zbadać, czy parametry α oraz γ mają wartości istotnie różne od siebie.
UWAGA. W obliczeniach poniżej zastosowano zaokrąglenie do 3 miejsc po przecinku. Jednakże
np. zaokrąglany jest wynik odwracania macierzy, natomiast samo odwracanie jest z pełną
dokładnością.
A)
Wyznaczamy punkty startowe:
α + ht
(pomijamy składnik losowy)
wt =
γ + ht
wt (γ + ht ) = α + ht
wt ht − ht = α − γ wt (zmienne i ew. znane stałe bez parametrów przenosimy na lewą stronę)
do wyznaczenia przybliżonych ocen parametrów wykorzystujemy tu estymator MNK tak, jak
gdyby równanie miało postać:
wt ht − ht = α − γ wt + ξt
przy czym odpowiedniki yt oraz xt w KMRL to:
yt* = [wtht - ht]
xt* = [1
-wt]
punkty startowe możemy tu otrzymać jako:
⎡α (0) ⎤
∗
∗ −1
∗
∗
⎢ (0) ⎥ = ( X ' X ) X ' y
γ
⎣
⎦
mamy:
⎡1
⎢1
⎢
⎢1
X∗ = ⎢
⎢1
⎢1
⎢
⎣⎢1
-2 ⎤
-2 ⎥⎥
-5.5⎥
⎥,
2.5 ⎥
1 ⎥
⎥
0 ⎦⎥
⎡ -7 ⎤
⎢6 ⎥
⎢
⎥
⎢
⎥
13.5
y∗ = ⎢
⎥,
⎢ -3.5 ⎥
⎢0 ⎥
⎢
⎥
⎣⎢ 2 ⎥⎦
⎡α (0) ⎤ ⎡ 2.04 ⎤
⎢ (0) ⎥ = ⎢
⎥
⎣ γ ⎦ ⎣-2.127 ⎦
Alternatywnie, możemy rozważyć układ 2 równań otrzymany przez podstawienie wartości yt oraz
ht z danych odpowiadających np. pierwszej i ostatniej obserwacji:
⎧α (0) + 7
⎪ γ (0) + 7 = 2
⎪
⎨ (0)
⎪α − 2 = 0
⎪⎩ γ (0) − 2
po rozwiązaniu tego układu otrzymujemy:
⎧α (0) = 2
⎨ (0)
⎩γ = −2.5
(moglibyśmy oczywiście podstawić wartości z innych obserwacji)
Tutaj przedstawiono różne metody doboru punktów startowych – w zadaniu oczywiście
wystarczy, że wykorzystają Państwo jedną metodę
Wyjściowe równanie spełnia założenia MNRN (mamy +εt),
α + gt
wt =
+ εt
N γ +g
t
yt
gt ( β )
widać iż:
yt = wt ,
Wobec tego:
∂gt ( β )
1
=
∂α
γ + ht
gt ( β ) =
⎡α ⎤
β =⎢ ⎥.
⎣γ ⎦
α + ht
,
γ + ht
∂gt ( β )
∂γ
=−
α + ht
2
(γ + ht )
zatem:
⎡
α + ht ⎤
1
At ( β ) = ⎢ −
−
⎥
2
⎢⎣ γ + ht
(γ + ht ) ⎥⎦
gdzie przez At ( β ) rozumiemy typowy, t-ty wiersz A ( β ) .
⎡α (0) ⎤ ⎡ 2.04 ⎤
Przyjmijmy jako punkty startowe ⎢ (0) ⎥ = ⎢
⎥
⎣ γ ⎦ ⎣-2.127 ⎦
Algorytm Gaussa i Newtona:
KROK 1:
Dla wyliczenia poprawki w pierwszym kroku wykorzystujemy wzór:
(
)
z (1) = ⎡⎣ A ( β (0) ) ' A ( β (0) ) ⎤⎦ A ( β (0) ) ' y − g ( β (0) )
⎡2 ⎤
⎡ 0.205 -0.381 ⎤
⎡1.855 ⎤
⎡ 0.145 ⎤
⎢2 ⎥
⎢ 2.076 ⎥
⎢ 0.258 -0.536 ⎥
⎢ -0.076 ⎥
⎢
⎥
⎢
⎥
⎢
⎥
⎢
⎥
⎢
⎥
⎢
⎥
⎢
⎥
⎢
⎥
1.145
-6.613
5.5
5.773
-0.273
(0)
yt = ⎢
A ( β (0) ) = ⎢
g ( β (0) ) = ⎢
⎥,
⎥ , y − g (β ) = ⎢
⎥,
⎥
⎢ -2.5⎥
⎢ -0.887 -2.393 ⎥
⎢ 0.197 ⎥
⎢-2.697 ⎥
⎢ -1 ⎥
⎢ -0.47 -0.451 ⎥
⎢ -0.041 ⎥
⎢-0.959 ⎥
⎢
⎥
⎢
⎥
⎢
⎥
⎢
⎥
⎣⎢ 0 ⎦⎥
⎣⎢ -0.242 -0.002 ⎦⎥
⎣⎢ 0.01 ⎦⎥
⎣⎢-0.01 ⎦⎥
−1
−1
⎡ 2.486 -5.453 ⎤
⎡ 0.528
A ( β (0) ) ' A ( β (0) ) = ⎢
, ⎡⎣ A ( β (0) ) ' A ( β (0) ) ⎤⎦ = ⎢
⎥
⎣ -5.453 50.094 ⎦
⎣ 0.058
⎡-0.46 ⎤ (1) ⎡-0.165⎤
A ( β (0) ) ' y − g ( β (0) ) = ⎢
⎥ , z = ⎢0.008 ⎥ , ostatecznie:
⎣1.338⎦
⎣
⎦
(
0.058 ⎤
,
0.026 ⎥⎦
)
⎡α (1) ⎤ ⎡α (0) ⎤
⎡ 2.04 ⎤ ⎡-0.165⎤ ⎡1.874 ⎤
β (1) = ⎢ (1) ⎥ = ⎢ (0) ⎥ + z (1) = ⎢
⎥+⎢
⎥=⎢
⎥
⎣ -2.127 ⎦ ⎣0.008 ⎦ ⎣ -2.118⎦
⎣γ ⎦ ⎣γ ⎦
sprawdzamy wielkość względnych poprawek:
λi =
β i ( j ) − β i ( j −1)
;
β i ( j)
⎡|-0.165 / 1.874|⎤ ⎡0.0886 ⎤
⎥=⎢
⎥
⎣|0.008 / -2.118|⎦ ⎣0.0042 ⎦
λ=⎢
widzimy, że choć względna poprawka dla parametru γ spełnia kryterium zatrzymania algorytmu,
to względna poprawka dla α jest zbyt duża:
0.0886 > 0.01 => kontynuujemy algorytm:
(być może na wykładzie inaczej oznaczali Państwo poprawkę w i-tym kroku oraz poprawkę
względną – w razie wątpliwości oznaczenia z wykładu zawsze są prawidłowe)
KROK 2:
(
)
z (2) = ⎡⎣ A ( β (1) ) ' A ( β (1) ) ⎤⎦ A ( β (1) ) ' y − g ( β (1) )
⎡0.205 -0.372 ⎤
⎡1.818 ⎤
⎡0.182 ⎤
⎢ 2.028 ⎥
⎢-0.028 ⎥
⎢0.258 -0.522 ⎥
⎢
⎥
⎢
⎥
⎢
⎥
⎢
⎥
⎢
⎥
⎢
⎥
1.134
-6.265
5.526
-0.026
(1)
A ( β (1) ) = ⎢
g ( β (1) ) = ⎢
⎥,
⎥ , y − g (β ) = ⎢
⎥
⎢-0.894 -2.299 ⎥
⎢-2.571⎥
⎢0.071 ⎥
⎢-0.472 -0.418 ⎥
⎢-0.885⎥
⎢-0.115 ⎥
⎢
⎥
⎢
⎥
⎢
⎥
⎢⎣-0.243 0.007 ⎥⎦
⎢⎣0.031 ⎥⎦
⎢⎣-0.031 ⎥⎦
−1
−1
⎡ 2.476 -5.065 ⎤
⎡0.524
A ( β (1) ) ' A ( β (1) ) = ⎢
, ⎡⎣ A ( β (1) ) ' A ( β (1) ) ⎤⎦ = ⎢
⎥
⎣ -5.065 45.121⎦
⎣0.059
⎡ -0.001 ⎤ (2) ⎡-0.001 ⎤
A ( β (1) ) ' y − g ( β (1) ) = ⎢
⎥ , z = ⎢-0.0002 ⎥ , ostatecznie:
⎣
⎦
⎣ -0.006 ⎦
(2)
(1)
1.874
-0.001
⎡
⎤
⎡
⎤
α
α
⎡
⎤ ⎡
⎤ ⎡1.873 ⎤
β (2) = ⎢ (2) ⎥ = ⎢ (1) ⎥ + z (2) = ⎢
+⎢
⎥
⎥=⎢
⎥.
⎣ -2.118⎦ ⎣ -0.0002 ⎦ ⎣ -2.1182⎦
⎣γ ⎦ ⎣γ ⎦
(
0.059 ⎤
,
0.029 ⎥⎦
)
sprawdzamy wielkość względnych poprawek:
⎡|-0.001 / 1.873 | ⎤ ⎡0.0005⎤
⎥=⎢
⎥
⎣|-0.0002 / -2.1182|⎦ ⎣0.0001⎦
λ=⎢
ponieważ: 0.0005 < 0.01 (największa poprawka względna spełnia kryterium zatrzymania)
kończymy algorytm:
⎡αˆ ⎤ ⎡1.873 ⎤
βˆ = β (2) ;
⎢ γˆ ⎥ = ⎢ -2.1182 ⎥
⎣ ⎦ ⎣
⎦
B)
Dla wyliczenia s2 możemy użyć reszt uzyskanych w ostatniej iteracji [przyjmujemy, iż
y − g βˆ ≈ y − g ( β (1) ) ],
( )
wobec tego
s2 =
(
( )) (
( )) = 6 −1 2 0.054 = 0.0135
iż A ( βˆ ) ≈ A ( β ) , więc
1
y − g βˆ ' y − g βˆ
T −k
podobnie przyjmujemy,
(1)
oszacowana asymptotyczna macierz
kowariancji estymatora nieliniowej MNK to:
−1
⎡0.524
Vˆas βˆ = s 2 ⎡⎣ A( βˆ )' A( βˆ) ⎤⎦ = 0.0135 ⎢
⎣0.059
( )
0.059 ⎤ ⎡ 0.0071 0.0008 ⎤
=
0.029 ⎥⎦ ⎢⎣ 0.0008 0.0004 ⎥⎦
(tu bierzemy nieco większą dokładność, żeby uniknąć zer na przekątnej)
Przybliżone błędy średnie szacunku parametrów to odpowiednio pierwiastki z elementów na
przekątnej Vˆas βˆ , o kolejności decyduje kolejność kolumn w A ( β ) .
( )
D (αˆ ) = 0.084
D (γˆ ) = 0.02
C)
Estymacja przedziałowa α:
możemy wykorzystać wartości krytyczne z rozkładu t-Studenta, tj. t0.1;4=2.13
przybliżony przedział ufności: (αˆ − t0.1;4 D (αˆ ) ,αˆ + t0.1;4 D (αˆ ) )
Przedział (1.695, 2.053) to jedna z realizacji najkrótszego przedziału losowego pokrywającego
wartość parametru α z prawdopodobieństwem wynoszącym około 0.9
D)
H0: α = γ
H1: α ≠ γ
równoważnie:
H0: α - γ = 0 H1: α - γ ≠ 0
podstawiamy:
ψ = α - γ = c′ β
c′= [1 -1]
ostatecznie:
H0: ψ = 0
H1: ψ ≠ 0
statystyka testowa ma postać:
ψˆ − ψ *
tψ =
D (ψˆ )
ψˆ = c ' βˆ = 1.873 + 2.118 = 3.991
D(ψˆ ) = c 'Vˆas ( βˆ ) c = 0.006 = 0.077
⎡ 0.0071 0.0008 ⎤ ⎡ 1 ⎤
bo: [1 −1] ⎢
⎥ ⎢ ⎥ = 0.006
⎣ 0.0008 0.0004 ⎦ ⎣ −1⎦
ψ* = 0
wobec tego uzyskana w próbie realizacja statystyki testowej to:
tψ = 51.834
przy prawdziwości H0 statystyka t ma w MNRN asymptotyczny rozkład N(0,1)
jednak w małej próbie możemy użyć równie dobrze wartości krytycznych z rozkładu Studenta
o (T - k) stopniach swobody – czyli wartości krytycznej t0.05;4=2.78 (traktujemy to jako pewną ad
hoc poprawkę na fakt, iż w praktyce T jest skończone (i tutaj dość małe). Wiemy jednak, że to
tylko przybliżone rozumowanie).
poziom istotności: 0.05
przybliżony obszar krytyczny: (-∞,-t0.05;4) ∪ (t0.05;4, +∞), tj. cr = (-∞,-2.78) ∪ (2.78, +∞)
tψ ∉cr => odrzucamy H0
Na poziomie istotności około 0.05 odrzucamy hipotezę zerową głoszącą iż parametry α i γ mają
identyczne wartości.
(ewentualnie: na poziomie istotności około 0.05 parametry α i γ są od siebie istotnie różne)