przykładowe zadanie z regresji nieliniowej
Transkrypt
przykładowe zadanie z regresji nieliniowej
W typowym zadaniu z regresji nieliniowej mamy następujące etapy: Estymacja (uzyskanie ocen punktowych parametrów), w tym: 1. Dobór punktów startowych. 2. Kolejne iteracje algorytmu Gaussa i Newtona. 3. Zakończenie algorytmu Gaussa i Newtona (kryterium zatrzymania) Następnie: 5. wyliczenie błędów średnich szacunku 6. prowadzenie testów istotności 7. prowadzenie estymacji przedziałowej Wykorzystujemy wzory: ( ) Vˆas βˆ = s 2 ⎡⎣ A( βˆ) ' A( βˆ ) ⎤⎦ −1 (estymator asymptotycznej macierzy kowariancji estymatora nieliniowej MNK w MNRN) s2 = ( ( )) ( ( )) 1 y − g βˆ ' y − g βˆ T −k (wariancja resztowa) ( z ( j ) = ⎡⎣ A ( β ( j −1) ) ' A ( β ( j −1) ) ⎤⎦ A ( β ( j −1) ) ' y − g ( β ( j −1) ) −1 ) (poprawka w j-tym kroku algorytmu Gaussa i Newtona) Przede wszystkim powinniśmy przeanalizować równanie obserwacji i zidentyfikować parametry, zmienne (objaśniające i objaśnianą) oraz składniki losowe. BARDZO WAŻNE jest sprowadzenie równania do postaci zgodnej z pierwszym założeniem Modelu Normalnej Regresji Nieliniowej. Dopiero gdy równanie jest w takiej postaci, że występuje tam składnik losowy (mamy +εt a nie np. ⋅eεt ) możemy prawidłowo zidentyfikować yt oraz gt(β). Zaczynamy od wyznaczenia punktów startowych. Są to przybliżone oceny parametrów strukturalnych modelu – takie wartości, które będą możliwie bliskie ostatecznych ocen (których oczywiście nie znamy). Im punkty startowe będą bliższe ocen, tym szybciej (w mniejszej liczbie iteracji) powinniśmy uzyskać wyniki – ale to tylko przybliżona prawidłowość. Punkty startowe wyznaczamy dowolnymi metodami które można uznać za sensowne. Dla uzyskania punktów startowych zwykle pomijamy w równaniu występowanie składnika losowego. Punkty startowe możemy oznaczyć tak jak parametry, tylko z górnym indeksem (0), np.: δ(0), β1(0). Metody wyznaczania punktów startowych: 1. Metoda k-punktów: podstawiamy sobie do równania obserwacji z DANYCH konkretne wartości zmiennych (objaśniających i objaśnianej). Składnik losowy pomijamy. Podstawiamy do tylu równań, ile jest parametrów (to znaczy k razy do równania obserwacji wstawiamy wartości odpowiadające różnym k obserwacjom). Uzyskujemy układ k równań z k niewiadomymi (niewiadomymi są parametry) i próbujemy go rozwiązać. Rozwiązania używamy jako punktów startowych. Oczywiście jeśli weźmiemy różne podzbiory obserwacji to otrzymamy różne wyniki – czasem można więc pechowo trafić. 2. Metoda przybliżonej linearyzacji: pomijamy składniki losowe i próbujemy tak przekształcić równanie obserwacji, żeby uzyskać postać liniową względem parametrów (lub względem ich wzajemnie jednoznacznych funkcji – np. jeśli uzyskamy postać liniową względem 1/β1 to też jest OK., bo jak uda nam się oszacować 1/β1 to potem weźmiemy sobie odwrotność z oszacowanego parametru). Do tak zmodyfikowanego równania stosujemy MNK (tak, jakby był tam jeszcze składnik losowy +εt) Ta metoda może być nieco bardziej pracochłonna, ale bierze pod uwagę informację ze wszystkich obserwacji i może dzięki temu dać lepsze punkty startowe. Algorytm Gaussa i Newtona: Stosujemy go to wyznaczania ocen nieliniowej MNK w MNRN. Estymator MNK jest zdefiniowany jako argument minimalizujący sumę kwadratów reszt. Minimum sumy kwadratów reszt w praktyce szukamy metodami numerycznymi. Algorytm Gaussa i Newtona ma charakter iteracyjny: każdy kolejny krok zaczynamy od rezultatów kroku poprzedniego (dla kroku pierwszego – od punktów startowych), musimy też algorytm zakończyć – przyjąć jakieś kryterium zatrzymania. W każdym kroku wyliczamy wektor poprawek. Oceny z kroku pierwszego to punkty startowe plus pierwsza poprawka. Oceny z kroku drugiego to oceny z kroku pierwszego plus wyliczona w kroku drugim poprawka itd. Do wyliczania poprawki każdorazowo używamy ocen z ostatnio wykonanego kroku. Schematycznie: β(0): punkty startowe, z(i) – poprawka w i-tym kroku. krok 1: β(1) = β(0) + z(1), przy czym dla wyliczenia z(1) używamy β(0). krok 2: β(2) = β(1) + z(2), przy czym dla wyliczenia z(2) używamy β(1). krok 3: β(3) = β(2) + z(3), przy czym dla wyliczenia z(3) używamy β(2). Spodziewamy się, że algorytm w pewnym momencie osiągnie zbieżność, tj, oceny w kolejnych krokach praktycznie przestaną się zmieniać (tj. poprawki będę praktycznie równe 0). Musimy pamiętać, że poprawki muszą być praktycznie równe zeru dla WSZYSTKICH parametrów. Pytanie tylko, co to znaczy „praktycznie równe zeru” – to zależy przecież od rzędu wielkości parametru (dla oceny parametru rzędu setek zmiana o 0,001 może być nieistotna, dla oceny parametru wynoszącej 0,01 jest dość istotna). Dlatego rozważamy tzw. względną poprawkę dla itego parametru w j-tym kroku algorytmu: β i ( j ) − β i ( j −1) . λi = ( j) βi Jako kryterium zatrzymania algorytmu możemy przyjąć sprawdzenie, czy względne poprawki dla WSZYSTKICH parametrów są mniejsze niż np. 0,001 (tu zakładamy jakąś arbitralną, bliską zeru wartość. Kiedy używamy komputera ta progowa wartość może być bliższa zeru, na sprawdzianie to może być np. 0,01 dla zaoszczędzenia czasu). Jeśli wszystkie względne poprawki (równoważnie największa z nich) są mniejsze od założonej wartości granicznej, algorytm zatrzymujemy. W momencie zatrzymania algorytmu wartości z ostatniego kroku uznajemy za ostateczne oceny parametrów uzyskane nieliniową MNK. Przykładowo w 11 kroku: β i (11 ) − β i (10) < 0,0001 dla i = 0,1,2 ⇒ βˆ = β (11 ) (10 ) βi Od zatrzymania algorytmu „zapominamy” o ocenach w kolejnych krokach β(j) i rozważamy tylko βˆ . Ponieważ w dalszym ciągu (np do wyliczenia Vˆas β̂ ) potrzebujemy również A β̂ , to w zadaniach dla zaoszczędzenia czasu możemy tak naprawdę wykorzystać wartość z poprzedniego kroku (mamy ją już wyliczoną przy liczeniu poprawki w ostatnim kroku). Więc (kontynuując przykład): β i (11 ) ≈ β i (10 ) to A( βˆ ) = A( β (11 ) ) ≈ A( β (10 ) ) więc w obliczeniach możemy pisać A( βˆ ) i przyjmować wszędzie tam wartości A( β (10 ) ) , nie () () trzeba dodatkowo wyliczać A( β (11 ) ) . Wnioskowanie, estymacja przedziałowa. W MNRN estymację przedziałową i testy istotności możemy prowadzić dokładnie tak samo jak w KMNRL z tą różnicą, że zamiast Vˆ β̂ wykorzystujemy Vˆas β̂ , czyli: zamiast oceny macierzy kowariancji estymatora MNK (uzyskanej w KMNRL z wykorzystaniem estymatora nieobciążonego) mamy ocenę asymptotycznej macierzy kowariancji estymatora nieliniowej MNK (uzyskaną w MNRN z wykorzystaniem estymatora tylko zgodnego). Wobec tego wszelkie testy oraz przedziały ufności interpretujemy w MNRN jako tylko przybliżone (ponieważ znamy tylko asymptotyczne własności używanych estymatorów) [asymptotyczne tzn. wykazane przy założeniu, że liczba obserwacji dąży do nieskończoności, co w praktyce nigdy nie ma miejsca]. Pierwiastki z przekątniowych elementów Vˆas β̂ to będą przybliżone błędy średnie szacunku, zaś w konkluzji testu piszemy np.: „....na poziomie istotności około 0,05...”, a w interpretacji przedziału ufności „...pokrywającego nieznaną wartość parametru δ z prawdopodobieństwem około 0,95”, bo dysponujemy tylko przybliżonym obszarem krytycznym oraz przybliżonym przedziałem ufności. () () () Wartości krytyczne możemy brać bądź to z rozkładu t-Studenta (interpretując to jako poprawkę na małą próbę) bądź ze standaryzowanego rozkładu normalnego. Kiedy T-k jest duże (kilkadziesiąt, kilkaset) to i tak wartości krytyczne z obu tych rozkładów są praktycznie identyczne. Wtedy należy po prostu pamiętać wartości krytyczne ze standaryzowanego rozkładu normalnego (dla prawdopodobieństwa 0,05: 1,96-dwustronna i 1.64 - jednostronna). Kiedy T-k jest małe (mniejsze niż ok. 30), rozbieżności między tymi rozkładami mogą być dość znaczne. Ale nawet wtedy każdy wybór da się obronić – tylko po prostu mogą wychodzić różne wyniki. Przypominam, że wartość krytyczną z rozkładu normalnego standaryzowanego oznaczamy przez uα. Podobnie, mogą się Państwo spotkać w książkach z wersjami wzoru na estymator wariancji składnika losowego (u nas s2), gdzie w mianowniku będzie T zamiast T-k. Teorię i tak mamy tylko dla T dążącego do nieskończoności - a wtedy to wszystko jedno. Dla małego T ta teoria i tak jest bardzo przybliżona, więc nie dostarcza nam ona zdecydowanego rozstrzygnięcia na rzecz którejś wersji. Możemy więc wszystko robić dokładnie tak samo jak w KMNRL (pamiętając tylko o dodaniu ”w przybliżeniu” lub „około” w interpretacjach i odpowiedniej zmianie oznaczeń (np. zamiast Vˆ β̂ mamy Vˆas β̂ . () () () WAŻNE: Kolejność kolumn w A β̂ . W kolejnych kolumnach A(.) mamy pochodne cząstkowe funkcji g(β) względem parametrów (elementów β). Nie ma jakiejś jedynej poprawnej kolejności. Jednak ma ona istotne konsekwencje dla wszystkich wzorów, gdzie mamy A(.) . Jeśli np. pochodna po pewnym parametrze φ będzie w drugiej kolumnie A(.) , to wtedy poprawka dla φ będzie na drugim miejscu w wektorze poprawek, zaś błąd średni szacunku dla tego parametru to pierwiastek z elementu w drugim rzędzie i w drugiej kolumnie Vˆas β̂ . Możemy więc przyjąć dowolną kolejność kolumn w A(.) , jednak należy się jej trzymać i nie pomylić, bo inaczej np. będziemy dodawać poprawkę do innego parametru i algorytm nigdy się nie zbiegnie, lub źle weźmiemy błąd średni szacunku. () Przykład: 1. Dany jest model: α + gt wt = + ε t ε ~ iiN (0, σ 2 ) ; t γ + gt t ht yt 1 2 3 4 5 6 7 2 6 2 3 5.5 1 -2.5 0 -1 -2 0 Proszę: A. podać wstępne oceny parametrów mogących służyć jako punkty startowe. oszacować parametry modelu przy pomocy nieliniowej MNK (przyjmując jako kryterium zatrzymania względną poprawkę mniejszą niż 0.01) B. wyliczyć i podać przybliżone błędy średnie szacunku parametrów C. zbudować i zinterpretować 90% przedział ufności dla parametru α D. zbadać, czy parametry α oraz γ mają wartości istotnie różne od siebie. UWAGA. W obliczeniach poniżej zastosowano zaokrąglenie do 3 miejsc po przecinku. Jednakże np. zaokrąglany jest wynik odwracania macierzy, natomiast samo odwracanie jest z pełną dokładnością. A) Wyznaczamy punkty startowe: α + ht (pomijamy składnik losowy) wt = γ + ht wt (γ + ht ) = α + ht wt ht − ht = α − γ wt (zmienne i ew. znane stałe bez parametrów przenosimy na lewą stronę) do wyznaczenia przybliżonych ocen parametrów wykorzystujemy tu estymator MNK tak, jak gdyby równanie miało postać: wt ht − ht = α − γ wt + ξt przy czym odpowiedniki yt oraz xt w KMRL to: yt* = [wtht - ht] xt* = [1 -wt] punkty startowe możemy tu otrzymać jako: ⎡α (0) ⎤ ∗ ∗ −1 ∗ ∗ ⎢ (0) ⎥ = ( X ' X ) X ' y γ ⎣ ⎦ mamy: ⎡1 ⎢1 ⎢ ⎢1 X∗ = ⎢ ⎢1 ⎢1 ⎢ ⎣⎢1 -2 ⎤ -2 ⎥⎥ -5.5⎥ ⎥, 2.5 ⎥ 1 ⎥ ⎥ 0 ⎦⎥ ⎡ -7 ⎤ ⎢6 ⎥ ⎢ ⎥ ⎢ ⎥ 13.5 y∗ = ⎢ ⎥, ⎢ -3.5 ⎥ ⎢0 ⎥ ⎢ ⎥ ⎣⎢ 2 ⎥⎦ ⎡α (0) ⎤ ⎡ 2.04 ⎤ ⎢ (0) ⎥ = ⎢ ⎥ ⎣ γ ⎦ ⎣-2.127 ⎦ Alternatywnie, możemy rozważyć układ 2 równań otrzymany przez podstawienie wartości yt oraz ht z danych odpowiadających np. pierwszej i ostatniej obserwacji: ⎧α (0) + 7 ⎪ γ (0) + 7 = 2 ⎪ ⎨ (0) ⎪α − 2 = 0 ⎪⎩ γ (0) − 2 po rozwiązaniu tego układu otrzymujemy: ⎧α (0) = 2 ⎨ (0) ⎩γ = −2.5 (moglibyśmy oczywiście podstawić wartości z innych obserwacji) Tutaj przedstawiono różne metody doboru punktów startowych – w zadaniu oczywiście wystarczy, że wykorzystają Państwo jedną metodę Wyjściowe równanie spełnia założenia MNRN (mamy +εt), α + gt wt = + εt N γ +g t yt gt ( β ) widać iż: yt = wt , Wobec tego: ∂gt ( β ) 1 = ∂α γ + ht gt ( β ) = ⎡α ⎤ β =⎢ ⎥. ⎣γ ⎦ α + ht , γ + ht ∂gt ( β ) ∂γ =− α + ht 2 (γ + ht ) zatem: ⎡ α + ht ⎤ 1 At ( β ) = ⎢ − − ⎥ 2 ⎢⎣ γ + ht (γ + ht ) ⎥⎦ gdzie przez At ( β ) rozumiemy typowy, t-ty wiersz A ( β ) . ⎡α (0) ⎤ ⎡ 2.04 ⎤ Przyjmijmy jako punkty startowe ⎢ (0) ⎥ = ⎢ ⎥ ⎣ γ ⎦ ⎣-2.127 ⎦ Algorytm Gaussa i Newtona: KROK 1: Dla wyliczenia poprawki w pierwszym kroku wykorzystujemy wzór: ( ) z (1) = ⎡⎣ A ( β (0) ) ' A ( β (0) ) ⎤⎦ A ( β (0) ) ' y − g ( β (0) ) ⎡2 ⎤ ⎡ 0.205 -0.381 ⎤ ⎡1.855 ⎤ ⎡ 0.145 ⎤ ⎢2 ⎥ ⎢ 2.076 ⎥ ⎢ 0.258 -0.536 ⎥ ⎢ -0.076 ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ 1.145 -6.613 5.5 5.773 -0.273 (0) yt = ⎢ A ( β (0) ) = ⎢ g ( β (0) ) = ⎢ ⎥, ⎥ , y − g (β ) = ⎢ ⎥, ⎥ ⎢ -2.5⎥ ⎢ -0.887 -2.393 ⎥ ⎢ 0.197 ⎥ ⎢-2.697 ⎥ ⎢ -1 ⎥ ⎢ -0.47 -0.451 ⎥ ⎢ -0.041 ⎥ ⎢-0.959 ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎣⎢ 0 ⎦⎥ ⎣⎢ -0.242 -0.002 ⎦⎥ ⎣⎢ 0.01 ⎦⎥ ⎣⎢-0.01 ⎦⎥ −1 −1 ⎡ 2.486 -5.453 ⎤ ⎡ 0.528 A ( β (0) ) ' A ( β (0) ) = ⎢ , ⎡⎣ A ( β (0) ) ' A ( β (0) ) ⎤⎦ = ⎢ ⎥ ⎣ -5.453 50.094 ⎦ ⎣ 0.058 ⎡-0.46 ⎤ (1) ⎡-0.165⎤ A ( β (0) ) ' y − g ( β (0) ) = ⎢ ⎥ , z = ⎢0.008 ⎥ , ostatecznie: ⎣1.338⎦ ⎣ ⎦ ( 0.058 ⎤ , 0.026 ⎥⎦ ) ⎡α (1) ⎤ ⎡α (0) ⎤ ⎡ 2.04 ⎤ ⎡-0.165⎤ ⎡1.874 ⎤ β (1) = ⎢ (1) ⎥ = ⎢ (0) ⎥ + z (1) = ⎢ ⎥+⎢ ⎥=⎢ ⎥ ⎣ -2.127 ⎦ ⎣0.008 ⎦ ⎣ -2.118⎦ ⎣γ ⎦ ⎣γ ⎦ sprawdzamy wielkość względnych poprawek: λi = β i ( j ) − β i ( j −1) ; β i ( j) ⎡|-0.165 / 1.874|⎤ ⎡0.0886 ⎤ ⎥=⎢ ⎥ ⎣|0.008 / -2.118|⎦ ⎣0.0042 ⎦ λ=⎢ widzimy, że choć względna poprawka dla parametru γ spełnia kryterium zatrzymania algorytmu, to względna poprawka dla α jest zbyt duża: 0.0886 > 0.01 => kontynuujemy algorytm: (być może na wykładzie inaczej oznaczali Państwo poprawkę w i-tym kroku oraz poprawkę względną – w razie wątpliwości oznaczenia z wykładu zawsze są prawidłowe) KROK 2: ( ) z (2) = ⎡⎣ A ( β (1) ) ' A ( β (1) ) ⎤⎦ A ( β (1) ) ' y − g ( β (1) ) ⎡0.205 -0.372 ⎤ ⎡1.818 ⎤ ⎡0.182 ⎤ ⎢ 2.028 ⎥ ⎢-0.028 ⎥ ⎢0.258 -0.522 ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ 1.134 -6.265 5.526 -0.026 (1) A ( β (1) ) = ⎢ g ( β (1) ) = ⎢ ⎥, ⎥ , y − g (β ) = ⎢ ⎥ ⎢-0.894 -2.299 ⎥ ⎢-2.571⎥ ⎢0.071 ⎥ ⎢-0.472 -0.418 ⎥ ⎢-0.885⎥ ⎢-0.115 ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢⎣-0.243 0.007 ⎥⎦ ⎢⎣0.031 ⎥⎦ ⎢⎣-0.031 ⎥⎦ −1 −1 ⎡ 2.476 -5.065 ⎤ ⎡0.524 A ( β (1) ) ' A ( β (1) ) = ⎢ , ⎡⎣ A ( β (1) ) ' A ( β (1) ) ⎤⎦ = ⎢ ⎥ ⎣ -5.065 45.121⎦ ⎣0.059 ⎡ -0.001 ⎤ (2) ⎡-0.001 ⎤ A ( β (1) ) ' y − g ( β (1) ) = ⎢ ⎥ , z = ⎢-0.0002 ⎥ , ostatecznie: ⎣ ⎦ ⎣ -0.006 ⎦ (2) (1) 1.874 -0.001 ⎡ ⎤ ⎡ ⎤ α α ⎡ ⎤ ⎡ ⎤ ⎡1.873 ⎤ β (2) = ⎢ (2) ⎥ = ⎢ (1) ⎥ + z (2) = ⎢ +⎢ ⎥ ⎥=⎢ ⎥. ⎣ -2.118⎦ ⎣ -0.0002 ⎦ ⎣ -2.1182⎦ ⎣γ ⎦ ⎣γ ⎦ ( 0.059 ⎤ , 0.029 ⎥⎦ ) sprawdzamy wielkość względnych poprawek: ⎡|-0.001 / 1.873 | ⎤ ⎡0.0005⎤ ⎥=⎢ ⎥ ⎣|-0.0002 / -2.1182|⎦ ⎣0.0001⎦ λ=⎢ ponieważ: 0.0005 < 0.01 (największa poprawka względna spełnia kryterium zatrzymania) kończymy algorytm: ⎡αˆ ⎤ ⎡1.873 ⎤ βˆ = β (2) ; ⎢ γˆ ⎥ = ⎢ -2.1182 ⎥ ⎣ ⎦ ⎣ ⎦ B) Dla wyliczenia s2 możemy użyć reszt uzyskanych w ostatniej iteracji [przyjmujemy, iż y − g βˆ ≈ y − g ( β (1) ) ], ( ) wobec tego s2 = ( ( )) ( ( )) = 6 −1 2 0.054 = 0.0135 iż A ( βˆ ) ≈ A ( β ) , więc 1 y − g βˆ ' y − g βˆ T −k podobnie przyjmujemy, (1) oszacowana asymptotyczna macierz kowariancji estymatora nieliniowej MNK to: −1 ⎡0.524 Vˆas βˆ = s 2 ⎡⎣ A( βˆ )' A( βˆ) ⎤⎦ = 0.0135 ⎢ ⎣0.059 ( ) 0.059 ⎤ ⎡ 0.0071 0.0008 ⎤ = 0.029 ⎥⎦ ⎢⎣ 0.0008 0.0004 ⎥⎦ (tu bierzemy nieco większą dokładność, żeby uniknąć zer na przekątnej) Przybliżone błędy średnie szacunku parametrów to odpowiednio pierwiastki z elementów na przekątnej Vˆas βˆ , o kolejności decyduje kolejność kolumn w A ( β ) . ( ) D (αˆ ) = 0.084 D (γˆ ) = 0.02 C) Estymacja przedziałowa α: możemy wykorzystać wartości krytyczne z rozkładu t-Studenta, tj. t0.1;4=2.13 przybliżony przedział ufności: (αˆ − t0.1;4 D (αˆ ) ,αˆ + t0.1;4 D (αˆ ) ) Przedział (1.695, 2.053) to jedna z realizacji najkrótszego przedziału losowego pokrywającego wartość parametru α z prawdopodobieństwem wynoszącym około 0.9 D) H0: α = γ H1: α ≠ γ równoważnie: H0: α - γ = 0 H1: α - γ ≠ 0 podstawiamy: ψ = α - γ = c′ β c′= [1 -1] ostatecznie: H0: ψ = 0 H1: ψ ≠ 0 statystyka testowa ma postać: ψˆ − ψ * tψ = D (ψˆ ) ψˆ = c ' βˆ = 1.873 + 2.118 = 3.991 D(ψˆ ) = c 'Vˆas ( βˆ ) c = 0.006 = 0.077 ⎡ 0.0071 0.0008 ⎤ ⎡ 1 ⎤ bo: [1 −1] ⎢ ⎥ ⎢ ⎥ = 0.006 ⎣ 0.0008 0.0004 ⎦ ⎣ −1⎦ ψ* = 0 wobec tego uzyskana w próbie realizacja statystyki testowej to: tψ = 51.834 przy prawdziwości H0 statystyka t ma w MNRN asymptotyczny rozkład N(0,1) jednak w małej próbie możemy użyć równie dobrze wartości krytycznych z rozkładu Studenta o (T - k) stopniach swobody – czyli wartości krytycznej t0.05;4=2.78 (traktujemy to jako pewną ad hoc poprawkę na fakt, iż w praktyce T jest skończone (i tutaj dość małe). Wiemy jednak, że to tylko przybliżone rozumowanie). poziom istotności: 0.05 przybliżony obszar krytyczny: (-∞,-t0.05;4) ∪ (t0.05;4, +∞), tj. cr = (-∞,-2.78) ∪ (2.78, +∞) tψ ∉cr => odrzucamy H0 Na poziomie istotności około 0.05 odrzucamy hipotezę zerową głoszącą iż parametry α i γ mają identyczne wartości. (ewentualnie: na poziomie istotności około 0.05 parametry α i γ są od siebie istotnie różne)