Materialy dydaktyczn..

Transkrypt

Materialy dydaktyczn..
Projekt „Zwiększenie liczby absolwentów kierunku chemia ZLAB” realizowany w ramach
Priorytetu IV – Szkolnictwo wyższe i nauka, Poddziałanie 4.1.2 Programu Operacyjnego Kapitał Ludzki
SKRYPT DLA STUDENTÓW
KIERUNKU CHEMIA
„Opracowanie wyników pomiarów
eksperymentalnych”
Ivana Stanimirova-Daszykowska
Uniwersytet Śląski w Katowicach
Instytut Chemii
Katowice 2013
Projekt współfinansowany przez Unię Europejską w ramach Europejskiego Funduszu Społecznego
Spis treści
Przedmowa ............................................................................................................................. 3
Problem badawczy, pytanie badawcze i hipoteza badawcza ................................................. 4
Zmienne pomiarowe ............................................................................................................... 5
Rodzaje błędów pomiarowych ............................................................................................... 5
Statystka jako nauka i jej przedmiot....................................................................................... 7
Wprowadzenie do statystyki losowej zmiennej ..................................................................... 7
Parametry opisujące rozkład losowej zmiennej ..................................................................... 9
Miary położenia środka rozkładu ....................................................................................... 9
Miary dyspersji rozkładu wyników .................................................................................. 10
Próbkowanie i rozkład próbkowania .................................................................................... 11
Rozkład normalny i wystandardyzowany rozkład normalny ........................................... 11
Centralne twierdzenie graniczne ...................................................................................... 15
Rozkład chi kwadrat ......................................................................................................... 15
Testowanie hipotez statystycznych ...................................................................................... 20
Podstawowe testy statystyczne ............................................................................................. 22
Porównanie wartości średnich dwóch grup wyników - test t ........................................... 22
Porównanie wartości średniej z wartością deklarowaną .................................................. 27
Sparowany test t ............................................................................................................... 31
Testowanie wariancji – test F ........................................................................................... 32
Przedział ufności wartości średniej .................................................................................. 34
Wprowadzenie do analizy wariancji (ANOVA) .................................................................. 35
Metody kalibracyjne - regresja jednokrotna i wieloraka ...................................................... 38
Regresja jednoparametrowa ............................................................................................. 38
Regresja wieloraka ........................................................................................................... 45
Badanie siły liniowej zależności dwóch parametrów........................................................... 49
Stabilne warianty podstawowych estymatorów ................................................................... 51
Literatura .............................................................................................................................. 53
Dodatek: wybrane tablice statystyczne ................................................................................ 54
2
Przedmowa
Oddajemy w Państwa ręce materiały dydaktyczne, które w sposób bardzo syntetyczny
przedstawiają elementarne zagadnienia z zakresu statystyki i metod opracowania wyników
eksperymentalnych. Materiały te tylko w pewnej mierze przybliżają omawiane zagadnienia, a
zakres i forma ich prezentacji są wynikiem kompromisu pomiędzy wymaganą wiedzą,
oczekiwanymi efektami kształcenia, a realną potrzebą wykorzystania prezentowanych treści
w pracy zawodowej chemika. Przyjęty zakres merytoryczny opracowania to wynik ponad
trzyletniego doświadczenia osiągniętego podczas prowadzenia zajęć w ramach modułu
„Matematyka stosowana z elementami chemometrii” dla studentów drugiego roku studiów
licencjackich na kierunku chemia. Rolą prowadzonego kursu jest zwrócenie uwagi na
szczególne miejsce jakie zajmuje statystyka i inne metody matematyczne w opracowaniu
wyników pomiarowych uzyskanych w trakcie prowadzonych eksperymentów. Pomimo
dostępnych licznych pozycji literaturowych poruszających zagadnienia z zakresu statystyki,
wedle naszego przekonania, istniała konieczność przygotowania opracowania napisanego
językiem prostym, zrozumiałym dla studentów kierunku chemia wraz z typowymi
przykładami zastosowań.
Wierzymy, iż niniejsze opracowanie będzie Państwu pomocne nie tylko w ramach zajęć, ale
i późniejszej pracy zawodowej chemika. Zachęcamy do zgłaszania ewentualnych uwag lub
propozycji modyfikacji treści, mając nadzieje, że przez to kolejne wersje opracowania będą
jeszcze lepsze.
3
Problem badawczy, pytanie badawcze i hipoteza badawcza
W chemii, główną istotą prowadzonych badań eksperymentalnych jest próba rozwiązania
podjętego problemu badawczego zazwyczaj ujętego w formie pytania. Precyzuje one zakres
problemu badawczego, który zamierzamy rozwiązać, a także sugeruje formę oczekiwanej
odpowiedzi. W zależności od rodzaju pytania badawczego, uzyskamy odpowiedź „tak” lub
„nie” dla tzw. pytań rozstrzygnięcia, albo odpowiedź złożoną w przypadku tzw. pytań
dopełnienia. Oto kilka przykładowych pytań badawczych ilustrujących wybrane problemy
chemiczne i możliwe odpowiedzi:
•
•
•
•
Czy badana próbka wina pochodzi z Włoch? (pytanie rozstrzygnięcia)
Problem badawczy: śledzenie pochodzenia geograficznego próbek na podstawie ich
składu chemicznego
Odpowiedź: „tak” lub „nie”
Czy stężeniu cynku w analizowanej próbce nie przekracza 50 mg·dm-3? (pytanie
rozstrzygnięcia)
Problem badawczy: badania jakości środowiska (dopuszczalne stężenie to na przykład
50 mg·dm-3)
Odpowiedź: „tak” lub „nie” (pytanie rozstrzygnięcia)
O ile zwiększy się stopień odzysku molibdenu, jeśli przed analizą techniką
rentgenowskiej fluorescencji próbkę zagęszczono odpowiednio poprzez adsorpcję na
nanorurkach i utlenionych nanorurkach?
Problem badawczy: analiza chemiczna
Przykładowa odpowiedź: zagęszczanie próbki z wykorzystaniem jako adsorbenta
utlenionych nanorurek prowadzi do zwiększenia odzysku o 60% w stosunku do adsorpcji
prowadzonej na nanorurkach bez modyfikacji powierzchni.
Jak zmieni się wydajność reakcji chemicznej, jeśli będzie ona prowadzona przy
temperaturach 20°°C i 40°°C? (pytanie dopełnienia)
Problem badawczy: optymalizacja procesu (ustalenie wpływu temperatury na wydajność
reakcji chemicznej)
Przykładowa odpowiedź: w temperaturze 40°C obserwuje się dwukrotny wzrost
wydajności reakcji chemicznej w stosunku do wydajności reakcji chemicznej
prowadzonej w temperaturze 20°C.
Planując, a później realizując eksperyment, oczekujemy iż uzyskane wyniki pomiarów
umożliwią udzielenie jednoznacznej odpowiedzi na postawione pytanie badawcze. Stąd też,
formułując pytanie badawcze należy mieć na uwadze by było ono precyzyjne, zrozumiałe
i rozstrzygalne mając do dyspozycji dostępne środki (np. aparaturę, odpowiednie odczynniki,
etc.). Zazwyczaj, sformułowanie problemu badawczego i odpowiedniego pytania skłania nas
do refleksji nad możliwym wynikiem eksperymentu, a w konsekwencji zachęca do próby
odpowiedzi na pytanie badawcze. Przeczuwalna odpowiedź może być postrzegana jako
fundament do budowy hipotezy badawczej.
4
Hipoteza badawcza to zdanie twierdzące, mówiące o przewidywanym rezultacie
prowadzonego eksperymentu. Hipoteza badawcza ma pomóc uzyskać odpowiedź na pytanie
badawcze. Odpowiednio sformułowana hipoteza badawcza jest prosta. Ma dobrą moc
predykcyjną (własność, dzięki której istnieje możliwość przewidzenia wyniku na podstawie
określonych parametrów). Ponadto, hipoteza badawcza musi być weryfikowalna czyli
empirycznie możliwa do sprawdzenia.
Każdy, dobrze zaplanowany i poprawnie przeprowadzony eksperyment warunkuje
wiarygodne pomiary (wyniki), które mogą posłużyć by zweryfikować prawdziwość
postulowanej hipotezy badawczej. Dokonuje się tego stosując wybrane metody wnioskowania
statystycznego, które umożliwiają uzyskanie obiektywnych sądów co do prawdziwości
weryfikowanych hipotez.
Zmienne pomiarowe
Wynikiem prowadzonych eksperymentów jest zbiór pomiarów, które charakteryzują badane
próbki. Najczęściej, są one opisane przez pomiary wybranych parametrów np. stężenia
niektórych metali lub związków chemicznych, rozpuszczalność, aktywność biologiczną, pH,
gęstość, lepkość, przewodnictwo, itp. Tego typu pomiary to tzw. zmienne ilościowe, gdyż ich
wartości przyjmują dowolne wartości z określonego przedziału.
Drugim typem zmiennych są zmienne jakościowe. Takie zmienne mogą przyjmować pewne
wartości z zawężonego zbioru możliwości, np. barwa, kraj pobrania próbki (pochodzenie
geograficzne), informacja czy próbkę pobrano od pacjenta zdrowego czy chorego, fakt
autentyczności badanej próbki, itp.
Przeważnie w badaniach chemicznych mamy styczność ze zmiennymi ilościowymi i to
właśnie one w głównej mierze są przedmiotem opracowania statystycznego.
Rodzaje błędów pomiarowych
Każdy pomiar analityczny jest obarczony błędem. Poprzez błąd rozumiemy różnicę pomiędzy
wartością oczekiwaną pomiaru (rzeczywistą), a wartością wyznaczoną eksperymentalnie. Na
pomiar analityczny ma wpływ duża liczba czynników. Przyczyn powstawania błędów
pomiarowych można doszukiwać się w niestabilnych warunkach pomiaru (np. wahania
temperatury), wadliwej pracy podzespołów, zaburzeniach w stałości prądu elektrycznego,
zarudzeniu aparatury, itp. Błędy mogą także wynikać z używanej metody analitycznej, np.
powolna lub niezakończona reakcja czy niestabilne komponenty próbki.
Możemy wyróżnić trzy podstawowe rodzaje błędów pomiarowych. Są to błędy grube,
systematyczne i błędy losowe (tzw. przypadkowe).
•
Błędy grube (z ang. gross errors), to takie które powodują iż, wynik pomiaru rażąco
odbiega od wyników pozostałych pomiarów. Przyczyną błędu grubego są zazwyczaj
incydentalne zdarzenia. Na przykład, może to być problem techniczny z przyrządem, na
5
•
•
którym dokonywany jest pomiar, niewłaściwe wpisanie wyniku (np. złe oddzielenie cyfr
dziesiętnych przecinkiem), zaniedbanie w czynnościach określonych w protokole
przygotowania próbki do analizy, użycie zanieczyszczonego szkła lub odczynnika, itp.
Błędy systematyczne (z ang. systematic error), to takie, które w przypadku wielokrotnie
powtarzanych w tych samych warunkach pomiarów są praktycznie stałe lub zmieniają się
wedle pewnej prawidłowości. Są one np. następstwem źle wykalibrowanego przyrządu,
zabrudzenia szalki wagi, itp. Wówczas mówi się o obciążeniu wyniku pomiaru (z ang.
bias) zakładając, iż błąd losowy jest zaniedbywalny. Błąd systematyczny można
stosunkowo łatwo wyeliminować poprzez użycie odpowiednich metod i materiałów
certyfikowanych. Wykrycie błędu systematycznego jest niemożliwe poprzez wykonanie
serii powtórzeń.
Błędy losowe (z ang. random errors) powodują, iż wyniki powtarzanych pomiarów
prowadzonych w tych samych warunkach nieznacznie się od siebie różnią. Wpływają na
precyzję i dokładność metody. Obecność błędu losowego jest powodowana poprzez
szereg błędów elementarnych, które występują w toku postępowania analitycznego.
Wielkość błędu losowego może być oszacowana poprzez wykonanie serii powtórzeń.
Minimalizację błędu losowego realizuje się poprzez dopracowanie wykorzystywanej
techniki pomiarowej i samej metodyki pomiaru, jednak nie da się całkowicie
wyeliminować błędu losowego.
Z pojęciem błędu pomiarowego wiążą się także takie definicje jak dokładność metody
(z ang. accuracy) i precyzja metody (z ang. precision). Dokładność metody określa różnicę
pomiędzy uzyskanym wynikiem pomiaru, a wartością prawdziwą (oczekiwaną). Precyzja
metody determinuje stopień zgodności uzyskanych wyników, a zatem opisuje powtarzalność
pomiarów.
Dokładność i precyzja
Precyzja i brak dokładności
+
+
Dokładność i brak precyzji
+
Brak dokładności i precyzji
+
Rysunek 1 Graficzna prezentacja definicji precyzji i dokładności metody w odniesieniu do rozrzutu czterech
wyników i prawdziwej wartości oznaczonej jako ‘+’
6
Należy podkreślić, iż metoda analityczna prowadząca do precyzyjnych wyników wcale nie
musi być metodą dokładną. Ten problem ilustruje powyższy rysunek, na którym
przedstawiono hipotetyczne cztery wyniki pomiarów oraz wartość prawdziwą znajdującą się
w środku.
Statystka jako nauka i jej przedmiot
Statystyka jest nauką, w ramach której rozwijane są techniki ułatwiające badanie
i podejmowanie decyzji o zjawiskach, procesach lub populacjach na podstawie analizy
informacji zawartej w próbie pochodzącej z danej populacji. Metody statystyczne odgrywają
istotną rolę w rozwiązywaniu zagadnień z dziedziny kontroli jakości wyników i produktów,
a także ułatwiają wskazanie możliwych kierunków poprawy badanego procesu, metody, itp.
Statystyka dostarcza odpowiednich narzędzi, które wspomagają proces próbkowanie procesu,
jego testowanie, ocenę, usprawnienie i polepszenie jakości. Może być także postrzegana jako
język, dzięki któremu można w sposób obiektywny mówić o jakości.
Ogólnie, możemy wyróżnić trzy zasadnicze zastosowania narzędzi statystki. Metody statystki
opisowej umożliwiają syntetyczne przedstawienie informacji zawartej w zbiorze wyników.
Rozkłady prawdopodobieństwa mają za zadanie wyjaśniać zamienność określonego
parametru monitorowanego w trakcie eksperymentu czy procesu. Podejścia wnioskowania
statystycznego pozwalają formułować ogólne i obiektywne wnioski, dotyczące prawidłowości
dla populacji wyników na podstawie losowej próby (podzbioru wyników).
Wprowadzenie do statystyki losowej zmiennej
Zbiór wyników uzyskanych dla wielokrotnie powtórzonych pomiarów danego parametru
możemy postrzegać jako zmienną losową. Zmienna losowa powstaje jako wynik działania
funkcji, która elementom zmiennej losowej z określnym prawdopodobieństwem
przyporządkowuje wartości pomiarowe. Strukturę prawdopodobieństwa zmiennej losowej
opisuje jej rozkład prawdopodobieństwa. W przypadku zmiennej losowej, y, o charakterze
dyskretnym, rozkład prawdopodobieństwa nazywany jest funkcją prawdopodobieństwa, p(y),
natomiast w przypadku zmiennej losowej o charakterze ciągłym jest to funkcja gęstości
prawdopodobieństwa, f(y). Poniższe dwa rysunki obrazują hipotetyczne rozkłady
prawdopodobieństwa – dyskretny i ciągły.
7
25
15
f(y)
częstotliwość
20
10
5
0
1
2
3
4
5
6
7
8
y
y
Rysunek 2 Rozkłady prawdopodobieństwa – dyskretny i ciągły
W przypadku dyskretnego rozkładu prawdopodobieństwa, wysokość poszczególnych
słupków to wartości funkcji dla wyników pomiarów, p(yi), bezpośrednio mówi
o prawdopodobieństwie wystąpienia wyniku lub wyników z określonego przedziału wartości.
Dla ciągłego rozkładu prawdopodobieństwa, prawdopodobieństwo determinuje pole
powierzchni pod krzywą f(y) dla zadanego przedziału pomiarów.
Dla zmiennej losowej o charakterze dyskretnym, własności rozkładu prawdopodobieństwa
można przedstawić następująco:
1. 0 ≤
2. P
3. ∑
=
≤1
dla wszystkich wartości yi
=
dla wszystkich wartości yi
=1
W przypadku zmiennej losowej ciągłej, własności rozkładu prawdopodobieństwa są
następujące:
1. 0 ≤
2.
3.
≤
≤
=
=1
8
Parametry opisujące rozkład losowej zmiennej
Do opisu rozkładu losowej zmiennej wykorzystuje się estymatory. Ich rolą jest przybliżyć
wartość oczekiwaną (wartość prawdziwą) na podstawie zbioru wyników pomiarów.
Estymator opisuje populację wyników. Rozkład zmiennej losowej charakteryzuje się poprzez
położenie środka rozkładu oraz jego dyspersję (rozrzut wyników). Do oszacowania środka
rozkładu i jego dyspersji można posłużyć się różnymi estymatorami. Te najbardziej
powszechnie stosowane, zostaną scharakteryzowane w dalszej części.
Miary położenia środka rozkładu
Klasyczne miary położenia środka rozkładu to średnia arytmetyczna, moda i mediana. Średnia
arytmetyczna, µ, często nazywana średnią, zdefiniowana jest jako suma wszystkich wartości
podzielona przez ich ilość. Dla m wartości pomiarów zmiennej losowej y jej średnią
obliczamy zgodnie z poniższym wzorem:
=
1
W przypadku zmiennej losowej, której m wartości można pogrupować, średnią dla n grup
wyników można przedstawić następująco:
≈
1
+
≈
1
+ ⋯+
razy
$
+
+
! !
!
+
+ ⋯+
≈
+ ⋯+
! razy
!
" "%
"
≈
!
+ ⋯+
+
!
!
"
+
+ ⋯+
"
"
"
+ ⋯+
razy
"
≈
"
#≈
& '
Moda to najczęściej pojawiający pomiar się w rozkładzie wartości wyników. Na ogół, moda
nie jest najlepszą miarą położenia rozkładu gdyż ma na nią wpływ możliwe grupowanie
wyników.
Mediana, w przypadku nieparzystej liczby pomiarów, odpowiada wartości środkowej
pomiarów uszeregowanych od najmniejszej do największej wartości. Dla parzystej liczby
pomiarów, mediana zmiennej losowej o uszeregowanych wartościach to średnia arytmetyczna
wyników dwóch pomiarów położonych po obu stronach środka. Zaletą tej miary położenia
środka jest jej stabilność nawet, gdy niektóre z wyników znacząco odbiegają od pozostałych
(tzw. obiekty odległe). Zagadnienie to zostało bliżej przedstawione w ostatnim rozdziale
niniejszego opracowania.
9
Miary dyspersji rozkładu wyników
Zazwyczaj, stopień dyspersji rozkładu opisuje się poprzez rozstęp, średnią wartość
absolutnych wartości odchyłek od wartości średniej (z ang. mean absolute deviation),
odchylenie standardowe i wariancję.
Rozstęp, r, definiowany jest jako różnica pomiędzy największą, a najmniejszą wartością
pomiarów:
(=
)
−
+,
Średnia absolutnych wartości odchyłek od wartości średniej, MAD, wymaga obliczenia
− , dla wszystkich pomiarów zmiennej losowej.
odchyłek od wartości średniej,
MAD=
1
|
− |
Należy podkreślić, iż użycie wartości bezwzględnej w powyższym równaniu jest konieczne,
by wyeliminować efekt znaku różnic (odchyłki od wartości średniej mogą mieć znak dodatni
lub ujemy, a w efekcie ich suma może być równa zero). Innym sposobem eliminacji problemu
znaku jest operacja podniesienia poszczególnych wartości różnic do kwadratu, co daje
możliwość obliczenia pochodnej dla takiego wyrażenia. Z tego właśnie powodu, tak
zdefiniowana miara rozrzutu wyników nazywana jest średnią kwadratowych odchyłek od
wartości średniej (z ang. mean squared deviation), MSD:
MSD=
1
−
!
Estymator MSD przybliża dyspersję rozkładu tylko dla fragmentu populacji wyników.
W przypadku wykorzystania tego estymatora dla populacji wyników wykazuje on obciążenie.
Oznacza to, iż średnia wartość MSD obliczonych dla wielokrotne wylosowanych z populacji
podzbiorów wyników różni się od wartości oczekiwanej. Z tego właśnie powodu,
zaproponowano nieobciążony estymator, znany jako wariancja, σ2:
/! =
1
−1
−
!
10
Innym estymatorem rozrzutu wyników jest odchylenie standardowe, zdefiniowane jako
pierwiastek kwadratowy wariancji. W odróżnieniu od wariancji, odchylenie standardowe jest
wyrażone w tych samych jednostkach co pomiary tworzące zmienną losową.
Próbkowanie i rozkład próbkowania
Wnioskowanie statystyczne w głównej mierze ma pomóc poznać (scharakteryzować)
określoną populację na podstawie relatywnie mało licznego podzbioru wyników – tzw. próby.
Innymi słowy, jest to podejście zmierzające ku uogólnieniu pewnych własności na całą
populację wyników. Większość metod statystycznych zakłada, iż w tym celu zostanie użyty
zbiór próbek losowo wybrany z całej populacji. Taki sposób wyboru próbek narzuca by na ich
wybór nie miał wpływ żaden czynnik. Jeżeli każdy wynik ma jednakową szansę by być
wylosowany, wówczas możemy mówić o losowym próbkowaniu.
W tym miejscu, należy zadać pytanie kiedy na podstawie podzbioru wyników będzie możliwe
w miarę poprawne opisanie całej populacji? Warunkiem koniecznym jest zapewnienie
reprezentatywności próby. Zagadnienie reprezentatywności próby najlepiej zrozumieć
w kontekście planowania i prowadzenia sondaży przedwyborczych. Reprezentatywna próba
respondentów powinna dobrze charakteryzować strukturę całej populacji. Tak więc
ograniczenie sondażu do np. pewnej grupy wiekowej, osób zamieszkałych w jednym regionie
czy określonej płci respondentów i wnioskowanie na podstawie takiej próby nie prowadzi do
wiarygodnych konkluzji. Rozkład prawdopodobieństwa wystąpienia wartości określonej
statystyki nazywany jest rozkładem próbkowania.
Rozkład normalny i wystandardyzowany rozkład normalny
Jednym z najbardziej rozpowszechnionych rozkładów próbkowania jest rozkład normalny.
Przyjmując, że zbiór pomiarów y to losowa zmienna, jej rozkład prawdopodobieństwa f(y)
można opisać następującą funkcją:
=
1
/√22
exp 3−
−
2/ !
!
4
gdzie, wartość średnia znajduje się w przedziale -∞ < µ < ∞, a wariancja przyjmuje wartości
większe od zera, a oznaczenie ‘exp{x}’ oznacza wykładnik funkcji ex.
W literaturze, można dla zmiennej losowej y spotkać oznaczenie y ∼ N(µ, σ2), co oznacza iż
pochodzi ona z populacji o rozkładzie normalnym o średniej równej µ i wariancji σ2.
Jednocześnie zapis ten wyraźnie wskazuje, iż średnia i wariancja to dwa kluczowe parametry
rozkładu normalnego, które mają bezpośredni wpływ na kształt funkcji gęstości
prawdopodobieństwa rozkładu normalnego.
11
Rozkład normalny odgrywa ważną rolę w analizie wyników uzyskanych w trakcie
zaplanowanych eksperymentów. Wyniki pomiarów, które różnią się od siebie z powodu
istnienia błędu losowego można z powodzeniem opisać używając rozkład normalny.
Specjalnym przypadkiem rozkładu normalnego jest jego wystandaryzowana postać,
z ∼ N(µ, σ2), dla której średnia przyjmuje wartość zero, a wariancja rozkładu wynosi jeden.
Nowa zmienna z powstaje po transformacji zmiennej losowej y, która obejmuje dwie operacje
– centrowania i skalowania, co prowadzi do średniej równej zero i jednostkowego odchylenia
standardowego (z ∼ N(0, 1)):
−
/
5=
Tak zdefiniowana transformacja zmiennej losowej nazywana jest także z-transformacją,
standaryzacją lub autoskalowaniem.
Przyjmując, że w przypadku wystandaryzowanego rozkładu prawdopodobieństwa µ = 0
i σ2 = 1, funkcja gęstości prawdopodobieństwa wystandaryzowanej zmiennej losowej, f(z),
ulega znacznemu uproszczeniu do postaci:
5 =
1
√22
exp 3−
5!
4
2
Na poniższym rysunku, przedstawiono funkcję gęstości prawdopodobieństwa dla rozkładu
normalnego dla µ = 0 i różnych trzech wartościach σ = 0,5, σ = 1 i σ = 2.
0.8
σ =0,5
σ =1
σ =2
0.7
0.6
f(y)
0.5
0.4
0.3
0.2
0.1
0
-6
-4
-2
0
2
4
6
y
Rysunek 3 Funkcja gęstości prawdopodobieństwa dla rozkładu normalnego:
linia niebieska y ∼ N(0; 0,5), linia czerwona y ∼ N(0; 1) oraz linia czarna y ∼ N(0; 2)
12
Wystandaryzowana postać funkcji gęstości prawdopodobieństwa dla rozkładu normalnego
umożliwia przedstawienie w tablicach wartości prawdopodobieństwa, które określone jest
jako pole powierzchni pod wybranym obszarem krzywej. Całkowite pole powierzchni pod
krzywą funkcji gęstości prawdopodobieństwa dla wystandaryzowanego rozkładu normalnego
wynosi jeden. Natomiast, prawdopodobieństwo iż wystandaryzowana zmienna, z, przyjmie
wartości z przedziału [ua, ub] wymaga obliczenia całki oznaczonej, zwanej całką Laplace’a,
o następującej postaci:
5 =
1
√22
89
6 3−
8:
5!
4 d5
2
Schematycznie, wartość prawdopodobieństwa określoną dla przedziału wartości z ∈ [z1, z2],
gdzie z1 = 1 i z2 = ∞, możemy zaznaczyć jako szary obszar pod wykresem.
0.45
0.4
0.35
0.3
f(z)
0.25
0.2
0.15
0.1
0.05
0
-6
-4
-2
0
2
4
6
z
Rysunek 4 Funkcja gęstości prawdopodobieństwa dla wystandaryzowanej zmiennej z o rozkładzie normalnym
z zaznaczonym obszarem, który odpowiada prawdopodobieństwu wystąpienia wartości tejże zmiennej
w przedziale [1; ∞]
Wykorzystując tablicowe wartości obliczonej całki dla unormowanego rozkładu normalnego,
załączone w końcowej części opracowania, możemy relatywnie łatwo oszacowywać z jakim
prawdopodobieństwem będą występowały wartości pomiarowe w zadanym przedziale.
Rozważmy następujący przykład.
Przykład 1
Przeprowadzono wyznaczenie wartości pH roztworu uzyskując rozkład normalny wyników
o średniej 10,15 oraz odchyleniu standardowym 0,02. Jaka część pomiarów będzie się
znajdować w przedziale wartości pH od 10,12 do 10,20?
13
Na początku, obliczamy wartość zmiennej wystandaryzowanej odpowiednio dla dwóch
krańców przedziału wartości, tj. 10,12 i 10,20 jako:
5 =
−
/
=
10,12 * 10,15
0,02
10,20 * 10,15
0,02
5!
*1,5
2,5
Następnie, z tablic statystycznych dla wystandaryzowanej postaci funkcji gęstości
prawdopodobieństwa (zob. dodatek) odczytujemy wartość prawdopodobieństwa dla obszaru
[-∞; -1,5] oraz dla obszaru [-∞; 2,5]. Prawdopodobieństwo w zakresie [-1,5; 2,5] można
obliczyć jako różnicę wartości prawdopodobieństwa dla obszaru [-∞; 2,5] i obszaru [-∞; -1,5].
5
5!
1
√22
1
6
√22
6
,=
!,=
3*
3*
5!
4 d5
2
5!!
4 d5
2
0,0668
0,9938
Schematycznie, poszczególne operacje obliczenia wartości prawdopodobieństwa ilustruje
poniższy rysunek.
Rysunek 5 Schematyczne przedstawienie idei obliczania prawdopodobieństwa wystąpienia wyniku
w zadanym przedziale wartości zmiennej z dla wystandaryzowanego rozkładu normalnego (obszar oznaczony
czerwoną dwustronną strzałką)
14
Na tej podstawie możemy wnioskować, iż powtarzając wielokrotnie pomiary zmiennej,
92,70% wszystkich pomiarów należy oczekiwać w przedziale od 10,12 do 10,20. Innymi
słowy, wykonując 100 pomiarów 93 z nich przyjmie wartość z tego przedziału.
W podobny sposób, możemy rozważyć jaka część wszystkich wyników znajdzie się
w przedziale wokół wartości średniej określonym przez µ ± σ, µ ± 2σ, oraz µ ± 3σ.
Zakładając, iż σ = 1, w przedziale µ ± σ znajduje się 68% wyników, w przedziale µ ± 2σ
będzie 95% wyników, natomiast w przedziale µ ± 3σ jest 99,7% wszystkich wyników.
Centralne twierdzenie graniczne
Wiele podejść statystycznych zakłada, iż zmienne losowe przyjmują rozkład normalny.
Centralne twierdzenie graniczne pozwala uzasadnić dlaczego obserwowane rozkłady
prawdopodobieństwa są często zbliżone do rozkładu normalnego.
Centralne twierdzenie graniczne to twierdzenie matematyczne, które postuluje iż jeżeli
zmienne y1, y2, …, ym są niezależne o jednakowym rozkładzie i takiej samej wartości średniej
i skończonej wariancji (σ2 > 0), a x = y1 + y2 + … + ym wówczas zmienna losowa z wyrażona
jako:
5=
)−
√ /!
gdzie m → ∞, zbiega według standardowego rozkładu normalnego N(0, 1).
Zastosowanie centralnego twierdzenia granicznego w praktyce, pozwala uniknąć trudnych
obliczeń dla dużej liczby próbek i skomplikowanych rozkładów poprzez przyjęcie rozkładu
normalnego.
Rozkład chi kwadrat
Rozkład chi kwadrat, χ2, to inny typ rozkładu próbkowania zmiennej losowej. Podobnie jak
rozkład normalny, rozkład chi kwadrat może być zdefiniowany posługując się standardowymi
zmiennymi losowymi.
Jeżeli z1, z2, …, zm to niezależne zmienne losowe o średniej zero i wariancji równej jeden,
wówczas losowa zmienna wyrażona jako:
) = 5 ! + 5!! + ⋯ + 5B!
15
ma rozkład chi kwadrat o k stopniach swobody.
Funkcja gęstości prawdopodobieństwa dla zmiennej losowej x, f(x), określa następujący wzór:
) =
1
F
2B/! Γ E G
2
)
H
B/!
dla ) > 0
I/!
gdzie Γ to tzw. funkcja gamma zdefiniowana jako Γ(k) = (k - 1)!, a symbol ‘!’ oznacza silnię.
W odróżnieniu od rozkładu normalnego, rozkład chi kwadrat określony jest tylko dla
dodatnich wartości zmiennej losowej x, jest niesymetryczny i skrzywiony. Wartość średnia
i wariancja wynoszą odpowiednio µ = k i σ2 = 2k.
Poniższy rysunek przedstawia kilka przykładowych wykresów rozkładów chi kwadrat ze
względu na liczbę stopni swobody k, przyjmując że k = 1, k = 3, k = 5 i k = 7.
0.45
k=1
k=3
k=5
k=7
0.4
0.35
0.25
2
f(χ )
0.3
0.2
0.15
0.1
0.05
0
0
2
4
6
8
10
χ
12
14
16
18
2
Rysunek 6 Różne rozkłady funkcji gęstości prawdopodobieństwa chi kwadrat ze względu na liczbę stopni
swobody
Jednym z przykładów zmiennej, która przyjmuje rozkład chi kwadrat jest zmienna losowa
y1, y2, …, ym z rozkładu normalnego N(µ, σ2) postaci:
SS
/!
=
∑
−
/!
!
~M !
gdzie, SS to tzw. suma kwadratów różnic.
Zapis w powyższym równaniu oznacza, że zmienna SS/σ2 ma rozkład chi kwadrat o m-1
stopniach swobody.
16
W statystyce jak i wnioskowaniu statystycznym, wiele technik w praktyczny sposób opiera
się o obliczanie sumy kwadratów różnic. Przykładem może być wariancja próby, którą
alternatywnie możemy zapisać jako:
SS
/! =
−1
Innym, niezwykle ważnym rodzajem rozkładu jest tzw. rozkład ‘t’ (rozkład t-Studenta),
wykorzystywany do testowania hipotez statystycznych, a także do ewaluacji błędu
pomiarowego. Rozkład Studenta o k stopniach swobody jest rozkładem zmiennej losowej t
o ogólnej postaci:
N=
5
√O
√F
gdzie, z jest zmienną losową standardyzowaną, tj. pochodzącą z rozkładu normalnego N(0, 1),
a u to zmienna losowa o rozkładzie chi kwadrat o k stopniach swobody. Zmienne z i u są
niezależnymi zmiennymi losowymi.
Funkcję gęstości prawdopodobieństwa dla zmiennej losowej t przy k stopniach swobody
określa następujący wzór:
F+1
ΓE 2 G
N!
N, F =
P1 + Q
F
F
Γ E2G √F2
B
!
gdzie µ = 0, a σ2 = k/(k-2) dla k > 2, a t ∈ [-∞; ∞].
Jak wskazuje powyższe równanie, zmieniając liczbę stopni swobody k, można utworzyć całą
rodzina rozkładów prawdopodobieństwa. Należy zwrócić uwagę, że istnieje duże
podobieństwo pomiędzy rozkładem normalnym, a rozkładem Studenta. Dla dużych wartości
k, rozkład Studenta zmierza do standardowego rozkładu normalnego, a dla nieskończenie
dużej wartości k rozkład Studenta jest tożsamy ze standardowym rozkładem normalnym.
Ponieważ w praktyce analitycznej, ze względu na koszt pomiarów i inne aspekty, liczba
pomiarów bywa często relatywnie mała, rozkład Studenta jest najczęściej wykorzystywany.
Na poniższym rysunku, przedstawiono wykres funkcji gęstości prawdopodobieństwa dla
zmiennej losowej t przy k nieskończenie dużym (rozkład normalny), k = 3 i k = 7.
17
normalny
k=3
k=7
0.4
0.35
0.3
f(t)
0.25
0.2
0.15
0.1
0.05
0
-6
-4
-2
0
2
4
6
t
Rysunek 7 Funkcja gęstości prawdopodobieństwa dla zmiennej losowej t, dla:
k = ∞ (czarna linia), k = 3 (czerwona linia) oraz k = 7 (niebieska linia)
Zakładając, iż zbiór y1, y2, …, ym jest losową próbą o rozkładzie N(µ, σ2), wówczas wielkość
t zdefiniowana jako:
N=
R−
//√
przyjmuje rozkład Studenta o m-1 stopniach swobody.
Innym ważnym rozkładem próbkowania jest tzw. rozkład F. Jeżeli zmienne x i y są
zmiennymi niezależnymi o rozkładzie chi-kwadrat odpowiednio o m1 i m2 stopniach
swobody, to zmienna F wyrażona jako:
S
:,
9
MI! /
= !
MT /
!
przyjmuje rozkład F.
Funkcję gęstości prawdopodobieństwa rozkładu F dla zmiennej losowej x o m1 i m2 stopniach
swobody określa następujący wzór:
) =
ΓE
ΓE
+
2
!
GE
G Γ E 2 G UE
!
!
G
!
: /!
)
G ) + 1V
: /!
:
9
/!
gdzie, zmienna losowa x przyjmuje wartości większe od zera.
18
Klasycznym przykładem zmiennej przyjmującej rozkład F jest zmienna wyrażona jako
stosunek wariancji dwóch populacji o rozkładzie normalnym. Zakładając, iż pierwsza
populacja składa się z losowej próby o m1 próbkach, dla których dokonano pomiaru
określonej własności, y11, y12, …, y1m1, a druga zawiera losową próbę m2 próbek, dla których
dokonano pomiaru tej samej własności, y21, y22, …, y2m2, wówczas stosunek wariancji, / ! i/!!
dla tychże populacji przyjmuje rozkład F o df1 = m1-1 i df2 = m2-1 stopniach swobody:
/!
~S
/!!
; 9
:
Poniższy rysunek przedstawia kilka przykładowych rozkładów F o różnej liczbie stopni
swobody, Fdf1,df2:
0.9
df1=5,df2=5
df1=7,df2=10
df1=10,df2=10
df1=10,df2=30
0.8
0.7
0.6
f(F)
0.5
0.4
0.3
0.2
0.1
0
0
1
2
3
4
5
6
7
8
F
Rysunek 8 Kilka wybranych rozkładów F dla różnej liczby stopni swobody df1 i df2
19
Testowanie hipotez statystycznych
Przyjmijmy, iż celem prowadzonych przez nas badań jest porównanie efektywności odzysku
pewnego związku stosując procedurę ekstrakcji w dwóch rozpuszczalnikach o różnej
polarności. W eksperymencie dwa rodzaje rozpuszczalnika możemy traktować jako dwa
poziomy czynnika nazwanego „rozpuszczalnik”. Oznaczmy te poziomy indeksem i.
W wyniku prowadzonych badań powstaną dwa zbiory zawierające m1 wyników dla poziomu
i = 1 i m2 wyników dla poziomu i = 2, odpowiednio y11, y12, …, y1m1 i y21, y22, …, y2m2.
Uzyskane wyniki pomiarów eksperymentalnych da się opisać stosując ogólny model
przedstawiający j-ty wynik pomiaru dla i–tego poziomu obarczony pewnym błędem
pomiarowym, eij:
Y
=
+HY
gdzie w przypadku powyższego modelu µ i możemy postrzegać jako średni pomiar dla i-tego
poziomu.
Zakładając, że wartości błędów eij dla danego czynnika pochodzą z rozkładu normalnego
o średniej zero i wariancji σi2, możemy wówczas mówić o losowym błędzie.
Dla omawianego przykładu przyjmiemy następującą hipotezę badawczą: rodzaj użytego
rozpuszczalnika (jego polarność) ma wpływ na efektywność odzysku. Prawdziwość hipotezy
zostanie weryfikowana w oparciu o przeprowadzone pomiary eksperymentalne. W praktyce,
weryfikacja tej hipotezy badawczej oznacza porównanie dwóch zbiorów wyników,
a w szczególności ustalenie czy wartości średnie dwóch grup pomiarów różnią się od siebie
statystycznie istotnie.
Wyjściową hipotezę „rodzaj użytego rozpuszczalnika (jego polarność) ma wpływ na
efektywność odzysku” można sformułować prościej, używając w tym celu wartości średnie
dwóch zbiorów wyników, odpowiednio µ 1 i µ 2. Procedura testowania hipotez poddaje pod
ocenę dwa alternatywne scenariusze – hipoteza jest prawdziwa, albo hipoteza jest
nieprawdziwa. W statystyce rozróżnia się hipotezę zerową (H0) i tzw. hipotezę alternatywną
(H1). Dla omawianego przykładu hipotezę zerową i alternatywną definiujemy następująco:
Z[ :
=
Z :
≠
!
!
Alternatywnie hipotezy można także zapisać jako:
Z[ :
Z :
−
−
!
!
=0
≠0
20
Tak sformułowana alternatywna hipoteza nazywana jest hipotezą dwustronną, a testowanie –
testowaniem hipotezy dwustronnej, gdyż taki typ hipotezy zostanie spełniony w dwóch
przypadkach µ 1 < µ 2 i µ 1 > µ 2. Ilustruje to poniższy rysunek, na którym zaznaczono dwa
obszary krzywej rozkładu odpowiadające prawdopodobieństwu odrzucenia hipotezy zerowej
przy założeniu, iż jest ona prawdziwa. Innymi słowy, jest to prawdopodobieństwo popełnienia
błędu – tzw. błąd α nazywany także błędem I-go rodzaju lub poziomem istotności.
Innym rodzajem błędu, który można popełnić podczas testowania hipotez jest błąd β (błąd
II-go rodzaju). Błąd II-go rodzaju wyraża prawdopodobieństwo, że hipoteza zerowa nie
zostanie odrzucona jeśli jest fałszywa.
H0: µ=1,2
0.4
H1: µ=1,8
0.35
0.3
f(x)
0.25
0.2
0.15
0.1
błąd β
0.05
0
0.3
0.6
0.9
1.2
błąd α
1.5
1.8
2.1
2.4
2.7
x
Rysunek 9 Ilustracja błędu α i błędu β na przykładzie dwóch hipotez H0: µ = 1,2 oraz H1: µ = 1,8
Hipoteza alternatywna może także zawierać znak nierówności. Tak sformułowana hipoteza
pozwala stwierdzić, czy prawdziwe jest stwierdzenie, że jedna wartość średnia jest mniejsza
albo większa od drugiej. W takim przypadku, mówimy o teście jednostronnym lub testowaniu
jednostronnej hipotezy. Hipoteza zerowa zawiera znak równości, a hipoteza alternatywna
znak nierówności:
Z[ :
Z :
Z :
=
!
<
!
>
!
lub
W dalszej części opracowania, zagadnienie testowania hipotez jedno- i dwustronnych zostanie
bliżej omówione na realnych przykładach.
21
Testowanie hipotez zakłada użycie procedury zapewniającej pozyskanie losowej próby
wyników, a następnie wykorzystanie odpowiedniego testu statystycznego (statystki) w celu
potwierdzenia lub odrzucenia hipotezy zerowej. Należy podkreślić, iż w wyniku
przeprowadzonego testowania jedna i tylko jedna z hipotez zostaje przyjęta – albo hipoteza
zerowa albo hipoteza alternatywna.
Podstawowe testy statystyczne
Porównanie wartości średnich dwóch grup wyników - test t
Test t wykorzystywany jest w celu porównania istotności różnic pomiędzy wartościami
średnimi dwóch zbiorów wyników otrzymanych w wyniku losowego próbkowania.
Zakładając, iż wariancje dwóch grup wyników nie różnią się od siebie statystycznie istotnie,
statystykę t0 definiuje się jako:
N[ =
_/`! E
−
1
!
+
1
!
G
gdzie, m1 i m2 to liczba próbek odpowiednio w pierwszej i drugiej grupie wyników, a /`! to
tzw. uwspólniona wariancja (zakładamy, że / ! = /!! = /`! ).
Uwspólnioną wariancję, /`! , obliczamy jako wypadkową wariancję dwóch grup wyników,
uwzględniając liczebność poszczególnych zbiorów, wedle następującego wzoru:
/`! =
/!
− 1 + /!! ! − 1
+ !−2
Wyrażenie w mianowniku powyższego równania określa liczbę stopni swobody.
Próbkując dwie populacje wyników poprzez losowane z dwóch niezależnych rozkładów
normalnych, możemy przyjąć, iż rozkład różnic µ 1-µ 2 przyjmuje rozkład normalny
o następujących parametrach N(µ 1-µ 2, σ2(1/m1+1/m2)). Jednakże, konieczność uwspólnienia
wariancji dla dwóch grup próbek (przy założeniu, iż wariancje grup są porównywalne),
powoduje zmianę rozkładu statystyki t0 z rozkładu normalnego do rozkładu t o (m1+m2-2)
stopniach swobody.
Zauważmy, iż w zależności od wartości średniej wynik działania (µ 1-µ 2) może przyjąć
wartość dodatnią (gdy µ 1 > µ 2) lub ujemną (gdy µ 1 < µ 2). W celu weryfikacji prawdziwości
hipotezy zerowej, należy porównać wartość statystyki t0 z rozkładem t o (m1+m2-2) stopniach
swobody i przyjętym poziomem istotności α.
22
Przyjmując hipotezę zerową i alternatywną w formie:
Z[ :
=
Z :
≠
!
!
przeprowadzamy testowanie dwustronnej hipotezy alternatywnej, gdyż będzie ona spełniona
jeżeli µ 1 < µ 2 i µ 1 > µ 2. Testowanie hipotezy odbywa się poprzez porównanie wartości
obranej statystyki t0, z wartością krytyczną rozkładu t o (m1+m2-2) stopniach swobody
i poziomie istotności równym α/2 (w przypadku dwustronnej hipotezy alternatywnej). Należy
zauważyć, iż hipoteza zerowa zostanie przyjęta wówczas, gdy:
|N[ | ≤ N a;
:
9
!
|N[ | > N a;
:
9
!
!
a odrzucona, jeśli:
!
Powyższe dwa zapisy wskazują, iż ze względu na możliwe wartości statystyki t0 istnieje
przedział wartości, w obrębie którego hipoteza zerowa jest spełniona. Co więcej, bazując na
krzywej rozkładu prawdopodobieństwa dla tejże statystyki, można powiedzieć, dla ustalonego
poziomu istotności, np. α = 0,05 (5%), oczekujemy iż 100(1-α) = 95% wartości znajdzie się
w tym przedziale. Granice przedziału określają wartości graniczne rozkładu t:
N[ ∈ c−N a;
−N a;
!
!
:
9
:
!
9
!
, N a;
!
≥ N[ ≤ N a;
!
:
!
9
:
9
d
!
Przedział wartości liczbowych dowolnej statystyki, których możemy z określonym
prawdopodobieństwem oczekiwać nazywany jest przedziałem jej ufności. Na poniższym
rysunku, schematyczne przedstawiono przedział ufności dla statystyki t0, przyjmując poziom
istotności α = 0,05 i liczbę stopni swobody 16.
23
0.4
0.35
0.3
f(t0)
0.25
0.2
0.15
0.1
0.05
0
-6
Odrzóć jeśli t <-2.131
Odrzóć jeśli t >2.131
0
-4
-2
0
0
2
4
6
t0
Rysunek 10 Przedział ufności wokół statystyki t0 dla poziomu istotności α = 0,05 i liczby stopni swobody 16
W przeciwieństwie do hipotezy dwustronnej, w pewnych przypadkach może istnieć
konieczność testowania hipotezy jednostronnej.
Podajmy jako przykłady dwa hipotetyczne scenariusze testowania hipotez porównania
wartości średnich:
•
kontrolując jakość surowca (rudy żelaza), ze względów ekonomicznych, sprzedawca
może być zainteresowany testowaniem jednostronnej hipotezy alternatywnej na
okoliczność zawyżonej zawartości żelaza:
Z[ :
Z :
=
>
!
!
Hipoteza alternatywna postaci H1: µ 1 > µ 2 zostanie odrzucona, gdy:
N[ > N a;
•
:
9
!
kupujący rudę może być zainteresowany testowaniem
alternatywnej na okoliczność zaniżonej zawartości żelaza:
Z[ :
Z :
=
<
jednostronnej
hipotezy
!
!
Odrzucenie hipotezy alternatywnej H1: µ 1 < µ 2 wymaga spełnienia warunku:
24
N[ < −N a;
:
9
!
0.4
0.4
0.35
0.35
0.3
0.3
0.25
0.25
f(t0)
f(t0)
Schematycznie dwa warianty testu jednostronnego przedstawiono na poniższym rysunku (dla
α = 0,025 i N = 16).
0.2
0.2
0.15
0.15
0.1
0.1
0.05
Odrzóć jeśli t0<-2.131
0
-6
-4
Odrzóć jeśli t 0>2.131
0.05
-2
0
2
4
6
0
-6
-4
-2
0
2
4
6
t0
t0
Rysunek 11 Ilustracja dwóch różnych hipotez alternatywnych i warunków ich przyjęcia:
po lewej H1: µ 1 < µ 2, a po prawej H1: µ 1 > µ
Przykład 2
Zilustrujmy praktyczne wykorzystanie testu t do rozwiązania realnego problemu
analitycznego - porównanie efektywność odzysku pewnego pierwiastka wykorzystując dwie
różne metodyki przygotowania próbki. Stosując niezależnie jedną z dwóch metodyk
przygotowania próbki, wykonano po 10 niezależnych oznaczeń pierwiastka. Następnie,
obliczono dla dwóch zbiorów wartości średnie, wariancje i odchylenia standardowe:
metodyka 1: µ 1 = 16,76
σ12 = 0,100
σ1 = 0,316
m1 = 10
metodyka 2: µ 2 = 17,04
σ22 = 0,061
σ1 = 0,248
m2 = 10
Załóżmy, że chcemy potwierdzić słuszność hipotezy mówiącej, iż dwie metodyki
przygotowania próbki nie prowadzą do statystycznie istotnych różnic w odzysku oznaczanego
pierwiastka. Krótko, w języku hipotez statystycznych możemy ten problem sformułować
w postaci następującej hipotezy zerowej: H0: µ 1 = µ 2. W omawianym przypadku, powinniśmy
rozważyć testowanie dwustronnej hipotezy alternatywnej H1: µ 1 ≠ µ 2. Przyjmując poziom
istotności testowania hipotezy równy α = 0,05, fakt testowania dwustronnej hipotezy
alternatywnej i liczbę stopni swobody równej (m1+m2-2) = 10+10-2 = 18, wartość krytyczna
rozkładu t, t(0,025;18), odczytana z tablic statystycznych dla testu jednostronnego wynosi 2,101.
25
Nim ustalimy wartość statystyki t0 należy obliczyć uwspólnioną wariancję dla dwóch grup
wyników. Podstawiając realne wartości, otrzymujemy:
/`! =
/!
− 1 + /!! ! − 1
9 0,100 + 9 0,061
=
= 0,081
+ !−2
10 + 10 − 2
Na tej podstawie, wartość statystyki t0 wynosi:
N[ =
_/`! E
−
1
!
+
1
!
G
=
16,76 − 17,04
_0,081 E 1 + 1 G
10 10
=
−0,28
= −2,20
0,127
Ponieważ wartość bezwzględna statystyki t0 jest większa od wartości krytycznej rozkładu
t dla t(0,025;18) = 2,101 (wartość krytyczna odczytana z tablic dla testu jednostronnego),
możemy stwierdzić iż dwa sposoby przygotowania próbki dają statystycznie istotnie różne
wyniki (odrzucona została hipoteza zerowa, a przyjęta hipoteza alternatywna). Inna wersja
możliwej odpowiedzi to: z 95% ufnością można twierdzić, iż dwa sposoby przygotowania
próbki różnią się od siebie statystycznie istotnie.
Podobnych przykładów, jak ten przytoczony powyżej, w chemii analitycznej możemy
odszukać wiele. W szczególności, testowanie hipotez statystycznych ma za zadanie wspomóc
chemika analityka w podejmowaniu decyzji w sposób obiektywny na podstawie
empirycznych przesłanek – np. wybór jednej z dwóch możliwych metod analitycznych pod
kątem ich efektywności czy ekonomiczności.
Zapewne bardziej uważni czytelnicy dostrzegli, iż wybierając tak zdefiniowaną statystykę
t0 przyjęliśmy z góry pewne założenia. Pierwsze z nich zakłada, iż próbki dla których
dokonano oznaczeń zostały pobrane w sposób losowy. Drugie założenie postuluje równość
wariancji dwóch zbiorów wyników. W praktyce, takie założenia nie muszą być słuszne. Stąd,
konieczność potwierdzenia tego faktu. Jednym z narzędzi wspomagającym ocenę słuszności
przyjętego rozkładu wyników jest tzw. normalny wykres prawdopodobieństwa. Przedstawia
on uszeregowane od najniższej do najwyższej wartości wyniki i odpowiadającej im wartości
kumulacyjnej częstości występowania. W przypadku danych, które przyjmują rozkład
normalny, punkty na wykresie rozmieszczone są wzdłuż linii prostej.
W przypadku, gdy różnice pomiędzy wariancjami dwóch grup wyników znacząco od siebie
odbiegają, test ‘t’ wymaga modyfikacji. Załóżmy, iż hipoteza zerowa i alternatywna są
zdefiniowane następująco:
26
Z[ :
=
Z :
!
≠
!
Statystyka t0 powinna uwzględniać fakt różnej wariancji grup, estymowanych na podstawie
próby losowej, a także ich liczebność:
N[ =
h
−
/!
+
!
/!!
!
Rozkład zmodyfikowanej statystyki t0 nie do końca jest zgodny z rozkładem t. Jego
relatywnie dobre przybliżenie można uzyskać poprzez korekcję liczbę stopni swobody, k:
F=
/ /
!
&
/!
!
+
−1 +
/!!
!
!
'
/!! /
!
!
−1
!
W przypadku, gdy wariancje grup próbek są znane a priori (to znaczy, nie są estymowane na
podstawie małej losowej próby losowanej z rozkładu normalnego), lub liczba próbek jest
relatywnie duża, możemy założyć iż rozkład statystyki t0 przyjmuje rozkład normalny N(0, 1).
Dla odróżnienia tego faktu, przyjmijmy nowe oznaczenie statystyki, z0:
5[ =
h
−
/!
+
!
/!!
!
Zakładając test dwustronny (dwustronna hipoteza alternatywna), porównamy wartość
statystyki z0 z wartością krytyczną unormowanego rozkładu normalnego przy zadanym
poziomie istotności α, zα. Hipoteza zerowa zostanie odrzucona, jeśli |z0| > zα/2.
Porównanie wartości średniej z wartością deklarowaną
W niektórych przypadkach, prowadzony eksperyment ma dostarczyć danych w celu
potwierdzenia czy średnia uzyskanych wyników statystycznie istotnie odbiega od wartości
deklarowanej. Na przykład, wyrywkowo kontrolując partię leku sprawdza się czy zawartość
27
aktywnego składnika nie różni się od wartości deklarowanej przez producenta. Testujemy
następujące dwie hipotezy:
Z[ : =
[
Z : ≠
[
gdzie, przez µ 0 oznaczymy wartość deklarowaną przez producenta.
Jeżeli rozkład wyników jest w przybliżeniu normalny, lub liczba próbek jest relatywnie duża
można posłużyć się wartościami krytycznymi dla unormowanego rozkładu normalnego.
Wówczas statystykę z0 definiujemy następująco:
5[ =
−
//√
[
Zatem, w przypadku dwustronnej hipotezy alternatywnej, hipoteza ta zostanie przyjęta jeśli
|z0| > zα/2. Korzystając z definicji przedziału ufności, stwierdzamy, czy wartość deklarowana
znajduje się w przedziale:
−
/
√
−5a ≤
!
[
≤ 5a
!
Alternatywnie, przedział ufności w którym należy oczekiwać wartości deklarowanej
(spełnienie hipotezy zerowej) można zapisać jako:
[
± 5a
!
/
√
Jeśli liczba próbek jest relatywnie mała, to należy założyć iż statystyka z0 nie przyjmuje
rozkładu normalnego, a rozkład t. Wówczas, wartość t0 porównujemy z wartością krytyczną
rozkładu t dla zadanego poziomu ufności i przyjętej liczby stopni swobody t(α;k). By
zaznaczyć ten fakt, przyjmijmy, że:
N[ =
−
//√
[
28
Dla dwustronnej hipotezy alternatywnej, hipoteza ta zostanie przyjęta jeśli |t0| > t(α/2;k).
Korzystając z definicji przedziału ufności, stwierdzamy, czy wartość deklarowana znajduje
się w przedziale:
−NEa;BG ≤
!
−
/
√
[
≤ NEa;BG
!
Alternatywnie, przedział ufności w którym należy oczekiwać wartości deklarowanej
(spełnienie hipotezy zerowej) można zapisać jako:
[
± NEa;BG
!
/
√
Przykład 3
Podejrzewa się, iż pewna metoda analityczna oparta o miareczkowanie kwasu zasadą
wykazuje znaczny pozytywny błąd systematyczny. W celu wykrycia tego faktu,
przygotowano roztwór titranta o dokładnym stężeniu 0,1 mol·dm-3, który posłużył do
miareczkowania 25,00 ml 0,1 mol·dm-3 zasady. W kolejnych sześciu miareczkowaniach,
zużyto następujące objętości titranta (w ml):
25,06 25,18 24,87 25,51 25,34 25,41
Testujemy zatem hipotezę pozytywnego błędu systematycznego metody, wykorzystując
porównanie wartości średniej wyników z wartością deklarowaną. Tak sformułowana hipoteza
z góry zakłada jednostronny wariant hipotezy alternatywnej, ponieważ pozytywny błąd
systematyczny metody będzie oznaczał, że µ-µ 0 > 0.
Z[ : =
Z : >
[ ;Z[ :
[ ;Z
= 25,00ml
: > 25,00ml
Na podstawie serii wyników, wartość średnia i odchylenie standardowe wynoszą
odpowiednio 25,228 ml i 0,238 ml. Obliczamy wartość statystyki t0 jako:
N[ =
−
//√
[
=
25,228 − 25,00
0,238/√6
= 2,35
29
Zakładając poziom istotności jednostronnego testu α = 0,05, wartość krytyczna rozkładu dla
(6-1) stopni swobody, t(0,05;5), wynosi 2,02. Przy tak sformułowanych hipotezach, hipoteza
zerowa zostanie odrzucona, jeśli |t0| > t(0,05;5). W omawianym przykładzie, wartość
bezwzględna t0 jest większa niż wartość krytyczna, dlatego należy przyjąć hipotezę
alternatywną. W wyniku przeprowadzonego testowania możemy z 95% ufnością stwierdzić,
że badana metoda analityczna faktycznie jest obarczona dodatnim błędem statystycznym.
Rozważmy jeszcze co stałoby się, gdyby zamiast jednostronnego testu zastosować test
dwustronny. W takim wypadku, wartość krytyczna rozkładu dla poziomu istotności α = 0,05
wynosi t(0,025;5) = 2,57. W konsekwencji, musielibyśmy przyjąć hipotezę zerową, a nie
alternatywną jak to miało miejsce wcześniej. W pierwszej chwili, można mieć wrażenie, iż
istnieje tu sprzeczność, jednak powodem takiego wyniku testowania jest niewłaściwe
założenie hipotezy alternatywnej. To czy podczas testowania należy użyć jedno- czy
dwustronnego testu zależy od wstępnej wiedzy, a w omawianym przykładzie wyraźnie
zaznaczono, iż oczekujemy pozytywnej wartości błędu systematycznego, co świadczy
o zawyżonej wartości średniej oznaczeń w stosunku do wartości deklarowanej.
Przykład 4
Podczas produkcji benzyny 95-oktanowej losowo pobrano 6 próbek paliwa i oznaczono dla
nich liczbę oktanową. Wyniki kolejnych oznaczeń są następujące:
94,78 95,01 94,87 95,05 95,07 94,98
Czy możemy z 95% ufnością twierdzić, że paliwo może być sprzedawane jako 95-oktanowe?
W tym przypadku, możemy założyć, iż interesuje nas jedynie stwierdzenie faktu istnienia
istotności statystycznej różnic, a zatem hipotezy należy zdefiniować następująco (test
dwustronny):
Z[ : =
Z : ≠
[ ;Z[ :
[ ;Z
= 95,00
: ≠ 95,00
Na podstawie serii wyników, wartość średnia i odchylenie standardowe wynoszą
odpowiednio 94,96 i 0,113. Obliczamy wartość statystyki t0 jako:
N[ =
−
//√
[
=
94,96 − 95,00
0,113/√6
= −0,87
Zakładając 95% ufność, poziom istotności wynosi α% = (100-95) = 5% czyli α = 0,05.
Wartość krytyczna rozkładu dla poziomu istotności α = 0,05 wynosi t(0,025;5) = 2,57 (wartość
30
odczytana z tablic dla testu jednostronnego). Ponieważ |t0| < t(0,025;5) przyjmujemy hipotezę
zerową.
Zatem, z 95% ufnością możemy twierdzić, iż benzyna spełnia specyfikację 95-oktanowego
paliwa.
Sparowany test t
We wcześniejszej części opracowania przedstawiliśmy sposób porównania dwóch metod na
podstawie uzyskanych zbirów wyników powstałych poprzez losowe próbkowanie dwóch
niezależnych populacji o rozkładach normalnych. W praktyce, możemy także spotkać
podejście zakładające wykonanie pomiaru dwoma niezależnymi technikami czy metodami dla
tej samej grupy próbek. Innymi słowy oznacza to, iż ta sama próbka wpierw analizowana jest
metodą pierwszą, a potem drugą w konsekwencji uzyskując zbiór par wyników. Ten fakt,
znajduje odzwierciedlenie w nazwie testu – sparowany test t - który można wykorzystać, aby
badać różnice pomiędzy metodami. Test ten zakłada badanie różnic pomiędzy parami
wyników, d, i stwierdzenie czy te różnice są statystycznie różne od zera.
N[ =
l
−0
//√
gdzie, µ d to wartość średnia dla m różnic wyników obliczonych pomiędzy odpowiadającymi
sobie próbkami.
Z[ :
Z :
l
l
−0=0
−0 ≠0
Mając do czynienia z dwustronnym testem, hipotezę zerową przyjmiemy jeśli |t0| > t(α/2;k).
Przykład 5
Oznaczano zawartość składnika aktywnego - paracetamolu w tabletkach. W tym celu
wykorzystano dwie techniki analityczne. Z 10 różnych partii leku pobrano losowo po jednej
tabletce i poddano je analizie. Uzyskano wyniki zamieszczone w poniższej tabeli. Czy te dwie
techniki analityczne dają statystycznie istotnie różne wyniki?
31
Tabela 1 Wyniki pomiarów uzyskanych dwoma metodami i wartości ich różnic d
Partia Metoda 1 Metoda 2
d
1
84,63
83,15
1,48
2
84,38
83,72
0,66
3
84,08
83,84
0,24
4
84,41
84,2
0,21
5
83,82
83,92
-0,1
6
83,55
84,16
-0,61
7
83,92
84,02
-0,1
8
83,69
83,6
0,09
9
84,06
84,13
-0,07
10
84,03
84,24
-0,21
Wartość średnia i odchylenie standardowe różnic wynoszą odpowiednio 0,159 i 0,57. Wartość
statyki t0 wynosi:
N[ =
l
−0
//√
=
0,159
0,57/√10
= 0,88
Zakładając 95% poziom ufności, wartość krytyczna rozkładu t dla (10-1) stopni swobody
(odczytana z tablic dla testu jednostronnego), t(0,025;9), wynosi 2,23. Ponieważ |t0| < t(0,025;9)
przyjmujemy hipotezę zerową i stwierdzamy z 95% ufnością, że dwie metody dają te same
wyniki.
Możemy wyobrazić sobie sytuację, w której chemik analityk ma do swojej dyspozycji dwie
metody analityczne, różniące się od siebie ze względu np. koszt pomiaru, czas pomiaru,
przygotowanie próbki, etc. Naturalnym działaniem jest próba zastępowania metod
analitycznych innymi ze względów ekonomicznych. Jednakże, wymaga to obiektywnego
potwierdzenia, iż zamiana metody nie powoduje straty w kontekście jakości uzyskanych
wyników. Metody wnioskowania statystycznego, dają analitykowi możliwość wiarygodnego
i obiektywnego porównania działania metod.
Testowanie wariancji – test F
Wcześniej opisane statystyki umożliwiały wykrycie błędów systematycznych wynikających
z różnic pomiędzy średnimi lub średnią, a wartością deklarowaną. Innym ważnym aspektem
jest porównanie wariancji dwóch metod, czyli stwierdzenie faktu ich podobnej precyzji.
32
W tym celu można użyć testu F, który zdefiniowany jest jako stosunek wariancji dwóch grup
próbek.
S[ =
/!
≥1
/!!
gdzie, zakładamy, iż / ! > /!! .
Tak zdefiniowana statystyka F0 przyjmuje rozkład F o dwóch stopniach swobody
wynikających z liczebności grupy pierwszej i drugiej. Wartość krytyczną dla tego rozkładu
odczytujemy z tablic wartości krytycznych dla rozkładu dla zadanego poziomu istotności oraz
(zob. tabele w dodatku opracowania). Jeżeli wartość
liczby stopni swobody S a; : ; 9
statystyki znacząco odbiega od jedności, F0 > S a; : ; 9 , można z pewnością równą
(1-α) wnioskować, iż różnice precyzji dwóch metod nie wynikają z przyczyn losowego błędu.
Podobnie jak we wcześniej omawianych przypadkach, zdefiniowanie hipotez zerowej
i alternatywnej zależy od zamierzonego celu. Stwierdzenie czy istnieją różnice w precyzji
dwóch metod analitycznych wymaga rozważenia dwustronnego testu, podczas gdy
stwierdzenie, która z metod jest bardziej lub mniej precyzyjna wymaga użycia testu
jednostronnego.
Przykład 6
Wykorzystano dwie metody analityczne (proponowaną i standardową) pozwalające określić
chemiczne zapotrzebowanie na tlen w próbkach ścieków. Wykonano niezależne oznaczenia
dla losowo pobranych próbek, po osiem dla każdej metody. Uzyskano następujące wartości
średnich i odchyleń standardowych:
metoda proponowana (1):
metoda standardowa (2):
µ 1 = 72,00 mg·dm-3; σ1 = 3,31 mg·dm-3
µ 2 = 72,00 mg·dm-3; σ2 = 1,51 mg·dm-3
Czy wariancja proponowanej metody jest istotnie większa niż wariancja metody
standardowej?
Dla tak postawionego problemu badawczego, wykorzystamy test jednostronny by zbadać
słuszność hipotezy zerowej:
Z[ :σ! = σ!!
Z :σ! > σ!!
Należy pamiętać, iż im mniejsza wariancja wyników pomiarów tym większa precyzja
metody. Stąd znak nierówności w hipotezie alternatywnej mówi o większej wariancji metody
proponowanej od wariancji metody standardowej.
33
Wartość statystyki F0 dla omawianego przykładu wynosi:
S[ =
/ ! 3,31!
=
= 4,80
/!! 1,51!
Zakładając poziom istotności α = 0,05, porównanie wartość statystyki F0 z wartością
krytyczną rozkładu F, S [,[=;m;m = 3,788, prowadzi do wniosku, iż musimy odrzucić hipotezę
zerową. Na podstawie przeprowadzonego testu, z 95% ufnością stwierdzamy, że precyzja
proponowanej metody jest statystycznie istotnie mniejsza od metody standardowej. Zatem,
z praktycznego punktu widzenia metoda nie powinna być metodą preferowaną.
Test F wykorzystywany jest także by podjąć decyzję o wyborze formy testu t w przypadku
badania różnic pomiędzy dwoma grupami wyników. Przypomnijmy, iż we wcześniejszej
części opracowania dla prostoty założyliśmy, iż / ! = /!! , co można stanowczo stwierdzić
testując odpowiednią hipotezę z wykorzystaniem testu F.
Przedział ufności wartości średniej
We wcześniejszej części opracowania została przedstawiona definicja przedziału ufności dla
dowolnej statystyki. W chemii analitycznej, szczególną wagę przywiązuje się do
raportowania wyniku wykonanego pomiaru w kontekście przedziału ufności wartości
średniej, co daje obraz wiarygodności wyniku i obrazuje skalę błędu eksperymentalnego.
Standardowe procedury analityczne zakładają wykonanie serii powtórzeń, będących podstawą
do oszacowania niepewności pomiaru. W tym celu można posłużyć się koncepcją przedziału
ufności wartości średniej. Końcowy wynik pomiaru jest podany jako średnia arytmetyczna
obliczona z serii powtórzeń wraz z oszacowaną niepewnością pomiarową. Dla małej liczby
próbek, przedział ufności wartości średniej przy założonym poziomie istotności α przyjmuje
postać:
± N Ea ;
!
gdzie wyrażenie
o
√
G
/
√
=
±n
to tzw. błąd standardowy wartości średniej (lub odchylenie standardowe
rozkładu próbkowania), a wielkośćε możemy utożsamiać z niepewnością pomiaru.
34
Wprowadzenie do analizy wariancji (ANOVA)
Analiza wariancji, ANOVA, jest techniką statystyczną, która umożliwia badanie różnic
pomiędzy średnimi grup próbek ze względu na różne źródła zmienności. W wielu wypadkach,
istnieje konieczność testowania więcej niż dwóch średnich. Niektóre typowe sytuacje to
konieczność porównania średnich wyników ze względu na różne sposoby przygotowania
próbki czy porównanie średnich wyników uzyskanych w toku analiz różnymi technikami czy
wykonanych przez różne osoby. W takich przypadkach z pewnością jednym z komponentów
wyniku jest losowy błąd. Drugim możliwym komponentem jest wariancja spowodowana tzw.
czynnikiem kontrolowanym lub innymi słowy stałym efektem, który może mieć kilka
poziomów. Na przykład czynnikiem kontrolowanym można nazwać różne sposoby
przygotowania próbki, a liczbę tychże sposobów poziomami tegoż czynnika. Metoda
ANOVA umożliwia systematyczny rozdział poszczególnych źródeł wariancji - wariancji
powodowanych przez zmiany poziomów kontrolowanego czynnika i błąd pomiarowy. W celu
zobrazowania problemy rozważmy następujący przykład.
Przykład 7: porównanie wielu wartości średnich
Przeanalizujmy następującą sytuację: badamy wpływ warunków przechowywania na
stabilność pewnego z komponentów próbki. Ponieważ badany komponent jest fluoryzujący,
wykorzystujemy technikę fluorescencji by monitorować co dzieje się z roztworami o równych
stężeniach tego samego składnika. Rozważamy cztery możliwości: (A) świeżo przygotowany
roztwór, (B) roztwór przechowywany w ciemności przez godzinę, (C) roztwór
przechowywany w przyciemnionym świetle przez godzinę i (D) roztwór przechowywany
w świetle dziennym. W każdym przypadku sporządzono po trzy powtórzenia. Wartości
uzyskanych odczytów pomiaru dla różnych warunków przechowywania podano w poniższej
tabeli.
Tabela 2 Wyniki pomiarów ze względu na różne warunki przechowywania próbki
oraz wartości średnie pomiarów
Średnia
Warunki przechowywania
Wyniki powtórzeń
(A) świeżo przygotowany
roztwór
102, 100, 101
101
(B) roztwór przechowywany
w ciemności przez godzinę
101, 101, 104
102
(C) roztwór przechowywany
w przyciemnionym świetle
przez godzinę
97, 95, 99
97
(D) roztwór przechowywany
w świetle dziennym
90, 92, 94
92
Całkowita średnia:
98
35
Jak wykazano w ostatniej kolumnie tabeli, wartości średnie różnią się od siebie ze względu na
warunki przechowywania próbki. Jednakże, nie jest wiadome, czy te różnice są spowodowane
tylko błędem pomiarowym. Wykorzystanie metody ANOVA umożliwia zbadanie czy różnice
pomiędzy średnimi są istotnie większe by można tłumaczyć je faktycznymi różnicami, a nie
błędem losowym.
Wyniki możemy rozważać jako zbiór pomiarów jednego parametru, yi, uzyskane w różnych
warunkach (w omawianym przypadku różne warunki przechowywania próbki). Tak
przeprowadzony eksperyment opisuje jednoczynnikowy model ANOVA:
= Rp + q Rr − Rp s + q
− Rr s
gdzie, β oznacza poziom czynnika (w omawianym przypadku różne warunki przechowywania
próbki), Rp to wartość średnia wszystkich wyników pomiarów, a Rr to wartość średnia
wyników pomiarów uzyskanych dla poziomu β (grupy).
Rozważając model ANOVA jako model dekomponujący wariancję zmiennej, powyższe
równanie można także zapisać jako sumy kwadratów poszczególnych członów:
!
=
Rp! +
!
q Rr − Rp s +
q
− Rr s
!
gdzie, drugi i trzeci człon równania to odpowiednio suma kwadratów różnic wartości średnich
dla poszczególnych poziomów, a wartością średnią wszystkich wyników (wariancja
!
pomiędzy grupami, ∑ q Rr − Rp s ) oraz suma kwadratów różnic pomiędzy wartościami
pomiarów, a odpowiadającymi średnimi dla określonego poziomu (wariancja
!
wewnątrzgrupowa, ∑ q − Rr s ). Poszczególne składowe równania przedstawmy w kolejnej
tabeli. Stwierdzenie czy różnice pomiędzy średnimi są istotnie większe niż błąd losowy
wymaga wykorzystania testu F, zdefiniowanego dla modelu ANOVA jako stosunek wariancji
pomiędzy grupami do wariancji wewnątrz grup, skorygowanej używając odpowiednią liczbę
stopni swobody. Zatem, hipoteza zerowa modeli ANOVA zakłada brak różnic w wariancjach
pomiędzy grupami, a wariancją wewnątrz grup, natomiast hipoteza alternatywna
sformułowana jest jako hipoteza jednostronna, weryfikująca czy wariancja pomiędzy grupami
jest większa od wariancji wewnątrz grup:
!
Z[ :
q Rr − Rp s =
q
− Rr s
Z :
q Rr − Rp s >
q
− Rr s
!
!
!
36
Tabela 3 Wyniki działań dla modelu ANOVA
102
Rp
98
q Rr − Rp s
100
98
101-98
100-101
101
98
101-98
101-101
101
98
102-98
101-102
101
98
102-98
101-102
104
98
102-98
104-102
97
98
97-98
97-97
95
98
97-98
95-97
99
98
97-98
99-97
90
98
92-98
90-92
92
98
92-98
92-92
94
98
92-98
94-92
115458
115248
186
24
Poziom
β=1
β=2
β=3
β=4
∙
!
101-98
q
− Rr s
102-101
Dla wariancji pomiędzy grupami liczba stopni swobody odpowiada liczbie poziomów, kβ,
minus jeden, natomiast dla wariancji wewnątrz grup to liczba wszystkich pomiarów minus
liczba poziomów czynnika:
S[ =
!
∑ q Rr − Rp s /qFr − 1s
∑q
!
− Rr s /
−1
=
186/ 4 − 1
62
=
= 20,67
24/ 12 − 4
3
Ustalenie czy badany czynnik ma istotnie statystyczny efekt polega na porównaniu wartości
obliczonej statystyki F0 z wartością krytyczną dla rozkładu F dla określonego poziomu
istotności i liczby stopni swobody (F(0,05;3,8) = 4,066). Jeśli F0 < F, wówczas czynnik nie ma
statystycznie istotnego wpływu. Ponieważ, F0 > F możemy twierdzić, iż efekt
przechowywania próbek jest statystycznie istotny.
37
Metody kalibracyjne - regresja jednokrotna i wieloraka
Zadaniem metod kalibracyjnych jest stworzenie matematycznego modelu, który umożliwia
przewidywanie pewnej własności, nazwijmy ją zmienną zależną, na podstawie innej lub
innych, nazwijmy je zmienną bądź zmiennymi objaśniającymi. Model jest jedynie próbą
aproksymacji prawdziwej zależności jaką obserwujemy w danych empirycznych, a jego
wiarygodność zależy od wielu czynników. Jednym z najbardziej oczywistych jest błąd
pomiarowy.
Regresja jednoparametrowa
Najprostszy model kalibracyjny opisuje relację pomiędzy dwoma zmiennymi, np. stężeniem
jonów żelaza w próbce, a absorbancją, co ogólnie możemy wyrazić jako:
=
)
gdzie, y to zmienna zależna (np. absorbancja badanego roztworu), f(·) oznacza funkcję, a x to
zmienna objaśniająca (np. stężenie jonów żelaza).
Najprostszy model, który taką zależność opisuje to model liniowy postaci: y = xb1+b0.
Alternatywnie, model liniowy można zapisać wykorzystując rachunek wektorowomacierzowy jako:
u = vw
gdzie X to macierz, zawierająca w kolumnach zmienne objaśniające (w ostatniej kolumnie
znajduje się kolumnowy wektor, którego wszystkie elementy są równe jeden), a b to wektor
tzw. współczynników regresji o dwóch elementach [b1 b0].
Współczynniki regresji b definiują liniowy model i wyznaczają jego nachylenie
(współczynnik kierunkowy b1) oraz punkt przecięcia z osią zmiennej zależnej (wyraz wolny
b0). W zależności od znaku współczynnika b1 funkcja będzie funkcją rosnącą (b1 > 0), albo
malejącą (b1 < 0). Z praktycznego punktu widzenia oznacza to charakter relacji pomiędzy
dwoma parametrami. Gdy wraz ze wzrostem wartości jednego parametru wzrastają wartości
drugiego mówimy o dodatniej korelacji parametrów. Przeciwna relacja oznacza, iż wartości
jednego parametru wzrastają, a drugie maleją. O sile takiej relacji mówi współczynnik
korelacji nazywany także współczynnikiem korelacji Pearsona, któremu poświęcimy więcej
uwagi w dalszej części opracowania.
Na podstawie danych empirycznych, wzajemną zależność pomiędzy badanymi parametrami
wyznacza się z pewnym błędem, co jest następstwem błędu pomiarowego. Stąd, model
powinien być zdefiniowany jako:
38
y
ux = vw
lub
u = vw + z
gdzie, specyficzny akcent nad symbolem zmiennej zależnej i symbolem współczynników
regresji, tzw. ‘daszek’, oznacza aproksymowane wartości, natomiast wektor e to błąd czyli
różnice pomiędzy prawdziwą wartością zmiennej zależnej, a wartością aproksymowaną na
podstawie modelu. Dla i-tej próbki, błąd (reszta od modelu), ei, wyrażamy jako:
H = x −
W celu poznania zależności pomiędzy dwoma parametrami należy wyznaczyć współczynniki
regresji b. Poznanie dokładnej postaci funkcji umożliwia przewidywanie wartości zmiennej
zależnej na podstawie wartości zmiennej niezależnej. Ma to szczególnie praktyczne
znaczenie, jeśli wyznaczenie wartości zmiennej zależnej wymaga użycia długiej i żmudnej
procedury laboratoryjnej, a pomiar zmiennej objaśniającej jest szybki i relatywnie prosty.
W chemii analitycznej, wyznaczanie krzywej kalibracyjnej ma fundamentalne znaczenie.
Zazwyczaj, do konstrukcji takiej krzywej używa się przynajmniej sześciu próbek o znanych
stężeniach – tzw. próbki kalibracyjne lub wzorcowe. Należy podkreślić, iż wszystkie te próbki
są przygotowane w identyczny sposób (przez tą samą osobę, w tych samych warunkach,
z tych samych odczynników, etc.) i poddane analizie wedle tych samych procedur i reguł
postępowania. Jest to niezwykle ważne, gdyż w ten sposób eliminuje się do pewnego stopnia
błąd pomiarowy, a także wpływa na jakość konstruowanego modelu kalibracyjnego. By
model kalibracyjny był użyteczny, na etapie jego konstrukcji należy włączyć wszystkie
możliwe źródła wariancji. To oznacza, iż próbki tworzące zbiór kalibracyjny muszą być
reprezentatywne. Reprezentatywność zbioru modelowego znacząco wpływa na jakość
przewidywania modelu kalibracyjnego. Każdy model ma swój obszar stosowalności, który
wyznacza zakres zmienności obserwowanej dla próbek ze zbioru modelowego. Nie chodzi
tutaj jedynie o zakres stężeń i wariancji próbek użytych do konstrukcji modelu, ale również
o inne możliwe źródła wariancji, które próbki modelowe reprezentują. Model jest modelem
liniowym jedynie w zakresie, w którym został stworzony. Bazując na poznanej relacji
matematycznej wykorzystujemy własność interpolacji, czyli przewidywania wartości
zmiennej zależnej na podstawie zmiennej objaśniającej w zakresie kalibracyjnym modelu
ustalonym przez zakres stężeń próbek użytych do jego konstrukcji. Wykroczenie poza ten
zakres, wymaga ekstrapolacji, czyli przewidywania poza zakresem stosowalności modelu.
Tego typu działania zazwyczaj jest ryzykowne, gdyż postać modelu jest znana jedynie
w zakresie zmienności zbioru modelowego, a poza tym zakresem model nie musi być
modelem liniowym. Klasycznym przykładem takiego problemu jest prawo Lamberta-Beera,
które jedynie w wąskim zakresie stężeń opisuje liniowa zależność.
39
W trakcie budowy modelu kalibracyjnego zakładamy także, że błędem pomiarowym
obarczony jest tylko jeden z mierzonych parametrów, y. Ponadto, innym ważnym założeniem
jest rozkład błędu, który powinien mieć losowy charakter.
Stworzenie modelu kalibracyjnego na postawie zbioru wyników wymaga ustalenia
współczynników regresji b. W przypadku jednoparametrowej kalibracji, wyznaczanie
współczynników regresji możemy postrzegać jako próbę dopasowania linii trendu do
punktów pomiarowych. Sposobów na poprowadzenie linii prostej przez zbiór punktów na
płaszczyźnie istnieje nieskończenie wiele (nieskończenie wiele par współczynników regresji
b0 i b1), jednakże najlepsze dopasowanie liniowego modelu uzyskamy jeśli suma kwadratów
reszt obliczona na podstawie modelu będzie minimalna:
x −
!
= H! →
+,
Powyższe kryterium nazywane jest sumą kwadratów reszt, a metoda dzięki której wyznacza
się współczynniki regresji, b1 i b0, metodą najmniejszych kwadratów. Bez większego
wnikania w wyprowadzenia, przyjmijmy, iż w przypadku regresji jednoparametrowej,
współczynniki regresji b1 i b0 wyznaczamy zgodnie z następującymi równaniami:
=
∑
| ) − )̅
−R ~
∑
) − )̅ !
[
= R − )̅
W następnej części rozdziału, rozważymy przykład wykorzystania metody najmniejszych
kwadratów w celu konstrukcji modelu kalibracyjnego.
Przykład 8: konstrukcja modelu kalibracyjnego w oparciu o metodę najmniejszych kwadratów
W celu stworzenia modelu kalibrującego, przygotowano siedem roztworów wzorcowych i dla
nich zmierzono fluorescencję. Dla próbek wzorcowych uzyskano następujące pomiary
natężenia fluorescencji:
Intensywność fluorescencji:
Stężenie [pg·cm-3]:
2,1
0
5,0
2
9,0
4
12,6
6
17,3
8
21,0
10
24,7
12
Zakładając, iż model kalibracyjny ma liniową postać, wyznacz współczynniki regresji metodą
najmniejszych kwadratów.
40
W celu ułatwienia dalszych obliczeń, przedstawmy dane eksperymentalne w tabeli wraz
z poszczególnymi pomniejszymi działaniami, a także zobrazujmy dane eksperymentalne za
pomocą rysunku.
intensywność fluorescencji
25
20
15
10
5
0
0
2
4
6
8
10
12
stężenie [pg/ml]
Rysunek 12 Schematyczne przedstawienie wyników pomiarów na wykresie punktowym
Tabela 4 Uzyskane wyniki eksperymentalne dla omawianego przykładu wraz z wybranymi wynikami działań
) − )̅
) − )̅
36
-11,0
5,0
-4
16
-8,1
32,4
4
9,0
-2
4
-4,1
8,2
4
6
12,6
0
0
-0,5
0
5
8
17,3
2
4
4,2
8,4
6
10
21,0
4
16
7,9
31,6
7
12
24,7
6
36
11,6
69,6
∑
42
91,7
0
112
0
216,2
Lp.
xi
yi
1
0
2,1
2
2
3
-6
!
−R
) − )̅
66,0
−R
Korzystając z wyników zamieszczonych w powyższej tabeli, obliczamy kierunkowy
współczynnik regresji b1:
=
∑
| ) − )̅
− R ~ 216,2
=
= 1,93
∑
) − )̅ !
112
oraz wyraz wolny - współczynnik b0:
41
[
= R − )̅
= 13,1 − 6 ∙ 1,93 = 1,52
Zatem, linia regresji (model kalibracyjny) opisuje równanie:
= 1,93) + 1,52
Umownie przyjmujemy, że zmienna zależna y opisuje intensywność fluorescencji, a zmienna
objaśniająca, x, to stężenie analitu (fluoresceiny) w poszczególnych próbkach.
Schematycznie, dane eksperymentalne wraz z dopasowaną linią regresji zamieszczono na
poniższym rysunku.
intensywność fluorescencji
25
20
15
10
5
0
0
5
10
stężenie [pg/ml]
Rysunek 13 Krzywa kalibracyjna (niebieska linia) opisująca liniową zależność intensywności fluorescencji
od stężenia analitu (fluoresceiny) w próbce o ogólnej postaci y = xb1+b0, gdzie b1 = 1,93, a b0 = 1,52
Jak wspomnieliśmy we wcześniejszej części rozdziału, model kalibracyjny ma służyć jego
użytkownikowi do przewidywania określonej własności dla nowych próbek wykorzystując
własność interpolacji. Ocenę jakości skonstruowanego modelu kalibracyjnego można
przeprowadzić na kilka sposobów. Jednym z nich jest oszacowanie wielkości błędu dla
estymowanych wartości współczynników regresji. Z tego powodu, konieczne jest
estymowanie wartości losowych błędów w kierunku y:
/T/I = h
∑
x −
−2
!
42
gdzie, wyrażenie w mianowniku określa liczbę stopni swobody, uwzględniając fakt, iż linia
prosta przechodzi przez dwa punkty.
Odchylenie standardowe współczynnika kierunkowego regresji, b1, oraz wyrazu wolnego, b0,
oblicza się wedle następujących dwóch wzorów:
/
/
[
=
•∑
= /T/I h
/T/I
) − )̅
∑
∑
!
)!
) − )̅
!
Uzyskane wartości odchyleń standardowych dla współczynników regresji mogą posłużyć
w celu wyznaczenia dla nich przedziałów ufności o ogólnej postaci:
[
± N Ea ;
!
± N Ea ;
!
!G
!G
/
/
[
43
Przykład 9: ustalenie przedziałów ufności dla współczynników regresji
Rozważmy jeszcze raz model kalibracyjny zbudowany dla danych z przytoczonego wcześniej
przykładu konstruowania zależności natężenia fluorescencji od stężenia analitu. By obliczyć
poszczególne wartości działań, przygotujmy poglądową tabelę, uwzględniającą wyniki
działań.
Tabela 5 Dane wraz z zamieszczonymi wynikami działań
)
)!
) − )̅
) − )̅
36
2,1
2
2
4
-4
16
3
4
16
-2
4
6
36
5
8
6
7
Lp.
1
0
0
|
−x|
−x
0,58
0,3364
5,0
0,38
0,1444
4
9,0
0,24
0,0576
0
0
12,6
0,50
0,2500
64
2
4
17,3
0,34
0,1156
10
100
4
16
21,0
0,18
0,0324
12
144
6
36
24,7
0,02
0,0004
∑
-6
!
) ! = 364
∑
) − )̅
!
= 112 ∑
−x
!
!
= 0,9368
Korzystając z obliczonych wartości, losowy błąd w kierunku y wynosi odpowiednio:
∑
/T/I = h
−x
−2
!
0,9368
=h
= •0,18736 = 0,4329
7−2
Natomiast, wartości odchyleń standardowych współczynnika kierunkowego i wyrazu
wolnego przyjmują wartości:
/
/
[
=
•∑
= /T/I h
/T/I
) − )̅
∑
∑
!
=
)!
) − )̅
0,4329
√112
!
=
0,4329
= 0,0409
10,58
364
= 0,4329h
= 0,2950
7 ∙ 112
Zatem, przedziały ufności skonstruowane wokół współczynników regresji, zakładając poziom
ufności 95% (α = 0,05) oraz m-2 stopnie swobody, będą wynosiły dla współczynnika
kierunkowego i wyrazu wolnego odpowiednio:
44
± N Ea ;
!
!G
/
[
= 1,93 ± N
± N Ea ;
!
!G
E
/
0,0409
[,[=
;m !G
!
[
= 1,93 ± 2,57 ∙ 0,0409 = 1,93 ± 0,11
= 1,52 ± 2,57 ∙ 0,2950 = 1,52 ± 0,76
Innym sposobem oceny jakości modelu kalibracyjnego jest oszacowanie stopnia jego
dopasowania do danych. Wartość dopasowania modelu do danych można opisać za pomocą
średniego błędu kwadratowego (z ang. root mean square error), RMSE:
∑
RMSE = h
−x
!
Alternatywnie, jakość dopasowania modelu można wyrazić za pomocą współczynnika
determinacji R2, który wyrażony jest jako:
ƒ! = 1 −
∑
∑
−x
−R
!
!
Bliska jedności wartość współczynnika determinacji świadczy o bardzo dobrym dopasowaniu
modelu do danych ze zbioru modelowego.
Regresja wieloraka
Regresja wieloraka, MLR (z ang. multiple linear regression), jest uogólnieniem regresji
jednoparametrowej do sytuacji, w której obserwowaną zmienną zależną opisuje równocześnie
kilka zmiennych objaśniających. Wówczas, ogólna postać modelu zawiera kilka
współczynników kierunkowych regresji (tyle ile jest zmiennych objaśniających) plus jeden
współczynnik regresji dla wyrazu wolnego:
=)
+ )!
!
+ ⋯ + )"
lub
"
+
[
u = vw
Podobnie jak to miało miejsce dla regresji jednoparametrowej, powinniśmy pamiętać, iż
postulowany model jedynie aproksymuje prawdziwą zależność. Wykorzystując wcześniej
przyjętą symbolikę, model dla regresji wielorakiej zapiszemy jako:
45
=)
+ )!
!
+ ⋯ + )"
"
+
[
+H
lub wykorzystując zapis wektorowo-macierzowy:
u = vw + z
Współczynniki regresji dla modelu regresji wielorakiej również wyznaczamy metodą
najmniejszych kwadratów, wykonując następujące działania:
w = vpv
vpu
gdzie, duża litera ‘T’ oznacza operację transpozycji macierzy (zamiana wierszy na kolumny),
a wyrażenie (·)-1 macierz odwrotną.
Powyższy wzór na obliczenie współczynników regresji można wyprowadzić w kilku krokach
poprzez przekształcenie ogólnej postaci modelu regresji wielorakiej i obustronne
przemnożenie poszczególnych równań:
vpu
vpv
u
vw | v p
v p vw | v p v
vpu
vpv
vpv
vpv
vpu
vpu
„w
vpv w
w
gdzie, I to macierz jednostkowa (zawierająca na diagonali elementy równe jedności).
Ze względu na konieczność wyznaczenia macierzy odwrotnej, metoda MLR ma ograniczony
zakres stosowalności. Wynika to bezpośrednio z własności macierzy zawierającej zmienne
objaśniające. Jeśli liczba zmiennych w macierzy X przewyższa liczbę próbek, to taka macierz
z pewnością zawiera skorelowane zmienne (czyli takie, które mogą być przedstawione jako
liniowa kombinacja innych zmiennych). W takim wypadku, wyznaczenie współczynników
regresji jest niemożliwe (konstrukcja macierzy odwrotnej wymaga w jednym z etapów
wykonania dzielenia przez wartość wyznacznika macierzy, który dla macierzy zawierającej
skorelowane zmienne jest równy zero). Konstrukcja modelu MLR może być niemożliwa
nawet jeśli liczba zmiennych objaśniających w stosunku do liczby próbek jest mała. Ten
warunek nie eliminuje możliwej korelacji zmiennych objaśniających. Innymi słowy,
wyznaczenie współczynników regresji modelu MLR jest możliwe jedynie, gdy zbiór
46
zmiennych objaśniających zawiera ortogonalne zmienne, czyli takie, które nie wykazują
wzajemnej korelacji.
Przykład 10: konstrukcja modelu MLR
W trakcie procesu produkcji kwasu azotowego poprzez utlenianie amoniaku w 17 różnych
momentach procesu zarejestrowano straty amoniaku. Czy można skonstruować model
opisujący straty amoniaku w produkcji jako funkcję poziomu pracy fabryki, temperatury
cieczy chłodzącej i stężenia kwasu. Dane uzyskane do konstrukcji modelu MLR,
zamieszczono w kolejnej tabeli.
Na postawie uzyskanych danych pomiarowych obliczamy współczynniki regresji zakładając,
iż macierz zmiennych objaśniających tworzą odpowiednio zmienne takie jak (1) poziom
pracy fabryki, (2) temperatura cieczy chłodzącej, (3) stężenia kwasu oraz (4) kolumnowy
wektor o elementach równych jedności. W celu wyznaczenia macierzy odwrotnej
i przeprowadzenia kolejnych działań, możemy posłużyć się np. pakietem obliczeniowym
Microsoft Excel. Współczynniki regresji wynoszą b1 = 0,798, b2 = 0,577, b3 = -0,067
i b0 = -37,652. Zatem, ogólna postać równania regresji to:
x = 0,798) + 0,577) ! − 0,067) … − 37,652
W odróżnieniu od regresji jednoparametrowej, model MLR możemy zobrazować
przedstawiając na wykresie wartości przewidziane na podstawie modelu MLR względem
wartości obserwowanych zmiennej zależnej. Linia na kolejnym rysunku nie jest linią regresji,
a jedynie obrazuje sytuację, gdy reszty od skonstruowanego modelu MLR są równe zero.
Z praktycznego punktu widzenia, oznacza to iż model idealnie opisuje badaną zależność
i dlatego współczynnik kierunkowy jest równy jedności.
40
35
yi przewidziany
30
25
20
15
10
5
5
10
15
20
25
30
35
40
yi obserwowany
Rysunek 14 Model MLR przedstawiony jako wartości przewidziane na podstawie modelu względem wartości
obserwowanych zmiennej zależnej (linia czerwona opisuje sytuację, gdy reszty od modelu MLR wynoszą zero)
47
Tabela 6 Wartości czterech parametrów monitorowane podczas procesu produkcji kwasu azotowego, gdzie
‘straty amoniaku’ to zmienna zależna, a pozostałe trzy to zmienne objaśniające
Lp.
Straty
amoniaku
Poziom
pracy
fabryki
Temperatura
cieczy
chłodzącej
Stężenie
kwasu
1
37
80
27
88
2
18
62
22
87
3
18
62
23
87
4
19
62
24
93
5
20
62
24
93
6
15
58
23
87
7
14
58
18
80
8
14
58
18
89
9
13
58
17
88
10
11
58
18
82
11
12
58
19
93
12
8
50
18
89
13
7
50
18
86
14
8
50
19
72
15
8
50
19
79
16
9
50
20
80
17
15
56
20
82
Dla skonstruowanego modelu MLR możemy określić jego średni błąd kwadratowy, RMSE,
oraz wartość współczynnika determinacji, R2. Obliczmy podstawowe wartości takie jak reszty
od modelu i ich kwadraty reszt, a także wyniki innych potrzebnych działań i przedstawiamy
w poniższej tabeli.
Uwzględniając wyniki poszczególnych działań, obliczamy średni błąd kwadratowy
i współczynnik determinacji dla modelu MLR:
∑
RMSE = h
ƒ! = 1 −
∑
∑
−x
−x
−R
!
!
!
=h
=1−
20,4010
= 1,20
17
20,4010
= 0,9750
816,256
48
Tabela 7 Wyniki modelowania danych techniką MLR wraz z wybranymi wynikami działań
Lp.
x
−R
−R
!
−x
−x
!
1
37
35,85
22,5294
507,5744
1,1542
1,3322
2
18
18,67
3,5294
12,4567
-0,6678
0,4460
3
18
19,25
3,5294
12,4567
-1,2451
1,5503
4
19
19,42
4,5294
20,5156
-0,4198
0,1762
5
20
19,42
5,5294
30,5744
0,5802
0,3366
6
15
16,05
0,5294
0,2803
-1,0543
1,1115
7
14
13,64
-0,4706
0,2215
0,3625
0,1314
8
14
13,03
-0,4706
0,2215
0,9664
0,9339
9
13
12,52
-1,4706
2,1626
0,4766
0,2271
10
11
13,50
-3,4706
12,0450
-2,5033
6,2665
11
12
13,34
-2,4706
6,1038
-1,3425
1,8023
12
8
6,65
-6,4706
41,8685
1,3480
1,8171
13
7
6,85
-7,4706
55,8097
0,1467
0,0215
14
8
8,37
-6,4706
41,8685
-0,3700
0,1369
15
8
7,90
-6,4706
41,8685
0,0997
0,0099
16
9
8,41
-5,4706
29,9273
0,5895
0,3475
17
15
13,06
0,5294
0,2803
1,9375
3,7539
∑
246
245,94
0,00
816,253
0,0585
20,4010
Badanie siły liniowej zależności dwóch parametrów
Biorąc pod uwagę dwie zmienne losowe, o tej samej liczbie elementów, możemy relatywnie
szybko ocenić czy są one wzajemnie skorelowane, to znaczy, czy istnieje pomiędzy nimi
liniowa zależność. Najprostszym sposobem jest wizualna ocena wzajemnej relacji,
wykorzystując wykres punktowy, na którym naniesione są odpowiadające sobie wartości dla
jednego i drugiego parametru. Im punkty są bliżej hipotetycznej prostej, a ich rozrzut jest
mały i symetryczny, tym większa siła korelacji dwóch parametrów. Współczynnik korelacji,
R, to parametr, który ilościowo ujmuje stopień korelacji. Przyjmuje on wartości z przedziału
[-1, 1]. Jeśli współczynnik korelacji przyjmuje ujemne wartości bliskie -1, oznacza to, iż dwa
parametry wykazują ujemną korelację. Wraz ze wzrostem wartości jednego parametru,
wartości drugiego parametru maleją i vice versa. Dodatnie wartości współczynnika korelacji
bliskie jedności dowodzą silnej dodatniej korelacji – wraz ze wzrostem wartości jednego
parametru obserwujemy wzrost wartości drugiego. Wartość współczynnika korelacji równa
zero świadczy o braku liniowej zależności pomiędzy parametrami. Oto graficzna prezentacja
trzech przypadków par zmiennych, zawierających po 20 pomiarów każda i odpowiadające
tym przypadkom wartości współczynników korelacji. Niebieska linia obrazuje idealną
zależność dwóch parametrów.
49
30
20
28
18
26
16
24
14
22
12
30
25
20
18
parametr 2
parametr 2
parametr 2
20
10
8
15
10
16
6
14
4
12
2
10
10
0
10
5
12
14
16
18
20
22
24
26
28
30
12
14
parametr 1
16
18
20
22
24
26
28
0
10
30
12
14
parametr 1
16
18
20
22
24
26
28
30
parametr 1
Rysunek 15 Graficzna prezentacja dwóch zmiennych w formie projekcji wyników pomiarów na płaszczyznę
zdefiniowaną przez wartości jednego i drugiego parametru. Wartości współczynników korelacji dla kolejnych
trzech przypadków wynoszą odpowiednio: 0,9983 (silna korelacja dodatnia); -0,9983 (silna korelacja ujemna)
i 0,0847 (brak korelacji)
Współczynnik korelacji, r, definiuje się następująco:
(=
•$∑
∑
$ ) − )̅
) − )̅ ! %$∑
−R %
− R !%
Przykład 11 Obliczenie współczynnika korelacji
Załóżmy, że intensywność fluorescencji i stężenie analitu z przykładu 8 to dwa parametry,
oznaczone jako x i y, dla których obliczymy współczynnik korelacji. W tym celu
przedstawmy w tabeli podstawowe działania, ułatwiające dalsze obliczenia.
Tabela 8 Dane wraz z poszczególnymi działaniami dla danych z przykładu 8
) − )̅
) − )̅
36
-11,0
121,00
5,0
-4
16
-8,1
65,61
32,4
4
9,0
-2
4
-4,1
16,81
8,2
4
5
12,6
0
0
-0,5
0,25
0
5
8
17,3
2
4
4,2
17,64
8,4
6
10
21,0
4
16
7,9
62,41
31,6
7
12
24,7
6
36
11,6
134,56
69,6
∑
42
91,7
0
112
0
418,28
216,2
Lp.
xi
yi
1
0
2,1
2
2
3
-6
!
−R
−R
!
) − )̅
66,0
−R
50
Wartość współczynnika korelacji dla tego przykładu wynosi:
(=
•$∑
∑
$ ) − )̅
) − )̅ ! %$∑
−R %
− R !%
=
216,2
√112 ∙ 418,28
= 0,9989
Oznacza to, iż dwa badane parametry wykazują silną dodatnią korelację.
Stabilne warianty podstawowych estymatorów
We wcześniejszej części opracowania zwróciliśmy uwagę, iż rolą każdego estymatora jest
przybliżenie pewnej wielkości charakterystycznej opisującej całą populację na podstawie
wyników uzyskanych poprzez losowe próbkowanie. Przykładem takiego estymatora najlepiej
opisującego centralną tendencję rozkładu wyników może być średnia arytmetyczna.
Analizując rozkład wyników, np. przy użyciu histogramu, średnia arytmetyczna pokrywa się
z najbardziej prawdopodobnym wynikiem w przypadku gdy zmienna przyjmuje rozkład
normalny. Zatem, dla rozkładu normalnego, średnia arytmetyczna jest najbardziej
wiarygodnym estymatorem położenia rozkładu i jest bliska wartości oczekiwanej.
W przypadku obecności tzw. obiektów odległych, czyli wyników znacznie różniących się od
większości, średnia arytmetyczna nie jest wiarygodnym estymatorem. Co więcej, średnia
arytmetyczna jako estymator nie nadaje się do estymowania położenia środka rozkładu już
w sytuacji, gdy zbiór pomiarów zawiera nawet jeden obiekt odległy.
W statystyce, definiuje się w przypadku estymatorów tzw. punkt załamania, mówiący o tym
jaka część wyników może być obiektami odległymi bez wpływu na jakość estymacji. W
przypadku klasycznych estymatorów, takich jak średnia arytmetyczna, odchylenie
standardowe czy wariancja, punkt załamania tych estymatorów wynosi 0%. To znaczy, że
jeden obiekt odległy tak silnie potrafi wpłynąć na wynik estymacji, że użycie tych
estymatorów jest niemożliwe, gdyż prowadzi do mylnych wniosków. W odróżnieniu od
klasycznego estymatora średniej arytmetycznej, mediana jest najprostszym stabilnym
wariantem estymatora środka rozkładu. Jej punkt załamania jest maksymalny, to znaczy, iż
przy 51% „dobrych wyników” dopuszczamy 49% wyników jako obiekty odległe, a wciąż
estymacja środka rozkładu będzie wiarygodna.
Stabilny wariant estymatora odchylenia standardowego można uzyskać zastępując klasyczny
estymator średniej arytmetycznej stabilnym wariantem (medianą) w wyrażeniu na odchyłki
od środka rozkładu (tzw. estymator MAD, którego klasyczny wariant przestawiliśmy
wcześniej):
/†‡ˆ = ‰ ∙
H + , |
−
H + ,
|
51
gdzie, c to stała wartość liczbowa wynosząca 1,4826, którą wprowadza się jako poprawkę
w celu polepszenia sprawność estymatora.
Sprawność stabilnego estymatora można postrzegać jako różnicę pomiędzy wynikiem
uzyskanym dla klasycznego estymatora i estymatorem stabilnym dla danych o rozkładzie
normalnym. Zakładając, iż klasyczny estymator jest najbardziej wiarygodny, gdy dane nie
zawierają obiektów odległych, to sprawny estymator stabilny dla tego typu danych powinien
dawać zbliżony wynik do estymatora klasycznego.
52
Literatura
1. K. Doerffel, Statystyka dla chemików analityków, WNT, Warszawa, 1989.
2. J.R. Taylor, Wstęp do analizy błędu pomiarowego, PWN, Warszawa, 2011.
3. D.L. Massart, B.G.M. Vandeginste, L.M.C. Buydens S. de Jong, P.J. Lewi, J. SmeyersVerbeke, Handbook of chemometrics and qualimetrics: part A, Elsevier, Amsterdam, The
Netherlands, 1997.
4. S.D. Brown, R. Tauler, B. Walczak, Comprehensive Chemometrics, Elsevier,
Amsterdam, 2009.
5. J.N. Miller, J.C. Miller, Statistics and chemometrics for analytical chemistry, Prentice
Hall, London, 2010.
6. P.J. Rousseeuw, A.M. Leroy, Robust regression and outlier detection, John Wiley & Sons,
New York, 1987
53
Dodatek: wybrane tablice statystyczne
Tabela 9 Wartości funkcji gęstości prawdopodobieństwa dla unormowanego rozkładu normalnego zmiennej
z w zakresie [-∞; z]:
5 =
√!Š
8
89
‹− Œ d5
!
z
0
0,01
0,02
0,03
0,04
0,05
0,06
0,07
0,08
0,09
0
0,50000
0,50399
0,50798
0,51197
0,51595
0,51994
0,52392
0,52790
0,53188
0,53586
0,1
0,53983
0,54380
0,54776
0,55172
0,55567
0,55962
0,56356
0,56749
0,57142
0,57535
0,2
0,57926
0,58317
0,58706
0,59095
0,59483
0,59871
0,60257
0,60642
0,61026
0,61409
0,3
0,61791
0,62172
0,62552
0,62930
0,63307
0,63683
0,64058
0,64431
0,64803
0,65173
0,4
0,65542
0,65910
0,66276
0,66640
0,67003
0,67364
0,67724
0,68082
0,68439
0,68793
0,5
0,69146
0,69497
0,69847
0,70194
0,70540
0,70884
0,71226
0,71566
0,71904
0,72240
0,6
0,72575
0,72907
0,73237
0,73565
0,73891
0,74215
0,74537
0,74857
0,75175
0,75490
0,7
0,75804
0,76115
0,76424
0,76730
0,77035
0,77337
0,77637
0,77935
0,78230
0,78524
0,8
0,78814
0,79103
0,79389
0,79673
0,79955
0,80234
0,80511
0,80785
0,81057
0,81327
0,9
0,81594
0,81859
0,82121
0,82381
0,82639
0,82894
0,83147
0,83398
0,83646
0,83891
1
0,84134
0,84375
0,84614
0,84849
0,85083
0,85314
0,85543
0,85769
0,85993
0,86214
1,1
0,86433
0,86650
0,86864
0,87076
0,87286
0,87493
0,87698
0,87900
0,88100
0,88298
1,2
0,88493
0,88686
0,88877
0,89065
0,89251
0,89435
0,89617
0,89796
0,89973
0,90147
1,3
0,90320
0,90490
0,90658
0,90824
0,90988
0,91149
0,91309
0,91466
0,91621
0,91774
1,4
0,91924
0,92073
0,92220
0,92364
0,92507
0,92647
0,92785
0,92922
0,93056
0,93189
1,5
0,93319
0,93448
0,93574
0,93699
0,93822
0,93943
0,94062
0,94179
0,94295
0,94408
1,6
0,94520
0,94630
0,94738
0,94845
0,94950
0,95053
0,95154
0,95254
0,95352
0,95449
1,7
0,95543
0,95637
0,95728
0,95818
0,95907
0,95994
0,96080
0,96164
0,96246
0,96327
1,8
0,96407
0,96485
0,96562
0,96638
0,96712
0,96784
0,96856
0,96926
0,96995
0,97062
1,9
0,97128
0,97193
0,97257
0,97320
0,97381
0,97441
0,97500
0,97558
0,97615
0,97670
2
0,97725
0,97778
0,97831
0,97882
0,97932
0,97982
0,98030
0,98077
0,98124
0,98169
54
Tabela 9 (cd.)
z
0
0,01
0,02
0,03
0,04
0,05
0,06
0,07
0,08
0,09
2,1
0,98214
0,98257
0,98300
0,98341
0,98382
0,98422
0,98461
0,98500
0,98537
0,98574
2,2
0,98610
0,98645
0,98679
0,98713
0,98745
0,98778
0,98809
0,98840
0,98870
0,98899
2,3
0,98928
0,98956
0,98983
0,99010
0,99036
0,99061
0,99086
0,99111
0,99134
0,99158
2,4
0,99180
0,99202
0,99224
0,99245
0,99266
0,99286
0,99305
0,99324
0,99343
0,99361
2,5
0,99379
0,99396
0,99413
0,99430
0,99446
0,99461
0,99477
0,99492
0,99506
0,99520
2,6
0,99534
0,99547
0,99560
0,99573
0,99585
0,99598
0,99609
0,99621
0,99632
0,99643
2,7
0,99653
0,99664
0,99674
0,99683
0,99693
0,99702
0,99711
0,99720
0,99728
0,99736
2,8
0,99744
0,99752
0,99760
0,99767
0,99774
0,99781
0,99788
0,99795
0,99801
0,99807
2,9
0,99813
0,99819
0,99825
0,99831
0,99836
0,99841
0,99846
0,99851
0,99856
0,99861
3
0,99865
0,99869
0,99874
0,99878
0,99882
0,99886
0,99889
0,99893
0,99896
0,99900
3,1
0,99903
0,99906
0,99910
0,99913
0,99916
0,99918
0,99921
0,99924
0,99926
0,99929
3,2
0,99931
0,99934
0,99936
0,99938
0,99940
0,99942
0,99944
0,99946
0,99948
0,99950
3,3
0,99952
0,99953
0,99955
0,99957
0,99958
0,99960
0,99961
0,99962
0,99964
0,99965
3,4
0,99966
0,99968
0,99969
0,99970
0,99971
0,99972
0,99973
0,99974
0,99975
0,99976
3,5
0,99977
0,99978
0,99978
0,99979
0,99980
0,99981
0,99981
0,99982
0,99983
0,99983
3,6
0,99984
0,99985
0,99985
0,99986
0,99986
0,99987
0,99987
0,99988
0,99988
0,99989
3,7
0,99989
0,99990
0,99990
0,99990
0,99991
0,99991
0,99992
0,99992
0,99992
0,99992
3,8
0,99993
0,99993
0,99993
0,99994
0,99994
0,99994
0,99994
0,99995
0,99995
0,99995
3,9
0,99995
0,99995
0,99996
0,99996
0,99996
0,99996
0,99996
0,99996
0,99997
0,99997
55
Tabela 10 Wartości krytyczne dla rozkładu t dla k stopni swobody i poziomu istotności
α = 0,05; 0,025; 0,01 i 0,005 (wartości krytyczne dla testu jednostronnego)
0,05
0,025
0,01
0,005
1
6,314
12,706
31,821
63,657
2
2,920
4,303
6,965
9,925
3
2,353
3,182
4,541
5,841
4
2,132
2,776
3,747
4,604
5
2,015
2,571
3,365
4,032
6
1,943
2,447
3,143
3,707
7
1,895
2,365
2,998
3,499
8
1,860
2,306
2,896
3,355
9
1,833
2,262
2,821
3,250
10
1,812
2,228
2,764
3,169
11
1,796
2,201
2,718
3,106
12
1,782
2,179
2,681
3,055
13
1,771
2,160
2,650
3,012
14
1,761
2,145
2,624
2,977
15
1,753
2,131
2,602
2,947
16
1,746
2,120
2,583
2,921
17
1,740
2,110
2,567
2,898
18
1,734
2,101
2,552
2,878
19
1,729
2,093
2,539
2,861
20
1,725
2,086
2,528
2,845
21
1,721
2,080
2,518
2,831
22
1,717
2,074
2,508
2,819
23
1,714
2,069
2,500
2,807
24
1,711
2,064
2,492
2,797
25
1,708
2,060
2,485
2,787
30
1,697
2,042
2,457
2,750
40
1,684
2,021
2,423
2,704
50
1,676
2,009
2,403
2,678
60
1,671
2,000
2,390
2,660
70
1,667
1,994
2,381
2,648
80
1,664
1,990
2,374
2,639
90
1,662
1,987
2,368
2,632
100
1,660
1,984
2,364
2,626
∞
1,645
1,960
2,330
2,576
56
Tabela 11 Wartości krytyczne dla rozkładu chi kwadrat dla k stopni swobody i poziomu istotności
α = 0,05; 0,025; 0,01 i 0,005 (wartości krytyczne dla testu jednostronnego)
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
30
40
50
60
70
80
90
100
0,05
0,004
0,103
0,352
0,711
1,145
1,635
2,167
2,733
3,325
3,940
4,575
5,226
5,892
6,571
7,261
7,962
8,672
9,390
10,117
10,851
11,591
12,338
13,091
13,848
14,611
18,493
26,509
34,764
43,188
51,739
60,391
69,126
77,929
0,025
0,001
0,051
0,216
0,484
0,831
1,237
1,690
2,180
2,700
3,247
3,816
4,404
5,009
5,629
6,262
6,908
7,564
8,231
8,907
9,591
10,283
10,982
11,689
12,401
13,120
16,791
24,433
32,357
40,482
48,758
57,153
65,647
74,222
0,01
0,000
0,020
0,115
0,297
0,554
0,872
1,239
1,646
2,088
2,558
3,053
3,571
4,107
4,660
5,229
5,812
6,408
7,015
7,633
8,260
8,897
9,542
10,196
10,856
11,524
14,953
22,164
29,707
37,485
45,442
53,540
61,754
70,065
0,005
0,000
0,010
0,072
0,207
0,412
0,676
0,989
1,344
1,735
2,156
2,603
3,074
3,565
4,075
4,601
5,142
5,697
6,265
6,844
7,434
8,034
8,643
9,260
9,886
10,520
13,787
20,707
27,991
35,534
43,275
51,172
59,196
67,328
57
Tabela 12 Wartości krytyczne rozkładu F dla poziomu istotności α = 0,05 (wartości krytyczne dla testu jednostronnego)
1
2
3
4
5
6
7
8
9
10
15
20
25
30
40
50
60
70
80
90
100
∞
1
161,45
199,50
215,71
224,58
230,16
233,99
236,77
238,88
240,54
241,88
245,95
248,01
249,26
250,10
251,14
251,77
252,20
252,50
252,72
252,90
253,04
254,31
2
18,51
19,00
19,16
19,25
19,30
19,33
19,35
19,37
19,38
19,40
19,43
19,45
19,46
19,46
19,47
19,48
19,48
19,48
19,48
19,48
19,49
19,50
3
10,13
9,55
9,28
9,12
9,01
8,94
8,89
8,85
8,81
8,79
8,70
8,66
8,63
8,62
8,59
8,58
8,57
8,57
8,56
8,56
8,55
8,53
4
7,71
6,94
6,59
6,39
6,26
6,16
6,09
6,04
6,00
5,96
5,86
5,80
5,77
5,75
5,72
5,70
5,69
5,68
5,67
5,67
5,66
5,63
5
6,61
5,79
5,41
5,19
5,05
4,95
4,88
4,82
4,77
4,74
4,62
4,56
4,52
4,50
4,46
4,44
4,43
4,42
4,41
4,41
4,41
4,37
6
5,99
5,14
4,76
4,53
4,39
4,28
4,21
4,15
4,10
4,06
3,94
3,87
3,83
3,81
3,77
3,75
3,74
3,73
3,72
3,72
3,71
3,67
7
5,59
4,74
4,35
4,12
3,97
3,87
3,79
3,73
3,68
3,64
3,51
3,44
3,40
3,38
3,34
3,32
3,30
3,29
3,29
3,28
3,27
3,23
8
5,32
4,46
4,07
3,84
3,69
3,58
3,50
3,44
3,39
3,35
3,22
3,15
3,11
3,08
3,04
3,02
3,01
2,99
2,99
2,98
2,97
2,93
9
5,12
4,26
3,86
3,63
3,48
3,37
3,29
3,23
3,18
3,14
3,01
2,94
2,89
2,86
2,83
2,80
2,79
2,78
2,77
2,76
2,76
2,71
10
4,96
4,10
3,71
3,48
3,33
3,22
3,14
3,07
3,02
2,98
2,85
2,77
2,73
2,70
2,66
2,64
2,62
2,61
2,60
2,59
2,59
2,54
15
4,54
3,68
3,29
3,06
2,90
2,79
2,71
2,64
2,59
2,54
2,40
2,33
2,28
2,25
2,20
2,18
2,16
2,15
2,14
2,13
2,12
2,07
20
4,35
3,49
3,10
2,87
2,71
2,60
2,51
2,45
2,39
2,35
2,20
2,12
2,07
2,04
1,99
1,97
1,95
1,93
1,92
1,91
1,91
1,84
25
4,24
3,39
2,99
2,76
2,60
2,49
2,40
2,34
2,28
2,24
2,09
2,01
1,96
1,92
1,87
1,84
1,82
1,81
1,80
1,79
1,78
1,71
30
4,17
3,32
2,92
2,69
2,53
2,42
2,33
2,27
2,21
2,16
2,01
1,93
1,88
1,84
1,79
1,76
1,74
1,72
1,71
1,70
1,70
1,62
40
4,08
3,23
2,84
2,61
2,45
2,34
2,25
2,18
2,12
2,08
1,92
1,84
1,78
1,74
1,69
1,66
1,64
1,62
1,61
1,60
1,59
1,51
50
4,03
3,18
2,79
2,56
2,40
2,29
2,20
2,13
2,07
2,03
1,87
1,78
1,73
1,69
1,63
1,60
1,58
1,56
1,54
1,53
1,52
1,44
60
4,00
3,15
2,76
2,53
2,37
2,25
2,17
2,10
2,04
1,99
1,84
1,75
1,69
1,65
1,59
1,56
1,53
1,52
1,50
1,49
1,48
1,39
70
3,98
3,13
2,74
2,50
2,35
2,23
2,14
2,07
2,02
1,97
1,81
1,72
1,66
1,62
1,57
1,53
1,50
1,49
1,47
1,46
1,45
1,35
80
3,96
3,11
2,72
2,49
2,33
2,21
2,13
2,06
2,00
1,95
1,79
1,70
1,64
1,60
1,54
1,51
1,48
1,46
1,45
1,44
1,43
1,32
90
3,95
3,10
2,71
2,47
2,32
2,20
2,11
2,04
1,99
1,94
1,78
1,69
1,63
1,59
1,53
1,49
1,46
1,44
1,43
1,42
1,41
1,30
100
3,94
3,09
2,70
2,46
2,31
2,19
2,10
2,03
1,97
1,93
1,77
1,68
1,62
1,57
1,52
1,48
1,45
1,43
1,41
1,40
1,39
1,28
∞
3,84
3,00
2,60
2,37
2,21
2,10
2,01
1,94
1,88
1,83
1,67
1,57
1,51
1,46
1,39
1,35
1,32
1,29
1,27
1,26
1,24
1,00
Tabela 13 Wartości krytyczne rozkładu F dla poziomu istotności α = 0,025 (wartości krytyczne dla testu jednostronnego)
1
2
3
4
5
6
7
8
9
10
15
20
25
30
40
50
60
70
80
90
100
∞
1
647,79
799,50
864,16
899,58
921,85
937,11
948,22
956,66
963,28
968,63
984,87
993,10
998,08
1001,41
1005,60
1008,12
1009,80
1011,00
1011,91
1012,61
1013,17
1018,26
2
38,51
39,00
39,17
39,25
39,30
39,33
39,36
39,37
39,39
39,40
39,43
39,45
39,46
39,46
39,47
39,48
39,48
39,48
39,49
39,49
39,49
39,50
3
17,44
16,04
15,44
15,10
14,88
14,73
14,62
14,54
14,47
14,42
14,25
14,17
14,12
14,08
14,04
14,01
13,99
13,98
13,97
13,96
13,96
13,90
4
12,22
10,65
9,98
9,60
9,36
9,20
9,07
8,98
8,90
8,84
8,66
8,56
8,50
8,46
8,41
8,38
8,36
8,35
8,33
8,33
8,32
8,26
5
10,01
8,43
7,76
7,39
7,15
6,98
6,85
6,76
6,68
6,62
6,43
6,33
6,27
6,23
6,18
6,14
6,12
6,11
6,10
6,09
6,08
6,02
6
8,81
7,26
6,60
6,23
5,99
5,82
5,70
5,60
5,52
5,46
5,27
5,17
5,11
5,07
5,01
4,98
4,96
4,94
4,93
4,92
4,92
4,85
7
8,07
6,54
5,89
5,52
5,29
5,12
4,99
4,90
4,82
4,76
4,57
4,47
4,40
4,36
4,31
4,28
4,25
4,24
4,23
4,22
4,21
4,14
8
7,57
6,06
5,42
5,05
4,82
4,65
4,53
4,43
4,36
4,30
4,10
4,00
3,94
3,89
3,84
3,81
3,78
3,77
3,76
3,75
3,74
3,67
9
7,21
5,71
5,08
4,72
4,48
4,32
4,20
4,10
4,03
3,96
3,77
3,67
3,60
3,56
3,51
3,47
3,45
3,43
3,42
3,41
3,40
3,33
10
6,94
5,46
4,83
4,47
4,24
4,07
3,95
3,85
3,78
3,72
3,52
3,42
3,35
3,31
3,26
3,22
3,20
3,18
3,17
3,16
3,15
3,08
15
6,20
4,77
4,15
3,80
3,58
3,41
3,29
3,20
3,12
3,06
2,86
2,76
2,69
2,64
2,59
2,55
2,52
2,51
2,49
2,48
2,47
2,40
20
5,87
4,46
3,86
3,51
3,29
3,13
3,01
2,91
2,84
2,77
2,57
2,46
2,40
2,35
2,29
2,25
2,22
2,20
2,19
2,18
2,17
2,09
25
5,69
4,29
3,69
3,35
3,13
2,97
2,85
2,75
2,68
2,61
2,41
2,30
2,23
2,18
2,12
2,08
2,05
2,03
2,02
2,01
2,00
1,91
30
5,57
4,18
3,59
3,25
3,03
2,87
2,75
2,65
2,57
2,51
2,31
2,20
2,12
2,07
2,01
1,97
1,94
1,92
1,90
1,89
1,88
1,79
40
5,42
4,05
3,46
3,13
2,90
2,74
2,62
2,53
2,45
2,39
2,18
2,07
1,99
1,94
1,88
1,83
1,80
1,78
1,76
1,75
1,74
1,64
50
5,34
3,97
3,39
3,05
2,83
2,67
2,55
2,46
2,38
2,32
2,11
1,99
1,92
1,87
1,80
1,75
1,72
1,70
1,68
1,67
1,66
1,55
60
5,29
3,93
3,34
3,01
2,79
2,63
2,51
2,41
2,33
2,27
2,06
1,94
1,87
1,82
1,74
1,70
1,67
1,64
1,63
1,61
1,60
1,48
70
5,25
3,89
3,31
2,97
2,75
2,59
2,47
2,38
2,30
2,24
2,03
1,91
1,83
1,78
1,71
1,66
1,63
1,60
1,59
1,57
1,56
1,44
80
5,22
3,86
3,28
2,95
2,73
2,57
2,45
2,35
2,28
2,21
2,00
1,88
1,81
1,75
1,68
1,63
1,60
1,57
1,55
1,54
1,53
1,40
90
5,20
3,84
3,26
2,93
2,71
2,55
2,43
2,34
2,26
2,19
1,98
1,86
1,79
1,73
1,66
1,61
1,58
1,55
1,53
1,52
1,50
1,37
100
5,18
3,83
3,25
2,92
2,70
2,54
2,42
2,32
2,24
2,18
1,97
1,85
1,77
1,71
1,64
1,59
1,56
1,53
1,51
1,50
1,48
1,35
∞
5,02
3,69
3,12
2,79
2,57
2,41
2,29
2,19
2,11
2,05
1,83
1,71
1,63
1,57
1,48
1,43
1,39
1,36
1,33
1,31
1,30
1,00
59
Tabela 14 Wartości krytyczne rozkładu F dla poziomu istotności α = 0,01 (wartości krytyczne dla testu jednostronnego)
1
2
3
4
5
6
7
8
9
10
15
20
25
30
40
50
60
70
80
90
100
∞
1
4052,18
4999,50
5403,35
5624,58
5763,65
5858,99
5928,36
5981,07
6022,47
6055,85
6157,28
6208,73
6239,83
6260,65
6286,78
6302,52
6313,03
6320,55
6326,20
6330,59
6334,11
6365,86
2
98,50
99,00
99,17
99,25
99,30
99,33
99,36
99,37
99,39
99,40
99,43
99,45
99,46
99,47
99,47
99,48
99,48
99,48
99,49
99,49
99,49
99,50
3
34,12
30,82
29,46
28,71
28,24
27,91
27,67
27,49
27,35
27,23
26,87
26,69
26,58
26,50
26,41
26,35
26,32
26,29
26,27
26,25
26,24
26,13
4
21,20
18,00
16,69
15,98
15,52
15,21
14,98
14,80
14,66
14,55
14,20
14,02
13,91
13,84
13,75
13,69
13,65
13,63
13,61
13,59
13,58
13,46
5
16,26
13,27
12,06
11,39
10,97
10,67
10,46
10,29
10,16
10,05
9,72
9,55
9,45
9,38
9,29
9,24
9,20
9,18
9,16
9,14
9,13
9,02
6
13,75
10,92
9,78
9,15
8,75
8,47
8,26
8,10
7,98
7,87
7,56
7,40
7,30
7,23
7,14
7,09
7,06
7,03
7,01
7,00
6,99
6,88
7
12,25
9,55
8,45
7,85
7,46
7,19
6,99
6,84
6,72
6,62
6,31
6,16
6,06
5,99
5,91
5,86
5,82
5,80
5,78
5,77
5,75
5,65
8
11,26
8,65
7,59
7,01
6,63
6,37
6,18
6,03
5,91
5,81
5,52
5,36
5,26
5,20
5,12
5,07
5,03
5,01
4,99
4,97
4,96
4,86
9
10,56
8,02
6,99
6,42
6,06
5,80
5,61
5,47
5,35
5,26
4,96
4,81
4,71
4,65
4,57
4,52
4,48
4,46
4,44
4,43
4,41
4,31
10
10,04
7,56
6,55
5,99
5,64
5,39
5,20
5,06
4,94
4,85
4,56
4,41
4,31
4,25
4,17
4,12
4,08
4,06
4,04
4,03
4,01
3,91
15
8,68
6,36
5,42
4,89
4,56
4,32
4,14
4,00
3,89
3,80
3,52
3,37
3,28
3,21
3,13
3,08
3,05
3,02
3,00
2,99
2,98
2,87
20
8,10
5,85
4,94
4,43
4,10
3,87
3,70
3,56
3,46
3,37
3,09
2,94
2,84
2,78
2,69
2,64
2,61
2,58
2,56
2,55
2,54
2,42
25
7,77
5,57
4,68
4,18
3,85
3,63
3,46
3,32
3,22
3,13
2,85
2,70
2,60
2,54
2,45
2,40
2,36
2,34
2,32
2,30
2,29
2,17
30
7,56
5,39
4,51
4,02
3,70
3,47
3,30
3,17
3,07
2,98
2,70
2,55
2,45
2,39
2,30
2,25
2,21
2,18
2,16
2,14
2,13
2,01
40
7,31
5,18
4,31
3,83
3,51
3,29
3,12
2,99
2,89
2,80
2,52
2,37
2,27
2,20
2,11
2,06
2,02
1,99
1,97
1,95
1,94
1,80
50
7,17
5,06
4,20
3,72
3,41
3,19
3,02
2,89
2,78
2,70
2,42
2,27
2,17
2,10
2,01
1,95
1,91
1,88
1,86
1,84
1,82
1,68
60
7,08
4,98
4,13
3,65
3,34
3,12
2,95
2,82
2,72
2,63
2,35
2,20
2,10
2,03
1,94
1,88
1,84
1,81
1,78
1,76
1,75
1,60
70
7,01
4,92
4,07
3,60
3,29
3,07
2,91
2,78
2,67
2,59
2,31
2,15
2,05
1,98
1,89
1,83
1,78
1,75
1,73
1,71
1,70
1,54
80
6,96
4,88
4,04
3,56
3,26
3,04
2,87
2,74
2,64
2,55
2,27
2,12
2,01
1,94
1,85
1,79
1,75
1,71
1,69
1,67
1,65
1,49
90
6,93
4,85
4,01
3,53
3,23
3,01
2,84
2,72
2,61
2,52
2,24
2,09
1,99
1,92
1,82
1,76
1,72
1,68
1,66
1,64
1,62
1,46
100
6,90
4,82
3,98
3,51
3,21
2,99
2,82
2,69
2,59
2,50
2,22
2,07
1,97
1,89
1,80
1,74
1,69
1,66
1,63
1,61
1,60
1,43
∞
6,63
4,61
3,78
3,32
3,02
2,80
2,64
2,51
2,41
2,32
2,04
1,88
1,77
1,70
1,59
1,52
1,47
1,43
1,40
1,38
1,36
1,00
60
Tabela 15 Wartości krytyczne rozkładu F dla poziomu istotności α = 0,005 (wartości krytyczne dla testu jednostronnego)
1
2
3
4
5
6
7
8
9
10
15
20
25
30
40
50
60
70
100
∞
1
16210,72
19999,50
21614,74
22499,58
23055,80
23437,11
23714,57
23925,41
24091,00
24224,49
24630,21
24835,97
24960,34
25043,63
25148,15
25211,09
25253,14
25283,22
25337,45
25464,44
2
198,50
199,00
199,17
199,25
199,30
199,33
199,36
199,37
199,39
199,40
199,43
199,45
199,46
199,47
199,47
199,48
199,48
199,49
199,49
199,50
3
55,55
49,80
47,47
46,19
45,39
44,84
44,43
44,13
43,88
43,69
43,08
42,78
42,59
42,47
42,31
42,21
42,15
42,10
42,02
41,83
4
31,33
26,28
24,26
23,15
22,46
21,97
21,62
21,35
21,14
20,97
20,44
20,17
20,00
19,89
19,75
19,67
19,61
19,57
19,50
19,32
5
22,78
18,31
16,53
15,56
14,94
14,51
14,20
13,96
13,77
13,62
13,15
12,90
12,76
12,66
12,53
12,45
12,40
12,37
12,30
12,14
6
18,63
14,54
12,92
12,03
11,46
11,07
10,79
10,57
10,39
10,25
9,81
9,59
9,45
9,36
9,24
9,17
9,12
9,09
9,03
8,88
7
16,24
12,40
10,88
10,05
9,52
9,16
8,89
8,68
8,51
8,38
7,97
7,75
7,62
7,53
7,42
7,35
7,31
7,28
7,22
7,08
8
14,69
11,04
9,60
8,81
8,30
7,95
7,69
7,50
7,34
7,21
6,81
6,61
6,48
6,40
6,29
6,22
6,18
6,15
6,09
5,95
9
13,61
10,11
8,72
7,96
7,47
7,13
6,88
6,69
6,54
6,42
6,03
5,83
5,71
5,62
5,52
5,45
5,41
5,38
5,32
5,19
10
12,83
9,43
8,08
7,34
6,87
6,54
6,30
6,12
5,97
5,85
5,47
5,27
5,15
5,07
4,97
4,90
4,86
4,83
4,77
4,64
15
10,80
7,70
6,48
5,80
5,37
5,07
4,85
4,67
4,54
4,42
4,07
3,88
3,77
3,69
3,58
3,52
3,48
3,45
3,39
3,26
20
9,94
6,99
5,82
5,17
4,76
4,47
4,26
4,09
3,96
3,85
3,50
3,32
3,20
3,12
3,02
2,96
2,92
2,88
2,83
2,69
25
9,48
6,60
5,46
4,84
4,43
4,15
3,94
3,78
3,64
3,54
3,20
3,01
2,90
2,82
2,72
2,65
2,61
2,58
2,52
2,38
30
9,18
6,35
5,24
4,62
4,23
3,95
3,74
3,58
3,45
3,34
3,01
2,82
2,71
2,63
2,52
2,46
2,42
2,38
2,32
2,18
40
8,83
6,07
4,98
4,37
3,99
3,71
3,51
3,35
3,22
3,12
2,78
2,60
2,48
2,40
2,30
2,23
2,18
2,15
2,09
1,93
50
8,63
5,90
4,83
4,23
3,85
3,58
3,38
3,22
3,09
2,99
2,65
2,47
2,35
2,27
2,16
2,10
2,05
2,02
1,95
1,79
60
8,49
5,79
4,73
4,14
3,76
3,49
3,29
3,13
3,01
2,90
2,57
2,39
2,27
2,19
2,08
2,01
1,96
1,93
1,86
1,69
70
8,40
5,72
4,66
4,08
3,70
3,43
3,23
3,08
2,95
2,85
2,51
2,33
2,21
2,13
2,02
1,95
1,90
1,86
1,80
1,62
100
8,24
5,59
4,54
3,96
3,59
3,33
3,13
2,97
2,85
2,74
2,41
2,23
2,11
2,02
1,91
1,84
1,79
1,75
1,68
1,49
∞
7,88
5,30
4,28
3,72
3,35
3,09
2,90
2,74
2,62
2,52
2,19
2,00
1,88
1,79
1,67
1,59
1,53
1,49
1,40
1,01
61