Materialy dydaktyczn..
Transkrypt
Materialy dydaktyczn..
Projekt „Zwiększenie liczby absolwentów kierunku chemia ZLAB” realizowany w ramach Priorytetu IV – Szkolnictwo wyższe i nauka, Poddziałanie 4.1.2 Programu Operacyjnego Kapitał Ludzki SKRYPT DLA STUDENTÓW KIERUNKU CHEMIA „Opracowanie wyników pomiarów eksperymentalnych” Ivana Stanimirova-Daszykowska Uniwersytet Śląski w Katowicach Instytut Chemii Katowice 2013 Projekt współfinansowany przez Unię Europejską w ramach Europejskiego Funduszu Społecznego Spis treści Przedmowa ............................................................................................................................. 3 Problem badawczy, pytanie badawcze i hipoteza badawcza ................................................. 4 Zmienne pomiarowe ............................................................................................................... 5 Rodzaje błędów pomiarowych ............................................................................................... 5 Statystka jako nauka i jej przedmiot....................................................................................... 7 Wprowadzenie do statystyki losowej zmiennej ..................................................................... 7 Parametry opisujące rozkład losowej zmiennej ..................................................................... 9 Miary położenia środka rozkładu ....................................................................................... 9 Miary dyspersji rozkładu wyników .................................................................................. 10 Próbkowanie i rozkład próbkowania .................................................................................... 11 Rozkład normalny i wystandardyzowany rozkład normalny ........................................... 11 Centralne twierdzenie graniczne ...................................................................................... 15 Rozkład chi kwadrat ......................................................................................................... 15 Testowanie hipotez statystycznych ...................................................................................... 20 Podstawowe testy statystyczne ............................................................................................. 22 Porównanie wartości średnich dwóch grup wyników - test t ........................................... 22 Porównanie wartości średniej z wartością deklarowaną .................................................. 27 Sparowany test t ............................................................................................................... 31 Testowanie wariancji – test F ........................................................................................... 32 Przedział ufności wartości średniej .................................................................................. 34 Wprowadzenie do analizy wariancji (ANOVA) .................................................................. 35 Metody kalibracyjne - regresja jednokrotna i wieloraka ...................................................... 38 Regresja jednoparametrowa ............................................................................................. 38 Regresja wieloraka ........................................................................................................... 45 Badanie siły liniowej zależności dwóch parametrów........................................................... 49 Stabilne warianty podstawowych estymatorów ................................................................... 51 Literatura .............................................................................................................................. 53 Dodatek: wybrane tablice statystyczne ................................................................................ 54 2 Przedmowa Oddajemy w Państwa ręce materiały dydaktyczne, które w sposób bardzo syntetyczny przedstawiają elementarne zagadnienia z zakresu statystyki i metod opracowania wyników eksperymentalnych. Materiały te tylko w pewnej mierze przybliżają omawiane zagadnienia, a zakres i forma ich prezentacji są wynikiem kompromisu pomiędzy wymaganą wiedzą, oczekiwanymi efektami kształcenia, a realną potrzebą wykorzystania prezentowanych treści w pracy zawodowej chemika. Przyjęty zakres merytoryczny opracowania to wynik ponad trzyletniego doświadczenia osiągniętego podczas prowadzenia zajęć w ramach modułu „Matematyka stosowana z elementami chemometrii” dla studentów drugiego roku studiów licencjackich na kierunku chemia. Rolą prowadzonego kursu jest zwrócenie uwagi na szczególne miejsce jakie zajmuje statystyka i inne metody matematyczne w opracowaniu wyników pomiarowych uzyskanych w trakcie prowadzonych eksperymentów. Pomimo dostępnych licznych pozycji literaturowych poruszających zagadnienia z zakresu statystyki, wedle naszego przekonania, istniała konieczność przygotowania opracowania napisanego językiem prostym, zrozumiałym dla studentów kierunku chemia wraz z typowymi przykładami zastosowań. Wierzymy, iż niniejsze opracowanie będzie Państwu pomocne nie tylko w ramach zajęć, ale i późniejszej pracy zawodowej chemika. Zachęcamy do zgłaszania ewentualnych uwag lub propozycji modyfikacji treści, mając nadzieje, że przez to kolejne wersje opracowania będą jeszcze lepsze. 3 Problem badawczy, pytanie badawcze i hipoteza badawcza W chemii, główną istotą prowadzonych badań eksperymentalnych jest próba rozwiązania podjętego problemu badawczego zazwyczaj ujętego w formie pytania. Precyzuje one zakres problemu badawczego, który zamierzamy rozwiązać, a także sugeruje formę oczekiwanej odpowiedzi. W zależności od rodzaju pytania badawczego, uzyskamy odpowiedź „tak” lub „nie” dla tzw. pytań rozstrzygnięcia, albo odpowiedź złożoną w przypadku tzw. pytań dopełnienia. Oto kilka przykładowych pytań badawczych ilustrujących wybrane problemy chemiczne i możliwe odpowiedzi: • • • • Czy badana próbka wina pochodzi z Włoch? (pytanie rozstrzygnięcia) Problem badawczy: śledzenie pochodzenia geograficznego próbek na podstawie ich składu chemicznego Odpowiedź: „tak” lub „nie” Czy stężeniu cynku w analizowanej próbce nie przekracza 50 mg·dm-3? (pytanie rozstrzygnięcia) Problem badawczy: badania jakości środowiska (dopuszczalne stężenie to na przykład 50 mg·dm-3) Odpowiedź: „tak” lub „nie” (pytanie rozstrzygnięcia) O ile zwiększy się stopień odzysku molibdenu, jeśli przed analizą techniką rentgenowskiej fluorescencji próbkę zagęszczono odpowiednio poprzez adsorpcję na nanorurkach i utlenionych nanorurkach? Problem badawczy: analiza chemiczna Przykładowa odpowiedź: zagęszczanie próbki z wykorzystaniem jako adsorbenta utlenionych nanorurek prowadzi do zwiększenia odzysku o 60% w stosunku do adsorpcji prowadzonej na nanorurkach bez modyfikacji powierzchni. Jak zmieni się wydajność reakcji chemicznej, jeśli będzie ona prowadzona przy temperaturach 20°°C i 40°°C? (pytanie dopełnienia) Problem badawczy: optymalizacja procesu (ustalenie wpływu temperatury na wydajność reakcji chemicznej) Przykładowa odpowiedź: w temperaturze 40°C obserwuje się dwukrotny wzrost wydajności reakcji chemicznej w stosunku do wydajności reakcji chemicznej prowadzonej w temperaturze 20°C. Planując, a później realizując eksperyment, oczekujemy iż uzyskane wyniki pomiarów umożliwią udzielenie jednoznacznej odpowiedzi na postawione pytanie badawcze. Stąd też, formułując pytanie badawcze należy mieć na uwadze by było ono precyzyjne, zrozumiałe i rozstrzygalne mając do dyspozycji dostępne środki (np. aparaturę, odpowiednie odczynniki, etc.). Zazwyczaj, sformułowanie problemu badawczego i odpowiedniego pytania skłania nas do refleksji nad możliwym wynikiem eksperymentu, a w konsekwencji zachęca do próby odpowiedzi na pytanie badawcze. Przeczuwalna odpowiedź może być postrzegana jako fundament do budowy hipotezy badawczej. 4 Hipoteza badawcza to zdanie twierdzące, mówiące o przewidywanym rezultacie prowadzonego eksperymentu. Hipoteza badawcza ma pomóc uzyskać odpowiedź na pytanie badawcze. Odpowiednio sformułowana hipoteza badawcza jest prosta. Ma dobrą moc predykcyjną (własność, dzięki której istnieje możliwość przewidzenia wyniku na podstawie określonych parametrów). Ponadto, hipoteza badawcza musi być weryfikowalna czyli empirycznie możliwa do sprawdzenia. Każdy, dobrze zaplanowany i poprawnie przeprowadzony eksperyment warunkuje wiarygodne pomiary (wyniki), które mogą posłużyć by zweryfikować prawdziwość postulowanej hipotezy badawczej. Dokonuje się tego stosując wybrane metody wnioskowania statystycznego, które umożliwiają uzyskanie obiektywnych sądów co do prawdziwości weryfikowanych hipotez. Zmienne pomiarowe Wynikiem prowadzonych eksperymentów jest zbiór pomiarów, które charakteryzują badane próbki. Najczęściej, są one opisane przez pomiary wybranych parametrów np. stężenia niektórych metali lub związków chemicznych, rozpuszczalność, aktywność biologiczną, pH, gęstość, lepkość, przewodnictwo, itp. Tego typu pomiary to tzw. zmienne ilościowe, gdyż ich wartości przyjmują dowolne wartości z określonego przedziału. Drugim typem zmiennych są zmienne jakościowe. Takie zmienne mogą przyjmować pewne wartości z zawężonego zbioru możliwości, np. barwa, kraj pobrania próbki (pochodzenie geograficzne), informacja czy próbkę pobrano od pacjenta zdrowego czy chorego, fakt autentyczności badanej próbki, itp. Przeważnie w badaniach chemicznych mamy styczność ze zmiennymi ilościowymi i to właśnie one w głównej mierze są przedmiotem opracowania statystycznego. Rodzaje błędów pomiarowych Każdy pomiar analityczny jest obarczony błędem. Poprzez błąd rozumiemy różnicę pomiędzy wartością oczekiwaną pomiaru (rzeczywistą), a wartością wyznaczoną eksperymentalnie. Na pomiar analityczny ma wpływ duża liczba czynników. Przyczyn powstawania błędów pomiarowych można doszukiwać się w niestabilnych warunkach pomiaru (np. wahania temperatury), wadliwej pracy podzespołów, zaburzeniach w stałości prądu elektrycznego, zarudzeniu aparatury, itp. Błędy mogą także wynikać z używanej metody analitycznej, np. powolna lub niezakończona reakcja czy niestabilne komponenty próbki. Możemy wyróżnić trzy podstawowe rodzaje błędów pomiarowych. Są to błędy grube, systematyczne i błędy losowe (tzw. przypadkowe). • Błędy grube (z ang. gross errors), to takie które powodują iż, wynik pomiaru rażąco odbiega od wyników pozostałych pomiarów. Przyczyną błędu grubego są zazwyczaj incydentalne zdarzenia. Na przykład, może to być problem techniczny z przyrządem, na 5 • • którym dokonywany jest pomiar, niewłaściwe wpisanie wyniku (np. złe oddzielenie cyfr dziesiętnych przecinkiem), zaniedbanie w czynnościach określonych w protokole przygotowania próbki do analizy, użycie zanieczyszczonego szkła lub odczynnika, itp. Błędy systematyczne (z ang. systematic error), to takie, które w przypadku wielokrotnie powtarzanych w tych samych warunkach pomiarów są praktycznie stałe lub zmieniają się wedle pewnej prawidłowości. Są one np. następstwem źle wykalibrowanego przyrządu, zabrudzenia szalki wagi, itp. Wówczas mówi się o obciążeniu wyniku pomiaru (z ang. bias) zakładając, iż błąd losowy jest zaniedbywalny. Błąd systematyczny można stosunkowo łatwo wyeliminować poprzez użycie odpowiednich metod i materiałów certyfikowanych. Wykrycie błędu systematycznego jest niemożliwe poprzez wykonanie serii powtórzeń. Błędy losowe (z ang. random errors) powodują, iż wyniki powtarzanych pomiarów prowadzonych w tych samych warunkach nieznacznie się od siebie różnią. Wpływają na precyzję i dokładność metody. Obecność błędu losowego jest powodowana poprzez szereg błędów elementarnych, które występują w toku postępowania analitycznego. Wielkość błędu losowego może być oszacowana poprzez wykonanie serii powtórzeń. Minimalizację błędu losowego realizuje się poprzez dopracowanie wykorzystywanej techniki pomiarowej i samej metodyki pomiaru, jednak nie da się całkowicie wyeliminować błędu losowego. Z pojęciem błędu pomiarowego wiążą się także takie definicje jak dokładność metody (z ang. accuracy) i precyzja metody (z ang. precision). Dokładność metody określa różnicę pomiędzy uzyskanym wynikiem pomiaru, a wartością prawdziwą (oczekiwaną). Precyzja metody determinuje stopień zgodności uzyskanych wyników, a zatem opisuje powtarzalność pomiarów. Dokładność i precyzja Precyzja i brak dokładności + + Dokładność i brak precyzji + Brak dokładności i precyzji + Rysunek 1 Graficzna prezentacja definicji precyzji i dokładności metody w odniesieniu do rozrzutu czterech wyników i prawdziwej wartości oznaczonej jako ‘+’ 6 Należy podkreślić, iż metoda analityczna prowadząca do precyzyjnych wyników wcale nie musi być metodą dokładną. Ten problem ilustruje powyższy rysunek, na którym przedstawiono hipotetyczne cztery wyniki pomiarów oraz wartość prawdziwą znajdującą się w środku. Statystka jako nauka i jej przedmiot Statystyka jest nauką, w ramach której rozwijane są techniki ułatwiające badanie i podejmowanie decyzji o zjawiskach, procesach lub populacjach na podstawie analizy informacji zawartej w próbie pochodzącej z danej populacji. Metody statystyczne odgrywają istotną rolę w rozwiązywaniu zagadnień z dziedziny kontroli jakości wyników i produktów, a także ułatwiają wskazanie możliwych kierunków poprawy badanego procesu, metody, itp. Statystyka dostarcza odpowiednich narzędzi, które wspomagają proces próbkowanie procesu, jego testowanie, ocenę, usprawnienie i polepszenie jakości. Może być także postrzegana jako język, dzięki któremu można w sposób obiektywny mówić o jakości. Ogólnie, możemy wyróżnić trzy zasadnicze zastosowania narzędzi statystki. Metody statystki opisowej umożliwiają syntetyczne przedstawienie informacji zawartej w zbiorze wyników. Rozkłady prawdopodobieństwa mają za zadanie wyjaśniać zamienność określonego parametru monitorowanego w trakcie eksperymentu czy procesu. Podejścia wnioskowania statystycznego pozwalają formułować ogólne i obiektywne wnioski, dotyczące prawidłowości dla populacji wyników na podstawie losowej próby (podzbioru wyników). Wprowadzenie do statystyki losowej zmiennej Zbiór wyników uzyskanych dla wielokrotnie powtórzonych pomiarów danego parametru możemy postrzegać jako zmienną losową. Zmienna losowa powstaje jako wynik działania funkcji, która elementom zmiennej losowej z określnym prawdopodobieństwem przyporządkowuje wartości pomiarowe. Strukturę prawdopodobieństwa zmiennej losowej opisuje jej rozkład prawdopodobieństwa. W przypadku zmiennej losowej, y, o charakterze dyskretnym, rozkład prawdopodobieństwa nazywany jest funkcją prawdopodobieństwa, p(y), natomiast w przypadku zmiennej losowej o charakterze ciągłym jest to funkcja gęstości prawdopodobieństwa, f(y). Poniższe dwa rysunki obrazują hipotetyczne rozkłady prawdopodobieństwa – dyskretny i ciągły. 7 25 15 f(y) częstotliwość 20 10 5 0 1 2 3 4 5 6 7 8 y y Rysunek 2 Rozkłady prawdopodobieństwa – dyskretny i ciągły W przypadku dyskretnego rozkładu prawdopodobieństwa, wysokość poszczególnych słupków to wartości funkcji dla wyników pomiarów, p(yi), bezpośrednio mówi o prawdopodobieństwie wystąpienia wyniku lub wyników z określonego przedziału wartości. Dla ciągłego rozkładu prawdopodobieństwa, prawdopodobieństwo determinuje pole powierzchni pod krzywą f(y) dla zadanego przedziału pomiarów. Dla zmiennej losowej o charakterze dyskretnym, własności rozkładu prawdopodobieństwa można przedstawić następująco: 1. 0 ≤ 2. P 3. ∑ = ≤1 dla wszystkich wartości yi = dla wszystkich wartości yi =1 W przypadku zmiennej losowej ciągłej, własności rozkładu prawdopodobieństwa są następujące: 1. 0 ≤ 2. 3. ≤ ≤ = =1 8 Parametry opisujące rozkład losowej zmiennej Do opisu rozkładu losowej zmiennej wykorzystuje się estymatory. Ich rolą jest przybliżyć wartość oczekiwaną (wartość prawdziwą) na podstawie zbioru wyników pomiarów. Estymator opisuje populację wyników. Rozkład zmiennej losowej charakteryzuje się poprzez położenie środka rozkładu oraz jego dyspersję (rozrzut wyników). Do oszacowania środka rozkładu i jego dyspersji można posłużyć się różnymi estymatorami. Te najbardziej powszechnie stosowane, zostaną scharakteryzowane w dalszej części. Miary położenia środka rozkładu Klasyczne miary położenia środka rozkładu to średnia arytmetyczna, moda i mediana. Średnia arytmetyczna, µ, często nazywana średnią, zdefiniowana jest jako suma wszystkich wartości podzielona przez ich ilość. Dla m wartości pomiarów zmiennej losowej y jej średnią obliczamy zgodnie z poniższym wzorem: = 1 W przypadku zmiennej losowej, której m wartości można pogrupować, średnią dla n grup wyników można przedstawić następująco: ≈ 1 + ≈ 1 + ⋯+ razy $ + + ! ! ! + + ⋯+ ≈ + ⋯+ ! razy ! " "% " ≈ ! + ⋯+ + ! ! " + + ⋯+ " " " + ⋯+ razy " ≈ " #≈ & ' Moda to najczęściej pojawiający pomiar się w rozkładzie wartości wyników. Na ogół, moda nie jest najlepszą miarą położenia rozkładu gdyż ma na nią wpływ możliwe grupowanie wyników. Mediana, w przypadku nieparzystej liczby pomiarów, odpowiada wartości środkowej pomiarów uszeregowanych od najmniejszej do największej wartości. Dla parzystej liczby pomiarów, mediana zmiennej losowej o uszeregowanych wartościach to średnia arytmetyczna wyników dwóch pomiarów położonych po obu stronach środka. Zaletą tej miary położenia środka jest jej stabilność nawet, gdy niektóre z wyników znacząco odbiegają od pozostałych (tzw. obiekty odległe). Zagadnienie to zostało bliżej przedstawione w ostatnim rozdziale niniejszego opracowania. 9 Miary dyspersji rozkładu wyników Zazwyczaj, stopień dyspersji rozkładu opisuje się poprzez rozstęp, średnią wartość absolutnych wartości odchyłek od wartości średniej (z ang. mean absolute deviation), odchylenie standardowe i wariancję. Rozstęp, r, definiowany jest jako różnica pomiędzy największą, a najmniejszą wartością pomiarów: (= ) − +, Średnia absolutnych wartości odchyłek od wartości średniej, MAD, wymaga obliczenia − , dla wszystkich pomiarów zmiennej losowej. odchyłek od wartości średniej, MAD= 1 | − | Należy podkreślić, iż użycie wartości bezwzględnej w powyższym równaniu jest konieczne, by wyeliminować efekt znaku różnic (odchyłki od wartości średniej mogą mieć znak dodatni lub ujemy, a w efekcie ich suma może być równa zero). Innym sposobem eliminacji problemu znaku jest operacja podniesienia poszczególnych wartości różnic do kwadratu, co daje możliwość obliczenia pochodnej dla takiego wyrażenia. Z tego właśnie powodu, tak zdefiniowana miara rozrzutu wyników nazywana jest średnią kwadratowych odchyłek od wartości średniej (z ang. mean squared deviation), MSD: MSD= 1 − ! Estymator MSD przybliża dyspersję rozkładu tylko dla fragmentu populacji wyników. W przypadku wykorzystania tego estymatora dla populacji wyników wykazuje on obciążenie. Oznacza to, iż średnia wartość MSD obliczonych dla wielokrotne wylosowanych z populacji podzbiorów wyników różni się od wartości oczekiwanej. Z tego właśnie powodu, zaproponowano nieobciążony estymator, znany jako wariancja, σ2: /! = 1 −1 − ! 10 Innym estymatorem rozrzutu wyników jest odchylenie standardowe, zdefiniowane jako pierwiastek kwadratowy wariancji. W odróżnieniu od wariancji, odchylenie standardowe jest wyrażone w tych samych jednostkach co pomiary tworzące zmienną losową. Próbkowanie i rozkład próbkowania Wnioskowanie statystyczne w głównej mierze ma pomóc poznać (scharakteryzować) określoną populację na podstawie relatywnie mało licznego podzbioru wyników – tzw. próby. Innymi słowy, jest to podejście zmierzające ku uogólnieniu pewnych własności na całą populację wyników. Większość metod statystycznych zakłada, iż w tym celu zostanie użyty zbiór próbek losowo wybrany z całej populacji. Taki sposób wyboru próbek narzuca by na ich wybór nie miał wpływ żaden czynnik. Jeżeli każdy wynik ma jednakową szansę by być wylosowany, wówczas możemy mówić o losowym próbkowaniu. W tym miejscu, należy zadać pytanie kiedy na podstawie podzbioru wyników będzie możliwe w miarę poprawne opisanie całej populacji? Warunkiem koniecznym jest zapewnienie reprezentatywności próby. Zagadnienie reprezentatywności próby najlepiej zrozumieć w kontekście planowania i prowadzenia sondaży przedwyborczych. Reprezentatywna próba respondentów powinna dobrze charakteryzować strukturę całej populacji. Tak więc ograniczenie sondażu do np. pewnej grupy wiekowej, osób zamieszkałych w jednym regionie czy określonej płci respondentów i wnioskowanie na podstawie takiej próby nie prowadzi do wiarygodnych konkluzji. Rozkład prawdopodobieństwa wystąpienia wartości określonej statystyki nazywany jest rozkładem próbkowania. Rozkład normalny i wystandardyzowany rozkład normalny Jednym z najbardziej rozpowszechnionych rozkładów próbkowania jest rozkład normalny. Przyjmując, że zbiór pomiarów y to losowa zmienna, jej rozkład prawdopodobieństwa f(y) można opisać następującą funkcją: = 1 /√22 exp 3− − 2/ ! ! 4 gdzie, wartość średnia znajduje się w przedziale -∞ < µ < ∞, a wariancja przyjmuje wartości większe od zera, a oznaczenie ‘exp{x}’ oznacza wykładnik funkcji ex. W literaturze, można dla zmiennej losowej y spotkać oznaczenie y ∼ N(µ, σ2), co oznacza iż pochodzi ona z populacji o rozkładzie normalnym o średniej równej µ i wariancji σ2. Jednocześnie zapis ten wyraźnie wskazuje, iż średnia i wariancja to dwa kluczowe parametry rozkładu normalnego, które mają bezpośredni wpływ na kształt funkcji gęstości prawdopodobieństwa rozkładu normalnego. 11 Rozkład normalny odgrywa ważną rolę w analizie wyników uzyskanych w trakcie zaplanowanych eksperymentów. Wyniki pomiarów, które różnią się od siebie z powodu istnienia błędu losowego można z powodzeniem opisać używając rozkład normalny. Specjalnym przypadkiem rozkładu normalnego jest jego wystandaryzowana postać, z ∼ N(µ, σ2), dla której średnia przyjmuje wartość zero, a wariancja rozkładu wynosi jeden. Nowa zmienna z powstaje po transformacji zmiennej losowej y, która obejmuje dwie operacje – centrowania i skalowania, co prowadzi do średniej równej zero i jednostkowego odchylenia standardowego (z ∼ N(0, 1)): − / 5= Tak zdefiniowana transformacja zmiennej losowej nazywana jest także z-transformacją, standaryzacją lub autoskalowaniem. Przyjmując, że w przypadku wystandaryzowanego rozkładu prawdopodobieństwa µ = 0 i σ2 = 1, funkcja gęstości prawdopodobieństwa wystandaryzowanej zmiennej losowej, f(z), ulega znacznemu uproszczeniu do postaci: 5 = 1 √22 exp 3− 5! 4 2 Na poniższym rysunku, przedstawiono funkcję gęstości prawdopodobieństwa dla rozkładu normalnego dla µ = 0 i różnych trzech wartościach σ = 0,5, σ = 1 i σ = 2. 0.8 σ =0,5 σ =1 σ =2 0.7 0.6 f(y) 0.5 0.4 0.3 0.2 0.1 0 -6 -4 -2 0 2 4 6 y Rysunek 3 Funkcja gęstości prawdopodobieństwa dla rozkładu normalnego: linia niebieska y ∼ N(0; 0,5), linia czerwona y ∼ N(0; 1) oraz linia czarna y ∼ N(0; 2) 12 Wystandaryzowana postać funkcji gęstości prawdopodobieństwa dla rozkładu normalnego umożliwia przedstawienie w tablicach wartości prawdopodobieństwa, które określone jest jako pole powierzchni pod wybranym obszarem krzywej. Całkowite pole powierzchni pod krzywą funkcji gęstości prawdopodobieństwa dla wystandaryzowanego rozkładu normalnego wynosi jeden. Natomiast, prawdopodobieństwo iż wystandaryzowana zmienna, z, przyjmie wartości z przedziału [ua, ub] wymaga obliczenia całki oznaczonej, zwanej całką Laplace’a, o następującej postaci: 5 = 1 √22 89 6 3− 8: 5! 4 d5 2 Schematycznie, wartość prawdopodobieństwa określoną dla przedziału wartości z ∈ [z1, z2], gdzie z1 = 1 i z2 = ∞, możemy zaznaczyć jako szary obszar pod wykresem. 0.45 0.4 0.35 0.3 f(z) 0.25 0.2 0.15 0.1 0.05 0 -6 -4 -2 0 2 4 6 z Rysunek 4 Funkcja gęstości prawdopodobieństwa dla wystandaryzowanej zmiennej z o rozkładzie normalnym z zaznaczonym obszarem, który odpowiada prawdopodobieństwu wystąpienia wartości tejże zmiennej w przedziale [1; ∞] Wykorzystując tablicowe wartości obliczonej całki dla unormowanego rozkładu normalnego, załączone w końcowej części opracowania, możemy relatywnie łatwo oszacowywać z jakim prawdopodobieństwem będą występowały wartości pomiarowe w zadanym przedziale. Rozważmy następujący przykład. Przykład 1 Przeprowadzono wyznaczenie wartości pH roztworu uzyskując rozkład normalny wyników o średniej 10,15 oraz odchyleniu standardowym 0,02. Jaka część pomiarów będzie się znajdować w przedziale wartości pH od 10,12 do 10,20? 13 Na początku, obliczamy wartość zmiennej wystandaryzowanej odpowiednio dla dwóch krańców przedziału wartości, tj. 10,12 i 10,20 jako: 5 = − / = 10,12 * 10,15 0,02 10,20 * 10,15 0,02 5! *1,5 2,5 Następnie, z tablic statystycznych dla wystandaryzowanej postaci funkcji gęstości prawdopodobieństwa (zob. dodatek) odczytujemy wartość prawdopodobieństwa dla obszaru [-∞; -1,5] oraz dla obszaru [-∞; 2,5]. Prawdopodobieństwo w zakresie [-1,5; 2,5] można obliczyć jako różnicę wartości prawdopodobieństwa dla obszaru [-∞; 2,5] i obszaru [-∞; -1,5]. 5 5! 1 √22 1 6 √22 6 ,= !,= 3* 3* 5! 4 d5 2 5!! 4 d5 2 0,0668 0,9938 Schematycznie, poszczególne operacje obliczenia wartości prawdopodobieństwa ilustruje poniższy rysunek. Rysunek 5 Schematyczne przedstawienie idei obliczania prawdopodobieństwa wystąpienia wyniku w zadanym przedziale wartości zmiennej z dla wystandaryzowanego rozkładu normalnego (obszar oznaczony czerwoną dwustronną strzałką) 14 Na tej podstawie możemy wnioskować, iż powtarzając wielokrotnie pomiary zmiennej, 92,70% wszystkich pomiarów należy oczekiwać w przedziale od 10,12 do 10,20. Innymi słowy, wykonując 100 pomiarów 93 z nich przyjmie wartość z tego przedziału. W podobny sposób, możemy rozważyć jaka część wszystkich wyników znajdzie się w przedziale wokół wartości średniej określonym przez µ ± σ, µ ± 2σ, oraz µ ± 3σ. Zakładając, iż σ = 1, w przedziale µ ± σ znajduje się 68% wyników, w przedziale µ ± 2σ będzie 95% wyników, natomiast w przedziale µ ± 3σ jest 99,7% wszystkich wyników. Centralne twierdzenie graniczne Wiele podejść statystycznych zakłada, iż zmienne losowe przyjmują rozkład normalny. Centralne twierdzenie graniczne pozwala uzasadnić dlaczego obserwowane rozkłady prawdopodobieństwa są często zbliżone do rozkładu normalnego. Centralne twierdzenie graniczne to twierdzenie matematyczne, które postuluje iż jeżeli zmienne y1, y2, …, ym są niezależne o jednakowym rozkładzie i takiej samej wartości średniej i skończonej wariancji (σ2 > 0), a x = y1 + y2 + … + ym wówczas zmienna losowa z wyrażona jako: 5= )− √ /! gdzie m → ∞, zbiega według standardowego rozkładu normalnego N(0, 1). Zastosowanie centralnego twierdzenia granicznego w praktyce, pozwala uniknąć trudnych obliczeń dla dużej liczby próbek i skomplikowanych rozkładów poprzez przyjęcie rozkładu normalnego. Rozkład chi kwadrat Rozkład chi kwadrat, χ2, to inny typ rozkładu próbkowania zmiennej losowej. Podobnie jak rozkład normalny, rozkład chi kwadrat może być zdefiniowany posługując się standardowymi zmiennymi losowymi. Jeżeli z1, z2, …, zm to niezależne zmienne losowe o średniej zero i wariancji równej jeden, wówczas losowa zmienna wyrażona jako: ) = 5 ! + 5!! + ⋯ + 5B! 15 ma rozkład chi kwadrat o k stopniach swobody. Funkcja gęstości prawdopodobieństwa dla zmiennej losowej x, f(x), określa następujący wzór: ) = 1 F 2B/! Γ E G 2 ) H B/! dla ) > 0 I/! gdzie Γ to tzw. funkcja gamma zdefiniowana jako Γ(k) = (k - 1)!, a symbol ‘!’ oznacza silnię. W odróżnieniu od rozkładu normalnego, rozkład chi kwadrat określony jest tylko dla dodatnich wartości zmiennej losowej x, jest niesymetryczny i skrzywiony. Wartość średnia i wariancja wynoszą odpowiednio µ = k i σ2 = 2k. Poniższy rysunek przedstawia kilka przykładowych wykresów rozkładów chi kwadrat ze względu na liczbę stopni swobody k, przyjmując że k = 1, k = 3, k = 5 i k = 7. 0.45 k=1 k=3 k=5 k=7 0.4 0.35 0.25 2 f(χ ) 0.3 0.2 0.15 0.1 0.05 0 0 2 4 6 8 10 χ 12 14 16 18 2 Rysunek 6 Różne rozkłady funkcji gęstości prawdopodobieństwa chi kwadrat ze względu na liczbę stopni swobody Jednym z przykładów zmiennej, która przyjmuje rozkład chi kwadrat jest zmienna losowa y1, y2, …, ym z rozkładu normalnego N(µ, σ2) postaci: SS /! = ∑ − /! ! ~M ! gdzie, SS to tzw. suma kwadratów różnic. Zapis w powyższym równaniu oznacza, że zmienna SS/σ2 ma rozkład chi kwadrat o m-1 stopniach swobody. 16 W statystyce jak i wnioskowaniu statystycznym, wiele technik w praktyczny sposób opiera się o obliczanie sumy kwadratów różnic. Przykładem może być wariancja próby, którą alternatywnie możemy zapisać jako: SS /! = −1 Innym, niezwykle ważnym rodzajem rozkładu jest tzw. rozkład ‘t’ (rozkład t-Studenta), wykorzystywany do testowania hipotez statystycznych, a także do ewaluacji błędu pomiarowego. Rozkład Studenta o k stopniach swobody jest rozkładem zmiennej losowej t o ogólnej postaci: N= 5 √O √F gdzie, z jest zmienną losową standardyzowaną, tj. pochodzącą z rozkładu normalnego N(0, 1), a u to zmienna losowa o rozkładzie chi kwadrat o k stopniach swobody. Zmienne z i u są niezależnymi zmiennymi losowymi. Funkcję gęstości prawdopodobieństwa dla zmiennej losowej t przy k stopniach swobody określa następujący wzór: F+1 ΓE 2 G N! N, F = P1 + Q F F Γ E2G √F2 B ! gdzie µ = 0, a σ2 = k/(k-2) dla k > 2, a t ∈ [-∞; ∞]. Jak wskazuje powyższe równanie, zmieniając liczbę stopni swobody k, można utworzyć całą rodzina rozkładów prawdopodobieństwa. Należy zwrócić uwagę, że istnieje duże podobieństwo pomiędzy rozkładem normalnym, a rozkładem Studenta. Dla dużych wartości k, rozkład Studenta zmierza do standardowego rozkładu normalnego, a dla nieskończenie dużej wartości k rozkład Studenta jest tożsamy ze standardowym rozkładem normalnym. Ponieważ w praktyce analitycznej, ze względu na koszt pomiarów i inne aspekty, liczba pomiarów bywa często relatywnie mała, rozkład Studenta jest najczęściej wykorzystywany. Na poniższym rysunku, przedstawiono wykres funkcji gęstości prawdopodobieństwa dla zmiennej losowej t przy k nieskończenie dużym (rozkład normalny), k = 3 i k = 7. 17 normalny k=3 k=7 0.4 0.35 0.3 f(t) 0.25 0.2 0.15 0.1 0.05 0 -6 -4 -2 0 2 4 6 t Rysunek 7 Funkcja gęstości prawdopodobieństwa dla zmiennej losowej t, dla: k = ∞ (czarna linia), k = 3 (czerwona linia) oraz k = 7 (niebieska linia) Zakładając, iż zbiór y1, y2, …, ym jest losową próbą o rozkładzie N(µ, σ2), wówczas wielkość t zdefiniowana jako: N= R− //√ przyjmuje rozkład Studenta o m-1 stopniach swobody. Innym ważnym rozkładem próbkowania jest tzw. rozkład F. Jeżeli zmienne x i y są zmiennymi niezależnymi o rozkładzie chi-kwadrat odpowiednio o m1 i m2 stopniach swobody, to zmienna F wyrażona jako: S :, 9 MI! / = ! MT / ! przyjmuje rozkład F. Funkcję gęstości prawdopodobieństwa rozkładu F dla zmiennej losowej x o m1 i m2 stopniach swobody określa następujący wzór: ) = ΓE ΓE + 2 ! GE G Γ E 2 G UE ! ! G ! : /! ) G ) + 1V : /! : 9 /! gdzie, zmienna losowa x przyjmuje wartości większe od zera. 18 Klasycznym przykładem zmiennej przyjmującej rozkład F jest zmienna wyrażona jako stosunek wariancji dwóch populacji o rozkładzie normalnym. Zakładając, iż pierwsza populacja składa się z losowej próby o m1 próbkach, dla których dokonano pomiaru określonej własności, y11, y12, …, y1m1, a druga zawiera losową próbę m2 próbek, dla których dokonano pomiaru tej samej własności, y21, y22, …, y2m2, wówczas stosunek wariancji, / ! i/!! dla tychże populacji przyjmuje rozkład F o df1 = m1-1 i df2 = m2-1 stopniach swobody: /! ~S /!! ; 9 : Poniższy rysunek przedstawia kilka przykładowych rozkładów F o różnej liczbie stopni swobody, Fdf1,df2: 0.9 df1=5,df2=5 df1=7,df2=10 df1=10,df2=10 df1=10,df2=30 0.8 0.7 0.6 f(F) 0.5 0.4 0.3 0.2 0.1 0 0 1 2 3 4 5 6 7 8 F Rysunek 8 Kilka wybranych rozkładów F dla różnej liczby stopni swobody df1 i df2 19 Testowanie hipotez statystycznych Przyjmijmy, iż celem prowadzonych przez nas badań jest porównanie efektywności odzysku pewnego związku stosując procedurę ekstrakcji w dwóch rozpuszczalnikach o różnej polarności. W eksperymencie dwa rodzaje rozpuszczalnika możemy traktować jako dwa poziomy czynnika nazwanego „rozpuszczalnik”. Oznaczmy te poziomy indeksem i. W wyniku prowadzonych badań powstaną dwa zbiory zawierające m1 wyników dla poziomu i = 1 i m2 wyników dla poziomu i = 2, odpowiednio y11, y12, …, y1m1 i y21, y22, …, y2m2. Uzyskane wyniki pomiarów eksperymentalnych da się opisać stosując ogólny model przedstawiający j-ty wynik pomiaru dla i–tego poziomu obarczony pewnym błędem pomiarowym, eij: Y = +HY gdzie w przypadku powyższego modelu µ i możemy postrzegać jako średni pomiar dla i-tego poziomu. Zakładając, że wartości błędów eij dla danego czynnika pochodzą z rozkładu normalnego o średniej zero i wariancji σi2, możemy wówczas mówić o losowym błędzie. Dla omawianego przykładu przyjmiemy następującą hipotezę badawczą: rodzaj użytego rozpuszczalnika (jego polarność) ma wpływ na efektywność odzysku. Prawdziwość hipotezy zostanie weryfikowana w oparciu o przeprowadzone pomiary eksperymentalne. W praktyce, weryfikacja tej hipotezy badawczej oznacza porównanie dwóch zbiorów wyników, a w szczególności ustalenie czy wartości średnie dwóch grup pomiarów różnią się od siebie statystycznie istotnie. Wyjściową hipotezę „rodzaj użytego rozpuszczalnika (jego polarność) ma wpływ na efektywność odzysku” można sformułować prościej, używając w tym celu wartości średnie dwóch zbiorów wyników, odpowiednio µ 1 i µ 2. Procedura testowania hipotez poddaje pod ocenę dwa alternatywne scenariusze – hipoteza jest prawdziwa, albo hipoteza jest nieprawdziwa. W statystyce rozróżnia się hipotezę zerową (H0) i tzw. hipotezę alternatywną (H1). Dla omawianego przykładu hipotezę zerową i alternatywną definiujemy następująco: Z[ : = Z : ≠ ! ! Alternatywnie hipotezy można także zapisać jako: Z[ : Z : − − ! ! =0 ≠0 20 Tak sformułowana alternatywna hipoteza nazywana jest hipotezą dwustronną, a testowanie – testowaniem hipotezy dwustronnej, gdyż taki typ hipotezy zostanie spełniony w dwóch przypadkach µ 1 < µ 2 i µ 1 > µ 2. Ilustruje to poniższy rysunek, na którym zaznaczono dwa obszary krzywej rozkładu odpowiadające prawdopodobieństwu odrzucenia hipotezy zerowej przy założeniu, iż jest ona prawdziwa. Innymi słowy, jest to prawdopodobieństwo popełnienia błędu – tzw. błąd α nazywany także błędem I-go rodzaju lub poziomem istotności. Innym rodzajem błędu, który można popełnić podczas testowania hipotez jest błąd β (błąd II-go rodzaju). Błąd II-go rodzaju wyraża prawdopodobieństwo, że hipoteza zerowa nie zostanie odrzucona jeśli jest fałszywa. H0: µ=1,2 0.4 H1: µ=1,8 0.35 0.3 f(x) 0.25 0.2 0.15 0.1 błąd β 0.05 0 0.3 0.6 0.9 1.2 błąd α 1.5 1.8 2.1 2.4 2.7 x Rysunek 9 Ilustracja błędu α i błędu β na przykładzie dwóch hipotez H0: µ = 1,2 oraz H1: µ = 1,8 Hipoteza alternatywna może także zawierać znak nierówności. Tak sformułowana hipoteza pozwala stwierdzić, czy prawdziwe jest stwierdzenie, że jedna wartość średnia jest mniejsza albo większa od drugiej. W takim przypadku, mówimy o teście jednostronnym lub testowaniu jednostronnej hipotezy. Hipoteza zerowa zawiera znak równości, a hipoteza alternatywna znak nierówności: Z[ : Z : Z : = ! < ! > ! lub W dalszej części opracowania, zagadnienie testowania hipotez jedno- i dwustronnych zostanie bliżej omówione na realnych przykładach. 21 Testowanie hipotez zakłada użycie procedury zapewniającej pozyskanie losowej próby wyników, a następnie wykorzystanie odpowiedniego testu statystycznego (statystki) w celu potwierdzenia lub odrzucenia hipotezy zerowej. Należy podkreślić, iż w wyniku przeprowadzonego testowania jedna i tylko jedna z hipotez zostaje przyjęta – albo hipoteza zerowa albo hipoteza alternatywna. Podstawowe testy statystyczne Porównanie wartości średnich dwóch grup wyników - test t Test t wykorzystywany jest w celu porównania istotności różnic pomiędzy wartościami średnimi dwóch zbiorów wyników otrzymanych w wyniku losowego próbkowania. Zakładając, iż wariancje dwóch grup wyników nie różnią się od siebie statystycznie istotnie, statystykę t0 definiuje się jako: N[ = _/`! E − 1 ! + 1 ! G gdzie, m1 i m2 to liczba próbek odpowiednio w pierwszej i drugiej grupie wyników, a /`! to tzw. uwspólniona wariancja (zakładamy, że / ! = /!! = /`! ). Uwspólnioną wariancję, /`! , obliczamy jako wypadkową wariancję dwóch grup wyników, uwzględniając liczebność poszczególnych zbiorów, wedle następującego wzoru: /`! = /! − 1 + /!! ! − 1 + !−2 Wyrażenie w mianowniku powyższego równania określa liczbę stopni swobody. Próbkując dwie populacje wyników poprzez losowane z dwóch niezależnych rozkładów normalnych, możemy przyjąć, iż rozkład różnic µ 1-µ 2 przyjmuje rozkład normalny o następujących parametrach N(µ 1-µ 2, σ2(1/m1+1/m2)). Jednakże, konieczność uwspólnienia wariancji dla dwóch grup próbek (przy założeniu, iż wariancje grup są porównywalne), powoduje zmianę rozkładu statystyki t0 z rozkładu normalnego do rozkładu t o (m1+m2-2) stopniach swobody. Zauważmy, iż w zależności od wartości średniej wynik działania (µ 1-µ 2) może przyjąć wartość dodatnią (gdy µ 1 > µ 2) lub ujemną (gdy µ 1 < µ 2). W celu weryfikacji prawdziwości hipotezy zerowej, należy porównać wartość statystyki t0 z rozkładem t o (m1+m2-2) stopniach swobody i przyjętym poziomem istotności α. 22 Przyjmując hipotezę zerową i alternatywną w formie: Z[ : = Z : ≠ ! ! przeprowadzamy testowanie dwustronnej hipotezy alternatywnej, gdyż będzie ona spełniona jeżeli µ 1 < µ 2 i µ 1 > µ 2. Testowanie hipotezy odbywa się poprzez porównanie wartości obranej statystyki t0, z wartością krytyczną rozkładu t o (m1+m2-2) stopniach swobody i poziomie istotności równym α/2 (w przypadku dwustronnej hipotezy alternatywnej). Należy zauważyć, iż hipoteza zerowa zostanie przyjęta wówczas, gdy: |N[ | ≤ N a; : 9 ! |N[ | > N a; : 9 ! ! a odrzucona, jeśli: ! Powyższe dwa zapisy wskazują, iż ze względu na możliwe wartości statystyki t0 istnieje przedział wartości, w obrębie którego hipoteza zerowa jest spełniona. Co więcej, bazując na krzywej rozkładu prawdopodobieństwa dla tejże statystyki, można powiedzieć, dla ustalonego poziomu istotności, np. α = 0,05 (5%), oczekujemy iż 100(1-α) = 95% wartości znajdzie się w tym przedziale. Granice przedziału określają wartości graniczne rozkładu t: N[ ∈ c−N a; −N a; ! ! : 9 : ! 9 ! , N a; ! ≥ N[ ≤ N a; ! : ! 9 : 9 d ! Przedział wartości liczbowych dowolnej statystyki, których możemy z określonym prawdopodobieństwem oczekiwać nazywany jest przedziałem jej ufności. Na poniższym rysunku, schematyczne przedstawiono przedział ufności dla statystyki t0, przyjmując poziom istotności α = 0,05 i liczbę stopni swobody 16. 23 0.4 0.35 0.3 f(t0) 0.25 0.2 0.15 0.1 0.05 0 -6 Odrzóć jeśli t <-2.131 Odrzóć jeśli t >2.131 0 -4 -2 0 0 2 4 6 t0 Rysunek 10 Przedział ufności wokół statystyki t0 dla poziomu istotności α = 0,05 i liczby stopni swobody 16 W przeciwieństwie do hipotezy dwustronnej, w pewnych przypadkach może istnieć konieczność testowania hipotezy jednostronnej. Podajmy jako przykłady dwa hipotetyczne scenariusze testowania hipotez porównania wartości średnich: • kontrolując jakość surowca (rudy żelaza), ze względów ekonomicznych, sprzedawca może być zainteresowany testowaniem jednostronnej hipotezy alternatywnej na okoliczność zawyżonej zawartości żelaza: Z[ : Z : = > ! ! Hipoteza alternatywna postaci H1: µ 1 > µ 2 zostanie odrzucona, gdy: N[ > N a; • : 9 ! kupujący rudę może być zainteresowany testowaniem alternatywnej na okoliczność zaniżonej zawartości żelaza: Z[ : Z : = < jednostronnej hipotezy ! ! Odrzucenie hipotezy alternatywnej H1: µ 1 < µ 2 wymaga spełnienia warunku: 24 N[ < −N a; : 9 ! 0.4 0.4 0.35 0.35 0.3 0.3 0.25 0.25 f(t0) f(t0) Schematycznie dwa warianty testu jednostronnego przedstawiono na poniższym rysunku (dla α = 0,025 i N = 16). 0.2 0.2 0.15 0.15 0.1 0.1 0.05 Odrzóć jeśli t0<-2.131 0 -6 -4 Odrzóć jeśli t 0>2.131 0.05 -2 0 2 4 6 0 -6 -4 -2 0 2 4 6 t0 t0 Rysunek 11 Ilustracja dwóch różnych hipotez alternatywnych i warunków ich przyjęcia: po lewej H1: µ 1 < µ 2, a po prawej H1: µ 1 > µ Przykład 2 Zilustrujmy praktyczne wykorzystanie testu t do rozwiązania realnego problemu analitycznego - porównanie efektywność odzysku pewnego pierwiastka wykorzystując dwie różne metodyki przygotowania próbki. Stosując niezależnie jedną z dwóch metodyk przygotowania próbki, wykonano po 10 niezależnych oznaczeń pierwiastka. Następnie, obliczono dla dwóch zbiorów wartości średnie, wariancje i odchylenia standardowe: metodyka 1: µ 1 = 16,76 σ12 = 0,100 σ1 = 0,316 m1 = 10 metodyka 2: µ 2 = 17,04 σ22 = 0,061 σ1 = 0,248 m2 = 10 Załóżmy, że chcemy potwierdzić słuszność hipotezy mówiącej, iż dwie metodyki przygotowania próbki nie prowadzą do statystycznie istotnych różnic w odzysku oznaczanego pierwiastka. Krótko, w języku hipotez statystycznych możemy ten problem sformułować w postaci następującej hipotezy zerowej: H0: µ 1 = µ 2. W omawianym przypadku, powinniśmy rozważyć testowanie dwustronnej hipotezy alternatywnej H1: µ 1 ≠ µ 2. Przyjmując poziom istotności testowania hipotezy równy α = 0,05, fakt testowania dwustronnej hipotezy alternatywnej i liczbę stopni swobody równej (m1+m2-2) = 10+10-2 = 18, wartość krytyczna rozkładu t, t(0,025;18), odczytana z tablic statystycznych dla testu jednostronnego wynosi 2,101. 25 Nim ustalimy wartość statystyki t0 należy obliczyć uwspólnioną wariancję dla dwóch grup wyników. Podstawiając realne wartości, otrzymujemy: /`! = /! − 1 + /!! ! − 1 9 0,100 + 9 0,061 = = 0,081 + !−2 10 + 10 − 2 Na tej podstawie, wartość statystyki t0 wynosi: N[ = _/`! E − 1 ! + 1 ! G = 16,76 − 17,04 _0,081 E 1 + 1 G 10 10 = −0,28 = −2,20 0,127 Ponieważ wartość bezwzględna statystyki t0 jest większa od wartości krytycznej rozkładu t dla t(0,025;18) = 2,101 (wartość krytyczna odczytana z tablic dla testu jednostronnego), możemy stwierdzić iż dwa sposoby przygotowania próbki dają statystycznie istotnie różne wyniki (odrzucona została hipoteza zerowa, a przyjęta hipoteza alternatywna). Inna wersja możliwej odpowiedzi to: z 95% ufnością można twierdzić, iż dwa sposoby przygotowania próbki różnią się od siebie statystycznie istotnie. Podobnych przykładów, jak ten przytoczony powyżej, w chemii analitycznej możemy odszukać wiele. W szczególności, testowanie hipotez statystycznych ma za zadanie wspomóc chemika analityka w podejmowaniu decyzji w sposób obiektywny na podstawie empirycznych przesłanek – np. wybór jednej z dwóch możliwych metod analitycznych pod kątem ich efektywności czy ekonomiczności. Zapewne bardziej uważni czytelnicy dostrzegli, iż wybierając tak zdefiniowaną statystykę t0 przyjęliśmy z góry pewne założenia. Pierwsze z nich zakłada, iż próbki dla których dokonano oznaczeń zostały pobrane w sposób losowy. Drugie założenie postuluje równość wariancji dwóch zbiorów wyników. W praktyce, takie założenia nie muszą być słuszne. Stąd, konieczność potwierdzenia tego faktu. Jednym z narzędzi wspomagającym ocenę słuszności przyjętego rozkładu wyników jest tzw. normalny wykres prawdopodobieństwa. Przedstawia on uszeregowane od najniższej do najwyższej wartości wyniki i odpowiadającej im wartości kumulacyjnej częstości występowania. W przypadku danych, które przyjmują rozkład normalny, punkty na wykresie rozmieszczone są wzdłuż linii prostej. W przypadku, gdy różnice pomiędzy wariancjami dwóch grup wyników znacząco od siebie odbiegają, test ‘t’ wymaga modyfikacji. Załóżmy, iż hipoteza zerowa i alternatywna są zdefiniowane następująco: 26 Z[ : = Z : ! ≠ ! Statystyka t0 powinna uwzględniać fakt różnej wariancji grup, estymowanych na podstawie próby losowej, a także ich liczebność: N[ = h − /! + ! /!! ! Rozkład zmodyfikowanej statystyki t0 nie do końca jest zgodny z rozkładem t. Jego relatywnie dobre przybliżenie można uzyskać poprzez korekcję liczbę stopni swobody, k: F= / / ! & /! ! + −1 + /!! ! ! ' /!! / ! ! −1 ! W przypadku, gdy wariancje grup próbek są znane a priori (to znaczy, nie są estymowane na podstawie małej losowej próby losowanej z rozkładu normalnego), lub liczba próbek jest relatywnie duża, możemy założyć iż rozkład statystyki t0 przyjmuje rozkład normalny N(0, 1). Dla odróżnienia tego faktu, przyjmijmy nowe oznaczenie statystyki, z0: 5[ = h − /! + ! /!! ! Zakładając test dwustronny (dwustronna hipoteza alternatywna), porównamy wartość statystyki z0 z wartością krytyczną unormowanego rozkładu normalnego przy zadanym poziomie istotności α, zα. Hipoteza zerowa zostanie odrzucona, jeśli |z0| > zα/2. Porównanie wartości średniej z wartością deklarowaną W niektórych przypadkach, prowadzony eksperyment ma dostarczyć danych w celu potwierdzenia czy średnia uzyskanych wyników statystycznie istotnie odbiega od wartości deklarowanej. Na przykład, wyrywkowo kontrolując partię leku sprawdza się czy zawartość 27 aktywnego składnika nie różni się od wartości deklarowanej przez producenta. Testujemy następujące dwie hipotezy: Z[ : = [ Z : ≠ [ gdzie, przez µ 0 oznaczymy wartość deklarowaną przez producenta. Jeżeli rozkład wyników jest w przybliżeniu normalny, lub liczba próbek jest relatywnie duża można posłużyć się wartościami krytycznymi dla unormowanego rozkładu normalnego. Wówczas statystykę z0 definiujemy następująco: 5[ = − //√ [ Zatem, w przypadku dwustronnej hipotezy alternatywnej, hipoteza ta zostanie przyjęta jeśli |z0| > zα/2. Korzystając z definicji przedziału ufności, stwierdzamy, czy wartość deklarowana znajduje się w przedziale: − / √ −5a ≤ ! [ ≤ 5a ! Alternatywnie, przedział ufności w którym należy oczekiwać wartości deklarowanej (spełnienie hipotezy zerowej) można zapisać jako: [ ± 5a ! / √ Jeśli liczba próbek jest relatywnie mała, to należy założyć iż statystyka z0 nie przyjmuje rozkładu normalnego, a rozkład t. Wówczas, wartość t0 porównujemy z wartością krytyczną rozkładu t dla zadanego poziomu ufności i przyjętej liczby stopni swobody t(α;k). By zaznaczyć ten fakt, przyjmijmy, że: N[ = − //√ [ 28 Dla dwustronnej hipotezy alternatywnej, hipoteza ta zostanie przyjęta jeśli |t0| > t(α/2;k). Korzystając z definicji przedziału ufności, stwierdzamy, czy wartość deklarowana znajduje się w przedziale: −NEa;BG ≤ ! − / √ [ ≤ NEa;BG ! Alternatywnie, przedział ufności w którym należy oczekiwać wartości deklarowanej (spełnienie hipotezy zerowej) można zapisać jako: [ ± NEa;BG ! / √ Przykład 3 Podejrzewa się, iż pewna metoda analityczna oparta o miareczkowanie kwasu zasadą wykazuje znaczny pozytywny błąd systematyczny. W celu wykrycia tego faktu, przygotowano roztwór titranta o dokładnym stężeniu 0,1 mol·dm-3, który posłużył do miareczkowania 25,00 ml 0,1 mol·dm-3 zasady. W kolejnych sześciu miareczkowaniach, zużyto następujące objętości titranta (w ml): 25,06 25,18 24,87 25,51 25,34 25,41 Testujemy zatem hipotezę pozytywnego błędu systematycznego metody, wykorzystując porównanie wartości średniej wyników z wartością deklarowaną. Tak sformułowana hipoteza z góry zakłada jednostronny wariant hipotezy alternatywnej, ponieważ pozytywny błąd systematyczny metody będzie oznaczał, że µ-µ 0 > 0. Z[ : = Z : > [ ;Z[ : [ ;Z = 25,00ml : > 25,00ml Na podstawie serii wyników, wartość średnia i odchylenie standardowe wynoszą odpowiednio 25,228 ml i 0,238 ml. Obliczamy wartość statystyki t0 jako: N[ = − //√ [ = 25,228 − 25,00 0,238/√6 = 2,35 29 Zakładając poziom istotności jednostronnego testu α = 0,05, wartość krytyczna rozkładu dla (6-1) stopni swobody, t(0,05;5), wynosi 2,02. Przy tak sformułowanych hipotezach, hipoteza zerowa zostanie odrzucona, jeśli |t0| > t(0,05;5). W omawianym przykładzie, wartość bezwzględna t0 jest większa niż wartość krytyczna, dlatego należy przyjąć hipotezę alternatywną. W wyniku przeprowadzonego testowania możemy z 95% ufnością stwierdzić, że badana metoda analityczna faktycznie jest obarczona dodatnim błędem statystycznym. Rozważmy jeszcze co stałoby się, gdyby zamiast jednostronnego testu zastosować test dwustronny. W takim wypadku, wartość krytyczna rozkładu dla poziomu istotności α = 0,05 wynosi t(0,025;5) = 2,57. W konsekwencji, musielibyśmy przyjąć hipotezę zerową, a nie alternatywną jak to miało miejsce wcześniej. W pierwszej chwili, można mieć wrażenie, iż istnieje tu sprzeczność, jednak powodem takiego wyniku testowania jest niewłaściwe założenie hipotezy alternatywnej. To czy podczas testowania należy użyć jedno- czy dwustronnego testu zależy od wstępnej wiedzy, a w omawianym przykładzie wyraźnie zaznaczono, iż oczekujemy pozytywnej wartości błędu systematycznego, co świadczy o zawyżonej wartości średniej oznaczeń w stosunku do wartości deklarowanej. Przykład 4 Podczas produkcji benzyny 95-oktanowej losowo pobrano 6 próbek paliwa i oznaczono dla nich liczbę oktanową. Wyniki kolejnych oznaczeń są następujące: 94,78 95,01 94,87 95,05 95,07 94,98 Czy możemy z 95% ufnością twierdzić, że paliwo może być sprzedawane jako 95-oktanowe? W tym przypadku, możemy założyć, iż interesuje nas jedynie stwierdzenie faktu istnienia istotności statystycznej różnic, a zatem hipotezy należy zdefiniować następująco (test dwustronny): Z[ : = Z : ≠ [ ;Z[ : [ ;Z = 95,00 : ≠ 95,00 Na podstawie serii wyników, wartość średnia i odchylenie standardowe wynoszą odpowiednio 94,96 i 0,113. Obliczamy wartość statystyki t0 jako: N[ = − //√ [ = 94,96 − 95,00 0,113/√6 = −0,87 Zakładając 95% ufność, poziom istotności wynosi α% = (100-95) = 5% czyli α = 0,05. Wartość krytyczna rozkładu dla poziomu istotności α = 0,05 wynosi t(0,025;5) = 2,57 (wartość 30 odczytana z tablic dla testu jednostronnego). Ponieważ |t0| < t(0,025;5) przyjmujemy hipotezę zerową. Zatem, z 95% ufnością możemy twierdzić, iż benzyna spełnia specyfikację 95-oktanowego paliwa. Sparowany test t We wcześniejszej części opracowania przedstawiliśmy sposób porównania dwóch metod na podstawie uzyskanych zbirów wyników powstałych poprzez losowe próbkowanie dwóch niezależnych populacji o rozkładach normalnych. W praktyce, możemy także spotkać podejście zakładające wykonanie pomiaru dwoma niezależnymi technikami czy metodami dla tej samej grupy próbek. Innymi słowy oznacza to, iż ta sama próbka wpierw analizowana jest metodą pierwszą, a potem drugą w konsekwencji uzyskując zbiór par wyników. Ten fakt, znajduje odzwierciedlenie w nazwie testu – sparowany test t - który można wykorzystać, aby badać różnice pomiędzy metodami. Test ten zakłada badanie różnic pomiędzy parami wyników, d, i stwierdzenie czy te różnice są statystycznie różne od zera. N[ = l −0 //√ gdzie, µ d to wartość średnia dla m różnic wyników obliczonych pomiędzy odpowiadającymi sobie próbkami. Z[ : Z : l l −0=0 −0 ≠0 Mając do czynienia z dwustronnym testem, hipotezę zerową przyjmiemy jeśli |t0| > t(α/2;k). Przykład 5 Oznaczano zawartość składnika aktywnego - paracetamolu w tabletkach. W tym celu wykorzystano dwie techniki analityczne. Z 10 różnych partii leku pobrano losowo po jednej tabletce i poddano je analizie. Uzyskano wyniki zamieszczone w poniższej tabeli. Czy te dwie techniki analityczne dają statystycznie istotnie różne wyniki? 31 Tabela 1 Wyniki pomiarów uzyskanych dwoma metodami i wartości ich różnic d Partia Metoda 1 Metoda 2 d 1 84,63 83,15 1,48 2 84,38 83,72 0,66 3 84,08 83,84 0,24 4 84,41 84,2 0,21 5 83,82 83,92 -0,1 6 83,55 84,16 -0,61 7 83,92 84,02 -0,1 8 83,69 83,6 0,09 9 84,06 84,13 -0,07 10 84,03 84,24 -0,21 Wartość średnia i odchylenie standardowe różnic wynoszą odpowiednio 0,159 i 0,57. Wartość statyki t0 wynosi: N[ = l −0 //√ = 0,159 0,57/√10 = 0,88 Zakładając 95% poziom ufności, wartość krytyczna rozkładu t dla (10-1) stopni swobody (odczytana z tablic dla testu jednostronnego), t(0,025;9), wynosi 2,23. Ponieważ |t0| < t(0,025;9) przyjmujemy hipotezę zerową i stwierdzamy z 95% ufnością, że dwie metody dają te same wyniki. Możemy wyobrazić sobie sytuację, w której chemik analityk ma do swojej dyspozycji dwie metody analityczne, różniące się od siebie ze względu np. koszt pomiaru, czas pomiaru, przygotowanie próbki, etc. Naturalnym działaniem jest próba zastępowania metod analitycznych innymi ze względów ekonomicznych. Jednakże, wymaga to obiektywnego potwierdzenia, iż zamiana metody nie powoduje straty w kontekście jakości uzyskanych wyników. Metody wnioskowania statystycznego, dają analitykowi możliwość wiarygodnego i obiektywnego porównania działania metod. Testowanie wariancji – test F Wcześniej opisane statystyki umożliwiały wykrycie błędów systematycznych wynikających z różnic pomiędzy średnimi lub średnią, a wartością deklarowaną. Innym ważnym aspektem jest porównanie wariancji dwóch metod, czyli stwierdzenie faktu ich podobnej precyzji. 32 W tym celu można użyć testu F, który zdefiniowany jest jako stosunek wariancji dwóch grup próbek. S[ = /! ≥1 /!! gdzie, zakładamy, iż / ! > /!! . Tak zdefiniowana statystyka F0 przyjmuje rozkład F o dwóch stopniach swobody wynikających z liczebności grupy pierwszej i drugiej. Wartość krytyczną dla tego rozkładu odczytujemy z tablic wartości krytycznych dla rozkładu dla zadanego poziomu istotności oraz (zob. tabele w dodatku opracowania). Jeżeli wartość liczby stopni swobody S a; : ; 9 statystyki znacząco odbiega od jedności, F0 > S a; : ; 9 , można z pewnością równą (1-α) wnioskować, iż różnice precyzji dwóch metod nie wynikają z przyczyn losowego błędu. Podobnie jak we wcześniej omawianych przypadkach, zdefiniowanie hipotez zerowej i alternatywnej zależy od zamierzonego celu. Stwierdzenie czy istnieją różnice w precyzji dwóch metod analitycznych wymaga rozważenia dwustronnego testu, podczas gdy stwierdzenie, która z metod jest bardziej lub mniej precyzyjna wymaga użycia testu jednostronnego. Przykład 6 Wykorzystano dwie metody analityczne (proponowaną i standardową) pozwalające określić chemiczne zapotrzebowanie na tlen w próbkach ścieków. Wykonano niezależne oznaczenia dla losowo pobranych próbek, po osiem dla każdej metody. Uzyskano następujące wartości średnich i odchyleń standardowych: metoda proponowana (1): metoda standardowa (2): µ 1 = 72,00 mg·dm-3; σ1 = 3,31 mg·dm-3 µ 2 = 72,00 mg·dm-3; σ2 = 1,51 mg·dm-3 Czy wariancja proponowanej metody jest istotnie większa niż wariancja metody standardowej? Dla tak postawionego problemu badawczego, wykorzystamy test jednostronny by zbadać słuszność hipotezy zerowej: Z[ :σ! = σ!! Z :σ! > σ!! Należy pamiętać, iż im mniejsza wariancja wyników pomiarów tym większa precyzja metody. Stąd znak nierówności w hipotezie alternatywnej mówi o większej wariancji metody proponowanej od wariancji metody standardowej. 33 Wartość statystyki F0 dla omawianego przykładu wynosi: S[ = / ! 3,31! = = 4,80 /!! 1,51! Zakładając poziom istotności α = 0,05, porównanie wartość statystyki F0 z wartością krytyczną rozkładu F, S [,[=;m;m = 3,788, prowadzi do wniosku, iż musimy odrzucić hipotezę zerową. Na podstawie przeprowadzonego testu, z 95% ufnością stwierdzamy, że precyzja proponowanej metody jest statystycznie istotnie mniejsza od metody standardowej. Zatem, z praktycznego punktu widzenia metoda nie powinna być metodą preferowaną. Test F wykorzystywany jest także by podjąć decyzję o wyborze formy testu t w przypadku badania różnic pomiędzy dwoma grupami wyników. Przypomnijmy, iż we wcześniejszej części opracowania dla prostoty założyliśmy, iż / ! = /!! , co można stanowczo stwierdzić testując odpowiednią hipotezę z wykorzystaniem testu F. Przedział ufności wartości średniej We wcześniejszej części opracowania została przedstawiona definicja przedziału ufności dla dowolnej statystyki. W chemii analitycznej, szczególną wagę przywiązuje się do raportowania wyniku wykonanego pomiaru w kontekście przedziału ufności wartości średniej, co daje obraz wiarygodności wyniku i obrazuje skalę błędu eksperymentalnego. Standardowe procedury analityczne zakładają wykonanie serii powtórzeń, będących podstawą do oszacowania niepewności pomiaru. W tym celu można posłużyć się koncepcją przedziału ufności wartości średniej. Końcowy wynik pomiaru jest podany jako średnia arytmetyczna obliczona z serii powtórzeń wraz z oszacowaną niepewnością pomiarową. Dla małej liczby próbek, przedział ufności wartości średniej przy założonym poziomie istotności α przyjmuje postać: ± N Ea ; ! gdzie wyrażenie o √ G / √ = ±n to tzw. błąd standardowy wartości średniej (lub odchylenie standardowe rozkładu próbkowania), a wielkośćε możemy utożsamiać z niepewnością pomiaru. 34 Wprowadzenie do analizy wariancji (ANOVA) Analiza wariancji, ANOVA, jest techniką statystyczną, która umożliwia badanie różnic pomiędzy średnimi grup próbek ze względu na różne źródła zmienności. W wielu wypadkach, istnieje konieczność testowania więcej niż dwóch średnich. Niektóre typowe sytuacje to konieczność porównania średnich wyników ze względu na różne sposoby przygotowania próbki czy porównanie średnich wyników uzyskanych w toku analiz różnymi technikami czy wykonanych przez różne osoby. W takich przypadkach z pewnością jednym z komponentów wyniku jest losowy błąd. Drugim możliwym komponentem jest wariancja spowodowana tzw. czynnikiem kontrolowanym lub innymi słowy stałym efektem, który może mieć kilka poziomów. Na przykład czynnikiem kontrolowanym można nazwać różne sposoby przygotowania próbki, a liczbę tychże sposobów poziomami tegoż czynnika. Metoda ANOVA umożliwia systematyczny rozdział poszczególnych źródeł wariancji - wariancji powodowanych przez zmiany poziomów kontrolowanego czynnika i błąd pomiarowy. W celu zobrazowania problemy rozważmy następujący przykład. Przykład 7: porównanie wielu wartości średnich Przeanalizujmy następującą sytuację: badamy wpływ warunków przechowywania na stabilność pewnego z komponentów próbki. Ponieważ badany komponent jest fluoryzujący, wykorzystujemy technikę fluorescencji by monitorować co dzieje się z roztworami o równych stężeniach tego samego składnika. Rozważamy cztery możliwości: (A) świeżo przygotowany roztwór, (B) roztwór przechowywany w ciemności przez godzinę, (C) roztwór przechowywany w przyciemnionym świetle przez godzinę i (D) roztwór przechowywany w świetle dziennym. W każdym przypadku sporządzono po trzy powtórzenia. Wartości uzyskanych odczytów pomiaru dla różnych warunków przechowywania podano w poniższej tabeli. Tabela 2 Wyniki pomiarów ze względu na różne warunki przechowywania próbki oraz wartości średnie pomiarów Średnia Warunki przechowywania Wyniki powtórzeń (A) świeżo przygotowany roztwór 102, 100, 101 101 (B) roztwór przechowywany w ciemności przez godzinę 101, 101, 104 102 (C) roztwór przechowywany w przyciemnionym świetle przez godzinę 97, 95, 99 97 (D) roztwór przechowywany w świetle dziennym 90, 92, 94 92 Całkowita średnia: 98 35 Jak wykazano w ostatniej kolumnie tabeli, wartości średnie różnią się od siebie ze względu na warunki przechowywania próbki. Jednakże, nie jest wiadome, czy te różnice są spowodowane tylko błędem pomiarowym. Wykorzystanie metody ANOVA umożliwia zbadanie czy różnice pomiędzy średnimi są istotnie większe by można tłumaczyć je faktycznymi różnicami, a nie błędem losowym. Wyniki możemy rozważać jako zbiór pomiarów jednego parametru, yi, uzyskane w różnych warunkach (w omawianym przypadku różne warunki przechowywania próbki). Tak przeprowadzony eksperyment opisuje jednoczynnikowy model ANOVA: = Rp + q Rr − Rp s + q − Rr s gdzie, β oznacza poziom czynnika (w omawianym przypadku różne warunki przechowywania próbki), Rp to wartość średnia wszystkich wyników pomiarów, a Rr to wartość średnia wyników pomiarów uzyskanych dla poziomu β (grupy). Rozważając model ANOVA jako model dekomponujący wariancję zmiennej, powyższe równanie można także zapisać jako sumy kwadratów poszczególnych członów: ! = Rp! + ! q Rr − Rp s + q − Rr s ! gdzie, drugi i trzeci człon równania to odpowiednio suma kwadratów różnic wartości średnich dla poszczególnych poziomów, a wartością średnią wszystkich wyników (wariancja ! pomiędzy grupami, ∑ q Rr − Rp s ) oraz suma kwadratów różnic pomiędzy wartościami pomiarów, a odpowiadającymi średnimi dla określonego poziomu (wariancja ! wewnątrzgrupowa, ∑ q − Rr s ). Poszczególne składowe równania przedstawmy w kolejnej tabeli. Stwierdzenie czy różnice pomiędzy średnimi są istotnie większe niż błąd losowy wymaga wykorzystania testu F, zdefiniowanego dla modelu ANOVA jako stosunek wariancji pomiędzy grupami do wariancji wewnątrz grup, skorygowanej używając odpowiednią liczbę stopni swobody. Zatem, hipoteza zerowa modeli ANOVA zakłada brak różnic w wariancjach pomiędzy grupami, a wariancją wewnątrz grup, natomiast hipoteza alternatywna sformułowana jest jako hipoteza jednostronna, weryfikująca czy wariancja pomiędzy grupami jest większa od wariancji wewnątrz grup: ! Z[ : q Rr − Rp s = q − Rr s Z : q Rr − Rp s > q − Rr s ! ! ! 36 Tabela 3 Wyniki działań dla modelu ANOVA 102 Rp 98 q Rr − Rp s 100 98 101-98 100-101 101 98 101-98 101-101 101 98 102-98 101-102 101 98 102-98 101-102 104 98 102-98 104-102 97 98 97-98 97-97 95 98 97-98 95-97 99 98 97-98 99-97 90 98 92-98 90-92 92 98 92-98 92-92 94 98 92-98 94-92 115458 115248 186 24 Poziom β=1 β=2 β=3 β=4 ∙ ! 101-98 q − Rr s 102-101 Dla wariancji pomiędzy grupami liczba stopni swobody odpowiada liczbie poziomów, kβ, minus jeden, natomiast dla wariancji wewnątrz grup to liczba wszystkich pomiarów minus liczba poziomów czynnika: S[ = ! ∑ q Rr − Rp s /qFr − 1s ∑q ! − Rr s / −1 = 186/ 4 − 1 62 = = 20,67 24/ 12 − 4 3 Ustalenie czy badany czynnik ma istotnie statystyczny efekt polega na porównaniu wartości obliczonej statystyki F0 z wartością krytyczną dla rozkładu F dla określonego poziomu istotności i liczby stopni swobody (F(0,05;3,8) = 4,066). Jeśli F0 < F, wówczas czynnik nie ma statystycznie istotnego wpływu. Ponieważ, F0 > F możemy twierdzić, iż efekt przechowywania próbek jest statystycznie istotny. 37 Metody kalibracyjne - regresja jednokrotna i wieloraka Zadaniem metod kalibracyjnych jest stworzenie matematycznego modelu, który umożliwia przewidywanie pewnej własności, nazwijmy ją zmienną zależną, na podstawie innej lub innych, nazwijmy je zmienną bądź zmiennymi objaśniającymi. Model jest jedynie próbą aproksymacji prawdziwej zależności jaką obserwujemy w danych empirycznych, a jego wiarygodność zależy od wielu czynników. Jednym z najbardziej oczywistych jest błąd pomiarowy. Regresja jednoparametrowa Najprostszy model kalibracyjny opisuje relację pomiędzy dwoma zmiennymi, np. stężeniem jonów żelaza w próbce, a absorbancją, co ogólnie możemy wyrazić jako: = ) gdzie, y to zmienna zależna (np. absorbancja badanego roztworu), f(·) oznacza funkcję, a x to zmienna objaśniająca (np. stężenie jonów żelaza). Najprostszy model, który taką zależność opisuje to model liniowy postaci: y = xb1+b0. Alternatywnie, model liniowy można zapisać wykorzystując rachunek wektorowomacierzowy jako: u = vw gdzie X to macierz, zawierająca w kolumnach zmienne objaśniające (w ostatniej kolumnie znajduje się kolumnowy wektor, którego wszystkie elementy są równe jeden), a b to wektor tzw. współczynników regresji o dwóch elementach [b1 b0]. Współczynniki regresji b definiują liniowy model i wyznaczają jego nachylenie (współczynnik kierunkowy b1) oraz punkt przecięcia z osią zmiennej zależnej (wyraz wolny b0). W zależności od znaku współczynnika b1 funkcja będzie funkcją rosnącą (b1 > 0), albo malejącą (b1 < 0). Z praktycznego punktu widzenia oznacza to charakter relacji pomiędzy dwoma parametrami. Gdy wraz ze wzrostem wartości jednego parametru wzrastają wartości drugiego mówimy o dodatniej korelacji parametrów. Przeciwna relacja oznacza, iż wartości jednego parametru wzrastają, a drugie maleją. O sile takiej relacji mówi współczynnik korelacji nazywany także współczynnikiem korelacji Pearsona, któremu poświęcimy więcej uwagi w dalszej części opracowania. Na podstawie danych empirycznych, wzajemną zależność pomiędzy badanymi parametrami wyznacza się z pewnym błędem, co jest następstwem błędu pomiarowego. Stąd, model powinien być zdefiniowany jako: 38 y ux = vw lub u = vw + z gdzie, specyficzny akcent nad symbolem zmiennej zależnej i symbolem współczynników regresji, tzw. ‘daszek’, oznacza aproksymowane wartości, natomiast wektor e to błąd czyli różnice pomiędzy prawdziwą wartością zmiennej zależnej, a wartością aproksymowaną na podstawie modelu. Dla i-tej próbki, błąd (reszta od modelu), ei, wyrażamy jako: H = x − W celu poznania zależności pomiędzy dwoma parametrami należy wyznaczyć współczynniki regresji b. Poznanie dokładnej postaci funkcji umożliwia przewidywanie wartości zmiennej zależnej na podstawie wartości zmiennej niezależnej. Ma to szczególnie praktyczne znaczenie, jeśli wyznaczenie wartości zmiennej zależnej wymaga użycia długiej i żmudnej procedury laboratoryjnej, a pomiar zmiennej objaśniającej jest szybki i relatywnie prosty. W chemii analitycznej, wyznaczanie krzywej kalibracyjnej ma fundamentalne znaczenie. Zazwyczaj, do konstrukcji takiej krzywej używa się przynajmniej sześciu próbek o znanych stężeniach – tzw. próbki kalibracyjne lub wzorcowe. Należy podkreślić, iż wszystkie te próbki są przygotowane w identyczny sposób (przez tą samą osobę, w tych samych warunkach, z tych samych odczynników, etc.) i poddane analizie wedle tych samych procedur i reguł postępowania. Jest to niezwykle ważne, gdyż w ten sposób eliminuje się do pewnego stopnia błąd pomiarowy, a także wpływa na jakość konstruowanego modelu kalibracyjnego. By model kalibracyjny był użyteczny, na etapie jego konstrukcji należy włączyć wszystkie możliwe źródła wariancji. To oznacza, iż próbki tworzące zbiór kalibracyjny muszą być reprezentatywne. Reprezentatywność zbioru modelowego znacząco wpływa na jakość przewidywania modelu kalibracyjnego. Każdy model ma swój obszar stosowalności, który wyznacza zakres zmienności obserwowanej dla próbek ze zbioru modelowego. Nie chodzi tutaj jedynie o zakres stężeń i wariancji próbek użytych do konstrukcji modelu, ale również o inne możliwe źródła wariancji, które próbki modelowe reprezentują. Model jest modelem liniowym jedynie w zakresie, w którym został stworzony. Bazując na poznanej relacji matematycznej wykorzystujemy własność interpolacji, czyli przewidywania wartości zmiennej zależnej na podstawie zmiennej objaśniającej w zakresie kalibracyjnym modelu ustalonym przez zakres stężeń próbek użytych do jego konstrukcji. Wykroczenie poza ten zakres, wymaga ekstrapolacji, czyli przewidywania poza zakresem stosowalności modelu. Tego typu działania zazwyczaj jest ryzykowne, gdyż postać modelu jest znana jedynie w zakresie zmienności zbioru modelowego, a poza tym zakresem model nie musi być modelem liniowym. Klasycznym przykładem takiego problemu jest prawo Lamberta-Beera, które jedynie w wąskim zakresie stężeń opisuje liniowa zależność. 39 W trakcie budowy modelu kalibracyjnego zakładamy także, że błędem pomiarowym obarczony jest tylko jeden z mierzonych parametrów, y. Ponadto, innym ważnym założeniem jest rozkład błędu, który powinien mieć losowy charakter. Stworzenie modelu kalibracyjnego na postawie zbioru wyników wymaga ustalenia współczynników regresji b. W przypadku jednoparametrowej kalibracji, wyznaczanie współczynników regresji możemy postrzegać jako próbę dopasowania linii trendu do punktów pomiarowych. Sposobów na poprowadzenie linii prostej przez zbiór punktów na płaszczyźnie istnieje nieskończenie wiele (nieskończenie wiele par współczynników regresji b0 i b1), jednakże najlepsze dopasowanie liniowego modelu uzyskamy jeśli suma kwadratów reszt obliczona na podstawie modelu będzie minimalna: x − ! = H! → +, Powyższe kryterium nazywane jest sumą kwadratów reszt, a metoda dzięki której wyznacza się współczynniki regresji, b1 i b0, metodą najmniejszych kwadratów. Bez większego wnikania w wyprowadzenia, przyjmijmy, iż w przypadku regresji jednoparametrowej, współczynniki regresji b1 i b0 wyznaczamy zgodnie z następującymi równaniami: = ∑ | ) − )̅ −R ~ ∑ ) − )̅ ! [ = R − )̅ W następnej części rozdziału, rozważymy przykład wykorzystania metody najmniejszych kwadratów w celu konstrukcji modelu kalibracyjnego. Przykład 8: konstrukcja modelu kalibracyjnego w oparciu o metodę najmniejszych kwadratów W celu stworzenia modelu kalibrującego, przygotowano siedem roztworów wzorcowych i dla nich zmierzono fluorescencję. Dla próbek wzorcowych uzyskano następujące pomiary natężenia fluorescencji: Intensywność fluorescencji: Stężenie [pg·cm-3]: 2,1 0 5,0 2 9,0 4 12,6 6 17,3 8 21,0 10 24,7 12 Zakładając, iż model kalibracyjny ma liniową postać, wyznacz współczynniki regresji metodą najmniejszych kwadratów. 40 W celu ułatwienia dalszych obliczeń, przedstawmy dane eksperymentalne w tabeli wraz z poszczególnymi pomniejszymi działaniami, a także zobrazujmy dane eksperymentalne za pomocą rysunku. intensywność fluorescencji 25 20 15 10 5 0 0 2 4 6 8 10 12 stężenie [pg/ml] Rysunek 12 Schematyczne przedstawienie wyników pomiarów na wykresie punktowym Tabela 4 Uzyskane wyniki eksperymentalne dla omawianego przykładu wraz z wybranymi wynikami działań ) − )̅ ) − )̅ 36 -11,0 5,0 -4 16 -8,1 32,4 4 9,0 -2 4 -4,1 8,2 4 6 12,6 0 0 -0,5 0 5 8 17,3 2 4 4,2 8,4 6 10 21,0 4 16 7,9 31,6 7 12 24,7 6 36 11,6 69,6 ∑ 42 91,7 0 112 0 216,2 Lp. xi yi 1 0 2,1 2 2 3 -6 ! −R ) − )̅ 66,0 −R Korzystając z wyników zamieszczonych w powyższej tabeli, obliczamy kierunkowy współczynnik regresji b1: = ∑ | ) − )̅ − R ~ 216,2 = = 1,93 ∑ ) − )̅ ! 112 oraz wyraz wolny - współczynnik b0: 41 [ = R − )̅ = 13,1 − 6 ∙ 1,93 = 1,52 Zatem, linia regresji (model kalibracyjny) opisuje równanie: = 1,93) + 1,52 Umownie przyjmujemy, że zmienna zależna y opisuje intensywność fluorescencji, a zmienna objaśniająca, x, to stężenie analitu (fluoresceiny) w poszczególnych próbkach. Schematycznie, dane eksperymentalne wraz z dopasowaną linią regresji zamieszczono na poniższym rysunku. intensywność fluorescencji 25 20 15 10 5 0 0 5 10 stężenie [pg/ml] Rysunek 13 Krzywa kalibracyjna (niebieska linia) opisująca liniową zależność intensywności fluorescencji od stężenia analitu (fluoresceiny) w próbce o ogólnej postaci y = xb1+b0, gdzie b1 = 1,93, a b0 = 1,52 Jak wspomnieliśmy we wcześniejszej części rozdziału, model kalibracyjny ma służyć jego użytkownikowi do przewidywania określonej własności dla nowych próbek wykorzystując własność interpolacji. Ocenę jakości skonstruowanego modelu kalibracyjnego można przeprowadzić na kilka sposobów. Jednym z nich jest oszacowanie wielkości błędu dla estymowanych wartości współczynników regresji. Z tego powodu, konieczne jest estymowanie wartości losowych błędów w kierunku y: /T/I = h ∑ x − −2 ! 42 gdzie, wyrażenie w mianowniku określa liczbę stopni swobody, uwzględniając fakt, iż linia prosta przechodzi przez dwa punkty. Odchylenie standardowe współczynnika kierunkowego regresji, b1, oraz wyrazu wolnego, b0, oblicza się wedle następujących dwóch wzorów: / / [ = •∑ = /T/I h /T/I ) − )̅ ∑ ∑ ! )! ) − )̅ ! Uzyskane wartości odchyleń standardowych dla współczynników regresji mogą posłużyć w celu wyznaczenia dla nich przedziałów ufności o ogólnej postaci: [ ± N Ea ; ! ± N Ea ; ! !G !G / / [ 43 Przykład 9: ustalenie przedziałów ufności dla współczynników regresji Rozważmy jeszcze raz model kalibracyjny zbudowany dla danych z przytoczonego wcześniej przykładu konstruowania zależności natężenia fluorescencji od stężenia analitu. By obliczyć poszczególne wartości działań, przygotujmy poglądową tabelę, uwzględniającą wyniki działań. Tabela 5 Dane wraz z zamieszczonymi wynikami działań ) )! ) − )̅ ) − )̅ 36 2,1 2 2 4 -4 16 3 4 16 -2 4 6 36 5 8 6 7 Lp. 1 0 0 | −x| −x 0,58 0,3364 5,0 0,38 0,1444 4 9,0 0,24 0,0576 0 0 12,6 0,50 0,2500 64 2 4 17,3 0,34 0,1156 10 100 4 16 21,0 0,18 0,0324 12 144 6 36 24,7 0,02 0,0004 ∑ -6 ! ) ! = 364 ∑ ) − )̅ ! = 112 ∑ −x ! ! = 0,9368 Korzystając z obliczonych wartości, losowy błąd w kierunku y wynosi odpowiednio: ∑ /T/I = h −x −2 ! 0,9368 =h = •0,18736 = 0,4329 7−2 Natomiast, wartości odchyleń standardowych współczynnika kierunkowego i wyrazu wolnego przyjmują wartości: / / [ = •∑ = /T/I h /T/I ) − )̅ ∑ ∑ ! = )! ) − )̅ 0,4329 √112 ! = 0,4329 = 0,0409 10,58 364 = 0,4329h = 0,2950 7 ∙ 112 Zatem, przedziały ufności skonstruowane wokół współczynników regresji, zakładając poziom ufności 95% (α = 0,05) oraz m-2 stopnie swobody, będą wynosiły dla współczynnika kierunkowego i wyrazu wolnego odpowiednio: 44 ± N Ea ; ! !G / [ = 1,93 ± N ± N Ea ; ! !G E / 0,0409 [,[= ;m !G ! [ = 1,93 ± 2,57 ∙ 0,0409 = 1,93 ± 0,11 = 1,52 ± 2,57 ∙ 0,2950 = 1,52 ± 0,76 Innym sposobem oceny jakości modelu kalibracyjnego jest oszacowanie stopnia jego dopasowania do danych. Wartość dopasowania modelu do danych można opisać za pomocą średniego błędu kwadratowego (z ang. root mean square error), RMSE: ∑ RMSE = h −x ! Alternatywnie, jakość dopasowania modelu można wyrazić za pomocą współczynnika determinacji R2, który wyrażony jest jako: ƒ! = 1 − ∑ ∑ −x −R ! ! Bliska jedności wartość współczynnika determinacji świadczy o bardzo dobrym dopasowaniu modelu do danych ze zbioru modelowego. Regresja wieloraka Regresja wieloraka, MLR (z ang. multiple linear regression), jest uogólnieniem regresji jednoparametrowej do sytuacji, w której obserwowaną zmienną zależną opisuje równocześnie kilka zmiennych objaśniających. Wówczas, ogólna postać modelu zawiera kilka współczynników kierunkowych regresji (tyle ile jest zmiennych objaśniających) plus jeden współczynnik regresji dla wyrazu wolnego: =) + )! ! + ⋯ + )" lub " + [ u = vw Podobnie jak to miało miejsce dla regresji jednoparametrowej, powinniśmy pamiętać, iż postulowany model jedynie aproksymuje prawdziwą zależność. Wykorzystując wcześniej przyjętą symbolikę, model dla regresji wielorakiej zapiszemy jako: 45 =) + )! ! + ⋯ + )" " + [ +H lub wykorzystując zapis wektorowo-macierzowy: u = vw + z Współczynniki regresji dla modelu regresji wielorakiej również wyznaczamy metodą najmniejszych kwadratów, wykonując następujące działania: w = vpv vpu gdzie, duża litera ‘T’ oznacza operację transpozycji macierzy (zamiana wierszy na kolumny), a wyrażenie (·)-1 macierz odwrotną. Powyższy wzór na obliczenie współczynników regresji można wyprowadzić w kilku krokach poprzez przekształcenie ogólnej postaci modelu regresji wielorakiej i obustronne przemnożenie poszczególnych równań: vpu vpv u vw | v p v p vw | v p v vpu vpv vpv vpv vpu vpu „w vpv w w gdzie, I to macierz jednostkowa (zawierająca na diagonali elementy równe jedności). Ze względu na konieczność wyznaczenia macierzy odwrotnej, metoda MLR ma ograniczony zakres stosowalności. Wynika to bezpośrednio z własności macierzy zawierającej zmienne objaśniające. Jeśli liczba zmiennych w macierzy X przewyższa liczbę próbek, to taka macierz z pewnością zawiera skorelowane zmienne (czyli takie, które mogą być przedstawione jako liniowa kombinacja innych zmiennych). W takim wypadku, wyznaczenie współczynników regresji jest niemożliwe (konstrukcja macierzy odwrotnej wymaga w jednym z etapów wykonania dzielenia przez wartość wyznacznika macierzy, który dla macierzy zawierającej skorelowane zmienne jest równy zero). Konstrukcja modelu MLR może być niemożliwa nawet jeśli liczba zmiennych objaśniających w stosunku do liczby próbek jest mała. Ten warunek nie eliminuje możliwej korelacji zmiennych objaśniających. Innymi słowy, wyznaczenie współczynników regresji modelu MLR jest możliwe jedynie, gdy zbiór 46 zmiennych objaśniających zawiera ortogonalne zmienne, czyli takie, które nie wykazują wzajemnej korelacji. Przykład 10: konstrukcja modelu MLR W trakcie procesu produkcji kwasu azotowego poprzez utlenianie amoniaku w 17 różnych momentach procesu zarejestrowano straty amoniaku. Czy można skonstruować model opisujący straty amoniaku w produkcji jako funkcję poziomu pracy fabryki, temperatury cieczy chłodzącej i stężenia kwasu. Dane uzyskane do konstrukcji modelu MLR, zamieszczono w kolejnej tabeli. Na postawie uzyskanych danych pomiarowych obliczamy współczynniki regresji zakładając, iż macierz zmiennych objaśniających tworzą odpowiednio zmienne takie jak (1) poziom pracy fabryki, (2) temperatura cieczy chłodzącej, (3) stężenia kwasu oraz (4) kolumnowy wektor o elementach równych jedności. W celu wyznaczenia macierzy odwrotnej i przeprowadzenia kolejnych działań, możemy posłużyć się np. pakietem obliczeniowym Microsoft Excel. Współczynniki regresji wynoszą b1 = 0,798, b2 = 0,577, b3 = -0,067 i b0 = -37,652. Zatem, ogólna postać równania regresji to: x = 0,798) + 0,577) ! − 0,067) … − 37,652 W odróżnieniu od regresji jednoparametrowej, model MLR możemy zobrazować przedstawiając na wykresie wartości przewidziane na podstawie modelu MLR względem wartości obserwowanych zmiennej zależnej. Linia na kolejnym rysunku nie jest linią regresji, a jedynie obrazuje sytuację, gdy reszty od skonstruowanego modelu MLR są równe zero. Z praktycznego punktu widzenia, oznacza to iż model idealnie opisuje badaną zależność i dlatego współczynnik kierunkowy jest równy jedności. 40 35 yi przewidziany 30 25 20 15 10 5 5 10 15 20 25 30 35 40 yi obserwowany Rysunek 14 Model MLR przedstawiony jako wartości przewidziane na podstawie modelu względem wartości obserwowanych zmiennej zależnej (linia czerwona opisuje sytuację, gdy reszty od modelu MLR wynoszą zero) 47 Tabela 6 Wartości czterech parametrów monitorowane podczas procesu produkcji kwasu azotowego, gdzie ‘straty amoniaku’ to zmienna zależna, a pozostałe trzy to zmienne objaśniające Lp. Straty amoniaku Poziom pracy fabryki Temperatura cieczy chłodzącej Stężenie kwasu 1 37 80 27 88 2 18 62 22 87 3 18 62 23 87 4 19 62 24 93 5 20 62 24 93 6 15 58 23 87 7 14 58 18 80 8 14 58 18 89 9 13 58 17 88 10 11 58 18 82 11 12 58 19 93 12 8 50 18 89 13 7 50 18 86 14 8 50 19 72 15 8 50 19 79 16 9 50 20 80 17 15 56 20 82 Dla skonstruowanego modelu MLR możemy określić jego średni błąd kwadratowy, RMSE, oraz wartość współczynnika determinacji, R2. Obliczmy podstawowe wartości takie jak reszty od modelu i ich kwadraty reszt, a także wyniki innych potrzebnych działań i przedstawiamy w poniższej tabeli. Uwzględniając wyniki poszczególnych działań, obliczamy średni błąd kwadratowy i współczynnik determinacji dla modelu MLR: ∑ RMSE = h ƒ! = 1 − ∑ ∑ −x −x −R ! ! ! =h =1− 20,4010 = 1,20 17 20,4010 = 0,9750 816,256 48 Tabela 7 Wyniki modelowania danych techniką MLR wraz z wybranymi wynikami działań Lp. x −R −R ! −x −x ! 1 37 35,85 22,5294 507,5744 1,1542 1,3322 2 18 18,67 3,5294 12,4567 -0,6678 0,4460 3 18 19,25 3,5294 12,4567 -1,2451 1,5503 4 19 19,42 4,5294 20,5156 -0,4198 0,1762 5 20 19,42 5,5294 30,5744 0,5802 0,3366 6 15 16,05 0,5294 0,2803 -1,0543 1,1115 7 14 13,64 -0,4706 0,2215 0,3625 0,1314 8 14 13,03 -0,4706 0,2215 0,9664 0,9339 9 13 12,52 -1,4706 2,1626 0,4766 0,2271 10 11 13,50 -3,4706 12,0450 -2,5033 6,2665 11 12 13,34 -2,4706 6,1038 -1,3425 1,8023 12 8 6,65 -6,4706 41,8685 1,3480 1,8171 13 7 6,85 -7,4706 55,8097 0,1467 0,0215 14 8 8,37 -6,4706 41,8685 -0,3700 0,1369 15 8 7,90 -6,4706 41,8685 0,0997 0,0099 16 9 8,41 -5,4706 29,9273 0,5895 0,3475 17 15 13,06 0,5294 0,2803 1,9375 3,7539 ∑ 246 245,94 0,00 816,253 0,0585 20,4010 Badanie siły liniowej zależności dwóch parametrów Biorąc pod uwagę dwie zmienne losowe, o tej samej liczbie elementów, możemy relatywnie szybko ocenić czy są one wzajemnie skorelowane, to znaczy, czy istnieje pomiędzy nimi liniowa zależność. Najprostszym sposobem jest wizualna ocena wzajemnej relacji, wykorzystując wykres punktowy, na którym naniesione są odpowiadające sobie wartości dla jednego i drugiego parametru. Im punkty są bliżej hipotetycznej prostej, a ich rozrzut jest mały i symetryczny, tym większa siła korelacji dwóch parametrów. Współczynnik korelacji, R, to parametr, który ilościowo ujmuje stopień korelacji. Przyjmuje on wartości z przedziału [-1, 1]. Jeśli współczynnik korelacji przyjmuje ujemne wartości bliskie -1, oznacza to, iż dwa parametry wykazują ujemną korelację. Wraz ze wzrostem wartości jednego parametru, wartości drugiego parametru maleją i vice versa. Dodatnie wartości współczynnika korelacji bliskie jedności dowodzą silnej dodatniej korelacji – wraz ze wzrostem wartości jednego parametru obserwujemy wzrost wartości drugiego. Wartość współczynnika korelacji równa zero świadczy o braku liniowej zależności pomiędzy parametrami. Oto graficzna prezentacja trzech przypadków par zmiennych, zawierających po 20 pomiarów każda i odpowiadające tym przypadkom wartości współczynników korelacji. Niebieska linia obrazuje idealną zależność dwóch parametrów. 49 30 20 28 18 26 16 24 14 22 12 30 25 20 18 parametr 2 parametr 2 parametr 2 20 10 8 15 10 16 6 14 4 12 2 10 10 0 10 5 12 14 16 18 20 22 24 26 28 30 12 14 parametr 1 16 18 20 22 24 26 28 0 10 30 12 14 parametr 1 16 18 20 22 24 26 28 30 parametr 1 Rysunek 15 Graficzna prezentacja dwóch zmiennych w formie projekcji wyników pomiarów na płaszczyznę zdefiniowaną przez wartości jednego i drugiego parametru. Wartości współczynników korelacji dla kolejnych trzech przypadków wynoszą odpowiednio: 0,9983 (silna korelacja dodatnia); -0,9983 (silna korelacja ujemna) i 0,0847 (brak korelacji) Współczynnik korelacji, r, definiuje się następująco: (= •$∑ ∑ $ ) − )̅ ) − )̅ ! %$∑ −R % − R !% Przykład 11 Obliczenie współczynnika korelacji Załóżmy, że intensywność fluorescencji i stężenie analitu z przykładu 8 to dwa parametry, oznaczone jako x i y, dla których obliczymy współczynnik korelacji. W tym celu przedstawmy w tabeli podstawowe działania, ułatwiające dalsze obliczenia. Tabela 8 Dane wraz z poszczególnymi działaniami dla danych z przykładu 8 ) − )̅ ) − )̅ 36 -11,0 121,00 5,0 -4 16 -8,1 65,61 32,4 4 9,0 -2 4 -4,1 16,81 8,2 4 5 12,6 0 0 -0,5 0,25 0 5 8 17,3 2 4 4,2 17,64 8,4 6 10 21,0 4 16 7,9 62,41 31,6 7 12 24,7 6 36 11,6 134,56 69,6 ∑ 42 91,7 0 112 0 418,28 216,2 Lp. xi yi 1 0 2,1 2 2 3 -6 ! −R −R ! ) − )̅ 66,0 −R 50 Wartość współczynnika korelacji dla tego przykładu wynosi: (= •$∑ ∑ $ ) − )̅ ) − )̅ ! %$∑ −R % − R !% = 216,2 √112 ∙ 418,28 = 0,9989 Oznacza to, iż dwa badane parametry wykazują silną dodatnią korelację. Stabilne warianty podstawowych estymatorów We wcześniejszej części opracowania zwróciliśmy uwagę, iż rolą każdego estymatora jest przybliżenie pewnej wielkości charakterystycznej opisującej całą populację na podstawie wyników uzyskanych poprzez losowe próbkowanie. Przykładem takiego estymatora najlepiej opisującego centralną tendencję rozkładu wyników może być średnia arytmetyczna. Analizując rozkład wyników, np. przy użyciu histogramu, średnia arytmetyczna pokrywa się z najbardziej prawdopodobnym wynikiem w przypadku gdy zmienna przyjmuje rozkład normalny. Zatem, dla rozkładu normalnego, średnia arytmetyczna jest najbardziej wiarygodnym estymatorem położenia rozkładu i jest bliska wartości oczekiwanej. W przypadku obecności tzw. obiektów odległych, czyli wyników znacznie różniących się od większości, średnia arytmetyczna nie jest wiarygodnym estymatorem. Co więcej, średnia arytmetyczna jako estymator nie nadaje się do estymowania położenia środka rozkładu już w sytuacji, gdy zbiór pomiarów zawiera nawet jeden obiekt odległy. W statystyce, definiuje się w przypadku estymatorów tzw. punkt załamania, mówiący o tym jaka część wyników może być obiektami odległymi bez wpływu na jakość estymacji. W przypadku klasycznych estymatorów, takich jak średnia arytmetyczna, odchylenie standardowe czy wariancja, punkt załamania tych estymatorów wynosi 0%. To znaczy, że jeden obiekt odległy tak silnie potrafi wpłynąć na wynik estymacji, że użycie tych estymatorów jest niemożliwe, gdyż prowadzi do mylnych wniosków. W odróżnieniu od klasycznego estymatora średniej arytmetycznej, mediana jest najprostszym stabilnym wariantem estymatora środka rozkładu. Jej punkt załamania jest maksymalny, to znaczy, iż przy 51% „dobrych wyników” dopuszczamy 49% wyników jako obiekty odległe, a wciąż estymacja środka rozkładu będzie wiarygodna. Stabilny wariant estymatora odchylenia standardowego można uzyskać zastępując klasyczny estymator średniej arytmetycznej stabilnym wariantem (medianą) w wyrażeniu na odchyłki od środka rozkładu (tzw. estymator MAD, którego klasyczny wariant przestawiliśmy wcześniej): /†‡ˆ = ‰ ∙ H + , | − H + , | 51 gdzie, c to stała wartość liczbowa wynosząca 1,4826, którą wprowadza się jako poprawkę w celu polepszenia sprawność estymatora. Sprawność stabilnego estymatora można postrzegać jako różnicę pomiędzy wynikiem uzyskanym dla klasycznego estymatora i estymatorem stabilnym dla danych o rozkładzie normalnym. Zakładając, iż klasyczny estymator jest najbardziej wiarygodny, gdy dane nie zawierają obiektów odległych, to sprawny estymator stabilny dla tego typu danych powinien dawać zbliżony wynik do estymatora klasycznego. 52 Literatura 1. K. Doerffel, Statystyka dla chemików analityków, WNT, Warszawa, 1989. 2. J.R. Taylor, Wstęp do analizy błędu pomiarowego, PWN, Warszawa, 2011. 3. D.L. Massart, B.G.M. Vandeginste, L.M.C. Buydens S. de Jong, P.J. Lewi, J. SmeyersVerbeke, Handbook of chemometrics and qualimetrics: part A, Elsevier, Amsterdam, The Netherlands, 1997. 4. S.D. Brown, R. Tauler, B. Walczak, Comprehensive Chemometrics, Elsevier, Amsterdam, 2009. 5. J.N. Miller, J.C. Miller, Statistics and chemometrics for analytical chemistry, Prentice Hall, London, 2010. 6. P.J. Rousseeuw, A.M. Leroy, Robust regression and outlier detection, John Wiley & Sons, New York, 1987 53 Dodatek: wybrane tablice statystyczne Tabela 9 Wartości funkcji gęstości prawdopodobieństwa dla unormowanego rozkładu normalnego zmiennej z w zakresie [-∞; z]: 5 = √!Š 8 89 ‹− Œ d5 ! z 0 0,01 0,02 0,03 0,04 0,05 0,06 0,07 0,08 0,09 0 0,50000 0,50399 0,50798 0,51197 0,51595 0,51994 0,52392 0,52790 0,53188 0,53586 0,1 0,53983 0,54380 0,54776 0,55172 0,55567 0,55962 0,56356 0,56749 0,57142 0,57535 0,2 0,57926 0,58317 0,58706 0,59095 0,59483 0,59871 0,60257 0,60642 0,61026 0,61409 0,3 0,61791 0,62172 0,62552 0,62930 0,63307 0,63683 0,64058 0,64431 0,64803 0,65173 0,4 0,65542 0,65910 0,66276 0,66640 0,67003 0,67364 0,67724 0,68082 0,68439 0,68793 0,5 0,69146 0,69497 0,69847 0,70194 0,70540 0,70884 0,71226 0,71566 0,71904 0,72240 0,6 0,72575 0,72907 0,73237 0,73565 0,73891 0,74215 0,74537 0,74857 0,75175 0,75490 0,7 0,75804 0,76115 0,76424 0,76730 0,77035 0,77337 0,77637 0,77935 0,78230 0,78524 0,8 0,78814 0,79103 0,79389 0,79673 0,79955 0,80234 0,80511 0,80785 0,81057 0,81327 0,9 0,81594 0,81859 0,82121 0,82381 0,82639 0,82894 0,83147 0,83398 0,83646 0,83891 1 0,84134 0,84375 0,84614 0,84849 0,85083 0,85314 0,85543 0,85769 0,85993 0,86214 1,1 0,86433 0,86650 0,86864 0,87076 0,87286 0,87493 0,87698 0,87900 0,88100 0,88298 1,2 0,88493 0,88686 0,88877 0,89065 0,89251 0,89435 0,89617 0,89796 0,89973 0,90147 1,3 0,90320 0,90490 0,90658 0,90824 0,90988 0,91149 0,91309 0,91466 0,91621 0,91774 1,4 0,91924 0,92073 0,92220 0,92364 0,92507 0,92647 0,92785 0,92922 0,93056 0,93189 1,5 0,93319 0,93448 0,93574 0,93699 0,93822 0,93943 0,94062 0,94179 0,94295 0,94408 1,6 0,94520 0,94630 0,94738 0,94845 0,94950 0,95053 0,95154 0,95254 0,95352 0,95449 1,7 0,95543 0,95637 0,95728 0,95818 0,95907 0,95994 0,96080 0,96164 0,96246 0,96327 1,8 0,96407 0,96485 0,96562 0,96638 0,96712 0,96784 0,96856 0,96926 0,96995 0,97062 1,9 0,97128 0,97193 0,97257 0,97320 0,97381 0,97441 0,97500 0,97558 0,97615 0,97670 2 0,97725 0,97778 0,97831 0,97882 0,97932 0,97982 0,98030 0,98077 0,98124 0,98169 54 Tabela 9 (cd.) z 0 0,01 0,02 0,03 0,04 0,05 0,06 0,07 0,08 0,09 2,1 0,98214 0,98257 0,98300 0,98341 0,98382 0,98422 0,98461 0,98500 0,98537 0,98574 2,2 0,98610 0,98645 0,98679 0,98713 0,98745 0,98778 0,98809 0,98840 0,98870 0,98899 2,3 0,98928 0,98956 0,98983 0,99010 0,99036 0,99061 0,99086 0,99111 0,99134 0,99158 2,4 0,99180 0,99202 0,99224 0,99245 0,99266 0,99286 0,99305 0,99324 0,99343 0,99361 2,5 0,99379 0,99396 0,99413 0,99430 0,99446 0,99461 0,99477 0,99492 0,99506 0,99520 2,6 0,99534 0,99547 0,99560 0,99573 0,99585 0,99598 0,99609 0,99621 0,99632 0,99643 2,7 0,99653 0,99664 0,99674 0,99683 0,99693 0,99702 0,99711 0,99720 0,99728 0,99736 2,8 0,99744 0,99752 0,99760 0,99767 0,99774 0,99781 0,99788 0,99795 0,99801 0,99807 2,9 0,99813 0,99819 0,99825 0,99831 0,99836 0,99841 0,99846 0,99851 0,99856 0,99861 3 0,99865 0,99869 0,99874 0,99878 0,99882 0,99886 0,99889 0,99893 0,99896 0,99900 3,1 0,99903 0,99906 0,99910 0,99913 0,99916 0,99918 0,99921 0,99924 0,99926 0,99929 3,2 0,99931 0,99934 0,99936 0,99938 0,99940 0,99942 0,99944 0,99946 0,99948 0,99950 3,3 0,99952 0,99953 0,99955 0,99957 0,99958 0,99960 0,99961 0,99962 0,99964 0,99965 3,4 0,99966 0,99968 0,99969 0,99970 0,99971 0,99972 0,99973 0,99974 0,99975 0,99976 3,5 0,99977 0,99978 0,99978 0,99979 0,99980 0,99981 0,99981 0,99982 0,99983 0,99983 3,6 0,99984 0,99985 0,99985 0,99986 0,99986 0,99987 0,99987 0,99988 0,99988 0,99989 3,7 0,99989 0,99990 0,99990 0,99990 0,99991 0,99991 0,99992 0,99992 0,99992 0,99992 3,8 0,99993 0,99993 0,99993 0,99994 0,99994 0,99994 0,99994 0,99995 0,99995 0,99995 3,9 0,99995 0,99995 0,99996 0,99996 0,99996 0,99996 0,99996 0,99996 0,99997 0,99997 55 Tabela 10 Wartości krytyczne dla rozkładu t dla k stopni swobody i poziomu istotności α = 0,05; 0,025; 0,01 i 0,005 (wartości krytyczne dla testu jednostronnego) 0,05 0,025 0,01 0,005 1 6,314 12,706 31,821 63,657 2 2,920 4,303 6,965 9,925 3 2,353 3,182 4,541 5,841 4 2,132 2,776 3,747 4,604 5 2,015 2,571 3,365 4,032 6 1,943 2,447 3,143 3,707 7 1,895 2,365 2,998 3,499 8 1,860 2,306 2,896 3,355 9 1,833 2,262 2,821 3,250 10 1,812 2,228 2,764 3,169 11 1,796 2,201 2,718 3,106 12 1,782 2,179 2,681 3,055 13 1,771 2,160 2,650 3,012 14 1,761 2,145 2,624 2,977 15 1,753 2,131 2,602 2,947 16 1,746 2,120 2,583 2,921 17 1,740 2,110 2,567 2,898 18 1,734 2,101 2,552 2,878 19 1,729 2,093 2,539 2,861 20 1,725 2,086 2,528 2,845 21 1,721 2,080 2,518 2,831 22 1,717 2,074 2,508 2,819 23 1,714 2,069 2,500 2,807 24 1,711 2,064 2,492 2,797 25 1,708 2,060 2,485 2,787 30 1,697 2,042 2,457 2,750 40 1,684 2,021 2,423 2,704 50 1,676 2,009 2,403 2,678 60 1,671 2,000 2,390 2,660 70 1,667 1,994 2,381 2,648 80 1,664 1,990 2,374 2,639 90 1,662 1,987 2,368 2,632 100 1,660 1,984 2,364 2,626 ∞ 1,645 1,960 2,330 2,576 56 Tabela 11 Wartości krytyczne dla rozkładu chi kwadrat dla k stopni swobody i poziomu istotności α = 0,05; 0,025; 0,01 i 0,005 (wartości krytyczne dla testu jednostronnego) 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 30 40 50 60 70 80 90 100 0,05 0,004 0,103 0,352 0,711 1,145 1,635 2,167 2,733 3,325 3,940 4,575 5,226 5,892 6,571 7,261 7,962 8,672 9,390 10,117 10,851 11,591 12,338 13,091 13,848 14,611 18,493 26,509 34,764 43,188 51,739 60,391 69,126 77,929 0,025 0,001 0,051 0,216 0,484 0,831 1,237 1,690 2,180 2,700 3,247 3,816 4,404 5,009 5,629 6,262 6,908 7,564 8,231 8,907 9,591 10,283 10,982 11,689 12,401 13,120 16,791 24,433 32,357 40,482 48,758 57,153 65,647 74,222 0,01 0,000 0,020 0,115 0,297 0,554 0,872 1,239 1,646 2,088 2,558 3,053 3,571 4,107 4,660 5,229 5,812 6,408 7,015 7,633 8,260 8,897 9,542 10,196 10,856 11,524 14,953 22,164 29,707 37,485 45,442 53,540 61,754 70,065 0,005 0,000 0,010 0,072 0,207 0,412 0,676 0,989 1,344 1,735 2,156 2,603 3,074 3,565 4,075 4,601 5,142 5,697 6,265 6,844 7,434 8,034 8,643 9,260 9,886 10,520 13,787 20,707 27,991 35,534 43,275 51,172 59,196 67,328 57 Tabela 12 Wartości krytyczne rozkładu F dla poziomu istotności α = 0,05 (wartości krytyczne dla testu jednostronnego) 1 2 3 4 5 6 7 8 9 10 15 20 25 30 40 50 60 70 80 90 100 ∞ 1 161,45 199,50 215,71 224,58 230,16 233,99 236,77 238,88 240,54 241,88 245,95 248,01 249,26 250,10 251,14 251,77 252,20 252,50 252,72 252,90 253,04 254,31 2 18,51 19,00 19,16 19,25 19,30 19,33 19,35 19,37 19,38 19,40 19,43 19,45 19,46 19,46 19,47 19,48 19,48 19,48 19,48 19,48 19,49 19,50 3 10,13 9,55 9,28 9,12 9,01 8,94 8,89 8,85 8,81 8,79 8,70 8,66 8,63 8,62 8,59 8,58 8,57 8,57 8,56 8,56 8,55 8,53 4 7,71 6,94 6,59 6,39 6,26 6,16 6,09 6,04 6,00 5,96 5,86 5,80 5,77 5,75 5,72 5,70 5,69 5,68 5,67 5,67 5,66 5,63 5 6,61 5,79 5,41 5,19 5,05 4,95 4,88 4,82 4,77 4,74 4,62 4,56 4,52 4,50 4,46 4,44 4,43 4,42 4,41 4,41 4,41 4,37 6 5,99 5,14 4,76 4,53 4,39 4,28 4,21 4,15 4,10 4,06 3,94 3,87 3,83 3,81 3,77 3,75 3,74 3,73 3,72 3,72 3,71 3,67 7 5,59 4,74 4,35 4,12 3,97 3,87 3,79 3,73 3,68 3,64 3,51 3,44 3,40 3,38 3,34 3,32 3,30 3,29 3,29 3,28 3,27 3,23 8 5,32 4,46 4,07 3,84 3,69 3,58 3,50 3,44 3,39 3,35 3,22 3,15 3,11 3,08 3,04 3,02 3,01 2,99 2,99 2,98 2,97 2,93 9 5,12 4,26 3,86 3,63 3,48 3,37 3,29 3,23 3,18 3,14 3,01 2,94 2,89 2,86 2,83 2,80 2,79 2,78 2,77 2,76 2,76 2,71 10 4,96 4,10 3,71 3,48 3,33 3,22 3,14 3,07 3,02 2,98 2,85 2,77 2,73 2,70 2,66 2,64 2,62 2,61 2,60 2,59 2,59 2,54 15 4,54 3,68 3,29 3,06 2,90 2,79 2,71 2,64 2,59 2,54 2,40 2,33 2,28 2,25 2,20 2,18 2,16 2,15 2,14 2,13 2,12 2,07 20 4,35 3,49 3,10 2,87 2,71 2,60 2,51 2,45 2,39 2,35 2,20 2,12 2,07 2,04 1,99 1,97 1,95 1,93 1,92 1,91 1,91 1,84 25 4,24 3,39 2,99 2,76 2,60 2,49 2,40 2,34 2,28 2,24 2,09 2,01 1,96 1,92 1,87 1,84 1,82 1,81 1,80 1,79 1,78 1,71 30 4,17 3,32 2,92 2,69 2,53 2,42 2,33 2,27 2,21 2,16 2,01 1,93 1,88 1,84 1,79 1,76 1,74 1,72 1,71 1,70 1,70 1,62 40 4,08 3,23 2,84 2,61 2,45 2,34 2,25 2,18 2,12 2,08 1,92 1,84 1,78 1,74 1,69 1,66 1,64 1,62 1,61 1,60 1,59 1,51 50 4,03 3,18 2,79 2,56 2,40 2,29 2,20 2,13 2,07 2,03 1,87 1,78 1,73 1,69 1,63 1,60 1,58 1,56 1,54 1,53 1,52 1,44 60 4,00 3,15 2,76 2,53 2,37 2,25 2,17 2,10 2,04 1,99 1,84 1,75 1,69 1,65 1,59 1,56 1,53 1,52 1,50 1,49 1,48 1,39 70 3,98 3,13 2,74 2,50 2,35 2,23 2,14 2,07 2,02 1,97 1,81 1,72 1,66 1,62 1,57 1,53 1,50 1,49 1,47 1,46 1,45 1,35 80 3,96 3,11 2,72 2,49 2,33 2,21 2,13 2,06 2,00 1,95 1,79 1,70 1,64 1,60 1,54 1,51 1,48 1,46 1,45 1,44 1,43 1,32 90 3,95 3,10 2,71 2,47 2,32 2,20 2,11 2,04 1,99 1,94 1,78 1,69 1,63 1,59 1,53 1,49 1,46 1,44 1,43 1,42 1,41 1,30 100 3,94 3,09 2,70 2,46 2,31 2,19 2,10 2,03 1,97 1,93 1,77 1,68 1,62 1,57 1,52 1,48 1,45 1,43 1,41 1,40 1,39 1,28 ∞ 3,84 3,00 2,60 2,37 2,21 2,10 2,01 1,94 1,88 1,83 1,67 1,57 1,51 1,46 1,39 1,35 1,32 1,29 1,27 1,26 1,24 1,00 Tabela 13 Wartości krytyczne rozkładu F dla poziomu istotności α = 0,025 (wartości krytyczne dla testu jednostronnego) 1 2 3 4 5 6 7 8 9 10 15 20 25 30 40 50 60 70 80 90 100 ∞ 1 647,79 799,50 864,16 899,58 921,85 937,11 948,22 956,66 963,28 968,63 984,87 993,10 998,08 1001,41 1005,60 1008,12 1009,80 1011,00 1011,91 1012,61 1013,17 1018,26 2 38,51 39,00 39,17 39,25 39,30 39,33 39,36 39,37 39,39 39,40 39,43 39,45 39,46 39,46 39,47 39,48 39,48 39,48 39,49 39,49 39,49 39,50 3 17,44 16,04 15,44 15,10 14,88 14,73 14,62 14,54 14,47 14,42 14,25 14,17 14,12 14,08 14,04 14,01 13,99 13,98 13,97 13,96 13,96 13,90 4 12,22 10,65 9,98 9,60 9,36 9,20 9,07 8,98 8,90 8,84 8,66 8,56 8,50 8,46 8,41 8,38 8,36 8,35 8,33 8,33 8,32 8,26 5 10,01 8,43 7,76 7,39 7,15 6,98 6,85 6,76 6,68 6,62 6,43 6,33 6,27 6,23 6,18 6,14 6,12 6,11 6,10 6,09 6,08 6,02 6 8,81 7,26 6,60 6,23 5,99 5,82 5,70 5,60 5,52 5,46 5,27 5,17 5,11 5,07 5,01 4,98 4,96 4,94 4,93 4,92 4,92 4,85 7 8,07 6,54 5,89 5,52 5,29 5,12 4,99 4,90 4,82 4,76 4,57 4,47 4,40 4,36 4,31 4,28 4,25 4,24 4,23 4,22 4,21 4,14 8 7,57 6,06 5,42 5,05 4,82 4,65 4,53 4,43 4,36 4,30 4,10 4,00 3,94 3,89 3,84 3,81 3,78 3,77 3,76 3,75 3,74 3,67 9 7,21 5,71 5,08 4,72 4,48 4,32 4,20 4,10 4,03 3,96 3,77 3,67 3,60 3,56 3,51 3,47 3,45 3,43 3,42 3,41 3,40 3,33 10 6,94 5,46 4,83 4,47 4,24 4,07 3,95 3,85 3,78 3,72 3,52 3,42 3,35 3,31 3,26 3,22 3,20 3,18 3,17 3,16 3,15 3,08 15 6,20 4,77 4,15 3,80 3,58 3,41 3,29 3,20 3,12 3,06 2,86 2,76 2,69 2,64 2,59 2,55 2,52 2,51 2,49 2,48 2,47 2,40 20 5,87 4,46 3,86 3,51 3,29 3,13 3,01 2,91 2,84 2,77 2,57 2,46 2,40 2,35 2,29 2,25 2,22 2,20 2,19 2,18 2,17 2,09 25 5,69 4,29 3,69 3,35 3,13 2,97 2,85 2,75 2,68 2,61 2,41 2,30 2,23 2,18 2,12 2,08 2,05 2,03 2,02 2,01 2,00 1,91 30 5,57 4,18 3,59 3,25 3,03 2,87 2,75 2,65 2,57 2,51 2,31 2,20 2,12 2,07 2,01 1,97 1,94 1,92 1,90 1,89 1,88 1,79 40 5,42 4,05 3,46 3,13 2,90 2,74 2,62 2,53 2,45 2,39 2,18 2,07 1,99 1,94 1,88 1,83 1,80 1,78 1,76 1,75 1,74 1,64 50 5,34 3,97 3,39 3,05 2,83 2,67 2,55 2,46 2,38 2,32 2,11 1,99 1,92 1,87 1,80 1,75 1,72 1,70 1,68 1,67 1,66 1,55 60 5,29 3,93 3,34 3,01 2,79 2,63 2,51 2,41 2,33 2,27 2,06 1,94 1,87 1,82 1,74 1,70 1,67 1,64 1,63 1,61 1,60 1,48 70 5,25 3,89 3,31 2,97 2,75 2,59 2,47 2,38 2,30 2,24 2,03 1,91 1,83 1,78 1,71 1,66 1,63 1,60 1,59 1,57 1,56 1,44 80 5,22 3,86 3,28 2,95 2,73 2,57 2,45 2,35 2,28 2,21 2,00 1,88 1,81 1,75 1,68 1,63 1,60 1,57 1,55 1,54 1,53 1,40 90 5,20 3,84 3,26 2,93 2,71 2,55 2,43 2,34 2,26 2,19 1,98 1,86 1,79 1,73 1,66 1,61 1,58 1,55 1,53 1,52 1,50 1,37 100 5,18 3,83 3,25 2,92 2,70 2,54 2,42 2,32 2,24 2,18 1,97 1,85 1,77 1,71 1,64 1,59 1,56 1,53 1,51 1,50 1,48 1,35 ∞ 5,02 3,69 3,12 2,79 2,57 2,41 2,29 2,19 2,11 2,05 1,83 1,71 1,63 1,57 1,48 1,43 1,39 1,36 1,33 1,31 1,30 1,00 59 Tabela 14 Wartości krytyczne rozkładu F dla poziomu istotności α = 0,01 (wartości krytyczne dla testu jednostronnego) 1 2 3 4 5 6 7 8 9 10 15 20 25 30 40 50 60 70 80 90 100 ∞ 1 4052,18 4999,50 5403,35 5624,58 5763,65 5858,99 5928,36 5981,07 6022,47 6055,85 6157,28 6208,73 6239,83 6260,65 6286,78 6302,52 6313,03 6320,55 6326,20 6330,59 6334,11 6365,86 2 98,50 99,00 99,17 99,25 99,30 99,33 99,36 99,37 99,39 99,40 99,43 99,45 99,46 99,47 99,47 99,48 99,48 99,48 99,49 99,49 99,49 99,50 3 34,12 30,82 29,46 28,71 28,24 27,91 27,67 27,49 27,35 27,23 26,87 26,69 26,58 26,50 26,41 26,35 26,32 26,29 26,27 26,25 26,24 26,13 4 21,20 18,00 16,69 15,98 15,52 15,21 14,98 14,80 14,66 14,55 14,20 14,02 13,91 13,84 13,75 13,69 13,65 13,63 13,61 13,59 13,58 13,46 5 16,26 13,27 12,06 11,39 10,97 10,67 10,46 10,29 10,16 10,05 9,72 9,55 9,45 9,38 9,29 9,24 9,20 9,18 9,16 9,14 9,13 9,02 6 13,75 10,92 9,78 9,15 8,75 8,47 8,26 8,10 7,98 7,87 7,56 7,40 7,30 7,23 7,14 7,09 7,06 7,03 7,01 7,00 6,99 6,88 7 12,25 9,55 8,45 7,85 7,46 7,19 6,99 6,84 6,72 6,62 6,31 6,16 6,06 5,99 5,91 5,86 5,82 5,80 5,78 5,77 5,75 5,65 8 11,26 8,65 7,59 7,01 6,63 6,37 6,18 6,03 5,91 5,81 5,52 5,36 5,26 5,20 5,12 5,07 5,03 5,01 4,99 4,97 4,96 4,86 9 10,56 8,02 6,99 6,42 6,06 5,80 5,61 5,47 5,35 5,26 4,96 4,81 4,71 4,65 4,57 4,52 4,48 4,46 4,44 4,43 4,41 4,31 10 10,04 7,56 6,55 5,99 5,64 5,39 5,20 5,06 4,94 4,85 4,56 4,41 4,31 4,25 4,17 4,12 4,08 4,06 4,04 4,03 4,01 3,91 15 8,68 6,36 5,42 4,89 4,56 4,32 4,14 4,00 3,89 3,80 3,52 3,37 3,28 3,21 3,13 3,08 3,05 3,02 3,00 2,99 2,98 2,87 20 8,10 5,85 4,94 4,43 4,10 3,87 3,70 3,56 3,46 3,37 3,09 2,94 2,84 2,78 2,69 2,64 2,61 2,58 2,56 2,55 2,54 2,42 25 7,77 5,57 4,68 4,18 3,85 3,63 3,46 3,32 3,22 3,13 2,85 2,70 2,60 2,54 2,45 2,40 2,36 2,34 2,32 2,30 2,29 2,17 30 7,56 5,39 4,51 4,02 3,70 3,47 3,30 3,17 3,07 2,98 2,70 2,55 2,45 2,39 2,30 2,25 2,21 2,18 2,16 2,14 2,13 2,01 40 7,31 5,18 4,31 3,83 3,51 3,29 3,12 2,99 2,89 2,80 2,52 2,37 2,27 2,20 2,11 2,06 2,02 1,99 1,97 1,95 1,94 1,80 50 7,17 5,06 4,20 3,72 3,41 3,19 3,02 2,89 2,78 2,70 2,42 2,27 2,17 2,10 2,01 1,95 1,91 1,88 1,86 1,84 1,82 1,68 60 7,08 4,98 4,13 3,65 3,34 3,12 2,95 2,82 2,72 2,63 2,35 2,20 2,10 2,03 1,94 1,88 1,84 1,81 1,78 1,76 1,75 1,60 70 7,01 4,92 4,07 3,60 3,29 3,07 2,91 2,78 2,67 2,59 2,31 2,15 2,05 1,98 1,89 1,83 1,78 1,75 1,73 1,71 1,70 1,54 80 6,96 4,88 4,04 3,56 3,26 3,04 2,87 2,74 2,64 2,55 2,27 2,12 2,01 1,94 1,85 1,79 1,75 1,71 1,69 1,67 1,65 1,49 90 6,93 4,85 4,01 3,53 3,23 3,01 2,84 2,72 2,61 2,52 2,24 2,09 1,99 1,92 1,82 1,76 1,72 1,68 1,66 1,64 1,62 1,46 100 6,90 4,82 3,98 3,51 3,21 2,99 2,82 2,69 2,59 2,50 2,22 2,07 1,97 1,89 1,80 1,74 1,69 1,66 1,63 1,61 1,60 1,43 ∞ 6,63 4,61 3,78 3,32 3,02 2,80 2,64 2,51 2,41 2,32 2,04 1,88 1,77 1,70 1,59 1,52 1,47 1,43 1,40 1,38 1,36 1,00 60 Tabela 15 Wartości krytyczne rozkładu F dla poziomu istotności α = 0,005 (wartości krytyczne dla testu jednostronnego) 1 2 3 4 5 6 7 8 9 10 15 20 25 30 40 50 60 70 100 ∞ 1 16210,72 19999,50 21614,74 22499,58 23055,80 23437,11 23714,57 23925,41 24091,00 24224,49 24630,21 24835,97 24960,34 25043,63 25148,15 25211,09 25253,14 25283,22 25337,45 25464,44 2 198,50 199,00 199,17 199,25 199,30 199,33 199,36 199,37 199,39 199,40 199,43 199,45 199,46 199,47 199,47 199,48 199,48 199,49 199,49 199,50 3 55,55 49,80 47,47 46,19 45,39 44,84 44,43 44,13 43,88 43,69 43,08 42,78 42,59 42,47 42,31 42,21 42,15 42,10 42,02 41,83 4 31,33 26,28 24,26 23,15 22,46 21,97 21,62 21,35 21,14 20,97 20,44 20,17 20,00 19,89 19,75 19,67 19,61 19,57 19,50 19,32 5 22,78 18,31 16,53 15,56 14,94 14,51 14,20 13,96 13,77 13,62 13,15 12,90 12,76 12,66 12,53 12,45 12,40 12,37 12,30 12,14 6 18,63 14,54 12,92 12,03 11,46 11,07 10,79 10,57 10,39 10,25 9,81 9,59 9,45 9,36 9,24 9,17 9,12 9,09 9,03 8,88 7 16,24 12,40 10,88 10,05 9,52 9,16 8,89 8,68 8,51 8,38 7,97 7,75 7,62 7,53 7,42 7,35 7,31 7,28 7,22 7,08 8 14,69 11,04 9,60 8,81 8,30 7,95 7,69 7,50 7,34 7,21 6,81 6,61 6,48 6,40 6,29 6,22 6,18 6,15 6,09 5,95 9 13,61 10,11 8,72 7,96 7,47 7,13 6,88 6,69 6,54 6,42 6,03 5,83 5,71 5,62 5,52 5,45 5,41 5,38 5,32 5,19 10 12,83 9,43 8,08 7,34 6,87 6,54 6,30 6,12 5,97 5,85 5,47 5,27 5,15 5,07 4,97 4,90 4,86 4,83 4,77 4,64 15 10,80 7,70 6,48 5,80 5,37 5,07 4,85 4,67 4,54 4,42 4,07 3,88 3,77 3,69 3,58 3,52 3,48 3,45 3,39 3,26 20 9,94 6,99 5,82 5,17 4,76 4,47 4,26 4,09 3,96 3,85 3,50 3,32 3,20 3,12 3,02 2,96 2,92 2,88 2,83 2,69 25 9,48 6,60 5,46 4,84 4,43 4,15 3,94 3,78 3,64 3,54 3,20 3,01 2,90 2,82 2,72 2,65 2,61 2,58 2,52 2,38 30 9,18 6,35 5,24 4,62 4,23 3,95 3,74 3,58 3,45 3,34 3,01 2,82 2,71 2,63 2,52 2,46 2,42 2,38 2,32 2,18 40 8,83 6,07 4,98 4,37 3,99 3,71 3,51 3,35 3,22 3,12 2,78 2,60 2,48 2,40 2,30 2,23 2,18 2,15 2,09 1,93 50 8,63 5,90 4,83 4,23 3,85 3,58 3,38 3,22 3,09 2,99 2,65 2,47 2,35 2,27 2,16 2,10 2,05 2,02 1,95 1,79 60 8,49 5,79 4,73 4,14 3,76 3,49 3,29 3,13 3,01 2,90 2,57 2,39 2,27 2,19 2,08 2,01 1,96 1,93 1,86 1,69 70 8,40 5,72 4,66 4,08 3,70 3,43 3,23 3,08 2,95 2,85 2,51 2,33 2,21 2,13 2,02 1,95 1,90 1,86 1,80 1,62 100 8,24 5,59 4,54 3,96 3,59 3,33 3,13 2,97 2,85 2,74 2,41 2,23 2,11 2,02 1,91 1,84 1,79 1,75 1,68 1,49 ∞ 7,88 5,30 4,28 3,72 3,35 3,09 2,90 2,74 2,62 2,52 2,19 2,00 1,88 1,79 1,67 1,59 1,53 1,49 1,40 1,01 61