(Wspó³czynnik korelacji Pearsona,Kendala,Spearmana)
Transkrypt
(Wspó³czynnik korelacji Pearsona,Kendala,Spearmana)
Współczynnik korelacji Pearsona: rxy = cov( x, y ) = sx s y 1 n ∑ ( xi − x )( yi − y ) n i=1 1 n 1 n 2 ( x − x ) ∑ i ∑ ( yi − y ) 2 n i=1 n i=1 gdzie: n- liczebność próby, cov(x,y)- kowariancja (współzmienność pomiędzy x i y), sx, sy, - odchylenia standardowe zmiennej x i . Interpretacja: Mówi o sile (wartość) i kierunku (znak) zależności pomiędzy dwoma cechami, np. rxy=0.9 świadczy o silnej, dodatniej korelacji (zależności, związku) pomiędzy x i y. Właściwości: - korelacja pomiędzy dwoma cechami ilościowymi, - tylko dla zależności liniowych, - korelacja ujemna i dodatnia (od-1 do 1): - "+":cechy zmieniają się jednokierunkowo: wzrostowi (spadkowi) wartości x towarzyszy wzrost (spadek) wartości y, - "-": cechy zmieniają się dwukierunkowo: wzrostowi (spadkowi) wartości x towarzyszy spadek (wzrost) wartości y. Współczynnik korelacji cząstkowa Kendalla Dla 3 cech: x1, x1, x1 mamy: r12.3 = r13.2 = r23.1 = r12 − r13r23 (1 − r132 )(1 − r232 ) r13 − r12 r23 (1 − r122 )(1 − r232 ) r23 − r12 r13 (1 − r122 )(1 − r132 ) gdzie: rij – współczynnik korelacji Pearsona pomiędzy i-tą i j-tą zmienną. Interpretacja: r12.3=0.9 oznacza, że istnieje silna, dodatnia korelacja (zależność) pomiędzy zmienną 1 i 2, po wyeliminowaniu wpływu zmiennej 3. Właściwości: - pomiędzy dwoma cechami (zmiennymi) ilościowymi, lecz gdy wpływ innych chcemy odseparować, - korelacje różnego rzędu: - np. rz I: dla 3 zmiennych z wyłączeniem oddziaływania jednej z nich, - rz II: dla 4 zmiennych z wyłącznieniem oddziaływania dwóch z nich, - rz "n": dla n+2 zmiennych z wyłączeniem oddziaływania "n" z nich, - korelacja ujemna i dodatnia (od -1 do 1) jak w przypadku Pearsona. Współczynnik korelacji wielorakiej (pierwiastek ze współczynnika determinacji): R y . x1, x 2, x 3,..., xk = 1 − det D det R gdzie: D- macierz korelacji pomiędzy wszystkimi zmiennymi (objaśniającymi x i objaśnianą y): 1 r x1. y D = rx 2. y ... rxk . y ry . x1 ryx 2 1 rx1x 2 rx 2. x1 1 ... ... rxk . x1 rxk . x 2 ry. xk ... rx1. xk ... rx 2. xk 1 ... ... 1 ... R- macierz korelacji pomiędzy zmiennymi objaśniającymi (x) Interpretacja: Zazwyczaj interpretacji podlega kwadrat R zwany współczynnikiem determinacji R2. Np. jeżeli R=0.9, to R2=0,81, co oznacza, że zmienność zm. zależnej (y) została w 81% wyjaśniona zmiennością zm. niezależnych (x-ami) , a mówiąc prościej, że model w 81 % opisuje dopasowanie modelu do danych. Właściwości: - pomiędzy wieloma cechami (zmiennymi) ilościowymi, - wartości z przedziału (0;1): - im bliżej 1 tym związek pomiędzy y a x-ami jest silniejszy, - im bliżej 0 tym związek pomiędzy y a x-ami słabszy, - podniesiony do kwadratu daje współczynnik determinacji. Współczynnik korelacji rang Spearmana: n rS = 1 − 6∑ d i2 i =1 3 n −n gdzie: di – dystans (różnica) pomiędzy rangami, tzn. różnica pomiędzy rangami cechy x i y. Interpretacja: - gdy korelacja rang jest doskonała, to Σdi2=0 oraz rS=+1, co oznacza pełną zgodność uporządkowań, - gdy korelacja rang jest przeciwna, to Σdi2=(n3-n)/3 oraz rS=-1, co oznacza pełną przeciwstawność uporządkowań, - rS=0 otrzymujemy brak zgodności uporządkowań. Właściwości: - pomiędzy dwoma cechami (zmiennymi) jakościowymi, - zmiennym przypisuje się rangi zgodnie z intensywnością występowania danej cechy, - jest to wsp. korelacji Pearsona, tylko dla rang prościej się go liczy.