(Wspó³czynnik korelacji Pearsona,Kendala,Spearmana)

Transkrypt

(Wspó³czynnik korelacji Pearsona,Kendala,Spearmana)
Współczynnik korelacji Pearsona:
rxy =
cov( x, y )
=
sx s y
1 n
∑ ( xi − x )( yi − y )
n i=1
1 n
1 n
2
(
x
−
x
)
∑ i
∑ ( yi − y ) 2
n i=1
n i=1
gdzie:
n- liczebność próby,
cov(x,y)- kowariancja (współzmienność pomiędzy x i y),
sx, sy, - odchylenia standardowe zmiennej x i .
Interpretacja:
Mówi o sile (wartość) i kierunku (znak) zależności pomiędzy dwoma cechami, np. rxy=0.9
świadczy o silnej, dodatniej korelacji (zależności, związku) pomiędzy x i y.
Właściwości:
- korelacja pomiędzy dwoma cechami ilościowymi,
- tylko dla zależności liniowych,
- korelacja ujemna i dodatnia (od-1 do 1):
- "+":cechy zmieniają się jednokierunkowo: wzrostowi (spadkowi) wartości x
towarzyszy wzrost (spadek) wartości y,
- "-": cechy zmieniają się dwukierunkowo: wzrostowi (spadkowi) wartości x
towarzyszy spadek (wzrost) wartości y.
Współczynnik korelacji cząstkowa Kendalla
Dla 3 cech: x1, x1, x1 mamy:
r12.3 =
r13.2 =
r23.1 =
r12 − r13r23
(1 − r132 )(1 − r232 )
r13 − r12 r23
(1 − r122 )(1 − r232 )
r23 − r12 r13
(1 − r122 )(1 − r132 )
gdzie: rij – współczynnik korelacji Pearsona pomiędzy i-tą i j-tą zmienną.
Interpretacja:
r12.3=0.9 oznacza, że istnieje silna, dodatnia korelacja (zależność) pomiędzy zmienną 1 i 2, po
wyeliminowaniu wpływu zmiennej 3.
Właściwości:
- pomiędzy dwoma cechami (zmiennymi) ilościowymi, lecz gdy wpływ innych chcemy
odseparować,
- korelacje różnego rzędu:
- np. rz I: dla 3 zmiennych z wyłączeniem oddziaływania jednej z nich,
- rz II: dla 4 zmiennych z wyłącznieniem oddziaływania dwóch z nich,
- rz "n": dla n+2 zmiennych z wyłączeniem oddziaływania "n" z nich,
- korelacja ujemna i dodatnia (od -1 do 1) jak w przypadku Pearsona.
Współczynnik korelacji wielorakiej (pierwiastek ze współczynnika determinacji):
R y . x1, x 2, x 3,..., xk = 1 −
det D
det R
gdzie:
D- macierz korelacji pomiędzy wszystkimi zmiennymi (objaśniającymi x i objaśnianą y):
 1
r
 x1. y
D = rx 2. y

 ...
 rxk . y

ry . x1
ryx 2
1
rx1x 2
rx 2. x1
1
...
...
rxk . x1
rxk . x 2
ry. xk 
... rx1. xk 
... rx 2. xk 

1
... 
...
1 
...
R- macierz korelacji pomiędzy zmiennymi objaśniającymi (x)
Interpretacja:
Zazwyczaj interpretacji podlega kwadrat R zwany współczynnikiem determinacji R2. Np.
jeżeli R=0.9, to R2=0,81, co oznacza, że zmienność zm. zależnej (y) została w 81%
wyjaśniona zmiennością zm. niezależnych (x-ami) , a mówiąc prościej, że model w 81 %
opisuje dopasowanie modelu do danych.
Właściwości:
- pomiędzy wieloma cechami (zmiennymi) ilościowymi,
- wartości z przedziału (0;1):
- im bliżej 1 tym związek pomiędzy y a x-ami jest silniejszy,
- im bliżej 0 tym związek pomiędzy y a x-ami słabszy,
- podniesiony do kwadratu daje współczynnik determinacji.
Współczynnik korelacji rang Spearmana:
n
rS = 1 −
6∑ d i2
i =1
3
n −n
gdzie:
di – dystans (różnica) pomiędzy rangami, tzn. różnica pomiędzy rangami cechy x i y.
Interpretacja:
- gdy korelacja rang jest doskonała, to Σdi2=0 oraz rS=+1, co oznacza pełną zgodność
uporządkowań,
- gdy korelacja rang jest przeciwna, to Σdi2=(n3-n)/3 oraz rS=-1, co oznacza pełną
przeciwstawność uporządkowań,
- rS=0 otrzymujemy brak zgodności uporządkowań.
Właściwości:
- pomiędzy dwoma cechami (zmiennymi) jakościowymi,
- zmiennym przypisuje się rangi zgodnie z intensywnością występowania danej cechy,
- jest to wsp. korelacji Pearsona, tylko dla rang prościej się go liczy.

Podobne dokumenty