Tag Archive for korelacja

Korelacja

Korelacja to miara współwystępowania dwóch zmiennych. Mimo, iż stwierdzenie „miara związku między zmiennymi” brzmi bardzo naukowo i poważnie, tak naprawdę z korelacją w naszym codziennym życiu mamy do czynienia częściej niż nam się wydaje. Któż z nas bowiem, nie słyszał narzekań typu: „kiedy wychodzi się z domu bez parasola, to zaraz zaczyna padać deszcz”? Takie współwystępowanie dwóch zmiennych: brak parasola- opad deszczu to właśnie jest korelacja. Innym książkowym przykładem obrazującym współczynnik korelacji jest stwierdzenie: „im ktoś jest wyższy, tym więcej waży”.  Oczywiście, już na pierwszy rzut oka, można zauważyć, iż w obu przywołanych przykładach mamy do czynienia z odmienną skalą pomiarową, na której są mierzone zmienne.  W pierwszym przypadku (brak parasola- opad deszczu) odwołujemy się do zmiennych nominalnych, w przypadku wagi i wzrostu zmienne są mierzone na skali ilościowej. Dobór współczynnika korelacji zależy właśnie od tego na jakiej skali pomiarowej mierzone są analizowane zmienne.

Najczęściej wykorzystywaną miarą określająca współwystępowanie dwóch zmiennych jest  współczynnik korelacji r- Pearsona. Za pomocą owego współczynnika jesteśmy w stanie określić korelację pomiędzy zmiennymi mierzonymi na skali ilościowej.  To właśnie za pomocą współczynnika r- Pearsona możemy zweryfikować stwierdzenie: „im ktoś jest wyższy, tym więcej waży”. Korelację r- Pearsona interpretujemy za pomocą dwóch wymiarów: siły i kierunku związku. Siła związku określa nam stopień istniejącej współzmienności. Współczynnik korelacji może przyjmować wartości od -1 do 1. Jeśli wartość współczynnika zbliża się do 1 lub -1, to mamy do czynienia z silną zależnością. Natomiast korelacja poniżej 0,3 uznawana jest za bardzo słabą lub w ogóle nie istniejącą. Kierunek korelacji informuje nas zaś o tym, w jaki sposób wartości jednej zmiennej są uporządkowane względem wartości drugiej zmiennej.  Możemy mieć do czynienia z korelacją dodatnią- wraz ze wzrostem wartości jednej zmiennej wzrastają wartości drugiej zmiennej, z korelacją ujemną – wraz ze wzrostem wartości jednej zmiennej maleją wartości drugiej zmiennej lub z korelacją równą 0 – brak związku liniowego między analizowanymi zmiennymi.

Oprócz współczynnika r- Pearsona istnieją jeszcze inne miary związku między zmiennymi dostosowane do skal pomiarowych, na których mierzone są analizowane zmienne. W przypadku skal porządkowych zastosujemy współczynnik korelacji tau – Kendalla oraz rho- Spearmana. Interpretacja tych dwóch współczynników jest identyczna jak w przypadku korelacji r- Pearsona. Wielkość współczynnika, który może przyjmować wartość  od -1 do 1, informuje nas o sile związku, a kierunek mówi w jaki sposób wartości jednej zmiennej są uporządkowane względem drugiej.

Nieco inaczej sytuacja wygląda w przypadku zmiennych nominalnych. Określając współwystępowanie zmiennych nominalnych możemy zastosować albo statystykę Phi (zmienne dwukategorialne) albo statystykę V Cramera (zmienne o większej liczbie kategorii). O ile wartość współczynnika Phi, podobnie jak pozostałych współczynników korelacji może zawierać się w przedziale od -1 do 1, to już w przypadku statystyki V Cramera współczynnik przybiera wartości od 0 do 1. W tym przypadku analizujemy bezwzględną wartość związku, nie mamy tutaj do czynienia ze związkiem ujemnym.

Współczynniki korelacji to bardzo proste do obliczenia i interpretacji miary związku, dlatego też cieszą się ogromną popularnością. Należy jednak podchodzić z dużą ostrożnością do ich stosowania i nie popadać w skrajność korelowania wszystkiego ze wszystkim,  można bowiem bardzo łatwo popaść w pułapkę korelacji pozornej.

PODOBNE ARTYKUŁY

Interpretacja wyników korelacji

Korelacja Spearmana

Korelacja Pearsona

Korelacja Tau Kendalla

Kurs spss – korelacja Spearmana

Kiedy wykorzystujemy Współczynnik korelacji rang Spearmana ?

Współczynnik korelacji rang Spearmana pozwala sprawdzić czy pomiędzy dwiema zmiennymi istnieje związek (współzależność). Korelacja Spearmana należy do grupy testów nieparametrycznych, jej parametrycznym odpowiednikiem jest korelacja Pearsona. stosujemy ją najczęściej wtedy gdy nasze zmienne nie spełniają założeń testów parametrycznych takich jak normalność rozkładu oraz ilościowy charakter testowanych zmiennych.

Kurs spss – korelacja Pearsona

Kiedy wykorzystujemy korelację Pearsona ?

Korelacja Pearsona to analiza statystyczna, która wykorzystujemy w celu sprawdzenia czy pomiędzy dwiema zmiennymi występuje liniowa zależność. Jako, że korelacja liniowa Pearsona zaliczana jest do grupy testów parametrycznych, nasze zmienne powinny spełniać następujące założenia.

– rozkłady testowanych zmiennych powinny być normalne

– testowane zmienne powinny być wyrażone na skali ilościowej

W przypadku gdy nasze zmienne nie spełniają powyższych założeń do naszych obliczeń statystycznych możemy wykorzystać korelacje nieparametryczne; Tau Kendalla bądź Rho Spearmana.

testy nieparametryczne

Testy nieparametryczne to zbiór analiz statystycznych, które stosujemy m.in. wtedy gdy nasze zmienne nie spełniają założeń testów parametrycznych. Analizując zastosowanie poszczególnych testów nieparametrycznych łatwo możemy stwierdzić, iż niektóre z nich mają swe odpowiedniki w grupie testów parametrycznych. Do testów nieparametrycznych zaliczamy m.in. statystyki takie jak test U Manna Whitneya, Test Kruskala Wallisa, Test Wilcoxona, Korelacja Tau Kendalla, Korelacja Spearmana. Oczywiście to nie wszystkie testy nieparametryczne, ale w niniejszym artykule skupimy się właśnie na nich.

Test U Manna Whitneya to analiza statystyczna, która jest nieparametrycznym odpowiednikiem testu t studenta dla prób niezależnych. Test U Manna Whitneya wykorzystywany jest do porównywania dwóch prób niezależnych. Warto również zaznaczyć, że opisywana statystyka opiera się na porównywaniu rangowym (w przypadku testu t Studenta porównujemy średnie).

Test Kruskala Wallisa to analiza statystyczna, której parametrycznym odpowiednikiem jest jednoczynnikowa analiza wariancji (ANOVA). Test Kruskala Wallisa służy do porównywania wielu prób. Warto jednak dodać, że minusem opisywanej statystyki jest niemożność zidentyfikowania pomiędzy, którymi z grup występują istotne różnice (w przypadku ANOVY możemy tego dokonać przeprowadzając dodatkowo testy post hoc lub analizę kontrastów).

Test Wilcoxona to analiza statystyczna, która pozwala nam porównać ze sobą dwie próby zależne. Testem parametrycznym, który jest odpowiednikiem opisywanej statystyki jest test t studenta dla prób zależnych. Tak jak w przypadku pozostałych testów nieparametrycznych tak i w tym aparat obliczeniowy oparty jest na porównaniu rang.

Korelacja Tau Kendalla to analiza statystyczna dla zmiennych porządkowych lub rangowanych. Jej aparat obliczeniowy również opiera się na powiązaniach rang. Korelacja Tau Kendalla może przyjmować wartości od -1 do 1, interpretacja opisywanej analizy statystycznej jest więc taka sama jak chociażby w przypadku korelacji Pearsona czy Spearmana.

Korelacja Spearmana to nieparametryczny odpowiednik współczynnika korelacji Pearsona. Stosujemy go zazwyczaj wtedy gdy nasze zmienne nie spełniają założeń przeznaczonych dla testów nieparametrycznych. Warto dodać, że i ta analiza statystyczna opiera się na rangach.

Podsumowując powyżej opisane testy nieparametryczne mają swoje odpowiedniki wśród testów parametrycznych.

 

 

testy parametryczne

Testy parametryczne to grupa analiz statystycznych, które możemy stosować po uprzednim sprawdzeniu określonych założeń względem naszych zmiennych.  Założenia te najczęściej dotyczą normalności rozkładu testowanych zmiennych, ich charakteru (na jakiej skali są wyrażone) oraz liczebności grup. Do testów parametrycznych zaliczamy statystyki takie jak test t Studenta, Analiza korelacji Pearsona, Analiza Regresji, Analiza wariancji ANOVA, MANOVA itp. Poniżej w wielkim skrócie opiszemy testy parametryczne najczęściej wykorzystywane podczas prowadzenia różnorakich analiz statystycznych.

Test t Studenta dla prób niezależnych to analizy statystyczne służące do porównania dwóch grup niezależnych.  Musimy jednak pamiętać by przed zastosowaniem testu t Studenta sprawdzić czy nasze zmienne spełniają pewne założenia. Po pierwsze nasza zmienna zależna ( czyli wzrost) powinna być wyrażona na skali ilościowej a jej rozkład powinien być normalny. Ponadto  przed analizą statystyczną powinniśmy zwrócić uwagę na liczebność poszczególnych grup (dobrze by grupa mężczyzn  była podobna do grupy kobiet pod względem liczebności).

Test t Studenta dla prób zależnych to analizy statystyczne służące do porównania dwóch grup  zależnych. Np. Jeżeli chcemy sprawdzić czy trening na siłowni zmniejszy poziom wagi u badanych test t Studenta dla prób zależnych będzie do tego celu dobrą statystyką. Oczywiście najpierw powinniśmy sprawdzić założenia dotyczące normalności rozkładu obu pomiarów wagi( a więc waga przed treningiem na siłowni oraz po treningu na siłowni). Oprócz normalności rozkładu powinniśmy sprawdzić czy nasze zmienne (w tym przypadku poziom wagi mierzony przed treningiem oraz poziom wagi mierzony po treningu) są wyrażone na skali ilościowej ( w naszym przypadku waga wyrażona w kg. jest z pewnością wyrażona na skali ilościowej).

Test t Studenta dla jednej próby to analiza statystyczna pozwalająca zbadać czy średnia uzyskana wśród badanych z naszej próby różni się istotnie od wartości testowanej. Np. Jeżeli chcemy sprawdzić czy uczniowie z klasy II b różnią się istotnie poziomem inteligencji od populacji drugoklasistów test t Studenta dla jednej próby będzie idealnym rozwiązaniem. Oczywiście  jak w przypadku każdego innego testu parametrycznego musimy sprawdzić czy rozkład naszej próby ( w naszym przypadku chodzi o uczniów z II b) jest normalny oraz czy parametr, który badamy (a więc współczynnik inteligencji) wyrażony jest na skali ilościowej. Warto zaznaczyć również, że analizy statystyczne z wykorzystaniem testu t Studenta dla jednej próby wymagają od nas znajomości tzw. wartości testowane (a więc w naszym przypadku współczynnika inteligencji dla populacji drugoklasistów).

Korelacja Pearsona to analiza statystyczna, która służy do wykrywania związków liniowych pomiędzy dwoma zmiennymi. Musimy przy tym pamiętać, że na podstawie analiz korelacyjnych nie możemy wysnuwać wniosków przyczynowo skutkowych (jedynie możemy stwierdzić związek pomiędzy dwoma zmiennymi). W przypadku testu parametrycznego jakim jest korelacja Pearsona w pierwszej kolejności powinniśmy sprawdzić czy nasze zmienne posiadają rozkład normalny oraz  czy są wyrażone na skali ilościowej.

Jednoczynnikowa analiza wariancji (ANOVA) to analizy statystyczne pozwalające porównać ze sobą średnie dowolnej liczby grup. Np. jeżeli chcemy porównać czy studenci z różnych uczelni (np. politechnika, uniwersytet, akademia rolnicza) różnią się poziomem inteligencji to ANOVA jest do tego celu idealną analizą statystyczną. Testy parametryczne tego typu tak jak i pozostałe również muszą spełniać pewne założenia. Po pierwsze zmienna zależna (w naszym przypadku poziom inteligencji) musi posiadać rozkład normalny oraz mieć charakter ilościowy. Ponadto warto też zwrócić uwagę na liczbę osób w poszczególnych grupach (dobrze jeżeli liczba studentów politechniki, uniwersytetu i akademii rolniczej jest podobna).

Analiza wariancji z powtarzanymi pomiarami to test parametryczny służący do porównywania ze sobą dowolnej liczby prób zależnych. Np. jeżeli chcemy sprawdzić czy poziom inteligencji wzrasta wraz z wiekiem osób badanych analiza wariancji z powtarzanymi pomiarami będzie do tego celu dobrą statystyką. Załóżmy, że dokonujemy trzech pomiarów inteligencji w naszej próbie (powiedzmy pierwszy pomiar dokonujemy gdy badani mają 15 lat, drugi gdy mają 16 lat i trzeci gdy mają 17 lat). Następnie porównując średnie wyniki uzyskane w poszczególnych pomiarach (odstępach czasu) sprawdzamy czy rzeczywiście wraz z wiekiem badanych rośnie ich poziom inteligencji. By móc wykorzystać analizę wariancji z powtarzanymi pomiarami powinniśmy sprawdzić czy nasze pomiary posiadają rozkład normalny oraz czy zmienna, którą badamy ma charakter ilościowy.

Analiza regresji to test parametryczny, który pozwala sprawdzić wpływ predyktorów (zmiennych niezależnych) na zmienną zależną. Np. Jeżeli chcemy sprawdzić czy zmienne takie jak poziom inteligencji emocjonalnej (zmienna niezależna) i ilość lat nauki (zmienna niezależna) wpływają na poziom zarobków osób badanych (zmienna zależna) – analiza regresji może pomóc w odpowiedzi na to pytanie. Założenia jakie muszą spełniać nasze zmienne to rozkład normalny zarówno predyktorów jak i zmiennej zależnej oraz ich charakter ilościowy (założenia te nie dotyczą regresji logistycznej).

Analizy statystyczne – interpretacja wyników korelacji

Analizy statystyczne oparte na korelacjach to jedne z najczęściej wykorzystywanych statystyk podczas analizy różnego rodzaju danych. Obliczenia statystyczne tego typu wykorzystuje się zarówno w projektach naukowych jak i komercyjnych, ponadto są to testy bardzo proste w wykonaniu jak i interpretacji. Należy również powiedzieć o właściwościach owych analiz statystycznych. Po pierwsze na podstawie wyników korelacji nie możemy sobie pozwolić na wnioskowanie przyczynowo skutkowe – jedyne co możemy stwierdzić to związek pomiędzy zmiennymi. Po drugie analiza korelacji taka jak r Pearsona, Rho Spearmana czy Tau Kendalla pozwala jedynie na wykrycie związku pomiędzy dwiema zmiennymi.

Interpretacja korelacji

Analizy statystyczne oparte na korelacji przyjmują wartości od -1 do 1. Analizując wyniki korelacji mówimy o jej kierunku oraz sile. O kierunku zależności mówi nam znak wartości korelacji. Jeżeli nasza wartość jest ujemna oznacza to, że związek pomiędzy zmiennymi jest odwrotnie proporcjonalny (korelacja ujemna), natomiast jeżeli wartość jest dodatnia mówimy w takim przypadku o zależności dodatniej. O korelacji ujemnej mówimy wówczas gdy wartości jednej zmiennej rosną a drugiej  maleją, natomiast w przypadku korelacji dodatniej wartości obu zmiennych rosną.

Przykład korelacji ujemnej

Wraz ze wzrostem wagi badanych maleje ich wytrzymałość w biegu na 10 km.

Przykład korelacji dodatniej

Wraz ze wzrostem liczby treningów rośnie wytrzymałość w biegu na 10 km.

Siła korelacji zależy od jej wartości. Czym bliższa wartość liczby -1 bądź 1 tym siła naszej korelacji jest wyższa. Prowadząc analizy statystyczne z wykorzystaniem testów korelacyjnych najczęściej przyjmuje się za wysoką korelację wartość powyżej 0,6 bądź też poniżej -0,6. Za średnią siłę korelacji uważamy te 0,4 do 0,6 bądź -0,4 do -0,6.

korelacja tau Kendalla

Analiza statystyczna wykonana za pomocą korleacji Tau Kendalla pozwala stwierdzić czy istnieje zależności pomiędzy dwiema zmiennymi. Korelacje Tau Kendalla wykorzystujemy wtedy gdy jedna bądź obie testowane zmienne wyrażone są na skali porządkowej.  W przypadku gdy chcemy sprawdzić czy wykształcenie (skala porządkowa) jest istotnie powiązane np. z odczuwaną samooceną (skala ilościowa) wtedy naszą analizę statystyczną powinniśmy przeprowadzić właśnie za pomocą korelacji Tau Kendalla.

Korelacja Spearmana

Jest to analiza statystyczna, która pozwala zmierzyć zależności między dwiema zmiennymi. Analiza ta nazywana jest też korelacją rangową, gdyż cały aparat obliczeniowy opiera się właśnie na nich. Korelacja Spearmana należy do grupy testów nieparametrycznych a wykorzystujemy ją zazwyczaj w przypadku gdy obie zmienne (bądź tylko jedna z nich) w naszej analizie statystycznej nie posiadają rozkładu normalnego.

PODOBNE ARTYKUŁY:

Analizy statystyczne – interpretacja wyników korelacji

Analizy statystyczne – korelacja

Na czym polega analiza korelacji ?

Kurs spss – korelacja Spearmana

Kurs spss – korelacja Pearsona

korelacja Pearsona

Korelacja Pearsona Jest to statystyka pozwalająca na wykrycie zależności liniowej pomiędzy dwiema zmiennymi. By móc zastosować korelację r – Pearsona nasze zmienne powinny mieć charakter ilościowy, ponadto ich rozkład powinien być normalny. Jeżeli np. chcemy sprawdzić czy istnieje związek pomiędzy wagą człowieka a jego wzrostem korelacja r Pearsona jest do tego idealną analizą statystyczną (oczywiście tylko wtedy gdy zmienne spełniają wyżej wymienione założenia).

 

PODOBNE ARTYKUŁY:

Analizy statystyczne – interpretacja wyników korelacji

Analizy statystyczne – korelacja

Na czym polega analiza korelacji ?

Kurs spss – korelacja Spearmana

Kurs spss – korelacja Pearsona

Na czym polega analiza korelacji ?

Korelacja to analiza statystyczna, która pozwala nam sprawdzić czy pomiędzy dwiema zmiennymi istnieje zależność liniowa. Analizy statystyczne oparte na korelacjach przyjmują zazwyczaj wartości od -1 do 1. Znak (-/+) korelacji informuje nas o kierunku naszej zależności, natomiast wartość o jej sile (czym bliżej wartości -1 bądź 1 tym nasza korelacja jest silniejsza). Do najpopularniejszych odmian analiz korelacyjnych zaliczamy współczynnik korelacji r Pearsona, współczynnik korelacji Spearmana oraz współczynnik korelacji Tau Kendalla. To którą z wyżej wymienionych analiz statystycznych wykorzystamy zależy od wielu czynników związanych miedzy innymi z charakterystyką rozkładu naszych zmiennych oraz z tym na jakiej skali są one wyrażone. Współczynnik korelacji Pearsona wykorzystujemy wtedy gdy nasz obie zmienne są wyrażone na skali ilościowej, ponadto ich rozkład powinien być normalny. Korelację Spearmana wykorzystujemy zazwyczaj wtedy gdy jedna bądź obie nasze zmienne nie spełniają założeń związanych z normalnością rozkładu. Współczynnik Tau Kendalla jest przeznaczony do analiz zmiennych wyrażonych na skalach porządkowych. Podsumowując analiza statystyczna oparta na korelacji to bardzo prosta w interpretacji statystyka wykorzystywana do tego by sprawdzić czy dwie zmienne są względem siebie zależne.