Tag Archive for obliczenia statystyczne

Test t Studenta

Jeśli przeprowadziłeś prosty schemat badawczy w którym chciałeś sprawdzić np. czy liczba zapamiętanych słów obcojęzycznych przy muzyce klasycznej różni się od liczby zapamiętanych słów obcojęzycznych w warunkach kontrolnych, dobór testu t- studenta będzie najbardziej trafną analizą statystyczną zebranych danych.

Testów t- studenta będziemy używać do przeprowadzenia obliczeń statystycznych za każdym razem, kiedy zechcemy zweryfikować różnicę. Należy jednak pamiętać, iż testy t- studenta możemy zastosować tylko do schematów badawczych, w których porównujemy dwie grupy badawcze (dwa pomiary).  Ponadto nasza zmienna zależna, w powyższym przykładzie jest to liczba zapamiętanych słów obcojęzycznych, musi być mierzona na skali ilościowej. Tylko wtedy będziemy mieli możliwość obliczenia średniego wyniku dla każdej próby i zweryfikowania, czy porównywane grupy, pomiary różnią się istotnie statystycznie. Statystyki opisowe – średnie grupowe takiego jednoznacznego rozstrzygnięcia nie dają.

Rodzina testów opartych na statystyce t- studenta jest dość liczna. Po pierwsze mamy test t- studenta dla danych niezależnych. Po ten rodzaj testu t- studenta sięgniemy, gdy będziemy realizować badanie w prostym schemacie eksperymentalnym, w planie dla grup niezależnych. Odwołując się do przytoczonego na wstępie problemu badawczego, schemat eksperymentalny w tym przypadku wyglądałby następująco: połowa osób badanych uczyłaby się słów obcojęzycznych przy muzyce klasycznej, natomiast druga połowa w warunkach kontrolnych. Powyższy problem badawczy można jednak zweryfikować za pomocą odmiennego schematu eksperymentalnego. Najpierw wszyscy uczestnicy eksperymentu będą się uczyć słów obcojęzycznych w warunkach kontrolnych, a następnie te same osoby badane będą musiały zapamiętać słowa obcojęzyczne o podobnym poziomie trudności słuchając muzyki klasycznej. W tym przypadku do analizy wyników użyjemy testu t- studenta dla danych zależnych. Być może jednak istnieją jakieś dane na temat przeciętnej liczby zapamiętywanych słów obcojęzycznych wśród interesującej nas populacji. Gdyby tak było, moglibyśmy przeprowadzić nasz eksperyment tylko w warunkach z muzyką klasyczną, a następnie zestawić otrzymane wyniki z przeciętną średnią znaną z wcześniejszych opracowań. Do analizy wybralibyśmy wtedy test t- studenta dla jednej próby.

Podsumowując, testy t- studenta znajdują idealne zastosowanie w przypadku najprostszych schematów eksperymentalnych, w których mamy do czynienia z dwuwartościową zmienną niezależną (np. muzyka/ brak muzyki) i zmienną zależną mierzoną na skali ilościowej (np. liczba zapamiętanych słów obcojęzycznych).

PODOBNE ARTYKUŁY

Kurs spss – test t Studenta dla prób niezależnych

Kurs spss – test t Studenta dla prób zależnych

Kurs spss – Test t Studenta dla jednej próby

 

 

Kurs spss – Test U Manna Whitneya

Kiedy wykorzystujemy test U Manna Whitneya ?

Test U Manna Whitneya stosujemy wtedy gdy chcemy porównać ze sobą dwie próby niezależne. Warto również dodać, że jest on uważany za nieparametryczny odpowiednik testu t Studenta dla prób niezależnych. Statystykę U Manna Whitneya wykorzystujemy zazwyczaj w przypadku gdy nasza zmienna zależna wyrażona jest na skali porządkowej bądź też ilościowej, jednak nie spełnia założeń wymaganych przez testy parametryczne (takie jak np. test t Studenta dla prób niezależnych).

testy nieparametryczne

Testy nieparametryczne to zbiór analiz statystycznych, które stosujemy m.in. wtedy gdy nasze zmienne nie spełniają założeń testów parametrycznych. Analizując zastosowanie poszczególnych testów nieparametrycznych łatwo możemy stwierdzić, iż niektóre z nich mają swe odpowiedniki w grupie testów parametrycznych. Do testów nieparametrycznych zaliczamy m.in. statystyki takie jak test U Manna Whitneya, Test Kruskala Wallisa, Test Wilcoxona, Korelacja Tau Kendalla, Korelacja Spearmana. Oczywiście to nie wszystkie testy nieparametryczne, ale w niniejszym artykule skupimy się właśnie na nich.

Test U Manna Whitneya to analiza statystyczna, która jest nieparametrycznym odpowiednikiem testu t studenta dla prób niezależnych. Test U Manna Whitneya wykorzystywany jest do porównywania dwóch prób niezależnych. Warto również zaznaczyć, że opisywana statystyka opiera się na porównywaniu rangowym (w przypadku testu t Studenta porównujemy średnie).

Test Kruskala Wallisa to analiza statystyczna, której parametrycznym odpowiednikiem jest jednoczynnikowa analiza wariancji (ANOVA). Test Kruskala Wallisa służy do porównywania wielu prób. Warto jednak dodać, że minusem opisywanej statystyki jest niemożność zidentyfikowania pomiędzy, którymi z grup występują istotne różnice (w przypadku ANOVY możemy tego dokonać przeprowadzając dodatkowo testy post hoc lub analizę kontrastów).

Test Wilcoxona to analiza statystyczna, która pozwala nam porównać ze sobą dwie próby zależne. Testem parametrycznym, który jest odpowiednikiem opisywanej statystyki jest test t studenta dla prób zależnych. Tak jak w przypadku pozostałych testów nieparametrycznych tak i w tym aparat obliczeniowy oparty jest na porównaniu rang.

Korelacja Tau Kendalla to analiza statystyczna dla zmiennych porządkowych lub rangowanych. Jej aparat obliczeniowy również opiera się na powiązaniach rang. Korelacja Tau Kendalla może przyjmować wartości od -1 do 1, interpretacja opisywanej analizy statystycznej jest więc taka sama jak chociażby w przypadku korelacji Pearsona czy Spearmana.

Korelacja Spearmana to nieparametryczny odpowiednik współczynnika korelacji Pearsona. Stosujemy go zazwyczaj wtedy gdy nasze zmienne nie spełniają założeń przeznaczonych dla testów nieparametrycznych. Warto dodać, że i ta analiza statystyczna opiera się na rangach.

Podsumowując powyżej opisane testy nieparametryczne mają swoje odpowiedniki wśród testów parametrycznych.

 

 

testy parametryczne

Testy parametryczne to grupa analiz statystycznych, które możemy stosować po uprzednim sprawdzeniu określonych założeń względem naszych zmiennych.  Założenia te najczęściej dotyczą normalności rozkładu testowanych zmiennych, ich charakteru (na jakiej skali są wyrażone) oraz liczebności grup. Do testów parametrycznych zaliczamy statystyki takie jak test t Studenta, Analiza korelacji Pearsona, Analiza Regresji, Analiza wariancji ANOVA, MANOVA itp. Poniżej w wielkim skrócie opiszemy testy parametryczne najczęściej wykorzystywane podczas prowadzenia różnorakich analiz statystycznych.

Test t Studenta dla prób niezależnych to analizy statystyczne służące do porównania dwóch grup niezależnych.  Musimy jednak pamiętać by przed zastosowaniem testu t Studenta sprawdzić czy nasze zmienne spełniają pewne założenia. Po pierwsze nasza zmienna zależna ( czyli wzrost) powinna być wyrażona na skali ilościowej a jej rozkład powinien być normalny. Ponadto  przed analizą statystyczną powinniśmy zwrócić uwagę na liczebność poszczególnych grup (dobrze by grupa mężczyzn  była podobna do grupy kobiet pod względem liczebności).

Test t Studenta dla prób zależnych to analizy statystyczne służące do porównania dwóch grup  zależnych. Np. Jeżeli chcemy sprawdzić czy trening na siłowni zmniejszy poziom wagi u badanych test t Studenta dla prób zależnych będzie do tego celu dobrą statystyką. Oczywiście najpierw powinniśmy sprawdzić założenia dotyczące normalności rozkładu obu pomiarów wagi( a więc waga przed treningiem na siłowni oraz po treningu na siłowni). Oprócz normalności rozkładu powinniśmy sprawdzić czy nasze zmienne (w tym przypadku poziom wagi mierzony przed treningiem oraz poziom wagi mierzony po treningu) są wyrażone na skali ilościowej ( w naszym przypadku waga wyrażona w kg. jest z pewnością wyrażona na skali ilościowej).

Test t Studenta dla jednej próby to analiza statystyczna pozwalająca zbadać czy średnia uzyskana wśród badanych z naszej próby różni się istotnie od wartości testowanej. Np. Jeżeli chcemy sprawdzić czy uczniowie z klasy II b różnią się istotnie poziomem inteligencji od populacji drugoklasistów test t Studenta dla jednej próby będzie idealnym rozwiązaniem. Oczywiście  jak w przypadku każdego innego testu parametrycznego musimy sprawdzić czy rozkład naszej próby ( w naszym przypadku chodzi o uczniów z II b) jest normalny oraz czy parametr, który badamy (a więc współczynnik inteligencji) wyrażony jest na skali ilościowej. Warto zaznaczyć również, że analizy statystyczne z wykorzystaniem testu t Studenta dla jednej próby wymagają od nas znajomości tzw. wartości testowane (a więc w naszym przypadku współczynnika inteligencji dla populacji drugoklasistów).

Korelacja Pearsona to analiza statystyczna, która służy do wykrywania związków liniowych pomiędzy dwoma zmiennymi. Musimy przy tym pamiętać, że na podstawie analiz korelacyjnych nie możemy wysnuwać wniosków przyczynowo skutkowych (jedynie możemy stwierdzić związek pomiędzy dwoma zmiennymi). W przypadku testu parametrycznego jakim jest korelacja Pearsona w pierwszej kolejności powinniśmy sprawdzić czy nasze zmienne posiadają rozkład normalny oraz  czy są wyrażone na skali ilościowej.

Jednoczynnikowa analiza wariancji (ANOVA) to analizy statystyczne pozwalające porównać ze sobą średnie dowolnej liczby grup. Np. jeżeli chcemy porównać czy studenci z różnych uczelni (np. politechnika, uniwersytet, akademia rolnicza) różnią się poziomem inteligencji to ANOVA jest do tego celu idealną analizą statystyczną. Testy parametryczne tego typu tak jak i pozostałe również muszą spełniać pewne założenia. Po pierwsze zmienna zależna (w naszym przypadku poziom inteligencji) musi posiadać rozkład normalny oraz mieć charakter ilościowy. Ponadto warto też zwrócić uwagę na liczbę osób w poszczególnych grupach (dobrze jeżeli liczba studentów politechniki, uniwersytetu i akademii rolniczej jest podobna).

Analiza wariancji z powtarzanymi pomiarami to test parametryczny służący do porównywania ze sobą dowolnej liczby prób zależnych. Np. jeżeli chcemy sprawdzić czy poziom inteligencji wzrasta wraz z wiekiem osób badanych analiza wariancji z powtarzanymi pomiarami będzie do tego celu dobrą statystyką. Załóżmy, że dokonujemy trzech pomiarów inteligencji w naszej próbie (powiedzmy pierwszy pomiar dokonujemy gdy badani mają 15 lat, drugi gdy mają 16 lat i trzeci gdy mają 17 lat). Następnie porównując średnie wyniki uzyskane w poszczególnych pomiarach (odstępach czasu) sprawdzamy czy rzeczywiście wraz z wiekiem badanych rośnie ich poziom inteligencji. By móc wykorzystać analizę wariancji z powtarzanymi pomiarami powinniśmy sprawdzić czy nasze pomiary posiadają rozkład normalny oraz czy zmienna, którą badamy ma charakter ilościowy.

Analiza regresji to test parametryczny, który pozwala sprawdzić wpływ predyktorów (zmiennych niezależnych) na zmienną zależną. Np. Jeżeli chcemy sprawdzić czy zmienne takie jak poziom inteligencji emocjonalnej (zmienna niezależna) i ilość lat nauki (zmienna niezależna) wpływają na poziom zarobków osób badanych (zmienna zależna) – analiza regresji może pomóc w odpowiedzi na to pytanie. Założenia jakie muszą spełniać nasze zmienne to rozkład normalny zarówno predyktorów jak i zmiennej zależnej oraz ich charakter ilościowy (założenia te nie dotyczą regresji logistycznej).

Obliczenia statystyczne z wykorzystaniem miar tendencji centralnej

Miary tendencji centralnej to obliczenia statystyczne, które dostarczają nam informacji na temat rozkładu naszych zmiennych. Do analiz statystycznych tego typu zaliczamy m.in. dominantę, medianę, średnią.

Dominanta to wartość zaliczana do grupy statystyk opisowych, która najczęściej występuje w zbiorze. Informacja tego typu jest przydatna podczas wstępnej analizy danych, ponieważ na jej podstawie możemy uzyskać informację na temat preferencji osób badanych.

Mediana to statystyka opisowa, która pozwala nam zidentyfikować wartość dzielącą nasz zbiór dokładnie na dwie równe części. Wartość mediany bardzo często wykorzystywana jest przy dychotomizacji zmiennych (podziel obserwacji na dwie grupy). Mediana zapewnia, że podział będzie równomierny tzn. w obu stworzonych grupach znajdzie się tyle samo obserwacji.

Średnia (arytmetyczna) to najpopularniejsza statystyka spośród miar tendencji centralnej. By ją obliczyć wystarczy dodać wszystkie wartości znajdujące się w naszym zbiorze a następnie uzyskaną sumę podzielić przez liczbę elementów (naszego zbioru). Średnia tak jak mediana jest wykorzystywana do dychotomizacji zmiennych. Warto jednak zaznaczyć, że opisywana miara jest narażona na wartości dewiacyjne (skrajne). Przy dychotomizacji (za pomocą średniej) oznacza to iż dzieląc nasz zbiór na dwie części nie możemy być pewni, że powstałe grupy będą równoliczne.

Analizy statystyczne – interpretacja wyników korelacji

Analizy statystyczne oparte na korelacjach to jedne z najczęściej wykorzystywanych statystyk podczas analizy różnego rodzaju danych. Obliczenia statystyczne tego typu wykorzystuje się zarówno w projektach naukowych jak i komercyjnych, ponadto są to testy bardzo proste w wykonaniu jak i interpretacji. Należy również powiedzieć o właściwościach owych analiz statystycznych. Po pierwsze na podstawie wyników korelacji nie możemy sobie pozwolić na wnioskowanie przyczynowo skutkowe – jedyne co możemy stwierdzić to związek pomiędzy zmiennymi. Po drugie analiza korelacji taka jak r Pearsona, Rho Spearmana czy Tau Kendalla pozwala jedynie na wykrycie związku pomiędzy dwiema zmiennymi.

Interpretacja korelacji

Analizy statystyczne oparte na korelacji przyjmują wartości od -1 do 1. Analizując wyniki korelacji mówimy o jej kierunku oraz sile. O kierunku zależności mówi nam znak wartości korelacji. Jeżeli nasza wartość jest ujemna oznacza to, że związek pomiędzy zmiennymi jest odwrotnie proporcjonalny (korelacja ujemna), natomiast jeżeli wartość jest dodatnia mówimy w takim przypadku o zależności dodatniej. O korelacji ujemnej mówimy wówczas gdy wartości jednej zmiennej rosną a drugiej  maleją, natomiast w przypadku korelacji dodatniej wartości obu zmiennych rosną.

Przykład korelacji ujemnej

Wraz ze wzrostem wagi badanych maleje ich wytrzymałość w biegu na 10 km.

Przykład korelacji dodatniej

Wraz ze wzrostem liczby treningów rośnie wytrzymałość w biegu na 10 km.

Siła korelacji zależy od jej wartości. Czym bliższa wartość liczby -1 bądź 1 tym siła naszej korelacji jest wyższa. Prowadząc analizy statystyczne z wykorzystaniem testów korelacyjnych najczęściej przyjmuje się za wysoką korelację wartość powyżej 0,6 bądź też poniżej -0,6. Za średnią siłę korelacji uważamy te 0,4 do 0,6 bądź -0,4 do -0,6.

Analizy statystyczne – korelacja

Planując przeprowadzenie analiz statystycznych tak naprawdę mamy do wyboru dwie drogi. Pierwsza z nich to grupa analiz statystycznych opartych na korelacjach a więc testach badających związek pomiędzy dwoma bądź większa liczbą zmiennych. Druga droga służy do weryfikacji hipotez dotyczących różnic pomiędzy grupami bądź pomiarami prowadzonymi w różnym czasie. W poniższym artykule skupimy się jednak na analizach statystycznych opartych na metodach korelacyjnych.

Obliczenia statystyczne z wykorzystaniem analiz korelacyjnych to grupa testów pozwalająca zbadać czy pomiędzy testowanymi zmiennymi występują istotne zależności. Należy jednak pamiętać, że testy oparte na korelacjach nie pozwalają na wyciąganie wniosków przyczynowo skutkowych tzn. nie możemy stwierdzić, która ze zmiennych pełni rolę zmiennej wyjaśniającej a która wyjaśnianej. Jedyne co w przypadku analiz statystycznych opartych na korelacjach możemy stwierdzić z całą pewnością to fakt wystąpienia związku pomiędzy zmiennymi.

Najpopularniejsze testy oparte na korelacjach pozwalające zbadać zależność pomiędzy dwiema zmiennymi to współczynnik korelacji r Pearsona, współczynnik korelacji Rho Spearmana oraz współczynnik korelacji Tau Kendalla. Oczywiście każdy z tych testów stosowany jest w pewnych warunkach, dlatego też poniżej znajduje się krótka charakterystyka każdego z wyżej wymienionych testów.

Korelacja r Pearsona – obliczenia statystyczne z wykorzystaniem tegoż testu możemy przeprowadzić jedynie w przypadku gdy nasze zmienne wyrażone są na skali ilościowej a ich rozkłady są bliskie rozkładowi normalnemu. Korelacja r Pearsona pozwala zbadać związek liniowy pomiędzy dwiema zmiennymi.

Korelacja Rho Spearmana – obliczenia statystyczne z wykorzystaniem tej statystyki przeprowadzamy zazwyczaj wtedy gdy przynajmniej jedna z naszych zmiennych wyrażonych na skali ilościowej nie spełnia założenia dotyczącego normalności rozkładu. Warto również zaznaczyć, że analizy statystyczne z wykorzystaniem testu Rho Spearmana opiera się na analiza rang, jednak jej wynik odczytuje się w identyczny sposób jak korelacje r Pearsona.

Korelacja Tau Kendalla – obliczenia statystyczne z wykorzystaniem tego testu stosujemy wtedy gdy nasze zmienne (bądź przynajmniej jedna z nich) jest wyrażona na skali porządkowej. Należy również zaznaczyć, że opiera się na analizie rang – tak jak to jest w przypadku korelacji Rho Spearmana.

PODOBNE ARTYKUŁY:

Interpretacja wyników korelacji

Korelacja Spearmana

Korelacja Pearsona

Korelacja Tau Kendalla

Czym są testy parametryczne?

Zastosowanie testów parametrycznych ma spore znaczenie, jeśli chodzi o analizowanie różnych zdarzeń w grupie określanej populacją. Są to analizy statystyczne w nazwie których występuje słowo test, więc można zasugerować się chociażby nazwą. Wymagana jest do ich przeprowadzenia orientacja w zakresie dystrybuanty populacji, którą będziemy poddawać analizie. Dystrybuanta dotyczy rozkładu zmiennej, do której odnosi się cały test. Jak w przypadku wielu innych analiz, konieczne jest upewnienie się co do tego, jaki występuje rozkład danych – preferowany jest normalny rozkład. Ustalamy również liczebność grupy poddawanej badaniu i jednorodność wariancji, o ile wykonywane w tym przypadku analizy statystyczne dotyczą większej ilości grup. Ważne jest zdecydowanie się na testy parametryczne właśnie z uwagi na to, że posiadane wytyczne odpowiadają założeniom tego rodzaju analiz. Wytyczne są właśnie podstawą do skorzystania właśnie z grupy testów parametrycznych, a nie jakichkolwiek innych, więc w przypadku niedopasowania tychże można wybrać dowolne, ale lepiej pasujące testy. Dzięki wykonaniu analizy statystycznej wybranej właśnie z kręgu tekstów parametrycznych można uzyskać na przykład wariancję, średnią arytmetyczną oraz wskaźnik struktury. Wśród testów odpowiadających uzyskaniu tychże danych występują: Test Friedmana, Test Kruskala-Wallisa, Test Wilcoxona, Test U-Manna Whitneya itp.

test t oraz Anova – Charakterystyka

Wyróżnia się również analizy statystyczne o nazwie testy t Studenta. Te analizy używane są przy porównywaniu średnich, dodatkowo mogą być używane tylko wtedy, gdy wystąpią pewne warunki. Z tego względu określa się je testami parametrycznymi. W analizie tego rodzaju wykorzystuje się zmienne zależne, które muszą znaleźć się na skali ilościowej oraz w rozkładzie normalnym. Można założyć również próby niezależne, ale wtedy porównywane średnie muszą należeć do równolicznych. Tego rodzaju analizy statystyczne mogą być wykonywane dla prób zależnych, niezależnych oraz dla jednej próby. Testy t, jak widać, są popularne i mają różne zastosowania. Próby niezależne dotyczą na przykład różnych grup niezależnych od siebie, czyli wzrost, wagę kobiet i mężczyzn lub długość sierści dwóch gatunków zwierząt. Testy t dla prób niezależnych w takich przypadkach przyjmują dwie zmienne – grupująca zmienna to płeć czy gatunek, zmienna zależna to waga, wzrost lub długość sierści. Porównywane grupy należy ujednolicić pod względem ilości, ponieważ w innym przypadku wyniki będą niewiarygodne. Testy t dla prób zależnych to również bardzo przydatne analizy statystyczne, w przypadku których obie zmienne zależą od siebie (może to być zależność związana z jakimś działaniem, jakiemu poddawane są obie zmienne w różnym czasie itd). W przypadku jeszcze jednej analizy, testu t dla jednej próby, wykorzystywana jest zmienna teoretyczna oraz średnia właściwa dla danej próby, w skali ilościowej oraz o rozkładzie normalnym.

Różnego rodzaju analizy statystyczne mają konkretne zastosowania, a więc Anova również takie posiada. Za pomocą tej analizy możemy porównać N grup niezależnych, co jest odpowiednie do sytuacji, gdy czynnik – inna nazwa zmiennej niezależnej – zawiera w sobie więcej grup niż dwie. Można więc sprawdzać poziom inteligencji osób z różnym wykształceniem, zaczynając od podstawowego po wyższy. Testy z użyciem analizy statystycznej Anova sprawdzą się w takim przypadku doskonale. Analizy statystyczne Anova należą, podobnie jak poprzednio opisane, do testów parametrycznych. Zanim pomyślimy o wykorzystaniu tego rodzaju w praktyce, musimy przekonać się o istnieniu odpowiednich zmiennych. Grupy zaliczane do zmiennej niezależnej muszą posiadać określoną liczebność, mianowicie zbliżoną. Zmienną zależną definiuje się ilościowo (iloraz inteligencji jak najbardziej można tak zdefiniować), a także gwarantuje normalny rozkład wyników. Analiza Anova określana jest też jednoczynnikową analizą wariancji. Podejmowane analizy statystyczne tego rodzaju mogą zagwarantować doskonałe wyniki, choć oczywiście nie do wszystkich zastosowań się nadają. W niektórych przypadkach stosować trzeba inne testy, na przykład test Z Kołmogorowa Smirnowa lub test Shapiro – wilka.

analiza korelacji

Odpowiednie analizy statystyczne są dostępne do różnych zastosowań i do stwierdzania różnych zależności. Jedną ze znanych i często używanych analiz jest korelacja. Do przeprowadzenia tej analizy potrzebne są zmienne, a badana będzie zależność między nimi – czy w ogóle istnieje, w jakim jest kierunku itd. Chodzi oczywiście o zależność liniową. W przypadku korelacji można określić zależność liniową o wartości w zakresie od -1 do +1. Za pomocą oznaczeń oraz liczb można określić, jaką wartość przyjmują analizy statystyczne i w jakim kierunku występuje istniejąca zależność. Analiza statystyczna nazywana korelacją używana jest w różnych odmianach, na przykład jako współczynnik korelacji Spearmana, współczynnik korelacji Tau Kendalla czy też współczynnik korelacji r Pearsona. Trzeba odpowiednio rozłożyć zmienne oraz użyć właściwej skali, dzięki czemu wyniki mogą być prawidłowe i wiele mówiące. Wybór odnośnie tego, jakie analizy statystyczne zostaną wykorzystane, można uzależnić od rodzaju zmiennych. Na przykład zmienne wyrażone dzięki skali ilościowej oraz posiadające normalny rozkład można analizować za pomocą współczynnika korelacji r Pearsona. W przypadku, gdy zmienne nie znajdują się w rozkładzie normalnym (choćby jedna z nich), należy użyć korelacji Spearmana. Ostatni z omówionych współczynników, współczynnik Tau Kendalla, przydatny jest w przypadku skali porządkowych oraz znajdujących się na nich zmiennych.