Archive for Artykuły Statystyczne

Projektowanie procesu badawczego

Projektowanie badania

Projektowanie badania krok po kroku

„Najtrudniejszy pierwszy krok” śpiewała A. Jantar. Nie inaczej jest w badaniach. Badanie rozpoczynamy od zaprojektowania całego procesu badawczego, czyli sformułowania hipotez (czego z badania chcemy się dowiedzieć?),  doboru odpowiednich zmiennych (jak o to zapytamy?), opracowania procedury badawczej (jak będą wyglądać kolejne etapy pozyskiwania danych?).Chcesz mieć pewność, że zaprojektowany proces badawczy umożliwi Ci bezproblemową realizację całego badania? Postaw swój pierwszy krok na drodze badawczej z profesjonalistami!

 Oferta na projektowanie procesu badawczego

 

Chcesz samodzielnie zrealizować całe badanie, sam zaprojektować proces badawczy, skorzystaj z kilku  praktycznych wskazówek.

 

Projektowanie procesu badawczego – przydatne informacje.

Wnioskowanie statystyczne

Analiza statystyczna to jeden z najtrudniejszych etapów procesu badawczego. Nawet doświadczonym badaczom zrozumienie struktury danych zajmuje sporo czasu. Przystępując do pacy nad danymi musimy więc uzbroić się w cierpliwość i pamiętać, iż nie da się tego zrobić błyskawicznie. Już samo przygotowanie danych do analizy statystycznej wymaga sporo pracy, nie wspominając o wykonaniu odpowiednich obliczeń statystycznych.

            Aby etap analiz statystycznych został wykonany prawidłowo należy skorzystać ze schematu wnioskowania statystycznego będącego swoistego rodzaju kompasem metodologicznym mającym doprowadzić nas do wyboru odpowiednich obliczeń statystycznych, które w konsekwencji pozwolą na adekwatny opis zebranych danych.

            Przystępując do analizy statystycznej koncentrujemy się na sformułowanej hipotezie badawczej, która przewiduje jakiego układu wyników oczekujemy. Hipotezy badawcze mogą mieć charakter zależnościowy lub różnicowy. Hipotezy zależnościowe mówią o związkach między zmiennymi np. istnieje związek między płcią a lękiem. Hipotezy różnicowe wskazują natomiast na różnice między grupami i mogą mieć postać jednostronną (poziom lęku jest wyższy u kobiet niż u mężczyzn) lub dwustronną (kobiety i mężczyźni różnią się poziomem lęku).

            Mimo, iż te dwa rodzaje hipotez wzajemnie się nie wykluczają (z jednej hipotezy wynika druga), to ich postać jest bardzo ważna dla dalszych analiz statystycznych. To z jaką hipotezą będziemy mieli do czynienia będzie warunkowało wybór odpowiednich technik, obliczeń statystycznych weryfikujących zakładane oczekiwania.    Kiedy będziemy weryfikować związek między zmiennymi, sięgniemy po testy zależnościowe -korelacje np. współczynnik korelacji r- Pearsona, rho – Spearmana lub tau-b Kendalla. Jeśli nasza hipoteza będzie miała postać hipotezy różnicowej, wykorzystamy któryś z testów istotności różnic np. test F analizy wariancji, test Kruskala – Walisa, test t – Studenta, test U Manna – Whitneya, test Wilcoxona, czy  test chi- kwadrat Fishera.

Na tym etapie analiz statystycznych powinniśmy skorzystać z algorytmu doboru testu. Najważniejsze kryteria wyboru testu statystycznego to skala pomiarowa, na której mierzone są zmienne, liczba analizowanych zmiennych, a w przypadku testów istotności różnic również schemat badawczy (międzygrupowy vs. wewnątrzgrupowy).

Analizy statystyczne mogą być przeprowadzone na danych nominalnych, porządkowych lub interwałowych, ilorazowych.  Jeśli nasze zmienne będą mierzone na skali interwałowej lub ilorazowej, a weryfikowana hipoteza będzie miała charakter zależnościowy, to przeprowadzając obliczenia statystyczne sięgniemy po współczynniki r- Pearsona. Najpierw jednak musi sprawdzić, czy analizowane przez nas zmienne mają rozkład normalny. W tym celu należy wykonać test Kołomogorowa – Smirnowa. Jeśli założenie o normalności rozkładu nie zostanie spełnione bezpieczniej jest sięgnąć po porządkowy odpowiednik owej statystyki tj. współczynnik tau- b Kendalla lub rho – Spearmana. W przypadku hipotez różnicowych sprawa jest jeszcze bardziej skomplikowana.

Dokonując analiz statystycznych dotyczących hipotez różnicowych oprócz skali pomiarowej musimy wziąć pod uwagę liczbę porównywanych grup. Na przykład jeśli zależy nam na sprawdzeniu, czy rozkład naszej zmiennej jest dziełem przypadku, czy też  kategorie analizowanej zmiennej rozkładają się nierównolicznie w sposób systematyczny lub chcemy po prostu porównać średnią obliczoną dla danej próby ze znanym, z wcześniejszych badań lub danych teoretycznych, kryterium, to będziemy dysponowali jedną próbą, grupą badawczą (k=1). Przystępując wtedy do obliczeń statystycznych sięgniemy np. po test chi – kwadrat dla jednej zmiennej (dane nominalne) lub test t dla jednej zmiennej (dane interwałowe, ilorazowe), oczywiście przed uprzednim zweryfikowaniem założenia o normalności rozkładu.

W przypadku dwóch grup badawczych i większej ich liczby przed przystąpieniem do analiz statystycznych musimy również sprawdzić z jakim schematem badawczym mamy do czynienia. Jeśli porównywane przez nas grupy mają charakter niezależny np. porównujemy wyniki dwóch odrębnych populacji – kobiet i mężczyzn, możemy zastosować test t dla danych niezależnych (dane ilorazowe, interwałowe), test Manna –Whitneya (dane porządkowe) lub test chi – kwadrat Fischera (dane nominalne). Kiedy porównujemy więcej niż dwie grupy niezależne (k>2), wykonując  obliczenia statystyczne będziemy korzystać z testu F analizy wariancji (dane interwałowe, ilorazowe), testu Kruskala – Wallisa (dane porządkowe) lub testu chi – kwadrat (dane nominalne).

Natomiast w sytuacji, kiedy będziemy mieli do czynienia z danymi zależnościowymi (dobór do odpowiednich grup będzie przebiegał parami), przeprowadzając analizy statystyczne posłużymy się takimi testami jak: test t  dla danych zależnych (dane ilorazowe, interwałowe; k=2), test Wilcoxona (dane porządkowe; k=2), test McNemara (dane nominalne; k=2) lub test F analizy wariancji (dane interwałowe, ilorazowe, k>2), test Friedmana (dane porządkowe, k>2), test Cochrana (dane nominalne, k>2).

W przypadku zastosowania testów istotności różnic dla danych interwałowych, ilorazowych przed wykonaniem obliczeń statystycznych oprócz sprawdzenia normalności rozkładu analizowanych zmiennych, jesteśmy zobowiązani również do zweryfikowania założenia dotyczącego homogeniczności wariancji (dane niezależne) lub równości i symetryczności macierzy wariancji (dane zależne).

Podsumowując po ustaleniu charakteru hipotezy badawczej (różnicowa, zależnościowa), doborze odpowiedniego testu w oparciu o algorytm odwołujący się do 3 kryteriów (skala pomiarowa, liczba analizowanych grup, schemat badania) i zweryfikowaniu wszystkich założeń, możemy wreszcie  rozpocząć obliczenia statystyczne.

mediana – jak ją policzyć ?

Mediana należy do grupy statystyk opisowych tzw. miar tendencji centralnej.

Mediana to wartość, która dzieli zbiór danych „na pół”. Wyobraźmy sobie następujący zbiór liczb: 2, 1, 3, 8, 6.  Aby wyliczyć medianę (zobacz jak policzyć medianę w excelu), po pierwsze musimy uszeregować wartości owego zbioru ( liczby) – od najmniejszej do największej lub od największej do najmniejszej. Mediana bowiem to analiza statystyczna, która wyznacza wartość  środkową w zbiorze uszeregowanym rosnąco lub malejąco. W wyniku uszeregowania obserwacji w sposób rosnący analizowany zbiór liczb prezentuje się w sposób następujący: 1, 2, 3, 6, 8. Mediana w tym konkretnym przypadku wynosi 3.  Jest to po prostu wartość środkowa uszeregowanego zbioru liczb. W przypadku zbiorów zawierających nieparzystą liczbę obserwacji, wskazanie mediany jest więc niezwykle proste. A co w sytuacji, gdy analizowany zbiór danych składa się z parzystej liczby elementów? Jak w takim przypadku wyliczyć medianę?

Dołóżmy do analizowanego już zbioru liczb jeszcze jedną wartość na przykład 7. Teraz uszeregowana postać analizowanego zbioru prezentuje się w sposób następujący: 1, 2, 3, 6, 7, 8 i składa się z 6 elementów. Aby wyliczyć medianę dla zbioru zawierającego parzystą liczbę obserwacji, w pierwszej kolejności odnajdujemy dwie wartości środkowe takiego zbioru. W tym konkretnym przypadku jest to liczba 3 i 6. Dla tych dwóch wartości wyliczana jest średnia arytmetyczna. W naszym przykładzie średnia arytmetyczna dla wartości 3 i 6 wynosi 4,5 ((3+6)/ 2 = 4,5).  I to właśnie średnia arytmetyczna dwóch środkowych wartości danego zbioru uszeregowanego rosnąco lub malejąco będzie w tym przypadku poszukiwaną medianą. Podsumowując medianę dla zbioru danych o parzystej liczbie wartości zdefiniujemy jako średnią dwóch środkowych wartości takiego zbioru.

Z reguły poniżej i powyżej mediany znajduje się 50% obserwowanych przypadków. Znając więc wartość mediany jesteśmy w  stanie powiedzieć poniżej jakiej wartości zbioru znajduje się co najmniej połowa obserwacji. W porównaniu do średniej arytmetycznej atutem mediany jest to, że jest ona odporna na występowanie wartości skrajnych tzw. dewiantów. Niestety medianę możemy policzyć tylko dla zmiennych mierzonych na skalach porządkowych i ilościowych. Nie wyliczymy mediany dla danych nominalnych. W następującym zbiorze obserwacji: „oczy zielone, oczy niebieskie, oczy zielone, oczy brązowe, oczy niebieskie” nie wyznaczymy wartości środkowej, gdyż każda próba uporządkowania owego zbioru będzie miała charakter arbitralny. Tymczasem, aby wyliczyć medianę wartości zbioru muszą zostać uporządkowane tak, aby ich uszeregowanie oddawało natężenie mierzonej właściwości. Dlatego, też mediana to wartość zarezerwowana wyłącznie dla skala porządkowych i wyższych.

W opracowaniach statystycznych mediana funkcjonuje również pod takimi nazwami jak: wartość środkowa, wartość przeciętna lub drugi kwartyl. Po zapoznaniu się z definicją mediany, napotykając się na powyższe terminy w różnego rodzaju tekstach będziemy już wiedzieć, co się za nimi kryje.

zobacz jak obliczyć MEDIANĘ W EXCELU

Obliczenia statystyczne z wykorzystaniem miar tendencji centralnej

Miary tendencji centralnej to obliczenia statystyczne, które dostarczają nam informacji na temat rozkładu naszych zmiennych. Do analiz statystycznych tego typu zaliczamy m.in. dominantę, medianę, średnią.

Dominanta to wartość zaliczana do grupy statystyk opisowych, która najczęściej występuje w zbiorze. Informacja tego typu jest przydatna podczas wstępnej analizy danych, ponieważ na jej podstawie możemy uzyskać informację na temat preferencji osób badanych.

Mediana to statystyka opisowa, która pozwala nam zidentyfikować wartość dzielącą nasz zbiór dokładnie na dwie równe części. Wartość mediany bardzo często wykorzystywana jest przy dychotomizacji zmiennych (podziel obserwacji na dwie grupy). Mediana zapewnia, że podział będzie równomierny tzn. w obu stworzonych grupach znajdzie się tyle samo obserwacji.

Średnia (arytmetyczna) to najpopularniejsza statystyka spośród miar tendencji centralnej. By ją obliczyć wystarczy dodać wszystkie wartości znajdujące się w naszym zbiorze a następnie uzyskaną sumę podzielić przez liczbę elementów (naszego zbioru). Średnia tak jak mediana jest wykorzystywana do dychotomizacji zmiennych. Warto jednak zaznaczyć, że opisywana miara jest narażona na wartości dewiacyjne (skrajne). Przy dychotomizacji (za pomocą średniej) oznacza to iż dzieląc nasz zbiór na dwie części nie możemy być pewni, że powstałe grupy będą równoliczne.

Analizy statystyczne – interpretacja wyników korelacji

Analizy statystyczne oparte na korelacjach to jedne z najczęściej wykorzystywanych statystyk podczas analizy różnego rodzaju danych. Obliczenia statystyczne tego typu wykorzystuje się zarówno w projektach naukowych jak i komercyjnych, ponadto są to testy bardzo proste w wykonaniu jak i interpretacji. Należy również powiedzieć o właściwościach owych analiz statystycznych. Po pierwsze na podstawie wyników korelacji nie możemy sobie pozwolić na wnioskowanie przyczynowo skutkowe – jedyne co możemy stwierdzić to związek pomiędzy zmiennymi. Po drugie analiza korelacji taka jak r Pearsona, Rho Spearmana czy Tau Kendalla pozwala jedynie na wykrycie związku pomiędzy dwiema zmiennymi.

Interpretacja korelacji

Analizy statystyczne oparte na korelacji przyjmują wartości od -1 do 1. Analizując wyniki korelacji mówimy o jej kierunku oraz sile. O kierunku zależności mówi nam znak wartości korelacji. Jeżeli nasza wartość jest ujemna oznacza to, że związek pomiędzy zmiennymi jest odwrotnie proporcjonalny (korelacja ujemna), natomiast jeżeli wartość jest dodatnia mówimy w takim przypadku o zależności dodatniej. O korelacji ujemnej mówimy wówczas gdy wartości jednej zmiennej rosną a drugiej  maleją, natomiast w przypadku korelacji dodatniej wartości obu zmiennych rosną.

Przykład korelacji ujemnej

Wraz ze wzrostem wagi badanych maleje ich wytrzymałość w biegu na 10 km.

Przykład korelacji dodatniej

Wraz ze wzrostem liczby treningów rośnie wytrzymałość w biegu na 10 km.

Siła korelacji zależy od jej wartości. Czym bliższa wartość liczby -1 bądź 1 tym siła naszej korelacji jest wyższa. Prowadząc analizy statystyczne z wykorzystaniem testów korelacyjnych najczęściej przyjmuje się za wysoką korelację wartość powyżej 0,6 bądź też poniżej -0,6. Za średnią siłę korelacji uważamy te 0,4 do 0,6 bądź -0,4 do -0,6.

Analizy statystyczne – korelacja

Planując przeprowadzenie analiz statystycznych tak naprawdę mamy do wyboru dwie drogi. Pierwsza z nich to grupa analiz statystycznych opartych na korelacjach a więc testach badających związek pomiędzy dwoma bądź większa liczbą zmiennych. Druga droga służy do weryfikacji hipotez dotyczących różnic pomiędzy grupami bądź pomiarami prowadzonymi w różnym czasie. W poniższym artykule skupimy się jednak na analizach statystycznych opartych na metodach korelacyjnych.

Obliczenia statystyczne z wykorzystaniem analiz korelacyjnych to grupa testów pozwalająca zbadać czy pomiędzy testowanymi zmiennymi występują istotne zależności. Należy jednak pamiętać, że testy oparte na korelacjach nie pozwalają na wyciąganie wniosków przyczynowo skutkowych tzn. nie możemy stwierdzić, która ze zmiennych pełni rolę zmiennej wyjaśniającej a która wyjaśnianej. Jedyne co w przypadku analiz statystycznych opartych na korelacjach możemy stwierdzić z całą pewnością to fakt wystąpienia związku pomiędzy zmiennymi.

Najpopularniejsze testy oparte na korelacjach pozwalające zbadać zależność pomiędzy dwiema zmiennymi to współczynnik korelacji r Pearsona, współczynnik korelacji Rho Spearmana oraz współczynnik korelacji Tau Kendalla. Oczywiście każdy z tych testów stosowany jest w pewnych warunkach, dlatego też poniżej znajduje się krótka charakterystyka każdego z wyżej wymienionych testów.

Korelacja r Pearsona – obliczenia statystyczne z wykorzystaniem tegoż testu możemy przeprowadzić jedynie w przypadku gdy nasze zmienne wyrażone są na skali ilościowej a ich rozkłady są bliskie rozkładowi normalnemu. Korelacja r Pearsona pozwala zbadać związek liniowy pomiędzy dwiema zmiennymi.

Korelacja Rho Spearmana – obliczenia statystyczne z wykorzystaniem tej statystyki przeprowadzamy zazwyczaj wtedy gdy przynajmniej jedna z naszych zmiennych wyrażonych na skali ilościowej nie spełnia założenia dotyczącego normalności rozkładu. Warto również zaznaczyć, że analizy statystyczne z wykorzystaniem testu Rho Spearmana opiera się na analiza rang, jednak jej wynik odczytuje się w identyczny sposób jak korelacje r Pearsona.

Korelacja Tau Kendalla – obliczenia statystyczne z wykorzystaniem tego testu stosujemy wtedy gdy nasze zmienne (bądź przynajmniej jedna z nich) jest wyrażona na skali porządkowej. Należy również zaznaczyć, że opiera się na analizie rang – tak jak to jest w przypadku korelacji Rho Spearmana.

PODOBNE ARTYKUŁY:

Interpretacja wyników korelacji

Korelacja Spearmana

Korelacja Pearsona

Korelacja Tau Kendalla

testy parametryczne i nieparametryczne

Testy parametryczne

Są to statystyki, które możemy zastosować jedynie wtedy gdy spełnione są pewne założenia, które są jednak różne w zależności od rodzaju testu. Testy parametryczne posiadają większą moc niż testy zaliczane do grupy nieparametrycznych. Do grupy testów parametrycznych zliczamy; testy t Studenta, korelację Pearsona, Analizę wariancji, Regresję.

 

Testy nieparametryczne

Jest to grupa analiz statystycznych, charakteryzująca się mniejszą mocą niż testy parametryczne. Wykorzystujemy je wtedy gdy nasze zmienne nie spełniają założeń niezbędnych do zastosowania testów parametrycznych. Do testów nieparametrycznych zaliczamy test U Mann Whitneya dla dwóch prób niezależnych(odpowiednik parametryczny test t dla prób niezależnych), test Wilcoxona służący do porównywania dwóch prób zależnych (odpowiednik parametryczny test t dla prób zależnych), test Kruskala Wallisa służący do porównywania wielu grup niezależnych (odpowiednik  jednoczynnikowa analiza wariancji ANOVA) oraz współczynniki korelacji takie jak Rho Spearmana czy Tau Kendalla.

 

 

Czym są testy parametryczne?

Zastosowanie testów parametrycznych ma spore znaczenie, jeśli chodzi o analizowanie różnych zdarzeń w grupie określanej populacją. Są to analizy statystyczne w nazwie których występuje słowo test, więc można zasugerować się chociażby nazwą. Wymagana jest do ich przeprowadzenia orientacja w zakresie dystrybuanty populacji, którą będziemy poddawać analizie. Dystrybuanta dotyczy rozkładu zmiennej, do której odnosi się cały test. Jak w przypadku wielu innych analiz, konieczne jest upewnienie się co do tego, jaki występuje rozkład danych – preferowany jest normalny rozkład. Ustalamy również liczebność grupy poddawanej badaniu i jednorodność wariancji, o ile wykonywane w tym przypadku analizy statystyczne dotyczą większej ilości grup. Ważne jest zdecydowanie się na testy parametryczne właśnie z uwagi na to, że posiadane wytyczne odpowiadają założeniom tego rodzaju analiz. Wytyczne są właśnie podstawą do skorzystania właśnie z grupy testów parametrycznych, a nie jakichkolwiek innych, więc w przypadku niedopasowania tychże można wybrać dowolne, ale lepiej pasujące testy. Dzięki wykonaniu analizy statystycznej wybranej właśnie z kręgu tekstów parametrycznych można uzyskać na przykład wariancję, średnią arytmetyczną oraz wskaźnik struktury. Wśród testów odpowiadających uzyskaniu tychże danych występują: Test Friedmana, Test Kruskala-Wallisa, Test Wilcoxona, Test U-Manna Whitneya itp.

test t oraz Anova – Charakterystyka

Wyróżnia się również analizy statystyczne o nazwie testy t Studenta. Te analizy używane są przy porównywaniu średnich, dodatkowo mogą być używane tylko wtedy, gdy wystąpią pewne warunki. Z tego względu określa się je testami parametrycznymi. W analizie tego rodzaju wykorzystuje się zmienne zależne, które muszą znaleźć się na skali ilościowej oraz w rozkładzie normalnym. Można założyć również próby niezależne, ale wtedy porównywane średnie muszą należeć do równolicznych. Tego rodzaju analizy statystyczne mogą być wykonywane dla prób zależnych, niezależnych oraz dla jednej próby. Testy t, jak widać, są popularne i mają różne zastosowania. Próby niezależne dotyczą na przykład różnych grup niezależnych od siebie, czyli wzrost, wagę kobiet i mężczyzn lub długość sierści dwóch gatunków zwierząt. Testy t dla prób niezależnych w takich przypadkach przyjmują dwie zmienne – grupująca zmienna to płeć czy gatunek, zmienna zależna to waga, wzrost lub długość sierści. Porównywane grupy należy ujednolicić pod względem ilości, ponieważ w innym przypadku wyniki będą niewiarygodne. Testy t dla prób zależnych to również bardzo przydatne analizy statystyczne, w przypadku których obie zmienne zależą od siebie (może to być zależność związana z jakimś działaniem, jakiemu poddawane są obie zmienne w różnym czasie itd). W przypadku jeszcze jednej analizy, testu t dla jednej próby, wykorzystywana jest zmienna teoretyczna oraz średnia właściwa dla danej próby, w skali ilościowej oraz o rozkładzie normalnym.

Różnego rodzaju analizy statystyczne mają konkretne zastosowania, a więc Anova również takie posiada. Za pomocą tej analizy możemy porównać N grup niezależnych, co jest odpowiednie do sytuacji, gdy czynnik – inna nazwa zmiennej niezależnej – zawiera w sobie więcej grup niż dwie. Można więc sprawdzać poziom inteligencji osób z różnym wykształceniem, zaczynając od podstawowego po wyższy. Testy z użyciem analizy statystycznej Anova sprawdzą się w takim przypadku doskonale. Analizy statystyczne Anova należą, podobnie jak poprzednio opisane, do testów parametrycznych. Zanim pomyślimy o wykorzystaniu tego rodzaju w praktyce, musimy przekonać się o istnieniu odpowiednich zmiennych. Grupy zaliczane do zmiennej niezależnej muszą posiadać określoną liczebność, mianowicie zbliżoną. Zmienną zależną definiuje się ilościowo (iloraz inteligencji jak najbardziej można tak zdefiniować), a także gwarantuje normalny rozkład wyników. Analiza Anova określana jest też jednoczynnikową analizą wariancji. Podejmowane analizy statystyczne tego rodzaju mogą zagwarantować doskonałe wyniki, choć oczywiście nie do wszystkich zastosowań się nadają. W niektórych przypadkach stosować trzeba inne testy, na przykład test Z Kołmogorowa Smirnowa lub test Shapiro – wilka.

analiza korelacji

Odpowiednie analizy statystyczne są dostępne do różnych zastosowań i do stwierdzania różnych zależności. Jedną ze znanych i często używanych analiz jest korelacja. Do przeprowadzenia tej analizy potrzebne są zmienne, a badana będzie zależność między nimi – czy w ogóle istnieje, w jakim jest kierunku itd. Chodzi oczywiście o zależność liniową. W przypadku korelacji można określić zależność liniową o wartości w zakresie od -1 do +1. Za pomocą oznaczeń oraz liczb można określić, jaką wartość przyjmują analizy statystyczne i w jakim kierunku występuje istniejąca zależność. Analiza statystyczna nazywana korelacją używana jest w różnych odmianach, na przykład jako współczynnik korelacji Spearmana, współczynnik korelacji Tau Kendalla czy też współczynnik korelacji r Pearsona. Trzeba odpowiednio rozłożyć zmienne oraz użyć właściwej skali, dzięki czemu wyniki mogą być prawidłowe i wiele mówiące. Wybór odnośnie tego, jakie analizy statystyczne zostaną wykorzystane, można uzależnić od rodzaju zmiennych. Na przykład zmienne wyrażone dzięki skali ilościowej oraz posiadające normalny rozkład można analizować za pomocą współczynnika korelacji r Pearsona. W przypadku, gdy zmienne nie znajdują się w rozkładzie normalnym (choćby jedna z nich), należy użyć korelacji Spearmana. Ostatni z omówionych współczynników, współczynnik Tau Kendalla, przydatny jest w przypadku skali porządkowych oraz znajdujących się na nich zmiennych.