Tag Archive for analiza ankiet

Analiza ankiet

Analiza ankiety krok po krokuJeżeli potrzebujesz pomocy analizując wyniki ankiet napisz do nas lub zadzwoń, doradzimy Ci jakie testy będą najlepsze dla Twoich danych. Pomożemy Ci rozwiać wszelkie wątpliwości a jeżeli zechcesz przeprowadzimy analizę ankiet za Ciebie, tworząc raport zawierający wykresy, tabele oraz opis uzyskanych wyników. Zajmujemy się również kodowaniem ankiet.

Przedstaw nam swój problem a my podpowiemy Ci jak go rozwiązać.

Oferta na analizę ankiet

Czytelniku jeśli zamierzasz sam opracować wyniki Swoich ankiet zapraszamy do naszego działu poświęconemu temu zagadnieniu. Znajdziesz tam wiele przydatnych informacji niezbędnych podczas analizy danych.

Analiza ankiet – przydatne informacje

 

Kurs spss – Test U Manna Whitneya

Kiedy wykorzystujemy test U Manna Whitneya ?

Test U Manna Whitneya stosujemy wtedy gdy chcemy porównać ze sobą dwie próby niezależne. Warto również dodać, że jest on uważany za nieparametryczny odpowiednik testu t Studenta dla prób niezależnych. Statystykę U Manna Whitneya wykorzystujemy zazwyczaj w przypadku gdy nasza zmienna zależna wyrażona jest na skali porządkowej bądź też ilościowej, jednak nie spełnia założeń wymaganych przez testy parametryczne (takie jak np. test t Studenta dla prób niezależnych).

testy nieparametryczne

Testy nieparametryczne to zbiór analiz statystycznych, które stosujemy m.in. wtedy gdy nasze zmienne nie spełniają założeń testów parametrycznych. Analizując zastosowanie poszczególnych testów nieparametrycznych łatwo możemy stwierdzić, iż niektóre z nich mają swe odpowiedniki w grupie testów parametrycznych. Do testów nieparametrycznych zaliczamy m.in. statystyki takie jak test U Manna Whitneya, Test Kruskala Wallisa, Test Wilcoxona, Korelacja Tau Kendalla, Korelacja Spearmana. Oczywiście to nie wszystkie testy nieparametryczne, ale w niniejszym artykule skupimy się właśnie na nich.

Test U Manna Whitneya to analiza statystyczna, która jest nieparametrycznym odpowiednikiem testu t studenta dla prób niezależnych. Test U Manna Whitneya wykorzystywany jest do porównywania dwóch prób niezależnych. Warto również zaznaczyć, że opisywana statystyka opiera się na porównywaniu rangowym (w przypadku testu t Studenta porównujemy średnie).

Test Kruskala Wallisa to analiza statystyczna, której parametrycznym odpowiednikiem jest jednoczynnikowa analiza wariancji (ANOVA). Test Kruskala Wallisa służy do porównywania wielu prób. Warto jednak dodać, że minusem opisywanej statystyki jest niemożność zidentyfikowania pomiędzy, którymi z grup występują istotne różnice (w przypadku ANOVY możemy tego dokonać przeprowadzając dodatkowo testy post hoc lub analizę kontrastów).

Test Wilcoxona to analiza statystyczna, która pozwala nam porównać ze sobą dwie próby zależne. Testem parametrycznym, który jest odpowiednikiem opisywanej statystyki jest test t studenta dla prób zależnych. Tak jak w przypadku pozostałych testów nieparametrycznych tak i w tym aparat obliczeniowy oparty jest na porównaniu rang.

Korelacja Tau Kendalla to analiza statystyczna dla zmiennych porządkowych lub rangowanych. Jej aparat obliczeniowy również opiera się na powiązaniach rang. Korelacja Tau Kendalla może przyjmować wartości od -1 do 1, interpretacja opisywanej analizy statystycznej jest więc taka sama jak chociażby w przypadku korelacji Pearsona czy Spearmana.

Korelacja Spearmana to nieparametryczny odpowiednik współczynnika korelacji Pearsona. Stosujemy go zazwyczaj wtedy gdy nasze zmienne nie spełniają założeń przeznaczonych dla testów nieparametrycznych. Warto dodać, że i ta analiza statystyczna opiera się na rangach.

Podsumowując powyżej opisane testy nieparametryczne mają swoje odpowiedniki wśród testów parametrycznych.

 

 

testy parametryczne

Testy parametryczne to grupa analiz statystycznych, które możemy stosować po uprzednim sprawdzeniu określonych założeń względem naszych zmiennych.  Założenia te najczęściej dotyczą normalności rozkładu testowanych zmiennych, ich charakteru (na jakiej skali są wyrażone) oraz liczebności grup. Do testów parametrycznych zaliczamy statystyki takie jak test t Studenta, Analiza korelacji Pearsona, Analiza Regresji, Analiza wariancji ANOVA, MANOVA itp. Poniżej w wielkim skrócie opiszemy testy parametryczne najczęściej wykorzystywane podczas prowadzenia różnorakich analiz statystycznych.

Test t Studenta dla prób niezależnych to analizy statystyczne służące do porównania dwóch grup niezależnych.  Musimy jednak pamiętać by przed zastosowaniem testu t Studenta sprawdzić czy nasze zmienne spełniają pewne założenia. Po pierwsze nasza zmienna zależna ( czyli wzrost) powinna być wyrażona na skali ilościowej a jej rozkład powinien być normalny. Ponadto  przed analizą statystyczną powinniśmy zwrócić uwagę na liczebność poszczególnych grup (dobrze by grupa mężczyzn  była podobna do grupy kobiet pod względem liczebności).

Test t Studenta dla prób zależnych to analizy statystyczne służące do porównania dwóch grup  zależnych. Np. Jeżeli chcemy sprawdzić czy trening na siłowni zmniejszy poziom wagi u badanych test t Studenta dla prób zależnych będzie do tego celu dobrą statystyką. Oczywiście najpierw powinniśmy sprawdzić założenia dotyczące normalności rozkładu obu pomiarów wagi( a więc waga przed treningiem na siłowni oraz po treningu na siłowni). Oprócz normalności rozkładu powinniśmy sprawdzić czy nasze zmienne (w tym przypadku poziom wagi mierzony przed treningiem oraz poziom wagi mierzony po treningu) są wyrażone na skali ilościowej ( w naszym przypadku waga wyrażona w kg. jest z pewnością wyrażona na skali ilościowej).

Test t Studenta dla jednej próby to analiza statystyczna pozwalająca zbadać czy średnia uzyskana wśród badanych z naszej próby różni się istotnie od wartości testowanej. Np. Jeżeli chcemy sprawdzić czy uczniowie z klasy II b różnią się istotnie poziomem inteligencji od populacji drugoklasistów test t Studenta dla jednej próby będzie idealnym rozwiązaniem. Oczywiście  jak w przypadku każdego innego testu parametrycznego musimy sprawdzić czy rozkład naszej próby ( w naszym przypadku chodzi o uczniów z II b) jest normalny oraz czy parametr, który badamy (a więc współczynnik inteligencji) wyrażony jest na skali ilościowej. Warto zaznaczyć również, że analizy statystyczne z wykorzystaniem testu t Studenta dla jednej próby wymagają od nas znajomości tzw. wartości testowane (a więc w naszym przypadku współczynnika inteligencji dla populacji drugoklasistów).

Korelacja Pearsona to analiza statystyczna, która służy do wykrywania związków liniowych pomiędzy dwoma zmiennymi. Musimy przy tym pamiętać, że na podstawie analiz korelacyjnych nie możemy wysnuwać wniosków przyczynowo skutkowych (jedynie możemy stwierdzić związek pomiędzy dwoma zmiennymi). W przypadku testu parametrycznego jakim jest korelacja Pearsona w pierwszej kolejności powinniśmy sprawdzić czy nasze zmienne posiadają rozkład normalny oraz  czy są wyrażone na skali ilościowej.

Jednoczynnikowa analiza wariancji (ANOVA) to analizy statystyczne pozwalające porównać ze sobą średnie dowolnej liczby grup. Np. jeżeli chcemy porównać czy studenci z różnych uczelni (np. politechnika, uniwersytet, akademia rolnicza) różnią się poziomem inteligencji to ANOVA jest do tego celu idealną analizą statystyczną. Testy parametryczne tego typu tak jak i pozostałe również muszą spełniać pewne założenia. Po pierwsze zmienna zależna (w naszym przypadku poziom inteligencji) musi posiadać rozkład normalny oraz mieć charakter ilościowy. Ponadto warto też zwrócić uwagę na liczbę osób w poszczególnych grupach (dobrze jeżeli liczba studentów politechniki, uniwersytetu i akademii rolniczej jest podobna).

Analiza wariancji z powtarzanymi pomiarami to test parametryczny służący do porównywania ze sobą dowolnej liczby prób zależnych. Np. jeżeli chcemy sprawdzić czy poziom inteligencji wzrasta wraz z wiekiem osób badanych analiza wariancji z powtarzanymi pomiarami będzie do tego celu dobrą statystyką. Załóżmy, że dokonujemy trzech pomiarów inteligencji w naszej próbie (powiedzmy pierwszy pomiar dokonujemy gdy badani mają 15 lat, drugi gdy mają 16 lat i trzeci gdy mają 17 lat). Następnie porównując średnie wyniki uzyskane w poszczególnych pomiarach (odstępach czasu) sprawdzamy czy rzeczywiście wraz z wiekiem badanych rośnie ich poziom inteligencji. By móc wykorzystać analizę wariancji z powtarzanymi pomiarami powinniśmy sprawdzić czy nasze pomiary posiadają rozkład normalny oraz czy zmienna, którą badamy ma charakter ilościowy.

Analiza regresji to test parametryczny, który pozwala sprawdzić wpływ predyktorów (zmiennych niezależnych) na zmienną zależną. Np. Jeżeli chcemy sprawdzić czy zmienne takie jak poziom inteligencji emocjonalnej (zmienna niezależna) i ilość lat nauki (zmienna niezależna) wpływają na poziom zarobków osób badanych (zmienna zależna) – analiza regresji może pomóc w odpowiedzi na to pytanie. Założenia jakie muszą spełniać nasze zmienne to rozkład normalny zarówno predyktorów jak i zmiennej zależnej oraz ich charakter ilościowy (założenia te nie dotyczą regresji logistycznej).

Obliczenia statystyczne z wykorzystaniem miar tendencji centralnej

Miary tendencji centralnej to obliczenia statystyczne, które dostarczają nam informacji na temat rozkładu naszych zmiennych. Do analiz statystycznych tego typu zaliczamy m.in. dominantę, medianę, średnią.

Dominanta to wartość zaliczana do grupy statystyk opisowych, która najczęściej występuje w zbiorze. Informacja tego typu jest przydatna podczas wstępnej analizy danych, ponieważ na jej podstawie możemy uzyskać informację na temat preferencji osób badanych.

Mediana to statystyka opisowa, która pozwala nam zidentyfikować wartość dzielącą nasz zbiór dokładnie na dwie równe części. Wartość mediany bardzo często wykorzystywana jest przy dychotomizacji zmiennych (podziel obserwacji na dwie grupy). Mediana zapewnia, że podział będzie równomierny tzn. w obu stworzonych grupach znajdzie się tyle samo obserwacji.

Średnia (arytmetyczna) to najpopularniejsza statystyka spośród miar tendencji centralnej. By ją obliczyć wystarczy dodać wszystkie wartości znajdujące się w naszym zbiorze a następnie uzyskaną sumę podzielić przez liczbę elementów (naszego zbioru). Średnia tak jak mediana jest wykorzystywana do dychotomizacji zmiennych. Warto jednak zaznaczyć, że opisywana miara jest narażona na wartości dewiacyjne (skrajne). Przy dychotomizacji (za pomocą średniej) oznacza to iż dzieląc nasz zbiór na dwie części nie możemy być pewni, że powstałe grupy będą równoliczne.

Analizy statystyczne – interpretacja wyników korelacji

Analizy statystyczne oparte na korelacjach to jedne z najczęściej wykorzystywanych statystyk podczas analizy różnego rodzaju danych. Obliczenia statystyczne tego typu wykorzystuje się zarówno w projektach naukowych jak i komercyjnych, ponadto są to testy bardzo proste w wykonaniu jak i interpretacji. Należy również powiedzieć o właściwościach owych analiz statystycznych. Po pierwsze na podstawie wyników korelacji nie możemy sobie pozwolić na wnioskowanie przyczynowo skutkowe – jedyne co możemy stwierdzić to związek pomiędzy zmiennymi. Po drugie analiza korelacji taka jak r Pearsona, Rho Spearmana czy Tau Kendalla pozwala jedynie na wykrycie związku pomiędzy dwiema zmiennymi.

Interpretacja korelacji

Analizy statystyczne oparte na korelacji przyjmują wartości od -1 do 1. Analizując wyniki korelacji mówimy o jej kierunku oraz sile. O kierunku zależności mówi nam znak wartości korelacji. Jeżeli nasza wartość jest ujemna oznacza to, że związek pomiędzy zmiennymi jest odwrotnie proporcjonalny (korelacja ujemna), natomiast jeżeli wartość jest dodatnia mówimy w takim przypadku o zależności dodatniej. O korelacji ujemnej mówimy wówczas gdy wartości jednej zmiennej rosną a drugiej  maleją, natomiast w przypadku korelacji dodatniej wartości obu zmiennych rosną.

Przykład korelacji ujemnej

Wraz ze wzrostem wagi badanych maleje ich wytrzymałość w biegu na 10 km.

Przykład korelacji dodatniej

Wraz ze wzrostem liczby treningów rośnie wytrzymałość w biegu na 10 km.

Siła korelacji zależy od jej wartości. Czym bliższa wartość liczby -1 bądź 1 tym siła naszej korelacji jest wyższa. Prowadząc analizy statystyczne z wykorzystaniem testów korelacyjnych najczęściej przyjmuje się za wysoką korelację wartość powyżej 0,6 bądź też poniżej -0,6. Za średnią siłę korelacji uważamy te 0,4 do 0,6 bądź -0,4 do -0,6.

Analizy statystyczne – korelacja

Planując przeprowadzenie analiz statystycznych tak naprawdę mamy do wyboru dwie drogi. Pierwsza z nich to grupa analiz statystycznych opartych na korelacjach a więc testach badających związek pomiędzy dwoma bądź większa liczbą zmiennych. Druga droga służy do weryfikacji hipotez dotyczących różnic pomiędzy grupami bądź pomiarami prowadzonymi w różnym czasie. W poniższym artykule skupimy się jednak na analizach statystycznych opartych na metodach korelacyjnych.

Obliczenia statystyczne z wykorzystaniem analiz korelacyjnych to grupa testów pozwalająca zbadać czy pomiędzy testowanymi zmiennymi występują istotne zależności. Należy jednak pamiętać, że testy oparte na korelacjach nie pozwalają na wyciąganie wniosków przyczynowo skutkowych tzn. nie możemy stwierdzić, która ze zmiennych pełni rolę zmiennej wyjaśniającej a która wyjaśnianej. Jedyne co w przypadku analiz statystycznych opartych na korelacjach możemy stwierdzić z całą pewnością to fakt wystąpienia związku pomiędzy zmiennymi.

Najpopularniejsze testy oparte na korelacjach pozwalające zbadać zależność pomiędzy dwiema zmiennymi to współczynnik korelacji r Pearsona, współczynnik korelacji Rho Spearmana oraz współczynnik korelacji Tau Kendalla. Oczywiście każdy z tych testów stosowany jest w pewnych warunkach, dlatego też poniżej znajduje się krótka charakterystyka każdego z wyżej wymienionych testów.

Korelacja r Pearsona – obliczenia statystyczne z wykorzystaniem tegoż testu możemy przeprowadzić jedynie w przypadku gdy nasze zmienne wyrażone są na skali ilościowej a ich rozkłady są bliskie rozkładowi normalnemu. Korelacja r Pearsona pozwala zbadać związek liniowy pomiędzy dwiema zmiennymi.

Korelacja Rho Spearmana – obliczenia statystyczne z wykorzystaniem tej statystyki przeprowadzamy zazwyczaj wtedy gdy przynajmniej jedna z naszych zmiennych wyrażonych na skali ilościowej nie spełnia założenia dotyczącego normalności rozkładu. Warto również zaznaczyć, że analizy statystyczne z wykorzystaniem testu Rho Spearmana opiera się na analiza rang, jednak jej wynik odczytuje się w identyczny sposób jak korelacje r Pearsona.

Korelacja Tau Kendalla – obliczenia statystyczne z wykorzystaniem tego testu stosujemy wtedy gdy nasze zmienne (bądź przynajmniej jedna z nich) jest wyrażona na skali porządkowej. Należy również zaznaczyć, że opiera się na analizie rang – tak jak to jest w przypadku korelacji Rho Spearmana.

PODOBNE ARTYKUŁY:

Interpretacja wyników korelacji

Korelacja Spearmana

Korelacja Pearsona

Korelacja Tau Kendalla

Miary tendencji centralnej

Miary tendencji centralnej to statystyki, które pozwalają określić wartości centralne danego zbioru. Do miar tendencji centralnych zaliczamy statystyki między innymi  takie jak dominanta, mediana, średnia arytmetyczna.

Dominanta – jest to wartość najczęściej pojawiająca się w zbiorze danych. Dominantę możemy policzyć dla zmiennych wyrażonych na skali nominalnej, porządkowej, ilościowej.

Mediana – jest to wartość dzieląca zbiór danych na dwie równe części. Dzięki statystyce mediany możemy stwierdzić, który element w naszym zbiorze dzieli nasze wyniki dokładnie na dwie części po 50%. Wartość Mediany jest bardzo często wykorzystywana do dychotomizacji zmiennej ilościowej. Medianę możemy policzyć dal zmiennych wyrażonych na skali ilościowej oraz porządkowej.

Średnia arytmetyczna – najpopularniejsza z miar tendencji centralnej. By obliczyć średnią arytmetyczną należy zsumować wszystkie wartości znajdujące się w naszym zbiorze a następnie podzielić tą wartość prze liczbę elementów. Średnią arytmetyczną możemy policzyć jedynie dla zmiennych wyrażonych na skali ilościowej. Warto również zaznaczyć, że średnia arytmetyczna jest podatna na wyniki dewiacyjne.

Średnia arytmetyczna

Średnia arytmetyczna to najczęściej wykorzystywana statystyka w różnego rodzaju raportach, zestawieniach itp. Średnia arytmetyczna należy do grupy statystyk zwanych miarami tendencji centralnej. Należy pamiętać, że średnią arytmetyczną możemy policzyć jedynie dla danych ilościowych – w przypadku gdy nasza zmienna ma charakter porządkowy bądź nominalny średniej arytmetycznej nie da się policzyć. Warto również zaznaczyć, że średnia arytmetyczna nie jest odporna na wyniki dewiacyjne tzn. znacząco odstające od pozostałych elementów znajdujacych się w zbiorze.

Aby policzyć średnią arytmetyczną należy zsumować wszystkie wartości znajdujące się w naszym zbiorze a następnie podzielić uzyskaną sumę przez liczbę elementów (naszego zbioru).

 

Przykład:

W naszym zbiorze znajdują się dane wzrostu pięciu koszykarzy

 

Koszykarz pierwszy – 195 cm

Koszykarz drugi – 205 cm

Koszykarz trzeci – 190 cm

Koszykarz czwarty – 188 cm

Koszykarz piąty – 179 cm

 

By obliczyć średnią arytmetyczną wzrostu  pięciu koszykarzy w pierwszej kolejności musimy zsumować wszystkie wyniki:

 

195 cm + 205 cm + 190 cm + 188 cm + 179 cm = 957 cm

 

Kolejny krok to podzielenie uzyskanej sumy wzrostu przez liczbę elementów znajdujących się w zbiorze. W naszym zbiorze znajdują są dane pięciu koszykarzy a więc uzyskaną przez nas sumę musimy podzielić przez 5.

 

957 / 5 = 191,4

 

Średnia arytmetyczna dla wzrostu koszykarzy znajdujących się w naszym zbiorze wynosi 191,4 cm.

Czym są testy parametryczne?

Zastosowanie testów parametrycznych ma spore znaczenie, jeśli chodzi o analizowanie różnych zdarzeń w grupie określanej populacją. Są to analizy statystyczne w nazwie których występuje słowo test, więc można zasugerować się chociażby nazwą. Wymagana jest do ich przeprowadzenia orientacja w zakresie dystrybuanty populacji, którą będziemy poddawać analizie. Dystrybuanta dotyczy rozkładu zmiennej, do której odnosi się cały test. Jak w przypadku wielu innych analiz, konieczne jest upewnienie się co do tego, jaki występuje rozkład danych – preferowany jest normalny rozkład. Ustalamy również liczebność grupy poddawanej badaniu i jednorodność wariancji, o ile wykonywane w tym przypadku analizy statystyczne dotyczą większej ilości grup. Ważne jest zdecydowanie się na testy parametryczne właśnie z uwagi na to, że posiadane wytyczne odpowiadają założeniom tego rodzaju analiz. Wytyczne są właśnie podstawą do skorzystania właśnie z grupy testów parametrycznych, a nie jakichkolwiek innych, więc w przypadku niedopasowania tychże można wybrać dowolne, ale lepiej pasujące testy. Dzięki wykonaniu analizy statystycznej wybranej właśnie z kręgu tekstów parametrycznych można uzyskać na przykład wariancję, średnią arytmetyczną oraz wskaźnik struktury. Wśród testów odpowiadających uzyskaniu tychże danych występują: Test Friedmana, Test Kruskala-Wallisa, Test Wilcoxona, Test U-Manna Whitneya itp.