Tag Archive for pomoc statystyczna

Pomoc statystyczna

Jeśli Potrzebujesz dobrze wykonanych obliczeń statystycznych…

Nic prostszego. Wystarczy, że skontaktujesz się z nami mailowo lub telefonicznie:

Pomoc statystyczna - analiza ankiet, obliczenia statystyczne

My pomożemy Ci dobrać odpowiednie obliczenia statystyczne do Twojej pracy, przeprowadzimy je, a następnie wyślemy na Twoją skrzynkę wszystkie niezbędne materiały.

UWAGA: od jakiegoś czasu zgłasza się do nas wiele osób, które chcą nam zlecić wykonanie poprawek po kolegach z branży, dlatego też informujemy, że zlecając nam wykonanie obliczeń statystycznych w cenie macie także ewentualne poprawki, których zażąda promotor. My odbieramy telefony i odpisujemy na maile nawet jak nam już zapłacicie 😉 

W ramach oferowanych przez nas usług otrzymujesz:

W ramach oferty obliczeń statystycznych otrzymasz bazę, raport i opis przygotowany w doc.

A to wszystko w przystępnej, atrakcyjnej cenie. Średni koszt opracowania obliczeń statystycznych do pracy to wydatek rzędu 150 zł. Przy niewielkiej liczbie analiz możesz otrzymać gotowe opracowanie za mniej niż 100 zł.

Sprawdź koszt obliczeń statystycznych do swojej pracy

Kurs spss – Test U Manna Whitneya

Kiedy wykorzystujemy test U Manna Whitneya ?

Test U Manna Whitneya stosujemy wtedy gdy chcemy porównać ze sobą dwie próby niezależne. Warto również dodać, że jest on uważany za nieparametryczny odpowiednik testu t Studenta dla prób niezależnych. Statystykę U Manna Whitneya wykorzystujemy zazwyczaj w przypadku gdy nasza zmienna zależna wyrażona jest na skali porządkowej bądź też ilościowej, jednak nie spełnia założeń wymaganych przez testy parametryczne (takie jak np. test t Studenta dla prób niezależnych).

testy nieparametryczne

Testy nieparametryczne to zbiór analiz statystycznych, które stosujemy m.in. wtedy gdy nasze zmienne nie spełniają założeń testów parametrycznych. Analizując zastosowanie poszczególnych testów nieparametrycznych łatwo możemy stwierdzić, iż niektóre z nich mają swe odpowiedniki w grupie testów parametrycznych. Do testów nieparametrycznych zaliczamy m.in. statystyki takie jak test U Manna Whitneya, Test Kruskala Wallisa, Test Wilcoxona, Korelacja Tau Kendalla, Korelacja Spearmana. Oczywiście to nie wszystkie testy nieparametryczne, ale w niniejszym artykule skupimy się właśnie na nich.

Test U Manna Whitneya to analiza statystyczna, która jest nieparametrycznym odpowiednikiem testu t studenta dla prób niezależnych. Test U Manna Whitneya wykorzystywany jest do porównywania dwóch prób niezależnych. Warto również zaznaczyć, że opisywana statystyka opiera się na porównywaniu rangowym (w przypadku testu t Studenta porównujemy średnie).

Test Kruskala Wallisa to analiza statystyczna, której parametrycznym odpowiednikiem jest jednoczynnikowa analiza wariancji (ANOVA). Test Kruskala Wallisa służy do porównywania wielu prób. Warto jednak dodać, że minusem opisywanej statystyki jest niemożność zidentyfikowania pomiędzy, którymi z grup występują istotne różnice (w przypadku ANOVY możemy tego dokonać przeprowadzając dodatkowo testy post hoc lub analizę kontrastów).

Test Wilcoxona to analiza statystyczna, która pozwala nam porównać ze sobą dwie próby zależne. Testem parametrycznym, który jest odpowiednikiem opisywanej statystyki jest test t studenta dla prób zależnych. Tak jak w przypadku pozostałych testów nieparametrycznych tak i w tym aparat obliczeniowy oparty jest na porównaniu rang.

Korelacja Tau Kendalla to analiza statystyczna dla zmiennych porządkowych lub rangowanych. Jej aparat obliczeniowy również opiera się na powiązaniach rang. Korelacja Tau Kendalla może przyjmować wartości od -1 do 1, interpretacja opisywanej analizy statystycznej jest więc taka sama jak chociażby w przypadku korelacji Pearsona czy Spearmana.

Korelacja Spearmana to nieparametryczny odpowiednik współczynnika korelacji Pearsona. Stosujemy go zazwyczaj wtedy gdy nasze zmienne nie spełniają założeń przeznaczonych dla testów nieparametrycznych. Warto dodać, że i ta analiza statystyczna opiera się na rangach.

Podsumowując powyżej opisane testy nieparametryczne mają swoje odpowiedniki wśród testów parametrycznych.

 

 

testy parametryczne

Testy parametryczne to grupa analiz statystycznych, które możemy stosować po uprzednim sprawdzeniu określonych założeń względem naszych zmiennych.  Założenia te najczęściej dotyczą normalności rozkładu testowanych zmiennych, ich charakteru (na jakiej skali są wyrażone) oraz liczebności grup. Do testów parametrycznych zaliczamy statystyki takie jak test t Studenta, Analiza korelacji Pearsona, Analiza Regresji, Analiza wariancji ANOVA, MANOVA itp. Poniżej w wielkim skrócie opiszemy testy parametryczne najczęściej wykorzystywane podczas prowadzenia różnorakich analiz statystycznych.

Test t Studenta dla prób niezależnych to analizy statystyczne służące do porównania dwóch grup niezależnych.  Musimy jednak pamiętać by przed zastosowaniem testu t Studenta sprawdzić czy nasze zmienne spełniają pewne założenia. Po pierwsze nasza zmienna zależna ( czyli wzrost) powinna być wyrażona na skali ilościowej a jej rozkład powinien być normalny. Ponadto  przed analizą statystyczną powinniśmy zwrócić uwagę na liczebność poszczególnych grup (dobrze by grupa mężczyzn  była podobna do grupy kobiet pod względem liczebności).

Test t Studenta dla prób zależnych to analizy statystyczne służące do porównania dwóch grup  zależnych. Np. Jeżeli chcemy sprawdzić czy trening na siłowni zmniejszy poziom wagi u badanych test t Studenta dla prób zależnych będzie do tego celu dobrą statystyką. Oczywiście najpierw powinniśmy sprawdzić założenia dotyczące normalności rozkładu obu pomiarów wagi( a więc waga przed treningiem na siłowni oraz po treningu na siłowni). Oprócz normalności rozkładu powinniśmy sprawdzić czy nasze zmienne (w tym przypadku poziom wagi mierzony przed treningiem oraz poziom wagi mierzony po treningu) są wyrażone na skali ilościowej ( w naszym przypadku waga wyrażona w kg. jest z pewnością wyrażona na skali ilościowej).

Test t Studenta dla jednej próby to analiza statystyczna pozwalająca zbadać czy średnia uzyskana wśród badanych z naszej próby różni się istotnie od wartości testowanej. Np. Jeżeli chcemy sprawdzić czy uczniowie z klasy II b różnią się istotnie poziomem inteligencji od populacji drugoklasistów test t Studenta dla jednej próby będzie idealnym rozwiązaniem. Oczywiście  jak w przypadku każdego innego testu parametrycznego musimy sprawdzić czy rozkład naszej próby ( w naszym przypadku chodzi o uczniów z II b) jest normalny oraz czy parametr, który badamy (a więc współczynnik inteligencji) wyrażony jest na skali ilościowej. Warto zaznaczyć również, że analizy statystyczne z wykorzystaniem testu t Studenta dla jednej próby wymagają od nas znajomości tzw. wartości testowane (a więc w naszym przypadku współczynnika inteligencji dla populacji drugoklasistów).

Korelacja Pearsona to analiza statystyczna, która służy do wykrywania związków liniowych pomiędzy dwoma zmiennymi. Musimy przy tym pamiętać, że na podstawie analiz korelacyjnych nie możemy wysnuwać wniosków przyczynowo skutkowych (jedynie możemy stwierdzić związek pomiędzy dwoma zmiennymi). W przypadku testu parametrycznego jakim jest korelacja Pearsona w pierwszej kolejności powinniśmy sprawdzić czy nasze zmienne posiadają rozkład normalny oraz  czy są wyrażone na skali ilościowej.

Jednoczynnikowa analiza wariancji (ANOVA) to analizy statystyczne pozwalające porównać ze sobą średnie dowolnej liczby grup. Np. jeżeli chcemy porównać czy studenci z różnych uczelni (np. politechnika, uniwersytet, akademia rolnicza) różnią się poziomem inteligencji to ANOVA jest do tego celu idealną analizą statystyczną. Testy parametryczne tego typu tak jak i pozostałe również muszą spełniać pewne założenia. Po pierwsze zmienna zależna (w naszym przypadku poziom inteligencji) musi posiadać rozkład normalny oraz mieć charakter ilościowy. Ponadto warto też zwrócić uwagę na liczbę osób w poszczególnych grupach (dobrze jeżeli liczba studentów politechniki, uniwersytetu i akademii rolniczej jest podobna).

Analiza wariancji z powtarzanymi pomiarami to test parametryczny służący do porównywania ze sobą dowolnej liczby prób zależnych. Np. jeżeli chcemy sprawdzić czy poziom inteligencji wzrasta wraz z wiekiem osób badanych analiza wariancji z powtarzanymi pomiarami będzie do tego celu dobrą statystyką. Załóżmy, że dokonujemy trzech pomiarów inteligencji w naszej próbie (powiedzmy pierwszy pomiar dokonujemy gdy badani mają 15 lat, drugi gdy mają 16 lat i trzeci gdy mają 17 lat). Następnie porównując średnie wyniki uzyskane w poszczególnych pomiarach (odstępach czasu) sprawdzamy czy rzeczywiście wraz z wiekiem badanych rośnie ich poziom inteligencji. By móc wykorzystać analizę wariancji z powtarzanymi pomiarami powinniśmy sprawdzić czy nasze pomiary posiadają rozkład normalny oraz czy zmienna, którą badamy ma charakter ilościowy.

Analiza regresji to test parametryczny, który pozwala sprawdzić wpływ predyktorów (zmiennych niezależnych) na zmienną zależną. Np. Jeżeli chcemy sprawdzić czy zmienne takie jak poziom inteligencji emocjonalnej (zmienna niezależna) i ilość lat nauki (zmienna niezależna) wpływają na poziom zarobków osób badanych (zmienna zależna) – analiza regresji może pomóc w odpowiedzi na to pytanie. Założenia jakie muszą spełniać nasze zmienne to rozkład normalny zarówno predyktorów jak i zmiennej zależnej oraz ich charakter ilościowy (założenia te nie dotyczą regresji logistycznej).

Analizy statystyczne – interpretacja wyników korelacji

Analizy statystyczne oparte na korelacjach to jedne z najczęściej wykorzystywanych statystyk podczas analizy różnego rodzaju danych. Obliczenia statystyczne tego typu wykorzystuje się zarówno w projektach naukowych jak i komercyjnych, ponadto są to testy bardzo proste w wykonaniu jak i interpretacji. Należy również powiedzieć o właściwościach owych analiz statystycznych. Po pierwsze na podstawie wyników korelacji nie możemy sobie pozwolić na wnioskowanie przyczynowo skutkowe – jedyne co możemy stwierdzić to związek pomiędzy zmiennymi. Po drugie analiza korelacji taka jak r Pearsona, Rho Spearmana czy Tau Kendalla pozwala jedynie na wykrycie związku pomiędzy dwiema zmiennymi.

Interpretacja korelacji

Analizy statystyczne oparte na korelacji przyjmują wartości od -1 do 1. Analizując wyniki korelacji mówimy o jej kierunku oraz sile. O kierunku zależności mówi nam znak wartości korelacji. Jeżeli nasza wartość jest ujemna oznacza to, że związek pomiędzy zmiennymi jest odwrotnie proporcjonalny (korelacja ujemna), natomiast jeżeli wartość jest dodatnia mówimy w takim przypadku o zależności dodatniej. O korelacji ujemnej mówimy wówczas gdy wartości jednej zmiennej rosną a drugiej  maleją, natomiast w przypadku korelacji dodatniej wartości obu zmiennych rosną.

Przykład korelacji ujemnej

Wraz ze wzrostem wagi badanych maleje ich wytrzymałość w biegu na 10 km.

Przykład korelacji dodatniej

Wraz ze wzrostem liczby treningów rośnie wytrzymałość w biegu na 10 km.

Siła korelacji zależy od jej wartości. Czym bliższa wartość liczby -1 bądź 1 tym siła naszej korelacji jest wyższa. Prowadząc analizy statystyczne z wykorzystaniem testów korelacyjnych najczęściej przyjmuje się za wysoką korelację wartość powyżej 0,6 bądź też poniżej -0,6. Za średnią siłę korelacji uważamy te 0,4 do 0,6 bądź -0,4 do -0,6.

Analizy statystyczne – korelacja

Planując przeprowadzenie analiz statystycznych tak naprawdę mamy do wyboru dwie drogi. Pierwsza z nich to grupa analiz statystycznych opartych na korelacjach a więc testach badających związek pomiędzy dwoma bądź większa liczbą zmiennych. Druga droga służy do weryfikacji hipotez dotyczących różnic pomiędzy grupami bądź pomiarami prowadzonymi w różnym czasie. W poniższym artykule skupimy się jednak na analizach statystycznych opartych na metodach korelacyjnych.

Obliczenia statystyczne z wykorzystaniem analiz korelacyjnych to grupa testów pozwalająca zbadać czy pomiędzy testowanymi zmiennymi występują istotne zależności. Należy jednak pamiętać, że testy oparte na korelacjach nie pozwalają na wyciąganie wniosków przyczynowo skutkowych tzn. nie możemy stwierdzić, która ze zmiennych pełni rolę zmiennej wyjaśniającej a która wyjaśnianej. Jedyne co w przypadku analiz statystycznych opartych na korelacjach możemy stwierdzić z całą pewnością to fakt wystąpienia związku pomiędzy zmiennymi.

Najpopularniejsze testy oparte na korelacjach pozwalające zbadać zależność pomiędzy dwiema zmiennymi to współczynnik korelacji r Pearsona, współczynnik korelacji Rho Spearmana oraz współczynnik korelacji Tau Kendalla. Oczywiście każdy z tych testów stosowany jest w pewnych warunkach, dlatego też poniżej znajduje się krótka charakterystyka każdego z wyżej wymienionych testów.

Korelacja r Pearsona – obliczenia statystyczne z wykorzystaniem tegoż testu możemy przeprowadzić jedynie w przypadku gdy nasze zmienne wyrażone są na skali ilościowej a ich rozkłady są bliskie rozkładowi normalnemu. Korelacja r Pearsona pozwala zbadać związek liniowy pomiędzy dwiema zmiennymi.

Korelacja Rho Spearmana – obliczenia statystyczne z wykorzystaniem tej statystyki przeprowadzamy zazwyczaj wtedy gdy przynajmniej jedna z naszych zmiennych wyrażonych na skali ilościowej nie spełnia założenia dotyczącego normalności rozkładu. Warto również zaznaczyć, że analizy statystyczne z wykorzystaniem testu Rho Spearmana opiera się na analiza rang, jednak jej wynik odczytuje się w identyczny sposób jak korelacje r Pearsona.

Korelacja Tau Kendalla – obliczenia statystyczne z wykorzystaniem tego testu stosujemy wtedy gdy nasze zmienne (bądź przynajmniej jedna z nich) jest wyrażona na skali porządkowej. Należy również zaznaczyć, że opiera się na analizie rang – tak jak to jest w przypadku korelacji Rho Spearmana.

PODOBNE ARTYKUŁY:

Interpretacja wyników korelacji

Korelacja Spearmana

Korelacja Pearsona

Korelacja Tau Kendalla

Czym są testy parametryczne?

Zastosowanie testów parametrycznych ma spore znaczenie, jeśli chodzi o analizowanie różnych zdarzeń w grupie określanej populacją. Są to analizy statystyczne w nazwie których występuje słowo test, więc można zasugerować się chociażby nazwą. Wymagana jest do ich przeprowadzenia orientacja w zakresie dystrybuanty populacji, którą będziemy poddawać analizie. Dystrybuanta dotyczy rozkładu zmiennej, do której odnosi się cały test. Jak w przypadku wielu innych analiz, konieczne jest upewnienie się co do tego, jaki występuje rozkład danych – preferowany jest normalny rozkład. Ustalamy również liczebność grupy poddawanej badaniu i jednorodność wariancji, o ile wykonywane w tym przypadku analizy statystyczne dotyczą większej ilości grup. Ważne jest zdecydowanie się na testy parametryczne właśnie z uwagi na to, że posiadane wytyczne odpowiadają założeniom tego rodzaju analiz. Wytyczne są właśnie podstawą do skorzystania właśnie z grupy testów parametrycznych, a nie jakichkolwiek innych, więc w przypadku niedopasowania tychże można wybrać dowolne, ale lepiej pasujące testy. Dzięki wykonaniu analizy statystycznej wybranej właśnie z kręgu tekstów parametrycznych można uzyskać na przykład wariancję, średnią arytmetyczną oraz wskaźnik struktury. Wśród testów odpowiadających uzyskaniu tychże danych występują: Test Friedmana, Test Kruskala-Wallisa, Test Wilcoxona, Test U-Manna Whitneya itp.

Zastosowanie testu U Manna Whitneya

Test U Manna Whitneya to analiza statystyczna wykorzystywana w przypadku gdy chcemy porównać wyniki dwóch grup niezależnych. Statystyka ta zaliczana jest do grupy testów nieparametrycznych opartych na rangach. Parametrycznym odpowiednikiem testu U Manna Whitneya jest test t studenta dla prób niezależnych, który wykorzystujemy wtedy gdy nasza zmienna zależna spełnia pewne założenia. W przypadku gdy zmienna zależna nie posiada rozkładu normalnego bądź też jest wyrażona na skali porządkowej stosujemy analizę statystyczną U Manna Whitneya. Istotną różnicą pomiędzy analizą statystyczną jaką jest test t dla prób niezależnych oraz analizą statystyczną (test U Manna Whitneya)  jest sposób porównywania obu grup. W przypadku testu t aparat obliczeniowy oparty jest na porównywaniu średnich uzyskanych z wyników obu grup niezależnych, natomiast test U Manna Whitneya porównuje rangi. Podsumowując analiza statystyczna jaką jest test U Manna Whitneya wykorzystujemy w przypadku gdy zmienna zależna wyrażona jest na skali porządkowej bądź też ilościowej lecz nie posiadająca rozkładu normalnego.

Zastosowanie jednoczynnikowej analizy wariancji (ANOVA)

Analiza statystyczna jaką jest Anova służy do porównywania N grup niezależnych. Stosujemy ją zazwyczaj, gdy nasza zmienna niezależna (w statystyce zwana czynnikiem) składa się z więcej niż dwóch grup np. jeżeli chcielibyśmy sprawdzić czy osoby z wykształceniem zawodowym, średnim oraz wyższym różnią się istotnie od siebie poziomem IQ to analiza statystyczna Anova jest do tego celu idealnym testem. Jednoczynnikowa analiza wariancji zaliczana jest do testów parametrycznych co sprawia, że przed analizą statystyczną dokonaną za pomocą tego testu powinniśmy sprawdzić czy nasze zmienne spełniają pewne założenia. Jeśli chodzi o zmienną niezależną (zwaną też czynnikiem) to najważniejsze założenie dotyczy liczby osób przynależących do poszczególnych grup tworzących tą zmienną. Wyjaśniając to na wcześniej przytoczonym przykładzie chodzi o to by liczba osób posiadająca wykształcenie zawodowe, średnie, oraz wyższe była do siebie zbliżona. Zmienna zależna (w naszym przykładzie IQ), natomiast powinna mieć charakter ilościowy a jej rozkład wyników powinien być zbliżony do normalnego. W naszym przykładzie zmienna jaką jest współczynnik IQ z natury ma charakter ilościowy a więc jedno z założeń możemy uznać za spełnione, natomiast co do rozkładu naszej zmiennej tu musimy zastosować jedną z analiz statystycznych służących do weryfikacji normalności rozkładu ( zazwyczaj jest to test Z Kołmogorowa Smirnowa bądź też test Shapiro – wilka). Podsumowując jednoczynnikową analizę wariancji stosujemy wtedy gdy chcemy porównać ze sobą wyniki uzyskane przez minimum trzy grupy badawcze.

Testy t Studenta – zastosowanie

Testy t Studenta to grupa analiz statystycznych, która swój aparat obliczeniowy opiera na porównywaniu średnich. Są to statystyki wchodzące w grupę testów parametrycznych co oznacza iż ich zastosowanie wymaga spełnienia pewnych założeń.

Założenia:

– Zmienne zależne powinny być wyrażone na skali ilościowej

– Zmienne zależne powinny charakteryzować się rozkładem normalnym

– W przypadku testu t dla prób niezależnych porównywane grupy powinny być równoliczne

W skład opisywanych analiz statystycznych wchodzą testy t dla prób niezależnych, testy t dla prób zależnych oraz test t dla jednej próby. Poniżej znajduje się krótka charakterystyka każdego z nich.

Test t dla prób niezależnych: wykorzystujemy go wtedy gdy chcemy porównać średnie dwóch grup niezależnych od siebie np. jeżeli chcemy sprawdzić czy kobiety i mężczyźni różnią się wzrostem wtedy test t dla prób niezależnych jest idealnym rozwiązaniem. W takim przypadku zmienna płeć w analizie statystycznej staje się naszą zmienną grupującą, natomiast wzrost (wyrażony np. w centymetrach) – zmienną zależną. Przed wykonaniem analizy statystycznej musimy jednak pamiętać by sprawdzić pewne cechy naszych zmiennych. Po pierwsze grupy, które chcemy porównać (a więc w naszym przykładzie kobiety i mężczyźni) powinny być zbliżone liczebnościowo co oznacza, że powinniśmy przebadać podobną ilość kobiet i mężczyzn. Co do zmiennej zależnej, którą w naszym przypadku jest wzrost, powinna ona charakteryzować się rozkładem normalnym oraz być wyrażona na skali ilościowej. Jeżeli powyższe wytyczne sa spełnione możemy przejść do wykonania obliczeń statystycznych.

Test t dla prób zależnych: jak sama nazwa wskazuje służy on do porównywania zmiennych, które są zależne od siebie np. jeżeli chcemy sprawdzić czy dieta odchudzająca jest skuteczna możemy tego dokonać za pomocą test t dla prób zależnych. By to sprawdzić powinniśmy posiadać dwie zmienne, pomiar przed zastosowaniem diety oraz pomiar po zakończeniu kuracji odchudzającej. Założenia jakie muszą spełnić nasze zmienne byśmy mogli przeprowadzić taką analizę statystyczną to normalność rozkładu obu pomiarów oraz  ich ilościowy charakter. Jeżeli wymienione założenia są spełnione nic nie stoi na przeszkodzie do przeprowadzenia naszych obliczeń statystycznych.

Test t dla jednej próby: to analiza statystyczna służąca do porównywania średniej naszego rozkładu z rozkładem zmiennej teoretycznej np. jeżeli chcemy sprawdzić czy  klasa gimnazjalistów z miejscowości x rozwiązała test inteligencji lepiej niż wynosi średnia krajowa w tym przedziale wiekowym test t dla jednej próby będzie do tego dobrym rozwiązaniem. Oczywiście by móc takie obliczenia statystyczne przeprowadzić musimy znać średni wynik  inteligencji dla populacji gimnazjalistów. Jeżeli chodzi o założenia to nasza próba powinna być wyrażona na skali ilościowej oraz powinna mieć rozkład normalny.