statystyka_skrypt5.pdf

(500 KB) Pobierz
Microsoft Word - ANOVA_final_poprAnita
TESTY ISTOTNOŚCI RÓŻNIC DLA K PRÓB NIEZALEŻNYCH
Dotychczas poznaliśmy narzędzia statystyczne pozwalające na wykrycie istotnych
różnic między dwiema średnimi (np. poczucie szczęścia u kobiet i mężczyzn). Jednak w
praktyce badawczej często chcemy porównać ze sobą więcej niż dwie średnie, np. możemy
chcieć porównać skuteczność muzykoterapii u osób chorych na depresję, schizofrenię lub
zaburzenia jedzenia. Test t-Studenta i jego nieparametryczne odpowiedniki nie nadają się do
porównywania więcej niż dwóch grup. Do tego celu służy jednoczynnikowa analiza wariancji
(ANOVA) oraz test rang H Kruskala-Wallisa.
Jednoczynnikowa analiza wariancji w schemacie międzygrupowym ANOVA
Jednoczynnikową analizę wariancji najprościej można rozumieć jako rozszerzenie
testu t-Studenta: stosujemy ją w sytuacji, gdy zmienna niezależna (ta, według której dzielimy
nasze osoby badane) przyjmuje trzy lub więcej wartości.
Zapamiętaj!
Zmienne niezależne w analizie wariancji nazywane są CZYNNIKAMI. Wartości zmiennych
niezależnych nazywany POZIOMAMI czynnika.
Np. w badaniu, w którym testujemy wpływ poziomu stresu na wykonanie egzaminu,
CZYNNIKIEM jest poziom stresu, a występuje on na trzech POZIOMACH: RELAKS (mówimy, że
mogą poprawiać wynik aż do skutku), STRACH (informujemy studentów, że jest to test
ostatniej szansy), MOTYWACJA (zachęcamy studentów, by dali z siebie wszystko). Zmienną
zależną jest natomiast poziom wykonania egzaminu. ANOVA sprawdza, czy średnie w
porównywanych grupach różnią się od siebie
Podobnie, jak testy t, analizę wariancji możemy stosować w planach dla grup
niezależnych (schemat międzygrupowy), jak i dla grup zależnych (schemat
wewnątrzgrupowy), jednak na zajęciach omówimy tylko ten pierwszy wariant.
Założenia teoretyczne
1.
Zmienna zależna zmierzona na skali ilościowej, a jej rozkład w każdej grupie
przyjmuje kształt zbliżony do rozkładu normalnego.
2.
Zmienna niezależna (czynnik) zmierzona na skali jakościowej i przyjmuje przynajmniej
dwa poziomy(zwykle stosujemy analizę wariancji w przypadku, gdy porównujemy ze
sobą trzy lub więcej grup).
3.
Zebrane pomiary są niezależne od siebie, co oznacza na przykład, że uczestnicy
badania nie uzgadniali ze sobą odpowiedzi.
4.
Wariancja wyników zmiennej zależnej jest jednorodna w porównywanych grupach.
5.
Liczebność powinna być porównywalna we wszystkich grupach.
6.
Liczebność grup nie powinna być mniejsza niż 10.
1
Zapamiętaj! Im większa liczebność grup, tym bardziej rzetelny (wiarygodny) wynik: tym
większe prawdopodobieństwo, że gdy powtórzymy badania na innej grupie, to wynik będzie
taki sam. Zazwyczaj przyjmuje się, że zaufaniem można darzyć wyniki testów
parametrycznych obliczanych dla grup minimum 30-osobowych.
Sprawdzanie założeń teoretycznych do wykonania ANOVA w SPSS:
Przyjrzyjmy się temu posługując się powyżej opisanym przykładem. Zmienna
niezależna, czyli czynnik STRES, jest zmienną mierzoną na skali jakościowej i przyjmuje trzy
wartości: RELAKS, STRACH, MOTYWACJA. Zmienna zależna, WYNIK, to zmienna mierzona na
skali ilościowej.
A zatem należy sprawdzić normalność rozkładu zmiennej zależnej w porównywanych
grupach. Można uczynić to w sposób opisany w poprzednim skrypcie, tzn. dzieląc zbiór
danych na podgrupy według poziomów czynnika (DANE ã PODZIEL NA PODZBIORY ã POKAŻ
WYNIKI W PODZIALE NA GRUPY), a następnie wykonując test K-S dla zmiennej zależnej
(ANALIZA ã TESTY NIEPARAMETRYCZNE ã K-S DLA JEDNEJ PRÓBY). Analizując otrzymane w
Raporcie SPSS tabele, porównujemy też liczebność grup. Grupy umownie uznajemy za
równoliczne, gdy różnica liczebności między nimi nie jest większa niż 10% z najliczniejszej
grupy. Jeśli wyniki uprawniają nas do zastosowania jednoczynnikowej analizy wariancji
ANOVA, przechodzimy do jej wykonania.
Hipoteza, jaką testuje ANOVA, brzmi: średnie w porównywanych grupach różnią się
od siebie. W menu ANALIZA odnajdujemy wiersz PORÓWNYWANIE ŚREDNICH, a następnie
wchodzimy w opcję JEDNOCZYNNIKOWA ANOVA.
2
321192146.004.png
W odpowiednich oknach definiujemy ZMIENNĄ ZALEŻNĄ („wynik”) oraz CZYNNIK
(„stres”).
W menu OPCJE (zob. niżej) zaznaczamy TEST JEDNORODNOŚCI WARIANCJI (aby
sprawdzić również ten warunek wykonania analizy wariancji). Warto wybrać dodatkowe
polecenia, które ułatwią interpretację wyników: w części STATYSTYKI możemy zaznaczyć
OPISOWE, (ewentualnie także WYKRES ŚREDNICH). Następnie potwierdzamy przyciskiem
DALEJ oraz OK.
3
321192146.005.png 321192146.006.png
W Raporcie SPSS otrzymujemy wtedy trzy tabele i wykres. W pierwszej tabeli
odczytujemy statystyki opisowe zmiennej zależnej w każdej z grup, a także ogólne, tzn. dla
wszystkich uczestników badania razem.
W tabeli drugiej znajdujemy wyniki testu Levene’a.
Hipoteza tego testu brzmi: wariancje w grupach różnią się od siebie. Wynik tego testu
zapiszemy następująco (pamiętając, że w nawiasie po nazwie statystyki zapisujemy liczbę
stopni swobody międzygrupową oraz wewnątrzgrupową ): F ( 2 , 57 ) = 0,95 ; p>0,05 . Oznacza
on, że różnica między wariancjami w poszczególnych grupach jest nieistotna statystycznie.
Zakładamy więc, że wariancje te są sobie równe.
W kolejnej tabeli odczytujemy wynik analizy wariancji ( wartość statystyki F oraz jej
istotność statystyczną) .
Prawidłowy zapis statystyki testu F wygląda następująco: F(2, 57) = 23,75, p < 0,001.
W nawiasie podajemy liczbę stopni swobody (zaznaczone w tabeli jako df), najpierw
międzygrupowe , potem wewnątrzgrupowe .
Na podstawie otrzymanego wyniku (istotny wynik statystyki F) odrzucamy hipotezę
zerową i stwierdzamy, że wystąpiły istotne różnice między średnimi w porównywanych
grupach. To jedyny wniosek, jaki możemy wyciągnąć na podstawie wykonanej
jednoczynnikowej analizy wariancji. Niestety nie wiemy, która z możliwych różnic jest istotna
statystycznie. Zerkając na statystyki opisowe (lub wykres średnich), możemy dostrzec jedynie
4
321192146.007.png 321192146.001.png 321192146.002.png
tendencje: najniższa średnia w grupie RELAKS, najwyższa w grupie MOTYWACJA, ale nadal
nie możemy nic powiedzieć na temat istotności statystycznej zaobserwowanych różnic. Do
tego celu służą porównania post hoc .
Zapamiętaj! Jeśli test Levene’a okaże się istotny statystycznie, odrzucamy założenie o
jednorodności wariancji w badanych grupach. Jeśli jest to jedyne niespełnione założenie
teoretyczne nałożone na jednoczynnikową analizę wariancji, nie musimy stosować testu
nieparametrycznego, tylko zamiast klasycznej statystyki F wykonujemy test Welcha lub
Browna-Forsythe’a. Interpretuje się je tak samo jak test F. Aby obliczyć te alternatywne
statystyki należy je zaznaczyć w menu OPCJE (patrz: poprzednie okno dialogowe). A więc
droga do tych testów przedstawia się następująco: ANALIZY ã PORÓWNANIE ŚREDNICH ã
JEDNOCZYNNIKOWA ANOVA ã OPCJE: tu zaznaczamy BROWN-FORSYTHE oraz WELCH.
Porównania post hoc
Analizy post hoc pomogą nam stwierdzić, które pary średnich są od siebie istotnie
różne. Możemy je zastosować tylko wtedy, gdy otrzymaliśmy istotny wynik testu F. W
analizach tych porównujemy każdą średnią w grupie z każdą inną średnią. W naszym
badaniu, przy trzech warunkach eksperymentalnych, będzie to 6 par porównywanych ze
sobą średnich: grupa RELAKS z grupą MOTYWACJA, grupa RELAKS z grupą STRACH, grupa
MOTYWACJA z grupą STRACH oraz porównania w drugą stronę (np. grupa MOTYWACJA z
grupą RELAKS), które są wykonywane w SPSSie, a które dają oczywiście taki sam wynik.
Zauważmy, że dzieje się trochę tak, jakbyśmy wykonywali serię testów t. Jednak większość
testów post hoc bierze poprawkę na liczbę porównań, dzięki czemu możemy mieć większe
zaufanie do otrzymanych wyników.
Test post hoc , który będziemy przeprowadzać na zajęciach, to NIR (Najmniejsza Istotna
Różnica) - jest to test najbardziej liberalny (najłatwiej tu o istotne różnice). Daje takie same
wyniki jak seria testów t dla każdej porównywanej pary.
Aby wykonać analizy post hoc w SPSSie, w oknie dialogowym JEDNOCZYNNIKOWA
ANOVA należy wejść w POST HOC i wybrać interesujące nas testy.
5
321192146.003.png
Zgłoś jeśli naruszono regulamin