Testy t.doc

(11958 KB) Pobierz
Wyobraźmy sobie, że chcemy porównać dwie populacje – na przykład populację kobiet z populacją mężczyzn – ze względu na wartośc

TESTY t

 

Pod nazwą „testy t” kryją się trzy rodzaje testów – dla prób niezależnych, dla prób zależnych oraz dla jednej próby. W pierwszej kolejności omówione zostaną założenia testu i jego konstrukcja dla przypadku testu t dla prób niezależnych oraz krótkie wyjaśnienie tego, jak „działają” testy t dla jednej próby oraz dla prób zależnych. W dalszej części znajdą się przykłady zastosowań poszczególnych typów testu, a także prześledzimy, jak wykonać testy t przy użyciu SPSS-a.

 

założenia teoretyczne testu t

Wyobraźmy sobie, że chcemy porównać dwie populacje – na przykład populację kobiet z populacją mężczyzn – ze względu na wartości jakiejś zmiennej przyjmowane w tych populacjach (np. wysokość zarobków). Jednym z podstawowych założeń testu t jest to, aby obserwacje były od siebie niezależne, a rozkład badanej zmiennej (w tym wypadku rozkład dochodów) był normalny. W przypadku testu t dla prób niezależnych (porównującego dwie rozłączne grupy) rozkład badanej zmiennej (dochodów) ma być normalny w obu porównywanych populacjach. O ile jest spełnione to założenie, to rozkład zarobków w populacji kobiet i w populacji mężczyzn jest normalny. Wówczas, aby jednoznacznie określić wszystkie parametry rozkładu (normalnego), wystarczy podać jego średnią i odchylenie standardowe. Równość odchyleń standardowych (a zatem i ich kwadratów, czyli wariancji) w obu populacjach jest kolejnym założeniem testu t, co oznacza, że rozkłady w obu populacjach mają mieć takie same szerokości. Wobec tego, aby przekonać się, że rozkład badanej zmiennej w obu grupach jest taki sam, wystarczy stwierdzić, czy średnie w badanych populacjach są takie same. Poniżej znajdują się dwa wykresy gęstości rozkładów normalnych – jeden dla populacji mężczyzn, drugi dla populacji kobiet:

 

 

Jak widać w górnej części wykresu, średnie dochody dla mężczyzn wynoszą 1800 pln, zaś odchylenie standardowe 100 pln. W przypadku kobiet średnia wynosi 1700 pln, odchylenie standardowe, podobnie jak w przypadku mężczyzn, wynosi 100 pln.

 

Przypuśćmy teraz, że zamierzamy wykonać test, który pozwoli nam zweryfikować hipotezę, że te populacje nie różnią się ze względu na wysokość zarobków. W tym wypadku jest to równoważne ze zweryfikowaniem hipotezy, że średnie dochody w populacji kobiet są równe średniej z dochodów w populacji mężczyzn. Zatem od tej pory wiemy, że hipoteza zerowa testu t stwierdza równość porównywanych średnich.

Jeśli chcemy zweryfikować prawdziwość tej hipotezy, to musimy się ograniczyć do wysnucia wniosków na ten temat na podstawie danych zebranych jedynie dla pewnych prób osób badanych (a nie całych populacji). Posiadając dane dotyczące prób osób badanych możemy wyznaczyć średnią z badanej zmiennej (w naszym przypadku z zarobków) w obydwóch grupach. Aby dobrze zrozumieć ideę testu t, musimy w tym miejscu zwrócić uwagę na to, że jeśli będziemy badać jedynie pewną podgrupę interesującej nas populacji, to może się na przykład zdarzyć (z czysto losowych przyczyn), że wybrane zostaną takie osoby, które mają wyniki (zarobki) wyższe niż średnia dla populacji, z której pochodzą. Wówczas średnia wyliczona z tych wyników będzie oczywiście wyższa niż średnia w populacji. Analogicznie, możemy wylosować akurat taką próbę, która generalnie będzie miała niskie wartości na badanej zmiennej (zarobkach). Gdybyśmy przeprowadzali takie losowanie próby bardzo wiele razy, to okazało by się, że uzyskanie średniej z próby różniącej się od średniej w populacji, z której ta próba została wylosowana, jest możliwe, ale im większa różnica między średnią wyliczoną dla próby i populacji, tym rzadziej pojawia się taki wynik. Ponadto wielkość odchyleń średniej wyliczonej z próby od średniej dla całej populacji zależy od wielkości odchylenia standardowego badanej zmiennej w populacji (generalnie średnia wyliczona z próby jest zmienną o rozkładzie normalnym ze średnią identyczną jak średnia w populacji oraz odchyleniem standardowym równym odchyleniu standardowemu dla populacji podzielonemu przez pierwiastek z ilości osób w badanej próbie:

).

Załóżmy, że przebadaliśmy pod względem badanej zmiennej dwie równoliczne próby wybrane z porównywanych populacji o identycznych rozkładach tej zmiennej, czyli przy założeniu prawdziwości hipotezy zerowej. Jeśli mamy dwie porównywane średnie (wyliczone z prób), to, aby ocenić, jak bardzo te średnie się różnią, możemy wyznaczyć różnicę tych wielkości.  Jak zostało przed chwilą zauważone, pojawiające się w przypadkowy sposób różnice między średnimi wyliczonymi na podstawie próby a średnimi dla populacji są proporcjonalne do odchyleń standardowych badanej zmiennej w populacji. Zatem, aby sensownie ocenić, jak „poważna” jest zaobserwowana różnica średnich wyliczonych z prób, należy tę wielkość podzielić przez odchylenie standardowe. Niestety nie dysponujemy wiedzą o wielkości odchylenia standardowego w porównywanych populacjach, a jedynie o odchyleniach standardowych w próbach i one będą musiały stanowić oszacowanie tego parametru. Poniżej znajduje się wzór na wyliczanie wartości statystyki t dla prób niezależnych.

 

 

wzór na wyliczanie wartości statystyki t w przypadku testu dla prób niezależnych:

, gdzie – średnia w i-tej grupie, Si – odchylenie standardowe w i-tej grupie, ni – ilość osób w i-tej grupie

 

- przybliżona wartość stopni swobody

 

Gdyby próby zostały faktycznie wybrane z identycznych populacji, to obydwie średnie grupowe (w wylosowanych próbach) powinny być stosunkowo bliskie średniej dla populacji, a zatem ich różnica (licznik wyrażenia na statystykę t) powinna być bliska zera, a stąd i cały ułamek powinien być bliski zera. Jak jednak już wcześniej podkreślaliśmy, możliwe jest losowe wybranie akurat takiej próby, dla której średnia będzie się bardzo różniła od średniej dla całej populacji. Jednak takie wyniki są bardzo mało prawdopodobne, czyli powinny się zdarzać bardzo rzadko. Należy to rozumieć w ten sposób, że dokonując wielokrotnego wyboru prób do przeprowadzenia testów (na przykład wybieramy 1000 razy po jednej próbie z populacji kobiet i mężczyzn, za każdym razem niezależnie od poprzedniego losowania), to dla większości wylosowanych par prób wartości statystyki t będą bliskie zera. Spodziewamy się tak samo często występowania wartości dodatnich jak i ujemnych; im dalej od zera znajduje się wynik statystyki t, tym rzadziej powinien się pojawiać (o ile faktycznie losowaliśmy próby z identycznych populacji). Przy założeniu prawdziwości hipotezy zerowej otrzymana statystyka ma rozkład nazywany rozkładem t. Dla pełnej ścisłości należy dodać, że rozkłady t tworzą całą rodzinę, której parametrami są stopnie swobody (wyliczane jak wyżej). W przypadku równolicznych grup i równych wariancji (a zatem i odchyleń standardowych w porównywanych grupach) stopnie swobody dla prób niezależnych są równe ilości przebadanych osób (w obu grupach razem) minus 2. Poniżej znajdują się dwa wykresy rozkładów gęstości dla różnej liczby stopni swobody. Jak widać, rozkład statystyki t, nazywany również rozkładem Studenta, przypomina kształtem rozkład normalny. Generalnie, im więcej stopni swobody (im więcej przebadanych osób), tym bardziej rozkład t przypomina rozkład normalny. W praktyce dla stopni swobody powyżej 30 można się posługiwać rozkładem normalnym zamiast rozkładu t.

 

 

 

interpretacja wyniku testu t

 

Zastanówmy się teraz, co oznacza konkretny wynik testu, na przykład przebadaliśmy dwie 50-osobowe grupy pod kątem osiąganych przez nich dochodów, a otrzymany przez nas wynik to t = 1,75. Znając rozkład statystyki t, możemy odpowiedzieć na pytanie, jakie jest prawdopodobieństwo otrzymania tak dużej, albo nawet większej różnicy między średnimi. Jest to równoważne ze znalezieniem pola pod wykresem funkcji gęstości dla wartości większych bądź równych 1,75 oraz mniejszych bądź równych –1,75 (nie ważne, w którą stronę mamy odejść od zera, ale to, jak daleko). W tym wypadku prawdopodobieństwo będzie wynosiło 0,08. Należy to interpretować następująco: jeśli będziemy powtarzać losowanie 50-osobowych grup z nieróżniących się populacji, to w 8 przypadkach na 100 otrzymamy takie wyniki (). Interesujący nas zakres wyników został odcięty po obu stronach zera na poniższym wykresie:

 

 

Uzyskane w ten sposób prawdopodobieństwo nazywa się istotnością testu i oznacza literą p (probability – prawdopodobieńtwo). Kompletny wynik testu powinniśmy w tym wypadku zapisać następująco: .

Naszym zadaniem było zweryfikowanie hipotezy o równości średnich w porównywanych populacjach. Wiemy już, że uzyskany przez nas wynik jest mało typowy (odpowiadająca mu istotność wynosi jedynie 0,08). Zastanówmy się teraz, jakich wyników należy się spodziewać, jeśli średnie w populacjach, z których wybraliśmy próby różnią się. Wówczas różnica otrzymanych przez nas średnich grupowych powinna być generalnie różna od zera, a zatem wynik testu t też. Łącząc dwie informacje – czego należy się spodziewać w przypadku prawdziwości hipotezy zerowej oraz w przypadku, gdy jest ona nieprawdziwa, można powiedzieć, że wyniki bliskie zera przemawaiają za hipotezą zerową, natomiast wyniki dalekie od 0 świadczą przeciwko niej. W konsekwencji tej obserwacji, wszystkie możliwe wyniki testu t zostają podzielone na dwie kategorie – pierwsza z tych kategorii to wyniki nie dające podstaw do odrzucenia hipotezy zerowej (mówiącej o równości porównywanych średnich w populacji), zbiór wyników należących do tej kategorii nazywa się obszarem zgodności z hipotezą zerową. Drugą kategorię stanowią wyniki dające podstawy do odrzucenia hipotezy zerowej, ich zbiór nazywamy obszarem odrzucenia hipotezy zerowej, a należą do niego obserwacje znajdujące się najdalej od 0 (po obu stronach) i stanowiące wybrany procent wszystkich wyników testu t, które mogą się pojawić przy założeniu prawdziwości hipotezy zerowej. Procent wyników, które powodują odrzucenie hipotezy zerowej jest nazywany poziomem istotności testu. Zwyczajowo przyjmuje się poziom istotności równy a = 0,05 (inne często stosowane to a = 0,01, a = 0,005 lub a = 0,001). Jeszcze raz podkreślmy w tym miejscu, że wyniki, które powodują odrzucenie hipotezy zerowej mogą się pojawić w sytuacji, gdy hipoteza zerowa jest prawdziwa. Prawdopodobieństwo pojawienia się takiego wyniku jest równe wtedy poziomowi istotności, który jest wybierany przez badacza. Wobec tego, jeśli wybieramy poziom istotności a = 0,05, oznacza to tyle, że prawdopodobieństwo odrzucenia prawdziwej hipotezy zerowej wynosi 0,05. Im mniejszy wybrany poziom istotności, tym mniejsza szansa popełnienia tego rodzaju błędu (odrzucenia prawdziwej hipotezy). Nie ma natomiast łatwego sposobu na oszacowanie prawdopodobieństwa popełnienia błędu polegającego na przyjęciu fałszywej hipotezy.

W przypadku omawianego powyżej przykładu z wartością testu 1,75 oraz istotnością 0,08 możemy podjąć decyzję o przyjęciu hipotezy zerowej. Ponieważ istotność naszego testu (0,08) jest wyższa niż założony przez nas poziom istotności (0,05), to oznacza, że wynik testu odcina po obu stronach rozkładu t większy obszar niż obszar krytyczny, czyli wynik znajduje się w obszarze zgodności z hipotezą zerową, a więc nie ma podstaw do odrzucenia hipotezy zerowej. Natomiast, gdyby istotność testu wynosiła na przykład p = 0,03, to na wybranym poziomie istotności a = 0,05 mielibyśmy podstawy do odrzucenia hipotezy o równości porównywanych średnich (ponieważ wynik testu oraz symetryczny do niego odcina jedynie 0,03 pola pod wykresem gęstości, a pole nad obszarem krytycznym wynosi 0,05, to znaczy, że obszar krytyczny jest większy niż obszar odcięty wynikiem testu, a zatem wynik testu musi leżeć w obszarze krytycznym). Ogólne zasady przyjmowania/odrzucania hipotezy można przedstawić za pomocą schematu:

Oprócz testu t dla prób niezależnych istnieją dwa inne rodzaje tego testu – dla prób zależnych oraz dla jednej próby. Zaczniemy od omówienia testu t dla jednej próby.

 

test t dla jednej próby

W sytuacji porównywania średniej w badanej populacji z podaną z zewnątrz wartością korzysta się z testu t dla jednej próby. Test t dla jednej próby znajduje zastosowanie jeśli na przykład chcemy odpowiedzieć na pytanie, czy średnie dochody w populacji Polaków w 2000 roku były równe 1820 pln, albo, czy można odrzucić hipotezę o tym, że średni wzrost w populacji maturzystów wynosi 180 cm. Analogicznie, jak w przypadku testu t dla prób niezależnych, stosowanie testu t dla jednej próby wymaga spełnienia założenia o normalności rozkładu zmiennej testowanej oraz niezależności poszczególnych obserwacji. W takiej sytuacji wartość testu t wyliczamy na podstawie podanego niżej wzoru.

 

wzór na wyliczanie wartości statystyki t w przypadku testu dla jednej próby:

 

, gdzie – średnia testowana, wyliczona na podstawie wartości zmiennych,
m­ – średnia, do której porównywana jest wartość uzyskana empirycznie

 

n – ilość osób w grupie

 

df = n – 1 stopnie swobody

 

Interpretacja wyników w przypadku testu t dla jednej próby odbywa się tak samo, jak w przypadku testu t dla prób niezależnych.

 

test t dla prób zależnych

Test t dla prób zależnych jest narzędziem stosowanym do porównywania średnich z dwóch zmiennych w tej samej grupie osób. Najczęściej z taką sytuacją mamy do czynienia w przypadku tak zwanych powtarzanych pomiarów. Można na przykład porównywać średnią wysokość zarobków absolwentów SWPS w rok oraz w dwa lata po ukończeniu uczelni. Niezwykle ważne w przypadku testów t dla prób zależnych, żeby obie porównywane zmienne były opisane na tych samych skalach (możemy na przykład porównywać wysokości dochodów wyrażane w tej samej walucie; nie ma natomiast sensu porównywanie wzrostu w centymetrach z wzrostem liczonym w metrach).

Statystykę t dla prób zależnych wylicza się tak samo, jak dla jednej próby, ale zmienną testowaną jest w tym wypadku różnica wartości uzyskanych przez osoby badane w pierwszym i drugim pomiarze, a standardem, z którym się porównuje otrzymaną średnią jest m = 0.

 

 

Podsumowanie

 

test t dla prób niezależnych

Pierwszym rodzajem testu t jest test dla prób niezależnych  - jest to narzędzie statystyczne, które pozwala sprawdzić, czy średnie z tej samej zmiennej liczone w dwóch rozłącznych grupach osób badanych są takie same. Na przykład, używając tego testu, można sprawdzić:

·                czy średnie zarobki kobiet są takie same, jak średnie zarobki mężczyzn;

·                czy średnia ilość dzieci, jakie posiadają mieszkańcy wsi jest taka sama jak średnia ilość dzieci mieszkańców miast;

·                czy średni wzrost osób niepełnoletnich jest taki sam jak średni wzrost osób co najmniej 40-letnich;

·                czy średnia długość życia osób spod znaku wagi jest taka sama jak średnia długość życia osób spod znaku koziorożca.

 

test t dla prób zależnych

Kolejnym rodzajem testów t jest test dla prób zależnych – jest to narzędzie, które pozwala na porównanie średnich z dwóch zmiennych, przy czym osoby badane, których wyniki są brane pod uwagę przy wyznaczaniu tych średnich są w obu przypadkach te same. Przykłady zastosowań takiego testu to głównie porównywanie wyników z powtórzonych pomiarów tych samych wielkości, na przykład:

·                osoby badane zostają poddane badaniu tętna przed i po wykonaniu 20 przysiadów; test t porównuje w tym przypadku średnie tętno osób badanych z pomiaru przed wysiłkiem ze średnim tętnem osób badanych po wysiłku i weryfikuje hipotezę o równości tych średnich;

·                ważymy osoby badane na początku turnusu „dla grubasów” i pod koniec tego pobytu; test t porównuje średnią wagę uczestników turnusu z początku i z końca wyjazdu;

·                porównujemy średnią ilość wypalanych przez osoby badane papierosów na początku roku akademickiego i średnią ilość wypalanych papierosów w pierwszym tygodniu sesji zimowej.

Nie jest to jednak jedyna sytuacja, w której można korzystać z testu t dla prób zależnych. Jeśli mamy do czynienia z dwiema zmiennymi dotyczącymi tych samych osób i takimi, że różnica pierwszej i drugiej z nich jest sensowna (np. wykształcenie matki osoby badanej liczone w latach i wykształcenie ojca osoby badanej liczone w latach -  różnica tych zmiennych mówi o ile lat dłużej uczył się ojciec niż matka, ale np. para zmiennych „liczba rodzeństwa’ oraz „wzrost osoby badanej” nie nadaje się do tej analizy, bo różnica „troje rodzeństwa – 170 cm” jest bez sensu). Możemy w tej sytuacji porównywać np.:

·                czy średnia długość urlopu, na jaki wyjeżdżali badani jest taka sama jak średnia długość wymarzonego przez nich urlopu

·                czy średni wzrost babć osób badanych jest taki sam jak średni wzrost mam osób badanych

·                czy średnia z faktycznego dochodu osób badanych jest taka sama jak średnia z tego, na co badani swoim zdaniem zasługują

·                czy średni wiek, w którym ojcowie respondentów ożenili się jest taki sam, jak średni wiek matek osób badanych w chwili wychodzenia za mąż itp.

 

 

test t dla jednej próby

Jest jeszcze jeden typ testu t, który służy to tego, żeby porównać średnią z pewnej zmiennej ze średnią podaną zewnętrznie, z parametrem – ten test nazywamy testem t dla jednej próby. Na przykład przy użyciu testu t dla jednej próby można stwierdzić:

·                czy średnia ilość dzieci, jakie posiadają osoby badane, jest równa 2;

·                czy średni dochód osób badanych jest równy średniej krajowej (i tę średnią musimy znać  - to jest pewna konkretna liczba, np. 1875 pln);

·                czy średnia długość urlopu, na jaki wyjechały w czasie ostatniego lata osoby badane wynosi 14 dni;

·                czy średni wzrost osób badanych wynosi 180 cm itp.

 

założenia

Niezależnie od tego, z którym z testów mamy do czynienia, obowiązują pewne ograniczenia. Jest to związane z ideą budowy wszystkich typów testów t. Przede wszystkim zmienne, z których liczymy średnie (nazywane są zmiennymi zależnymi) muszą być przedziałowe. Ponadto rozkład zmiennej zależnej (lub zmiennych zależnych w przypadku testu t dla prób zależnych) musi być normalny i, o ile porównujemy dwie grupy osób badanych (test t dla prób niezależnych), to w każdej z podgrup rozkład zmiennej zależnej musi również być normalny i mieć tę samą wariancję w obu grupach. Jeśli porównywane są dwie grupy, to muszą być one równoliczne.

 

 

hipoteza zerowa

 

W każdym z testów t hipoteza zerowa ma tę samą postać: porównywane średnie są takie same. Na przykład, jeśli robimy test t dla prób niezależnych, gdzie zmienną zależną jest wzrost, a grupującą płeć osoby badanej, to hipoteza zerowa brzmi:

nie ma różnic w średniej ze wzrostu kobiet i mężczyzn

lub równoważnie

średni wzrost kobiet jest równy średniemu wzrostowi mężczyzn

 

Jeśli robimy test t dla prób zależnych i porównujemy zmienne: wykształcenie matki i ojca osoby badanej, to hipoteza zerowa jest następująca:

nie ma różnic między średnim wykształceniem matek i ojców osób badanych

lub równoważnie

średnie z wykształcenia matek jest równe średniej z wykształcenia ojców osób badanych

 

W przypadku testu t dla jednej próby ze zmienną zależną „ilość dzieci” i parametrem 2, hipoteza zerowa jest następująca:

średnia ilość dzieci, jakie posiadają osoby badane jest równa 2

lub równoważnie

nie ma różnic między średnią z ilości dzieci, jakie posiadają osoby badane a liczbą 2.

 

Testy t w SPSS-ie

Aby wykonać test t, należy wejść do menu Analiza, wybrać opcję Porównywanie średnich,  a następnie wybrać odpowiedni typ testu t.

 

test t dla jednej próby

Przeprowadzimy test t dla jednej próby w celu zweryfikowania hipotezy o równości średniej długości lat nauki respondentów (zmienna EDUC w zbiorze danych All.sav) liczbie 10. W tym celu w menu Analiza wybieramy Porównywanie średnich i Test t dla jednej próby. Otwiera się wtedy okienko dialogowe testu t dla jednej próby, gdzie należy przerzucić nazwę zmiennej zależnej do okienka Zmienne (w tym wypadku będzie to zmienna EDUC), a w znajdującym się poniżej małym okienku Wartości testowanej wpisać stałą, z którą ma zostać porównywana średnia (w tym wypadku jest to liczba 10).

Po wpisaniu tych danych można już kliknąć OK, w wyniku czego w oknie raportu pojawia się wydruk:

 

 

Na podstawie pierwszej tabelki można ustalić, że średnia długość nauki w wylosowanej próbie 4047 osób wynosi 10,42. W drugiej tabeli widać, że wynik testu wynosi t(4046)= 8,530 przy istotności testu p<0,001 (w tabeli jest wypisane ,000). W nagłówku tabeli pojawia się przypomnienie, jaka wartość była testowana (z jaką liczbą była porównywana średnia w populacji). Z powodu małej istotności testu (mniejszej od założonego poziomu istotności a = 0,05) mamy podstawy do odrzucenia hipotezy zerowej testu. Wobec tego średnia długość nauki różni się w sposób istotny statystycznie od 10 na poziomie istotności a = 0,05.

 

test t dla prób zależnych

Aby wykonać test t dla prób zależnych, należy wejść do menu Analizy, następnie wybrać opcję Porównywanie średnich i Test t dla prób zależnych. Dla przykładu porównamy średnie długości lat nauki matki (MAEDUC) oraz ojca (PAEDUC) respondenta (weryfikujemy hipotezę zerową: średnia długość lat nauki szkolnej matek respondentów jest taka sama jak średnia długość lat nauki szkolnej ojców respondentów). Po wybraniu odpowiedniego rodzaju testu pojawia się okienko dialogowe testu t dla prób zależnych. W pierwszej kolejności należy do prawego okienka przerzucić parę (albo kilka par, jeśli chcemy wykonywać wiele testów jednocześnie) porównywanych zmiennych – po kliknięciu na nazwę odpowiedniej zmiennej na liście zmiennych po lewej stronie okienka, nazwa pojawia się pod listą zmiennych, jako pierwsza wybrana zmienna. Wybranie (kliknięcie na jej nazwę) drugiej zmiennej powoduje uzupełnienie informacji na dole okienka...

Zgłoś jeśli naruszono regulamin