MÓDULO 6 | TEMA 6.3 | TESTES PARAMÉTRICOS VERSUS NÃO PARAMÉTRICOS: Teste t versus Mann-Whitney e ANOVA versus KruskalWallis 

 

 

 

TESTE DE WILCOXON


 Num teste de Wilcoxon, pretendemos testar um dos seguintes pares de hipóteses, onde \normal\\\theta representa a mediana da população em estudo:

Considere D= X (a diferença das observações ao valor da mediana, sob a validade de H0), D={Di:|Di| ≠ 0} (o conjunto de todas as diferenças não-nulas). A estatística de teste (ET), W,  é definida por:
 
 

\normal\\W = \sum_{D_i \in D}Ordem(|D_i|)\textrm{I}(D_i>0), sendo I() a função indicadora, ou seja, 1 se Di > 0 e 0 caso contrário.


W é assim a soma das ordens da amostra do módulo das diferenças (\normal\\X_i-\theta_0), |D
i|, considerando apenas as ordens Di's positivas.


Para valores de n ≤ 15, podemos encontrar na Tabela H (Siegel and Castellan, 1988) os valores da distribuição de probabilidades (P[W ≥ w]), sob a validade de H0, da estatística de teste W. Para valores de n > 15,  a estatística de teste W pode ser bem aproximada a uma distribuição normal (Siegel and Castellan, 1988). Ao realizarmos estes testes em SPSS, não necessitamos de recorrer ao uso destas tabelas. Vejamos o exemplo seguinte.

 

Consideremos agora o Exemplo 14 - Cf. Exemplo 14.

 

EXEMPLO 14 
 

Retomemos a base de dados Coeficiente_Inteligencia.sav, mas agora não iremos assumir que a distribuição subjacente ao coeficiente de inteligência em Portugal é normal. Desta forma, para aplicarmos o teste-t teremos que verificar se a condição de normalidade subjacente aos dados é aceitável. Vejamos com o auxilio do vídeo


Como pode observar temos dois resultados conflituosos. Como decidir? REFLITA...

Reflita_avance  (clique na seta para ver informação)

Como foi dito anteriormente o teste de Shapiro-Wilk é um teste mais potente que o teste de Kolmogorov-Smirnov, especialmente quando estamos a lidar com amostras de dimensão reduzida, como é o nosso caso neste exemplo. A não rejeição da normalidade a 5% nível de significância (valor-p = 0.058 > \normal\\\alpha) no teste de Kolmogorov-Smirnov deve-se simplesmente ao facto de n ser muito pequeno. Basta observar o histograma seguinte para verificar que a distribuição subjacente à amostra de coeficientes de inteligência nada tem de normal.


 
 

  • Pelo resultado do teste Shapiro-Wilk, concluímos então que, a 5% nível de significância, rejeitamos a normalidade subjacente aos nossos dados (valor-p = 0.001 < \normal\\\alpha). Logo falha a condição de aplicação do teste-t.

Se a dimensão da amostra fosse elevada, poderíamos ter uma maior confiança no resultado apresentado no Exemplo 13 (exemplo não disponível em acesso livre) (valor-p = 0.048), uma vez que o TLC garantiria uma boa aproximação deste valor. Contudo, com n=13, a melhor opção será realizar o teste não-paramétrico de Wilcoxon. Com a ajuda do vídeo  vamos realizar um teste de hipóteses unilateral à direita, definindo para hipótese nula "O valor da mediana do coeficiente de inteligência dos alunos de medicina em Portugal é igual a 100'' (H0: \normal\\\theta = 100). O resultado poder ser observado na tabela seguinte:

 


Note que este resultado é para um teste de hipóteses bilateral (H
1: \normal\\\theta \neq 100), mas o que queremos testar é H1: \normal\\\theta > 100. Para tal teremos que recorrer à seguinte tabela de resultados.


Se reparar o valor da estatística de teste estandardizada é positivo (1.602), pelo que o valor-p = \normal\\\frac{0.109}{2}=0.0545 maior que o nível de significância \normal\\\alpha = 0.05.


Concluímos assim que, a 5% nível de significância, não existe evidência suficiente para rejeitarmos a nossa hipótese nula, ou seja, o coeficiente mediano de inteligência dos alunos de medicina é igual ao coeficiente mediano de inteligência nacional.

De salientar que esta conclusão é diferente da conclusão obtida no Exemplo 13, em que foi assumida a distribuição normal subjacente aos nossos dados. Se a normalidade subjacente ao coeficiente de inteligência não puder ser fundamentada, devemos sem dúvida optar pelo resultado do teste não-paramétrico.