Neste post, falaremos sobre como comparar duas correlações independentes, isto é, os coeficientes de correlação de Pearson para grupos independentes. Primeiramente, descreveremos quando comparar duas correlações independentes. Em seguida, introduziremos o teste z de Fisher, a transformação de Fisher (r para z) e como interpretá-la. Por fim, indicamos algumas ferramentas que nos permitem realizar esse tipo de técnica estatística.
Quando comparar duas correlações independentes?
Em diversas pesquisas, é comum encontrarmos situações em que desejamos comparar duas correlações obtidas em amostras independentes.
Por exemplo, suponha que estejamos investigando a validade preditiva de um teste de inteligência. Nosso objetivo é saber se os escores no teste predizem desempenho acadêmico.
Mais importante, queremos avaliar se o grau de associação entre escores de inteligência e de desempenho acadêmico é similar entre estudantes brasileiros e portugueses. Caso as correlações sejam diferentes, isso levanta preocupações sobre equidade cultural do instrumento.
Vamos supor que obtivemos uma correlação numericamente maior entre escores de inteligência e desempenho acadêmico na amostra brasileira (r = 0,49) do que na amostra portuguesa, (r = 0,37). No entanto, do ponto de vista estatístico, não podemos afirmar que essa diferença numérica reflete uma diferença estatística entre as associações nos dois grupos.
Nesse contexto, o teste z de Fisher para correlações independentes é uma ferramenta adequada e amplamente utilizada para comparar rs de Pearson oriundos de dois grupos independentes. Em seguida, você entenderá como ele funciona, como interpretá-lo e como aplicá-lo corretamente.

O que é o teste z de Fisher para duas correlações independentes?
O teste z de Fisher permite avaliar se duas correlações de Pearson, obtidas em amostras independentes, diferem significativamente entre si.
Basicamente, ele compara as duas correlações ao transformar seus valores em uma escala z. Isso é necessário porque a distribuição amostral dos coeficientes de correlação não é simétrica, especialmente quando os valores estão próximos de –1 ou +1 (Figura 1).

Por exemplo, com um valor verdadeiro da correlação que é alto (ρ = 0,80), a simulação (10 mil repetições) mostra que os valores amostrais de r de Pearson não se distribuem simetricamente em torno de 0,80 — a cauda negativa é claramente mais longa.
Essa assimetria faz com que os testes que dependem de normalidade (como o teste z) não sejam válidos diretamente sobre os valores de r. Por isso, Sir Ronald Fisher propôs uma transformação de r para z, que normaliza a distribuição amostral de r, permitindo a aplicação correta do teste.
Saiba mais: O que é distribuição normal?

Como funciona a transformação de Fisher (r para z)?
A transformação r para z de Fisher converte o coeficiente de correlação de Pearson em um valor z que segue, aproximadamente, uma distribuição normal.
A fórmula da transformação é a seguinte:

Essa transformação estabiliza a variância e permite a comparação direta entre correlações. Aplicado aos coeficientes de correlação que obtivemos para as amostras brasileira (r = 0,49) e portuguesa (r = 0,37), teríamos:

e

respectivamente.
Após calcularmos os valores z para cada correlação, é possível aplicar o teste z propriamente dito, comparando as duas amostras por meio da seguinte fórmula (Chen & Popovich, 2002):

Lembrando: Brasil, zr = 0,54, n = 200 e Portugal zr = 0,39, n = 180. Logo:

Em seguida, veremos como interpretar o resultado obtido.
Como interpretar o teste z de Fisher para correlações independentes?
Depois de aplicar a transformação de Fisher e calcular o valor da estatística z, você poderá finalmente avaliar se a diferença entre as correlações independentes é estatisticamente significativa.
Eis as hipóteses do teste z de Fisher:
- H0: ρ1 = ρ2, ou seja, não há diferença entre as correlações independentes.
- H1: ρ1 ≠ ρ2, isto é, há diferença entre as correlações independentes.
Desse modo, se o valor absoluto de z ultrapassar o valor crítico (e.g., ±1,96 para α = 0,05), rejeitaremos a hipótese nula, ou seja, concluíremos que as correlações diferem significativamente. Em contrapartida, se z não ultrapassar o valor crítico, então afirmaremos ter evidência estatística de diferença entre correlações.
A Figura 2 apresenta a distribuição normal-padrão, na qual o nosso teste z de Fisher se baseia. A linha pontilhada indica o limiar correspondente ao nosso valor z obtido. Por outro lado, a região cor-de-rosa indica valores iguais, ou mais extremos, que a estatística z que obtivemos. Essa região crítica corresponde a aproximadamente 15% da distribuição.

Em outras palavras, nossa estatística z não ultrapassou o valor crítico, fazendo com que o valor p fosse maior que o nosso critério de significância (p = 0,15; ver Figura 2). Ou seja, nesse caso, não podemos concluir que os dois grupos apresentam correlações distintas entre as variáveis analisadas.
Como reportar o teste z de Fisher corretamente?
Ao relatarmos os resultados do teste z de Fisher em nossos artigos científicos, é importante apresentarmos as correlações rs para cada grupo, os tamanhos de cada grupo (ns), a estatística z calculada e o valor p a ela associado. Além disso, é útil incluir uma interpretação textual do resultado, facilitando a compreensão por parte dos leitores.
Por exemplo:
A correlação entre escore de inteligência e desempenho acadêmico foi numericamente superior na amostra brasileira (r = 0,49, p < 0,001, n = 200), quando comparada à amostra portuguesa (r = 0,39, p < 0,001, n = 180). Entretanto, o teste z de Fisher indicou que essa diferença não atingiu significância estatística (z = 1,46, p = 0,15). Sendo assim, pelo menos nessa amostra, não precisamos nos preocupar com a inequidade cultural do instrumento.
Veja também: Como comparar dois coeficientes de correlação de Pearson para grupos dependentes?

Onde calcular o teste z de Fisher para duas correlações independentes?
Felizmente, existem opções disponíveis para realizarmos o teste z de Fisher de forma prática. Por exemplo, no R, podemos usar a função indep.groups, do pacote cocor. Em síntese, o snippet a seguir resume o uso da função:
cocor.indep.groups(r1.jk = r_grupo1,
r2.hm = r_grupo2,
n1 = n_grupo1,
n2 = n_grupo2)
Além disso, você pode usar calculadoras on-line, como a do Psychometrica. A Figura 3 apresenta um screenshot dessa calculadora, onde entramos com os tamanhos amostrais e as correlações que descrevemos anteriormente.

O valor da estatística do teste é idêntico ao que obtivemos, enquanto o valor p é metade do valor que obtivemos. Isso ocorre porque a calculadora retorna o valor p de um teste unilateral. Se quisermos o valor do teste bilateral, basta multiplicarmos o valor p por dois.
Conclusão
Gostou desse conteúdo? Então aproveite e se inscreva em nosso canal do YouTube para ficar por dentro de nossas novidades!
Se você precisa aprender análise de dados, então faça parte da Psicometria Online Academy, a maior formação de pesquisadores quantitativos da América Latina. Conheça toda nossa estrutura aqui e nunca mais passe trabalho sozinho(a).
Referências
Chen, P. Y., & Popovich, P. M. (2002). Correlation: Parametric and nonparametric measures. Sage.
Field, A. (2017). Discovering statistics using IBM SPSS Statistics (5th ed.). Sage.
Como citar este post
Lima, M. (2025, 1 de setembro). Como comparar dois coeficientes de correlação de Pearson para grupos independentes? Blog Psicometria Online. https://blog.psicometriaonline.com.br/como-examinar-a-diferenca-entre-duas-correlacoes-independentes/
