--- title: "O que é uma matriz de covariância?" url: https://www.blog.psicometriaonline.com.br/o-que-e-uma-matriz-de-covariancia canonical: https://www.blog.psicometriaonline.com.br/o-que-e-uma-matriz-de-covariancia language: pt-BR published: 2025-08-05T17:38:04.000Z updated: 2026-03-30T13:49:09.788Z modified: 2026-03-30T13:49:09.788Z author: "Marcos Lima" categories: ["Análises bi e multivariadas"] tags: ["correlação"] description: "Entenda o que é matriz de covariância, sua relação com a matriz de correlação e veja exemplos práticos na psicologia." source: Blog Psicometria Online --- # O que é uma matriz de covariância? > Neste post, explicaremos o que é uma matriz de covariância, um conceito central em estatística multivariada. Primeiramente, você aprenderá o que é uma matriz (do ponto de vista matemático), o que significa covariância e como esses conceitos se unem na matriz de covariância. Em seguida, veremos um ex... Neste post, explicaremos o que é uma matriz de covariância, um conceito central em estatística multivariada. Primeiramente, você aprenderá o que é uma matriz (do ponto de vista matemático), o que significa covariância e como esses conceitos se unem na matriz de covariância. Em seguida, veremos um exemplo de onde vêm os valores da matriz de covariância. Por fim, exploraremos sua utilidade prática em psicometria e em análise quantitativa de dados. ## O que é uma matriz? Antes de mais nada, é essencial entendermos o que é uma matriz. Em termos simples, trata-se de uma tabela de números organizada em linhas e colunas. Cada elemento dessa tabela ocupa uma posição definida, o que permite a realização de operações matemáticas estruturadas. Uma matriz pode ter diferentes dimensões. Considere a matriz genérica ***X***, que possui *m* linhas e *n* colunas. ![notação de matrizes.](/uploads/2025-08_matriz-2.jpg) Nesse caso, dizemos que ***X*** é uma matriz *m* × *n*. Podemos identificar qualquer elemento de ***X*** a partir de dois índices: o primeiro se refere à linha (em vermelho) e o segundo, à coluna (em azul): ![índices de matrizes.](/uploads/2025-08_matriz-3.jpg) Por exemplo, denotamos o elemento da segunda linha e da terceira coluna por *x*23​. Em seguida, aplicaremos o que aprendemos à matriz ***A***: ![exemplo de matriz.](/uploads/2025-08_matriz-1.jpg) Dizemos que a matriz ***A*** tem dimensão 3 × 2, pois ela possui três linhas e duas colunas. Além disso, também podemos acessar seus elementos. Por exemplo, eis o elemento na terceira linha, primeira coluna: ![elemento de matriz.](/uploads/2025-08_matriz-4.jpg) Em notação matemática, costumamos usar letras maiúsculas em negrito (ex.: ***A***, ***X***) para matrizes e letras minúsculas em itálico com índices para elementos (e.g., *a*31, *x*23). Em bancos de dados de pesquisas científicas, especialmente com dados quantitativos, as informações são dispostas em formato matricial (e.g., em uma planilha do Excel ou em um `data.frame`, no [R](/por-que-aprender-a-programar-em-r)). Tipicamente, cada linha da matriz representa um participante e cada coluna representa uma variável que coletamos. Essa organização compacta facilita análises estatísticas e é fundamental em métodos de álgebra linear que representam transformações e relações entre variáveis. ## O que é covariância? [Covariância](/o-que-e-covariancia) é uma medida estatística que indica o grau com que duas variáveis variam juntas. Quando os valores de uma variável aumentam conforme os de outra também aumentam, a covariância é positiva. Por outro lado, quando uma aumenta enquanto a outra diminui, a covariância torna-se negativa. Por exemplo, suponha que um pesquisador avalie os níveis de depressão e de ansiedade em um grupo. Se altos níveis de depressão estiverem associados a altos níveis de ansiedade, a covariância entre essas variáveis será positiva. Além disso, é importante destacar que a covariância não tem uma escala padronizada. Por isso, ela não costuma ser usada diretamente para comparar relações entre pares de variáveis distintas — mas é usada em etapas de diferentes técnicas psicométricas e de análises quantitativas de dados. ## O que é uma matriz de covariância? A **matriz de covariância** é uma matriz quadrada — isto é, *m* = *n* — que usamos para examinar diversas relações bivariadas simultaneamente. Cada elemento da matriz expressa a covariância entre dois conjuntos de observações. Por exemplo, imagine que coletamos três medidas em uma amostra: autoestima, depressão e ansiedade. A matriz de covariância sumarizará, de forma condensada, como cada par dessas variáveis se relaciona. Nesse exemplo, vamos chamar a matriz de covariância de nossos dados de matriz ***D***, uma matriz 3 × 3, que é representada da seguinte maneira: ![matriz de covariância genérica.](/uploads/2025-08_matriz-5.jpg) onde 1 = autoestima, 2 = depressão e 3 = ansiedade. Por exemplo, *cov*12 representa a covariância entre autoestima e depressão. O conjunto de valores que vai do canto superior esquerdo ao canto inferior direito da matriz de covariância é conhecido como **diagonal principal** — com destaque em vermelho a seguir: ![](/uploads/2025-08_matriz-13.jpg) Note que os elementos da diagonal principal têm subscritos iguais (*cov*11, *cov*22, *cov*33), indicando a covariância de uma variável com ela mesma — o que conhecemos como [**variância**](/qual-e-a-diferenca-entre-variancia-e-desvio-padrao) (*s*2). Sendo assim, uma maneira equivalente de representar a matriz ***D*** é a seguinte: ![matriz de variância-covariância genérica.](/uploads/2025-08_matriz-6.jpg) Essa nova representação é idêntica à anterior, exceto que ela agora deixa explícito que os elementos da diagonal principal contêm variâncias, motivo pelo qual a matriz de covariância também é chamada de **matriz de variância–covariância**. ## De onde vêm os valores da matriz de covariância? Anteriormente, apresentamos a representação da matriz ***D***, de forma genérica. Mas de onde vêm os valores de uma matriz de covariância? Para entendermos a origem dessas informações, passemos a um exemplo. Considere que coletamos dados de autoestima, depressão e ansiedade de 500 participantes. Os escores dos participantes podem ser dispostos em uma tabela, `data.frame` ou matriz, cuja dimensão é 500 × 3 — ou seja, cada linha representa um participante, e cada coluna, uma medida: ![matriz dos dados brutos.](/uploads/2025-08_matriz-7.jpg) Lembrando, cada coluna representa uma variável, e nosso interesse é compreender como elas se comportam e se inter-relacionam. A representação da Figura 1 nos permite vislumbrar padrões gerais, caso eles existam: ![matriz de diagramas de dispersão com histogramas.](/uploads/2025-08_matriz-de-scatterplots.jpg) *Figura 1. Histogramas (diagonal principal) e diagramas de dispersão (demais células) representando distribuições e relações bivariadas, respectivamente, das variáveis autoestima, depressão e ansiedade.* Na representação anterior, temos histogramas na diagonal principal. O grau de espalhamento desses histogramas pode ser quantificado pela variância de cada medida. Além disso, os valores fora da diagonal principal representam diagramas de dispersão entre pares de variáveis. Podemos calcular uma estatística — a covariância — que expressa o grau de interdependência entre cada par de variáveis. ### Covariância entre autoestima e depressão Com base nessas premissas e em nossos dados brutos (i.e., a matriz 500 × 3), podemos calcular a covariância entre a primeira e a segunda colunas dos dados (autoestima e depressão). Os valores são expressos a seguir. ![preenchendo a matriz de covariância, etapa 1.](/uploads/2025-08_matriz-8.jpg) Esse valor negativo indica que, conforme a autoestima aumenta, a depressão diminui. Isso também é representado na Figura 1 (linha 1, coluna 2). Note que inserimos dois valores idênticos na matriz de covariância. Isso ocorre porque a covariância é uma estatística simétrica, isto é, *cov*12 = *cov*21\. Consequentemente, a matriz de covariância possui informações simétricas ao redor da diagonal principal. ### Covariância entre autoestima e ansiedade Em seguida, calculamos a covariância entre a primeira e a terceira colunas dos dados (autoestima e ansiedade), cujos valores são apresentados a seguir, na cor azul. ![preenchendo a matriz de covariância, etapa 2.](/uploads/2025-08_matriz-9.jpg) Note que, mais uma vez, inserimos dois valores na matriz, pois *cov*13 = *cov*31\. O valor negativo indica, mais uma vez, que há uma relação negativa entre variáveis: conforme a autoestima aumenta, a ansiedade diminui (veja também a Figura 1, linha 1, coluna 3). ### Covariância entre depressão e ansiedade Por fim, calculamos a última covariância, agora entre a segunda e a terceira colunas dos dados (depressão e ansiedade), cujos valores são apresentados a seguir, na cor azul. ![preenchendo a matriz de covariância, etapa 3.](/uploads/2025-08_matriz-10.jpg) Os dois valores inseridos na matriz indicam que *cov*23 = *cov*32\. Dessa vez, obtivemos um valor positivo, o que mostra que conforme a depressão aumenta, a ansiedade também aumenta (veja também a Figura 1, linha 2, coluna 3). ### Variâncias de autoestima, depressão e ansiedade Além das covariâncias, temos que preencher a diagonal principal da matriz com as variâncias, que, como mencionamos anteriormente, mensuram o grau de espalhamento dos histogramas da Figura 1. Em seguida, inserimos as variâncias das três medidas na diagonal principal, na cor azul. ![preenchendo a matriz de covariância, etapa 4.](/uploads/2025-08_matriz-11.jpg) Desse modo, reduzimos a nossa matriz 500 × 3, com os dados brutos, em uma matriz de covariância 3 × 3, que sumariza as principais informações contidas no banco de dados. ## Matriz de covariância e matriz de correlação Embora a matriz de covariância seja bastante útil, seus valores dependem diretamente da escala de mensuração das variáveis. Por exemplo, a covariância entre peso (kg) e altura (m) será diferente da covariância entre peso (g) e altura (cm), mesmo que um conjunto de dados seja apenas uma transformação do outro. Para superar essa limitação, utilizamos a **matriz de correlação**. Em síntese, a [correlação](/o-que-e-correlacao) é uma covariância padronizada: trata-se de uma medida adimensional, com valores sempre entre –1 e +1. Com base no mesmo conjunto de dados que vimos anteriormente, a matriz de correlação seria: ![matriz de correlação.](/uploads/2025-08_matriz-12.jpg) Essa matriz mostra relações mais fáceis de interpretar: - As correlações negativas de autoestima com depressão (*r* = –0,841) e ansiedade (*r* = –0,463) indicam que maior autoestima tende a acompanhar menores níveis de depressão e ansiedade. - A correlação positiva entre depressão e ansiedade (*r* = 0,788) indica que, conforme o escore de depressão aumenta, o escore de ansiedade também aumenta. - Os valores na diagonal principal são iguais a 1 porque a correlação de uma variável com ela própria sempre será positiva perfeita. Em termos práticos, usamos a matriz de covariância quando precisamos manter a escala original dos dados (e.g., na [análise de componentes principais](/analise-fatorial-e-analise-de-componentes-principais-diferencas-e-quando-usar), ACP). Já a matriz de correlação é preferida quando as variáveis têm escalas diferentes ou quando buscamos apenas a intensidade da relação, independentemente da unidade de medida. ## Por que a matriz de covariância é importante? A matriz de covariância é crucial em várias análises estatísticas. Por exemplo, ela serve como base para a ACP, para análises fatoriais e para a [modelagem por equações estruturais](/modelagem-por-equacoes-estruturais-no-r-conceitos-e-aplicacoes) (MEE). Em MEE, é comum nos referirmos à matriz de variância–covariância empírica dos dados como matriz ***S***. A partir dessa matriz ***S*** e de um modelo de análise fatorial confirmatória (AFC) — que especifica variáveis latentes e as cargas fatoriais que relacionam essas variáveis aos indicadores observados — podemos escrever a matriz de covariância implicada pelo modelo (matriz **Σ**) a partir de uma equação de regressão: ![matriz de covariância implicada pelo modelo de AFC.](/uploads/2025-08_matriz-de-variancia-covariancia-implicada-pelo-modelo-afc.jpg) onde: - **Λ:** matriz de [cargas fatoriais](/cargas-fatoriais). - **Ψ:** matriz de variância–covariância dos fatores latentes. - **Θ:** matriz de erros específicos. Em síntese, a AFC busca verificar se o modelo teórico especificado consegue reproduzir uma matriz **Σ** que se aproxima ao máximo da matriz empírica ***S***. Quanto mais próximas forem essas matrizes, melhor será o ajuste e, portanto, maior a plausibilidade do modelo teórico. ## Referências Bosquilha, A., Corrêa, M. L. P., & Viveiro, T. C. (2010). *Manual compacto de matemática: Ensino médio*. Rideel. Brown, T. A. (2015). *Confirmatory factor analysis for applied research* (2nd ed.). The Guilford Press. Franco, V. R., Valentini, F., & Iglesias, F. (2017). Introdução à análise fatorial confirmatória. In B. F. Damásio & J. C. Borsa (Eds.), *Manual de desenvolvimento de instrumentos psicológicos* (pp. 295–322). Vetor. ## Como citar este post > **Como citar este artigo:** Lima, M. (2025, 5 de agosto). O que é uma matriz de covariância? *Blog Psicometria Online*. https://www.blog.psicometriaonline.com.br/o-que-e-uma-matriz-de-covariancia