--- title: "O que são cadeias de Markov?" url: https://www.blog.psicometriaonline.com.br/o-que-sao-cadeias-de-markov canonical: https://www.blog.psicometriaonline.com.br/o-que-sao-cadeias-de-markov language: pt-BR published: 2026-01-14T14:23:18.000Z updated: 2026-03-30T13:48:59.585Z modified: 2026-03-30T13:48:59.585Z author: "Alessandro Reis" categories: ["Inteligência artificial"] tags: ["machine learning"] description: "Introdução às cadeias de Markov, explicando grafos, matrizes de transição e aplicações em psicometria e em psicologia cognitiva." source: Blog Psicometria Online --- # O que são cadeias de Markov? > Imagine um viajante que anda por uma cidade estranha, mas que tem uma memória curiosa. Ele lembra apenas de onde está agora, mas não se recorda de por onde passou, nem de como chegou ali. Ainda assim, para decidir o próximo passo, ele observa apenas o quarteirão atual e escolhe o seguinte com certas... Imagine um viajante que anda por uma cidade estranha, mas que tem uma memória curiosa. Ele lembra apenas de onde está agora, mas não se recorda de por onde passou, nem de como chegou ali. Ainda assim, para decidir o próximo passo, ele observa apenas o quarteirão atual e escolhe o seguinte com certas probabilidades. Esse viajante é uma boa metáfora para uma **cadeia de Markov**. O sistema avança passo a passo e, sobretudo, cada novo estado depende exclusivamente do estado presente. Em outras palavras, o passado distante não exerce influência direta sobre o próximo movimento. ## Grafos, estados e probabilidades No universo de *Machine Learning*, as cadeias de Markov pertencem à família dos ***Probabilistic Graphical Models* (PGMs)**, ao lado das [redes bayesianas](/conheca-as-redes-bayesianas) (veja a família de PGMs na Tabela 1). Assim como as redes bayesianas, esses modelos descrevem sistemas por meio de grafos e probabilidades. No entanto, enquanto redes bayesianas são mais gerais e essencialmente estáticas, as cadeias de Markov se especializam em **processos sequenciais no tempo**. Modelo Aplicação principal Tipo de grafo Cadeia de Markov Modelar transições entre estados observáveis ao longo do tempo (clima, filas, pixels) Cadeia direcionada Cadeia de Markov oculta Inferir estados ocultos que explicam sequências observadas (fala, emoções, regimes psicológicos) DAG dinâmico Rede bayesiana Modelar relações probabilísticas entre múltiplas causas observáveis DAG estático Redes bayesianas dinâmicas Modelar sistemas causais que evoluem no tempo (doença, comportamento, risco) DAG temporal *Tabela 1. Quatro grandes famílias de Probabilistic Graphical Models. DAG = directed acyclic graph (grafo direcionado acíclico).* Antes de introduzirmos a formulação matemática, vale observar a representação gráfica. Em uma cadeia de Markov, cada **nó** do grafo representa um estado possível do sistema. Além disso, cada **seta** indica uma transição possível entre estados, acompanhada de uma probabilidade associada. Por exemplo, no caso do clima, podemos definir três estados simples: ensolarado, nublado e chuvoso. Em síntese, o grafo consiste em um diagrama que mostra como o clima de hoje se conecta ao clima de amanhã, sempre com probabilidades bem definidas (Figura 1). ![diagrama de transição como exemplo de cadeias de Markov.](/uploads/2026-01_cadeia-de-markov-diagrama.jpg) *Figura 1. Grafo representando uma cadeia de Markov.* Dessa forma, o grafo fornece uma visão direta e intuitiva da dinâmica do processo que estamos tentando modelar. ## O que é uma cadeia de Markov? Uma **cadeia de Markov** é um processo estocástico que satisfaz a **propriedade de Markov**, segundo a qual a probabilidade do próximo estado depende apenas do estado atual, e não da sequência completa de estados anteriores. Formalmente, isso é escrito da seguinte maneira: ![propriedade de Markov (cadeia de Markov).](/uploads/2026-01_propriedade-de-markov.jpg) Em termos matemáticos, isso significa que o futuro é **condicionalmente independente do passado**, dado o presente. Portanto, conhecer o estado atual é suficiente para fazer previsões probabilísticas sobre o próximo passo. Em uma cadeia de Markov, os estados possíveis do sistema formam um conjunto discreto, e as probabilidades de transição entre eles são organizadas em uma **matriz de transição**, que governa toda a dinâmica do sistema. Por exemplo, no caso da previsão do tempo que introduzimos previamente, a matriz de transição pode ser representada conforme a Figura 2. ![matriz de transição em cadeias de Markov.](/uploads/2026-01_cadeia-de-markov-matriz-de-transicao.jpg) *Figura 2. Matriz de transição de uma cadeia de Markov.* A fim de entendermos essa matriz, considere que hoje está ensolarado (primeira linha da matriz). Em síntese, a matriz de transição indica que, dado que hoje está ensolarado, a probabilidade de amanhã também estar ensolarado é de 0,6. Em contrapartida, as probabilidades de termos um dia nublado ou chuvoso amanhã, dado que hoje está ensolarado, é de 0,3 e 0,1, respectivamente. ## Cadeias de Markov como modelos temporais Em termos simples, cadeias de Markov são PGMs temporais, desenhados para modelar mudanças de estado ao longo do tempo. Contudo, é importante destacar que cadeias de Markov não são modelos causais: elas capturam o ritmo do mundo, **mas não explicam o funcionamento de seus motores**. Desse modo, as cadeias de Markov são ideais quando o sistema evolui por estágios bem definidos e o passado distante não acrescenta informação além do presente. Por isso, elas são usadas em modelagem de comportamento, séries temporais, biologia, economia, linguagem natural e sistemas de recomendação. Até aqui, consideramos situações em que os estados do sistema são **diretamente observáveis**. Por exemplo, no cenário previamente descrito, usamos uma cadeia de Markov simples para modelar o clima como “ensolarado”, “nublado” e “chuvoso”. Em problemas como esse, o estado observado coincide com o estado modelado, o que simplifica tanto a interpretação quanto a inferência. Em seguida, veremos situações em que os estados que queremos compreender não são diretamente observáveis. ## Cadeias de Markov e modelos ocultos Em diversos domínios de pesquisa, os estados que realmente importam são *latentes*, isto é, não podem ser observados diretamente. Nesses casos, entram em cena os **modelos ocultos de Markov** (***Hidden Markov Models*, HMMs)**. Nos HMMs, os estados verdadeiros do sistema são ocultos e só podemos observar sinais indiretos, chamados *observações*. O modelo, então, aprende tanto como os estados mudam ao longo do tempo quanto como cada estado “emite” padrões observáveis. Esses modelos descrevem processos que evoluem no tempo quando os estados reais do sistema não são diretamente acessíveis. Em vez disso, o pesquisador trabalha com indicadores imperfeitos desses estados, como respostas comportamentais, tempos de reação ou padrões de erro. Imagine, por exemplo, um aplicativo de estudo que classifica o aluno como “confuso”, “aprendendo” ou em “domínio alto”. O aplicativo não observa diretamente o estado mental real do aluno, mas registra tempos de resposta e erros. Um HMM permite inferir como o aluno transita entre estados latentes ao longo do tempo, com base apenas nessas observações. Formalmente, o modelo combina uma cadeia de Markov, que governa como os estados latentes mudam ao longo do tempo, com **funções de emissão**, que descrevem como cada estado gera padrões observáveis. Isso permite inferir qual estado provavelmente estava ativo em cada momento, mesmo sem acesso direto a ele. ## Exemplo de cadeias de Markov em psicometria e em psicologia cognitiva Na [psicometria](/o-que-e-psicometria), um exemplo concreto envolve o estudo de transições entre estados latentes de humor. Por exemplo, considere uma pesquisa que utilize HMMs para modelar como indivíduos transitam entre estados como “humor estável”, “irritabilidade” e “risco depressivo”, com base em autorrelatos diários. Nesse contexto, o modelo identifica *regimes psicológicos ocultos*, estima probabilidades de mudança entre eles e, além disso, permite antecipar recaídas ou trajetórias de melhora clínica. De maneira similar, em psicologia cognitiva, Gomes et al. (2014) propuseram um modelo de recordação dupla, que mapeia dois processos de recuperação da informação — *acesso direto* e *reconstrução baseada em familiaridade* — por meio da ocupação de um espaço finito de estados dos itens (“aprendido”, “parcialmente aprendido” e “não aprendido”). Em síntese, esse modelo descreve a recordação como um processo dinâmico e probabilístico, no qual os itens estudados transitam entre estados latentes de memória ao longo do tempo, de forma análoga a uma cadeia de Markov, permitindo explicar padrões de acerto, erro e confiança observados em tarefas de memória. Em conjunto, esses exemplos mostram por que cadeias de Markov e seus desdobramentos ocupam um papel central na modelagem de fenômenos psicológicos dinâmicos. ## Referências Bishop, C. M. (2023). *Pattern recognition and machine learning* (2nd ed.). Springer. Gomes, C. F. A., Brainerd, C. J., Nakamura, K., & Reyna, V. F. (2014). Markovian interpretations of dual retrieval processes. *Journal of Mathematical Psychology*, *59*, 50–64. https://doi.org/10.1016/j.jmp.2013.07.003 Murphy, K. P. (2023). *Probabilistic machine learning: Advanced topics*. Cambridge MIT Press. Zhang, J., & Zhang, Y. (2021). Hidden Markov models: Recent developments and applications. *IEEE Access*, *9*, 137221–137239. https://web.stanford.edu/~jurafsky/slp3/A.pdf ## Como citar este post > **Como citar este artigo:** Reis, A. (2026, 14 de janeiro). O que são cadeias de markov? *Blog Psicometria Online*. https://www.blog.psicometriaonline.com.br/o-que-sao-cadeias-de-markov