O seu Blog de Psicometria

Tenha acesso à nossa enciclopédia virtual de conhecimento em Psicometria e Análise de Dados

Junte-se a mais de 22.300 membros e receba conteúdos exclusivos e com prioridade

Compartilhe nas Redes Sociais

IA explicável: central para pesquisas acadêmicas

Alessandro Reis

out 2, 2025

Para quem atua academicamente e precisa publicar artigos com achados via tratamento de dados, é essencial ser capaz de explicar, de forma detalhada, porque o método empregado alcançou determinado resultado.

Afinal, em ciência, as caixas-pretas não são muito bem vistas! Por isso, se você pesquisa e faz uso de IA, a questão da explicabilidade deixou de ser periférica e passou a ocupar o centro do debate. 

A IA explicável, ou explainable AI (xAI), busca tornar transparentes as decisões de modelos complexos, permitindo não apenas sua validação científica, mas também a construção de confiança em contextos práticos. Além disso, no campo acadêmico, é um tema que conecta rigor metodológico, ética aplicada e a própria legitimidade da ciência que produzimos.

A relevância da explicabilidade no contexto acadêmico

Quando orientamos um trabalho ou avaliamos um artigo, não basta saber que um modelo acerta. Isto é, mais do que isso, nós precisamos ser capazes de entender como e por que ele acerta — e em quais condições tende a falhar. 

Por exemplo, em áreas críticas, como saúde ou finanças, a ausência de explicações confiáveis torna inviável a transferência de resultados de pesquisa para aplicações sociais. Por isso, regulamentações como o GDPR europeu e o AI Act já formalizam esse requisito. Assim, o debate sobre a IA explicável torna-se ainda mais urgente (Arrieta et al., 2020; Saeed & Omlin, 2023). 

Já para pesquisadores, a xAI abre espaço tanto para garantir qualidade acadêmica quanto para dialogar com demandas regulatórias e sociais.

Técnicas de IA explicável

Entre as técnicas que se tornaram onipresentes em artigos e dissertações estão o Local Interpretable Model-agnostic Explanations (LIME) e o SHapley Additive exPlanations (SHAP). Em seguida, discorreremos sobre cada uma delas.

A técnica LIME de IA explicável

O LIME cria modelos locais simplificados a fim de interpretar decisões específicas (Figura 1).

IA explicação, técnica LIME.
Figura 1. Explicação via LIME.

Em síntese, o LIME funciona aproximando localmente o modelo “caixa-preta” por meio de um modelo linear simples para explicar uma predição específica. Para isso, ele gera amostras em torno da instância que se quer explicar, perturbando variáveis e obtendo as previsões originais.

Em seguida, pondera essas amostras pela proximidade e ajusta um modelo linear, como uma regressão, que destaca o peso de cada variável naquele caso.

Dessa forma, o LIME facilita a interpretação local do modelo. No entanto, o método é altamente sensível a perturbações mínimas nos dados e, consequentemente, sua estabilidade nas explicações pode ficar comprometida.

A técnica SHAP de IA explicável

O SHAP utiliza a teoria dos valores de Shapley para quantificar a contribuição de cada variável para a previsão no modelo (Figura 2). Em síntese, Shapley é um conceito da teoria dos jogos que define a participação justa de cada jogador em um resultado coletivo.

IA explicação, técnica SHAP.
Figura 2. Explicação via SHAP.

Em síntese, o SHAP considera todas combinações de variáveis para gerar explicações locais consistentes e interpretáveis, mesmo em modelos complexos, tais como redes neurais e árvores de decisão.

Contudo, essa técnica sofre com alta demanda computacional e com dificuldades em cenários de forte correlação entre variáveis (Dehdarirad, 2025; Toffaha et al., 2023). 

Usando LIME e SHAP de forma combinada

É possível combinar LIME e SHAP, mas não é estritamente necessário. LIME aproxima localmente o modelo com regressão simples, enquanto SHAP calcula contribuições justas via Shapley. Sendo assim, juntas, as técnicas podem complementar perspectivas, reforçando robustez e interpretabilidade das explicações.

Um exemplo notável da combinação de LIME e SHAP foi apresentado por Nazim et al. (2025), que aplicaram essas técnicas em conjunto a fim de explicar modelos de deep learning na classificação de imagens de malware.

Ademais, utilizando o LIME para fornecer interpretações locais e o SHAP para explicações globais, os pesquisadores conseguiram oferecer uma compreensão mais completa das decisões do modelo, aumentando a transparência e a confiança em aplicações de segurança cibernética.

IA explicável em pesquisas aplicadas à saúde

O campo da saúde oferece exemplos valiosos para quem busca linhas de pesquisa. Por exemplo, revisões sistemáticas recentes sobre o uso de LIME e SHAP no diagnóstico de Alzheimer demonstram tanto o potencial da xAI em apoiar especialistas quanto os riscos de variabilidade metodológica entre estudos (Vimbi et al., 2024).

Outros trabalhos em medicina reforçam que explicações não podem se restringir a métricas estatísticas: é necessário avaliar se médicos e outros profissionais de fato entendem e confiam nas saídas produzidas (Sheu & Pardeshi, 2022). Desse modo, esse ponto abre espaço para pesquisas interdisciplinares entre IA, psicologia cognitiva e ciência da informação.

Considerações finais

Ensinar e avaliar a IA explicável apresenta desafios conceituais e metodológicos. Por exemplo, há um trade-off entre performance e transparência, e explicações consistentes podem não ser compreensíveis a usuários finais.

Além disso, avaliar xAI deve ir além da fidelidade ao modelo, incluindo métricas de confiança, satisfação e utilidade percebida (Vilone & Longo, 2021).

Para mestrandos, doutorandos e pesquisadores, estudar xAI oferece oportunidade de contribuir em um campo de fronteira, combinando rigor acadêmico, aplicabilidade prática e responsabilidade social, enquanto professores podem usar o tema para tornar modelos complexos mais palpáveis.

banner da formação em IA.

Referências

Arrieta, A. B., Díaz-Rodríguez, N., Ser, J. D., Bennetot, A., Tabik, S., Barbado, A., García, S., Gil-López, S., Moina, D., Benjamins, R., Chatila, R., & Herrera, F. (2020). Explainable artificial intelligence (XAI): Concepts, taxonomies, opportunities and challenges toward responsible AI. Information Fusion, 58, 82–115. https://doi.org/10.1016/j.inffus.2019.12.012

Dehdarirad, T. (2025). Evaluating explainability in language classification models: A unified framework incorporating feature attribution methods and key factors affecting faithfulness. Data and Information Management. Advance online publication. https://doi.org/10.1016/j.dim.2025.100101

Nazim, S., Alam, M. M., Rizvi, S. S., Mustapha, J. C., Hussain, S. S., & Suud, M. M. (2025). Advancing malware imagery classification with explainable deep learning: A state-of-the-art approach using SHAP, LIME and Grad-CAM. PLoS ONE, 20(1), Article e0318542. https://doi.org/10.1371/journal.pone.0318542

Saeed, W., & Omlin, K. (2023). Explainable AI (XAI): A systematic meta-survey of current challenges and future opportunities. Knowledge-Based Systems, 263, Article 110273. https://doi.org/10.1016/j.knosys.2023.110273

Sheu, R.-K., & Pardeshi, M. S. (2022). A survey on medical explainable AI (XAI): Recent progress, explainability approach, human interaction and scoring system. Sensors, 22(20), Article 8068. https://doi.org/10.3390/s22208068

Toffaha, K. M., Simsekler, M. C. E., & Omar, M. A. (2023). Leveraging artificial intelligence and decision support systems for hospital-acquired pressure injury prediction using electronic health records: A systematic review. Computers in Biology and Medicine, 223, Article 102560. https://doi.org/10.1016/j.artmed.2023.102560

Vilone, G., & Longo, L. (2021). Notions of explainability and evaluation approaches for explainable artificial intelligence. Information Fusion, 76, 89–106. https://doi.org/10.1016/j.inffus.2021.05.009

Vimbi, V., Shaffi, N., & Mahmud, M. (2024). Interpreting artificial intelligence models: A systematic review on the application of LIME and SHAP in Alzheimer’s disease detection. Brain Informatics, 11(1), Article 10. https://doi.org/10.1186/s40708-024-00222-1

Como citar este post

Reis, A. (2025, 2 de outubro). IA explicável: Central para pesquisas acadêmicas. Blog Psicometria Online. https://blog.psicometriaonline.com.br/ia-explicavel-central-para-pesquisas-academicas

Bruno Figueiredo Damásio

Sou Psicólogo, mestre e doutor em Psicologia. Venho me dedicando à Psicometria desde 2007.

Fui professor e chefe do Departamento de Psicometria da UFRJ durante os anos de 2013 a 2020. Fui editor-chefe da revista Trends in Psychology, da Sociedade Brasileira de Psicologia (SBP) e Editor-Associado da Spanish Journal of Psychology, na sub-seção Psicometria e Métodos Quantitativos.

Tenho mais de 50 artigos publicados e mais de 5000 citações, nas melhores revistas nacionais e internacionais.

Em 2020, saí da UFRJ para montar a minha formação, a Psicometria Online Academy.

Meu foco é que você se torne um(a) pesquisador(a) de excelência. Clique aqui para conhecer a Academy.

Compartilhe sua opinião sobre este post

0 0 Votos
Classificação do artigo
Inscrever-se
Notificar de
guest

0 Comentários
mais antigos
mais recentes Mais votado
Feedbacks embutidos
Ver todos os comentários

Posts sugeridos

Redução de dimensionalidade

O que é modelagem de equações estruturais regularizada?

XGBoost: muitas árvores (de decisão) sem paciência para erros

Conteúdo

Mais lidos

Análise de moderação: como identificar potenciais variáveis moderadoras?

Modelagem por equações estruturais no R: conceitos e aplicações

O que são variáveis ​​independentes e dependentes?

O que é correlação de Pearson?

Postados recentemente

O que é um mapa de calor de correlação?

Redução de dimensionalidade

O que é pareamento (matching)?

O que é separação completa na regressão logística?

Deseja se tornar completamente autônomo e independente na análise dos seus dados?

Junte-se a mais de 22.300 membros e receba conteúdos exclusivos e com prioridade

Categorias