Para quem atua academicamente e precisa publicar artigos com achados via tratamento de dados, é essencial ser capaz de explicar, de forma detalhada, porque o método empregado alcançou determinado resultado.
Afinal, em ciência, as caixas-pretas não são muito bem vistas! Por isso, se você pesquisa e faz uso de IA, a questão da explicabilidade deixou de ser periférica e passou a ocupar o centro do debate.
A IA explicável, ou explainable AI (xAI), busca tornar transparentes as decisões de modelos complexos, permitindo não apenas sua validação científica, mas também a construção de confiança em contextos práticos. Além disso, no campo acadêmico, é um tema que conecta rigor metodológico, ética aplicada e a própria legitimidade da ciência que produzimos.
A relevância da explicabilidade no contexto acadêmico
Quando orientamos um trabalho ou avaliamos um artigo, não basta saber que um modelo acerta. Isto é, mais do que isso, nós precisamos ser capazes de entender como e por que ele acerta — e em quais condições tende a falhar.
Por exemplo, em áreas críticas, como saúde ou finanças, a ausência de explicações confiáveis torna inviável a transferência de resultados de pesquisa para aplicações sociais. Por isso, regulamentações como o GDPR europeu e o AI Act já formalizam esse requisito. Assim, o debate sobre a IA explicável torna-se ainda mais urgente (Arrieta et al., 2020; Saeed & Omlin, 2023).
Já para pesquisadores, a xAI abre espaço tanto para garantir qualidade acadêmica quanto para dialogar com demandas regulatórias e sociais.
Técnicas de IA explicável
Entre as técnicas que se tornaram onipresentes em artigos e dissertações estão o Local Interpretable Model-agnostic Explanations (LIME) e o SHapley Additive exPlanations (SHAP). Em seguida, discorreremos sobre cada uma delas.
A técnica LIME de IA explicável
O LIME cria modelos locais simplificados a fim de interpretar decisões específicas (Figura 1).

Em síntese, o LIME funciona aproximando localmente o modelo “caixa-preta” por meio de um modelo linear simples para explicar uma predição específica. Para isso, ele gera amostras em torno da instância que se quer explicar, perturbando variáveis e obtendo as previsões originais.
Em seguida, pondera essas amostras pela proximidade e ajusta um modelo linear, como uma regressão, que destaca o peso de cada variável naquele caso.
Dessa forma, o LIME facilita a interpretação local do modelo. No entanto, o método é altamente sensível a perturbações mínimas nos dados e, consequentemente, sua estabilidade nas explicações pode ficar comprometida.
A técnica SHAP de IA explicável
O SHAP utiliza a teoria dos valores de Shapley para quantificar a contribuição de cada variável para a previsão no modelo (Figura 2). Em síntese, Shapley é um conceito da teoria dos jogos que define a participação justa de cada jogador em um resultado coletivo.

Em síntese, o SHAP considera todas combinações de variáveis para gerar explicações locais consistentes e interpretáveis, mesmo em modelos complexos, tais como redes neurais e árvores de decisão.
Contudo, essa técnica sofre com alta demanda computacional e com dificuldades em cenários de forte correlação entre variáveis (Dehdarirad, 2025; Toffaha et al., 2023).
Usando LIME e SHAP de forma combinada
É possível combinar LIME e SHAP, mas não é estritamente necessário. LIME aproxima localmente o modelo com regressão simples, enquanto SHAP calcula contribuições justas via Shapley. Sendo assim, juntas, as técnicas podem complementar perspectivas, reforçando robustez e interpretabilidade das explicações.
Um exemplo notável da combinação de LIME e SHAP foi apresentado por Nazim et al. (2025), que aplicaram essas técnicas em conjunto a fim de explicar modelos de deep learning na classificação de imagens de malware.
Ademais, utilizando o LIME para fornecer interpretações locais e o SHAP para explicações globais, os pesquisadores conseguiram oferecer uma compreensão mais completa das decisões do modelo, aumentando a transparência e a confiança em aplicações de segurança cibernética.
IA explicável em pesquisas aplicadas à saúde
O campo da saúde oferece exemplos valiosos para quem busca linhas de pesquisa. Por exemplo, revisões sistemáticas recentes sobre o uso de LIME e SHAP no diagnóstico de Alzheimer demonstram tanto o potencial da xAI em apoiar especialistas quanto os riscos de variabilidade metodológica entre estudos (Vimbi et al., 2024).
Outros trabalhos em medicina reforçam que explicações não podem se restringir a métricas estatísticas: é necessário avaliar se médicos e outros profissionais de fato entendem e confiam nas saídas produzidas (Sheu & Pardeshi, 2022). Desse modo, esse ponto abre espaço para pesquisas interdisciplinares entre IA, psicologia cognitiva e ciência da informação.
Considerações finais
Ensinar e avaliar a IA explicável apresenta desafios conceituais e metodológicos. Por exemplo, há um trade-off entre performance e transparência, e explicações consistentes podem não ser compreensíveis a usuários finais.
Além disso, avaliar xAI deve ir além da fidelidade ao modelo, incluindo métricas de confiança, satisfação e utilidade percebida (Vilone & Longo, 2021).
Para mestrandos, doutorandos e pesquisadores, estudar xAI oferece oportunidade de contribuir em um campo de fronteira, combinando rigor acadêmico, aplicabilidade prática e responsabilidade social, enquanto professores podem usar o tema para tornar modelos complexos mais palpáveis.

Referências
Arrieta, A. B., Díaz-Rodríguez, N., Ser, J. D., Bennetot, A., Tabik, S., Barbado, A., García, S., Gil-López, S., Moina, D., Benjamins, R., Chatila, R., & Herrera, F. (2020). Explainable artificial intelligence (XAI): Concepts, taxonomies, opportunities and challenges toward responsible AI. Information Fusion, 58, 82–115. https://doi.org/10.1016/j.inffus.2019.12.012
Dehdarirad, T. (2025). Evaluating explainability in language classification models: A unified framework incorporating feature attribution methods and key factors affecting faithfulness. Data and Information Management. Advance online publication. https://doi.org/10.1016/j.dim.2025.100101
Nazim, S., Alam, M. M., Rizvi, S. S., Mustapha, J. C., Hussain, S. S., & Suud, M. M. (2025). Advancing malware imagery classification with explainable deep learning: A state-of-the-art approach using SHAP, LIME and Grad-CAM. PLoS ONE, 20(1), Article e0318542. https://doi.org/10.1371/journal.pone.0318542
Saeed, W., & Omlin, K. (2023). Explainable AI (XAI): A systematic meta-survey of current challenges and future opportunities. Knowledge-Based Systems, 263, Article 110273. https://doi.org/10.1016/j.knosys.2023.110273
Sheu, R.-K., & Pardeshi, M. S. (2022). A survey on medical explainable AI (XAI): Recent progress, explainability approach, human interaction and scoring system. Sensors, 22(20), Article 8068. https://doi.org/10.3390/s22208068
Toffaha, K. M., Simsekler, M. C. E., & Omar, M. A. (2023). Leveraging artificial intelligence and decision support systems for hospital-acquired pressure injury prediction using electronic health records: A systematic review. Computers in Biology and Medicine, 223, Article 102560. https://doi.org/10.1016/j.artmed.2023.102560
Vilone, G., & Longo, L. (2021). Notions of explainability and evaluation approaches for explainable artificial intelligence. Information Fusion, 76, 89–106. https://doi.org/10.1016/j.inffus.2021.05.009
Vimbi, V., Shaffi, N., & Mahmud, M. (2024). Interpreting artificial intelligence models: A systematic review on the application of LIME and SHAP in Alzheimer’s disease detection. Brain Informatics, 11(1), Article 10. https://doi.org/10.1186/s40708-024-00222-1
Como citar este post
Reis, A. (2025, 2 de outubro). IA explicável: Central para pesquisas acadêmicas. Blog Psicometria Online. https://blog.psicometriaonline.com.br/ia-explicavel-central-para-pesquisas-academicas
