Um Framework Explicável para Predições Clínicas: Integração de Raciocínio Baseado em Casos, Clustering e Contrafactuais
Resumo
Este trabalho propõe um framework de inteligência artificial explicável (XAI) para geração de explicações contrafactuais em dados clínicos, integrando Raciocínio Baseado em Casos (CBR), Clustering e métodos contrafactuais. O modelo de Deep Learning (DL) prediz o rótulo de um caso consulta, enquanto casos similares, porém de classe diferente, são agrupados em perfis clínicos semelhantes. Para melhorar a diversidade e interpretabilidade dos contrafactuais gerados, casos amostrados destes grupos orientam alterações mínimas e plausíveis nos atributos do caso.Referências
Brughmans, D., Leyman, P., and Martens, D. (2024). Nice: an algorithm for nearest instance counterfactual explanations. Data mining and knowledge discovery, 38(5):2665–2703.
Iimori, S., Naito, S., Noda, Y., Sato, H., Nomura, N., Sohara, E., Okado, T., Sasaki, S., Uchida, S., and Rai, T. (2018). Prognosis of chronic kidney disease with normal-range proteinuria: The ckd-route study. PLOS ONE, 13(1):e0190493.
Minh, D., Wang, H. X., Li, Y. F., and Nguyen, T. N. (2022). Explainable artificial intelligence: a comprehensive review. In Artificial Intelligence Review, volume 55, pages 3503–3568.
Warren, G., Guéret, C., Keane, M. T., and Delaney, E. (2023). Explaining groups of instances counterfactually for xai: A use case, algorithm and user study for group-counterfactuals. In Proc. of the ACM Conf. on Explainable AI, pages 123–134.
Wiratunga, N., Wijekoon, A., Nkisi-Orji, I., Martin, K., Palihawadana, C., and Corsar, D. (2021). Discern: Discovering counterfactual explanations using relevance features from neighbourhoods. In Proc. of the Int. Conf. on Machine Learning, pages 1–10.
Iimori, S., Naito, S., Noda, Y., Sato, H., Nomura, N., Sohara, E., Okado, T., Sasaki, S., Uchida, S., and Rai, T. (2018). Prognosis of chronic kidney disease with normal-range proteinuria: The ckd-route study. PLOS ONE, 13(1):e0190493.
Minh, D., Wang, H. X., Li, Y. F., and Nguyen, T. N. (2022). Explainable artificial intelligence: a comprehensive review. In Artificial Intelligence Review, volume 55, pages 3503–3568.
Warren, G., Guéret, C., Keane, M. T., and Delaney, E. (2023). Explaining groups of instances counterfactually for xai: A use case, algorithm and user study for group-counterfactuals. In Proc. of the ACM Conf. on Explainable AI, pages 123–134.
Wiratunga, N., Wijekoon, A., Nkisi-Orji, I., Martin, K., Palihawadana, C., and Corsar, D. (2021). Discern: Discovering counterfactual explanations using relevance features from neighbourhoods. In Proc. of the Int. Conf. on Machine Learning, pages 1–10.
Publicado
12/11/2025
Como Citar
RADAELLI, Eduardo C.; REINHEIMER, Isabel C.; ASSUNÇÃO, Joaquim V. C.; POLI-DE-FIGUEIREDO, Carlos E.; SILVA, Luís A. L..
Um Framework Explicável para Predições Clínicas: Integração de Raciocínio Baseado em Casos, Clustering e Contrafactuais. In: ESCOLA REGIONAL DE APRENDIZADO DE MÁQUINA E INTELIGÊNCIA ARTIFICIAL DA REGIÃO SUL (ERAMIA-RS), 1. , 2025, Porto Alegre/RS.
Anais [...].
Porto Alegre: Sociedade Brasileira de Computação,
2025
.
p. 45-48.
DOI: https://doi.org/10.5753/eramiars.2025.16631.