Justiça Algorítmica na Saúde: Uma Revisão sobre Detecção e Avaliação de Impactos dos Vieses em Aprendizado de Máquina
Resumo
O uso de aprendizado de máquina na área da saúde tem crescido, mas vieses algorítmicos podem comprometer a equidade e a confiabilidade das predições. Nesta revisão, analisamos 56 estudos publicados entre 2020 e 2022 para investigar como os vieses em modelos preditivos para a saúde foram identificados e quantificados, e qual seu potencial impacto . Nossos resultados indicam que as métricas de equidade e interpretabilidade foram pouco exploradas e ainda faltam abordagens mais sistemáticas para garantir predições justas. Os vieses identificados podem prejudicar desproporcionalmente grupos minoritários de pacientes, aumentando erros diagnósticos, reduzindo a eficácia dos tratamentos e restrigindo o acesso a suporte e recursos essenciais.Referências
Aldwean, A. and Tenney, D. (2023). Artificial intelligence in healthcare sector: a literature review of the adoption challenges. Open Journal of Business and Management, 12(1):129–147.
Chen, Z. and Marrero, W. J. (2024). A survey on optimization and machine-learning-based fair decision making in healthcare. medRxiv, pages 2024–03.
Cirillo, D., Catuara-Solarz, S., Morey, C., Guney, E., Subirats, L., Mellino, S., Gigante, A., Valencia, A., Rementeria, M. J., Chadha, A. S., et al. (2020). Sex and gender differences and biases in artificial intelligence for biomedicine and healthcare. NPJ Digital Medicine, 3(1):1–11.
Faceli, K., Lorena, A. C., Gama, J., Almeida, T. A. d., and Carvalho, A. C. P. d. L. F. d. (2021). Inteligência artificial: uma abordagem de aprendizado de máquina. LTC.
Hort, M., Chen, Z., Zhang, J. M., Harman, M., and Sarro, F. (2024). Bias mitigation for machine learning classifiers: A comprehensive survey. ACM Journal on Responsible Computing, 1(2):1–52.
Lin, N., Paul, R., Guerra, S., Liu, Y., Doulgeris, J., Shi, M., Lin, M., Engeberg, E. D., Hashemi, J., and Vrionis, F. D. (2024). The frontiers of smart healthcare systems. In Healthcare, volume 12, page 2330. MDPI.
Lu, L., Anderson, B., Ha, R., D’Agostino, A., Rudman, S. L., Ouyang, D., and Ho, D. E. (2021). A language-matching model to improve equity and efficiency of covid-19 contact tracing. Proceedings of the National Academy of Sciences, 118(43):e2109443118.
Mantsiou, C., Liakos, A., Mainou, M., Papanas, N., Tsapas, A., and Bekiari, E. (2023). A simple guide to systematic reviews and meta-analyses. The International Journal of Lower Extremity Wounds, page 15347346231169842.
Mehrabi, N., Morstatter, F., Saxena, N., Lerman, K., and Galstyan, A. (2021). A survey on bias and fairness in machine learning. ACM Computing Surveys, 54(6):1–35.
Meng, C., Trinh, L., Xu, N., Enouen, J., and Liu, Y. (2022). Interpretability and fairness evaluation of deep learning models on mimic-iv dataset. Scientific Reports, 12(1):7166.
Neumann, J. T., Thao, L. T., Murray, A. M., Callander, E., Carr, P. R., Nelson, M. R., Wolfe, R., Woods, R. L., Reid, C. M., Shah, R. C., et al. (2022). Prediction of disability-free survival in healthy older people. Geroscience, 44(3):1641–1655.
Ntoutsi, E., Fafalios, P., Gadiraju, U., Iosifidis, V., Nejdl, W., Vidal, M.-E., Ruggieri, S., Turini, F., Papadopoulos, S., Krasanakis, E., et al. (2020). Bias in data-driven artificial intelligence systems—an introductory survey. Wiley Interdisciplinary Reviews: Data Mining and Knowledge Discovery, 10(3):e1356.
Ouzzani, M., Hammady, H., Fedorowicz, Z., and Elmagarmid, A. (2016). Rayyan—a web and mobile app for systematic reviews. Systematic Reviews, 5:1–10.
Page, M. J., McKenzie, J. E., Bossuyt, P. M., Boutron, I., Hoffmann, T. C., Mulrow, C. D., Shamseer, L., Tetzlaff, J. M., Akl, E. A., Brennan, S. E., et al. (2021). The prisma 2020 statement: an updated guideline for reporting systematic reviews. BMJ, 372.
Perets, O., Stagno, E., Yehuda, E. B., McNichol, M., Celi, L. A., Rappoport, N., and Dorotic, M. (2024). Inherent bias in electronic health records: A scoping review of sources of bias. medRxiv.
Schöpfel, J. (2011). Towards a prague definition of grey literature. The grey journal, 7(1):5–18.
Siddique, S., Haque, M. A., George, R., Gupta, K. D., Gupta, D., and Faruk, M. J. H. (2023). Survey on machine learning biases and mitigation techniques. Digital, 4(1):1–68.
Silva, T. (2022). Racismo algorítmico: inteligência artificial e discriminação nas redes digitais. Edições Sesc SP.
Stevens, A., Hersi, M., Garritty, C., Hartling, L., Shea, B. J., Stewart, L. A., Welch, V. A., and Tricco, A. C. (2024). Rapid review method series: interim guidance for the reporting of rapid reviews. BMJ Evidence-based Medicine.
Tang, Z., Zhang, J., and Zhang, K. (2023). What-is and how-to for fairness in machine learning: A survey, reflection, and perspective. ACM Computing Surveys, 55(13s):1–37.
Chen, Z. and Marrero, W. J. (2024). A survey on optimization and machine-learning-based fair decision making in healthcare. medRxiv, pages 2024–03.
Cirillo, D., Catuara-Solarz, S., Morey, C., Guney, E., Subirats, L., Mellino, S., Gigante, A., Valencia, A., Rementeria, M. J., Chadha, A. S., et al. (2020). Sex and gender differences and biases in artificial intelligence for biomedicine and healthcare. NPJ Digital Medicine, 3(1):1–11.
Faceli, K., Lorena, A. C., Gama, J., Almeida, T. A. d., and Carvalho, A. C. P. d. L. F. d. (2021). Inteligência artificial: uma abordagem de aprendizado de máquina. LTC.
Hort, M., Chen, Z., Zhang, J. M., Harman, M., and Sarro, F. (2024). Bias mitigation for machine learning classifiers: A comprehensive survey. ACM Journal on Responsible Computing, 1(2):1–52.
Lin, N., Paul, R., Guerra, S., Liu, Y., Doulgeris, J., Shi, M., Lin, M., Engeberg, E. D., Hashemi, J., and Vrionis, F. D. (2024). The frontiers of smart healthcare systems. In Healthcare, volume 12, page 2330. MDPI.
Lu, L., Anderson, B., Ha, R., D’Agostino, A., Rudman, S. L., Ouyang, D., and Ho, D. E. (2021). A language-matching model to improve equity and efficiency of covid-19 contact tracing. Proceedings of the National Academy of Sciences, 118(43):e2109443118.
Mantsiou, C., Liakos, A., Mainou, M., Papanas, N., Tsapas, A., and Bekiari, E. (2023). A simple guide to systematic reviews and meta-analyses. The International Journal of Lower Extremity Wounds, page 15347346231169842.
Mehrabi, N., Morstatter, F., Saxena, N., Lerman, K., and Galstyan, A. (2021). A survey on bias and fairness in machine learning. ACM Computing Surveys, 54(6):1–35.
Meng, C., Trinh, L., Xu, N., Enouen, J., and Liu, Y. (2022). Interpretability and fairness evaluation of deep learning models on mimic-iv dataset. Scientific Reports, 12(1):7166.
Neumann, J. T., Thao, L. T., Murray, A. M., Callander, E., Carr, P. R., Nelson, M. R., Wolfe, R., Woods, R. L., Reid, C. M., Shah, R. C., et al. (2022). Prediction of disability-free survival in healthy older people. Geroscience, 44(3):1641–1655.
Ntoutsi, E., Fafalios, P., Gadiraju, U., Iosifidis, V., Nejdl, W., Vidal, M.-E., Ruggieri, S., Turini, F., Papadopoulos, S., Krasanakis, E., et al. (2020). Bias in data-driven artificial intelligence systems—an introductory survey. Wiley Interdisciplinary Reviews: Data Mining and Knowledge Discovery, 10(3):e1356.
Ouzzani, M., Hammady, H., Fedorowicz, Z., and Elmagarmid, A. (2016). Rayyan—a web and mobile app for systematic reviews. Systematic Reviews, 5:1–10.
Page, M. J., McKenzie, J. E., Bossuyt, P. M., Boutron, I., Hoffmann, T. C., Mulrow, C. D., Shamseer, L., Tetzlaff, J. M., Akl, E. A., Brennan, S. E., et al. (2021). The prisma 2020 statement: an updated guideline for reporting systematic reviews. BMJ, 372.
Perets, O., Stagno, E., Yehuda, E. B., McNichol, M., Celi, L. A., Rappoport, N., and Dorotic, M. (2024). Inherent bias in electronic health records: A scoping review of sources of bias. medRxiv.
Schöpfel, J. (2011). Towards a prague definition of grey literature. The grey journal, 7(1):5–18.
Siddique, S., Haque, M. A., George, R., Gupta, K. D., Gupta, D., and Faruk, M. J. H. (2023). Survey on machine learning biases and mitigation techniques. Digital, 4(1):1–68.
Silva, T. (2022). Racismo algorítmico: inteligência artificial e discriminação nas redes digitais. Edições Sesc SP.
Stevens, A., Hersi, M., Garritty, C., Hartling, L., Shea, B. J., Stewart, L. A., Welch, V. A., and Tricco, A. C. (2024). Rapid review method series: interim guidance for the reporting of rapid reviews. BMJ Evidence-based Medicine.
Tang, Z., Zhang, J., and Zhang, K. (2023). What-is and how-to for fairness in machine learning: A survey, reflection, and perspective. ACM Computing Surveys, 55(13s):1–37.
Publicado
09/06/2025
Como Citar
BARROS, Bianca Matos de; SILVA, Julia Mombach Da; ZANDONÁ, João Gabriel; RECAMONDE-MENDOZA, Mariana.
Justiça Algorítmica na Saúde: Uma Revisão sobre Detecção e Avaliação de Impactos dos Vieses em Aprendizado de Máquina. In: SIMPÓSIO BRASILEIRO DE COMPUTAÇÃO APLICADA À SAÚDE (SBCAS), 25. , 2025, Porto Alegre/RS.
Anais [...].
Porto Alegre: Sociedade Brasileira de Computação,
2025
.
p. 665-676.
ISSN 2763-8952.
DOI: https://doi.org/10.5753/sbcas.2025.7711.