Da Caixa-Preta à Explicabilidade: Um Estudo sobre Transparência em Sistemas de Inteligência Artificial
Resumo
A crescente adoção de Inteligência Artificial (IA) em decisões de alto impacto evidencia o problema da “caixa-preta”, marcado pela dificuldade de compreender critérios de modelos complexos. Essa opacidade compromete a confiança dos usuários e gera desafios técnicos e regulatórios diante de legislações como a LGPD e o GDPR. A Explainable AI (XAI) surge como resposta, buscando conciliar desempenho e interpretabilidade por meio de modelos explicáveis e técnicas pós-hoc, como LIME e SHAP. Este trabalho realiza revisão crítica do tema, destacando potencialidades, limitações e perspectivas. Conclui-se que a transparência algorítmica é essencial para a confiança, auditabilidade e adoção responsável da IA.
Palavras-chave:
Inteligência Artificial Explicável, Transparência Algorítmica, Caixa-preta, Interpretabilidade de Modelos, Regulação de Dados
Referências
Arbix, G. (2020). Inteligência artificial e o desafio das caixas-pretas. Revista USP, (127):15–28.
Brasil (2018). Lei nª 13.709, de 14 de agosto de 2018. dispõe sobre a proteção de dados pessoais e altera a lei nª 12.965, de 23 de abril de 2014 (marco civil da internet). Diário Oficial da União, Brasília, DF, 15 ago. 2018.
Braun, V. and Clarke, V. (2006). Using thematic analysis in psychology. Qualitative Research in Psychology, 3(2):77–101.
Caetano, J. V. L. (2020). O regulamento geral de proteção de dados (gdpr). Cadernos Eletrônicos Direito Internacional Sem Fronteiras, 2(1):45–60.
Doshi-Velez, F. and Kim, B. (2017). Towards a rigorous science of interpretable machine learning. arXiv preprint arXiv:1702.08608.
Goodfellow, I., Bengio, Y., and Courville, A. (2016). Deep Learning. MIT Press.
Guidotti, R., Monreale, A., Ruggieri, S., Turini, F., Giannotti, F., and Pedreschi, D. (2018). A survey of methods for explaining black box models. ACM Computing Surveys, 51(5):1–42.
Lehmann, T., Haubitz, C., Fügener, A., and Thonemann, U. W. (2022). The risk of algorithm transparency: How algorithm complexity drives the effects on the use of advice. Production and Operations Management, 31(3):1094–1113.
Lorenzon, L. N. (2021). Análise comparada entre regulamentações de dados pessoais no brasil e na união europeia (lgpd e gdpr). Revista do Programa de Direito da União Europeia, 1:39–52.
Lundberg, S. M. and Lee, S.-I. (2017). A unified approach to interpreting model predictions. In Advances in Neural Information Processing Systems, pages 4768–4777.
Markus, A., Kors, J., and Rijnbeek, P. (2020). The role of explainability in creating trustworthy artificial intelligence for health care: a comprehensive survey of the terminology, design choices, and evaluation strategies. Journal of Biomedical Informatics, 113:103655.
Molnar, C. (2019). Interpretable Machine Learning: A Guide for Making Black Box Models Explainable. Lulu Press.
Moura, M., Corrales, M., and Doneda, D. (2021). Artificial Intelligence and Data Protection in Brazil. Springer.
Ribeiro, M. T., Singh, S., and Guestrin, C. (2016). “why should i trust you?”: Explaining the predictions of any classifier. In Proceedings of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining, pages 1135–1144.
Rossetti, A. and Angeluci, A. (2021). Vieses algorítmicos e transparência em sistemas de inteligência artificial. Revista de Sistemas e Computação, 11(2):45–61.
Sun, T., Li, W., and Zhang, C. (2024). Safety and trust in generative ai: Challenges and opportunities. Nature Machine Intelligence, 6(1):15–28.
Wazlawick, R. S. (2009). Metodologia de Pesquisa em Ciência da Computação. Elsevier.
Zhou, Y., Wang, L., and Chen, H. (2024). The risks of algorithmic bias in large-scale ai systems. IEEE Transactions on Artificial Intelligence, 5(2):123–138.
Brasil (2018). Lei nª 13.709, de 14 de agosto de 2018. dispõe sobre a proteção de dados pessoais e altera a lei nª 12.965, de 23 de abril de 2014 (marco civil da internet). Diário Oficial da União, Brasília, DF, 15 ago. 2018.
Braun, V. and Clarke, V. (2006). Using thematic analysis in psychology. Qualitative Research in Psychology, 3(2):77–101.
Caetano, J. V. L. (2020). O regulamento geral de proteção de dados (gdpr). Cadernos Eletrônicos Direito Internacional Sem Fronteiras, 2(1):45–60.
Doshi-Velez, F. and Kim, B. (2017). Towards a rigorous science of interpretable machine learning. arXiv preprint arXiv:1702.08608.
Goodfellow, I., Bengio, Y., and Courville, A. (2016). Deep Learning. MIT Press.
Guidotti, R., Monreale, A., Ruggieri, S., Turini, F., Giannotti, F., and Pedreschi, D. (2018). A survey of methods for explaining black box models. ACM Computing Surveys, 51(5):1–42.
Lehmann, T., Haubitz, C., Fügener, A., and Thonemann, U. W. (2022). The risk of algorithm transparency: How algorithm complexity drives the effects on the use of advice. Production and Operations Management, 31(3):1094–1113.
Lorenzon, L. N. (2021). Análise comparada entre regulamentações de dados pessoais no brasil e na união europeia (lgpd e gdpr). Revista do Programa de Direito da União Europeia, 1:39–52.
Lundberg, S. M. and Lee, S.-I. (2017). A unified approach to interpreting model predictions. In Advances in Neural Information Processing Systems, pages 4768–4777.
Markus, A., Kors, J., and Rijnbeek, P. (2020). The role of explainability in creating trustworthy artificial intelligence for health care: a comprehensive survey of the terminology, design choices, and evaluation strategies. Journal of Biomedical Informatics, 113:103655.
Molnar, C. (2019). Interpretable Machine Learning: A Guide for Making Black Box Models Explainable. Lulu Press.
Moura, M., Corrales, M., and Doneda, D. (2021). Artificial Intelligence and Data Protection in Brazil. Springer.
Ribeiro, M. T., Singh, S., and Guestrin, C. (2016). “why should i trust you?”: Explaining the predictions of any classifier. In Proceedings of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining, pages 1135–1144.
Rossetti, A. and Angeluci, A. (2021). Vieses algorítmicos e transparência em sistemas de inteligência artificial. Revista de Sistemas e Computação, 11(2):45–61.
Sun, T., Li, W., and Zhang, C. (2024). Safety and trust in generative ai: Challenges and opportunities. Nature Machine Intelligence, 6(1):15–28.
Wazlawick, R. S. (2009). Metodologia de Pesquisa em Ciência da Computação. Elsevier.
Zhou, Y., Wang, L., and Chen, H. (2024). The risks of algorithmic bias in large-scale ai systems. IEEE Transactions on Artificial Intelligence, 5(2):123–138.
Publicado
12/11/2025
Como Citar
SOUZA, Carlos Eduardo Rehbein de; EUGÊNIO, Letízia Manuella Serqueira; OLIVEIRA, Emilli Dias de; ARAUJO, Nelcileno Virgílio de Souza.
Da Caixa-Preta à Explicabilidade: Um Estudo sobre Transparência em Sistemas de Inteligência Artificial. In: ESCOLA REGIONAL DE INFORMÁTICA DE MATO GROSSO (ERI-MT), 14. , 2025, Pontes e Lacerda/MT.
Anais [...].
Porto Alegre: Sociedade Brasileira de Computação,
2025
.
p. 257-265.
ISSN 2447-5386.
DOI: https://doi.org/10.5753/eri-mt.2025.17228.
