Agentes de IA na Avaliação Científica: Uma revisão automatizada de publicações em Periódicos Brasileiros
Resumo
Este trabalho investiga o uso de arquiteturas multiagentes baseadas em Inteligência Artificial(IA) como instrumento de apoio à avaliação científica no contexto de periódicos brasileiros. Parte-se do reconhecimento de limitações estruturais do processo de revisão por pares, como sobrecarga de revisores, heterogeneidade dos pareceres e escassez de feedback estruturado aos autores. Para enfrentar esse cenário, propõe-se o projeto de uma arquitetura multiagente capaz de analisar artigos científicos, produzir avaliações estruturadas e gerar relatórios de revisão que apoiem autores, revisores e editores. A pesquisa segue a abordagem de Design Science Research(DSR), envolvendo revisão de literatura, desenvolvimento do artefato e avaliação empírica por meio de estudo de caso com pesquisadores. Espera-se que a solução contribua para ampliar a consistência das análises científicas, melhorar a qualidade dos manuscritos e fortalecer o processo editorial brasileiro.Referências
D’Arcy, M., Hope, T., Birnbaum, L., and Downey, D. (2024). Marg: Multi-agent review generation for scientific papers.
Hevner, A. R., March, S. T., Park, J., and Ram, S. (2004). Design science in information systems research. MIS Q., 28(1):75–105.
Jiang, A. Q., Sablayrolles, A., Mensch, A., Bamford, C., Chaplot, D. S., de las Casas, D., Bressand, F., Lengyel, G., Lample, G., Saulnier, L., Lavaud, L. R., Lachaux, M.-A., Stock, P., Scao, T. L., Lavril, T., Wang, T., Lacroix, T., and Sayed, W. E. (2023). Mistral 7b. arXiv preprint arXiv:2310.06825.
Jin, Y., Zhao, Q., Wang, Y., Chen, H., Zhu, K., Xiao, Y., and Wang, J. (2024). AgentReview: Exploring peer review dynamics with LLM agents. In Al-Onaizan, Y., Bansal, M., and Chen, Y.-N., editors, Proceedings of the 2024 Conference on Empirical Methods in Natural Language Processing, pages 1208–1226, Miami, Florida, USA. Association for Computational Linguistics.
Li, J., Li, Y., Hu, X., Gao, M., and Wan, X. (2025). Where do llms go wrong? diagnosing automated peer review via aspect-guided multi-level perturbation. In Proceedings of the 34th ACM International Conference on Information and Knowledge Management, CIKM ’25, page 1572–1581, New York, NY, USA. Association for Computing Machinery.
Peffers, K., Tuunanen, T., Rothenberger, M., and Chatterjee, S. (2007). A design science research methodology for information systems research. J. Manage. Inf. Syst., 24(3):45–77.
Zhu, M., Weng, Y., Yang, L., and Zhang, Y. (2025). DeepReview: Improving LLM-based paper review with human-like deep thinking process. In Che, W., Nabende, J., Shutova, E., and Pilehvar, M. T., editors, Proceedings of the 63rd Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pages 29330–29355, Vienna, Austria. Association for Computational Linguistics.
Hevner, A. R., March, S. T., Park, J., and Ram, S. (2004). Design science in information systems research. MIS Q., 28(1):75–105.
Jiang, A. Q., Sablayrolles, A., Mensch, A., Bamford, C., Chaplot, D. S., de las Casas, D., Bressand, F., Lengyel, G., Lample, G., Saulnier, L., Lavaud, L. R., Lachaux, M.-A., Stock, P., Scao, T. L., Lavril, T., Wang, T., Lacroix, T., and Sayed, W. E. (2023). Mistral 7b. arXiv preprint arXiv:2310.06825.
Jin, Y., Zhao, Q., Wang, Y., Chen, H., Zhu, K., Xiao, Y., and Wang, J. (2024). AgentReview: Exploring peer review dynamics with LLM agents. In Al-Onaizan, Y., Bansal, M., and Chen, Y.-N., editors, Proceedings of the 2024 Conference on Empirical Methods in Natural Language Processing, pages 1208–1226, Miami, Florida, USA. Association for Computational Linguistics.
Li, J., Li, Y., Hu, X., Gao, M., and Wan, X. (2025). Where do llms go wrong? diagnosing automated peer review via aspect-guided multi-level perturbation. In Proceedings of the 34th ACM International Conference on Information and Knowledge Management, CIKM ’25, page 1572–1581, New York, NY, USA. Association for Computing Machinery.
Peffers, K., Tuunanen, T., Rothenberger, M., and Chatterjee, S. (2007). A design science research methodology for information systems research. J. Manage. Inf. Syst., 24(3):45–77.
Zhu, M., Weng, Y., Yang, L., and Zhang, Y. (2025). DeepReview: Improving LLM-based paper review with human-like deep thinking process. In Che, W., Nabende, J., Shutova, E., and Pilehvar, M. T., editors, Proceedings of the 63rd Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pages 29330–29355, Vienna, Austria. Association for Computational Linguistics.
Publicado
25/05/2026
Como Citar
AMARO, Felipe Pereira; GARCIA, Ana Cristina Bicharra.
Agentes de IA na Avaliação Científica: Uma revisão automatizada de publicações em Periódicos Brasileiros. In: TRILHA DE NOVAS IDEIAS E RESULTADOS EMERGENTES EM SI - DESENHOS DE PESQUISA - SIMPÓSIO BRASILEIRO DE SISTEMAS DE INFORMAÇÃO (SBSI), 22. , 2026, Vitória/ES.
Anais [...].
Porto Alegre: Sociedade Brasileira de Computação,
2026
.
p. 185-190.
DOI: https://doi.org/10.5753/sbsi_estendido.2026.249093.
