Sistema multiagente para a geração automática de questões de programação
Resumo
A elaboração de questões abertas de programação é uma tarefa complexa e demandante de tempo, exigindo conhecimentos pedagógicos e técnicos. Este trabalho propõe um sistema multiagentes para a geração automática dessas questões, utilizando a LangGraph como ferramenta de orquestração. A arquitetura desenvolvida permite que agentes especializados criem enunciados, verifiquem coerência, elaborem casos de teste e padronizem código de forma colaborativa, reduzindo a necessidade de intervenção humana e aumentando a consistência e qualidade pedagógica do material. Resultados parciais indicam que o uso de múltiplos agentes permite contornar limitações comuns de modelos de IA generativa, como inconsistências nos enunciados e erros de código, e possibilita adaptação a diferentes níveis de dificuldade e contextos educacionais. O estudo contribui para a área de sistemas multiagentes e oferece uma estratégia replicável para integração de múltiplos LLMs ou agentes inteligentes em tarefas educacionais automatizadas.
Referências
Chan, W., An, A., and Davoudi, H. (2023). A case study on chatgpt question generation. In 2023 IEEE International Conference on Big Data (BigData), pages 1647–1656.
Huang, Y. T. and Mostow, J. (2015). Evaluating human and automated generation of distractors for diagnostic multiple-choice cloze questions to assess children’s reading comprehension. In Conati, C., Heffernan, N., Mitrovic, A., and Verdejo, M., editors, Artificial Intelligence in Education, pages 155–164. Springer International Publishing, Cham.
Kumar, G., Banchs, R., and D’Haro, L. F. (2015). Automatic fill-the-blank question generator for student self-assessment. In IEEE Frontiers in Education Conference (FIE), pages 1–3.
Meißner, N., Speth, S., and Becker, S. (2024). Automated programming exercise generation in the era of large language models. In 36th International Conference on Software Engineering Education and Training (CSEET), pages 1–5, Würzburg, Germany.
Odilinye, L., Popowich, F., Zhang, E., Nesbit, J., and Winne, P. H. (2015). Aligning automatically generated questions to instructor goals and learner behaviour. In IEEE 9th International Conference on Semantic Computing (ICS), pages 216–223.
Oshin, M. and Campos, N. (2025). Learning LangChain: Building AI and LLM Applications with LangChain and LangGraph. O’Reilly Media, Inc., Sebastopol, CA, USA. Copyright © 2025 Olumayowa “Mayo” Olufemi Oshin. All rights reserved. Printed in the United States of America.
Pimentel, M., Filippo, D., and Santoro, F. M. (2020). Design science research: fazendo pesquisas científicas rigorosas atreladas ao desenvolvimento de artefatos computacionais projetados para a educação. In Jaques, P. A., Pimentel, M., Siqueira, S., and Bittencourt, I., editors, Metodologia de Pesquisa Científica em Informática na Educação: Concepção de Pesquisa, volume 1 of Série Metodologia de Pesquisa em Informática na Educação. SBC, Porto Alegre.
Santana, A., Silva, F., Dantas, J., Souza, J., and Aranha, E. (2025a). Geração automática de questões de programação usando llm: Um relato de experiência. In Anais do XXXIII Workshop sobre Educação em Computação, pages 1415–1425, Porto Alegre, RS, Brasil. SBC.
Santana, A., Silva, F., Dantas, J., Souza, J., and Aranha, E. (2025b). Geração de questões de programação baseada em templates e ia generativa. In Anais do Workshop de Informática na Escola, CBIE, Porto Alegre, RS, Brasil. SBC. No prelo.
Shah, C. (2024). From prompt engineering to prompt science with human in the loop. In Proceedings of ACM Conference on Human in the Loop, Seattle, WA, USA. arXiv preprint arXiv:2401.04122, May 10, 2024.
Thalheimer, W. (2003). The learning benefits of questions. Technical report, Work Learning Research.
Yao, S., Zhao, J., Yu, D., Du, N., Shafran, I., Narasimhan, K., and Cao, Y. (2023). React: Synergizing reasoning and acting in language models.
