Tutoria: Plataforma para suporte à correção de atividades e envio de feedback personalizado
Resumo
O feedback dado por professores a estudantes sobre atividades avaliativas é fundamental para a construção do conhecimento e compreensão acerca de sua trajetória de aprendizagem. Entretanto, frequentemente professores não conseguem fornecer feedback de qualidade e em tempo hábil, devido à sobrecarga de trabalho e à falta de tempo, gerando frustração para todos os envolvidos. Neste contexto, a plataforma Tutoria tem o objetivo de apoiar professores na correção de atividades avaliativas de maneira mais rápida, mantendo a qualidade e a personalização. Para isso, Tutoria utiliza técnicas de inteligência artificial para dar suporte na correção de questões discursivas, priorizando a usabilidade.
Referências
Boud, D. and Molloy, E. (2013). Rethinking models of feedback for learning: the challenge of design. Assessment & Evaluation in higher education, 38(6):698–712.
Cavalcanti, A. P., Barbosa, A., Carvalho, R., Freitas, F., Tsai, Y.-S., Gašević, D., and Mello, R. F. (2021). Automatic feedback in online learning environments: A systematic literature review. Computers and Education: Artificial Intelligence, 2:100027.
Falcão, T. P., Arêdes, V., Souza, S., Luisi, V., Neto, G. F., Neto, R., Morais, D., Miranda, P. B., and Mello, R. F. (2020). Tutoria: uma plataforma para apoiar boas praticas de feedback no processo de ensino e aprendizagem. In Anais dos Workshops do X Congresso Brasileiro de Informática na Educação, pages 213–220. SBC.
Falcao, T. P., Arêdes, V., Wagner, S. S., Uchoa, J. P. C., Luisi, V., and Mello, R. F. (2022). What did i get wrong? supporting the feedback process in computer science education. In Anais do XXX Workshop sobre Informática na Educação, pages 239–250. SBC
Freeman, R. and Lewis, R. (2016). Planning and implementing assessment. Routledge.
Grier, R. A., Bangor, A., Kortum, P., and Peres, S. C. (2013). The system usability scale: Beyond standard usability testing. In Proceedings of the Human Factors and Ergonomics Society Annual Meeting, volume 57, pages 187–191. SAGE Publications Sage CA: Los Angeles, CA.
Higgins, R., Hartley, P., and Skelton, A. (2001). Getting the message across: the problem of communicating assessment feedback. Teaching in higher education, 6(2):269–274.
Mello, R. F., Neto, R., Fiorentino, G., Alves, G., Arêdes, V., Silva, J. V. G. F., Falcão, T. P., and Gašević, D. (2022). Enhancing instructors' capability to assess open-response using natural language processing and learning analytics. In European Conference on Technology Enhanced Learning, pages 102–115. Springer.
Nicol, D. J. and Macfarlane-Dick, D. (2006). Formative assessment and self-regulated learning: A model and seven principles of good feedback practice. Studies in higher education, 31(2):199–218.
Pardo, A., Bartimote, K., Shum, S. B., Dawson, S., Gao, J., Gašević, D., Leichtweis, S., Liu, D., Martínez-Maldonado, R., Mirriahi, N., et al. (2018). Ontask: Delivering data-informed, personalized learning support actions. Journal of Learning Analytics, 5(3):235–249.
Singh, A., Karayev, S., Gutowski, K., and Abbeel, P. (2017). Gradescope: a fast, flexible, and fair system for scalable assessment of handwritten work. In Proceedings of the fourth (2017) acm conference on learning@ scale, pages 81–88.
Tsai, Y.S., Mello, R. F., Jovanović, J., and Gašević, D. (2021). Student appreciation of data-driven feedback: A pilot study on ontask. In LAK21: 11th International Learning Analytics and Knowledge Conference, pages 511–517.
Wiggins, G. (1998). Educative Assessment. Designing Assessments To Inform and Improve Student Performance. ERIC.