Pro-AvaliaJS: Protocolo para planejamento e execução da avaliação da reação e aprendizagem de jogos sérios
Resumo
As avaliações em jogos sérios devem ser planejadas e executadas visando garantir a eficácia dos jogos. Com a pandemia do COVID-19, várias atividades foram realizadas remotamente, inclusive as sessões de avaliações. O presente artigo objetiva descrever o Pro-AvaliaJS, um protocolo de planejamento e execução das avaliações de reação e aprendizagem, e analisar seu uso na avaliação de cinco jogos diferentes. O protocolo foi proposto baseado no modelo conceitual AvaliaJS. Os principais resultados e discussões apontam que o protocolo pode ser usado para definir etapas e atividades para orientar a equipe de avaliação e testes antes, durante e depois da execução da avaliação de jogos sérios.
Referências
Basili, V., Caldiera, G. e Rombach, H. (1994). Goal Question Metric Paradigm. Encyclopedia of Software Engineering, v. 1, John Wiley & Sons, p. 528-532.
Barros, V. R. M., Rocha, R. V. e Goya, D. H. (2021). Implementação da visualização de relatórios para análise do desempenho dos jogadores em jogos sérios do tipo quiz. Workshop Games na Graduação do XX SBGames, p. 1-4.
Braga, J. C. (2015). Objetos de aprendizagem, volume 2: metodologia de desenvolvimento - Santo André : Editora da UFABC.
Ghergulescu, I. e Muntean, C. H. (2012). Measurement and Analysis of Learner's Motivation in Game-Based E-Learning. Ifenthaler D.; Eseryel D.; Ge X. (eds.), Assessment in Game-Based Learning. Springer New York, p. 355-378.
Higuchi, V., Bezerra, D. S., Rocha, R. V. e Goya, D. H. (2021). AlgoBot: jogo sério para o desenvolvimento do pensamento computacional. Anais do Workshop Games na Graduação do XX SBGames, p. 1-4.
Kirkpatrick, D. L. e Kirkpatrick, J. D. (2016). Kirkpatrick's Four Levels of Training Evaluation. ATD Press.
Medeiros, J. F. (2015). Avaliação de Usabilidade e Jogabilidade em Jogos para Dispositivos Móveis: Métodos, Técnicas e Ferramentas. SBGames, p. 1-21.
Melo, A. M., Crespo, Í. M., Medeiros, G. C. e De Oliveira, A. B. (2020). Estratégias Remotas à Avaliação de Interfaces de Usuário. Anais da IV Escola Regional de Engenharia de Software, p. 1-10.
Muller, M. J., Haslwanter, J. H. e Dayton, T. (1997). Participatory Practices in the Software Lifecycle. Handbook of Human-Computer Interaction, Elsevier.
Nielsen, J. (1993). Usability Engineering. Morgan Kaufmann.
Oliveira, W., Joaquim, S. e Isotani, S. (2020). Avaliação de Jogos Educativos: Desafios, Oportunidades e Direcionamentos de Pesquisa. In SBGames, p. 775-778.
Oliveira, R., Belarmino, G., Rodriguez, C., Goya, D., Venero, M. F., Júnior, A. O. e Rocha, R. V. (2019). Avaliações em Jogos Educacionais: instrumentos de avaliação da reação, aprendizagem e comparação de jogo. SBIE, p. 972-981.
Oliveira, R. N. R. e Rocha, R. V. (2021). AvaliaJS: Planejamento da Avaliação do Desempenho de Alunos em Jogos Sérios. Anais do X CBIE, p. 101-110.
Oliveira, R. N. R., Rocha, R. V. e Goya, D. H. (2021). Planning the Design and Execution of Student Performance Assessment in Serious Games. Journal on Interactive Systems (JIS), 12(1), p. 172-190.
Pessoa, J. O. e Rocha, R. V. (2021). Projeto Saturno: jogo sério para a motivação e aprendizagem sobre História do Brasil. Anais do Workshop Games na Graduação do XX SBGames, p. 1-4.
Petri,G., vonWangenheim, C.G. e Borgatto, A.F. (2019). MEEGA+: A Model for the Evaluation of Educational Games for Computing Education. RBIE, 27(3), p. 52-81.
Rocha, R. V., Bittencourt, I. I. e Isotan, S. (2015). Avaliação de Jogos Sérios: questionário para autoavaliação e avaliação da reação do aprendiz. XIV SBGames, p. 648-657.
Rocha, R. V (2017). Critérios para a construção de jogos sérios. Anais do XXVIII SBIE, p. 947-956.
Santos, W. S. (2018). Um Modelo de Avaliação para Jogos Digitais Educacionais. Tese (Programa de Pós-Graduação em Modelagem Computacional e Tecnologia Industrial), Centro Universitário SENAI CIMATEC.