Análise da aceitação de recomendações explicadas de recursos educacionais para apoiar o ensino e a aprendizagem em um ambiente educacional online.
Resumo
Este artigo trata de uma análise de recomendações explicadas e não explicadas, com o objetivo de avaliar o impacto do fator explicativo na aceitação de uma recomendação. Para validar a pesquisa, simulamos a interação dos alunos com os recursos pedagógicos disponíveis em um curso online. Esses dados foram usados para medir o desempenho e a interação dos alunos. Dados os cenários obtidos de cada aluno, algumas recomendações oferecem aos alunos alguns recursos com base em suas necessidades particulares. Metade dessas recomendações foram acompanhadas de uma explicação. No final, perguntamos aos participantes se as recomendações eram adequadas e se as aceitariam. Os resultados mostram que os participantes tiveram uma melhor percepção e foram mais propensos a aceitar as recomendações explicadas.
Palavras-chave:
EAD, Sistemas de Recomendação, Recomendações Explicadas, Recomendações Transparentes, Explicação
Referências
Abdollahi, B. and Nasraoui, O. (2018). Transparency in fair machine learning: the caseof explainable recommender systems. InHuman and Machine Learning, pages 21–35.Springer.
Borg, J. (2017).A arte da persuasão. Saraiva Educação SA.
Dermeval, D., Paiva, R., Bittencourt, I. I., Vassileva, J., and Borges, D. (2018). Authoringtools for designing intelligent tutoring systems: a systematic review of the literature.International Journal of Artificial Intelligence in Education, 28(3):336–384.
Gedikli, F., Jannach, D., and Ge, M. (2014). How should i explain? a comparison of dif-ferent explanation types for recommender systems.International Journal of Human-Computer Studies, 72(4):367–382.
Gunning, D. (2017). Explainable artificial intelligence (xai).Defense Advanced ResearchProjects Agency (DARPA), nd Web.
Paiva, R. and Bittencourt, I. I. (2017). Helping mooc teachers do their job. InResearcherLinks Workshop: Higher Education for All, pages 52–67. Springer.
Paiva, R. and Bittencourt, I. I. (2020). Helping teachers help their students: A human-aihybrid approach. InInternational Conference on Artificial Intelligence in Education,pages 448–459. Springer.
Tintarev, N. and Masthoff, J. (2012). Evaluating the effectiveness of explanations forrecommender systems.User Modeling and User-Adapted Interaction, 22(4-5):399–439
Borg, J. (2017).A arte da persuasão. Saraiva Educação SA.
Dermeval, D., Paiva, R., Bittencourt, I. I., Vassileva, J., and Borges, D. (2018). Authoringtools for designing intelligent tutoring systems: a systematic review of the literature.International Journal of Artificial Intelligence in Education, 28(3):336–384.
Gedikli, F., Jannach, D., and Ge, M. (2014). How should i explain? a comparison of dif-ferent explanation types for recommender systems.International Journal of Human-Computer Studies, 72(4):367–382.
Gunning, D. (2017). Explainable artificial intelligence (xai).Defense Advanced ResearchProjects Agency (DARPA), nd Web.
Paiva, R. and Bittencourt, I. I. (2017). Helping mooc teachers do their job. InResearcherLinks Workshop: Higher Education for All, pages 52–67. Springer.
Paiva, R. and Bittencourt, I. I. (2020). Helping teachers help their students: A human-aihybrid approach. InInternational Conference on Artificial Intelligence in Education,pages 448–459. Springer.
Tintarev, N. and Masthoff, J. (2012). Evaluating the effectiveness of explanations forrecommender systems.User Modeling and User-Adapted Interaction, 22(4-5):399–439
Publicado
24/11/2020
Como Citar
SANTOS, Randerson Douglas R.; PAIVA, Ranilson; BITTENCOURT, Ig Ibert.
Análise da aceitação de recomendações explicadas de recursos educacionais para apoiar o ensino e a aprendizagem em um ambiente educacional online.. In: SIMPÓSIO BRASILEIRO DE INFORMÁTICA NA EDUCAÇÃO (SBIE), 31. , 2020, Online.
Anais [...].
Porto Alegre: Sociedade Brasileira de Computação,
2020
.
p. 1413-1422.
DOI: https://doi.org/10.5753/cbie.sbie.2020.1413.