Análise dos efeitos do idioma na geração automática de respostas por aplicações de LLM

  • Fernando Roberto Delbone Universidade Tecnologica Federal do Paraná
  • Igor Scaliante Wiese Universidade Tecnologica Federal do Paraná
  • Marco Aurélio Graciotto Silva Universidade Tecnológica Federal do Paraná https://orcid.org/0000-0002-1737-8240

Resumo


Atualmente os modelos grandes de linguagem (LLM) conseguem resolver com sucesso problemas tipicamente utilizados em disciplinas introdutórias de Computação (CS1). No entanto, de modo geral os estudos consideraram problemas e prompts especificados em inglês. O objetivo deste trabalho é avaliar os efeitos dos idiomas português e inglês utilizados na especificação do problema para a geração automática de respostas em problemas aplicáveis ao contexto de disciplinas de introdução à programação (CS1). Desta forma, observa-se que a taxa de acerto para o ChatGPT e Bard são elevadas, tanto para problemas em português ou inglês, enquanto o HuggingChat não alcançou bons resultados. Quanto à estrutura do prompt, nenhuma das aplicações LLM conseguiu acertar a resposta apenas com o enunciado. No entanto, ao fornecer mais informações, como formatação, dicas e casos de teste, geralmente se observa um desempenho melhor do ChatGPT e Bard.

Palavras-chave: idioma, geração automática de resposta, LLM, CS1

Referências

Brett A. Becker, Paul Denny, James Finnie-Ansley, Andrew Luxton-Reilly, James Prather, and Eddie Antonio Santos. 2023. Programming Is Hard - Or at Least It Used to Be: Educational Opportunities and Challenges of AI Code Generation. In Proceedings of the 54th ACM Technical Symposium on Computer Science Education (54 ed.) (Toronto, ON, Canadá). ACM, New York, NY, EUA, 500–506.

CodeBench. 2023. CodeBench Educational Mining Dataset 1.80. Conjunto de dados. [link]

Paul Denny, Viraj Kumar, and Nasser Giacaman. 2023. Conversing with Copilot: Exploring Prompt Engineering for Solving CS1 Problems Using Natural Language. In Proceedings of the 54th ACM Technical Symposium on Computer Science Education (54 ed.) (Toronto, ON, Canadá). ACM, New York, NY, EUA, 1136–1142

Paul Denny, James Prather, Brett A. Becker, James Finnie-Ansley, Arto Hellas, Juho Leinonen, Andrew Luxton-Reilly, Brent N. Reeves, Eddie Antonio Santos, and Sami Sarsa. 2024. Computing Education in the Era of Generative AI. Commun. ACM 67, 2, 56–67.

James Finnie-Ansley, Paul Denny, Brett A. Becker, Andrew Luxton-Reilly, and James Prather. 2022. The Robots Are Coming: Exploring the Implications of OpenAI Codex on Introductory Programming. In 24th Australasian Computing Education Conference (ACE 2022) (24 ed.) (Austrália), Judy Sheard and Paul Denny (Eds.). ACM, New York, NY, EUA, 10–19.

Sam Lau and Philip Guo. 2023. From "Ban It Till We Understand It"to "Resistance is Futile": How University Programming Instructors Plan to Adapt as More Students Use AI Code Generation and Explanation Tools Such as ChatGPT and GitHub Copilot. In ACM Conference on International Computing Education Research (ICER) 2023 (19 ed.) (Chicago, IL, EUA), Kathi Fisler and Paul Denny (Eds.). ACM, New York, NY, EUA, 106–121.

Stephen R. Piccolo, Paul Denny, Andrew Luxton-Reilly, Samuel H. Payne, and Perry G. Ridge. 2023. Evaluating a large language model’s ability to solve programming exercises from an introductory bioinformatics course. PLOS Computational Biology 19, 9, 1–16.

James Prather, Paul Denny, Juho Leinonen, Brett A. Becker, Ibrahim Albluwi, Michelle Craig, Hieke Keuning, Natalie Kiesler, Tobias Kohn, Andrew Luxton-Reilly, Stephen MacNeil, Andrew Petersen, Raymond Pettit, Brent N. Reeves, and Jaromir Savelka. 2023. The Robots Are Here: Navigating the Generative AI Revolution in Computing Education. In 2023 Conference on Innovation and Technology in Computer Science Education (Turku, Finlândia). ACM, New York, NY, EUA, 108–159.

Mike Richards, Kevin Waugh, Mark Slaymaker, Marian Petre, John Woodthorpe, and Daniel Gooch. 2024. Bob or Bot: Exploring ChatGPT’s Answers to University Computer Science Assessment. Transactions on Computing Education 24, 1, 5:1–5:32.

Jaromir Savelka, Arav Agarwal, Marshall An, Chris Bogart, and Majd Sakr. 2023. Thrilled by Your Progress! Large Language Models (GPT-4) No Longer Struggle to Pass Assessments in Higher Education Programming Courses. In ACM Conference on International Computing Education Research (ICER) 2023 (19 ed.) (Chicago, IL, EUA), Kathi Fisler and Paul Denny (Eds.). ACM, New York, NY, EUA, 78–92.
Publicado
22/04/2024
DELBONE, Fernando Roberto; WIESE, Igor Scaliante; GRACIOTTO SILVA, Marco Aurélio. Análise dos efeitos do idioma na geração automática de respostas por aplicações de LLM. In: LABORATÓRIO DE IDEIAS - SIMPÓSIO BRASILEIRO DE EDUCAÇÃO EM COMPUTAÇÃO (EDUCOMP), 4. , 2024, Evento Online. Anais [...]. Porto Alegre: Sociedade Brasileira de Computação, 2024 . p. 23-24. DOI: https://doi.org/10.5753/educomp_estendido.2024.238811.