Detectores de IA em Avaliações Acadêmicas: uma análise de confiabilidade e implicações éticas para a comunidade de IHC
Resumo
Introdução: Este artigo discute riscos e implicações do uso de detectores de IA em avaliações acadêmicas, destacando falsos positivos, vieses linguísticos e falta de transparência, aspectos que ameaçam especialmente autores em início de carreira. Objetivo: Refletir criticamente sobre as limitações desses detectores e propor caminhos éticos e metodológicos para seu uso responsável, em diálogo com os Grandes Desafios da IHC (GC2 e GC6). Metodologia: A pesquisa foi conduzida por meio de revisão bibliográfica e análise teórico-crítica, complementada por debates e seminários internos realizados no Programa de Pós-Graduação em Computação Aplicada da UFMT nos anos de 2024 e 2025. Resultados Esperados: Espera-se que este estudo contribua para a formulação de diretrizes de boas práticas, promovendo maior transparência, confiabilidade e integridade científica no uso de detectores de IA em contextos acadêmicos.
Referências
Liang, W., Yuksekgonul, M., Mao, Y., Wu, E., & Zou, J. (2023). GPT detectors are biased against non-native English writers. Disponível em: [link]. Acesso em: 25 ago. 2025.
Moraes, F. S. (2024). Detecção de textos gerados pelo ChatGPT: capacidades, limitações e aplicações práticas. Revista de Ciências do Estado. Disponível em: [link]. Acesso em: 25 ago. 2025.
Nielsen, J. (1994). Usability Engineering. San Francisco: Morgan Kaufmann.
Popkov, A. & Barrett, T. (2024). AI vs academia: Experimental study on AI text detectors’ accuracy in behavioral health academic writing. Disponível em: [link]. Acesso em: 25 ago. 2025.
