Ética em Inteligência Artificial: Desenvolvimento de um Instrumento Paradidático
Resumo
Este artigo apresenta um instrumento paradidático destinado a estudantes de tecnologia, visando promover o debate sobre questões éticas em Inteligência Artificial (IA). O instrumento combina questões tipo Likert e dissertativas, abordando três dimensões críticas: privacidade, trabalho e consequências sociais da IA. Um estudo de caso inicial com 70 estudantes revela preocupações significativas sobre privacidade de dados, impactos no trabalho e consequências sociais, enquanto reconhece potenciais benefícios da IA. O trabalho conclui destacando a importância de discussões éticas interdisciplinares nos cursos de Computação.
Palavras-chave:
Ética em Inteligência Artificial, Instrumento paradidático, Estudo de caso
Referências
ANATEL and TSE (2023). Acordo de cooperação técnica nº9/2023. Tribunal Superior Eleitoral.
Antonialli, F., Antonialli, L. M., and Antonialli, R. E. (2015). Usos e abusos da escala likert: Estudo bibliomátrico nos anais do enanpad de 2010 a 2015. ´
Bommasani, R., Klyman, K., Longpre, S., Kapoor, S., Maslej, N., Xiong, B., Zhang, D., and Liang, P. (2023). The foundation model transparency index. arXiv.
Cassino, J., Alvero, A. J., and Silveira, A. C. (2023). Undefined title.
da República do Brasil, P. (2018). Lei geral de proteção de dados pessoais (LGPD).
Hagendorff, T. (2024). Mapping the ethics of generative ai: A comprehensive scoping review. arXiv preprint arXiv:2402.08323.
Joshi, A., Kale, S., Chandel, S., and Pal, D. K. (2015). Likert scale: Explored and explained. Current Journal of Applied Science and Technology, 7(4):396–403.
Kosinski, M., Matz, S. C., Gosling, S. D., Popov, V., and Stillwell, D. (2016). Facebook as a research tool for the social sciences: Opportunities, challenges, ethical considerations, and practical guidelines. American Psychologist, 71(6):543–556.
Nasr, M., Carlini, N., Hayase, J., Jagielski, M., Cooper, A. F., Ippolito, D., Choquette-Choo, C. A., Wallace, E., Tramer, F., and Lee, K. (2023). Scalable extraction of training data from (production) language models. arXiv.
Omiye, J. A., Lester, J. C., Spichak, S., Rotemberg, V., and Daneshjou, R. (2023). Large language models propagate race-based medicine. npj Digital Medicine, 6(1):1–4.
Parliament, E. and of the European Union, C. (2024). Regulamento da inteligencia artificial (ue) 2024/1689.
UNESCO (2021). Recomendação sobre a Ética da inteligência artificial. Recomendação, Organização das Nações Unidas para a Educação, a Ciência e a Cultura, Paris.
Wang, W., Bai, H., Huang, J., Wan, Y., Yuan, Y., Qiu, H., Peng, N., and Lyu, M. R. (2024). New job, new gender? measuring the social bias in image generation models. arXiv.
World Economic Forum (2020). The future of jobs report 2020.
Zou, A., Wang, Z., Carlini, N., Nasr, M., Kolter, J. Z., and Fredrikson, M. (2023). Universal and transferable adversarial attacks on aligned language models. arXiv.
Antonialli, F., Antonialli, L. M., and Antonialli, R. E. (2015). Usos e abusos da escala likert: Estudo bibliomátrico nos anais do enanpad de 2010 a 2015. ´
Bommasani, R., Klyman, K., Longpre, S., Kapoor, S., Maslej, N., Xiong, B., Zhang, D., and Liang, P. (2023). The foundation model transparency index. arXiv.
Cassino, J., Alvero, A. J., and Silveira, A. C. (2023). Undefined title.
da República do Brasil, P. (2018). Lei geral de proteção de dados pessoais (LGPD).
Hagendorff, T. (2024). Mapping the ethics of generative ai: A comprehensive scoping review. arXiv preprint arXiv:2402.08323.
Joshi, A., Kale, S., Chandel, S., and Pal, D. K. (2015). Likert scale: Explored and explained. Current Journal of Applied Science and Technology, 7(4):396–403.
Kosinski, M., Matz, S. C., Gosling, S. D., Popov, V., and Stillwell, D. (2016). Facebook as a research tool for the social sciences: Opportunities, challenges, ethical considerations, and practical guidelines. American Psychologist, 71(6):543–556.
Nasr, M., Carlini, N., Hayase, J., Jagielski, M., Cooper, A. F., Ippolito, D., Choquette-Choo, C. A., Wallace, E., Tramer, F., and Lee, K. (2023). Scalable extraction of training data from (production) language models. arXiv.
Omiye, J. A., Lester, J. C., Spichak, S., Rotemberg, V., and Daneshjou, R. (2023). Large language models propagate race-based medicine. npj Digital Medicine, 6(1):1–4.
Parliament, E. and of the European Union, C. (2024). Regulamento da inteligencia artificial (ue) 2024/1689.
UNESCO (2021). Recomendação sobre a Ética da inteligência artificial. Recomendação, Organização das Nações Unidas para a Educação, a Ciência e a Cultura, Paris.
Wang, W., Bai, H., Huang, J., Wan, Y., Yuan, Y., Qiu, H., Peng, N., and Lyu, M. R. (2024). New job, new gender? measuring the social bias in image generation models. arXiv.
World Economic Forum (2020). The future of jobs report 2020.
Zou, A., Wang, Z., Carlini, N., Nasr, M., Kolter, J. Z., and Fredrikson, M. (2023). Universal and transferable adversarial attacks on aligned language models. arXiv.
Publicado
27/11/2024
Como Citar
BARONE, Dante Augusto Couto; MALOSSI, Rodrigo Mor; FERRUGEM, Anderson Priebe; SILVEIRA, Daniel Leal Racheli; FRANÇA, Akira Borba Colen; STIVELMAN, Tatiane Sequerra.
Ética em Inteligência Artificial: Desenvolvimento de um Instrumento Paradidático. In: CONFERÊNCIA LATINO-AMERICANA DE ÉTICA EM INTELIGÊNCIA ARTIFICIAL, 1. , 2024, Niteroi.
Anais [...].
Porto Alegre: Sociedade Brasileira de Computação,
2024
.
p. 65-68.
DOI: https://doi.org/10.5753/laai-ethics.2024.32453.