Automatic Image Descriptions: Ethical Challenges and Guidelines for Inclusion in the GD6 Context

Abstract


Introduction: Automatic image description by artifcial intelligence systems is essential for accessibility of people with visual impairments, but it may reproduce biases and compromise representativeness. Objective: To analyze ethical implications in description generation, considering identity erasure, racial bias, gender stereotypes, and invisibility of disability, using ChatGPT and Gemini. Methodology: Qualitative and exploratory study with seven images containing identity markers, described by both models and analyzed through thematic content analysis. Results: Although coherent, some descriptions presented omissions, generic language, and stereotypes, indicating the need for guidelines towards more representative and inclusive descriptions.
Keywords: Artificial Intelligence, Digital Accessibility, Automatic Image Description, AI Ethics, Representation, Inclusion, GD6

References

Adewumi, T., Alkhaled, L., Gurung, N., van Boven, G., & Pagliai, I. (2024). Fairness and bias in multimodal AI: A survey. Disponível em: [link]. Acesso em: 19 ago. 2025.

Almeida, N. M. & Mazzoni, A. F. (2020). Design centrado na pessoa com deficiência: práticas inclusivas na criação de tecnologias assistivas. Revista Brasileira de Design da Informação (InfoDesign), 17(2): 145–159.

Bardin, L. (2016). Análise de conteúdo. Edições 70, Lisboa.

Benjamin, R. (2019). Race after Technology: Abolitionist Tools for the New Jim Code. Polity Press, Oxford.

Birhane, A. & van Dijk, J. (2020). Robot rights? Let’s talk about human welfare instead. In Proceedings of the AAAI/ACM Conference on AI, Ethics, and Society, pp. 207–213. ACM.

Brasil (2018). Lei nº 13.709, de 14 de agosto de 2018. Lei geral de proteção de dados pessoais (LGPD). Diário Oficial da União, Brasília. Acesso em: 26 ago. 2025.

Cerejeira, T. L. T. & Alves, J. F. (2022). Narração na audiodescrição por pessoas com deficiência visual: expandindo o campo profissional. Revista Educação e Cultura Contemporânea, 19(59): 114–129.

Chen, M., Cao, Y., Zhang, Y., & Lu, C. (2024). Quantifying and mitigating unimodal biases in multimodal large language models: A causal perspective. Disponível em: [link]. Acesso em: 19 ago. 2025.

D’Ignazio, C. & Klein, L. (2020). Data Feminism. MIT Press, Cambridge, MA.

Duarte, E. F., Alves, D. D., Carneiro, N., Matos, E. S., Baranauskas, M. C. C., & Mendoza, Y. L. L. (2024). GranDIHC-BR 2025–2035 – GC6: Implications of Artificial Intelligence in HCI: A Discussion on Paradigms, Ethics, and Diversity, Equity and Inclusion. In Anais do Simpósio Brasileiro sobre Fatores Humanos em Sistemas Computacionais (IHC), pp. 1027–1045. SBC.

Google AI (2023). Gemini: A multimodal AI system. Disponível em: [link]. Acesso em: 12 maio 2025.

Jiang, L., Zhu, A., & Oppegaard, B. (2025). Audio description automatons: Exploring perspectives on personas for generative AI description writing assistants. In Extended Abstracts of the CHI Conference on Human Factors in Computing Systems. ACM.

Neves, J. (2022). Translation and accessibility: The translation of everyday things. In Zanettin, F. & Rundle, C. (Eds.), Routledge Handbook of Translation and Methodology, pp. 441–456. Routledge.

Noble, S. U. (2018). Algorithms of Oppression: How Search Engines Reinforce Racism. New York University Press.

OpenAI (2025). ChatGPT (versão de maio 2025). Disponível em: [link]. Acesso em: 14 maio 2025.

Pexels (2024). Sobre o Pexels. Disponível em: [link]. Acesso em: 29 mar. 2025.

Pixabay (2024). Termos de serviço. Disponível em: [link]. Acesso em: 29 mar. 2025.

Prabhu, V. U. & Birhane, A. (2020). Large image datasets: A pyrrhic win for computer vision? Disponível em: [link]. Acesso em: 19 ago. 2025.

Rossetti, J. M. R., Borges, L. C. L. F., & Souza, P. C. (2025). Descrição automática de imagens por IA: uma leitura ética e representativa. In Anais do XXIV Simpósio Brasileiro sobre Fatores Humanos em Sistemas Computacionais (IHC 2025). SBC.

Santos, S. & Cavalcante, T. (2020). Acessibilidade e audiodescrição: Um olhar para a aprendizagem dos estudantes com deficiência visual. Educação: Teoria e Prática, 30: 1–19.

Seo, J., Kamath, S. S., Zeidieh, A., Venkatesh, S., & McCurry, S. (2024). Maidr meets AI: Exploring multimodal LLM-based data visualization interpretation by and with blind and low-vision users. In Proceedings of the 26th International ACM SIGACCESS Conference on Computers and Accessibility, pp. 1–31. ACM.

UNESCO (2021). Recommendation on the ethics of artificial intelligence. Technical report, UNESCO, Paris. Aprovada em nov. 2021. Acesso em: 19 ago. 2025.

Venkit, P. N., Srinath, M., & Wilson, S. (2023). Automated ableism: An exploration of explicit disability biases in sentiment and toxicity analysis models. Disponível em: [link]. Acesso em: 19 ago. 2025.

W3C (2018). Accessibility requirements for people with low vision. Disponível em: [link]. Acesso em: 29 mar. 2025.

West, S. M., Whittaker, M., & Crawford, K. (2019). Discriminating systems: Gender, race and power in AI. AI Now Institute, New York. Acesso em: 19 ago. 2025.
Published
2025-09-08
ROSSETTI, Julia M.; SILVA, Vih Angel S.; BORGES, Luciana C. L. F.; VENTURA, Thiago M.; MACIEL, Cristiano; SOUZA, Patricia C. de; NUNES, Eunice P. S.. Automatic Image Descriptions: Ethical Challenges and Guidelines for Inclusion in the GD6 Context. In: POSITION PAPERS - GRANDIHCBR 2025-2035 - BRAZILIAN SYMPOSIUM ON HUMAN FACTORS IN COMPUTATIONAL SYSTEMS (IHC), 24. , 2025, Belo Horizonte/MG. Anais [...]. Porto Alegre: Sociedade Brasileira de Computação, 2025 . p. 311-317. DOI: https://doi.org/10.5753/ihc_estendido.2025.16059.

Most read articles by the same author(s)

<< < 1 2 3 > >>