O Problema da Atribuição de Responsabilidade em Agentes Artificiais
Resumo
A crescente autonomia dessas máquinas, aliada à sua capacidade de aprendizado, gera desafios éticos e legais, particularmente em situações onde ocorrem erros ou danos. A dificuldade em prever o comportamento futuro desses sistemas levanta questões sobre quem deve ser responsabilizado. Objetiva-se problematizar as condições tradicionais de “controle” e “epistêmica” para atribuição de responsabilidade e como elas se aplicam ou se complicam com sistemas autônomos.
Palavras-chave:
Atribuição de Responsabilidade, Agentes Artificiais
Referências
Matthias, Andreas. (2004) “The responsibility gap: ascribing responsibility for the actions of learning automata”. Ethics and Information Technology, v. 6, n. 3, p. 175-183, set.
Singh, Jatinder and Walden, Ian and Crowcroft, Jon and Bacon, Jean, (2016). Responsibility & Machine Learning: Part of a Process.
Coeckelbergh, M. (2020). AI Ethics. Cambridge, MA and London: MIT Press
Singh, Jatinder and Walden, Ian and Crowcroft, Jon and Bacon, Jean, (2016). Responsibility & Machine Learning: Part of a Process.
Coeckelbergh, M. (2020). AI Ethics. Cambridge, MA and London: MIT Press
Publicado
27/11/2024
Como Citar
MATTOS, Delmo.
O Problema da Atribuição de Responsabilidade em Agentes Artificiais. In: CONFERÊNCIA LATINO-AMERICANA DE ÉTICA EM INTELIGÊNCIA ARTIFICIAL, 1. , 2024, Niteroi.
Anais [...].
Porto Alegre: Sociedade Brasileira de Computação,
2024
.
p. 33-36.
DOI: https://doi.org/10.5753/laai-ethics.2024.32445.