Uma Proposta de Requisitos Não Funcionais para Aderência de Sistemas Computacionais ao Projeto de Lei de Regulamentação da Inteligência Artificial
Resumo
Este trabalho propõe requisitos não funcionais (RNFs) para promover a aderência de sistemas de inteligência artificial (IA) ao PL 2338/2023, que visa regular o desenvolvimento e a utilização ética da IA no país, dada a crescente necessidade de regulamentação da IA, que apresenta desafios éticos e técnicos, especialmente em sistemas complexos e de alto risco. A metodologia adotada incluiu uma análise exploratória do PL e da literatura para a identificação dos requisitos, com a aplicação de uma taxonomia unificada de RNFs. A partir desta análise foram identificados 32 requisitos não funcionais, categorizados em sete grupos de requisitos legais de produto. Os principais resultados incluem a organização dos requisitos, sua conformidade com a literatura especializada e a análise das vantagens de seu uso no desenvolvimento de sistemas de IA. O trabalho contribui para a conformidade legal e para a implementação de práticas de governança que garantam a segurança, transparência e ética nos sistemas de IA, estabelecendo uma base para futuras pesquisas que validem e ampliem o conjunto de requisitos propostos.Referências
ANGWIN, J., LARSON, J., MATTU, S., and KIRCHNER, L. (2016). Machine bias: There’s software used across the country to predict future criminals. And it’s biased against blacks.
BELLE, V. and PAPANTONIS, I. (2021). Principles and practice of explainable machine learning. Frontiers in big Data, 4:688969.
BENDER, E. M., GEBRU, T., MCMILLAN-MAJOR, A., and SHMITCHELL, S. (2021). On the dangers of stochastic parrots: Can language models be too big? In Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency, FAccT ’21, page 610–623, New York, NY, USA. Association for Computing Machinery.
BENITTI, F. B. V. and RHODEN, J. S. (2015). Uma taxonomia unificada para requisitos não funcionais. Revista Electronica de Sistemas de Informaçao, 14(3):1.
DE LIMA, L. F. F. P., RICARTE, D. R. D., and SIEBRA, C. A. (2024). A benchmark proposal for non-generative fair adversarial learning strategies using a fairness-utility trade-off metric. Computational Intelligence, 40(5):e70003.
FALCÃO, C. (2021). Lentes racistas: Rui Costa está transformando a Bahia em um laboratório de vigilância com reconhecimento facial.
FLORIDI, L. et al. (2018). Ai4people—an ethical framework for a good ai society: Opportunities, risks, principles, and recommendations. Minds and machines, 28(4):689–707.
ISO/IEC-25010:2010 (2010). Systems and software engineering — systems and software quality requirements and evaluation (square) — system and software quality models. [link].
KEARNS, M. and ROTH, A. (2019). The ethical algorithm: The science of socially aware algorithm design. Oxford University Press.
LEAVY, S. (2018). Gender bias in artificial intelligence: The need for diversity and gender theory in machine learning. In Proceedings of the 1st international workshop on gender equality in software engineering, pages 14–16.
LUDGERO, P. R. (2024). Desafios da regulamentação da inteligência artificial: Uma análise crítica das propostas legislativas.
MEHRABI, N. et al. (2019). A survey on bias and fairness in machine learning. arXiv preprint arXiv:1908.09635.
PL-2338/2023 (2023). [link].
RUSSEL, S. and NORVIG, P. (2021). Artificial intelligence: a modern approach. Person, 4rd edition.
SANTOS, R. S., DE LIMA, L. F. F. P., BALDASSARRE, M. T., and SPÍNOLA, R. (2024). Preliminary insights on industry practices for addressing fairness debt. In Proceedings of the 18th ACM/IEEE International Symposium on Empirical Software Engineering and Measurement, pages 566–571.
SILVA, K. L. and ALVES, L. H. (2023). Um estudo da regulamentação da inteligência artificial no brasil no contexto dos projetos de lei nº 5.051/2019, 21/2020, 872/2021 e 2.338/2023. [link].
SOMMERVILLE, I. (2007). Engenharia de softwate. Addson Wesley, 8 edition.
BELLE, V. and PAPANTONIS, I. (2021). Principles and practice of explainable machine learning. Frontiers in big Data, 4:688969.
BENDER, E. M., GEBRU, T., MCMILLAN-MAJOR, A., and SHMITCHELL, S. (2021). On the dangers of stochastic parrots: Can language models be too big? In Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency, FAccT ’21, page 610–623, New York, NY, USA. Association for Computing Machinery.
BENITTI, F. B. V. and RHODEN, J. S. (2015). Uma taxonomia unificada para requisitos não funcionais. Revista Electronica de Sistemas de Informaçao, 14(3):1.
DE LIMA, L. F. F. P., RICARTE, D. R. D., and SIEBRA, C. A. (2024). A benchmark proposal for non-generative fair adversarial learning strategies using a fairness-utility trade-off metric. Computational Intelligence, 40(5):e70003.
FALCÃO, C. (2021). Lentes racistas: Rui Costa está transformando a Bahia em um laboratório de vigilância com reconhecimento facial.
FLORIDI, L. et al. (2018). Ai4people—an ethical framework for a good ai society: Opportunities, risks, principles, and recommendations. Minds and machines, 28(4):689–707.
ISO/IEC-25010:2010 (2010). Systems and software engineering — systems and software quality requirements and evaluation (square) — system and software quality models. [link].
KEARNS, M. and ROTH, A. (2019). The ethical algorithm: The science of socially aware algorithm design. Oxford University Press.
LEAVY, S. (2018). Gender bias in artificial intelligence: The need for diversity and gender theory in machine learning. In Proceedings of the 1st international workshop on gender equality in software engineering, pages 14–16.
LUDGERO, P. R. (2024). Desafios da regulamentação da inteligência artificial: Uma análise crítica das propostas legislativas.
MEHRABI, N. et al. (2019). A survey on bias and fairness in machine learning. arXiv preprint arXiv:1908.09635.
PL-2338/2023 (2023). [link].
RUSSEL, S. and NORVIG, P. (2021). Artificial intelligence: a modern approach. Person, 4rd edition.
SANTOS, R. S., DE LIMA, L. F. F. P., BALDASSARRE, M. T., and SPÍNOLA, R. (2024). Preliminary insights on industry practices for addressing fairness debt. In Proceedings of the 18th ACM/IEEE International Symposium on Empirical Software Engineering and Measurement, pages 566–571.
SILVA, K. L. and ALVES, L. H. (2023). Um estudo da regulamentação da inteligência artificial no brasil no contexto dos projetos de lei nº 5.051/2019, 21/2020, 872/2021 e 2.338/2023. [link].
SOMMERVILLE, I. (2007). Engenharia de softwate. Addson Wesley, 8 edition.
Publicado
20/07/2025
Como Citar
CARVALHO, Giovanni Bruno T. de; BELARMINO, Gabriel da S.; LIMA, Luiz Fernando F. P. de; RICARTE, Danielle Rousy D..
Uma Proposta de Requisitos Não Funcionais para Aderência de Sistemas Computacionais ao Projeto de Lei de Regulamentação da Inteligência Artificial. In: WORKSHOP SOBRE AS IMPLICAÇÕES DA COMPUTAÇÃO NA SOCIEDADE (WICS), 6. , 2025, Maceió/AL.
Anais [...].
Porto Alegre: Sociedade Brasileira de Computação,
2025
.
p. 147-157.
ISSN 2763-8707.
DOI: https://doi.org/10.5753/wics.2025.9240.
