Proposta de análise de desempenho do uso de mecanismos de segurança em sistemas inteligentes usando aprendizado de máquina e IA gerativa adversariais do tipo LLM

  • Milton P. Pagliuso Neto UDESC
  • Charles C. Miers UDESC

Resumo


A integração de métodos seguros tornou-se crucial para garantir a segurança e confiabilidade de sistemas de aprendizado de máquina. Este artigo propõe uma análise sobre o impacto da adoção de medidas de segurança no desempenho de LLMs, visando compreender o impacto das medidas de segurança na eficiência e escalabilidade desses sistemas.

Referências

Naveed, H., Khan, A. U., Qiu, S., Saqib, M., Anwar, S., Usman, M., Barnes, N., and Mian, A. (2023). A comprehensive overview of large language models. arXiv preprint arXiv:2307.06435.

Vassilev, A., Oprea, A., Fordyce, A., and Andersen, H. (2024). Adversarial machine learning: A taxonomy and terminology of attacks and mitigations.

Xu, M., Yin, W., Cai, D., Yi, R., Xu, D., Wang, Q., Wu, B., Zhao, Y., Yang, C., Wang, S., et al. (2024). A survey of resource-efficient llm and multimodal foundation models. arXiv preprint arXiv:2401.08092.
Publicado
24/04/2024
Como Citar

Selecione um Formato
PAGLIUSO NETO, Milton P.; MIERS, Charles C.. Proposta de análise de desempenho do uso de mecanismos de segurança em sistemas inteligentes usando aprendizado de máquina e IA gerativa adversariais do tipo LLM. In: ESCOLA REGIONAL DE ALTO DESEMPENHO DA REGIÃO SUL (ERAD-RS), 24. , 2024, Florianópolis/SC. Anais [...]. Porto Alegre: Sociedade Brasileira de Computação, 2024 . p. 127-128. ISSN 2595-4164. DOI: https://doi.org/10.5753/eradrs.2024.238702.