Proposta de análise de desempenho do uso de mecanismos de segurança em sistemas inteligentes usando aprendizado de máquina e IA gerativa adversariais do tipo LLM

  • Milton P. Pagliuso Neto UDESC
  • Charles C. Miers UDESC

Resumo

A integração de métodos seguros tornou-se crucial para garantir a segurança e confiabilidade de sistemas de aprendizado de máquina. Este artigo propõe uma análise sobre o impacto da adoção de medidas de segurança no desempenho de LLMs, visando compreender o impacto das medidas de segurança na eficiência e escalabilidade desses sistemas.

Referências

Naveed, H., Khan, A. U., Qiu, S., Saqib, M., Anwar, S., Usman, M., Barnes, N., and Mian, A. (2023). A comprehensive overview of large language models. arXiv preprint arXiv:2307.06435.

Vassilev, A., Oprea, A., Fordyce, A., and Andersen, H. (2024). Adversarial machine learning: A taxonomy and terminology of attacks and mitigations.

Xu, M., Yin, W., Cai, D., Yi, R., Xu, D., Wang, Q., Wu, B., Zhao, Y., Yang, C., Wang, S., et al. (2024). A survey of resource-efficient llm and multimodal foundation models. arXiv preprint arXiv:2401.08092.
Publicado
2024-04-24
Como Citar
PAGLIUSO NETO, Milton P.; MIERS, Charles C.. Proposta de análise de desempenho do uso de mecanismos de segurança em sistemas inteligentes usando aprendizado de máquina e IA gerativa adversariais do tipo LLM. Anais da Escola Regional de Alto Desempenho da Região Sul (ERAD-RS), [S.l.], p. 127-128, abr. 2024. ISSN 2595-4164. Disponível em: <https://sol.sbc.org.br/index.php/eradrs/article/view/28026>. Acesso em: 18 maio 2024. doi: https://doi.org/10.5753/eradrs.2024.238702.