Comparação do Impacto de Ataques Adversariais Contra Modelo de Classificação baseado em ML

  • Mateus Pelloso UFPR / IFC
  • Michele Nogueira UFPR / UFMG

Resumo


Os ataques adversariais são um risco iminente para soluções baseadas em Inteligência Artificial. A principal característica é provocar o mau funcionamento de modelos de aprendizado de máquina por meio da geração de amostras adversariais. As soluções de cibersegurança se beneficiam desses modelos para classificar dados trafegados na Internet, tanto benignos quanto de ataque. Neste contexto, a proposta deste estudo é avaliar técnicas geradoras de amostras adversárias, compreender sua dinâmica e o impacto causado contra um modelo de aprendizado de máquina. A avaliação tomou por base indicadores como accuracy, precision, recall e f1-score. O cenário utilizado consiste no treinamento e validação de um modelo baseado em rede neural em associação com o conjunto de dados CIC-IDS2017. As técnicas avaliadas se apresentaram efetivas em diminuir a robustez do modelo classificador de tráfego, decrescendo a acurácia de 93% para 7%, aproximadamente.

Referências

Adesina, D., Hsieh, C.-C., Sagduyu, Y. E., and Qian, L. (2022). Adversarial machine learning in wireless communications using rf data: A review. IEEE Communications Surveys & Tutorials.

Alshahrani, E., Alghazzawi, D., Alotaibi, R., and Rabie, O. (2022). Adversarial attacks against supervised machine learning based network intrusion detection systems. Plos one, 17(10):e0275971.

Comiter, M. (2019). Attacking artificial intelligence. Belfer Center Paper, 8:2019–08.

Engelen, G., Rimmer, V., and Joosen, W. (2021). Troubleshooting an intrusion detection dataset: the cicids2017 case study. In 2021 IEEE Security and Privacy Workshops (SPW), pages 7–12. IEEE.

Géron, A. (2019). Hands-on machine learning with Scikit-Learn, Keras, and TensorFlow: Concepts, tools, and techniques to build intelligent systems. ”O’Reilly Media, Inc.”.

Goodfellow, I., Pouget-Abadie, J., Mirza, M., Xu, B., Warde-Farley, D., Ozair, S., Courville, A., and Bengio, Y. (2014). Generative adversarial nets. Advances in neural information processing systems, 27.

Hieu, L. (Último acesso em Ago/2023). cicflowmeter. [link].

Liu, J., Nogueira, M., Fernandes, J., and Kantarci, B. (2021). Adversarial machine learning: A multi-layer review of the state-of-the-art and challenges for wireless and mobile systems. IEEE Communications Surveys & Tutorials.

McCarthy, A., Ghadafi, E., Andriotis, P., and Legg, P. (2023). Defending against adversarial machine learning attacks using hierarchical learning: A case study on network traffic attack classification. Journal of Information Security and Applications, 72:103398.

Rosenberg, I., Shabtai, A., Elovici, Y., and Rokach, L. (2021). Adversarial machine learning attacks and defense methods in the cyber security domain. ACM Computing Surveys (CSUR), 54(5):1–36.

Shieh, C.-S., Nguyen, T.-T., Lin, W.-W., Huang, Y.-L., Horng, M.-F., Lee, T.-F., and Miu, D. (2022a). Detection of adversarial ddos attacks using generative adversarial networks with dual discriminators. Symmetry, 14(1):66.

Shieh, C.-S., Nguyen, T.-T., Lin, W.-W., Lai, W. K., Horng, M.-F., and Miu, D. (2022b). Detection of adversarial ddos attacks using symmetric defense generative adversarial networks. Electronics, 11(13):1977.

Shroff, J., Walambe, R., Singh, S. K., and Kotecha, K. (2022). Enhanced security against volumetric ddos attacks using adversarial machine learning. Wireless Communications and Mobile Computing, 2022.

Zhou, S., Liu, C., Ye, D., Zhu, T., Zhou, W., and Yu, P. S. (2022). Adversarial attacks and defenses in deep learning: From a perspective of cybersecurity. ACM Computing Surveys, 55(8):1–39.
Publicado
24/05/2024
PELLOSO, Mateus; NOGUEIRA, Michele. Comparação do Impacto de Ataques Adversariais Contra Modelo de Classificação baseado em ML. In: WORKSHOP DE GERÊNCIA E OPERAÇÃO DE REDES E SERVIÇOS (WGRS), 29. , 2024, Niterói/RJ. Anais [...]. Porto Alegre: Sociedade Brasileira de Computação, 2024 . p. 168-181. ISSN 2595-2722. DOI: https://doi.org/10.5753/wgrs.2024.3274.