Aprendizado de Máquina Aplicado à Detecção de Ataques DDoS com Abordagens de Inteligência Artificial Explicável (XAI)
Resumo
O crescimento acelerado dos ataques cibernéticos nosúltimos anos tem representado uma ameaça significativa à segurança de sistemas computacionais em todo o mundo, especialmente devido à sua complexidade crescente. Dentre esses ataques, destaca-se o Distributed Denial of Service (Negação de Serviço Distribuída - DDoS), que busca tornar serviços indisponíveis por meio da sobrecarga de tráfego malicioso. Frente às limitações de métodos tradicionais baseados em assinaturas, este trabalho tem como objetivo analisar a aplicação de técnicas de machine learning na detecção de ataques DDoS utilizando um conjunto de dados público, além de empregar abordagens de inteligência artificial explicável para tornar os resultados mais compreensíveis e transparentes. A metodologia empregou o conjunto de dados DDoS SDN dataset, passando por etapas de tratamento, exclusão de dados nulos e utilização de bibliotecas como Standard Scaler e One Hot Encoder. Os modelos utilizados foram K-Nearest Neighbors (KNN), Decision Tree e Random Forest, avaliados por métricas como acurácia, precisão, recall e F1-Score. Os resultados obtidos demonstraram alto desempenho dos modelos, com destaque para o Decision Tree e o Random Forest, que alcançaram 100% em todas as métricas avaliadas, enquanto o KNN obteve acurácia de 97,22% e F1-Score de 96,43%. Esses resultados evidenciam o potencial dessas técnicas na detecção eficaz de padrões maliciosos, contribuindo para soluções mais precisas, adaptáveis e explicáveis no combate a ataques DDoS.
Referências
Veja. (2023, ago) Ddos: o ataque hacker que derruba redes oficiais e já mirou bolsa família. Acesso em: 15 jul. 2025. [Online]. Available: [link]
UFRJ. (2018, mar) Github passou pelo maior ataque ddos já registrado. Acesso em: 15 jul. 2025. [Online]. Available: [link]
A. José Marchi, M. Zazeri Fonseca, and J. Bodê, “Machine learning: Aplicabilidade em monitoramento de redes,” in FatecSeg - Congresso De Segurança Da Informação, 2023, acessado em: 07 out. 2025. [Online]. Available: [link]
R. R. Silva et al., “Detecção de ataques de negação de serviço distribuídos com algoritmos de aprendizado de máquina,” in Simpósio Brasileiro de Segurança da Informação e de Sistemas Computacionais (SBSeg). SBC, 2024, pp. 226–241.
A. B. Carvalho et al., “Abrindo a caixa-preta – aplicando ia explicável para aprimorar a detecção de sequestros de prefixo,” in Simpósio Brasileiro de Segurança da Informação e de Sistemas Computacionais (SBSeg). SBC, 2024, pp. 16–31.
L. Oliveira et al., “Avaliação de proteção contra ataques de negação de serviço distribuídos (ddos) utilizando lista de ips confiáveis,” in Simpósio Brasileiro de Segurança da Informação e de Sistemas Computacionais (SBSeg). SBC, 2007, pp. 177–190.
M. Pelloso et al., “Um sistema autoadaptável para predição de ataques ddos fundado na teoria da metaestabilidade,” in Simpósio Brasileiro de Redes de Computadores e Sistemas Distribuídos (SBRC). SBC, 2018, pp. 726–739.
A. B. D. Neira et al., “Engenharia de sinais precoces de alerta para a predição de ataques ddos,” in Workshop de Gerência e Operação de Redes e Serviços (WGRS). SBC, 2023, pp. 139–152.
G. M. de Mattos Paixão et al., “Machine learning na medicina: revisão e aplicabilidade,” Arquivos Brasileiros de Cardiologia, vol. 118, no. 1, pp. 95–102, 2022.
M. C. P. D. Souto et al., “Técnicas de aprendizado de máquina para problemas de biologia molecular,” Sociedade Brasileira de Computação, vol. 1, no. 2, 2003.
M. Z. Bavaresco and C. G. Webber, “Ia explicável para reduzir a assimetria de informação no consumo: uma análise comparativa de ferramentas e implicações educacionais,” Redin-Revista Educacional Interdisciplinar, vol. 13, no. 2, pp. 59–77, 2024.
E. Tjoa and C. Guan, “A survey on explainable artificial intelligence (xai): Toward medical xai,” IEEE Transactions on Neural Networks and Learning Systems, vol. 32, no. 11, pp. 4793–4813, 2020.
O. M. D. Andrade, “Da “caixa-preta” à “caixa de vidro”: o uso da explainable artificial intelligence (xai) para reduzir a opacidade e enfrentar o enviesamento em modelos algorítmicos,” Direito Público, 2022.
