Defendendo Modelos de Aprendizado de Máquina: Estratégias de Detecção de Anomalias Contra Ataques de Envenenamento
Resumo
Este trabalho apresenta o framework de defesa GAIA, desenvolvido para detectar e mitigar ataques de envenenamento por parâmetros aleatórios em Aprendizado Federado (FL). Tais ataques, os quais envolvem a submissão de tensores com valores aleatórios por agentes maliciosos, comprometem a integridade e a acurácia dos modelos globais. A metodologia utiliza as normas vetoriais L1 e L2 para extrair características das atualizações de modelo. As atualizações de clientes benignos seguem padrões estatisticos consistentes, enquanto as de atacantes exibem distribuições divergentes. A análise dessas assinaturas permite ao servidor de agregação identificar atualizações maliciosas e garantir a estabilidade e precisão do modelo federado. Por meio de demonstração experimental, a eficácia da estrutura proposta foi validada ao atingir 40% de acurácia, o que representa um aumento de mais de 30% em relação ao modelo sem defesa.
Palavras-chave:
Aprendizado Federado, Envenenamento, Aprendizagem de Máquina
Referências
AbdulRahman, S., Tout, H., Ould-Slimane, H., Mourad, A., Talhi, C., and Guizani, M. (2020). A survey on federated learning: The journey from centralized to distributed on-site learning and beyond. IEEE Internet of Things Journal, 8(7):5476–5497.
Assumpção, N. R. and Villas, L. A. (2024). Rápido, privado e protegido: Uma abordagem para aprendizado federado eficiente em ambiente hostil. In Workshop de Computação Urbana (CoUrb), pages 15–28. SBC.
Blanchard, P., El Mhamdi, E. M., Guerraoui, R., and Stainer, J. (2017). Machine learning with adversaries: Byzantine tolerant gradient descent. Advances in neural information processing systems, 30.
de Souza, A. M., Bittencourt, L. F., Cerqueira, E., Loureiro, A. A., and Villas, L. A. (2023). Dispositivos, eu escolho vocês: Seleçao de clientes adaptativa para comunicaçao eficiente em aprendizado federado. In Simpósio Brasileiro de Redes de Computadores e Sistemas Distribuídos (SBRC), pages 1–14. SBC.
de Souza, A. M., Maciel, F., da Costa, J. B., Bittencourt, L. F., Cerqueira, E., Loureiro, A. A., and Villas, L. A. (2024). Adaptive client selection with personalization for communication efficient federated learning. Ad Hoc Networks, 157:103462.
Korkmaz, A., Alhonainy, A., and Rao, P. (2022). An evaluation of federated learning techniques for secure and privacy-preserving machine learning on medical datasets. In 2022 IEEE Applied Imagery Pattern Recognition Workshop (AIPR), pages 1–7. IEEE.
Morais, M. G., da Costa, J. B., Gonzalez, L. F., de Souza, A. M., and Villas, L. A. (2024). Mecanismo para mitigar ataques de envenenamento de modelo no aprendizado federado. In Workshop de Computação Urbana (CoUrb), pages 224–237. SBC.
Assumpção, N. R. and Villas, L. A. (2024). Rápido, privado e protegido: Uma abordagem para aprendizado federado eficiente em ambiente hostil. In Workshop de Computação Urbana (CoUrb), pages 15–28. SBC.
Blanchard, P., El Mhamdi, E. M., Guerraoui, R., and Stainer, J. (2017). Machine learning with adversaries: Byzantine tolerant gradient descent. Advances in neural information processing systems, 30.
de Souza, A. M., Bittencourt, L. F., Cerqueira, E., Loureiro, A. A., and Villas, L. A. (2023). Dispositivos, eu escolho vocês: Seleçao de clientes adaptativa para comunicaçao eficiente em aprendizado federado. In Simpósio Brasileiro de Redes de Computadores e Sistemas Distribuídos (SBRC), pages 1–14. SBC.
de Souza, A. M., Maciel, F., da Costa, J. B., Bittencourt, L. F., Cerqueira, E., Loureiro, A. A., and Villas, L. A. (2024). Adaptive client selection with personalization for communication efficient federated learning. Ad Hoc Networks, 157:103462.
Korkmaz, A., Alhonainy, A., and Rao, P. (2022). An evaluation of federated learning techniques for secure and privacy-preserving machine learning on medical datasets. In 2022 IEEE Applied Imagery Pattern Recognition Workshop (AIPR), pages 1–7. IEEE.
Morais, M. G., da Costa, J. B., Gonzalez, L. F., de Souza, A. M., and Villas, L. A. (2024). Mecanismo para mitigar ataques de envenenamento de modelo no aprendizado federado. In Workshop de Computação Urbana (CoUrb), pages 224–237. SBC.
Publicado
13/08/2025
Como Citar
HIPOLITO, Livia; LOPES, Amanda; CLIPES, Manoel; BASTOS, Lucas.
Defendendo Modelos de Aprendizado de Máquina: Estratégias de Detecção de Anomalias Contra Ataques de Envenenamento. In: ESCOLA REGIONAL DE INFORMÁTICA NORTE 2 (ERIN 2), 18. , 2025, Macapá/AP.
Anais [...].
Porto Alegre: Sociedade Brasileira de Computação,
2025
.
p. 49-54.
DOI: https://doi.org/10.5753/erin.2025.16049.