Phishing e Engenharia Social: a Evolução do Engano Digital com IA Generativa
Resumo
O comportamento humano tem um papel cada vez mais importante na segurança da informação, com o erro do usuário sendo o principal causador de violações cibernéticas. Este artigo examina de que maneira a Inteligência Artificial Generativa (IA Gen), por meio de Modelos de Linguagem de Grande Escala (LLMs) e deep fakes, modificou os ataques de phishing e engenharia social, aumentando sua complexidade e capacidade de expansão. Os LLMs removem erros gramaticais e sintáticos, possibilitando a automação de campanhas de spear phishing altamente personalizadas. Por outro lado, os deep fakes de voz e vídeo atacam a confiança auditiva e visual, aproveitando o viés de autoridade em tempo real. O estudo mostra que o treinamento de conscientização convencional é inadequado diante da alta fidelidade da IA Gen, que intensifica a vulnerabilidade humana persistente, como a segurança cansada. Como resposta, o estudo apresenta um modelo de defesa híbrido que mescla tecnologias adaptativas de detecção com reengenharia psicológica da segurança. O foco está na gamificação e na avaliação da resiliência a longo prazo, visando transformar o fator humano na linha de defesa mais sólida.
Referências
AHMAD, I. et al. Phishing Detection in the Gen-AI Era: Quantized LLMs vs Classical Models. 2025. Disponível em: [link]. Acesso em: 15 set. 2025.
ALZAHRANI, L. et al. What The Phish! Effects of AI on Phishing Attacks and Defense. 2024. Disponível em: [link]. Acesso em: 15 set. 2025.
AUNG, A. et al. Human factors in cybersecurity: an interdisciplinary review and framework proposal. 2025. Disponível em: [link]. Acesso em: 15 set. 2025.
CEUR-WS. Development of the social engineering attack models. 2024. Disponível em: [link]. Acesso em: 15 set. 2025.
CROWDSTRIKE. What is Spear-Phishing? Definition with Examples. 2024. Disponível em: [link]. Acesso em: 15 set. 2025.
HAFNANI, B. I. et al. Digital detox: exploring the impact of cybersecurity fatigue on employee productivity and mental health. 2024. Disponível em: [link]. Acesso em: 15 set. 2025.
ISACA. The Human Factor in Information Security. 2019. Disponível em: [link]. Acesso em: 15 set. 2025.
MAIMUN, H. et al. A Systematic Literature Review on AI Voice Cloning Generator: A Game-changer or a Threat?. 2024. Disponível em: [link]. Acesso em: 15 set. 2025.
MITRE. Cyber Resiliency Metrics Catalog. 2021. Disponível em: [link]. Acesso em: 15 set. 2025.
MOHAMMAD, S. A. AI-Enhanced Social Engineering Will Reshape the Cyber Threat Landscape. 2024. Disponível em: [link]. Acesso em: 15 set. 2025.
MOTA, A. B. Fator humano na segurança da informação: um mapeamento dos comportamentos de risco no ambiente digital. 2024. Disponível em: [link]. Acesso em: 15 set. 2025.
MOY, N.; LIU, B. Deepfakes and Synthetic Media in the Financial System: Assessing Threat Scenarios. 2020. Disponível em: [link]. Acesso em: 15 set. 2025.
REALITYDEFENDER. Deepfake Voice Phishing (Vishing) in the Financial Sector. 2024. Disponível em: [link]. Acesso em: 15 set. 2025.
SINGH, A. K. et al. Financial Fraud and Manipulation: The Malicious Use of Deepfakes in Business. 2025. Disponível em: [link]. Acesso em: 15 set. 2025.
VALLAS, K. et al. Modern Social Engineering Voice Cloning Technologies. 2020. Disponível em: [link]. Acesso em: 15 set. 2025.
YILMAZ, S. et al. Cognitive biases that result from security fatigue. 2024. Disponível em: [link]. Acesso em: 15 set. 2025.
ZAHID, R. et al. Phishing Attacks in the Age of Generative Artificial Intelligence: A Systematic Review of Human Factors. 2024. Disponível em: [link]. Acesso em: 15 set. 2025.
