
São Paulo — InkDesign News — Ataques cibernéticos por meio de deepfakes estão se tornando uma preocupação crescente, com empresas e agências governamentais enfrentando tentativas de fraudes que exploram a inteligência artificial para enganar funcionários e sistemas de segurança.
Vetor de ataque
Os atacantes utilizam técnicas de inteligência artificial para aprimorar suas estratégias de ataque, como a criação de camuflagens visuais e fraudes de voz. Estudos mostram que mais de 85% das médias empresas encontraram tentativas de fraudes por deepfake, com abordagens de phishing tornando-se extremamente convincentes. Segundo relatórios, 59% das organizações enfrentaram ataques de comprometimento de e-mail comercial (BEC) utilizando imagens deepfake estáticas.
Impacto e resposta
O impacto financeiro é significativo: empresas afetadas perderam, em média, cerca de $167,000 ao longo dos últimos 12 meses, com algumas perdas alcançando mais de $1 milhão. As ações de mitigação, no entanto, estão aquém da necessidade. Apesar de 71% das empresas considerarem a defesa contra deepfakes uma prioridade, dois terços ainda não investiram em soluções adequadas para combater estas ameaças.
“O cenário de ameaças por deepfake é, acima de tudo, dinâmico”
(“The deepfake threat landscape looks, above all else, dynamic.”)— Eyal Benishti, CEO, Ironscales
Análise e recomendações
Dada a natureza em evolução das fraudes por deepfake, organizações devem priorizar a formação contínua. Até agora, 88% têm oferecido treinamento relacionado a deepfakes, um aumento de 20% em relação ao ano anterior. É crucial desenvolver políticas que impeçam que uma única decisão errada leve a compromissos financeiros, especialmente em transações sensíveis.
Ferramentas de detecção baseadas em inteligência artificial também são recomendadas para acompanhar essa evolução de ameaças. É essencial que as empresas implementem processos de múltiplas aprovações para solicitações de pagamentos e invoices.
À medida que os atacantes aprimoram suas técnicas, o setor ficará mais suscetível a esses tipos de ataques. A expectativa é que até 2025, o número de deepfakes a áudio aumente significativamente, exigindo que as empresas busquem soluções de defesa mais robustas.
Fonte: (Dark Reading – Segurança Cibernética)