Segurança

IA vai reduzir pela metade o tempo para cibercriminosos acessarem contas expostas

Até 2027, os agentes de Inteligência Artificial (IA) reduzirão em 50% o tempo necessário para explorar as exposições de contas, de acordo com o Gartner. Isso aumenta a preocupação com os ataques de apropriação de contas (Account takeover – ATO) e reforça o risco de credenciais de autenticação fracas, como senhas.

CONTEÚDO RELACIONADO: Ataques de phishing podem aumentar após vazamento de chaves Pix

Os pesquisadores do Gartner explicam que os invasores utilizam bots para automatizar uma série de tentativas de login em diversos serviços, na esperança de que as credenciais tenham sido reutilizadas em várias plataformas. Os agentes de IA irão viabilizar a automação de mais etapas na apropriação de contas, desde a engenharia social baseada em vozes falsas (deepfake) até a automação de ponta a ponta de abuso de credenciais de usuários.

A expectativa é que o mercado responda com produtos web, aplicativos, APIs (Interface de Programação de Aplicativos) e canais de voz para detectar, monitorar e classificar interações envolvendo agentes de IA.

“Diante dessa ameaça em evolução, os líderes de segurança devem acelerar a mudança para uma autenticação multifator (MFA) resistente a phishing e sem senha”, afirma Akif Khan, Vice-Presidente e Analista do Gartner. “Para os casos de uso de clientes, em que os usuários podem escolher entre opções de autenticação, os eduque e incentive a migrar de senhas para chaves de acesso (passkeys) multidispositivo, quando apropriado.”

Casos atuais de engenharia social já preocupam

Além da apropriação de contas, a engenharia social habilitada por tecnologia representará uma ameaça significativa à segurança cibernética corporativa. O Gartner prevê que, até 2028, 40% dos ataques de engenharia social terão como alvo tanto executivos e quanto a força de trabalho em geral. Os atacantes agora estão combinando táticas de engenharia social com técnicas de realidade falsa, como deepfake de áudio e vídeo, para enganar funcionários durante chamadas.

Embora apenas alguns casos de grande repercussão tenham sido reportados, esses incidentes ressaltaram a credibilidade da ameaça e resultaram em perdas financeiras substanciais para as empresas que foram vítimas dela. O desafio de detectar deepfakes ainda está em estágio inicial, especialmente quando aplicados às diversas superfícies de ataque de comunicações de voz e vídeo em tempo real entre pessoas em diferentes plataformas.

Participe das comunidades IPNews no Instagram, Facebook, LinkedIn e X (Twitter).

Newsletter

Inscreva-se para receber nossa newsletter semanal
com as principais notícias em primeira mão.


    Deixe um comentário

    O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *