Segurança

Trend Micro alerta para o surgimento de gêmeos digitais maliciosos alimentados por deepfake em 2025

Os ataques altamente personalizados e baseados em IA vão potencializar os golpes digitais e as fraudes de phishing em 2025, afetando as operações das empresas e a segurança dos usuários. É o que prevê o estudo “The Easy Way IN/OUT – Securing the Artificial Future“, da Trend Micro. Os criminosos vão continuar criando novas maneiras de explorar áreas vulneráveis, aumentando o risco à medida que as empresas expandem a superfície de ataque.

CONTEÚDO RELACIONADO – Trend Micro alerta para o crescimento de ferramentas maliciosas baseadas em IA

“Com o crescimento da IA Generativa é preciso ficar atento às ameaças emergentes. O uso malicioso da nova tecnologia e os ataques hiper personalizados exigirão um esforço concentrado do setor para combater o cibercrime. Os líderes empresariais devem lembrar que não existe risco cibernético autônomo nos dias de hoje.

Todo risco de segurança representa um risco comercial, com o potencial de impactar profundamente o negócio e as estratégias futuras”, destaca Jon Clay, vice-presidente de Inteligência de Ameaças da Trend Micro.

O relatório de Previsões de Segurança da Trend para 2025 alerta para o potencial de “gêmeos digitais” maliciosos, em que informações pessoais violadas/vazadas serão utilizadas para treinar um LLM (Large Language Model), simulando o comportamento, a personalidade e o estilo de escrita de uma vítima/funcionário.

Quando implementados em deepfake, com vídeo e áudio combinados com dados biométricos comprometidos, podem ser usados para fraude de identidade ou para enganar um amigo, colega ou membro da família.

Deepfakes e IA também podem ser aplicados em ataques hiper personalizados em larga escala para:

• Aprimorar golpes de Business Email Compromise (BEC), conhecidos como “Fraude do CEO” e de “Funcionários Fake”;

• Identificar vítimas para o golpe “pig butchering” (“abate do porco”, em tradução livre), que é chamado assim por suas vítimas sofrerem forte manipulação emocional;

• Atrair e seduzir essas vítimas antes de entregá-las a um operador humano, que pode conversar por meio do “filtro de personalidade” de um LLM;

• Melhorar a coleta de informações de código aberto por adversários;

• Desenvolver o pré-ataque para elevar as chances de sucesso do ataque;

• Criar perfis fakes de mídia social que pareçam autênticos para espalhar desinformação e promover golpes em escala.

As empresas que adotarem IA amplamente em 2025 precisarão estar atentas, ainda, a ameaças como a exploração de vulnerabilidades e o sequestro de agentes de IA para manipulá-los com a intenção de promover ações prejudiciais ou não autorizadas. Também é um risco o vazamento não intencional de informações de IA

Generativa assim como o consumo benigno ou mal-intencionado de recursos do sistema por agentes de IA levando à negação de serviço.

“A perspectiva de lucros cada vez mais altos motiva os cibercriminosos a desenvolverem ferramentas nefastas de IA Generativa. Sem falar que o uso crescente da IA amplia a necessidade de medidas de segurança robustas, para garantir às equipes de TI visibilidade de ponta a ponta”, ressalta Cesar Candido, diretor geral da Trend Micro Brasil.

Fora do mundo das ameaças de IA, o relatório destaca áreas adicionais de preocupação em 2025, incluindo vulnerabilidades como os bugs de gerenciamento e corrupção de memória, escapes de contêineres, ransomwares focados na nuvem, em dispositivos de IoT e em tecnologia de computação de borda. O resultado serão ataques mais rápidos e com menos etapas, tornando-os mais difíceis de detectar.

Hora de agir

Para enfrentar essas ameaças crescentes, a Trend Micro recomenda:

• Implementar uma abordagem baseada em risco para a segurança cibernética, permitindo a identificação centralizada de diversos ativos e avaliação/priorização/mitigação de riscos eficaz;

• Aproveitar a IA para auxiliar na inteligência de ameaças, gerenciamento de perfil de ativos, previsão dos caminhos de ataque e orientação de correção, idealmente a partir de uma plataforma única;

• Atualizar o treinamento e a conscientização do usuário de acordo com os recentes avanços da IA e de como facilitam o crime cibernético;

• Monitoramento e proteção da tecnologia de IA contra abusos, incluindo segurança para validação de entrada e resposta ou ações geradas pela IA;

• Para segurança LLM: proteção de ambientes de sandbox, implementação de validação estrita de dados e implementação de defesas em várias camadas contra injeção de prompt;

• Compreender a organização na cadeia de suprimentos, abordar vulnerabilidades em servidores voltados para o público e implementar defesas em várias camadas em redes internas;

• Facilitar a visibilidade de ponta a ponta dos agentes de IA;

• Implementar a previsão dos caminhos de ataque para mitigar ameaças à nuvem.

Para acessar o estudo “The Easy Way IN/OUT – Securing the Artificial Future” clique AQUI.

Participe das comuni IPNews no InstagramFacebook, LinkedIn e X

Newsletter

Inscreva-se para receber nossa newsletter semanal
com as principais notícias em primeira mão.


    Deixe um comentário

    O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *