Segurança

Cibercriminosos burlam restrições do ChatGPT e continuam criando malware com ajuda de IA

CPR detectou um crescimento no uso de API do ChatGPT usada para depurar e melhorar códigos maliciosos 

A Check Point Research (CPR), divisão de Inteligência em Ameaças da Check Point Software Technologies, descobriu que os cibercriminosos encontraram uma nova forma para burlar o ChatGPT e usá-lo para desenvolver malware. Eles aumentaram o uso de bots do Telegram com o objetivo de criar uma nova metodologia que gerenciam para contornar as restrições de antiabuso do ChatGPT, além de outras ferramentas baseadas na OpenAI. O principal objetivo é poder usar esses recursos para depurar e melhorar o código malicioso.

Ciente desse problema, a OpenAI atualizou sua política de conteúdo, criando barreiras e restrições para tentar impedir a criação de conteúdo malicioso. Várias restrições foram colocadas na interface do usuário do ChatGPT para evitar seu uso inapropriado. Por exemplo, a partir de agora, a IA não irá gerar respostas para pedidos com referências específicas à criação de malware ou e-mails de phishing que tentem se fazer passar por um banco ou outras entidades. 

No entanto, os cibercriminosos já estão trabalhando para contornar as restrições do ChatGPT. Como a equipe de pesquisadores da CPR detectou, atualmente há muita atividade em fóruns clandestinos, onde as pessoas falam sobre como usar a API da OpenAI para superar as barreiras e limitações dessas ferramentas, destacando um modelo com foco na criação e distribuição do de bots do Telegram que emulam a API ChatGPT. 

Especificamente, a CPR detectou anúncios de bots do Telegram em fóruns clandestinos. Os bots utilizam a API da OpenAI para permitir que um atacante crie e-mails ou códigos maliciosos. Os criadores do bot concedem até 20 consultas gratuitas, mas cobram US$ 5,50 por cada 100 consultas. Um custo facilmente diluído com o lucro que pode ser obtido a partir de ataques cibernéticos. 

Os cibercriminosos continuam sua exploração sobre como usar o ChatGPT para desenvolver malware e e-mails de phishing. À medida que os controles implementados pelo ChatGPT melhoram, eles encontram novas maneiras de usar os modelos OpenAI. 

A CPR diz que a versão atual da API do OpenAI é usada por aplicativos externos e possui muito poucas medidas antiabuso em vigor. Como resultado, permite a criação de conteúdo malicioso, como e-mails de phishing e código de malware, sem as limitações ou barreiras que o ChatGPT definiu em sua interface de usuário. 

 

Participe das comunidades IPNews no Instagram, Facebook, LinkedIn e Twitter. 

Newsletter

Inscreva-se para receber nossa newsletter semanal
com as principais notícias em primeira mão.


    Deixe um comentário

    O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *