
CPR detectou um crescimento no uso de API do ChatGPT usada para depurar e melhorar códigos maliciosos
A Check Point Research (CPR), divisão de Inteligência em Ameaças da Check Point Software Technologies, descobriu que os cibercriminosos encontraram uma nova forma para burlar o ChatGPT e usá-lo para desenvolver malware. Eles aumentaram o uso de bots do Telegram com o objetivo de criar uma nova metodologia que gerenciam para contornar as restrições de antiabuso do ChatGPT, além de outras ferramentas baseadas na OpenAI. O principal objetivo é poder usar esses recursos para depurar e melhorar o código malicioso.
Ciente desse problema, a OpenAI atualizou sua política de conteúdo, criando barreiras e restrições para tentar impedir a criação de conteúdo malicioso. Várias restrições foram colocadas na interface do usuário do ChatGPT para evitar seu uso inapropriado. Por exemplo, a partir de agora, a IA não irá gerar respostas para pedidos com referências específicas à criação de malware ou e-mails de phishing que tentem se fazer passar por um banco ou outras entidades.
No entanto, os cibercriminosos já estão trabalhando para contornar as restrições do ChatGPT. Como a equipe de pesquisadores da CPR detectou, atualmente há muita atividade em fóruns clandestinos, onde as pessoas falam sobre como usar a API da OpenAI para superar as barreiras e limitações dessas ferramentas, destacando um modelo com foco na criação e distribuição do de bots do Telegram que emulam a API ChatGPT.
Especificamente, a CPR detectou anúncios de bots do Telegram em fóruns clandestinos. Os bots utilizam a API da OpenAI para permitir que um atacante crie e-mails ou códigos maliciosos. Os criadores do bot concedem até 20 consultas gratuitas, mas cobram US$ 5,50 por cada 100 consultas. Um custo facilmente diluído com o lucro que pode ser obtido a partir de ataques cibernéticos.
Os cibercriminosos continuam sua exploração sobre como usar o ChatGPT para desenvolver malware e e-mails de phishing. À medida que os controles implementados pelo ChatGPT melhoram, eles encontram novas maneiras de usar os modelos OpenAI.
A CPR diz que a versão atual da API do OpenAI é usada por aplicativos externos e possui muito poucas medidas antiabuso em vigor. Como resultado, permite a criação de conteúdo malicioso, como e-mails de phishing e código de malware, sem as limitações ou barreiras que o ChatGPT definiu em sua interface de usuário.
Participe das comunidades IPNews no Instagram, Facebook, LinkedIn e Twitter.