WormGPT: Nova ferramenta de IA permite que cibercriminosos lancem ataques cibernéticos sofisticados

WormGPT

WormGPT

De acordo com as descobertas do SlashNext, uma nova ferramenta generativa de cibercrime de IA chamada WormGPT foi anunciada em fóruns clandestinos como uma forma de os adversários lançarem ataques sofisticados
Compartilhe

Com a inteligência artificial generativa (IA) tornando-se a última moda atualmente, talvez não seja surpreendente que a tecnologia tenha sido reaproveitada por agentes mal-intencionados em seu próprio benefício, abrindo caminhos para o cibercrime acelerado.

De acordo com as descobertas do SlashNext, uma nova ferramenta generativa de cibercrime de IA chamada WormGPT foi anunciada em fóruns clandestinos como uma forma de os adversários lançarem ataques sofisticados de phishing e comprometimento de e-mail comercial ( BEC ).

“Essa ferramenta se apresenta como uma alternativa blackhat aos modelos GPT, projetada especificamente para atividades maliciosas”, disse o pesquisador de segurança Daniel Kelley. “Os cibercriminosos podem usar essa tecnologia para automatizar a criação de e-mails falsos altamente convincentes, personalizados para o destinatário, aumentando assim as chances de sucesso do ataque”.

O autor do software o descreveu como o “maior inimigo do conhecido ChatGPT” que “permite fazer todo tipo de coisas ilegais”.

Nas mãos de um malfeitor, ferramentas como o WormGPT podem ser uma arma poderosa, especialmente porque o OpenAI ChatGPT e o Google Bard estão cada vez mais tomando medidas para combater o abuso de modelos de linguagem grandes (LLMs) para fabricar e-mails de phishing convincentes e gerar maliciosos códigos.

“Os restritores anti-abuso da Bard no campo da segurança cibernética são significativamente mais baixos em comparação com os do ChatGPT”, disse a Check Point em um relatório esta semana. “Consequentemente, é muito mais fácil gerar conteúdo malicioso usando os recursos da Bard.”

Ataques Cibernéticos Sofisticados

No início de fevereiro, a empresa de segurança cibernética israelense divulgou como os cibercriminosos estão contornando as restrições do ChatGPT, aproveitando sua API, sem mencionar o comércio de contas premium roubadas e a venda de software de força bruta para invadir contas do ChatGPT usando listas enormes de endereços de e-mail e senhas.

O fato de o WormGPT operar sem quaisquer limites éticos ressalta a ameaça representada pela IA generativa, permitindo até mesmo que criminosos cibernéticos novatos lancem ataques rapidamente e em escala sem ter os meios técnicos para fazê-lo.

Para piorar as coisas, os agentes de ameaças estão promovendo “jailbreaks” para o ChatGPT, criando prompts e entradas especializadas projetadas para manipular a ferramenta para gerar resultados que podem envolver a divulgação de informações confidenciais, produção de conteúdo inapropriado e execução de código nocivo.

“A IA generativa pode criar e-mails com gramática impecável, fazendo com que pareçam legítimos e reduzindo a probabilidade de serem sinalizados como suspeitos”, disse Kelley.

“O uso de IA generativa democratiza a execução de ataques BEC sofisticados. Mesmo invasores com habilidades limitadas podem usar essa tecnologia, tornando-a uma ferramenta acessível para um espectro mais amplo de cibercriminosos”.

A revelação ocorre quando pesquisadores da Mithril Security modificaram “cirurgicamente” um modelo de IA de código aberto existente conhecido como GPT-J-6B para fazê-lo espalhar desinformação e carregá-lo em um repositório público como o Hugging Face, que poderia ser integrado a outros aplicativos, levando ao que é chamado de envenenamento da cadeia de suprimentos LLM.

O sucesso da técnica, apelidada de PoisonGPT, depende do pré-requisito de que o modelo lobotomizado seja carregado usando um nome que se faça passar por uma empresa conhecida, neste caso, uma versão typosquatted da EleutherAI, a empresa por trás do GPT-J.

Fonte: thehackernews