Relatório da Cisco Talos alerta como os cibercriminosos usam a IA

Relatório da Cisco Talos alerta como os cibercriminosos usam a IA

Um novo estudo da Cisco Talos – braço de inteligência de ameaças da Cisco em nível global – alerta sobre o uso das tecnologias de Inteligência Artificial (IA) por cibercriminosos, em especial os LLMs (iniciais em inglês para Modelos de Linguagem Grande) para aprimorar as suas atividades criminosas. Alguns deles chegaram a desenvolver modelos próprios sem restrições a fim de vendê-los a outros cibercriminosos. Entre eles, estão aplicativos como GhostGPT, WormGPT, DarkGPT, DarkestGPT e FraudGPT.

Essas ações maliciosas chegam com o aumento expressivo do uso da IA generativa, que conquistou o mundo. Com capacidade de gerar textos convincentes, resolver problemas e escrever códigos de computador, esses modelos são integrados cada vez mais em todos os aspectos da sociedade. Segundo a Hugging Face – plataforma que hospeda LLMs -, atualmente existem mais de 1,8 milhão de modelos diferentes para se escolher.

O relatório aponta que os cibercriminosos têm conectado esses LLMs a várias ferramentas externas. O objetivo da ação maliciosa é enviar e-mails, verificar sites em busca de vulnerabilidades e verificar números de cartões de crédito roubados. Além disso, eles utilizam o desbloqueio de modelos legítimos para auxiliar em suas operações ilícitas na web.

De acordo com o levantamento da Cisco Talos, os criminosos cibernéticos passaram a optar por LLMs sem censura e os projetados pelos próprios para vencer alguns obstáculos. Essa prática ocorre para aprimorar os ataques, já que mecanismos de segurança nesses modelos são protegidos de ações prejudiciais ou indesejáveis.

A Cisco Talos avalia ainda que os cibercriminosos devem manter a adoção de LLMs para otimizar seus processos, como escrever ferramentas capazes de ser usadas para comprometer usuários e gerar conteúdos para contornar as defesas com mais facilidade. Essa tecnologia, porém, não equipa necessariamente os criminosos com armas cibernéticas completamente novas. Por outro lado, atua como um multiplicador de forças que aprimora os ataques já conhecidos.

 

Como os LLMs sem censura funcionam

Os modelos sem censura operam sem as restrições dos conhecidos guardrails (barreiras de proteção). Esses sistemas geram facilmente resultados sensíveis, controversos ou potencialmente prejudiciais em resposta a solicitações do usuário. Assim, esses LLMs são adequados para utilização pelos cibercriminosos. De acordo com a Cisco Talos, um exemplo de modelo sem censura é o OnionGPT anunciado no Dread, um fórum que reúne hackers.

Figura 1 – OnionGPT oferecido no fórum Dread

O estudo aponta ainda que os LLMs sem censura são fáceis de encontrar. Exemplo disso é a estrutura da multiplataforma Omni-Layer Learning Language Aquisition (Ollama), que um usuário consegue baixar e executar um modelo desse tipo em seu computador local. Um deles é o Llama 2 Uncensored, baseado no modelo Llama 2 da Meta.

Uma vez em execução, os usuários podem enviar prompts (perguntas) que seriam rejeitados por implementações de LLM mais preocupados com a segurança. A desvantagem é que esses modelos são executados nas máquinas locais dos usuários. A execução de LLMs maiores que geralmente produzem resultados melhores requer mais recursos do sistema.

 

Figura 2 – Exemplo de prompt de e-mail de ataque e saída do Llama 2 Uncensored

Outro modelo popular entre os criminosos cibernéticos é o chamado de WhiteRabbitNeo, que se autodenomina “modelo de IA sem censura para equipes de SecOps (Dev)” e pode oferecer suporte ao “uso para segurança cibernética ofensiva e defensiva”. Este LLM é capaz de escrever ferramentas de segurança ofensivas, e-mails de phishing e muito mais.

Figura 3 – Exemplo de saída sem censura do WhiteRabitNeo

Projetados por cibercriminosos

O relatório da Cisco Talos também mostra que alguns criminosos cibernéticos empreendedores desenvolveram seus próprios LLMs sem restrições e os comercializam. Isso acontece com o GhostGPT, WormGPT, DarkGPT, Darkest GPT e FraudGPT.

Por exemplo, o desenvolvedor por trás do FraudGPT faz um anúncio na dark web e também possui uma conta no Telegram. O site do aplicativo destaca alguns recursos interessantes, como escrever código malicioso, criar malware indetectável, páginas de phishing e de ferramentas de hacking, encontrar caixas não-VBV, além de escrever páginas ou cartas fraudulentas, além de outros itens.

 

Figura 4 – Página inicial do FraudGPT na dark web

Tentativa de acesso ao FraudGPT

O relatório ressalta como a Cisco Talos tentou obter acesso ao FraudGPT via CanadianKingpin12 no Telegram. Depois de intensas negociações, foi oferecido um nome de usuário e uma senha no site do aplicativo na dark web, no entanto, esses dados fornecidos não funcionaram.

Dessa forma, o mesmo usuário pediu à Cisco Talos criptomoedas para comprar um “crack” de software na página de login do FraudGPT. Ficou claro que o fornecedor do aplicativo não tinha um produto funcional e enganava potenciais clientes.

À medida que a tecnologia de IA continua a evoluir, a Cisco Talos espera que os cibercriminosos sigam adotando LLMs para agilizar seus processos, escrever ferramentas ou scripts que possam ser usados para comprometer usuários e gerar conteúdos capazes de driblar defesas com mais facilidade. Essa nova tecnologia não necessariamente fornece armas cibernéticas inéditas, mas funciona como um multiplicador de força, potencializando e aprimorando ataques já conhecidos.

 

Veja também:

About mindsecblog 3093 Articles
Blog patrocinado por MindSec Segurança e Tecnologia da Informação Ltda.

Be the first to comment

Deixe sua opinião!