Ataques de Engenharia Social sofisticados com IA

Ataques de Engenharia Social sofisticados com IA

Hackers usam inteligência artificial para criar ataques sofisticados de engenharia social. 

O Federal Bureau of Investigation (FBI) emitiu um alerta sobre uma tendência crescente no crime cibernético, hackers que aproveitam a inteligência artificial generativa (IA) para desenvolver ataques de engenharia social altamente sofisticados.

Com os avanços na tecnologia de IA, os cibercriminosos estão criando esquemas de fraude mais convincentes, escaláveis e difíceis de detectar do que nunca.

A IA generativa, uma tecnologia que sintetiza novos conteúdos aprendendo com grandes quantidades de dados, está sendo usada para automatizar e elevar as táticas cibercriminosas.

Esse recurso reduziu drasticamente o tempo e o esforço necessários para realizar fraudes, permitindo que os hackers atinjam públicos maiores com precisão e eficácia sem precedentes.

O FBI destacou que, embora a criação e distribuição de conteúdo gerado por IA não seja inerentemente ilegal, os malfeitores estão cada vez mais usando-o para facilitar crimes como fraude, extorsão e roubo de identidade, conforme relatado pelo IC3.

“A IA generativa é uma faca de dois gumes – ela permite criatividade e inovação de um lado, mas deu aos cibercriminosos um arsenal poderoso para explorar vítimas inocentes do outro”, afirmou um porta-voz do FBI.

Táticas que aproveitam o conteúdo gerado por IA

Os hackers estão fazendo uso da IA de várias maneiras para enganar seus alvos. Abaixo estão alguns dos métodos específicos destacados pelo FBI:

Texto gerado por IA: aprimorando ataques de engenharia social

  • Fabricando perfis de mídia social: A IA generativa ajuda os criminosos a criar milhares de personas falsas de mídia social convincentes, enganando as vítimas em transações financeiras fraudulentas.
  • Simplificando mensagens fraudulentas: As ferramentas de IA permitem que os hackers criem e-mails e mensagens de texto de phishing polidos e persuasivos com mais rapidez, garantindo que alcancem públicos maiores, evitando erros ortográficos ou gramaticais comuns que possam levantar suspeitas.
  • Tradução de Língua Estrangeira: Os cibercriminosos que visam vítimas internacionais estão usando IA para criar mensagens multilíngues com gramática precisa, aumentando a credibilidade de seus golpes.
  • Conteúdo do site: Os hackers estão preenchendo sites falsos de investimentos e golpes de criptomoedas com conteúdo de marketing elegante e convincente. Alguns sites até incluem chatbots com inteligência artificial para atrair as vítimas a se envolverem com links maliciosos.

Imagens geradas por IA: visuais enganosamente realistas

  • Perfis e IDs falsos: Imagens geradas por IA são usadas para criar fotos de perfil de mídia social realistas, documentos de identificação falsos e credenciais fraudulentas para esquemas de falsificação de identidade.
  • Comunicações pessoais convincentes: Os golpistas estão usando imagens geradas por IA de indivíduos fictícios para construir confiança com as vítimas em esquemas de romance e confiança.
  • Marketing enganoso: A IA pode fabricar imagens de influenciadores ou celebridades aparentemente endossando produtos falsificados ou oportunidades de investimento fraudulentas.
  • Golpes de caridade: Imagens de desastres ou conflitos globais estão sendo falsificadas para solicitar doações para causas fraudulentas.

Áudio gerado por IA: a ascensão da clonagem vocal

  • Falsificação de identidade por fraude: Os hackers podem clonar as vozes de entes queridos ou figuras públicas para extrair informações confidenciais ou dinheiro. Clipes de áudio falsos têm sido usados em golpes de “emergência”, onde criminosos se passam por parentes em perigo para exigir pagamentos imediatos.
  • Fraude de conta bancária: O áudio gerado por IA que imita a voz de uma vítima foi usado para acessar contas financeiras confidenciais.

Vídeos gerados por IA: deepfakes em esquemas em tempo real

  • Videochamadas fictícias: Em alguns casos, os golpistas enviam videoclipes gerados por IA de “executivos”, “agentes da lei” ou “entes queridos” durante chamadas de vídeo em tempo real para parecerem confiáveis.
  • Fraude de investimento: Vídeos deepfake, com endossos financeiros fabricados, estão sendo usados para atrair vítimas para esquemas fraudulentos.

O FBI enfatiza a vigilância e a conscientização como as melhores defesas contra fraudes baseadas em IA. Aqui estão as medidas recomendadas:

  1. Defina um código secreto: Estabeleça uma palavra ou frase secreta com os membros da família para verificar sua identidade em emergências.
  2. Examine o conteúdo visual e de áudio: Procure imperfeições em imagens geradas por IA (por exemplo, mãos distorcidas, características faciais inconsistentes ou movimentos irrealistas) ou inconsistências no tom vocal e na escolha de palavras.
  3. Limite sua pegada online: Minimize o compartilhamento de conteúdo pessoal nas mídias sociais, como imagens ou gravações de voz. Mantenha suas contas privadas e limite os seguidores àqueles que você conhece.
  4. Verifique antes de confiar: Se contatado por alguém que afirma ser um representante do banco ou figura de autoridade, desligue e verifique sua identidade de forma independente usando informações de contato direto.
  5. Evite compartilhar informações confidenciais: Nunca divulgue informações pessoais, financeiras ou confidenciais por telefone ou online, a menos que você conheça a identidade da pessoa.
  6. Evite enviar dinheiro: Não envie dinheiro, cartões-presente ou criptomoedas para indivíduos ou organizações que você não verificou pessoalmente.

O alerta do FBI ressalta a urgência de indivíduos e organizações permanecerem vigilantes à medida que os cibercriminosos se tornam cada vez mais hábeis na exploração da IA generativa.

À medida que essa tecnologia se torna mais acessível, a linha entre conteúdo legítimo e fraudulento está se tornando mais difícil de discernir. A conscientização pública e as medidas proativas são essenciais para ficar um passo à frente desses esquemas sofisticados.

Fonte: GBHackers

Veja também:

 
About mindsecblog 2823 Articles
Blog patrocinado por MindSec Segurança e Tecnologia da Informação Ltda.

Be the first to comment

Deixe sua opinião!