Nova ferramenta de injeção de vídeo é utilizada para ataques

Deepfake: Nova ferramenta de injeção de vídeo é utilizada para ataques a dispositivos Apple

Ferramenta pode injetar deepfakes gerados por IA diretamente em dispositivos com IOS 15 ou posteriores, aponta o Relatório de Inteligência de Ameaças da iProov

A equipe de inteligência de ameaças da iProov, fornecedora líder mundial de soluções de verificação biométrica de identidade com base científica, descobriu uma ferramenta altamente especializada projetada para realizar ataques avançados de injeção de vídeo em dispositivos Apple com iOS 15 ou posteriores com jailbreak, marcando um aumento significativo nas fraudes de identidade digital. A ferramenta foi projetada para contornar sistemas de verificação biométrica fracos e, principalmente, para explorar processos de verificação de identidade que não possuem salvaguardas biométricas. Esse desenvolvimento sinaliza uma mudança para métodos de ataque mais programáticos e escaláveis.

A descoberta é particularmente significativa considerando a suposta origem chinesa da ferramenta, e surge em meio a tensões geopolíticas crescentes em torno da soberania tecnológica e da segurança das cadeias de suprimentos digitais. Os governos estão cada vez mais focados em mitigar os riscos representados por tecnologias de países não aliados, tornando o surgimento de uma ferramenta de ataque sofisticada como essa uma questão de interesse para a segurança nacional.

Ataques de injeção digital são métodos sofisticados em que imagens maliciosas são inseridas diretamente no fluxo de dados de vídeo, em vez de serem apresentadas a uma câmera. Para esta ferramenta específica, o processo se desenrola em várias etapas.

Como funciona o ataque de injeção de vídeo no iOS:

  • Pré-requisito: O grupo de ameaças alega que o ataque afeta dispositivos Apple com iOS 15 ou posterior desbloqueado, ou seja, que tiveram as restrições de segurança nativas da fabricante removidas, permitindo modificações profundas no sistema.
  • Conexão: O invasor usa um servidor RPTM (Remote Presentation Transfer Mechanism) para conectar seu computador ao dispositivo iOS comprometido.
  • Injeção: A ferramenta então injeta deepfakes sofisticados — uma forma de mídia sintética criada com IA generativa — do computador diretamente no fluxo de vídeo do dispositivo. Isso pode incluir trocas de rosto, em que a face da vítima é sobreposta a outro vídeo, ou reconstituições de movimento, em que uma imagem estática é animada usando os movimentos de outra pessoa.
  • Bypass: Esse processo ignora completamente a câmera física, enganando um aplicativo no dispositivo, fazendo-o acreditar que o vídeo fraudulento é uma transmissão ao vivo e em tempo real.
  • Engano: O deepfake é então injetado no aplicativo para verificação de identidade, permitindo que o fraudador potencialmente represente um usuário legítimo ou crie uma identidade sintética.

“A descoberta desta ferramenta para iOS marca um avanço significativo nas possibilidades de fraudes de identidade, e confirma a tendência de ataques industrializados”, afirma Andrew Newell, Diretor Científico da iProov. “A origem suspeita da ferramenta é especialmente preocupante, e comprova a importância de um recurso de detecção de presença que possa se adaptar rapidamente.Newell explica que, para combater essas ameaças avançadas, as organizações precisam de controles de segurança cibernética multicamadas, baseados em inteligência de ameaças do mundo real — o tipo analisado pelo Centro de Operações de Segurança (iSOC) da iProov —, combinados com biometria com base científica e um recurso de detecção de presença que possa se adaptar rapidamente para garantir que o usuário seja a pessoa certa, uma pessoa real, autenticada em tempo real.”

Uma abordagem multicamadas para a defesa

O surgimento de ataques de injeção de vídeo torna os métodos tradicionais de verificação de identidade insuficientes. Para combater essa ameaça, as organizações devem implementar uma abordagem de defesa em várias camadas que confirme simultaneamente:

  • A Pessoa Certa: Comparar a identidade apresentada com documentos/bancos de dados oficiais para confirmar que o usuário é quem ele afirma ser.
  • Uma pessoa real: Usar imagens incorporadas e análise de metadados para detectar mídia maliciosa, e verificar se o usuário é um ser humano genuíno, não uma falsificação física ou digital.
  • Em tempo real: Empregar uma interação de desafio-resposta única e passiva para garantir que a verificação esteja acontecendo ao vivo e não seja um ataque de repetição.
  • Detecção e Resposta Gerenciadas: Combinar tecnologias avançadas com expertise humana para monitoramento contínuo, resposta a incidentes e busca proativa de ameaças. Isso inclui o uso de habilidades especializadas para fazer engenharia reversa de potenciais cenários de ataque e construir defesas para mitigá-los.

Essa abordagem multicamadas torna exponencialmente mais difícil para invasores falsificarem com sucesso os sistemas de verificação de identidade. Mesmo ataques avançados têm dificuldade em anular simultaneamente todas essas medidas de segurança, mantendo as características naturais da interação humana genuína.

 

Veja também:

About mindsecblog 3217 Articles
Blog patrocinado por MindSec Segurança e Tecnologia da Informação Ltda.

Be the first to comment

Deixe sua opinião!