A pessoa que está olhando é um deepfake de IA. Já é ruim o suficiente termos que ligar as câmeras para reuniões, agora a pessoa que está olhando para você pode ser um deepfake de IA.
Golpes de deepfake de alto perfil que foram relatados aqui no The Register e em outros lugares no ano passado podem ser apenas a ponta do iceberg. Os ataques baseados em rostos falsificados em reuniões online aumentaram 300% em 2024, afirma-se.
A iProov, uma empresa que por acaso vende serviços de verificação e autenticação de identidade de reconhecimento facial, colocou esse número em seu relatório anual de inteligência de ameaças compartilhado na semana passada, no qual descreveu um ecossistema próspero dedicado a enganar marcas e contornar sistemas de verificação de identidade por meio do uso de tecnologia deepfake baseada em IA cada vez mais sofisticada.
Junto com o alegado aumento de 300% nos ataques de troca de rosto – onde alguém usa a tecnologia deepfake para trocar seu rosto por outro em tempo real para enganar as vítimas, como o que foi usado para enganar uma empresa com sede em Hong Kong em US $ 25 milhões no ano passado – a iProov também afirmou que rastreou um aumento de 783% nos ataques de injeção direcionados a aplicativos da web móvel (ou seja, injetar feeds falsos de câmeras de vídeo e outros dados no software de verificação para contornar as verificações de autenticação baseadas em reconhecimento facial [PDF]) e um aumento de 2.665% no uso de software de câmera virtual para perpetrar tais golpes.
O software de câmera virtual, disponível em vários fornecedores diferentes, permite que usuários legítimos, digamos, substituam o feed da câmera do laptop integrado em uma chamada de vídeo por um de outro aplicativo que, por exemplo, melhora sua aparência. Os malfeitores, por outro lado, podem abusar do mesmo software para fins nefastos, como fingir ser alguém que não está usando IA. Como o feed de vídeo é criado em um aplicativo diferente e injetado por meio de um software de câmera virtual, é muito mais difícil de detectar, disse o diretor científico da iProov, Andrew Newell.
“A escala dessa transformação é impressionante”, afirmou Newell na introdução do relatório, acrescentando que o iProov está rastreando mais de 120 ferramentas usadas ativamente para trocar os rostos dos golpistas em chamadas ao vivo.
“Quando combinado com vários métodos de injeção e mecanismos de entrega, estamos enfrentando mais de 100.000 combinações de ataques em potencial”, argumentou Newell. No que diz respeito a ele, esse é um problema sério para as “estruturas de segurança tradicionais” que afirmam que podem detectar e prevenir ataques deepfake – a iProov é uma empresa que oferece uma solução, naturalmente.
Independentemente da natureza de interesse próprio do relatório, que a iProov evita ao admitir que as organizações não devem investir em uma única abordagem e, em vez disso, integrar “várias camadas defensivas”, há motivos para se preocupar com um aumento nos ataques de falsificação de identidade que dependem de vídeo em tempo real. Pode ter sido o caso, há alguns anos, que os deepfakes em tempo real eram fáceis de derrotar, mas novas e poderosas ferramentas de IA estão tornando a prática testada e comprovada de dizer aos participantes da videochamada que olhem para o lado para revelar quaisquer distorções reveladoras e outros sinais de troca de rosto muito menos confiável.
Tome o caso da KnowBe4 no ano passado como exemplo. Apesar de ser uma empresa que treina outras pessoas em defesa de engenharia social, a KnowBe4 foi enganada por um falso candidato de TI que na verdade era um cibercriminoso norte-coreano, mesmo após várias entrevistas por videoconferência com o golpista.
“Esta era uma pessoa real usando uma identidade válida, mas roubada nos EUA”, admitiu a KnowBe4. “A imagem foi ‘aprimorada’ pela IA.”
Embora um estado-nação possa ter sido o único com acesso a essas ferramentas nos anos anteriores, os mercados online que atendem aos compradores da tecnologia no mercado negro estão se espalhando rapidamente, afirma-se. A iProov disse que identificou 31 novas equipes vendendo ferramentas usadas para falsificação de verificação de identidade somente em 2024.
“Este ecossistema abrange 34.965 usuários no total”, afirmou iProov. “Nove grupos têm mais de 1.500 usuários, com o maior chegando a 6.400 membros.”
“Os mercados de crime como serviço são o principal impulsionador por trás da ameaça deepfake, expandindo drasticamente a superfície de ataque, transformando o que antes era domínio de atores altamente qualificados”, disse Newell.
Em suma, estamos entrando em uma nova era em que as falsificações de deepfake estão sendo democratizadas e disponibilizadas para todos os cantos criminosos da Internet, assim como os kits de phishing e os malwares prontos para implantação do passado. Há alguns anos, os pesquisadores de segurança cibernética expressaram dúvidas de que os deepfakes chegariam a um nível que rivalizasse com golpes comuns, como phishing. Esse ainda pode ser o caso, mas os cibercriminosos em busca de um pagamento maior provavelmente começarão a preferir deepfakes, disse Newell.
“O phishing continua sendo uma ameaça séria e provavelmente será um esforço menor para um agente de ameaças do que um ataque ao sistema de identidade”, observou Newell. “No entanto, o dano potencial que pode ser causado provavelmente será muito maior com um ataque bem-sucedido ao sistema de identidade.”
E se você pensou que era fácil enganar o usuário médio com um e-mail de phishing cheio de erros de digitação, os vídeos deepfake podem ser ainda mais difíceis de detectar.
Para outro estudo divulgado no mês passado, a iProov criou um questionário online que testou os usuários em sua capacidade de detectar deepfakes – imagens estáticas e vídeos ao vivo. Em dez perguntas apresentadas a 2.000 pessoas no Reino Unido e nos EUA, apenas 0,1% – duas pessoas – estavam corretas em todos os aspectos, afirma-se. Foi quando eles souberam que estavam procurando falsificações, veja bem. Em uma situação do mundo real, as pessoas confrontadas com um deepfake podem ter muito menos probabilidade de vê-lo criticamente.
“Mesmo quando as pessoas suspeitam de um deepfake, nossa pesquisa nos diz que a grande maioria das pessoas não toma nenhuma ação”, disse o CEO e fundador da iProov, Andrew Bud, sobre esse trabalho. A empresa observou que apenas 25% das pessoas disseram que procuram informações alternativas se suspeitarem de um deepfake, e apenas 11% disseram que analisam criticamente as fontes e o contexto das informações para ver se isso levanta bandeiras vermelhas.
Em outras palavras, agora você tem mais uma coisa para treinar seus usuários a ficarem atentos.
Fonte: The Register
Veja também:
- Troca de rosto e identidade sintética são usados para cometer fraudes
- Microsoft está com inscrições abertas para cursos gratuitos
- Malvertising infecta mais de 1 milhão de dispositivos em todo o mundo
- Hackers implantam táticas avançadas de engenharia social em ataques de phishing
- YouTube alerta criadores sobre e-mails de phishing
- Gang de Ransomware criptografa rede usando uma webcam para contornar o EDR.
- Brasil integra novo Conselho do Futuro Global de Cibersegurança do Fórum Econômico Mundial
- Fundação Estudar oferece bolsas de universidades do Brasil e exterior
- Mulheres impulsionam inovação e sustentabilidade na tecnologia
- Cycognito – você já conhece?
- Roubo de credenciais triplica em 2024
- Resiliência cibernética em foco
Be the first to comment