Impressões digitais falsas podem imitar as reais em sistemas biométricos

Impressões digitais falsas podem imitar as reais em sistemas biométricos. 
DeepMasterPrints criado por uma técnica de aprendizado de máquina tem taxa de erro de apenas um em cinco.

Pesquisadores usaram uma rede neural para gerar impressões digitais artificiais que funcionam como uma “chave mestra” para sistemas de identificação biométrica e provam que impressões digitais falsas podem ser criadas.

De acordo com um artigo apresentado em uma conferência de segurança em Los Angeles, as impressões digitais geradas artificialmente, apelidadas de “DeepMasterPrints” pelos pesquisadores da Universidade de Nova York, conseguiram imitar mais de uma em cinco impressões digitais em um sistema biométrico que deve ter apenas um erro cada mil.

Os pesquisadores, liderados por Philip Bontrager, da NYU, afirmam que “o método subjacente provavelmente terá amplas aplicações em segurança de impressão digital, assim como síntese de impressões digitais.” Como em muitas pesquisas de segurança, a demonstração de falhas em sistemas de autenticação existentes é considerada importante de desenvolver substituições mais seguras no futuro.

Para funcionar, o DeepMasterPrints aproveita duas propriedades dos sistemas de autenticação baseados em impressão digital. A primeira é que, por razões ergonômicas, a maioria dos leitores de impressões digitais não lê o dedo inteiro de uma vez, em vez disso imagina a parte do dedo que toca o scanner.

Crucialmente, tais sistemas não combinam todas as imagens parciais para comparar o dedo inteiro com um registro completo; em vez disso, eles simplesmente comparam a varredura parcial com os registros parciais. Isso significa que um invasor precisa corresponder a apenas uma das dezenas ou centenas de impressões digitais salvas salvas para receber acesso.

A segunda é que algumas características das impressões digitais são mais comuns do que outras. Isso significa que uma impressão falsa que contenha muitas características comuns é mais provável de combinar com outras impressões digitais do que o simples acaso sugeriria.

Com base nesses insights, os pesquisadores usaram uma técnica comum de aprendizado de máquina, chamada de rede adversária generativa –
 generative adversarial network , para criar artificialmente novas impressões digitais que combinassem o maior número possível de impressões digitais parciais.

A rede neural não apenas permitiu que eles criassem várias imagens de impressão digital, mas também criou falsificações que pareciam convincentemente uma impressão digital real a um olho humano – uma melhoria em uma técnica anterior, que criava impressões digitais irregulares que enganariam um scanner, mas não uma inspeção visual.

Eles comparam o método a um “ataque de dicionário” contra senhas, em que um hacker executa uma lista pré-gerada de senhas comuns contra um sistema de segurança.

Tais ataques podem não ser capazes de entrar em qualquer conta específica, mas quando usados ​​contra contas em escala, geram sucessos suficientes para valer o esforço.

Veja a pesquisa completa em DeepMasterPrints

Fonte: The Guardian &  DeepMasterPrints

Veja também:

Sobre mindsecblog 2399 Artigos
Blog patrocinado por MindSec Segurança e Tecnologia da Informação Ltda.

3 Trackbacks / Pingbacks

  1. CrowdStrike expande presença internacional para atender à crescente demanda do cliente
  2. A ponte que partiu
  3. CrowdStrike expande presença internacional para atender à crescente demanda do cliente

Deixe sua opinião!