Impressões digitais falsas podem imitar as reais em sistemas biométricos.
DeepMasterPrints criado por uma técnica de aprendizado de máquina tem taxa de erro de apenas um em cinco.
Pesquisadores usaram uma rede neural para gerar impressões digitais artificiais que funcionam como uma “chave mestra” para sistemas de identificação biométrica e provam que impressões digitais falsas podem ser criadas.
De acordo com um artigo apresentado em uma conferência de segurança em Los Angeles, as impressões digitais geradas artificialmente, apelidadas de “DeepMasterPrints” pelos pesquisadores da Universidade de Nova York, conseguiram imitar mais de uma em cinco impressões digitais em um sistema biométrico que deve ter apenas um erro cada mil.
Os pesquisadores, liderados por Philip Bontrager, da NYU, afirmam que “o método subjacente provavelmente terá amplas aplicações em segurança de impressão digital, assim como síntese de impressões digitais.” Como em muitas pesquisas de segurança, a demonstração de falhas em sistemas de autenticação existentes é considerada importante de desenvolver substituições mais seguras no futuro.
Para funcionar, o DeepMasterPrints aproveita duas propriedades dos sistemas de autenticação baseados em impressão digital. A primeira é que, por razões ergonômicas, a maioria dos leitores de impressões digitais não lê o dedo inteiro de uma vez, em vez disso imagina a parte do dedo que toca o scanner.
Crucialmente, tais sistemas não combinam todas as imagens parciais para comparar o dedo inteiro com um registro completo; em vez disso, eles simplesmente comparam a varredura parcial com os registros parciais. Isso significa que um invasor precisa corresponder a apenas uma das dezenas ou centenas de impressões digitais salvas salvas para receber acesso.
A segunda é que algumas características das impressões digitais são mais comuns do que outras. Isso significa que uma impressão falsa que contenha muitas características comuns é mais provável de combinar com outras impressões digitais do que o simples acaso sugeriria.
Com base nesses insights, os pesquisadores usaram uma técnica comum de aprendizado de máquina, chamada de rede adversária generativa –
generative adversarial network , para criar artificialmente novas impressões digitais que combinassem o maior número possível de impressões digitais parciais.
A rede neural não apenas permitiu que eles criassem várias imagens de impressão digital, mas também criou falsificações que pareciam convincentemente uma impressão digital real a um olho humano – uma melhoria em uma técnica anterior, que criava impressões digitais irregulares que enganariam um scanner, mas não uma inspeção visual.
Eles comparam o método a um “ataque de dicionário” contra senhas, em que um hacker executa uma lista pré-gerada de senhas comuns contra um sistema de segurança.
Tais ataques podem não ser capazes de entrar em qualquer conta específica, mas quando usados contra contas em escala, geram sucessos suficientes para valer o esforço.
Veja a pesquisa completa em DeepMasterPrints
Fonte: The Guardian & DeepMasterPrints
Veja também:
- CrowdStrike solução AV sem Assinatura!
- Sistema concede Créditos Sociais baseado no comportamento do indivíduo
- Pesquisador descontente publica vulnerabilidade do VirtualBox da Oracle
- Sequestro de tráfego da Google paralisa serviços na internet
- Nova LGPD: direito à portabilidade
- Falha no Portal Steam dava acesso à CD Keys de jogos
- Fórum da Lei de Proteção de Dados e GDPR
- Contas do Internet Banking do HSBC-US são violadas por hackers
- Vulnerabilidade na Libssh é muito fácil de ser explorada
- Falha permite escalada de privilégio afeta a maioria das distribuições Linux
Deixe sua opinião!