I.A. e os desafios dos Sistemas Liveness. Hackers e frudadores estão usando IA para burlar Sistemas de biometria.
Fatores de autenticação para compor a segurança da A.A (Autenticação e autorização) tem exigido cada vez mais das área de segurança da informação. Para isso a combinação dos conceitos “o que você possui” , “o que você é” e o “o que você sabe” tem sido cada vez usada, gerando fator de dupla ou tripla autenticação, no entanto o aprimoramento da I.A. (Inteligência Artificial) e de softwares engine estão tornando esse processo cada vez mais desafiador.
Um dos processos mais utilizados por grande empresas tem sido o Liveness Detction, mas esse também já não parece mais tão seguro assim. Então , vamos entender melhor isso.
O que é Liveness Detection?
Liveness detection, ou detecção de vivacidade, é um processo crucial para garantir que a pessoa que está sendo autenticada é fisicamente presente no momento da verificação. Isso é essencial para evitar fraudes comuns, como a tentativa de usar uma foto ou vídeo de alguém para burlar sistemas de identificação.
Embora os sistemas de liveness sejam uma melhoria significativa em relação aos sistemas de reconhecimento facial básicos, eles não são infalíveis. A combinação de múltiplas técnicas e tecnologias de detecção pode aumentar a segurança e a eficácia desses sistemas, mas é essencial continuar evoluindo e adaptando as medidas de segurança para enfrentar novas técnicas e ameaças emergentes.
A segurança em reconhecimento facial é uma área em rápida evolução e requer um compromisso contínuo com a inovação e a adaptação para proteger contra técnicas cada vez mais sofisticadas.
Sistemas de liveness são projetados para garantir que o rosto sendo verificado é realmente de uma pessoa viva e não uma foto, vídeo ou máscara, ajudando a proteger contra ataques como os que discutimos.
Desafios e Técnicas para Enganar Sistemas de Liveness
Os sistemas de Liveness apresentam diversos desafios para que possamos protegê-los, assim elencamos abaixo alguns cuidados e pontos de atenção:
-
Deepfakes e Vídeos Manipulados
- Deepfakes: Vídeos gerados por IA podem parecer extremamente realistas e enganar sistemas de liveness que não verificam a autenticidade do movimento facial.
- Vídeos Reais: Vídeos de alta qualidade de uma pessoa real podem ser usados em ataques de replay para enganar o sistema, especialmente se o sistema não possui mecanismos robustos de detecção de movimento em tempo real.
-
Máscaras e Adereços
- Máscaras 3D: Máscaras sofisticadas podem ser projetadas para enganar sistemas que se baseiam em análise superficial, especialmente se o sistema não usa tecnologias avançadas de detecção 3D.
- Adereços: O uso de acessórios como óculos ou barbas falsas pode confundir sistemas que não analisam adequadamente a totalidade do rosto e sua dinâmica.
-
Perturbações Adversariais
- Alterações na Imagem: Manipulações adversariais podem ser usadas para enganar o sistema de liveness, especialmente se o sistema não está preparado para detectar tais alterações.
-
Ataques de Evasão
- Alteração do Contexto: Mudanças na iluminação ou no ângulo da câmera podem ser usadas para confundir sistemas que não têm robustez para diferentes condições ambientais.
Como é o Liveness pode ser manipulado?
Mesmo fazendo tudo isso já tem surgido notícias de como seria possível burlar os sistemas de Liveness utilizando IA através da Injeção de Imagem.
A injeção de imagem é uma técnica na qual uma imagem estática (como uma foto) é utilizada para enganar sistemas de liveness detection. Os algoritmos de detecção de liveness são projetados para identificar movimentos e características que indicam que a pessoa está realmente presente e interagindo com o sistema.
A injeção de imagem com a aplicação de IA tenta simular esses movimentos de forma artificial, muitas vezes com a intenção de enganar o sistema de autenticação.
Importante: Está falha foi detectada há algumas semanas e o bypass foi efetuado com sucesso, no entanto a Facetec já resolveu o problema e atualização do SDK foi lançada aos seus clientes.
já existem vários casos documentados em que hackers e pesquisadores conseguiram burlar sistemas de liveness usados em autenticação facial. Esses ataques demonstram a complexidade e os desafios associados à proteção contra fraudes em sistemas de reconhecimento facial. Aqui estão alguns exemplos e abordagens notáveis:
Casos Notáveis de Ataques a Sistemas de Liveness
-
Ataques com Máscaras 3D
- Exemplo: Em um estudo realizado por pesquisadores, foram usadas máscaras 3D impressas para enganar sistemas de reconhecimento facial que não utilizavam detecção de profundidade. Essas máscaras, feitas com detalhes muito realistas, foram capazes de burlar a maioria dos sistemas que não tinham proteção contra esse tipo de fraude.
- Impacto: Esses ataques demonstram que, sem uma verificação robusta da estrutura tridimensional do rosto, sistemas de liveness podem ser enganados por máscaras físicas sofisticadas.
-
Vídeos e Imagens de Alta Qualidade
- Exemplo: Em 2019, pesquisadores mostraram que sistemas de liveness podem ser burlados com vídeos de alta qualidade de rostos reais. O método envolveu reproduzir vídeos em alta definição, que foram capazes de enganar sistemas que não detectavam a diferença entre um rosto real e um vídeo.
- Impacto: Esse tipo de ataque evidencia a necessidade de métodos adicionais de verificação, como análise de movimento em tempo real e detecção de características dinâmicas.
-
Deepfakes e Imagens Manipuladas
- Exemplo: A tecnologia deepfake tem sido usada para criar vídeos e imagens que parecem incrivelmente realistas. Em 2020, pesquisadores conseguiram enganar sistemas de liveness usando deepfakes para gerar vídeos que imitam perfeitamente rostos reais.
- Impacto: Esses ataques ressaltam a necessidade de usar tecnologias que podem distinguir entre rostos reais e manipulados digitalmente.
Estratégias de Defesa para Sistemas de Liveness
Posto isso , vejamos agora alguma estratégias que podemos adotar para proteger nossos sistemas de Liveness:
-
Tecnologias Avançadas de Detecção
- Análise de Profundidade e 3D: Utilizar câmeras que capturam informações de profundidade pode ajudar a distinguir entre um rosto real e uma máscara, além de verificar a estrutura tridimensional do rosto.
- Detecção de Movimento e Interação: Implementar técnicas que exigem movimento natural do rosto ou interação com o sistema, como piscar, sorrir ou girar a cabeça, pode ajudar a verificar a liveness. A presença de movimentos naturais e reações ao ambiente são sinais fortes de autenticidade.
-
Verificação de Textura e Propriedades Físicas
- Análise de Textura da Pele: Usar tecnologias que analisam a textura da pele e outras características físicas pode ajudar a diferenciar um rosto real de um modelo falso ou uma imagem plana.
- Verificação de Reflexos e Brilho: Detectar reflexos de luz naturais e padrões de brilho que são típicos de superfícies vivas pode ser uma maneira de identificar se a face é real.
-
Métodos de Detecção de Anomalias
- Análise de Sequência de Imagens: Monitorar e analisar a sequência de imagens para detectar padrões anômalos ou inconsistentes que podem indicar manipulação.
- Detecção de Anomalias em Tempo Real: Utilizar sistemas que detectem e alertem para comportamentos fora do padrão ou tentativas de engano.
-
Segurança Física e Interação
- Desafios Interativos: Pedir ao usuário para realizar ações específicas, como mover a cabeça, fazer um gesto ou responder a um desafio visual (por exemplo, “siga o ponto com os olhos”) pode ajudar a verificar a liveness.
- Detecção de Interação Física: Usar sensores adicionais que verifiquem se há interação física real com o dispositivo, como sensores de toque ou pressão.
-
Treinamento e Atualização Contínua
- Treinamento com Dados Diversificados: Treinar o modelo com uma ampla gama de dados, incluindo diferentes tipos de ataques, pode ajudar a melhorar a robustez contra novas técnicas de engano.
- Atualizações Regulares: Atualizar continuamente os algoritmos e sistemas para incorporar novos métodos de detecção e enfrentar novas ameaças
-
Desafios Interativos
-
- Desafios de Liveness: Incorporar desafios que exigem respostas interativas, como realizar movimentos específicos ou responder a estímulos visuais e auditivos, pode ajudar a verificar a liveness.
-
-
Verificação Adicional
- Autenticação Multifatorial: Complementar o reconhecimento facial com métodos adicionais de autenticação, como senhas ou biometria secundária, para melhorar a segurança.
- Análise de Comportamento: Implementar análise comportamental para detectar padrões incomuns ou anômalos que possam indicar tentativas de fraude.
Investir em uma tecnologia robusta de liveness detection e escolher um parceiro confiável na validação de identidade são passos essenciais para proteger suas operações contra fraudes e garantir uma experiência segura para os usuários.
A injeção de imagem é apenas um dos desafios enfrentados nesse campo, mas com as soluções adequadas e parcerias sólidas, é possível mitigar esses riscos e garantir a integridade dos processos de autenticação biométrica.
Veja também:
- Falha crítica no Docker permite ignorar plug-ins de autorização
- Qual a relação entre backups imutáveis e ataques ransomware?
- Ciberataques usando botnets são vendidos a US$ 100 na dark web
- LGPD é desafio para profissionais de tecnologia
- CrowdStrike está oferecendo um vale-presente UberEats de US$ 10
- Crowdstrike divulga revisão preliminar do problema
- CrowdStrike explica por que a atualização não foi testada corretamente
- ANPD regulamenta atuação do DPO
- Desafios de cibersegurança e dicas para defesas digitais das MPMEs
- Crowdstrike causou apagão da Internet, veja detalhes !
- Hackers comprometem Blockchain para roubar Criptomoeda
- Estratégia para conter 1.200 ataques dia
Deixe sua opinião!