Hackers usam IA e aprendizado de máquina para atingir empresas. A IA beneficia tanto as equipes de segurança quanto os cibercriminosos.
A TechTarget trouxe em seu artigo explicação de como os hackers usam IA e aprendizado de máquina para atingir empresas e obtenha dicas sobre como prevenir ataques cibernéticos focados em IA.
A segurança cibernética se beneficiou dos avanços em aprendizado de máquina e IA. As equipes de segurança hoje são inundadas com dados sobre possíveis atividades suspeitas, mas muitas vezes ficam procurando agulhas em palheiros. A IA ajuda os defensores a encontrar as ameaças reais nesses dados por meio do reconhecimento de padrões no tráfego de rede, indicadores de malware e tendências comportamentais do usuário.
Então, vamos ver como os hackers usam IA e aprendizado de máquina para atingir empresas, bem como maneiras de evitar ataques cibernéticos focados em IA.
3 maneiras pelas quais os atacantes usam a IA contra os defensores
1. Teste o sucesso do malware em ferramentas baseadas em IA
Os invasores podem usar o aprendizado de máquina de várias maneiras. A primeira – e mais simples – é construir seus próprios ambientes de aprendizado de máquina e modelar suas próprias práticas de malware e ataque para determinar os tipos de eventos e comportamentos procurados pelos defensores.
Um malware sofisticado, por exemplo, pode modificar bibliotecas e componentes do sistema local, executar processos na memória e se comunicar com um ou mais domínios pertencentes à infraestrutura de controle de um invasor. Todas essas atividades combinadas criam um perfil conhecido como táticas, técnicas e procedimentos (TTPs). Os modelos de aprendizado de máquina podem observar TTPs e usá-los para criar recursos de detecção.
Ao observar e prever como os TTPs são detectados pelas equipes de segurança, os adversários podem modificar indicadores e comportamentos de maneira sutil e frequente para ficar à frente dos defensores que dependem de ferramentas baseadas em IA para detectar ataques.
2. Envenenar IA com dados imprecisos
Os invasores também usam aprendizado de máquina e IA para comprometer ambientes envenenando modelos de IA com dados imprecisos . Os modelos de aprendizado de máquina e IA contam com amostras de dados rotuladas corretamente para criar perfis de detecção precisos e repetíveis. Ao introduzir arquivos benignos que se parecem com malware ou ao criar padrões de comportamento que provam ser falsos positivos, os invasores podem induzir os modelos de IA a acreditar que os comportamentos de ataque não são maliciosos. Os invasores também podem envenenar os modelos de IA introduzindo arquivos maliciosos que os treinamentos de IA rotularam como seguros.
3. Mapeie os modelos de IA existentes
Os invasores buscam ativamente mapear modelos de IA existentes e em desenvolvimento usados por provedores de segurança cibernética e equipes de operação. Ao aprender como os modelos de IA funcionam e o que eles fazem, os adversários podem interromper as operações e os modelos de aprendizado de máquina ativamente durante seus ciclos. Isso pode permitir que hackers influenciem o modelo enganando o sistema para favorecer os invasores e suas táticas. Ele também pode permitir que os hackers evitem completamente os modelos conhecidos, modificando sutilmente os dados para evitar a detecção com base em padrões reconhecidos.
Como se defender contra ataques focados em IA
A defesa contra ataques focados em IA é extremamente difícil. Os defensores devem garantir que os rótulos associados aos dados usados nos modelos de aprendizado e no desenvolvimento de padrões sejam precisos. Ao garantir que os dados tenham identificadores de rótulos precisos, é provável que os conjuntos de dados usados para treinar modelos se tornem menores, o que não ajuda na eficiência da IA .
Para aqueles que criam modelos de detecção de segurança de IA, a introdução de técnicas e táticas adversárias durante a modelagem pode ajudar a alinhar o reconhecimento de padrões com as táticas vistas na natureza. Pesquisadores da Universidade Johns Hopkins desenvolveram o TrojAI Software Framework para ajudar a gerar modelos de IA para cavalos de Troia e outros padrões de malware. Pesquisadores do MIT lançaram o TextFooler , uma ferramenta que faz o mesmo para padrões de linguagem natural, o que pode ser útil para construir modelos de IA mais resilientes que detectam problemas como fraude bancária.
À medida que a IA cresce em importância, os invasores tentarão superar os esforços dos defensores com suas próprias pesquisas. É crucial que as equipes de segurança se mantenham atualizadas com as táticas dos invasores para se defenderem deles.
Fonte: TechTarget
Veja também:
- Follina corrigida na última versão do Patch Tuesday da Microsoft
- Microsoft Office 365 permite que o ransomware criptografe arquivos no SharePoint, OneDrive
- Segurança e Organização do espaço de trabalho remoto são fundamentais
- Zero Day do Windows Follina é explorado para infectar PCs com o Qbot
- Black Basta Linux tem como alvo servidores VMware ESXi
- MP altera a LGPD para dar autonomia funcional para a ANPD
- 6 dicas para proteger seus aplicativos financeiros
- Loja Roblox Game Pass usada para vender decodificador de ransomware
- OffSec transmitirá curso de teste de penetração do Kali Linux no Twitch
- Como os profissionais do SOC podem impedir mais ataques cibernéticos?
- Acelere a segurança do Linux e do contêiner
- Falhas conhecidas são usadas em ataques de VPNs e dispositivos de rede
Deixe sua opinião!