Hackers usam IA e aprendizado de máquina para atingir empresas

Hackers usam IA e aprendizado de máquina para atingir empresas. A IA beneficia tanto as equipes de segurança quanto os cibercriminosos.

A TechTarget trouxe em seu artigo explicação de como os hackers usam IA e aprendizado de máquina para atingir empresas e obtenha dicas sobre como prevenir ataques cibernéticos focados em IA.

A segurança cibernética se beneficiou dos avanços em aprendizado de máquina e IA. As equipes de segurança hoje são inundadas com dados sobre possíveis atividades suspeitas, mas muitas vezes ficam procurando agulhas em palheiros. A IA ajuda os defensores a encontrar as ameaças reais nesses dados por meio do reconhecimento de padrões no tráfego de rede, indicadores de malware e tendências comportamentais do usuário.

Infelizmente, os invasores encontraram suas próprias maneiras de usar esses avanços benéficos em IA e aprendizado de máquina contra nós. O fácil acesso a ambientes de nuvem simplifica a introdução à IA e a criação de modelos de aprendizado poderosos e capazes.

Então, vamos ver como os hackers usam IA e aprendizado de máquina para atingir empresas, bem como maneiras de evitar ataques cibernéticos focados em IA.

3 maneiras pelas quais os atacantes usam a IA contra os defensores

1. Teste o sucesso do malware em ferramentas baseadas em IA

Os invasores podem usar o aprendizado de máquina de várias maneiras. A primeira – e mais simples – é construir seus próprios ambientes de aprendizado de máquina e modelar suas próprias práticas de malware e ataque para determinar os tipos de eventos e comportamentos procurados pelos defensores.

Um malware sofisticado, por exemplo, pode modificar bibliotecas e componentes do sistema local, executar processos na memória e se comunicar com um ou mais domínios pertencentes à infraestrutura de controle de um invasor. Todas essas atividades combinadas criam um perfil conhecido como táticas, técnicas e procedimentos (TTPs). Os modelos de aprendizado de máquina podem observar TTPs e usá-los para criar recursos de detecção.

Ao observar e prever como os TTPs são detectados pelas equipes de segurança, os adversários podem modificar indicadores e comportamentos de maneira sutil e frequente para ficar à frente dos defensores que dependem de ferramentas baseadas em IA para detectar ataques.

2. Envenenar IA com dados imprecisos

Os invasores também usam aprendizado de máquina e IA para comprometer ambientes envenenando modelos de IA com dados imprecisos . Os modelos de aprendizado de máquina e IA contam com amostras de dados rotuladas corretamente para criar perfis de detecção precisos e repetíveis. Ao introduzir arquivos benignos que se parecem com malware ou ao criar padrões de comportamento que provam ser falsos positivos, os invasores podem induzir os modelos de IA a acreditar que os comportamentos de ataque não são maliciosos. Os invasores também podem envenenar os modelos de IA introduzindo arquivos maliciosos que os treinamentos de IA rotularam como seguros.

3. Mapeie os modelos de IA existentes

Os invasores buscam ativamente mapear modelos de IA existentes e em desenvolvimento usados ​​por provedores de segurança cibernética e equipes de operação. Ao aprender como os modelos de IA funcionam e o que eles fazem, os adversários podem interromper as operações e os modelos de aprendizado de máquina ativamente durante seus ciclos. Isso pode permitir que hackers influenciem o modelo enganando o sistema para favorecer os invasores e suas táticas. Ele também pode permitir que os hackers evitem completamente os modelos conhecidos, modificando sutilmente os dados para evitar a detecção com base em padrões reconhecidos.

Como se defender contra ataques focados em IA

A defesa contra ataques focados em IA é extremamente difícil. Os defensores devem garantir que os rótulos associados aos dados usados ​​nos modelos de aprendizado e no desenvolvimento de padrões sejam precisos. Ao garantir que os dados tenham identificadores de rótulos precisos, é provável que os conjuntos de dados usados ​​para treinar modelos se tornem menores, o que não ajuda na eficiência da IA ​​.

Para aqueles que criam modelos de detecção de segurança de IA, a introdução de técnicas e táticas adversárias durante a modelagem pode ajudar a alinhar o reconhecimento de padrões com as táticas vistas na natureza. Pesquisadores da Universidade Johns Hopkins desenvolveram o TrojAI Software Framework para ajudar a gerar modelos de IA para cavalos de Troia e outros padrões de malware. Pesquisadores do MIT lançaram o TextFooler , uma ferramenta que faz o mesmo para padrões de linguagem natural, o que pode ser útil para construir modelos de IA mais resilientes que detectam problemas como fraude bancária.

À medida que a IA cresce em importância, os invasores tentarão superar os esforços dos defensores com suas próprias pesquisas. É crucial que as equipes de segurança se mantenham atualizadas com as táticas dos invasores para se defenderem deles.

Fonte: TechTarget

Veja também:

Sobre mindsecblog 1772 Artigos
Blog patrocinado por MindSec Segurança e Tecnologia da Informação Ltda.

Seja o primeiro a comentar

Deixe sua opinião!