Trend Micro prevê o surgimento de gêmeos digitais maliciosos alimentados por deepfake em 2025
A era dos ataques hiper personalizados está próxima, alerta a empresa líder em cibersegurança
Os ataques altamente personalizados e baseados em IA vão potencializar os golpes digitais e as fraudes de phishing em 2025, afetando as operações das empresas e a segurança dos usuários. É o que prevê o estudo “The Easy Way IN/OUT – Securing the Artificial Future”, da Trend Micro, líder global em segurança cibernética. Os criminosos vão continuar criando novas maneiras de explorar áreas vulneráveis, aumentando o risco à medida que as empresas expandem a superfície de ataque.
“Com o crescimento da IA Generativa é preciso ficar atento às ameaças emergentes. O uso malicioso da nova tecnologia e os ataques hiper personalizados exigirão um esforço concentrado do setor para combater o cibercrime. Os líderes empresariais devem lembrar que não existe risco cibernético autônomo nos dias de hoje.”
Todo risco de segurança representa um risco comercial, com o potencial de impactar profundamente o negócio e as estratégias futuras”, destaca Jon Clay, vice-presidente de Inteligência de Ameaças da Trend Micro.
O relatório de Previsões de Segurança da Trend para 2025 alerta para o potencial de “gêmeos digitais” maliciosos, em que informações pessoais violadas/vazadas serão utilizadas para treinar um LLM (Large Language Model), simulando o comportamento, a personalidade e o estilo de escrita de uma vítima/funcionário.
Quando implementados em deepfake, com vídeo e áudio combinados com dados biométricos comprometidos, podem ser usados para fraude de identidade ou para enganar um amigo, colega ou membro da família.
Deepfakes e IA também podem ser aplicados em ataques hiper personalizados em larga escala para:
- Aprimorar golpes de Business Email Compromise (BEC), conhecidos como “Fraude do CEO” e de “Funcionários Fake”;
- Identificar vítimas para o golpe “pig butchering” (“abate do porco”, em tradução livre), que é chamado assim por suas vítimas sofrerem forte manipulação emocional;
- Atrair e seduzir essas vítimas antes de entregá-las a um operador humano, que pode conversar por meio do “filtro de personalidade” de um LLM;
- Melhorar a coleta de informações de código aberto por adversários;
- Desenvolver o pré-ataque para elevar as chances de sucesso do ataque;
- Criar perfis fakes de mídia social que pareçam autênticos para espalhar desinformação e promover golpes em escala.
As empresas que adotarem IA amplamente em 2025 precisarão estar atentas, ainda, a ameaças como a exploração de vulnerabilidades e o sequestro de agentes de IA para manipulá-los com a intenção de promover ações prejudiciais ou não autorizadas. Também é um risco o vazamento não intencional de informações de IA
Generativa assim como o consumo benigno ou mal-intencionado de recursos do sistema por agentes de IA levando à negação de serviço.
“A perspectiva de lucros cada vez mais altos motiva os cibercriminosos a desenvolverem ferramentas nefastas de IA Generativa. Sem falar que o uso crescente da IA amplia a necessidade de medidas de segurança robustas, para garantir às equipes de TI visibilidade de ponta a ponta”, ressalta Cesar Candido, diretor geral da Trend Micro Brasil.
Fora do mundo das ameaças de IA, o relatório destaca áreas adicionais de preocupação em 2025, incluindo vulnerabilidades como os bugs de gerenciamento e corrupção de memória, escapes de contêineres, ransomwares focados na nuvem, em dispositivos de IoT e em tecnologia de computação de borda. O resultado serão ataques mais rápidos e com menos etapas, tornando-os mais difíceis de detectar.
Hora de agir
Para enfrentar essas ameaças crescentes, a Trend Micro recomenda:
- Implementar uma abordagem baseada em risco para a segurança cibernética, permitindo a identificação centralizada de diversos ativos e avaliação/priorização/mitigação de riscos eficaz;
- Aproveitar a IA para auxiliar na inteligência de ameaças, gerenciamento de perfil de ativos, previsão dos caminhos de ataque e orientação de correção, idealmente a partir de uma plataforma única;
- Atualizar o treinamento e a conscientização do usuário de acordo com os recentes avanços da IA e de como facilitam o crime cibernético;
- Monitoramento e proteção da tecnologia de IA contra abusos, incluindo segurança para validação de entrada e resposta ou ações geradas pela IA;
- Para segurança LLM: proteção de ambientes de sandbox, implementação de validação estrita de dados e implementação de defesas em várias camadas contra injeção de prompt;
- Compreender a organização na cadeia de suprimentos, abordar vulnerabilidades em servidores voltados para o público e implementar defesas em várias camadas em redes internas;
- Facilitar a visibilidade de ponta a ponta dos agentes de IA;
- Implementar a previsão dos caminhos de ataque para mitigar ameaças à nuvem.
Para acessar o estudo “The Easy Way IN/OUT – Securing the Artificial Future” clique AQUI.
Veja também:
- Segurança Cibernética em 2025
- Quando a inovação se torna um risco
- A nova era dos CISOs
- Vulnerabilidade de escalonamento de privilégios do Windows 11
- Cientistas enganam modelo de IA para revelar seus segredos
- Inteligencia Artificial auxilia as equipes de Red Teams?
- Hackers lançam do LockBit v.4
- Como os cibercriminosos do estado-nação estão mirando na empresa
- Brasil é alvo de grupo criminoso que reutiliza códigos antigos de ransomware
- Novo trojan espião brasileiro ataca usuários na Itália
- Gerenciamento de Cadeia de Suprimentos
- IA Generativa e os ataques a infraestruturas críticas em 2025
Be the first to comment