Vulnerabilidades do Google Gemini permite roubo de dados salvos e localização em tempo real
Pesquisas revelaram três vulnerabilidades significativas no pacote de assistentes de IA Gemini do Google, chamado de “Gemini Trifecta”, que poderiam ter permitido que criminosos cibernéticos roubassem dados salvos e informações de localização ao vivo dos usuários’.
As vulnerabilidades, que já foram corrigidas pelo Google, demonstram como os sistemas de inteligência artificial podem se tornar vetores de ataque e não apenas alvos.
Ilustração de um hacker roubando dados confidenciais de um computador, destacando riscos de vulnerabilidades de IA como as do Google Gemini
Vulnerabilidades da Trifecta Gemini
De acordo com a Tenable, o descoberto vulnerabilidades tinham como alvo diferentes componentes do ecossistema Gemini. A primeira falha afetou o Gemini Cloud Assist, a ferramenta de IA baseada em nuvem do Google projetada para ajudar os usuários a analisar logs e recursos de nuvem.
Assistência em nuvem Gemini : Os invasores poderiam injetar prompts maliciosos por meio de cabeçalhos HTTP User-Agent em entradas de log, que seriam então processadas pela IA quando os usuários solicitassem resumos de log.
Falha no Gemini Cloud Assist
Modelo de personalização de pesquisa Gemini : A segunda vulnerabilidade explorou o Modelo de Personalização de Pesquisa da Gemini, que usa o histórico de navegação para personalizar as respostas.
Os cibercriminosos poderiam injetar código JavaScript malicioso nos navegadores victims’, inserindo consultas de pesquisa elaboradas que mais tarde seriam interpretadas como instruções legítimas pelo sistema de IA.
Falha no modelo de personalização da pesquisa Gemini
Ferramenta de navegação Gemini: A terceira e talvez mais preocupante falha envolveu a ferramenta de navegação Gemini. Essa vulnerabilidade permitiu que invasores extraíssem dados confidenciais do usuário manipulando a IA para visitar sites maliciosos com informações do usuário incorporadas nos parâmetros de URL.
Falha na ferramenta de navegação Gemini
As vulnerabilidades seguiram um padrão de ataque em dois estágios: infiltração e exfiltração. Durante a infiltração, os invasores injetavam prompts maliciosos por meio de métodos indiretos, como entradas de log ou manipulação do histórico de pesquisa. Esses prompts pareceriam legítimos para o sistema de IA.
Para a exfiltração, os pesquisadores descobriram que, embora Google tendo implementado salvaguardas contra métodos óbvios de roubo de dados, como renderização de links ou imagens maliciosas, a ferramenta de navegação forneceu um caminho alternativo.
Os invasores podem instruir a Gemini a “resumir” sites externos, fazendo com que a IA faça solicitações HTTP contendo dados confidenciais do usuário para servidores controlados pelo invasor.
As demonstrações de prova de conceito mostraram como os invasores podiam roubar vários tipos de informações pessoais, incluindo preferências de usuários salvas, dados de localização e outros detalhes confidenciais armazenados no ecossistema Gemini.
Os ataques foram particularmente furtivos, pois aproveitaram funcionalidades legítimas de IA em vez de explorar falhas de segurança óbvias.
Uma demonstração mostrou como um invasor pode injetar entradas de log por meio de serviços de nuvem e, em seguida, enviar credenciais de usuário por phish quando as vítimas usam o Gemini Cloud Assist para analisar esses logs.
Outro exemplo ilustrou como consultas de pesquisa maliciosas poderiam ser injetadas no histórico de navegação, acionando posteriormente a exfiltração de dados quando os usuários interagiam com recursos de pesquisa personalizados.
O Google abordou com sucesso todas as três vulnerabilidades por meio de diversas estratégias de mitigação. Para a vulnerabilidade do Cloud Assist, a empresa modificou a forma como os hiperlinks são renderizados nas respostas de resumo de log.
A vulnerabilidade de personalização da pesquisa foi resolvida revertendo o modelo afetado e implementando defesas de injeção imediata em camadas.
A vulnerabilidade da ferramenta de navegação foi mitigada pela prevenção exfiltração de dados por meio de injeções indiretas de prompt, garantindo que instruções maliciosas não possam abusar dos recursos legítimos de navegação na web da ferramenta.
Estas descobertas destacam a evolução dos desafios de segurança em sistemas alimentados por IA. À medida que as organizações adotam cada vez mais assistentes e ferramentas de IA, as equipes de segurança devem reconhecer que esses sistemas criam novas superfícies de ataque que exigem estratégias de proteção especializadas.
A pesquisa demonstra que as abordagens tradicionais de segurança cibernética podem ser insuficientes para sistemas de IA, que podem ser manipulados por meio de engenharia imediata em vez de técnicas convencionais de exploração.
As organizações que implantam ferramentas de IA precisam de visibilidade abrangente de sua infraestrutura de IA e aplicação rigorosa de políticas para manter a segurança.
Fonte: GBHackers
Veja também:
- Pesquisa aponta risco crítico à soberania de dados
- A Integração entre Programas de Compliance e a LGPD
- SonicWall lança atualização de firmware SMA100 para eliminar malware rootkit
- Após ser hackeada SonicWall pede troca de senhas
- ChatGPT alvo de ataque de roubo de dados do lado do servidor
- A ilusão da IA nos negócios
- Check Point Software alerta para riscos de segurança no mercado de NFTs
- IA não é um destino, e sim, uma jornada!
- As 10 melhores empresas de testes de penetração como serviço (PTaaS) em 2025
- Hackers usam IA para burlar antivírus
- Privacidade DNS do Firefox
- Cibersegurança além do perímetro
Be the first to comment