Uso de IA sem critério expõe dados sensíveis, alerta Check Point
Uso cotidiano de chatbots amplia exposição a fraudes, vazamentos e uso indevido de dados pessoais e corporativos; especialista da empresa lista as cinco informações que os usuários devem evitar compartilhar com a IA
A Check Point® Software Technologies Ltd. (NASDAQ: CHKP), pioneira e líder global em soluções de cibersegurança, reforça o cuidado no uso crescente de ferramentas de inteligência artificial (IA) no dia a dia, como assistentes virtuais e chatbots, porque podem expor usuários a riscos relevantes quando utilizados sem cautela. A recomendação fundamental tanto para o usuário final como para empresas é simples e direta no sentido de que nem toda informação deve ser compartilhada com as plataformas de IA.
Segundo Tony Sabaj, especialista em cibersegurança e líder de engenharia de canais no escritório do CTO da Check Point Software, existe um descompasso entre a percepção de privacidade e o funcionamento real dessas ferramentas. “Muitos usuários tratam a IA como um ambiente privado, mas na prática estão interagindo com sistemas que coletam e processam dados continuamente”, afirma.
De acordo com o executivo, diversas plataformas armazenam conversas por padrão, o que amplia o risco de exposição de informações sensíveis. Esses dados podem ser analisados, reutilizados e, em alguns casos, incorporados ao treinamento de modelos, dependendo das políticas de uso de cada serviço.
O especialista da Check Point destaca cinco tipos de informações que não devem ser compartilhadas com ferramentas de IA:
- Dados pessoais sensíveis, como CPF, endereço, telefone e documentos oficiais, que podem ser explorados em fraudes e roubo de identidade.
- Informações financeiras, incluindo números de cartão, contas bancárias e dados de pagamento, com potencial de uso indevido.
- Credenciais de acesso, como senhas e códigos de autenticação, que podem comprometer contas pessoais e corporativas.
- Dados corporativos confidenciais, como contratos, estratégias e informações internas, com risco de vazamento e impacto competitivo.
- Conteúdos sigilosos ou protegidos, incluindo informações de clientes e propriedade intelectual, que podem gerar implicações legais e reputacionais.
“Os riscos vão de fraudes financeiras a vazamentos corporativos. O problema não está apenas no uso indevido imediato, mas no fato de que esses dados podem permanecer armazenados e serem reutilizados posteriormente”, ressalta Sabaj.
Para usuários que já compartilharam informações críticas, a recomendação é agir rapidamente, com troca de senhas, revisão de acessos e monitoramento de possíveis usos indevidos. Já no ambiente corporativo, a orientação é reforçar políticas de uso de IA, treinar colaboradores e adotar controles que limitem o compartilhamento de dados críticos.
O avanço da IA amplia ganhos de produtividade e acesso à informação, mas também exige maior atenção à proteção de dados. Por isso, os especialistas reforçam que a adoção segura dessas ferramentas passa por mudança de comportamento, com foco em conscientização e gestão de risco no uso cotidiano.
Veja também:
- Firewall da Cisco de agência federal dos EUA infectado com backdoor ‘Firestarter’
- senhas deixam de ser confiáveis diante de ataques automatizados e uso de IA
- Senac abre portas para o mercado com mais de 50 mil vagas gratuitas
- A vulnerabilidade não está mais no código
- O estado atual do Pentest em 2026
- Brasil 3º Lugar em cantas bancárias comprometidas
- Riscos mais perigosos das empresas hoje não estão nos sistemas,
- Pequenas empresas são as principais vítimas de vazamento de dados
- 5 tendências que estão redefinindo a agenda da Cibersegurança
- Ransomware impede recuperação de dados
- 900 contas de colaboradores da Starbucks
- Crimes cibernéticos crescem 28%


Be the first to comment