Funcionários podem expor dados confidenciais usando IA. Ao utilizar IA, funcionários podem compartilhar dados comerciais confidenciais sem se aperceberem
Ao usar aplicativos de IA para otimizar seu trabalho, os funcionários podem colocar em risco informações financeiras da empresa, dados confidenciais de clientes, senhas, propriedade intelectual e arquivos confidenciais, entre outras coisas.
A empresa de segurança de aplicações SaaS, Indusface, interessou-se em aprofundar esse tema e revelar os dados mais comuns que os profissionais compartilham com a IA e as implicações que isso pode ter para indivíduos e empresas.
Principais dados pessoais que os profissionais mais compartilham com a IA e os potenciais riscos incluem:
1. Arquivos e documentos relacionados ao trabalho
Uma das categorias mais comuns de informações compartilhadas com a IA são arquivos e documentos de trabalho. Mais de 80% dos profissionais em empresas da Fortune 500 utilizam ferramentas de IA, como o ChatGPT, para auxiliar em tarefas como análise de números, refinamento de e-mails, relatórios e apresentações.
No entanto, 11% dos dados que os funcionários inserem no ChatGPT são estritamente confidenciais, como estratégias internas de negócios, sem compreender totalmente como a plataforma processa esses dados. Recomenda-se, portanto, remover informações sensíveis ao inserir comandos de pesquisa em ferramentas de IA.
2. Detalhes pessoais
Detalhes pessoais, como nomes, endereços e informações de contato, são frequentemente compartilhados com ferramentas de IA diariamente. Surpreendentemente, 30% dos profissionais acreditam que proteger seus dados pessoais não vale o esforço, indicando uma crescente sensação de impotência e falta de treinamento.
O acesso ao treinamento em cibersegurança aumentou pela primeira vez em quatro anos, com 1 em cada 3 (33%) participantes utilizando-o e 11% tendo acesso, mas não o utilizando. Para que as empresas permaneçam seguras contra ameaças cibernéticas, é importante realizar treinamentos de cibersegurança para a equipe, capacitando-os no uso seguro da IA.
3. Informações de clientes ou funcionários
Informações de clientes, incluindo dados que podem estar sob requisitos regulatórios ou de confidencialidade, são frequentemente compartilhadas com a IA por profissionais.
Para os proprietários de empresas ou gerentes que utilizam a IA para informações de funcionários, é importante ter cuidado ao compartilhar detalhes bancários, folhas de pagamento, endereços ou até mesmo avaliações de desempenho, pois isso pode violar políticas contratuais e levar a vulnerabilidades organizacionais devido a possíveis ações legais se dados sensíveis de funcionários forem vazados.
4. Informações financeiras
Modelos de linguagem de grande escala (LLMs) são frequentemente utilizados e são cruciais para muitas aplicações de IA generativa, como assistentes virtuais e chatbots de conversação. Isso pode ser feito por meio de modelos do OpenAI, Google Cloud IA e muitos outros.
No entanto, os dados que ajudam a treinar os LLMs geralmente são obtidos por meio de rastreadores da web que coletam informações de sites. Esses dados são frequentemente obtidos sem o consentimento dos usuários e podem conter informações pessoalmente identificáveis (PII).
Outros sistemas de IA que fornecem experiências personalizadas aos clientes também podem coletar dados pessoais. Recomenda-se garantir que os dispositivos utilizados ao interagir com LLMs sejam seguros, com proteção antivírus completa para proteger as informações antes de serem compartilhadas, especialmente ao lidar com informações financeiras sensíveis de negócios.
5. Senhas e credenciais de acesso
Modelos de IA são projetados para fornecer compreensões, mas não para guardar senhas com segurança, o que pode resultar em exposição não intencional, especialmente se a plataforma não possuir medidas rigorosas de privacidade e segurança.
Evite utilizar senhas que possam ter sido usadas em vários sites, pois isso pode resultar em uma violação em várias contas. A importância de usar senhas fortes, com múltiplos símbolos e números, nunca foi tão crucial, além de ativar a autenticação de dois fatores para proteger as contas e mitigar o risco de ataques cibernéticos.
6. Bases de código da empresa e propriedade intelectual (PI)
Desenvolvedores e funcionários recorrem cada vez mais à IA para assistência em codificação; no entanto, compartilhar bases de código da empresa pode representar um grande risco de segurança, pois constitui a principal propriedade intelectual de um negócio. Se o código-fonte proprietário for inserido em plataformas de IA, ele pode ser guardado, processado ou até mesmo usado para treinar futuros modelos de IA, potencialmente expondo segredos comerciais a entidades externas.
As empresas devem, portanto, implementar políticas rigorosas de uso de IA para garantir que códigos sensíveis permaneçam protegidos e nunca sejam compartilhados externamente. Além disso, o uso de modelos de IA auto-hospedados ou ferramentas de IA seguras e aprovadas pela empresa pode ajudar a mitigar os riscos de vazamento de propriedade intelectual
Fonte: Computerweekly por Lizzette B. Pérez Arbesú,

Veja também:
- Empresas evitam dizer ataque cibernético foi Ransomware
- Deepfakes e malwares são ameaças para ficar atento em 2025
- Falhas do OpenSSH expõem servidores SSH a ataques MiTM e DoS
- Cibercriminosos aprimoram novos golpes usando AI
- IA e cibersegurança
- O que há por trás do DeepSeek quanto aos riscos de segurança
- Da defesa reativa à proativa
- DeepSeek é utilizado para distribuir malware em sites falsos
- Ataques de ransomware contra o setor da saúde cresceram 146%
- Reduzindo riscos de terceiros: PCI DSS 4.0 e prevenção de ataques à cadeia de suprimentos
- Banco Neon é hackeado e 30Milhões de clientes são afetados
- Cibercrime ameaça mais de meio milhão de Smart TVs
Be the first to comment