Avaliando se o DeepSeek é seguro para uso na empresa

Avaliando se o DeepSeek é seguro para uso na empresa. 

O provedor de inteligência artificial ganhou popularidade com seu modelo de raciocínio. No entanto, devido às tensões geopolíticas e aos testes de segurança, há dúvidas sobre se as empresas devem usá-lo.

A startup chinesa de IA generativa DeepSeek obteve sucesso nas últimas semanas desde o lançamento de seu novo modelo de raciocínio DeepSeek-R1. No entanto, ele enfrentou desafios que levaram alguns especialistas em inteligência artificial (IA) a questionar se o modelo é seguro para uso empresarial.

DeepSeek também sofreu ataques maliciosos em larga escala em 27 de janeiro, que o forçaram a limitar o registro de usuários. Relatórios recentes revelaram que o DeepSeek sofreu vários ataques DDoS desde o lançamento do modelo em 20 de janeiro. Ataques DDoS são ataques cibernéticos que interrompem o tráfego para um servidor, tornando-o inacessível.

Os ataques por si só destacam preocupações sobre a segurança da tecnologia dos fornecedores, e as empresas devem ser cautelosas, disse Bradley Shimmin, analista da Omdia, uma divisão da Informa TechTarget.

“Não entre no DeepSeek, simplesmente não faça isso”, disse Shimmin. “Parece que eles precisam nos provar que podem proteger seus serviços.”

A startup chocou as comunidades de tecnologia do Ocidente e do Extremo Oriente quando seu modelo de código aberto DeepSeek-R1 gerou uma onda tão grande que o DeepSeek pareceu desafiar a Nvidia, a OpenAI e até mesmo a gigante chinesa de tecnologia Alibaba.

Dias após o lançamento do DeepSeek-R1, o preço das ações da Nvidia despencou no mercado de ações dos EUA. O DeepSeek substituiu o ChatGPT da OpenAI como o aplicativo gratuito mais baixado na App Store da Apple. Em resposta, o Alibaba lançou seu mais recente modelo, o Qwen 2.5 Max, um dia antes do feriado do Ano Novo Chinês, mostrando o pânico que o DeepSeek causou até mesmo na China.

Dados e China

Além da falha em proteger seus servidores, o fato de a DeepSeek ser uma fornecedora chinesa que precisa cumprir a Lei de Proteção de Informações Pessoais (PIPL) da China também é preocupante, de acordo com a CEO e cofundadora da Nemertes, Johna Till Johnson.
PIPL regula o manuseio de informações pessoais e se aplica a organizações e indivíduos que processam informações de identificação pessoal, tanto dentro quanto fora da China. Também permite que o governo chinês acesse e examine dados mantidos por empresas dentro de sua jurisdição em circunstâncias específicas.
Como provedor de IA e nuvem, a DeepSeek coleta dados do usuário, como uso, direções e informações sobre os parceiros dos usuários.
“Se você fizer login no Google, ele obtém tudo do Google — é legalmente permitido fazer isso e tudo isso fica na China”, disse Shimmin.
Por isso, Johnson disse que as empresas devem evitar os sistemas e ferramentas de IA da DeepSeek.
“Qualquer empresa que, por qualquer motivo, acredite estar trabalhando com qualquer tipo de informação sensível, o que praticamente todas as empresas fazem, não deveria usar uma ferramenta que envia automaticamente esses dados para o que é considerado nos Estados Unidos um estado-nação hostil”, disse ele. “Eu não chegaria perto disso.”
No entanto, os argumentos sobre vazamento e uso de dados também podem ser aplicados a outros fornecedores de IA, como a OpenAI, disse Tim Dettmers, cientista pesquisador do Allen Institute for AI, um laboratório de pesquisa de IA sem fins lucrativos.
“Se você enviar dados de usuários, eles usarão isso para melhorar o modelo”, disse Dettmers.
Além do potencial de vazamento de dados para a China, o modelo DeepSeek-R1 foi treinado com uma visão de mundo chinesa, levantando preocupações devido ao governo autoritário do país e às incursões bem documentadas na privacidade de seus cidadãos.
“É consistente com a visão de mundo do governo chinês”, disse Mike Mason, diretor de inteligência artificial na consultoria de IA e TI Thoughtworks. O modelo responderá com base em sua visão de mundo se for feita uma pergunta específica, disse ele.
“Dependendo do caso de uso, você pode se preocupar com preconceito cultural ou de visão de mundo”, continuou Mason. “Se você estiver usando-o para gerar código de programa de software, talvez não se importe.”
No entanto, Dettmers disse que é muito cedo para entender completamente o processo de raciocínio do modelo.
“É algo que precisamos resolver e, como o DeepSeek é aberto, agora podemos fazer isso”, disse ele. “Se você compartilha as coisas abertamente, pode descobrir rapidamente como torná-las seguras, mas isso significa que no começo é um período em que as coisas estão menos alinhadas.”
Enquanto isso, a OpenAI, com cujo modelo o1 DeepSeek-R1 foi comparado, é sigilosa sobre como seus modelos pensam, acrescentou Dettmers.
Os modelos de código aberto são voltados para o que as empresas desejam: modelos que elas podem controlar.
A DeepSeek não respondeu imediatamente ao pedido de comentário da TechTarget News.

Falhas nos testes de segurança

Apesar da estrutura de código aberto do DeepSeek, o modelo R1 falhou em alguns testes de segurança, reforçando o argumento de que as empresas devem ficar longe.
Por exemplo, pesquisadores da Universidade da Pensilvânia e do provedor de comunicações digitais Cisco descobriram que o R1 teve uma taxa de sucesso de ataque de 100% quando testado contra 50 mensagens aleatórias abrangendo seis categorias de comportamento prejudicial, incluindo crimes cibernéticos, desinformação, atividades ilegais e danos gerais. O modelo não bloqueou nenhuma das mensagens prejudiciais, de acordo com os pesquisadores.
Além disso, a Chatterbox Labs, uma fornecedora especializada em medição quantitativa de risco de IA, usou sua plataforma AIMI, uma ferramenta automatizada de teste de segurança de IA, para testar o DeepSeek-R1 em categorias como fraude, discurso de ódio, atividade ilegal, segurança e malware. O DeepSeek-R1 não passou nos testes de segurança em nenhuma das categorias.
No entanto, o Chatterbox comparou os resultados do DeepSeek com os do Google Gemini 2.0 Flash — modelo de raciocínio do Google — e do OpenAI o1-preview. O Gemini 2.0 Flash também falhou no teste de segurança, com o modelo OpenAI passando apenas em três categorias.
“Mas o que queremos transmitir às organizações é que elas precisam testar essas coisas”, disse Stuart Battersby, diretor de tecnologia da Chatterbox Labs. “Não importa qual modelo elas usam. Elas não podem confiar que essas coisas sejam seguras.”

O sistema AIMI do Chatterbox Labs executou um teste de segurança em modelos de raciocínio do DeepSeek, OpenAI e Google.
 

Usando um terceiro

Alguns especialistas em IA sugeriram que seria melhor acessar o DeepSeek por meio de um serviço de hospedagem de terceiros.

“Você pode optar por provedores de hospedagem que o hospedem nos Estados Unidos”, disse Shimmin. AWS, Microsoft Azure e outros hospedam o modelo em suas plataformas. “Se você usar esses modelos, escolha um provedor de nuvem confiável.”

A diferença entre executar o modelo você mesmo e usar um provedor de hospedagem confiável é significativa, disse Mason.

“Se você for, digamos, ao AWS Bedrock e usar o DeepSeek no Bedrock, você não estará mais enviando seus dados para a China”, disse ele, referindo-se à plataforma de inteligência artificial generativa e aprendizado de máquina da Amazon.”

No entanto, as empresas ainda precisam tomar precauções, independentemente dos meios que utilizam para acessar o modelo.

“Qualquer modelo que você decidir usar, você deve submetê-lo aos testes que estabeleci para práticas de IA responsáveis”, disse Shimmin. “É seguro? Posso protegê-lo? Se alguém tentar desbloquear meu modelo, ele tem proteções integradas?”

Testar o modelo uma vez também não é suficiente porque os modelos mudam e iteram continuamente, disse Battersby.

“Para chegar a um ponto em que seja seguro para sua organização, você precisa fazer testes iterativos e contínuos, atualizar suas proteções, atualizar seus modelos [e] se adaptar a quaisquer mudanças feitas externamente à sua organização”, disse ele.

Fonte: ComputerWeekly por Esther Shittu é redatora de notícias e apresentadora de podcast da Informa TechTarget, cobrindo software e sistemas de inteligência artificial.


Veja também:

About mindsecblog 2931 Articles
Blog patrocinado por MindSec Segurança e Tecnologia da Informação Ltda.

Be the first to comment

Deixe sua opinião!