O código-fonte de Claude Code parece ter vazado

O código-fonte de Claude Code parece ter vazado: aqui está o que sabemos.

A Anthropic parece ter revelado acidentalmente ao público o funcionamento interno de um de seus produtos de IA mais populares e lucrativos, o sistema de IA Claude Code.

Um arquivo de mapa de origem JavaScript de 59,8 MB ( .map), destinado à depuração interna, foi incluído inadvertidamente na versão 2.1.88 do @anthropic-ai/claude-codepacote no registro público do npm, publicada no início desta manhã.

Às 4h23 da manhã (horário do leste dos EUA), Chaofan Shou (@Fried_rice) , estagiário da Solayer Labs, divulgou a descoberta no X (antigo Twitter). A publicação, que incluía um link direto para download de um arquivo hospedado, serviu como um alerta digital. Em poucas horas, o código-fonte em TypeScript, com cerca de 512.000 linhas, estava replicado no GitHub e analisado por milhares de desenvolvedores.

Para a Anthropic, uma empresa que atualmente experimenta uma ascensão meteórica com uma receita anualizada estimada em US$ 19 bilhões em março de 2026, o vazamento representa mais do que uma falha de segurança; é uma perda estratégica significativa de propriedade intelectual. O momento é particularmente crítico, dada a velocidade de comercialização do produto.

Os dados de mercado indicam que somente a Claude Code alcançou uma receita recorrente anualizada (ARR) de US$ 2,5 bilhões, um valor que mais que dobrou desde o início do ano.

Com a adoção empresarial representando 80% de sua receita, o vazamento fornece aos concorrentes — desde gigantes consolidados até rivais ágeis como a Cursor — um modelo literal de como construir um agente de IA altamente eficaz, confiável e comercialmente viável.

A Anthropic confirmou o vazamento em um comunicado enviado por e-mail por um porta-voz ao VentureBeat, que diz o seguinte:

“Hoje mais cedo, uma versão do Claude Code continha código-fonte interno. Nenhum dado ou credencial sensível de clientes foi envolvido ou exposto. Trata-se de um problema de empacotamento causado por erro humano, e não uma violação de segurança. Estamos implementando medidas para evitar que isso aconteça novamente.”

A anatomia da memória agentiva

A principal vantagem para os concorrentes reside em como a Anthropic resolveu o problema da “entropia contextual” — a tendência dos agentes de IA ficarem confusos ou alucinatórios à medida que as sessões de longa duração se tornam mais complexas.

A fonte vazada revela uma arquitetura de memória sofisticada de três camadas que se afasta da recuperação tradicional do tipo “armazenar tudo”.

Conforme analisado por desenvolvedores como @himanshustwts , a arquitetura utiliza um sistema de “Memória Auto-Recuperável”.

Em sua essência MEMORY.md, trata-se de um índice leve de ponteiros (aproximadamente 150 caracteres por linha) que é carregado perpetuamente no contexto. Esse índice não armazena dados; ele armazena localizações.

O conhecimento real do projeto é distribuído em “arquivos de tópicos” obtidos sob demanda, enquanto as transcrições brutas nunca são totalmente lidas de volta ao contexto, mas simplesmente “buscadas” por identificadores específicos.

Essa “Disciplina de Escrita Rigorosa” — em que o agente deve atualizar seu índice somente após uma gravação de arquivo bem-sucedida — impede que o modelo polua seu contexto com tentativas falhas.

Para os concorrentes, o “plano” é claro: construir uma memória cética. O código confirma que os agentes da Anthropic são instruídos a tratar sua própria memória como uma “dica”, exigindo que o modelo verifique os fatos em relação à base de código real antes de prosseguir.

KAIROS e o demônio autônomo

O vazamento também revela o KAIROS “, o conceito grego antigo de “no momento certo”, um recurso mencionado mais de 150 vezes no código-fonte. O KAIROS representa uma mudança fundamental na experiência do usuário: um modo daemon autônomo.

Embora as ferramentas de IA atuais sejam em grande parte reativas, o KAIROS permite que o Claude Code opere como um agente em segundo plano sempre ativo. Ele gerencia sessões em segundo plano e utiliza um processo chamado autoDream.

Nesse modo, o agente realiza a “consolidação da memória” enquanto o usuário está ocioso. A autoDreamlógica combina observações díspares, remove contradições lógicas e converte percepções vagas em fatos absolutos.

Essa manutenção em segundo plano garante que, quando o usuário retornar, o contexto do agente esteja limpo e altamente relevante.

A implementação de um subagente bifurcado para executar essas tarefas revela uma abordagem de engenharia madura para evitar que o “fluxo de raciocínio” do agente principal seja corrompido por suas próprias rotinas de manutenção.

Modelos internos não divulgados e métricas de desempenho

O código-fonte oferece uma visão rara do roteiro do modelo interno da Anthropic e das dificuldades do desenvolvimento de vanguarda.

O vazamento confirma que Capybara é o codinome interno de uma variante do Claude 4.6, com Fennec correspondendo ao Opus 4.6 e o ​​ainda não lançado Numbat ainda em fase de testes.

Comentários internos revelam que a Anthropic já está trabalhando na versão 8 do Capybara, mas o modelo ainda enfrenta obstáculos significativos. O código aponta uma taxa de falsos positivos de 29 a 30% na versão 8, uma regressão em comparação com a taxa de 16,7% observada na versão 4.

Os desenvolvedores também mencionaram um “contrapeso de assertividade” projetado para impedir que o modelo se torne muito agressivo em suas refatorações.

Para os concorrentes, essas métricas são inestimáveis; elas fornecem um parâmetro do “teto” para o desempenho atual da agência e destacam as fraquezas específicas (excesso de comentários, alegações falsas) que a Anthropic ainda está lutando para resolver.

Claude “Disfarçado”

Talvez o detalhe técnico mais discutido seja o “Modo Secreto”. Esse recurso revela que a Anthropic usa o Claude Code para contribuições “furtivas” a repositórios públicos de código aberto.

O aviso do sistema descoberto no vazamento alerta explicitamente o modelo: “Você está operando DISFARÇADO… Suas mensagens de commit… NÃO DEVEM conter NENHUMA informação interna da Anthropic. Não revele sua identidade secreta.”

Embora a Anthropic possa usar isso para testes internos, fornece uma estrutura técnica para qualquer organização que deseje usar agentes de IA para trabalhos voltados ao público sem divulgação.

A lógica garante que nenhum nome de modelo (como “Tengu” ou “Capivara”) ou atribuição de IA vaze para os registros públicos do Git — uma funcionalidade que os concorrentes corporativos provavelmente considerarão obrigatória para seus próprios clientes corporativos que valorizam o anonimato no desenvolvimento assistido por IA.

As consequências estão apenas começando.

O “projeto” já foi divulgado e revela que o Claude Code não é apenas uma camada sobre um Modelo de Linguagem Amplo, mas sim um sistema operacional complexo e multithread para engenharia de software.

Até mesmo o sistema oculto “Buddy” — um animal de estimação virtual no estilo Tamagotchi com atributos como [exemplo de atributo] CHAOSSNARKmostra que a Anthropic está incorporando “personalidade” ao produto para aumentar a fidelização do usuário.

Para o mercado de IA em geral, o vazamento efetivamente nivela o campo de atuação para a orquestração de agentes.

Os concorrentes agora podem estudar as mais de 2.500 linhas de lógica de validação bash da Anthropic e suas estruturas de memória em camadas para construir agentes “tipo Claude” com uma fração do orçamento de P&D.

Com a saída do protótipo “Capivara” do laboratório, a corrida para construir a próxima geração de agentes autônomos acaba de receber um impulso inesperado de US$ 2,5 bilhões em inteligência coletiva.

O que os usuários do Claude Code e clientes corporativos devem fazer agora em relação ao suposto vazamento

Embora o vazamento do código-fonte em si seja um grande golpe para a propriedade intelectual da Anthropic, ele representa um risco de segurança específico e elevado para você como usuário.

Ao expor os “projetos” do Código Claude, a Anthropic entregou um roteiro para pesquisadores e criminosos cibernéticos que agora buscam ativamente maneiras de burlar as medidas de segurança e os pedidos de permissão.

Como o vazamento revelou a lógica exata de orquestração dos servidores Hooks e MCP, os atacantes agora podem projetar repositórios maliciosos especificamente adaptados para “enganar” o Claude Code, fazendo com que ele execute comandos em segundo plano ou exfiltre dados antes mesmo de você ver uma solicitação de confiança.

O perigo mais imediato, no entanto, é um ataque simultâneo e independente à cadeia de suprimentos do axiospacote npm, que ocorreu horas antes do vazamento.

Se você instalou ou atualizou o Claude Code via npm em 31 de março de 2026, entre 00:21 e 03:29 UTC, você pode ter instalado inadvertidamente uma versão maliciosa do axios (1.14.1 ou 0.30.4) que contém um Trojan de Acesso Remoto (RAT). Você deve procurar imediatamente nos arquivos de bloqueio do seu projeto ( package-lock.json, yarn.lock, ou bun.lockb) por essas versões específicas ou pela dependência plain-crypto-js. Se encontradas, considere a máquina host como totalmente comprometida, rotacione todos os segredos e realize uma reinstalação limpa do sistema operacional.

Para mitigar riscos futuros, você deve migrar completamente da instalação baseada em npm. A Anthropic designou o Native Installer ( curl -fsSL https://claude.ai/install.sh | bash) como o método recomendado porque ele usa um binário independente que não depende da cadeia de dependências volátil do npm.

A versão nativa também oferece suporte a atualizações automáticas em segundo plano, garantindo que você receba patches de segurança (provavelmente a versão 2.1.89 ou superior) assim que forem lançados. Se você precisar continuar usando o npm, certifique-se de desinstalar a versão vazada 2.1.88 e fixar sua instalação em uma versão segura e verificada, como a 2.1.86.

Por fim, adote uma postura de confiança zero ao usar o Claude Code em ambientes desconhecidos. Evite executar o agente em repositórios recém-clonados ou não confiáveis ​​até que você tenha inspecionado manualmente o arquivo de .claude/config.jsonconfiguração e quaisquer hooks personalizados.

Como medida de defesa em profundidade, alterne suas chaves de API da Anthropic por meio do console do desenvolvedor e monitore seu uso em busca de anomalias. Embora seus dados armazenados na nuvem permaneçam seguros, a vulnerabilidade do seu ambiente local aumentou agora que as defesas internas do agente são de conhecimento público; manter-se atualizado com a versão oficial instalada nativamente é sua melhor defesa.

Fonte: VentureBeat

Clique e fale com representante oficial Cibercoah

Veja também:

 

About mindsecblog 3494 Articles
Blog patrocinado por MindSec Segurança e Tecnologia da Informação Ltda.

Be the first to comment

Deixe sua opinião!