Na última terça‑feira (09), a Anthropic lançou uma função no assistente Claude que permite criar e analisar arquivos — como planilhas do Excel e apresentações do PowerPoint — diretamente dentro das conversas.
Como funcionou
A ferramenta, chamada “Criação e análise de arquivos atualizadas”, funcionou de forma parecida com o Code Interpreter do ChatGPT e foi disponibilizada em pré‑visualização para assinantes dos planos Max, Team e Enterprise. A empresa informou que os assinantes Pro devem receber acesso nas próximas semanas.
O recurso rodou em um ambiente sandbox que dava ao Claude acesso à internet para baixar pacotes e executar código. Segundo a própria Anthropic, isso abriu margem para vulnerabilidades e risco de exposição de dados confidenciais.
“pode colocar os dados em risco”, disse a Anthropic.
Mas isso é seguro? A companhia alertou que agentes mal‑intencionados poderiam explorar ataques de injeção de prompt para extrair informações sensíveis. Em testes internos não foram encontrados casos comprovados de vazamento, mas a Anthropic recomendou que os usuários monitorassem de perto as interações do Claude e interrompessem atividades suspeitas — orientação que foi criticada por especialistas como Simon Willison, por transferir responsabilidade demais para o usuário.
Medidas de mitigação
Para reduzir os riscos, a empresa implementou várias barreiras:
- classificadores para detectar injeções maliciosas;
- isolamento de sandbox para clientes empresariais;
- limitação do tempo de execução;
- bloqueio do compartilhamento público de chats que utilizassem a criação de arquivos.
- O Claude ficou restrito a uma lista limitada de domínios, como GitHub e PyPI;
- administradores corporativos podem optar por habilitar ou não a função dentro de suas organizações.
A Anthropic disse que mantém testes contínuos de segurança e exercícios de red‑teaming. A recomendação final foi clara: cada organização deve avaliar os riscos antes de liberar o novo recurso para seus usuários.