Comece a treinar seu modelo de IA Claude em seus dados em breve: veja como cancelar a assinatura antes do prazo

O que você precisa fazer para dizer "não"

A Anthropic, uma desenvolvedora de IA, está conduzindo... Claude... está implementando uma mudança fundamental na forma como lida com os dados dos usuários. A partir de hoje, os usuários do Claude poderão escolher entre permitir que a Anthropic use suas conversas para treinar futuros modelos de IA ou optar por não participar e manter seus dados privados. Se você não decidir até 28 de setembro de 2025, perderá completamente o acesso ao Claude.

Claude no laptop

Anteriormente, a Anthropic adotava uma abordagem que priorizava a privacidade, o que significava que seus chats e tokens eram excluídos automaticamente após 30 dias, a menos que necessário por motivos legais. No entanto, a partir de hoje, a menos que você opte por não participar, seus dados serão armazenados por até cinco anos e utilizados em sessões de treinamento para ajudar Claude a se tornar mais inteligente.

A nova política se aplica a todos os planos, incluindo Free, Pro e Max, bem como ao Cloud Code dentro desses níveis. Usuários empresariais, governamentais, educacionais e de API não são afetados.

Mecanismo de ação

Ao se cadastrar, novos usuários terão a opção de consentir com o uso de seus dados para melhorar o desempenho do modelo Claude AI. Usuários existentes verão uma janela pop-up intitulada "Atualizações dos Termos e Políticas do Consumidor". Ao tocar no grande botão azul "Concordo", a aceitação será automática, enquanto um botão de alternância menor permite que os usuários desativem esse recurso.

Se você ignorar esta janela, o Claude deixará de funcionar após 28 de setembro. É importante observar que essa alteração afeta apenas conversas e códigos futuros. Tudo o que você escreveu no passado só será usado se você reabrir essas conversas. E se você excluir uma conversa, ela não será usada para treinamento.

Você pode alterar sua decisão posteriormente nas configurações de privacidade. No entanto, uma vez que os dados são usados ​​para treinamento, eles não podem ser recuperados. É importante entender esse mecanismo para proteger sua privacidade e seus dados ao usar a Nuvem.

Por que a Anthropic está fazendo essa mudança?

Dario Amodei, CEO da Anthropic

A Anthropic afirma que os dados do usuário são essenciais para melhorar o desempenho de seu modelo de linguagem Claude em diversas áreas, desde "codificação de vibração" e programação tradicional até recursos de inferência e manutenção de padrões de segurança. A Anthropic enfatiza que não vende esses dados a terceiros e, em vez disso, utiliza filtros automatizados para remover informações confidenciais antes de usá-las para treinar seus modelos.

No entanto, essa mudança representa uma mudança no equilíbrio da privacidade, passando da privacidade padrão para o compartilhamento de dados padrão, a menos que o usuário se oponha explicitamente. Em outras palavras, seus dados serão coletados e usados ​​por padrão para aprimorar o Claude, e você deverá tomar medidas para impedir isso caso prefira não compartilhar seus dados. Essa mudança visa aprimorar os recursos de IA do Claude, aproveitando os dados do usuário, ao mesmo tempo em que reforça o compromisso da Anthropic em proteger a privacidade do usuário por meio de mecanismos de filtragem de dados sensíveis.

Qual é a sua escolha?

A decisão da Anthropic de colocar Claude em um caminho mais rápido para melhorar os dados do mundo real com os quais ele treina significa que quanto melhor o modelo ficar em responder perguntas complexas, escrever código e evitar erros, mais ele avançará a IA.

No entanto, esse progresso tem o custo de usuários que agora podem se tornar parte de um conjunto de treinamento, com seus dados armazenados por anos em vez de semanas.

Para usuários comuns, isso pode não parecer grande coisa. Mas para usuários preocupados com a privacidade, ou qualquer pessoa que discuta projetos de trabalho, assuntos pessoais ou informações confidenciais na Nuvem, esta atualização pode ser um sinal de alerta.

Com a configuração padrão ativada, agora é sua responsabilidade desabilitar esta opção se quiser manter seus dados privados.

Comentários estão fechados.