Anthropic exige que usuários decidam se compartilham conversas para treinar inteligência artificial até 28 de setembro.
Home » Anthropic define prazo para usuários participarem no treinamento de inteligência artificial
Anthropic exige que usuários decidam se compartilham conversas para treinar inteligência artificial até 28 de setembro.
A Anthropic anunciou mudanças significativas em sua política de dados. Usuários dos planos Claude Free, Pro e Max terão até 28 de setembro para decidir se permitem que suas conversas sejam usadas no treinamento de modelos de inteligência artificial. Caso não optem pela exclusão, seus dados poderão ser armazenados por até cinco anos.
Antes, a Anthropic não utilizava dados de chats de consumidores para treinar modelos. Agora, além de coletar conversas, a empresa ampliará o período de retenção de informações. Até então, as interações eram excluídas automaticamente em 30 dias, com exceções para violações de política, que poderiam ser mantidas por até dois anos.
Importante: clientes corporativos — como Claude Gov, Claude for Work, Claude for Education e usuários via API — permanecem fora dessa política, à semelhança da forma como a OpenAI trata contas empresariais.
Segundo a própria Anthropic, ao não optar pela exclusão, usuários estarão “ajudando a melhorar a segurança dos modelos e suas habilidades de análise, raciocínio e programação”. Mas, na prática, a medida atende à necessidade crescente da empresa de obter grandes volumes de dados reais para competir com rivais como Google e OpenAI.
As mudanças reacendem debates sobre transparência e consentimento. O novo design da tela de aceite destaca um grande botão preto “Accept”, enquanto a opção de desativar o compartilhamento de dados aparece em menor destaque, já ativada por padrão. Críticos alertam que muitos podem aceitar sem perceber que estão concordando com o uso de suas informações.
Especialistas em privacidade afirmam que a complexidade desses sistemas torna o “consentimento informado” quase impossível. A FTC, sob o governo Biden, já havia advertido que mudanças ocultas ou mal explicadas em termos de uso podem gerar sanções regulatórias.
As alterações da Anthropic seguem um movimento mais amplo na indústria. A OpenAI, por exemplo, enfrenta uma ordem judicial que obriga a retenção de todas as conversas do ChatGPT — mesmo as deletadas — devido a processos movidos por veículos de imprensa como o New York Times. O episódio expôs como a gestão de dados de IA está cada vez mais sujeita a disputas legais e pressões regulatórias.
O resultado é um cenário de incertezas para usuários comuns, que muitas vezes não percebem que os termos de serviço mudaram. Enquanto isso, as empresas de IA avançam em busca de dados que impulsionem o desenvolvimento de modelos mais sofisticados de inteligência artificial.
Paulo Júnio de Lima é Administrador com MBA em Marketing Digital e especialista em estratégia, inovação e gestão de projetos. Na Comunicação e Relações Públicas da Grande Loja Maçônica de Minas Gerais, desenvolve soluções para fortalecimento institucional. Com passagens por ORO, Agência Open, Brasil84 e VTIC, acumula experiência em marketing digital, branding e transformação digital. Certificado pelo IA Lab do Estúdio Kimura, aplica inteligência artificial em design, automação e comunicação. Membro ativo da Ordem DeMolay há mais de 18 anos, atua também em projetos sociais e educacionais.
O futuro acontece aqui: esteja entre os primeiros a receber insights, tendências e oportunidades que moldam o mercado.
Receba em primeira mão os movimentos do mercado da inteligência artificial
em nossa newsletter com nossa curadoria e conteúdos autorais: notícias mais relevantes,
destaques da semana, análises de nossos especialistas e colunas recomendadas.
+15.587 profissionais já assinaram