A Era do Racionamento de IA: Anthropic Limita o Claude

Parece cena de um filme como Her, mas é o boletim de ocorrências do Vale do Silício em 2025. A Anthropic, uma das potências na corrida da inteligência artificial, anunciou que vai puxar o freio de mão em sua mais celebrada criação, o Claude. A partir de 28 de agosto, o acesso à IA será limitado. O motivo? Uma pequena, porém voraz, parcela de usuários transformou o assistente digital em um companheiro simbiótico, utilizando-o 24 horas por dia, 7 dias por semana, e testando os limites não só da tecnologia, mas da própria infraestrutura da companhia.

A Máquina que se Tornou Indispensável Demais

Em um comunicado publicado na rede social X, a Anthropic revelou o cerne do problema: “alguns dos maiores fãs do Claude Code o utilizam continuamente em segundo plano, 24 horas por dia, 7 dias por semana”. Essa devoção, quase uma co-dependência digital, gerou um consumo de recursos que a startup admitiu não conseguir mais suportar. O caso mais emblemático, segundo a empresa, foi o de um único usuário que, em um plano de meros US$ 200, “consumiu dezenas de milhares de dólares em uso de modelo”. É a clássica história do gênio saindo da lâmpada e começando a cobrar aluguel.

A medida, de acordo com a Anthropic, foi desenhada para ser cirúrgica, afetando apenas cerca de 5% dos usuários atuais. Ainda assim, representa um momento marcante: a primeira vez que uma IA de ponta se torna vítima do próprio sucesso, forçando sua criadora a impor um racionamento para garantir a estabilidade do ecossistema para todos os outros.

As Novas Regras do Jogo Digital

Para colocar a casa em ordem, a Anthropic detalhou ao site TechCrunch como funcionarão as novas franquias de uso. Os limites, que entram em vigor no final de agosto, variam conforme o plano de assinatura e o modelo de IA utilizado. A nova realidade será a seguinte:

  • Plano Pro (US$ 20/mês): Dará direito a algo entre 40 a 80 horas de uso do modelo Sonnet 4 através do Claude Code.
  • Plano Max (US$ 100 e US$ 200/mês): Oferecerá de 140 a 280 horas do Sonnet 4 e, para tarefas mais pesadas, de 15 a 35 horas do poderoso modelo Opus 4.
  • Plano Superior: Os assinantes deste tier terão de 240 a 480 horas de Sonnet 4 e de 24 a 40 horas de Opus 4.

Além de gerenciar a sobrecarga, a empresa afirmou que a mudança também visa combater um “pequeno número de usuários” que estaria violando as políticas ao compartilhar e revender contas, uma prática que, segundo a startup, “afeta a capacidade de todos os usuários do Claude”.

Rebelião ou Alívio na Rede?

A reação da comunidade no X foi imediatamente polarizada, dividindo os usuários entre a fúria e a compreensão. Um usuário mais exaltado previu um futuro sombrio: “A Anthropic está afastando seus usuários mais poderosos, que também são seus embaixadores mais ávidos da marca. Eles irão para outros provedores, o que pode muito bem desencadear uma queda da Anthropic”.

Do outro lado do espectro, um usuário demonstrou alívio: “Apoio totalmente isso! Isso me faz sentir menos frustrado quando não tenho o Claude em execução durante meu horário de trabalho”. Um terceiro, mais pragmático, sugeriu uma alternativa: “Cancelar todos os pacotes de assinatura, unificar o uso do modo de cobrança da API e reduzir o custo dos tokens. Que tal isso? Pelo menos não seremos restringidos”.

O Fantasma da Máquina Já Dava Sinais

A decisão da Anthropic não surgiu do vácuo. Conforme reportado pelo TechCrunch, usuários do Claude já vinham enfrentando limites de uso inesperados desde o início de julho, sem qualquer aviso prévio. As mensagens de “limite foi atingido” se tornaram frequentes, causando frustração. “Não tem como eu atingir 900 mensagens em 30 minutos de algumas solicitações”, reclamou um assinante na época. A própria página de status da Anthropic confirma a instabilidade: o Claude Code sofreu pelo menos sete interrupções parciais ou graves apenas no último mês.

Bem-vindo à Crise Energética da IA

O que a Anthropic enfrenta hoje é menos um problema de gestão de servidores e mais um prólogo para o futuro da nossa relação com a inteligência artificial. Estamos testemunhando o fim da era da inocência digital, onde o poder computacional parecia um recurso infinito. A decisão da Anthropic pode ser a primeira de muitas “políticas de racionamento de IA” que veremos surgir. Assim como aprendemos a gerenciar nosso consumo de água e energia, talvez o próximo grande desafio da humanidade seja gerenciar nosso tempo de 'consciência digital'. O futuro chegou e, pelo visto, ele vem com uma franquia de dados para pensar.