O momento agridoce do Claude: Queda de desempenho e um modelo secreto assustador
Se você trabalha com redes, gerencia um homelab ou simplesmente escreve código todo dia, o Claude provavelmente virou seu copiloto principal. E faz sentido. A ferramenta de linha de comando (Claude Code) provou ser um monstro para resolver dores de cabeça de configuração, muitas vezes superando a fluidez do ChatGPT ou do Gemini.
Mas, se você sentiu que ultimamente a IA tem dado respostas mais preguiçosas ou incompletas, saiba que você não está ficando louco.
O fenômeno da "Shrinkflation" na IA
Nas últimas semanas, a comunidade de desenvolvedores começou a reclamar bastante sobre uma queda evidente no desempenho do Claude. Não é que a ferramenta parou de funcionar, mas parece que ela ficou "com preguiça".
Engenheiros e executivos de empresas grandes relataram no GitHub que o modelo está perdendo o rigor. Em vez de fazer aquele raciocínio passo a passo profundo que a gente estava acostumado, o Claude agora tende a ler os problemas por cima e dar respostas rápidas, mas superficiais. No setor, o pessoal já está chamando isso de shrinkflation (reduflação): você paga o mesmo, mas recebe um modelo com menor capacidade de análise profunda, provavelmente para a empresa economizar processamento. Para quem configura infraestruturas de rede complexas, isso significa que não dá mais para confiar cegamente no código dele sem revisar com lupa.
Mythos: A IA que a Anthropic não quer que você use
Enquanto a comunidade lida com essas quedas de qualidade, a Anthropic acabou de soltar uma bomba no mundo da segurança da informação. No início deste mês, eles confirmaram a existência do Claude Mythos, um modelo tão avançado que eles decidiram bloquear o acesso ao público geral.
O Mythos não é uma IA de bate-papo normal. Ele foi criado especificamente para auditar código e encontrar vulnerabilidades de segurança de forma autônoma. Em testes fechados, ele conseguiu detectar em horas falhas zero-day que levariam meses para equipes humanas de elite encontrarem.
Por que isso é um problema? Porque se o Mythos cair em mãos erradas, ele literalmente automatiza o trabalho de um hacker. Ele poderia escanear infraestruturas bancárias ou sistemas críticos e criar exploits na mesma hora. Por causa disso, a Anthropic restringiu a IA através de um programa fechado chamado Projeto Glasswing, dando acesso apenas para gigantes como Google, JPMorgan Chase e CrowdStrike, para que eles possam defender seus sistemas antes que essa tecnologia fuja do controle.
E agora?
Estamos num momento estranho com o Claude. De um lado, temos uma ferramenta pública sofrendo de preguiça em tarefas pesadas, forçando os engenheiros a buscar alternativas para o trabalho crítico. Do outro, a Anthropic tem trancado a sete chaves um modelo com capacidades técnicas assustadoras.
Se você usa o Claude para o seu homelab ou para resolver problemas de rede, a dica agora é simples: use para acelerar a criação de scripts ou configurações de rotina, mas mantenha o ceticismo em alta quando for pedir para ele raciocinar sobre arquiteturas complexas.
