El estado agridulce de Claude: Caída de rendimiento y un modelo secreto que asusta
Si trabajas en redes, administras un homelab o simplemente tiras código a diario, seguramente Claude se ha convertido en tu copiloto de cabecera. Y tiene sentido. La herramienta de línea de comandos (Claude Code) ha demostrado ser una bestia para resolver dolores de cabeza de configuración, superando muchas veces la fluidez de ChatGPT o Gemini.
Sin embargo, si has sentido que últimamente la IA te está dando respuestas más flojas o incompletas, no estás loco.
El fenómeno del "Shrinkflation" en la IA
En las últimas semanas, la comunidad de desarrolladores ha levantado la voz sobre una evidente caída en el rendimiento de Claude. No es que la herramienta deje de funcionar, sino que parece haberse vuelto "perezosa".
Ingenieros y directivos de empresas tecnológicas han reportado en GitHub que el modelo está perdiendo rigor. En lugar de hacer un razonamiento paso a paso profundo, como nos tenía acostumbrados, Claude ahora tiende a escanear los problemas por encima y dar respuestas rápidas pero superficiales. En el sector, a esto ya le llaman shrinkflation (reduflación): pagas lo mismo, pero recibes un modelo con menor capacidad de análisis profundo para que la empresa ahorre costos de procesamiento. Para quienes configuran infraestructuras de red complejas, esto significa que ya no puedes confiar a ciegas en su código sin revisarlo con lupa.
Mythos: La IA que Anthropic no quiere que uses
Mientras la comunidad lidia con estos bajones de calidad en su herramienta de uso diario, Anthropic acaba de soltar una bomba en el ámbito de la ciberseguridad. A principios de este mes, confirmaron la existencia de Claude Mythos, un modelo tan avanzado que han decidido bloquear su acceso al público general.
Mythos no es una IA conversacional normal. Está diseñada específicamente para auditar código y encontrar vulnerabilidades de seguridad de forma autónoma. En pruebas cerradas, logró detectar en horas fallos zero-day que a equipos humanos de élite les tomaría meses identificar.
¿Por qué es un problema? Porque si Mythos cae en manos equivocadas, literalmente automatiza el trabajo de un hacker. Podría escanear infraestructuras bancarias o sistemas críticos y crear exploits al instante. Por eso, Anthropic lo ha restringido bajo un programa cerrado llamado Proyecto Glasswing, dándole acceso solo a gigantes como Google, JPMorgan Chase y CrowdStrike para que defiendan sus sistemas antes de que esta tecnología se vuelva incontrolable.
¿Y ahora qué?
Estamos en un punto raro con Claude. Por un lado, tenemos una herramienta pública que sufre de pereza en tareas pesadas, obligando a los ingenieros a buscar alternativas para el trabajo crítico. Por otro, Anthropic tiene bajo llave un modelo con capacidades técnicas aterradoras.
Si usas Claude para tu homelab o para solucionar problemas de red, el consejo ahora mismo es simple: úsalo para agilizar la escritura de scripts o configuraciones de rutina, pero mantén el escepticismo alto cuando le pidas que razone sobre arquitecturas complejas.
