Mistral Medium 3.5: El nuevo peso pesado de 128B que unifica código, visión y razonamiento
Mistral acaba de soltar una bomba en la comunidad de desarrolladores con el lanzamiento de Mistral Medium 3.5. Si estabas esperando una actualización ligera, piénsalo de nuevo: dejaron atrás las escalas pequeñas para traernos un modelo denso de 128 mil millones de parámetros (128B) que hace prácticamente de todo en un solo paquete.
La idea detrás de esta nueva versión es simple pero ambiciosa: no necesitas cambiar de herramienta dependiendo de lo que quieras hacer. Medium 3.5 junta el seguimiento de instrucciones, razonamiento lógico, análisis de imágenes (sí, ahora es multimodal) y programación pura y dura en un mismo set de pesos.
El problema que resuelve: agentes que trabajan solos
Hasta ahora, si querías usar agentes de código (esas inteligencias que programan por ti), tenías que correrlos en tu propia máquina y gastar tus propios recursos. Mistral Medium 3.5 cambia las reglas del juego porque es el motor detrás de la nueva función de agentes remotos en Vibe y el nuevo "Work mode" en Le Chat.
Básicamente, le pides que resuelva un problema de código complejo y te puedes ir a tomar un café. El modelo se queda trabajando en la nube, hace pruebas y te avisa cuando el código está listo. Además, gracias a su ventana de contexto de 256k, puedes pasarle repositorios enteros sin que pierda el hilo.
¿Qué pasa con la licencia y el uso comercial?
Había mucha confusión sobre si este modelo iba a ser de pago. La buena noticia es que Mistral Medium 3.5 llega con pesos abiertos bajo una licencia MIT modificada. Esto significa que sí puedes usarlo para proyectos comerciales gratis, a menos que tu empresa tenga un nivel de ingresos gigantesco (en ese caso, sí toca pasar por caja). Para la inmensa mayoría de startups y desarrolladores independientes, es una herramienta de código abierto lista para monetizar.
¿Vale la pena frente a la competencia?
Con una puntuación brutal en benchmarks de programación (alcanza un 77.6% en SWE-Bench Verified), este modelo no solo viene a sustituir al anterior Mistral Medium 3.1, sino que barre con modelos especializados en código como el Devstral 2.
Lo más interesante es que tiene un "esfuerzo de razonamiento" que tú mismo puedes configurar. Si quieres que te responda algo rápido en un chat, lo hace al instante. Pero si necesitas que piense en una arquitectura de software compleja, le subes el nivel de razonamiento y el modelo se toma su tiempo para darte una respuesta mucho más pensada y robusta.
Para quienes prefieren no depender de la nube, el modelo se puede alojar de forma privada si cuentas con al menos cuatro GPUs, y ya está siendo optimizado por la comunidad para correr en local con herramientas como llama.cpp o Unsloth.
