Mistral Medium 3.5: O novo peso pesado de 128B que unifica código, visão e raciocínio
Mistral acaba de lançar uma bomba na comunidade de desenvolvedores com o lançamento do Mistral Medium 3.5. Se você estava esperando uma atualização leve, pense novamente: deixaram para trás as escalas pequenas para nos trazer um modelo denso de 128 bilhões de parâmetros (128B) que faz praticamente tudo em um único pacote.
A ideia por trás desta nova versão é simples, mas ambiciosa: você não precisa trocar de ferramenta dependendo do que deseja fazer. Medium 3.5 junta o acompanhamento de instruções, raciocínio lógico, análise de imagens (sim, agora é multimodal) e programação pura e dura em um mesmo conjunto de pesos.
O problema que resolve: agentes que trabalham sozinhos
Até agora, se você quisesse usar agentes de código (essas inteligências que programam por você), teria que executá-los em sua própria máquina e gastar seus próprios recursos. Mistral Medium 3.5 muda as regras do jogo porque é o motor por trás da nova função de agentes remotos no Vibe e do novo "Modo de Trabalho" no Le Chat.
Basicamente, você pede que ele resolva um problema de código complexo e pode ir tomar um café. O modelo continua trabalhando na nuvem, faz testes e te avisa quando o código está pronto. Além disso, graças à sua janela de contexto de 256k, você pode passar repositórios inteiros sem que ele perca o fio da meada.
O que acontece com a licença e o uso comercial?
Havia muita confusão sobre se este modelo seria pago. A boa notícia é que o Mistral Medium 3.5 chega com pesos abertos sob uma licença MIT modificada. Isso significa que você pode usá-lo para projetos comerciais gratuitamente, a menos que sua empresa tenha um nível de receita gigantesco (nesse caso, você terá que pagar). Para a imensa maioria de startups e desenvolvedores independentes, é uma ferramenta de código aberto pronta para monetizar.
Vale a pena em comparação com a concorrência?
Com uma pontuação brutal em benchmarks de programação (alcança 77,6% no SWE-Bench Verified), este modelo não apenas vem para substituir o anterior Mistral Medium 3.1, mas também supera modelos especializados em código como o Devstral 2.
O mais interessante é que ele possui um "esforço de raciocínio" que você mesmo pode configurar. Se você quiser que ele responda algo rápido em um chat, ele faz isso instantaneamente. Mas se você precisar que ele pense em uma arquitetura de software complexa, você aumenta o nível de raciocínio e o modelo leva seu tempo para te dar uma resposta muito mais pensada e robusta.
Para aqueles que preferem não depender da nuvem, o modelo pode ser hospedado de forma privada se você tiver pelo menos quatro GPUs, e já está sendo otimizado pela comunidade para rodar localmente com ferramentas como llama.cpp ou Unsloth.
