VolverNoticia
Noticia30 de abril de 20262 min lectura

Lanzamiento de llm 0.32a0: mejoras en procesamiento de lenguaje natural

R

Curaduría IA + Revisión Humana

Fuente original: simonwillison.net

Lanzamiento de llm 0.32a0: mejoras en procesamiento de lenguaje natural
Generado con IA

¿Por qué te importa esto?

La actualización de llm 0.32a0 transforma tu manera de interactuar con modelos de lenguaje, facilitando flujos de trabajo más complejos y eficientes. Si trabajas con IA, esta mejora te permitirá integrar respuestas más ricas y controladas, optimizando tu productividad y proyectos.

El verdadero salto de 'llm' 0.32a0: Adiós al texto plano, hola a las interacciones complejas

Si trabajas integrando inteligencia artificial desde la terminal o mediante scripts, probablemente conoces llm, la fantástica librería y herramienta CLI creada por Simon Willison. El 29 de abril de 2026, Willison lanzó la versión 0.32a0 (una fase alfa muy estable) y trae cambios profundos que resuelven un gran dolor de cabeza para los desarrolladores.

El problema: Los modelos evolucionaron, las herramientas no

Cuando llm nació por allá en 2023, la dinámica era simple: le mandabas un texto al modelo y el modelo te devolvía otro texto. Pero hoy, monstruos como Claude, GPT-4 o Gemini hacen mucho más que hablar. Tienen procesos de "razonamiento" interno, ejecutan llamadas a herramientas (tool calls) y hasta procesan imágenes.

La arquitectura original de entrada y salida de texto plano ya no daba abasto para manejar todo este contenido mixto.

Lo nuevo bajo el capó

Esta actualización es un rediseño mayor (pero cien por ciento compatible con versiones anteriores) que cambia de raíz cómo la herramienta se comunica con las APIs:

  • Secuencias de mensajes en lugar de un solo prompt: Ahora las entradas se estructuran como un historial de conversación definido por turnos (usuario y asistente). Esto es vital si necesitas inyectar un historial de chat previo antes de hacer una consulta, algo que antes requería dar bastantes vueltas.
  • Streaming por partes (Typed event parts): Al recibir la respuesta, llm ya no escupe un bloque de texto crudo. Ahora separa el flujo de datos según su tipo. Así, puede distinguir perfectamente si el modelo te está enviando "texto final", su "razonamiento" interno, el nombre de una herramienta que quiere ejecutar, o los parámetros de dicha herramienta.
  • Pensamiento a color en la terminal: Gracias al nuevo streaming, si usas la herramienta desde la consola, verás el "razonamiento" del modelo en un color distinto. Además, este texto de pensamiento se desvía por la salida de error estándar (stderr) para no romper otros comandos si estás conectando procesos. También sumaron la bandera -R (o --no-reasoning) para ocultar el pensamiento si solo te interesa el resultado final.
  • Guardado y carga rápida: Incorporaron la capacidad de serializar y deserializar respuestas rápidamente con funciones nativas como to_dict() y from_dict().

¿Por qué importa?

Diferente a lo que algunos piensan, esta librería no compite con los grandes modelos de lenguaje, sino que es el puente perfecto para ellos. La actualización 0.32a0 te da el control milimétrico para lidiar con respuestas modernas, permitiendo armar flujos de trabajo en Python mucho más sólidos, sin tener que hacer malabares para procesar textos extraños.

Al ser una versión alfa, ya se puede probar desde su repositorio, y es el momento ideal para empezar a adaptar tu código antes de que llegue la versión definitiva.