Google y Marvell negocian fabricar nuevos chips enfocados en abaratar el uso diario de la IA
Mantener funcionando modelos de inteligencia artificial a escala mundial es extremadamente caro. Hasta ahora, el enfoque de la industria ha estado puesto en crear procesadores bestiales para entrenar estos modelos, un proceso de semanas o meses que consume muchísima energía. Sin embargo, el verdadero gasto a largo plazo viene después: la inferencia. Ese es el momento en el que la IA ya está lista y tiene que responder a millones de consultas de usuarios cada segundo.
Para atacar directamente este problema de costos y eficiencia en sus centros de datos, Google se encuentra en conversaciones avanzadas con Marvell Technology para desarrollar dos nuevos chips a la medida.
El cuello de botella de la memoria y la solución de Marvell
Hoy en día, uno de los grandes problemas físicos en los servidores es el movimiento de datos. Los procesadores suelen perder tiempo y energía simplemente esperando que la información llegue desde la memoria.
Según los reportes más recientes filtrados en la industria, el primer proyecto de esta posible alianza es una Unidad de Procesamiento de Memoria (MPU). En términos sencillos, es un chip complementario diseñado para conectarse a los actuales procesadores TPU de Google y quitarles esa carga de trabajo. Al encargarse exclusivamente de gestionar el tráfico de la memoria, el TPU principal queda libre para concentrarse solo en los cálculos matemáticos pesados. Se estima que el diseño de esta MPU podría estar listo para fase de pruebas en 2027.
Un TPU pensado solo para respuestas rápidas
El segundo proyecto sobre la mesa es un nuevo chip TPU construido específicamente para la fase de inferencia.
Es importante aclarar que Google no está intentando abandonar a sus fabricantes actuales. Broadcom sigue y seguirá siendo su aliado principal para diseñar los TPUs de altísimo rendimiento orientados al entrenamiento de modelos masivos. En cambio, Marvell entraría a jugar otro rol: sumarse a la cadena de suministro para crear un hardware más económico, eficiente y pensado exclusivamente para despachar respuestas cotidianas.
Al diversificar quién le fabrica qué piezas, Google busca dos cosas: depender menos de las carísimas tarjetas de NVIDIA y optimizar el consumo energético de sus servidores. Si esta estrategia funciona, no solo mejorará los márgenes de ganancia de Google Cloud, sino que permitirá a los desarrolladores y empresas operar sus aplicaciones de IA a un costo mucho más accesible a futuro.
