Golpe al mercado de la RAM: Google presenta una tecnología que reduce hasta 6 veces el uso de memoria en IA
Introduce una nueva forma de gestionar la memoria en modelos de IA, con potencial para reducir costos, mejorar el rendimiento y modificar la dinámica entre software y hardware.

Google dio a conocer TurboQuant, un nuevo algoritmo que promete reducir drásticamente el consumo de memoria en modelos de inteligencia artificial, con mejoras que podrían cambiar el equilibrio entre software y hardware en el sector tecnológico.
Según datos de la compañía, esta innovación permite disminuir el uso de memoria hasta seis veces y acelerar procesos hasta ocho veces, enfocándose en uno de los principales cuellos de botella actuales: la llamada KV cache, una memoria clave en el funcionamiento de los modelos de lenguaje.
El impacto no tardó en sentirse en los mercados, donde fabricantes de memoria RAM registraron caídas tras el anuncio, ante la posibilidad de que este tipo de avances reduzca la dependencia del hardware más costoso.
Menos memoria, mismo rendimiento
El eje de TurboQuant está en un sistema de compresión mucho más eficiente que los métodos tradicionales. Mientras que los modelos actuales trabajan con representaciones de 16 o 32 bits, esta tecnología logra operar con tan solo 3,5 bits por canal sin pérdida de calidad significativa, e incluso con 2,5 bits con degradación mínima.
Esto se consigue mediante una combinación de técnicas avanzadas de cuantización junto a un método matemático que reduce el tamaño de los datos sin introducir errores relevantes, algo que históricamente fue el gran desafío en este tipo de optimizaciones.
Si estos resultados se sostienen fuera de entornos de prueba, el impacto sería directo: modelos capaces de procesar contextos más largos con el mismo hardware o funcionar con menos recursos, reduciendo costos en centros de datos y sistemas de IA a gran escala.
Un cambio de paradigma en la inteligencia artificial
Más allá de lo técnico, el anuncio marca una tendencia: la industria podría empezar a depender menos del aumento constante de potencia y más de mejoras algorítmicas.
En los últimos años, el avance de la IA estuvo impulsado principalmente por más chips, más memoria y mayor capacidad de cómputo. Sin embargo, desarrollos como TurboQuant muestran que todavía existe margen para optimizar el rendimiento desde el software.
De todos modos, desde la propia compañía advierten que se trata de resultados experimentales, con presentación prevista en ICLR 2026, por lo que su adopción masiva aún no está garantizada.
LEER: Kicillof reúne a intendentes bonaerenses para evaluar el impacto económico de las medidas nacionales


