Colapsa la acción de almacenamiento, Google AI con 90 mil millones de dólares, acusada de manipulación en experimentos

Autor: Deep潮 TechFlow

Una publicación de Google que afirmaba “comprimir el uso de memoria de IA a 1/6” provocó la semana pasada una evaporación de más de 900 mil millones de dólares en valor de mercado en acciones de chips de almacenamiento como Micron y SanDisk.

Sin embargo, solo dos días después de la publicación, Gao Jianyang, postdoctorado del Instituto Federal Suizo de Tecnología en Zúrich, publicó una carta abierta de diez mil palabras acusando al equipo de Google de probar a sus competidores con un script Python en una CPU de un solo núcleo, mientras que evaluaban a sí mismos con una GPU A100, y de negarse a corregir el problema después de haber sido informado antes de la presentación. La lectura en Zhihu superó rápidamente los 4 millones, la cuenta oficial de Stanford NLP retuiteó, y tanto la academia como el mercado temblaron simultáneamente.

(Referencia: un artículo que hundió las acciones de almacenamiento)

Esta controversia tiene un núcleo no muy complejo: ¿un artículo de una conferencia de IA promovido a gran escala por Google, que provocó una venta masiva global en acciones de chips, distorsionó sistemáticamente un trabajo previo publicado y creó una narrativa falsa de ventaja en rendimiento mediante experimentos injustos deliberados?

TurboQuant hizo lo siguiente: comprimió el “papel de borrador” de la IA a una sexta parte de su tamaño original.

Los modelos de lenguaje grandes, al generar respuestas, necesitan escribir y revisar lo que han calculado previamente. Estos resultados intermedios se almacenan temporalmente en la memoria gráfica, lo que en la industria se llama “KV Cache” (caché de clave-valor). Cuanto más larga sea la conversación, más grueso se vuelve este “papel de borrador”, consumiendo más memoria y aumentando los costos.

El algoritmo TurboQuant desarrollado por el equipo de investigación de Google tiene como principal atractivo comprimir este papel de borrador a una sexta parte de su tamaño original, afirmando además que no hay pérdida de precisión y que la velocidad de inferencia puede aumentar hasta 8 veces. El artículo fue publicado por primera vez en la plataforma de preprints académicos arXiv en abril de 2025, aceptado en la conferencia de nivel superior ICLR 2026 en enero de 2026, y relanzado y promocionado por el blog oficial de Google el 24 de marzo.

Desde el punto de vista técnico, la idea detrás de TurboQuant se puede entender de manera simple: primero, se aplica una transformación matemática para “limpiar” los datos desordenados en un formato uniforme, luego se usa una tabla de compresión óptima pre-calculada para comprimir cada dato individualmente, y finalmente se aplica un mecanismo de corrección de errores de 1 bit para corregir cualquier sesgo computacional introducido por la compresión. La comunidad ha verificado de forma independiente que su efecto de compresión es en gran medida real, y la contribución matemática a nivel algorítmico es genuina.

La controversia no radica en si TurboQuant puede ser utilizado, sino en lo que Google hizo para demostrar que “supera con creces a sus competidores”.

Carta abierta de Gao Jianyang: tres acusaciones, cada una apunta al corazón del asunto.

El 27 de marzo a las 10 p.m., Gao Jianyang publicó un artículo largo en Zhihu, y simultáneamente presentó un comentario formal en la plataforma de revisión oficial de ICLR, OpenReview. Gao Jianyang es el primer autor del algoritmo RaBitQ, que fue publicado en la conferencia de nivel superior SIGMOD en 2024 en el campo de bases de datos, resolviendo un problema similar: la compresión eficiente de vectores de alta dimensión.

Sus acusaciones se dividen en tres, cada una respaldada por registros de correo y una línea de tiempo.

Primera acusación: usó el método central de otros sin mencionarlo en absoluto.

El núcleo técnico de TurboQuant y RaBitQ tiene un paso clave en común: antes de comprimir los datos, se realiza una “rotación aleatoria”. La función de esta operación es transformar los datos que originalmente tienen una distribución irregular en una distribución uniforme predecible, reduciendo así drásticamente la dificultad de compresión. Esta es la parte más central y cercana de ambos algoritmos.

Los propios autores de TurboQuant admitieron esto en su respuesta de revisión, pero nunca mencionaron de manera directa en todo el artículo la relación de este método con RaBitQ. El contexto más crítico es que el segundo autor de TurboQuant, Majid Daliri, se puso en contacto proactivamente con el equipo de Gao Jianyang en enero de 2025, solicitando ayuda para depurar su versión en Python reescrita basada en el código fuente de RaBitQ. El correo describió detalladamente los pasos de reproducción y la información del error; en otras palabras, el equipo de TurboQuant estaba muy bien informado sobre los detalles técnicos de RaBitQ.

Un revisor anónimo de ICLR también señaló de manera independiente que ambos utilizan la misma técnica, exigiendo una discusión adecuada. Sin embargo, en la versión final del artículo, el equipo de TurboQuant no solo no agregó una discusión adicional, sino que trasladó la (ya incompleta) descripción de RaBitQ del texto principal al apéndice.

Segunda acusación: afirmó sin pruebas que la teoría del oponente era “subóptima”.

El artículo de TurboQuant etiquetó directamente a RaBitQ como “teóricamente subóptimo” (suboptimal), argumentando que el análisis matemático de RaBitQ era “relativamente tosco”. Sin embargo, Gao Jianyang señaló que el artículo expandido de RaBitQ ha demostrado rigurosamente que su error de compresión alcanza el límite óptimo matemático, y esta conclusión fue publicada en una conferencia de nivel superior en ciencias de la computación teórica.

En mayo de 2025, el equipo de Gao Jianyang explicó en múltiples correos detalladamente la optimalidad de la teoría de RaBitQ. El segundo autor de TurboQuant, Daliri, confirmó que se había informado a todos los autores. Sin embargo, el artículo finalmente mantuvo la expresión de “subóptimo” sin proporcionar ninguna evidencia de refutación.

Tercera acusación: en la comparación experimental “las manos atadas a la izquierda y el cuchillo en la derecha”.

Esta es la más contundente de todas. Gao Jianyang señaló que el artículo de TurboQuant impuso dos condiciones desiguales en el experimento de comparación de velocidad:

Primero, RaBitQ proporcionó código en C++ optimizado (que admite paralelismo multihilo por defecto), pero el equipo de TurboQuant no lo utilizó, sino que probó a RaBitQ con su propia versión en Python traducida. Segundo, al probar RaBitQ, usaron una CPU de un solo núcleo y desactivaron la multitarea, mientras que TurboQuant utilizó una GPU NVIDIA A100.

El efecto combinado de estas dos condiciones es que los lectores ven la conclusión de que “RaBitQ es varias órdenes de magnitud más lento que TurboQuant”, sin saber que el supuesto es que el equipo de Google ató las manos y los pies de sus oponentes antes de correr. El artículo no reveló adecuadamente las diferencias en las condiciones experimentales.

Respuesta de Google: “La rotación aleatoria es una técnica general, no podemos citar cada artículo que la use”.

Según Gao Jianyang, el equipo de TurboQuant respondió en un correo en marzo de 2026: “El uso de rotaciones aleatorias y transformaciones de Johnson-Lindenstrauss ya es una técnica estándar en el campo, no podemos citar cada artículo que haya utilizado estos métodos”.

El equipo de Gao Jianyang considera que esto es una confusión de conceptos: el problema no es si se deben citar todos los artículos que hayan usado rotaciones aleatorias, sino que RaBitQ fue el primero en combinar este método con la compresión de vectores y demostrar su optimalidad bajo condiciones idénticas, y el artículo de TurboQuant debería describir con precisión la relación entre ambos.

La cuenta oficial de Stanford NLP Group en X retuiteó la declaración de Gao Jianyang. El equipo de Gao Jianyang ha publicado un comentario público en la plataforma ICLR OpenReview y ha presentado una queja formal al presidente de la conferencia y al comité de ética, y en el futuro también se publicará un informe técnico detallado en arXiv.

El blogger técnico independiente Dario Salvati dio una evaluación relativamente neutral en su análisis: TurboQuant tiene una contribución real en métodos matemáticos, pero la relación con RaBitQ es mucho más estrecha de lo que el artículo declara.

900 mil millones de dólares de valor de mercado evaporados: la controversia del artículo se suma al pánico del mercado.

El momento de esta controversia académica es extremadamente delicado. Después de que Google publicó TurboQuant a través de su blog oficial el 24 de marzo, el sector de chips de almacenamiento global sufrió una fuerte venta masiva. Según varios medios de comunicación como CNBC, Micron Technology cayó durante seis días de negociación consecutivos, con una caída acumulada de más del 20%; SanDisk tuvo una caída diaria del 11%; SK Hynix de Corea del Sur cayó aproximadamente un 6%, Samsung Electronics casi un 5% y Kioxia en Japón cayó aproximadamente un 6%. La lógica del pánico en el mercado es simple y brutal: si la compresión de software puede reducir la demanda de memoria para la inferencia de IA en 6 veces, las perspectivas de demanda para los chips de almacenamiento sufrirán un ajuste estructural.

El analista de Morgan Stanley, Joseph Moore, refutó esta lógica en un informe del 26 de marzo, manteniendo la calificación de “sobreponderar” para Micron y SanDisk. Moore señaló que TurboQuant solo comprime un tipo específico de caché, el KV Cache, y no la cantidad total de uso de memoria, y lo calificó como “una mejora normal de productividad”. El analista de Wells Fargo, Andrew Rocha, también citó la paradoja de Jevons, sugiriendo que la mejora de la eficiencia, al reducir los costos, podría estimular un despliegue de IA más grande, lo que finalmente aumentaría la demanda de memoria.

Viejo artículo, nuevo empaque: el riesgo de la cadena de transmisión de narrativas desde la investigación de IA hasta el mercado.

Según el análisis del blogger técnico Ben Pouladian, el artículo de TurboQuant fue publicado por primera vez en abril de 2025 y no es una investigación nueva. El 24 de marzo, Google relanzó y promovió el artículo a través de su blog oficial, pero el mercado lo valoró como un avance completamente nuevo. Esta estrategia de promoción de “viejo artículo, nueva publicación”, junto con posibles sesgos experimentales en el artículo, refleja un riesgo sistémico en la cadena de transmisión de narrativas desde los artículos académicos de IA hasta el mercado.

Para los inversores en infraestructura de IA, cuando un artículo afirma haber logrado una mejora en el rendimiento de “varias órdenes de magnitud”, la primera pregunta que deben hacerse es si las condiciones de comparación de referencia son justas.

El equipo de Gao Jianyang ha dejado claro que continuará impulsando la resolución formal del problema. Google aún no ha respondido oficialmente a las acusaciones específicas de la carta abierta.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado