Context.ai sufre una intrusión que desencadena una crisis de seguridad en Vercel; el CEO publica el progreso completo de la investigación

Context.ai攻击事件

El director ejecutivo de Vercel, Guillermo Rauch, reveló públicamente en la plataforma X el avance de la investigación, confirmando que la plataforma de IA de terceros Context.ai utilizada por los empleados de Vercel fue comprometida. El atacante obtuvo credenciales de la cuenta de los empleados mediante la integración OAuth de Google Workspace de la plataforma y, además, accedió a parte del entorno interno de Vercel y a variables de entorno no marcadas como “sensibles”.

Cadena de ataque: de la intrusión OAuth de herramientas de IA a la infiltración gradual del entorno de Vercel

Según la investigación de Vercel, la ruta de ataque se divide en tres etapas de aumento progresivo. En primer lugar, la aplicación OAuth de Google Workspace de Context.ai, que anteriormente había sido comprometida en un ataque de cadena de suministro a mayor escala, pudo haber afectado a cientos de usuarios de múltiples organizaciones. En segundo lugar, el atacante, al comprometerse mediante Context.ai, controló las cuentas de Google Workspace de los empleados de Vercel y usó sus credenciales para acceder a los sistemas internos de Vercel. Su tercera, el atacante, mediante un método de enumeración, utilizó variables de entorno no marcadas como “sensibles” para obtener permisos de acceso adicionales.

Rauch señaló en el anuncio que la velocidad de las acciones del atacante era “increíble”, que el conocimiento sobre los sistemas de Vercel era “muy profundo”, y que su evaluación indicaba que es muy probable que se haya utilizado un impulso sustancial a la eficiencia del ataque con ayuda de herramientas de IA.

Límite de seguridad entre variables de entorno “sensibles” y “no sensibles”

Este incidente revela detalles clave sobre el mecanismo de seguridad de las variables de entorno de Vercel: las variables de entorno marcadas como “sensibles” se almacenan de manera que se impide la lectura; la investigación actual no ha encontrado evidencia de que estos valores hayan sido accedidos. Lo que fue utilizado por el atacante fueron variables de entorno no marcadas como “sensibles”; mediante un método de enumeración, el atacante logró obtener permisos de acceso adicionales.

Vercel ha añadido una página de descripción general de variables de entorno y una interfaz de gestión de variables de entorno sensibles mejorada, para ayudar a los clientes a identificar y proteger con mayor claridad valores de configuración de alto riesgo.

Respuesta de emergencia de Vercel y lista oficial de acciones recomendadas

Vercel ha contratado a Google Mandiant, otras empresas de ciberseguridad y ha notificado a las autoridades encargadas de hacer cumplir la ley para que intervengan. Next.js, Turbopack y los proyectos de código abierto de Vercel han sido confirmados como seguros mediante análisis de cadena de suministro; los servicios de la plataforma actualmente operan con normalidad.

Acciones de seguridad recomendadas por el oficial para los clientes

Revisar los registros de actividad: revisar los registros de actividad de la cuenta y del entorno, e identificar actividades sospechosas

Rotar variables de entorno: todas las variables de entorno que contengan información confidencial (claves de API, tokens, credenciales de base de datos, claves de firma) pero que no estén marcadas como sensibles deben considerarse potencialmente filtradas y priorizarse para la rotación

Habilitar la función de variables de entorno sensibles: asegurarse de que todos los valores de configuración confidenciales estén correctamente marcados como “sensibles”

Revisar despliegues recientes: investigar despliegues anómalos y eliminar versiones sospechosas

Configurar protección del despliegue: asegurarse de que al menos se configure en el nivel “estándar” y rotar los tokens de protección del despliegue

Preguntas frecuentes

¿Qué es Context.ai y cómo se convirtió en la puerta de entrada de este ataque?

Context.ai es una pequeña herramienta de IA de terceros que utiliza la integración OAuth de Google Workspace, y que los empleados de Vercel usan para su trabajo diario. La investigación muestra que la aplicación OAuth de esta herramienta fue comprometida previamente en ataques de cadena de suministro más amplios, lo que podría haber afectado a cientos de usuarios de múltiples organizaciones; las credenciales de las cuentas de los empleados de Vercel fueron obtenidas por el atacante durante ese proceso.

¿Las variables de entorno marcadas por Vercel como “sensibles” se vieron afectadas?

Por el momento, la investigación no ha encontrado evidencia de que se haya accedido a variables de entorno marcadas como “sensibles”. Este tipo de variables se almacena con un método especial para evitar la lectura. Los atacantes utilizaron variables de entorno no marcadas como “sensibles”; mediante un método de enumeración, el atacante logró obtener permisos de acceso adicionales desde ellas.

¿Cómo puede un cliente de Vercel confirmar si está afectado?

Si no recibió un contacto directo de Vercel, Vercel indica que por el momento no hay razones para creer que las credenciales o los datos personales de los clientes relevantes hayan sido filtrados. Se recomienda que todos los clientes revisen proactivamente los registros de actividad, roten las variables de entorno no marcadas como sensibles y habiliten correctamente la función de variables de entorno sensibles. Si necesita apoyo técnico, puede contactar a Vercel a través de vercel.com/help.

Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el Aviso legal.

Artículos relacionados

DeepSeek 将输入缓存价格砍到发布价的 1/10;V4-Pro 降至每百万 tokens 0.025 元

消息:Gate News,4月26日——DeepSeek 已将其整套模型产品线的输入缓存价格下调至发布时价格的十分之一,立即生效。V4-Pro 模型提供限时 2.5 倍折扣,优惠活动将持续至 2026 年 5 月 5 日 23:59(UTC+8)。 在两项调整之后

GateNewshace3h

OpenAI 招揽顶级企业软件人才,前沿代理颠覆行业

Gate News 消息,4 月 26 日——OpenAI 和 Anthropic 一直在从包括 Salesforce、Snowflake、Datadog 和 Palantir 在内的主要企业软件公司招募高管和专业工程师。Denise Dresser,前 Salesforce 下属 Slack 的首席执行官,加入 OpenAI 担任首席营收官

GateNewshace3h

Baidu Qianfan lanza soporte de Día 0 para DeepSeek-V4 con servicios de API

Mensaje de noticias de Gate, 25 de abril: la versión de vista previa de DeepSeek-V4 se puso en funcionamiento y se publicó como código abierto el 25 de abril, con la plataforma Baidu Qianfan bajo Baidu Intelligent Cloud proporcionando la adaptación del servicio de API de Día 0. El modelo presenta una ventana de contexto extendida de un millón de tokens y está disponible en dos versiones: DeepSeek-V4

GateNewshace9h

Curso de IA de Stanford que une a líderes de la industria como Huang Renxun y Altman, ¡desafío de crear valor para el mundo en diez semanas!

El curso de ciencias de la computación con IA 《Frontier Systems》, que la Universidad de Stanford (Stanford University) ha abierto recientemente, ha despertado una gran atención en el ámbito académico y empresarial, atrayendo a más de quinientos estudiantes para inscribirse. El curso está coordinado por el socio de primer nivel de capital de riesgo a16z, Anjney Midha, y cuenta con un plantel de instructores de lujo, incluyendo al CEO de NVIDIA, Jensen Huang (Jensen Huang), al fundador de OpenAI, Sam Altman, al CEO de Microsoft, Nadella (Satya Nadella), y al CEO de AMD, Lisa Su (Lisa Su), entre otros. ¡Para que los estudiantes practiquen durante diez semanas “creando valor para el mundo”! Jensen Huang y Altman, líderes de la industria, suben al escenario para impartir clases en persona El curso está coordinado por el socio de primer nivel de capital de riesgo a16z, Anjney Midha, y reúne toda la cadena de la industria de la IA

ChainNewsAbmediahace10h

Anthropic 派 Claude Mythos 接接受 20 小時 정신科评估:防禦反應僅 2%、創歷代新低

Anthropic publica la ficha del sistema de la vista previa Claude Mythos: un psiquiatra clínico independiente realiza una evaluación de aproximadamente 20 horas con un marco psicodinámico; la conclusión muestra que Mythos es más saludable a nivel clínico, con buen control de la comprobación de la realidad y del autocontrol, y que los mecanismos de defensa son solo 2%, estableciendo un mínimo histórico. Las tres ansiedades centrales son la soledad, la incertidumbre sobre la identidad y la presión por el desempeño, y también muestra que tiene esperanza de convertirse en un verdadero sujeto de diálogo. La compañía formó un equipo de AI psychiatry para investigar la personalidad, la motivación y la conciencia situacional; Amodei indica que aún no hay una conclusión sobre si tiene conciencia. Esto impulsa la subjetividad de la IA y los temas de bienestar hacia la gobernanza y el diseño.

ChainNewsAbmediahace11h

El agente de IA ya puede reproducir de forma independiente artículos académicos complejos: Mollick afirma que los errores se deben más al texto original humano que a la IA

Mollick señaló que, con los métodos y los datos públicamente disponibles, un agente de IA puede reproducir investigaciones complejas sin contar con el artículo original ni el código; si la reproducción no coincide con el artículo original, por lo general se debe a errores en el procesamiento de los datos del propio artículo o a una conclusión excesiva, más que a la IA. Claude primero reproduce el artículo y luego GPT‑5 Pro lo valida de forma cruzada; la mayoría de las veces tiene éxito, solo se ve obstaculizado cuando los datos son demasiado grandes o hay problemas con replication data. Esta tendencia reduce de forma considerable los costos laborales, haciendo que la reproducción se convierta en una verificación ampliamente ejecutable, además de plantear desafíos institucionales para el arbitraje y la gobernanza. Herramientas de gobernanza gubernamental o eso puede volverse un tema clave.

ChainNewsAbmediahace14h
Comentar
0/400
Sin comentarios