Modelos de ciberseguridad de nivel armamentístico de Anthropic Mythos accedidos sin autorización: ¿cómo lo lograron?

Bloomberg informó que, presuntamente, un grupo privado de un foro anunció públicamente el mismo día en que se rompieron las restricciones mediante el modelo de ciberseguridad de Anthropic, Mythos, de una filial. Al acceder al sistema usando credenciales de acceso obtenidas mediante un contratista externo, lograron usar el modelo, lo que provocó la preocupación del público sobre la gobernanza segura de los modelos de IA de máximo nivel.

(Anthropic lanzó el programa global de ciberseguridad Glasswing; ¿por qué el nuevo modelo Mythos no se abre al uso del público?)

Primer día de lanzamiento, Mythos sufre acceso no autorizado

El 7 de abril, Anthropic anunció un nuevo modelo de IA de seguridad web, Claude Mythos; sin embargo, un grupo privado de foro en línea, cuya identidad aún no se ha hecho pública, según se informa, ya había obtenido sigilosamente acceso al modelo.

Según se sabe, este grupo no consiguió entrar mediante métodos tradicionales de piratería, sino que aprovechó su dominio de los formatos de URL de los modelos anteriores de Anthropic, deduciendo razonablemente la ubicación en línea de Mythos dentro del sistema. La brecha clave estuvo en un empleado que trabajaba para un contratista externo de Anthropic. Él ya tenía una autorización legal para ver los modelos de IA de Anthropic, y los miembros del grupo se infiltraron en el sistema mediante esa vía de acceso conforme.

Después de esto, el grupo proporcionó a Bloomberg capturas de pantalla y una demostración operativa en tiempo real como prueba, y reveló que han seguido usando Mythos hasta el día de hoy. Aun así, subrayaron que su propósito se limitaba a «jugar con el modelo nuevo» y no tenían intención de llevar a cabo ninguna acción destructiva, porque no querían ser descubiertos.

¿Qué es Mythos? ¿Por qué genera preocupación en el exterior?

Claude Mythos es un modelo de IA diseñado por Anthropic para la defensa de ciberseguridad de empresas. El equipo lo definió como una herramienta «demasiado poderosa como para ser publicada públicamente». Su capacidad central consiste en identificar de forma proactiva vulnerabilidades de seguridad en sistemas digitales y ayudar a las empresas a completar las reparaciones antes de sufrir ataques.

Sin embargo, esta «espada defensiva» también puede ser una «espada de doble filo». Anthropic admite que, si Mythos cae en manos de actores maliciosos, su capacidad también podría usarse para lanzar ataques. Por ello, la compañía abrió Mythos únicamente a un pequeño número de grandes instituciones o empresas tecnológicas que han superado evaluaciones estrictas, a través del plan de ciberseguridad llamado «Project Glasswing».

La suposición central de este mecanismo de control cerrado es que los socios de confianza pueden garantizar que entre ellos las credenciales de acceso no se filtren.

(Preocupación de Anthropic por el acceso que esquiva la supervisión: Bessent y Powell convocan una reunión urgente con ejecutivos del banco)

Respuesta de Anthropic: estamos investigando, no hay impacto

Sobre esto, Anthropic declaró: «Estamos investigando un informe que afirma que se accedió sin autorización a Claude Mythos Preview a través de un entorno de un proveedor externo». La compañía enfatizó que, por el momento, no se ha encontrado que sus sistemas hayan sido afectados, y que preliminarmente este incidente «tiene más probabilidades de deberse a un abuso de permisos de acceso que a un ataque de hackers externo».

Aunque los usuarios que usaron Mythos de forma anticipada no hayan realizado acciones maliciosas, el propio incidente aún mantiene en alto estado de alerta a los expertos en ciberseguridad. Raluca Saceanu, directora ejecutiva de la empresa de ciberseguridad Smarttech247, señaló:

Cuando herramientas de IA potentes se acceden o se usan fuera de los mecanismos de control establecidos, el riesgo no se limita a un incidente de ciberseguridad; es más probable que surjan sospechas de fraude, abuso en la red u otros usos maliciosos.

¿Qué impacto podría causar esto? Debilidad en el control de seguridad de la IA

Lo verdaderamente preocupante de este incidente no es que alguien intentara sabotear, sino la vulnerabilidad sistémica que revela: cuando una empresa de IA transfiere el acceso a modelos de alta sensibilidad a proveedores externos, cualquier fallo en cualquier eslabón de la red de control —por pequeño que sea— puede convertirse en una brecha y desencadenar una crisis.

Ahora, el caso de Mythos le recuerda a toda la industria que, en un momento en que las capacidades de la IA avanzan rápidamente, el diseño de la arquitectura de seguridad no puede depender únicamente de la confianza; también necesita una resiliencia institucional que pueda soportar el fallo de la confianza. Para Anthropic, cómo reconstruir la confianza del público en sus mecanismos de control de socios será un reto más duradero que la propia investigación.

Este artículo: El modelo de ciberseguridad de nivel armamentístico de Anthropic, Mythos, sufrió acceso no autorizado: ¿cómo lo lograron? Aparece por primera vez en la Red de Enlaces ABMedia.

Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el Aviso legal.

Artículos relacionados

Anthropic implementa salvaguardas electorales para Claude antes de las elecciones legislativas de mitad de mandato de 2026

Anthropic anunció el viernes un conjunto de medidas de integridad electoral diseñadas para evitar que su chatbot de IA Claude sea utilizado como arma para difundir desinformación o manipular a los votantes antes de las elecciones legislativas de mitad de período de EE. UU. de 2026 y otros grandes comicios en todo el mundo este año. Con sede en San Francisco,

CryptoFrontierhace2h

DeepRoute.ai sistema avanzado de asistencia a la conducción supera las 300.000 unidades desplegadas: objetivo 2026 de 1.000.000 flotas urbanas NOA

DeepRoute.ai anuncia que su avanzado sistema de asistencia para conducción ha acumulado más de 300.000 vehículos desplegados en China, y que durante el último año ha ayudado a evitar más de 180.000 incidentes potenciales. El objetivo para 2026 es alcanzar un parque de NOA para ciudades de 1 millón de vehículos, con una utilización superior al 50%, lo que se considera clave para la comercialización a gran escala de Robotaxi. Esta medida muestra que la conducción autónoma en China ya ha entrado en un uso normalizado, al tiempo que crea una división con la ruta de integración vertical que sigue Estados Unidos, lo que afecta la cronología de la cadena de suministro en Asia-Pacífico.

ChainNewsAbmediahace3h

DeepSeek lanza los modelos V4-Pro y V4-Flash con un costo un 98% menor que el GPT-5.5 Pro de OpenAI

Mensaje de Gate News, 25 de abril — DeepSeek lanzó versiones de vista previa de V4-Pro y V4-Flash el 24 de abril, ambos modelos de código abierto con ventanas de contexto de un millón de tokens. V4-Pro presenta 1,6 billones de parámetros totales, pero activa solo 49 mil millones por pasada de inferencia usando una arquitectura Mixture-of-Experts.

GateNewshace8h

El juez desestima las acusaciones de fraude en la demanda de Elon Musk contra OpenAI; el caso avanza a juicio con dos acusaciones restantes

Mensaje de Gate News, 24 de abril — Un juez federal ha desestimado las acusaciones de fraude de la demanda de Elon Musk contra OpenAI, Sam Altman, Greg Brockman y Microsoft, despejando el camino para que el caso avance a juicio con dos acusaciones restantes: incumplimiento de la confianza caritativa y enriquecimiento injusto. EE. UU.

GateNewshace11h

El CEO de OpenAI, Sam Altman, se disculpa por no reportar a la policía la cuenta prohibida del agresor de una escuela

Mensaje de Gate News, 25 de abril — El director ejecutivo de OpenAI, Sam Altman, se disculpó con la comunidad de Tamborine en Canadá por el fallo de la empresa al no notificar a la policía sobre una cuenta prohibida vinculada a Jesse Van Rootselaar, quien mató a ocho personas en una escuela en febrero antes de quitarse la vida. OpenAI

GateNewshace12h

Los EAU anuncian un cambio hacia un modelo de gobierno basado en IA en los próximos dos años

Su Alteza el Jeque Mohammed bin Rashid Al Maktoum declaró que el objetivo era que el 50% de los sectores gubernamentales operaran a través de IA agentica autónoma. La transición también incluirá la formación de los empleados federales para “dominar la IA” y estará supervisada por el Jeque Mansour bin Zayed. Puntos Clave:

Coinpediahace12h
Comentar
0/400
Sin comentarios