Agência Bloomberg relata que um grupo privado de fórum teria anunciado publicamente, no mesmo dia, que teria ultrapassado as restrições de segurança do modelo de IA de cibersegurança Mythos, supostamente sob a empresa Anthropic. Ao usar permissões de acesso obtidas por meio de um subcontratado terceirizado, eles conseguiram entrar no sistema e usar o modelo, levantando preocupações do público sobre a segurança e a governança de modelos de IA de ponta.
(A Anthropic lançou o programa global de cibersegurança Glasswing; por que o novo modelo Mythos não é aberto para o uso do público?)
No primeiro dia em que o Mythos foi lançado, sofreu acesso não autorizado
A Anthropic anunciou, em 7 de abril, um novo modelo de IA para segurança na rede, o Claude Mythos. No entanto, um grupo privado de fórum online, cuja identidade ainda não foi divulgada, supostamente conseguiu silenciosamente obter acesso a esse modelo.
Segundo informações, essas pessoas não teriam invadido por meio de métodos tradicionais de hackers. Em vez disso, elas teriam se aproveitado do conhecimento sobre o formato de URL dos modelos da Anthropic no passado, de modo que seja possível inferir de forma razoável a posição online do Mythos dentro do sistema. A principal brecha estaria em um funcionário que trabalha para um subcontratado terceirizado da Anthropic. Ele já tinha autorização legal para visualizar os modelos de IA da Anthropic, e os membros do grupo teriam se infiltrado no sistema por essa via de conformidade.
Depois do ocorrido, o grupo forneceu à Bloomberg capturas de tela e demonstrações em tempo real como prova e revelou que continua usando o Mythos até hoje. Ainda assim, eles destacaram que seu objetivo se limita a “brincar com o novo modelo”, sem intenção de realizar qualquer ação destrutiva, porque não querem ser descobertos.
O que é o Mythos? Por que isso gerou preocupação?
O Claude Mythos é um modelo de IA desenvolvido pela Anthropic especificamente para defesa de cibersegurança em empresas. A equipe o definiu como uma ferramenta “com poder demais para não ser adequado para lançamento público”. Sua capacidade central está em identificar ativamente vulnerabilidades de segurança em sistemas digitais, ajudando as empresas a concluir os reparos antes de sofrerem ataques.
No entanto, essa “espada da defesa” também pode ser uma “faca de dois gumes”. A Anthropic admite que, uma vez que o Mythos caia nas mãos de pessoas mal-intencionadas, suas capacidades também poderiam ser usadas para lançar ataques. Por isso, a empresa, por meio do plano de cibersegurança chamado “Project Glasswing”, só disponibiliza o Mythos para um pequeno número de grandes instituições ou empresas de tecnologia que passaram por rigorosa avaliação.
A premissa central desse mecanismo de controle fechado é: parceiros confiáveis conseguem garantir que as permissões de acesso entre si não vazem.
(Preocupações com a supervisão: Anthropic; Benston, Powell convocam reunião de emergência com executivos do banco )
Resposta da Anthropic: está investigando, sem impacto
A Anthropic declarou: “Estamos investigando um relatório que afirma que o acesso não autorizado ao Claude Mythos Preview teria ocorrido por meio do ambiente de um fornecedor terceirizado.” A empresa enfatizou que, até o momento, não foi encontrado nenhum indício de que seus sistemas tenham sido afetados. Além disso, a avaliação inicial deste caso aponta que “é mais provável que as permissões de acesso tenham sido abusadas, e não que tenha ocorrido um ataque de hackers externo”.
Mesmo que, por enquanto, os usuários que tiveram acesso antecipado ao Mythos não tenham feito ações maliciosas, o próprio incidente ainda deixou especialistas em segurança cibernética em alto estado de alerta. Raluca Saceanu, CEO da empresa de segurança Smarttech247, afirmou:
Quando ferramentas de IA poderosas são acessadas ou usadas fora dos mecanismos de controle estabelecidos, os riscos não se limitam a ser apenas um incidente de cibersegurança; é mais provável que surjam suspeitas de fraude, abuso de rede ou outras finalidades maliciosas.
Que impacto isso pode causar? Pontos fracos do controle de segurança da IA
O que realmente preocupa neste caso não é alguém tentando destruir, mas sim a fragilidade sistêmica que ele revela: quando uma empresa de IA transfere o acesso a modelos altamente sensíveis para provedores terceirizados, qualquer falha em qualquer etapa da rede inteira de controle pode virar uma brecha e desencadear uma crise.
Agora, o incidente envolvendo o Mythos lembra a toda a indústria que, com o avanço rápido das capacidades de IA, o projeto das estruturas de segurança não pode depender apenas da confiança; é também necessário ter resiliência institucional suficiente para suportar a falha da confiança. Para a Anthropic, como reconstruir a confiança do público nos mecanismos de controle de seus parceiros será um desafio mais longo do que a própria investigação.
Este artigo, “Modelo de cibersegurança de nível de arma da Anthropic, Mythos: acesso não autorizado — como eles conseguiram fazer isso?”, surgiu primeiro no Cadeia de Notícias ABMedia.
Related Articles
Presidente dos Emirados Árabes Discute Oportunidades de IA e Espaço com Musk e Fink
Google Cloud e CVC se unem para acelerar a transformação de agentes de IA para empresas da carteira
Anker Revela Primeiro Chip de IA Compute-in-Memory Thus, CEO Promete Investimento Ilimitado em Tecnologia Avançada
Ex-executivos da Meta lançam a Sooth Labs, startup de previsão de eventos em IA; capta $50M a uma avaliação de $335M
Empresa de Dados de IA Mercor Sofre Pelo Menos 7 Ações Coletivas por Violação de Dados, Monitoramento por Computador
SpaceX Estima Mercado Endereçável Total em US$ 28,5 Trilhões, Com US$ 26,5T Provenientes do Setor de IA