A Bloomberg informou que um grupo privado de fórum terá anunciado publicamente, no próprio dia, uma suposta ultrapassagem do controlo relacionada com o modelo de cibersegurança Mythos, da empresa de segurança na infraestrutura da Anthropic, pertencente à Anthropic. Ao aceder ao sistema através das permissões de acesso detidas por um empreiteiro terceiro, conseguiram utilizar o modelo, suscitando preocupações no exterior sobre a governação e segurança dos principais modelos de IA.
(A Anthropic lançou o programa global de cibersegurança Glasswing, e o novo modelo Mythos: por que motivo não é disponibilizado ao público?)
No primeiro dia de funcionamento, o Mythos foi alvo de acesso não autorizado
A Anthropic anunciou, a 7 de abril, um novo modelo de IA de segurança na rede, o Claude Mythos. No entanto, um grupo privado de fórum online, cuja identidade ainda não foi divulgada, terá, segundo relatos, obtido silenciosamente permissões de acesso a este modelo.
Ao que se sabe, estas pessoas não terão penetrado através de métodos tradicionais de pirataria, mas antes aproveitado o conhecimento do formato de URL dos modelos anteriores da Anthropic, deduzindo plausivelmente a localização online do Mythos no sistema. A falha decisiva residia num funcionário que trabalhava para um empreiteiro terceiro da Anthropic. Ele já tinha autorização legal para consultar modelos de IA da Anthropic; os membros do grupo, por sua vez, infiltraram-se no sistema através desta entrada conforme.
Depois disso, o grupo forneceu à Bloomberg capturas de ecrã e uma demonstração em tempo real das operações como prova, e revelou que continua a utilizar o Mythos até ao presente, mas enfatizou que o seu objetivo se limita a «brincar com o novo modelo», sem intenção de praticar quaisquer atos de destruição, porque não querem ser descobertos.
O que é o Mythos? Porque é que isso suscitou preocupação no exterior?
O Claude Mythos é um modelo de IA desenvolvido pela Anthropic especificamente para defesa de cibersegurança de empresas, definido pela equipa como uma ferramenta «demasiado potente para ser publicada abertamente». A sua capacidade central consiste em identificar proactivamente vulnerabilidades de segurança em sistemas digitais, ajudando as empresas a concluir a correção antes de sofrerem ataques.
No entanto, esta «espada da defesa» também pode ser uma «faca de dois gumes». A Anthropic reconheceu que, se o Mythos cair nas mãos de indivíduos maliciosos, as suas capacidades também podem ser usadas para lançar ataques. Por isso, a empresa, através do programa de cibersegurança denominado «Project Glasswing», apenas disponibiliza o Mythos a um número reduzido de grandes instituições ou empresas tecnológicas que foram submetidas a uma auditoria rigorosa.
A premissa central deste mecanismo fechado de controlo é a seguinte: os parceiros de confiança conseguem garantir que as permissões de acesso não se divulguem entre si.
(A Anthropic levanta preocupações com a supervisão do Mythos; altos executivos da Baesente e Powell convocam uma reunião de emergência bancária)
Resposta da Anthropic: está a investigar; não há impacto
A Anthropic respondeu afirmando: «Estamos a investigar um relatório que afirma que houve acesso não autorizado ao Claude Mythos Preview através de um ambiente de fornecedor terceiro.» A empresa salientou que, até ao momento, não foi detetado que os seus sistemas tenham sido afetados e que, preliminarmente, este caso é «mais suscetível de resultar num abuso das permissões de acesso do que de um ataque de hackers externos».
Mesmo que, até agora, os utilizadores que conseguiram usar o Mythos antecipadamente não tenham realizado quaisquer ações maliciosas, o incidente em si continua a deixar os especialistas em cibersegurança em elevado estado de alerta. O diretor-executivo da empresa de segurança Smarttech247, Raluca Saceanu, apontou:
Quando ferramentas de IA poderosas são acedidas ou utilizadas fora dos mecanismos de controlo estabelecidos, o risco não se limita a um incidente de cibersegurança; é mais provável que também suscite suspeitas de fraude, abuso de rede ou outros usos maliciosos.
Que impacto é que isto pode causar? As fragilidades no controlo da segurança da IA
O que verdadeiramente suscita receio neste caso não é a tentativa de sabotagem, mas sim a fragilidade sistémica que ele revela: quando uma empresa de IA delega o acesso a modelos altamente sensíveis para fornecedores terceiros, qualquer falha num dos elos da rede de controlo, pode tornar-se uma brecha e desencadear uma crise.
Agora, o incidente do Mythos lembra toda a indústria que, numa altura em que as capacidades da IA estão a evoluir rapidamente, a conceção da arquitetura de segurança não pode depender apenas da confiança; precisa também de resiliência institucional capaz de suportar a falha da confiança. Para a Anthropic, a forma de reconstruir a confiança do público no seu mecanismo de controlo sobre os parceiros será um desafio mais longo do que a própria investigação.
Este artigo, «O modelo de cibersegurança ao nível de armas da Anthropic, o Mythos, sofreu acesso não autorizado: como é que eles conseguiram fazer isso?» surgiu pela primeira vez em «cadeia de notícias ABMedia».
Related Articles
DeepSeek Procura Financiamento de 1,8 mil milhões de dólares a uma Valorização de $20B em Meio a uma Fuga de Talentos
Juiz rejeita alegações de fraude no processo de Elon Musk contra a OpenAI; caso avança para julgamento com duas alegações remanescentes
O CEO da OpenAI, Sam Altman, pede desculpa por não ter denunciado às autoridades a conta banida do atirador da escola
Os EAU Anunciam uma Mudança Para um Modelo de Governo Baseado em IA nos Próximos Dois Anos
Plataforma de Negociação com IA Fere AI Angaria $1,3M em Financiamento Liderado pela Ethereal Ventures
A Google acrescenta mais 40 mil milhões de dólares de investimento na Anthropic: primeiro paga 10 mil milhões, depois liberta 30 mil milhões consoante o desempenho, com capacidade de computação de 5GW de TPU