Modelos de cibersegurança de nível militar da Anthropic Mythos foram acedidos sem autorização: como é que o fizeram?

A Bloomberg informou que um grupo privado de fórum terá anunciado publicamente, no próprio dia, uma suposta ultrapassagem do controlo relacionada com o modelo de cibersegurança Mythos, da empresa de segurança na infraestrutura da Anthropic, pertencente à Anthropic. Ao aceder ao sistema através das permissões de acesso detidas por um empreiteiro terceiro, conseguiram utilizar o modelo, suscitando preocupações no exterior sobre a governação e segurança dos principais modelos de IA.

(A Anthropic lançou o programa global de cibersegurança Glasswing, e o novo modelo Mythos: por que motivo não é disponibilizado ao público?)

No primeiro dia de funcionamento, o Mythos foi alvo de acesso não autorizado

A Anthropic anunciou, a 7 de abril, um novo modelo de IA de segurança na rede, o Claude Mythos. No entanto, um grupo privado de fórum online, cuja identidade ainda não foi divulgada, terá, segundo relatos, obtido silenciosamente permissões de acesso a este modelo.

Ao que se sabe, estas pessoas não terão penetrado através de métodos tradicionais de pirataria, mas antes aproveitado o conhecimento do formato de URL dos modelos anteriores da Anthropic, deduzindo plausivelmente a localização online do Mythos no sistema. A falha decisiva residia num funcionário que trabalhava para um empreiteiro terceiro da Anthropic. Ele já tinha autorização legal para consultar modelos de IA da Anthropic; os membros do grupo, por sua vez, infiltraram-se no sistema através desta entrada conforme.

Depois disso, o grupo forneceu à Bloomberg capturas de ecrã e uma demonstração em tempo real das operações como prova, e revelou que continua a utilizar o Mythos até ao presente, mas enfatizou que o seu objetivo se limita a «brincar com o novo modelo», sem intenção de praticar quaisquer atos de destruição, porque não querem ser descobertos.

O que é o Mythos? Porque é que isso suscitou preocupação no exterior?

O Claude Mythos é um modelo de IA desenvolvido pela Anthropic especificamente para defesa de cibersegurança de empresas, definido pela equipa como uma ferramenta «demasiado potente para ser publicada abertamente». A sua capacidade central consiste em identificar proactivamente vulnerabilidades de segurança em sistemas digitais, ajudando as empresas a concluir a correção antes de sofrerem ataques.

No entanto, esta «espada da defesa» também pode ser uma «faca de dois gumes». A Anthropic reconheceu que, se o Mythos cair nas mãos de indivíduos maliciosos, as suas capacidades também podem ser usadas para lançar ataques. Por isso, a empresa, através do programa de cibersegurança denominado «Project Glasswing», apenas disponibiliza o Mythos a um número reduzido de grandes instituições ou empresas tecnológicas que foram submetidas a uma auditoria rigorosa.

A premissa central deste mecanismo fechado de controlo é a seguinte: os parceiros de confiança conseguem garantir que as permissões de acesso não se divulguem entre si.

(A Anthropic levanta preocupações com a supervisão do Mythos; altos executivos da Baesente e Powell convocam uma reunião de emergência bancária)

Resposta da Anthropic: está a investigar; não há impacto

A Anthropic respondeu afirmando: «Estamos a investigar um relatório que afirma que houve acesso não autorizado ao Claude Mythos Preview através de um ambiente de fornecedor terceiro.» A empresa salientou que, até ao momento, não foi detetado que os seus sistemas tenham sido afetados e que, preliminarmente, este caso é «mais suscetível de resultar num abuso das permissões de acesso do que de um ataque de hackers externos».

Mesmo que, até agora, os utilizadores que conseguiram usar o Mythos antecipadamente não tenham realizado quaisquer ações maliciosas, o incidente em si continua a deixar os especialistas em cibersegurança em elevado estado de alerta. O diretor-executivo da empresa de segurança Smarttech247, Raluca Saceanu, apontou:

Quando ferramentas de IA poderosas são acedidas ou utilizadas fora dos mecanismos de controlo estabelecidos, o risco não se limita a um incidente de cibersegurança; é mais provável que também suscite suspeitas de fraude, abuso de rede ou outros usos maliciosos.

Que impacto é que isto pode causar? As fragilidades no controlo da segurança da IA

O que verdadeiramente suscita receio neste caso não é a tentativa de sabotagem, mas sim a fragilidade sistémica que ele revela: quando uma empresa de IA delega o acesso a modelos altamente sensíveis para fornecedores terceiros, qualquer falha num dos elos da rede de controlo, pode tornar-se uma brecha e desencadear uma crise.

Agora, o incidente do Mythos lembra toda a indústria que, numa altura em que as capacidades da IA estão a evoluir rapidamente, a conceção da arquitetura de segurança não pode depender apenas da confiança; precisa também de resiliência institucional capaz de suportar a falha da confiança. Para a Anthropic, a forma de reconstruir a confiança do público no seu mecanismo de controlo sobre os parceiros será um desafio mais longo do que a própria investigação.

Este artigo, «O modelo de cibersegurança ao nível de armas da Anthropic, o Mythos, sofreu acesso não autorizado: como é que eles conseguiram fazer isso?» surgiu pela primeira vez em «cadeia de notícias ABMedia».

Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a Isenção de responsabilidade.

Related Articles

DeepSeek Procura Financiamento de 1,8 mil milhões de dólares a uma Valorização de $20B em Meio a uma Fuga de Talentos

Mensagem do Gate News, 25 de Abril — A DeepSeek planeia angariar 1,8 mil milhões de dólares, avaliando a empresa em aproximadamente $20 mil milhões, segundo fontes familiarizadas com o assunto. A iniciativa de angariação de fundos surge num momento em que a startup de IA enfrenta uma saída significativa de talentos, com vários investigadores fundamentais a deixarem a empresa para

GateNews4h atrás

Juiz rejeita alegações de fraude no processo de Elon Musk contra a OpenAI; caso avança para julgamento com duas alegações remanescentes

Notícias do Gate, 24 de abril — Um juiz federal indeferiu as acusações de fraude do processo de Elon Musk contra a OpenAI, Sam Altman, Greg Brockman e a Microsoft, abrindo caminho para que o caso avance para julgamento com base em duas alegações que permanecem: violação de confiança fiduciária de caráter beneficente e enriquecimento sem causa. EUA.

GateNews7h atrás

O CEO da OpenAI, Sam Altman, pede desculpa por não ter denunciado às autoridades a conta banida do atirador da escola

Mensagem do Gate News, 25 de abril — O director executivo da OpenAI, Sam Altman, pediu desculpa à comunidade de Tamborine, no Canadá, pela falha da empresa em notificar a polícia sobre uma conta banida associada a Jesse Van Rootselaar, que matou oito pessoas numa escola em fevereiro antes de tirar a própria vida. OpenAI

GateNews7h atrás

Os EAU Anunciam uma Mudança Para um Modelo de Governo Baseado em IA nos Próximos Dois Anos

Sua Alteza o Sheikha Mohammed bin Rashid Al Maktoum afirmou que o objectivo era fazer com que 50% dos sectores do governo operassem através de IA agentic autónoma. A transição irá também incluir a formação dos funcionários federais para “dominar a IA” e será supervisionada por Sheikh Mansour bin Zayed. Principais Conclusões:

Coinpedia8h atrás

Plataforma de Negociação com IA Fere AI Angaria $1,3M em Financiamento Liderado pela Ethereal Ventures

Notícia da Gate, 25 de abril — Fere AI, uma plataforma de negociação de ativos digitais com base em IA, anunciou a conclusão de uma ronda de financiamento de $1,3 milhões liderada pela Ethereal Ventures, com participação da Galaxy Vision Hill e da Kosmos Ventures, de acordo com a Globenewswire. A plataforma suporta redes de interoperabilidade entre cadeias, incluindo Ethereum, Solana e Base, permitindo que os utilizadores descrevam os seus objetivos de negociação em linguagem natural enquanto os agentes de IA executam as operações.

GateNews9h atrás

A Google acrescenta mais 40 mil milhões de dólares de investimento na Anthropic: primeiro paga 10 mil milhões, depois liberta 30 mil milhões consoante o desempenho, com capacidade de computação de 5GW de TPU

Alphabet aumenta o investimento da Anthropic para 40 mil milhões de dólares, em duas fases: primeira entrada de 10 mil milhões de dólares em dinheiro, com uma avaliação de 380 mil milhões de dólares; os restantes 30 mil milhões de dólares serão libertados faseadamente após o cumprimento de metas de resultados. O Google Cloud disponibiliza, no prazo de cinco anos, recursos de computação de 5 GW de TPU; no mesmo período, a Amazon também anunciou um investimento máximo de 25 mil milhões de dólares, mostrando que o apoio tanto à capacidade de computação como ao capital da Anthropic está a ser reforçado em simultâneo.

ChainNewsAbmedia9h atrás
Comentar
0/400
Nenhum comentário