Com base em um relatório exclusivo da Axios e republicado pela Reuters, a Agência de Segurança Nacional dos EUA (NSA) está usando o modelo mais forte da Anthropic, o Mythos Preview, apesar de a instituição superior, o Departamento de Defesa dos EUA (Department of Defense, DoD), desde fevereiro já ter classificado a Anthropic como “risco de cadeia de suprimentos” e tê-la desativado. Este é o primeiro exemplo público na história da governança de IA nos EUA de uma contradição aberta em que um órgão de um mesmo governo federal bloqueia, enquanto outro órgão, na prática, utiliza.
Mythos só abriu para 40 empresas, enquanto a lista oficial só revela 12
Depois que a Anthropic anunciou publicamente a existência do Claude Mythos em fevereiro, ela concedeu acesso ao preview para apenas cerca de 40 organizações no mundo, e a lista divulgada oficialmente tem só 12. O restante foi intencionalmente ocultado com base em que “capacidades de ciberataque são sensíveis demais”. A NSA, como unidade central no sistema de inteligência dos EUA que lida com informações de sinais (SIGINT) e criptografia, não está entre as 12 empresas na lista pública da Anthropic, mas ainda assim obteve e usa o Mythos — o que levanta duas dúvidas simultâneas no exterior: transparência da lista da Anthropic e autorização de acesso do governo dos EUA.
Proibição do DoD vs conflito interno de uso ampliado pelas forças armadas
A relação entre o Pentágono e a Anthropic se rompeu no começo deste ano. A versão oficial é que, quando houve atualização de contrato, a Anthropic insistiu em excluir finalidades como “monitoramento doméstico em massa e desenvolvimento de armas autônomas”, enquanto o Departamento de Defesa exigiu que o Mythos “fique aberto para todos os usos legais”. Depois que as negociações fracassaram, em fevereiro o DoD colocou a Anthropic na lista de desativação sob o argumento de “risco de cadeia de suprimentos” e determinou que os fornecedores do setor de defesa interrompessem os negócios em conjunto.
Ironicamente, dois meses depois da desativação formal pelo DoD, não só a NSA continuou a usar o Mythos como também várias unidades das forças armadas dos EUA passaram a adotar ainda mais a série de outros modelos da Anthropic Claude. Unidades governamentais argumentaram em documentos públicos de tribunal que “usar ferramentas da Anthropic ameaçaria a segurança nacional”, mas as mesmas unidades continuam usando o Claude internamente para tarefas de segurança da informação e de inteligência. Mais cedo neste mês, o ministro do Tesouro Bessent e o presidente do Fed, Powell, convocaram uma reunião de emergência com líderes do setor bancário para discutir preocupações regulatórias sobre o Mythos; agora as contradições internas vieram à tona, e o risco administrativo do Mythos aumentou de forma significativa.
Dario Amodei vai à Casa Branca para negociar acordo
O CEO da Anthropic, Dario Amodei, já foi à Casa Branca em 17 de abril para se reunir com a chefe de gabinete Susie Wiles e com o secretário do Tesouro Scott Bessent. Segundo a Axios, as conversas se concentraram em três pontos: os limites de uso do Mythos dentro do sistema governamental, as operações e fluxos de auditoria de segurança da Anthropic como um todo e como permitir que “outros órgãos além do Pentágono” continuem obtendo acesso. Os próximos passos podem incluir a criação de um canal de autorização separado para agências federais que não sejam do DoD, ou exigir que a Anthropic divulgue uma lista mais completa de clientes para responder às preocupações regulatórias do Pentágono.
Novo modelo para acesso por níveis e limites de compras governamentais
O caso do Mythos e, na mesma semana, o lançamento do GPT-5.4-Cyber pela OpenAI se conectam: em 2026, os modelos de IA mais avançados entrarão na fase de liberação segmentada em que “quanto maior a capacidade, menor o número de clientes”. Esse tipo de sistema de controle parece rigoroso, mas quando o próprio governo federal dos EUA tem normas internas inconsistentes, na prática equivale a deixar o fabricante (Anthropic) decidir quais unidades governamentais merecem confiança. Para governos e empresas de outros países, a próxima pressão de políticas é: se exigir que fabricantes de IA divulguem listas de autorização de clientes quando envolverem o processamento de dados de cidadãos do próprio país. As ações da Anthropic nas próximas semanas se tornarão um modelo de governança para toda a indústria de IA de ponta.
Este artigo da Axios em primeira mão: a NSA dos EUA contornou a lista negra do DoD e usou o Anthropic Mythos; Dario Amodei foi à Casa Branca com urgência para negociar. Apareceu pela primeira vez em Cadeia de Notícias ABMedia.
Related Articles
V4-Pro Atinge 67% de Taxa de Aprovação de Código em Teste Interno de Dogfooding, Chegando Perto do Desempenho do Opus 4.5
O Reino Unido observa a Anthropic AI para fortalecer a cibersegurança bancária
O Escritório de PI da China Adiciona IA, Semicondutores e Interfaces Cérebro-Computador ao Programa de Proteção com Tramitação Acelerada
O governo dos EUA opera um nó de Bitcoin sem mineração, indica o almirante
Receita da Tesla no 1T sobe 16% para US$22,4B; robô humanoide deve estrear em meados de 2026
Lucro da SK Hynix no 1T dispara cinco vezes para recorde com boom de IA, elevando bônus de funcionários para US$ 878K