Há muito tempo que se falava de um modelo de ponta da Anthropic, o “Claude Mythos Preview”, e foi finalmente confirmado que existe — mas, apesar de o descreverem como o modelo de IA mais forte do mundo, a Anthropic decidiu não o divulgar ao público. O fundador de uma startup de IA, Matt Shumer, afirmou de forma direta no X que este modelo “já ultrapassou o âmbito dos testes de referência” e que, nas mãos erradas, se tornará numa “arma cibernética com capacidade de destruição em larga escala”. A reação do professor Ethan Mollick foi ainda mais concisa — uma frase “Oh no.” arrecadou mais de 1.300 gostos, captando com precisão a surpresa coletiva de toda a comunidade de IA.
Project Glasswing: um modelo forte demais para ser publicado
De acordo com o System Card (System Card) publicado pela Anthropic, o modelo Mythos tem o código interno de Project Glasswing. A sua capacidade mais surpreendente está no domínio da cibersegurança: o System Card mostra que o Mythos consegue, de forma independente, identificar vulnerabilidades de dia zero (zero-day vulnerabilities) em projetos open source populares como OpenBSD, FFmpeg e Linux — o que significa que a IA já tem capacidades de ataque que, no passado, apenas as melhores equipas de hackers possuíam.
Foi precisamente esta capacidade que levou a Anthropic a tomar uma decisão sem precedentes: não publicar o modelo. Isto abriu um novo precedente na indústria da IA — quando as capacidades de um modelo ultrapassam o limiar de implantação segura, “não publicar” é, por si só, uma decisão de produto.
Reações polarizadas da comunidade de IA
A notícia do Mythos rapidamente incendiou a comunidade de IA. A reação de Shumer vem carregada de um forte tom de alerta, e o seu post obteve mais de 210.000 visualizações. O xiaohu da comunidade chinesa de IA forneceu ainda o resumo técnico mais completo, explicando em detalhe os limites das capacidades do Mythos e a estrutura de segurança do Project Glasswing.
Importa notar que, numa análise posterior, Mollick aponta que, mesmo sendo um modelo de ponta como o Mythos, os romances em texto produzidos ainda apresentam falhas típicas de escrita de LLM — lembrando-nos que “o mais forte” não significa “omnisciente”, e que a distribuição das capacidades da IA continua extremamente desigual.
O que “não publicar” significa para a indústria
O significado para a indústria do caso Mythos vai muito além do próprio modelo. Ele assinala que a indústria de IA entrou oficialmente numa nova fase: o patamar máximo das capacidades dos modelos deixa de ser uma questão técnica e passa a ser um problema de segurança e de governação. Quando um modelo de IA consegue identificar vulnerabilidades de dia zero de forma independente, é evidente que o modelo tradicional de “treinar e depois publicar” já não se aplica.
Para a indústria de Taiwan tecnologicamente orientada a acompanhar o desenvolvimento da IA, a lição do Mythos é de dupla natureza: por um lado, as capacidades de cibersegurança da IA de ponta irão redefinir o panorama de ataque e defesa da indústria de segurança da informação; por outro, a “não publicação responsável” poderá tornar-se uma constante no futuro das empresas de IA, o que irá alterar de forma fundamental as estratégias de lançamento de produtos e os modelos de negócio de IA.
Este artigo sobre o modelo Mythos da Anthropic “que não se atreve a publicar”: capaz de encontrar vulnerabilidades de dia zero, descrito como IA ao nível de arma cibernética, apareceu pela primeira vez em Cadeia de notícias ABMedia.