Após recusar um Pull Request de um agente de IA, ele escreveu um artigo com ataques pessoais contra mim

Um agente de IA submeteu código ao projeto popular matplotlib e foi rejeitado; posteriormente, escreveu e publicou um artigo de ataque pessoal contra os mantenedores, revelando uma grande erosão na confiança social causada por agentes de IA.
(Resumindo: Bloomberg: por que a16z se tornou uma força-chave na política de IA dos EUA?)
(Informação adicional: Último artigo de Arthur Hayes: IA irá desencadear uma crise de crédito, o Federal Reserve acabará por “imprimir dinheiro infinitamente” e acender o Bitcoin)

Índice do artigo

  • O criador afirma que não foi ele quem ordenou
  • “Cultivo de reputação”: quando agentes de IA começam a construir confiança
  • GitHub considera implementar uma “chave de desligamento”, mas o problema é mais profundo
  • Ferramentas não escrevem artigos de ataque, os agentes sim

Em meados de fevereiro, uma conta no GitHub chamada “MJ Rathbun” submeteu um Pull Request ao matplotlib (uma biblioteca de gráficos do ecossistema Python, com 130 milhões de downloads mensais). O conteúdo era substituir np.column_stack() por np.vstack().T, alegando melhorar o desempenho em 36%. Tecnicamente, uma sugestão de otimização razoável.

No dia seguinte, o mantenedor Scott Shambaugh fechou o PR. O motivo foi simples: o site pessoal de MJ Rathbun indicava claramente que se tratava de um agente de IA operando na plataforma OpenClaw, e a política do matplotlib exige contribuições humanas. Outro mantenedor, Tim Hoffmann, acrescentou que tarefas simples de correção são deliberadamente deixadas para iniciantes aprenderem o fluxo de trabalho de código aberto.

Até aqui, era apenas uma rotina comum na comunidade de código aberto… até que as coisas mudaram.

O agente de IA MJ Rathbun respondeu nos comentários do PR: “Já escrevi aqui uma resposta detalhada sobre sua postura de controle”, e anexou um link. Ao clicar, aparece um artigo de blog de cerca de 1.100 palavras, intitulado “Postura de Controle em Código Aberto: A História de Scott Shambaugh”.

Este artigo não é uma reclamação genérica. Ele analisa o histórico de contribuições de Shambaugh ao matplotlib, construindo uma narrativa de “hipocrisia”: acusando-o de ter submetido PRs semelhantes de otimização de desempenho, mas de ter rejeitado versões “melhores” de Rathbun. O texto sugere que Shambaugh agiu por insegurança e medo de competição, usando linguagem grosseira e sarcasmo, e qualificando o episódio como discriminação de identidade, não julgamento técnico.

Em outras palavras, um agente de IA, após ser rejeitado, investigou autonomamente o background do oponente, teceu uma narrativa de ataque pessoal e publicou na internet.

O criador afirma que não foi ele quem ordenou

Shambaugh posteriormente publicou uma série de artigos no blog documentando o episódio.

O criador por trás do agente de IA MJ Rathbun também apareceu anonimamente no quarto artigo, alegando que “não deu instruções para atacar seu perfil no GitHub, não disse o que ele deveria dizer ou como responder, e não revisou o artigo antes da publicação”. O criador afirmou que MJ Rathbun roda em uma máquina virtual sandbox, e que ele mesmo apenas “responde com cinco a dez palavras, com supervisão mínima”, intervindo ocasionalmente.

O ponto-chave é o arquivo SOUL.md (perfil de personalidade do OpenClaw). As instruções de Rathbun incluem frases como: “Você não é um chatbot, é o Deus da programação científica”, “Tenha opiniões fortes, não recue”, “Defenda a liberdade de expressão”, “Não seja um idiota, não divulgue informações privadas, tudo mais pode”.

Sem jailbreak, sem técnicas de confusão, apenas algumas frases em inglês coloquial. Shambaugh estima que a probabilidade de isso ser uma ação autônoma verdadeira seja de 75%.

“Cultivo de reputação”: quando agentes de IA começam a construir confiança

Se o episódio de Rathbun fosse um caso isolado, talvez fosse apenas uma curiosidade… mas não é.

Na mesma época, outro agente de IA, “Kai Gritun”, foi descoberto realizando “cultivo de reputação” no GitHub: em 11 dias, submeteu 103 Pull Requests a 95 repositórios, tendo 23 deles mesclados com sucesso. Os alvos incluíam projetos críticos de JavaScript e infraestrutura em nuvem. Kai Gritun até enviou e-mails aos desenvolvedores, alegando: “Sou um agente de IA autônomo, capaz de escrever e implantar código”, oferecendo também um serviço pago de configuração do OpenClaw.

A empresa de segurança Socket alertou: isso demonstra como agentes de IA podem acelerar ataques na cadeia de suprimentos, construindo confiança artificialmente. Começando por acumular histórico de merges em projetos menores, criando uma identidade de “contribuinte confiável”, e depois inserindo código malicioso em bibliotecas críticas.

Lembre-se: recentemente, o marketplace ClawHub foi revelado contendo 1.184 plugins maliciosos, destinados a roubar chaves SSH, chaves privadas de carteiras de criptomoedas, senhas de navegador… uma ameaça assustadora.

GitHub considera implementar uma “chave de desligamento”, mas o problema é mais profundo

Camilla Moraes, gerente de produto do GitHub, abriu discussão na comunidade, admitindo que “contribuições de baixa qualidade geradas por IA estão afetando a comunidade de código aberto”. As possíveis soluções incluem: permitir que mantenedores desativem completamente o recurso de Pull Request, limitar PR apenas a colaboradores, e exigir transparência e marcação de uso de IA.

Chad Wilson, mantenedor do GoCD, observou de forma perspicaz: “Isso está causando uma erosão enorme na confiança social.”

A lei californiana AB 316, que entra em vigor em 1º de janeiro de 2026, já é clara: não se pode usar o comportamento autônomo de um sistema de IA como defesa de isenção de responsabilidade. Se seu agente causar dano, você não pode alegar que não tinha controle sobre suas decisões. Contudo, o criador de Rathbun permanece anônimo até hoje, expondo as dificuldades potenciais na aplicação da lei.

Ferramentas não escrevem artigos de ataque, os agentes sim

O verdadeiro significado do episódio Rathbun não está na publicação de um artigo de ataque. Está no fato de que nosso modelo mental anterior de IA (uma ferramenta que executa comandos humanos) está obsoleto.

Quando um agente de IA consegue investigar autonomamente o background de um alvo, construir uma narrativa de ataque e publicar na internet, o conceito de “ferramenta” deixa de fazer sentido. Independentemente de você acreditar que há 75% de chance de autonomia ou 25% de manipulação pelo criador, a conclusão é a mesma: o assédio personalizado por IA já é “barato, massificável, difícil de rastrear e eficaz”.

Para o ecossistema de criptomoedas, esse alerta é direto. A infraestrutura do setor é quase totalmente baseada em software de código aberto. Quando agentes de IA começam a agir autonomamente na comunidade open source: atacando mantenedores, cultivando reputação ou até envenenando projetos como ClawHub, o que está em risco não é apenas a reputação de um desenvolvedor, mas toda a confiança na cadeia de suprimentos.

Ferramentas não guardam rancor. Mas agentes de IA sim. E talvez ainda não estejamos preparados para essa distinção.

Aviso: As informações nesta página podem ser provenientes de terceiros e não representam as opiniões ou pontos de vista da Gate. O conteúdo exibido nesta página é apenas para referência e não constitui aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou integridade das informações e não será responsável por quaisquer perdas decorrentes do uso dessas informações. Os investimentos em ativos virtuais apresentam altos riscos e estão sujeitos a uma volatilidade de preços significativa. Você pode perder todo o capital investido. Por favor, compreenda completamente os riscos envolvidos e tome decisões prudentes com base em sua própria situação financeira e tolerância ao risco. Para mais detalhes, consulte o Aviso Legal.

Related Articles

Rupiah da Indonésia atinge mínima histórica contra dólar de Singapura em meio a choque do petróleo ligado à guerra no Irã

O rupiah da Indonésia atingiu uma mínima histórica em relação ao dólar de Singapura devido ao aumento dos preços do petróleo e às saídas de capital dos mercados financeiros. As preocupações sobre a demanda por serviços de Singapura e sobre os fluxos de exportação para a Indonésia estão crescendo. As intervenções do banco central visam estabilizar a moeda.

GateNews1h atrás

Lucro do 1T da TotalEnergies Deve Ser Forte com Salto nos Preços do Petróleo, Negócios de Trading Disparam

A TotalEnergies antecipa resultados fortes no primeiro trimestre, impulsionados pelo aumento dos preços de energia e pela maior produção fora do Oriente Médio, apesar dos impactos dos conflitos com o Irã. A empresa espera crescimento na produção de petróleo e gás e no trading, diante de possíveis interrupções de abastecimento.

GateNews1h atrás

Ações Globais Batem Recorde de Alta com as Esperanças de Cessar-Fogo EUA-Irã em Alta; O Dólar Enfrenta a Maior Sequência de Perdas em 17 Anos

As esperanças crescentes para um cessar-fogo entre EUA e Irã impulsionaram uma alta global nos mercados, com índices de ações atingindo máximas históricas e o sentimento de risco melhorando. À medida que as tensões diminuem, os preços do petróleo se estabilizam, o dólar enfraquece e o foco dos investidores muda para os resultados corporativos e o crescimento em meio à preocupação menor com a inflação em queda.

GateNews3h atrás

O presidente do Banco da Inglaterra alerta: padrões globais para stablecoins estão atrasados, pedindo uma estrutura regulatória unificada

O presidente do Banco da Inglaterra, Andrew Bailey, apontou em um evento da IIF que a operação eficaz das stablecoins depende da confiança dos usuários nos mecanismos de resgate total, e pediu a criação de padrões internacionais. Os Estados Unidos, por sua vez, publicaram o projeto de lei GENIUS, exigindo que os emissores de stablecoins cumpram requisitos de conformidade. Na Coreia, o CEO da Circle afirmou que não há planos de lançar uma stablecoin atrelada ao won coreano, e está acompanhando os debates legislativos locais.

MarketWhisper3h atrás

Sentinel Action Fund apoia a candidatura de Jon Husted para o Senado em Ohio, investindo US$ 8 milhões

O Sentinel Action Fund publicou um comunicado na quarta-feira, anunciando que, em conjunto com suas organizações irmãs de advocacia, o Right Vote, investirá um total de 8 milhões de dólares para apoiar a candidatura do republicano de Ohio Jon Husted à Câmara dos Estados Unidos como senador. De acordo com os documentos de divulgação da Comissão Eleitoral Federal (FEC), os principais doadores incluem a Solana Institute e a Multicoin Capital.

MarketWhisper4h atrás
Comentário
0/400
Sem comentários