Relatório da TRM Labs: Agentes de IA Autónomos Transformam as Finanças Digitais, Destacando a Necessidade Urgente de Supervisão e Responsabilidade

Resumido

A TRM Labs informou que agentes de IA autónomos em criptomoedas aceleram transações e crimes financeiros, levantando novos desafios de segurança, responsabilidade e regulação.

TRM Labs Warns AI Integration In Crypto Increases Financial Crime Risks And Demands Stronger Governance

A empresa de inteligência blockchain TRM Labs publicou um relatório analisando o papel crescente da IA nas finanças digitais, especialmente nos ecossistemas de criptomoedas, observando que os sistemas de IA estão cada vez mais executando transações de forma autónoma, sem supervisão humana contínua.

Segundo o relatório, esse aumento nas operações automatizadas coincide com um aumento significativo nos crimes financeiros, com fluxos ilícitos de criptomoedas atingindo 158 bilhões de dólares em 2025, e fraudes alimentadas por IA supostamente aumentando cerca de 500% ao ano.

Embora a IA não crie novas intenções criminosas, ela acelera a execução de atividades ilícitas, complica a responsabilização e exige abordagens atualizadas de regulação, supervisão e aplicação da lei. Agentes de IA autónomos agora conseguem comprimir prazos para lavagem de dinheiro e movimentação de ativos entre blockchains, realizando funções como dividir fundos, selecionar as melhores pontes e executar trocas em plataformas descentralizadas em segundos.

Operações de Criptomoedas impulsionadas por IA aceleram ataques, levantando novos desafios de segurança e responsabilidade

Essa execução rápida limita a eficácia dos métodos tradicionais de monitoramento e foi um fator contribuinte em violações notáveis, incluindo um roubo de 1,46 bilhões de dólares de uma grande exchange em 2025. O relatório destacou ainda que, em 2025, foram perdidos 2,87 bilhões de dólares em 150 ataques, demonstrando como a IA reduz barreiras para atividades ilícitas rápidas e em grande escala.

O relatório também enfatiza que a IA introduz novas vulnerabilidades. Os atacantes podem explorar sistemas por meio de comandos maliciosos, manipulação de dados ou sequestro de chaves de acesso, e até mesmo criar agentes específicos para lavagem de dinheiro ou contornar sanções.

Além disso, agentes destinados a fins legítimos podem inadvertidamente direcionar fundos através de entidades de alto risco ou proibidas, levantando preocupações de conformidade. A escala da automação aumenta o potencial de impacto de erros ou exploits, pois os danos podem se propagar rapidamente sem envolvimento humano direto.

A responsabilidade continua sendo um desafio crítico, pois a IA em si não possui status legal ou intenção. A responsabilidade recai sobre os humanos envolvidos no design, implantação, uso e benefício, exigindo que investigadores rastreiem o controle, a consciência do risco e os fluxos de lucro.

O uso de agentes autónomos complica as investigações, pois esses sistemas geram endereços temporários, atividades entre cadeias e comportamentos imprevisíveis. No entanto, a transparência do blockchain permite reconstruir padrões de transações e cadeias de autoridade, embora desafios jurisdicionais exijam colaboração internacional.

TRM Labs destaca a necessidade de uma governança forte e supervisão ética à medida que agentes de IA se expandem nos sistemas financeiros

As definições legais de crimes continuam baseadas em ações humanas ou negligência, mas medidas de governança — como limites de transação, monitoramento de anomalias e trilhas de auditoria — tornaram-se essenciais para estabelecer responsabilidade. Geopoliticamente, a IA pode facilitar evasões em redes sancionadas, como visto no manejo de fluxos de stablecoins de alto risco.

As defesas devem evoluir, empregando IA para detecção de anomalias, rastreamento em tempo real de cadeias e alertas automáticos, mantendo supervisão humana para decisões críticas. Limitar a autonomia dos agentes por meio de limites e restrições pode mitigar riscos não intencionais. Análises de blockchain continuam centrais para identificar atividades suspeitas, mapear infraestruturas e garantir que a inovação não ultrapasse as salvaguardas.

A TRM Labs concluiu que, à medida que agentes de IA se tornam mais integrados aos sistemas financeiros, controles proativos, implantação ética e linhas claras de responsabilidade são essenciais. Priorizar a explicabilidade, ferramentas de resposta rápida e estruturas de governança robustas permite que os stakeholders aproveitem as eficiências da IA enquanto reduzem a exposição a atividades ilícitas, um equilíbrio considerado fundamental para o desenvolvimento seguro da economia digital.

Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • Comentário
  • Repostar
  • Compartilhar
Comentário
0/400
Sem comentários
  • Marcar

Negocie criptomoedas a qualquer hora e em qualquer lugar
qrCode
Escaneie o código para baixar o app da Gate
Comunidade
Português (Brasil)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)