Recentemente, acompanhar a interação na cadeia com agentes de IA tem sido empolgante, mas ainda é preciso alguém para cobrir as falhas quando eles realmente entram em ação. A etapa de autorização é a mais chata, o agente para economizar gás dá um limite ilimitado, e ao encontrar um contrato de phishing, ele simplesmente desaparece; roteamento/slippage também é assim, com interrupções na cadeia, MEV tirando uma fatia, o agente só executa de acordo com a estratégia, e a pessoa precisa ficar de olho em transações anormais. Além disso, oráculos de preços, limites de liquidação, esses modelos não entendem "condições de fronteira", uma vez que a fonte de dados oscila, pode desencadear uma reação em cadeia, e no final, ainda é preciso que alguém pare manualmente ou troque a fonte.



A temporada de airdrops agora é baseada em pontos + anti-witching, o agente faz tarefas automaticamente, quase como marcar ponto no trabalho... mas, na verdade, ele não consegue assumir a responsabilidade por riscos ou identidade. Minha abordagem é bem simples: valores pequenos, carteiras de divisão de fundos, permissões conforme necessário, estratégias podem ser entregues a ele, mas as consequências não.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • Comentário
  • Repostar
  • Compartilhar
Comentário
Adicionar um comentário
Adicionar um comentário
Sem comentários
  • Marcar