Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Launchpad
Chegue cedo ao próximo grande projeto de tokens
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
Centro de Património VIP
Aumento de património premium
Gestão de património privado
Alocação de ativos premium
Fundo Quant
Estratégias quant de topo
Staking
Faça staking de criptomoedas para ganhar em produtos PoS
Alavancagem inteligente
New
Alavancagem sem liquidação
Cunhagem de GUSD
Cunhe GUSD para retornos RWA
LangChain Confere aos Agentes de IA Controlo sobre a Gestão da Sua Própria Memória
Terrill Dicki
12 de mar de 2026 01:55
A SDK de Agentes Profundos do LangChain agora permite que os modelos de IA decidam quando comprimir as suas janelas de contexto, reduzindo a intervenção manual em fluxos de trabalho de agentes de longa duração.
O LangChain lançou uma atualização na sua SDK de Agentes Profundos que dá aos modelos de IA as chaves para a sua própria gestão de memória. A nova funcionalidade, anunciada a 11 de março de 2026, permite que os agentes ativem autonomamente a compressão de contexto, em vez de depender de limites fixos de tokens ou comandos manuais do utilizador.
A mudança resolve uma dor de cabeça persistente no desenvolvimento de agentes: as janelas de contexto enchem-se em momentos inconvenientes. Os sistemas atuais normalmente compactam a memória ao atingir 85% do limite de contexto de um modelo — o que pode acontecer no meio de uma refatoração ou durante uma sessão de depuração complexa. Um timing inadequado leva à perda de contexto e a workflows quebrados.
Porque o Timing é Importante
A compressão de contexto não é nova. A técnica substitui mensagens antigas por resumos condensados para manter os agentes dentro dos seus limites de tokens. Mas quando comprimir é tão importante quanto se deve comprimir.
A implementação do LangChain identifica vários momentos ótimos para compressão: limites de tarefas quando os utilizadores mudam de foco, após extrair conclusões de grandes contextos de pesquisa, ou antes de iniciar edições longas com múltiplos ficheiros. O agente aprende essencialmente a fazer uma limpeza antes de começar trabalhos complicados, em vez de se apressar quando fica sem espaço.
Pesquisas da Factory AI, publicadas em dezembro de 2024, apoiam esta abordagem. A análise deles revelou que a sumarização estruturada — que preserva a continuidade do contexto em vez de truncar agressivamente — foi fundamental para tarefas complexas de agentes, como depuração. Agentes que mantiveram a estrutura do fluxo de trabalho superaram significativamente aqueles que usaram métodos simples de corte.
Implementação Técnica
A ferramenta é disponibilizada como middleware para a SDK de Agentes Profundos (Python) e integra-se com a CLI existente. Os desenvolvedores adicionam-na à configuração do seu agente:
O sistema mantém 10% do contexto disponível como mensagens recentes, enquanto resume tudo o que veio antes. O LangChain criou uma rede de segurança — o histórico completo da conversa permanece no sistema de ficheiros virtual do agente, permitindo recuperação se a compressão correr mal.
Testes internos mostraram que os agentes são conservadores ao ativar a compressão. O LangChain validou a funcionalidade com o benchmark Terminal-bench-2 e com conjuntos de avaliação personalizados usando rastros do LangSmith. Quando os agentes comprimiam de forma autónoma, escolhiam momentos que melhoravam a continuidade do fluxo de trabalho.
O Panorama Geral
Esta atualização reflete uma mudança mais ampla na filosofia da arquitetura de agentes. O LangChain faz referência explícita à “lição amarga” de Richard Sutton — a observação de que métodos gerais que aproveitam a computação tendem a superar abordagens ajustadas manualmente ao longo do tempo.
Em vez de os desenvolvedores configurarem meticulosamente quando os agentes devem gerir a memória, a framework delega essa decisão ao próprio modelo. É uma aposta de que as capacidades de raciocínio em modelos como o GPT-5.4 atingiram um ponto em que podem tomar essas decisões operacionais de forma fiável.
Para desenvolvedores que constroem agentes de longa duração ou interativos, a funcionalidade é opcional através da SDK e está disponível via comando /compact na CLI. O impacto prático: menos interrupções nos fluxos de trabalho e menos necessidade de intervenção do utilizador em limites de contexto que, na maioria das vezes, os utilizadores finais nem compreendem.
Fonte da imagem: Shutterstock