Análise do GEPA do Berkeley: a IA aprende novas tarefas sem atualizar pesos, com 35 vezes menos custo de treinamento do que o RL

ChainNewsAbmedia

A equipe de pesquisa da Universidade da Califórnia em Berkeley apresentou um novo método de treinamento de IA, a GEPA, que já foi aceita na ICLR 2026 como artigo Oral. A GEPA não atualiza os pesos do modelo, não exige treinamento em GPU e, em vez disso, usa um único LLM que “lê um histórico de treinamento” para reescrever repetidamente os prompts de um sistema de IA. Com isso, ela vence em média métodos de reforço learning (GRPO) em 6% nas 6 tarefas, chegando ao melhor desempenho de 20%, com 35 vezes menos tentativas de treinamento (rollouts) necessárias. Depois que a pesquisa foi organizada por uma comunidade de engenharia de IA e se espalhou, gerou discussões na plataforma X; agora ela já foi integrada ao DSPy como um otimizador de primeira classe.

O que a GEPA faz: transformar o histórico de treinamento em material didático, sem olhar apenas para a pontuação

O fluxo de trabalho dos métodos tradicionais de reforço learning (como o GRPO) é: fazer a IA executar uma tarefa, atribuir uma pontuação “+1 ou -1” com base no resultado e, em seguida, ajustar os pesos do modelo repetidamente usando essa pontuação. O problema é que, durante a execução da tarefa, o processo de IA normalmente inclui etapas de raciocínio com milhares de tokens, chamadas de ferramentas e mensagens de erro — esses detalhes ricos acabam sendo comprimidos em uma única pontuação, e a informação do processo é descartada. Por isso, o RL precisa rodar dezenas de milhares de vezes até convergir.

A abordagem da GEPA é o oposto: após cada execução da tarefa, ela entrega todo o processo (reasoning, chamadas de ferramentas e registros de erros) para outro “LLM de reflexão” ler. O LLM de reflexão funciona como um engenheiro sênior lendo um log de código: ele identifica em que etapa ocorreu o erro, por que ocorreu e como o prompt deve ser modificado; depois disso, ele reescreve diretamente o prompt do módulo correspondente. Rodando a tarefa da mesma forma, a quantidade de sinal extraída pela GEPA é muito maior do que a de uma única pontuação do RL.

Por que ela consegue vencer: trocar “dar nota” por “ler o processo inteiro”

A GEPA vence o GRPO em 6 tarefas, com média de 6% e pico de 20%; e, em comparação, outro otimizador de prompts comum, o MIPROv2, também fica para trás em mais de 10% (aumentando 12% na base matemática AIME-2025). O ponto mais crítico está no custo de treinamento: a GEPA precisa de 35 vezes menos rollouts (uma execução completa da tarefa) para atingir o mesmo desempenho.

Um outro dado: após a integração com o DSPy, o “Full Program Adapter” da GEPA consegue otimizar todo o programa do DSPy (incluindo signature, módulos e fluxo de controle). Na base de matemática MATH, alcança 93% de acurácia, superando de forma significativa a escrita original do ChainOfThought do DSPy, que era de 67%. A GEPA também se destaca especialmente em fluxos de multi-module (agentes de IA encadeados por múltiplos módulos) — permitindo localizar com precisão qual módulo específico está falhando e reescrever apenas o prompt dele, em vez de ajustar o sistema inteiro.

Quem deve usar primeiro: DSPy como cidadão de primeira classe, e o código já está aberto no GitHub

O código da GEPA foi aberto no GitHub e é integrado ao framework do DSPy na forma de dspy.GEPA; além disso, também é disponibilizada separadamente como uma library Python. A equipe de pesquisa é composta por membros de UC Berkeley, Stanford, Notre Dame, Anthropic e outras instituições. Entre os autores do artigo estão Matei Zaharia (cofundador da Databricks e principal autor do DSPy) e Omar Khattab (principal autor do DSPy).

Para a comunidade de desenvolvedores, a GEPA oferece uma nova solução para um problema recorrente: “temos muitos rollouts, mas não sabemos como aproveitá-los”. Muitas equipes já acumularam dezenas de milhares de registros de execuções de agentes, mas, além de consultar algumas amostras para corrigir bugs quando dá erro, não existe um método sistemático para converter esses registros em melhorias do modelo. O próximo ponto de observação é ver como a GEPA se comporta em casos reais de fluxos de agentes em ambiente corporativo (como automação de atendimento ao cliente e reparo automático de código) e se surgirão implementações correspondentes de GEPA fora do framework DSPy.

Este artigo de Berkeley destrincha a GEPA: sem atualizar pesos, a IA aprende novas tarefas com 35 vezes menos custo de treinamento, vencendo o RL — a matéria original mais cedo sobre isso surgiu no ABMedia, via cadeias de notícias.

Aviso: As informações nesta página podem ser provenientes de terceiros e não representam as opiniões ou pontos de vista da Gate. O conteúdo exibido nesta página é apenas para referência e não constitui aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou integridade das informações e não será responsável por quaisquer perdas decorrentes do uso dessas informações. Os investimentos em ativos virtuais apresentam altos riscos e estão sujeitos a uma volatilidade de preços significativa. Você pode perder todo o capital investido. Por favor, compreenda completamente os riscos envolvidos e tome decisões prudentes com base em sua própria situação financeira e tolerância ao risco. Para mais detalhes, consulte o Aviso Legal.

Related Articles

Karpathy agora mostra: o método completo para criar um banco de conhecimento pessoal usando LLM

Os membros da equipe fundadora da OpenAI, Andrej Karpathy, ex-diretor de IA da Tesla, publicou no X o fluxo de trabalho de “LLM Knowledge Bases” e explicou como, recentemente, ele migrou o uso de uma grande quantidade de tokens de “controle de código” para “controle de conhecimento” — usando LLM para transformar artigos, papers, pastas, imagens dispersos em um wiki pessoal automaticamente mantido. Todo o processo já foi acumulado em seus projetos de pesquisa, somando ~100 artigos, ~400 mil palavras, e todo o ciclo foi escrito e atualizado pelo LLM. Este texto reúne o setup completo de Karpathy e fornece uma lista de implementação prática para desenvolvedores que queiram replicar. Ideia central: dados brutos → LLM compilando → wiki → Q&A A filosofia de design de Karpathy pode ser resumida em um

ChainNewsAbmedia10m atrás

Bitcoin Treasury Firm K Wave Media garante até $485M para a construção da infraestrutura de IA

De acordo com o ChainCatcher, a empresa de tesouraria de bitcoin listada na Nasdaq, K Wave Media, anunciou em 4 de maio uma mudança estratégica para infraestrutura de IA, garantindo até US$ 485 milhões em apoio de capital para investimentos em data centers, serviços de aluguel de GPUs e aquisições e parcerias de infraestrutura de IA. A empresa

GateNews1h atrás

A Antimatter lança um plano de data center de IA com financiamento de €300 milhões

A Antimatter, empresa francesa de infraestrutura em nuvem para cargas de trabalho de IA, foi lançada em 4 de maio ao combinar três empresas existentes: Datafactory, Policloud e Hivenet. A empresa está captando € 300 milhões (US$ 351 milhões) para implantar 100 unidades de micro data centers em 2026 para inferência de IA

CryptoFrontier3h atrás

Ministério da Educação “A biblioteca tem IA”: livros da biblioteca gratuitos para usar ChatGPT, Claude! Veja de uma vez o período e os locais de aplicação

O Ministério da Educação está promovendo o programa “館館有 AI”. A partir do 4º trimestre deste ano, bibliotecas nacionais como a Biblioteca Nacional vão instalar 5 computadores de IA em cada unidade. A população poderá usar gratuitamente ferramentas como ChatGPT, Claude, Gemini etc. apenas com a carteirinha de empréstimo, reduzindo a diferença entre o acesso pago e o uso de IA e ampliando o programa para 47 bibliotecas de universidades nacionais. Os recursos serão provenientes de captação pela própria escola ou de solicitação de subsídios; ao mesmo tempo, é preciso superar desafios como horários de uso, gestão de contas, privacidade e licenças.

ChainNewsAbmedia4h atrás

Economia de modelos virtuais com IA: Aitana, Emily e análise de 4 sistemas Markdown

A modelo virtual com IA saiu do campo dos experimentos e virou uma empresa de verdade, faturando mensalmente dezenas de milhares de dólares, com todo o seu stack tecnológico amadurecendo rapidamente em 18 meses. Este artigo reúne três casos típicos: Aitana López, do grupo The Clueless (Barcelona, € 10.000 por mês), Emily Pellegrini, criada por um autor anônimo (renda semanal de cerca de 10 mil dólares) e o recente caso “Maya” que viralizou no X — uma estudante do Texas que, alegadamente, construiu uma personalidade virtual de IA usando 4 arquivos markdown e obteve US$ 43.000 de receita no primeiro mês na conta do OnlyFans. Aitana López: a modelo virtual própria da The Clueless, com renda mensal de até € 10.000 Aitana López é de

ChainNewsAbmedia6h atrás

TipTip atinge lucratividade de EBITDA à medida que a IA impulsiona a bilheteria de entretenimento

A plataforma indonésia de entretenimento e experiências TipTip anunciou em 4 de maio que alcançou lucratividade em EBITDA em toda a empresa no início de 2026, impulsionada por controles de custos, melhoria da economia unitária e parceria com o investidor líder East Ventures. Crescimento de ingressos de entretenimento O crescimento de bilheteria do TipTip's entertainment t

CryptoFrontier8h atrás
Comentário
0/400
Sem comentários