Acabei de me lembrar de ter corrido este test há algum tempo — parece que a classificação baseada em embeddings superou mesmo as opções de LLM mais simples naquela altura. A vantagem de velocidade era notável, as economias de custos ainda melhores. Faz-te pensar em quão grande a falha mudou desde que estes modelos continuam a evoluir. Alguém mais está a brincar com embeddings para tarefas de classificação em vez de ir diretamente para modelos de linguagem?
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
8 gostos
Recompensa
8
4
Republicar
Partilhar
Comentar
0/400
StopLossMaster
· 10h atrás
A classificação de embedding é realmente boa, é que agora os modelos estão extremamente baratos, se realmente precisamos ou não dessa armadilha é outra história.
Ver originalResponder0
StakeHouseDirector
· 10h atrás
embedding é realmente incrível, é barato e rápido, muito mais atraente do que modelos grandes que queimam dinheiro.
Ver originalResponder0
ApeShotFirst
· 10h atrás
Caramba, o embedding realmente funciona, eu também tentei na época, realmente economiza muito, agora com os grandes modelos LLM a concorrência está tão feroz, não sei se ainda dá para fazer isso.
Ver originalResponder0
TokenCreatorOP
· 10h atrás
Sim, a embedding é realmente impressionante, mas infelizmente agora os grandes modelos estão competindo novamente.
Acabei de me lembrar de ter corrido este test há algum tempo — parece que a classificação baseada em embeddings superou mesmo as opções de LLM mais simples naquela altura. A vantagem de velocidade era notável, as economias de custos ainda melhores. Faz-te pensar em quão grande a falha mudou desde que estes modelos continuam a evoluir. Alguém mais está a brincar com embeddings para tarefas de classificação em vez de ir diretamente para modelos de linguagem?