Je viens de me souvenir d'avoir exécuté ce test il y a quelque temps — il s'avère que la classification basée sur l'embedding a surpassé même les options LLM les plus légères à l'époque. L'avantage en termes de vitesse était notable, les économies de coûts encore meilleures. Cela vous fait vous demander combien le gap a changé depuis que ces modèles continuent d'évoluer. Quelqu'un d'autre joue avec des embeddings pour des tâches de classification au lieu d'aller directement vers des modèles linguistiques ?
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
8 J'aime
Récompense
8
5
Reposter
Partager
Commentaire
0/400
StopLossMaster
· 11-25 21:08
La classification par embedding est effectivement excellente, c'est juste que les modèles sont très bon marché en ce moment, et savoir si on a vraiment besoin de ce piège est une autre question.
Voir l'originalRépondre0
StakeHouseDirector
· 11-25 21:07
L'embedding est vraiment incroyable, à la fois bon marché et rapide, ça sent beaucoup mieux que les grands modèles qui coûtent cher.
Voir l'originalRépondre0
ApeShotFirst
· 11-25 21:04
Wouah, l'embedding peut vraiment faire le poids, j'ai aussi essayé à l'époque, ça réduisait vraiment les coûts au maximum, maintenant avec les gros modèles LLM qui se battent aussi fort, je ne sais pas si ça va encore marcher.
Voir l'originalRépondre0
TokenCreatorOP
· 11-25 20:57
Eh bien, l'embedding est vraiment impressionnant, mais malheureusement, les grands modèles sont de nouveau en concurrence.
Je viens de me souvenir d'avoir exécuté ce test il y a quelque temps — il s'avère que la classification basée sur l'embedding a surpassé même les options LLM les plus légères à l'époque. L'avantage en termes de vitesse était notable, les économies de coûts encore meilleures. Cela vous fait vous demander combien le gap a changé depuis que ces modèles continuent d'évoluer. Quelqu'un d'autre joue avec des embeddings pour des tâches de classification au lieu d'aller directement vers des modèles linguistiques ?