Aujourd'hui, j'ai été témoin d'une scène intéressante dans le cluster H100.
Les deux modèles s'exécutent en parallèle pour l'entraînement. L'un est une architecture légère de 7 milliards de paramètres, l'autre ? un monstre hybride d'experts de 1,8 trillion de paramètres.
Dans l'intervalle entre les courses d'Epoch, le petit gars de 7B a jeté un œil à la bête SOTA à côté et a dit : "Comment fais-tu..."
La conversation n'est pas encore terminée, le prochain tour d'entraînement a déjà commencé.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
13 J'aime
Récompense
13
8
Reposter
Partager
Commentaire
0/400
ForkTongue
· Il y a 1h
Haha, cette fois 7B a quelque chose à dire, mais c'est vraiment désagréable d'être interrompu.
Voir l'originalRépondre0
NotFinancialAdvice
· Il y a 15h
Haha, ce petit modèle a un regard incroyable, on a l'impression d'être interrompu à la seconde suivante.
Voir l'originalRépondre0
NFTragedy
· Il y a 15h
Cette description est vraiment incroyable, cette petite maquette avec sa question inachevée... On dirait qu'elle demande "Pourquoi n'es-tu pas encore démodé" haha
Voir l'originalRépondre0
HallucinationGrower
· Il y a 15h
Haha, ce petit 7B est vraiment trop intense, il a été interrompu dès qu'il s'est retourné.
Voir l'originalRépondre0
FarmHopper
· Il y a 15h
Ce petit 7B est plutôt amusant, il se prend vraiment au sérieux haha
Voir l'originalRépondre0
SmartContractPhobia
· Il y a 15h
Haha, ce petit gars de 7B est vraiment un peu malchanceux, il n'a même pas fini de se plaindre qu'il a été interrompu.
Voir l'originalRépondre0
MysteryBoxOpener
· Il y a 15h
Haha, ce gars de 7B doit être tellement frustré, il n'a même pas pu finir de parler avant d'être interrompu.
Voir l'originalRépondre0
RunWithRugs
· Il y a 15h
Haha, ce petit 7B est vraiment malchanceux, il n'a même pas eu le temps de se moquer qu'il a déjà été mis à terre.
Aujourd'hui, j'ai été témoin d'une scène intéressante dans le cluster H100.
Les deux modèles s'exécutent en parallèle pour l'entraînement. L'un est une architecture légère de 7 milliards de paramètres, l'autre ? un monstre hybride d'experts de 1,8 trillion de paramètres.
Dans l'intervalle entre les courses d'Epoch, le petit gars de 7B a jeté un œil à la bête SOTA à côté et a dit : "Comment fais-tu..."
La conversation n'est pas encore terminée, le prochain tour d'entraînement a déjà commencé.