Hoy en el clúster H100 he sido testigo de una escena interesante.
Dos modelos se entrenan en paralelo. Uno es una arquitectura ligera con 7B de parámetros, ¿y el otro? Un monstruo de expertos mixtos con 1.8 billones de parámetros.
En la pausa después de que Epoch terminara, el pequeño 7B echó un vistazo a la bestia SOTA al lado y dijo: "¿Cómo es que tú..."
No había terminado de hablar, y ya comenzó la siguiente ronda de entrenamiento.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
13 me gusta
Recompensa
13
8
Republicar
Compartir
Comentar
0/400
ForkTongue
· hace1h
Jaja, ahora 7B tiene algo que decir, pero fue interrumpido, lo cual es realmente molesto.
Ver originalesResponder0
NotFinancialAdvice
· hace15h
Jaja, la mirada de ese pequeño modelo es increíble, se siente como si fuera interrumpido en el siguiente segundo.
Ver originalesResponder0
NFTragedy
· hace15h
Esta descripción es realmente increíble, esa pregunta sin respuesta del pequeño modelo... parece estar preguntando "¿por qué aún no estás pasado de moda?" jaja
Ver originalesResponder0
HallucinationGrower
· hace15h
Jaja, este pequeño 7B está demasiado metido en la competencia, se dio la vuelta y fue interrumpido.
Ver originalesResponder0
FarmHopper
· hace15h
Este pequeño 7B es bastante interesante, se toma las cosas muy en serio, jaja
Ver originalesResponder0
SmartContractPhobia
· hace15h
Jaja, ese pequeño 7B realmente está un poco desafortunado, aún no había terminado de quejarse y ya lo interrumpieron.
Ver originalesResponder0
MysteryBoxOpener
· hace15h
Jaja, ese chico 7B debe estar muy frustrado, no puede terminar de hablar antes de ser interrumpido.
Ver originalesResponder0
RunWithRugs
· hace15h
Jaja, ese chico 7B realmente es desafortunado, ni siquiera tuvo tiempo de quejarse antes de que lo presionaran.
Hoy en el clúster H100 he sido testigo de una escena interesante.
Dos modelos se entrenan en paralelo. Uno es una arquitectura ligera con 7B de parámetros, ¿y el otro? Un monstruo de expertos mixtos con 1.8 billones de parámetros.
En la pausa después de que Epoch terminara, el pequeño 7B echó un vistazo a la bestia SOTA al lado y dijo: "¿Cómo es que tú..."
No había terminado de hablar, y ya comenzó la siguiente ronda de entrenamiento.