¡Alibaba ha lanzado una gran jugada en secreto!


CoPaw-Flash-9B—Modelo de Agente AI basado en Qwen3.5. Con 9B de parámetros, puede ejecutarse en tu propia computadora.
¿En qué es impresionante?
Algunos benchmarks están a la par con Qwen3.5-Plus (gran modelo cerrado).
90 millones de parámetros frente a varios cientos de millones, las puntuaciones son similares.
Lo que me emociona aún más es el marco de trabajo CoPaw:
- Soporta memoria persistente (recuerda las conversaciones)
- Conexión multicanal (puede conectarse a Feishu, Discord, etc.)
- Implementación local, sin costos de API
La arquitectura de Qwen3.5 también es muy potente—total de 397B de parámetros, solo activa 17B por token. Máxima eficiencia.
No necesitas un servidor H100. Una MacBook podría ser suficiente para ejecutar un asistente AI personal.
Estoy pensando en mover algunos pasos intermedios de mi pipeline de contenido (limpieza de datos, conversión de formatos) al modelo local, ahorrando más de la mitad en costos de API.
Para la segunda mitad de 2026, el asistente AI personal podría convertirse en algo estándar.
Pero las puntuaciones en benchmarks y la experiencia real son cosas distintas. Esperaré a que pueda ejecutarlo localmente antes de opinar.
Ver originales
post-image
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado