La popularidad de DeepSeek continúa extendiéndose por todo el mundo. En solo una semana, gigantes tecnológicos extranjeros como Microsoft Azure, NVIDIA, así como proveedores de nube nacionales como Alibaba Cloud, Huawei Cloud, Tencent Cloud, Baidu Cloud, han anunciado el lanzamiento del gran modelo DeepSeek, atrayendo a más usuarios con ventajas como “cero código”, “precios ultrabajos”, etc.
Desde 2025, DeepSeek ha estado lanzando su modelo de lenguaje V3, el modelo de inferencia R1 y el modelo multimodal Janus Pro de código abierto, lo que ha llamado la atención del mercado extranjero por su alto rendimiento y bajo costo. Como uno de los principales inversores de OpenAI, el CEO de Microsoft, Nadella, elogió la innovación de DeepSeek el 29 de enero, al mismo tiempo que promocionaba a Microsoft: el modelo DeepSeek-R1 está disponible a través de la plataforma de inteligencia artificial Azure AI Foundry y GitHub, y se comprometió a ejecutarlo en computadoras equipadas con Copilot+ en el futuro.
El 30 de enero, NVIDIA también anunció que el modelo DeepSeek-R1 de NVIDIA ha sido incluido en la sección ‘Modelos más populares’ del sitio web de desarrolladores de NVIDIA, y puede ser utilizado en la versión de vista previa del servicio NVIDIA NIM. NVIDIA NIM es parte del servicio empresarial de IA de NVIDIA, que proporciona contenedores para servicios de inferencia acelerados por GPU autohospedados en la nube, centros de datos y estaciones de trabajo, para el preentrenamiento y la personalización de modelos de IA.
Pronto, los principales proveedores de servicios en la nube de Internet en China comenzaron a conectarse rápidamente a la serie de modelos DeepSeek y a competir con ‘dinero real’ entre sí.
El 3 de febrero, Alibaba Cloud anunció que Alibaba Cloud PAI Model Gallery admite la implementación con un solo clic de los modelos DeepSeek-V3 y R1 en la nube. En esta plataforma, los usuarios pueden lograr todo el proceso, desde el entrenamiento hasta la implementación y la inferencia, sin escribir código, simplificando el proceso de desarrollo del modelo y brindando a los desarrolladores y usuarios empresariales una experiencia de desarrollo y aplicación de IA más rápida, eficiente y conveniente.
El mismo día, la plataforma de nube inteligente de Baidu, Qianfan, también ha lanzado oficialmente los modelos DeepSeek-R1 y V3, y ha lanzado un plan de precios súper bajo, que también puede disfrutar de servicios gratuitos por tiempo limitado. Inicie sesión en ModelBuilder de nube inteligente de Baidu Qianfan para experimentarlo rápidamente. Al mismo tiempo, Baidu también integra su propia tecnología de modelos grandes, como la integración del modelo DeepSeek en la cadena de inferencia de Qianfan, la integración de operadores de seguridad de contenido exclusivos de Baidu, y la mejora de la seguridad del modelo.
Se sabe que, incluidas Huawei Cloud, Tencent Cloud, 360 Cyber Security, Cloud Axis Technology ZStack y otras empresas nacionales de IA, han integrado el modelo DeepSeek, lo que equivale a que el modelo DeepSeek se ha convertido en casi un servicio estándar en las plataformas de servicios en la nube de IA líderes en el país.
Mientras que DeepSeek se está “disparando” hasta el final, la industria de los grandes modelos de IA está entrando gradualmente en el “repunte”.
El 29 de enero, Alibaba lanzó el modelo insignia Qwen2.5-Max en AliTongyi Qianwen, que utiliza la arquitectura de MoE (Expertos Mixtos) a gran escala y se basa en datos de entrenamiento previo de más de 20 billones de tokens (términos). El equipo de Alibaba afirma que este modelo muestra un rendimiento comparable e incluso superior al de DeepSeek V3, GPT-4 y Claude-3.5-Sonnet. Con el continuo avance de la tecnología de post-entrenamiento, se espera que la próxima versión alcance un nivel aún más alto.
El 1 de febrero, OpenAI lanzó o3-mini, que es el primer modelo de inferencia pequeño de OpenAI que admite funciones de desarrollo. Tiene ventajas de bajo costo, baja latencia y admite funciones de llamada de función, transmisión de flujo, salida estructurada, etc. También admite la combinación con la función de búsqueda, que puede proporcionar respuestas más recientes y enlaces a recursos de red relacionados. Después de las pruebas de algunos desarrolladores, se descubrió que el rendimiento de OpenAI o3-mini no tiene una clara ventaja en comparación con DeepSeek R1, y algunos aspectos aún son superados por R1.
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
Microsoft, Nvidia, Alibaba, Baidu 'grab', DeepSeek becomes the mainstream standard
La popularidad de DeepSeek continúa extendiéndose por todo el mundo. En solo una semana, gigantes tecnológicos extranjeros como Microsoft Azure, NVIDIA, así como proveedores de nube nacionales como Alibaba Cloud, Huawei Cloud, Tencent Cloud, Baidu Cloud, han anunciado el lanzamiento del gran modelo DeepSeek, atrayendo a más usuarios con ventajas como “cero código”, “precios ultrabajos”, etc.
Desde 2025, DeepSeek ha estado lanzando su modelo de lenguaje V3, el modelo de inferencia R1 y el modelo multimodal Janus Pro de código abierto, lo que ha llamado la atención del mercado extranjero por su alto rendimiento y bajo costo. Como uno de los principales inversores de OpenAI, el CEO de Microsoft, Nadella, elogió la innovación de DeepSeek el 29 de enero, al mismo tiempo que promocionaba a Microsoft: el modelo DeepSeek-R1 está disponible a través de la plataforma de inteligencia artificial Azure AI Foundry y GitHub, y se comprometió a ejecutarlo en computadoras equipadas con Copilot+ en el futuro.
El 30 de enero, NVIDIA también anunció que el modelo DeepSeek-R1 de NVIDIA ha sido incluido en la sección ‘Modelos más populares’ del sitio web de desarrolladores de NVIDIA, y puede ser utilizado en la versión de vista previa del servicio NVIDIA NIM. NVIDIA NIM es parte del servicio empresarial de IA de NVIDIA, que proporciona contenedores para servicios de inferencia acelerados por GPU autohospedados en la nube, centros de datos y estaciones de trabajo, para el preentrenamiento y la personalización de modelos de IA.
Pronto, los principales proveedores de servicios en la nube de Internet en China comenzaron a conectarse rápidamente a la serie de modelos DeepSeek y a competir con ‘dinero real’ entre sí.
El 3 de febrero, Alibaba Cloud anunció que Alibaba Cloud PAI Model Gallery admite la implementación con un solo clic de los modelos DeepSeek-V3 y R1 en la nube. En esta plataforma, los usuarios pueden lograr todo el proceso, desde el entrenamiento hasta la implementación y la inferencia, sin escribir código, simplificando el proceso de desarrollo del modelo y brindando a los desarrolladores y usuarios empresariales una experiencia de desarrollo y aplicación de IA más rápida, eficiente y conveniente.
El mismo día, la plataforma de nube inteligente de Baidu, Qianfan, también ha lanzado oficialmente los modelos DeepSeek-R1 y V3, y ha lanzado un plan de precios súper bajo, que también puede disfrutar de servicios gratuitos por tiempo limitado. Inicie sesión en ModelBuilder de nube inteligente de Baidu Qianfan para experimentarlo rápidamente. Al mismo tiempo, Baidu también integra su propia tecnología de modelos grandes, como la integración del modelo DeepSeek en la cadena de inferencia de Qianfan, la integración de operadores de seguridad de contenido exclusivos de Baidu, y la mejora de la seguridad del modelo.
Se sabe que, incluidas Huawei Cloud, Tencent Cloud, 360 Cyber Security, Cloud Axis Technology ZStack y otras empresas nacionales de IA, han integrado el modelo DeepSeek, lo que equivale a que el modelo DeepSeek se ha convertido en casi un servicio estándar en las plataformas de servicios en la nube de IA líderes en el país.
Mientras que DeepSeek se está “disparando” hasta el final, la industria de los grandes modelos de IA está entrando gradualmente en el “repunte”.
El 29 de enero, Alibaba lanzó el modelo insignia Qwen2.5-Max en AliTongyi Qianwen, que utiliza la arquitectura de MoE (Expertos Mixtos) a gran escala y se basa en datos de entrenamiento previo de más de 20 billones de tokens (términos). El equipo de Alibaba afirma que este modelo muestra un rendimiento comparable e incluso superior al de DeepSeek V3, GPT-4 y Claude-3.5-Sonnet. Con el continuo avance de la tecnología de post-entrenamiento, se espera que la próxima versión alcance un nivel aún más alto.
El 1 de febrero, OpenAI lanzó o3-mini, que es el primer modelo de inferencia pequeño de OpenAI que admite funciones de desarrollo. Tiene ventajas de bajo costo, baja latencia y admite funciones de llamada de función, transmisión de flujo, salida estructurada, etc. También admite la combinación con la función de búsqueda, que puede proporcionar respuestas más recientes y enlaces a recursos de red relacionados. Después de las pruebas de algunos desarrolladores, se descubrió que el rendimiento de OpenAI o3-mini no tiene una clara ventaja en comparación con DeepSeek R1, y algunos aspectos aún son superados por R1.
(Fuente del artículo: Shanghai Observer)
Fuente: Oriental Fortune Network
Autor: Noticias de Shanghai