DeepSeek набирает обороты по всему миру. В течение всего одной недели такие зарубежные технологические гиганты, как Microsoft Azure, NVIDIA, а также китайские облачные поставщики Aliyun, Huawei Cloud, Tencent Cloud, Baidu Cloud и другие, объявили о запуске DeepSeek большой модели и привлекают больше пользователей с помощью “нулевого кода”, “сверхнизкой цены” и других преимуществ.
С 2025 года DeepSeek постепенно открыл исходный код для больших языковых моделей V3, модели рассуждения R1 и мульти-модальной модели Janus Pro, которые первыми привлекли внимание зарубежного рынка благодаря своей высокой производительности и низкой стоимости. Как один из “крупных инвесторов” OpenAI, генеральный директор Microsoft Наделла 29 января высоко оценил инновации DeepSeek, одновременно сделав рекламу для самой Microsoft: Модель DeepSeek-R1 доступна для загрузки через платформу искусственного интеллекта Azure AI Foundry и GitHub от Microsoft, и они обещают, что в будущем она будет работать на компьютерах с Copilot+.
30 января компания NVIDIA также объявила, что их модель DeepSeek-R1 была добавлена в раздел ‘Популярные модели’ на сайте разработчиков NVIDIA, и теперь ее можно использовать в предварительной версии микросервиса NVIDIA NIM. NVIDIA NIM - это часть службы NVIDIA AI Enterprise Edition и предоставляет контейнеры для самостоятельного ускорения GPU для микросервисов для вывода, работающих на разных облачных платформах, в центрах обработки данных и на рабочих станциях, а также для предварительного обучения и настройки собственных моделей искусственного интеллекта.
Вскоре крупные поставщики облачных услуг Интернета в Китае начали активно внедрять модели серии DeepSeek и конкурировать друг с другом настоящими деньгами.
3 февраля Alibaba Cloud объявила, что Alibaba Cloud PAI Model Gallery поддерживает развертывание моделей DeepSeek-V3 и R1 в облаке с помощью одного щелчка. На этой платформе пользователи могут реализовать весь процесс от обучения до развертывания и вывода в режиме реального времени без написания кода, упрощая процесс разработки моделей и обеспечивая более быстрый, эффективный и удобный опыт разработки и применения искусственного интеллекта для разработчиков и пользователей предприятий.
В тот же день платформа Baidu Intelligent Cloud Qianfan также официально разместила модели DeepSeek-R1 и V3, предлагая супернизкие цены и ограниченное время бесплатного обслуживания. Войдите в Baidu Intelligent Cloud Qianfan ModelBuilder, чтобы быстро оценить. В то же время Baidu также внедрила свою собственную технологию больших моделей, например, объединила DeepSeek модель с цепочкой вывода Qianfan, интегрировала эксклюзивный защитный оператор контента Baidu, обеспечивая усиленную безопасность модели.
Журналисты узнали, что многие китайские компании по искусственному интеллекту, включая Huawei Cloud, Tencent Cloud, 360 Digital Security, Cloud Axis Technology ZStack и другие, уже подключились к модели DeepSeek, что практически означает, что модель DeepSeek стала стандартной услугой основных облачных платформ искусственного интеллекта.
В то время как DeepSeek «взлетает» до упора, индустрия больших моделей искусственного интеллекта постепенно входит в «ралли».
29 января Ali Tongyi Qwen2.5-Max, флагманская модель, была запущена на платформе Qwen. Она использует архитектуру MoE (Multi-Expert), основанную на предварительном обучении на более чем 20 трлн токенов. Команда Ali утверждает, что эта модель демонстрирует производительность, сравнимую и даже превосходящую DeepSeek V3, GPT-4 и Claude-3.5-Sonnet. С развитием последующих технологий обучения, следующая версия может достичь еще более высокого уровня.
1 февраля OpenAI выпустил o3-mini, это первая модель небольшого размера от OpenAI, поддерживающая функции, необходимые разработчикам. Она имеет преимущества низкой стоимости и задержки, поддерживает вызов функций, потоковую передачу, структурированный вывод и т. д., также поддерживает интеграцию с функцией поиска, способна предоставлять последние ответы и ссылаться на соответствующие сетевые ресурсы. Некоторые разработчики обнаружили, что производительность OpenAI o3-mini по сравнению с DeepSeek R1 не имеет явного преимущества, и в некоторых аспектах все еще уступает R1.
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
Майкрософт, НВидиа, Алибаба и Байду начали охоту, и DeepSeek стал стандартным оборудованием.
DeepSeek набирает обороты по всему миру. В течение всего одной недели такие зарубежные технологические гиганты, как Microsoft Azure, NVIDIA, а также китайские облачные поставщики Aliyun, Huawei Cloud, Tencent Cloud, Baidu Cloud и другие, объявили о запуске DeepSeek большой модели и привлекают больше пользователей с помощью “нулевого кода”, “сверхнизкой цены” и других преимуществ.
С 2025 года DeepSeek постепенно открыл исходный код для больших языковых моделей V3, модели рассуждения R1 и мульти-модальной модели Janus Pro, которые первыми привлекли внимание зарубежного рынка благодаря своей высокой производительности и низкой стоимости. Как один из “крупных инвесторов” OpenAI, генеральный директор Microsoft Наделла 29 января высоко оценил инновации DeepSeek, одновременно сделав рекламу для самой Microsoft: Модель DeepSeek-R1 доступна для загрузки через платформу искусственного интеллекта Azure AI Foundry и GitHub от Microsoft, и они обещают, что в будущем она будет работать на компьютерах с Copilot+.
30 января компания NVIDIA также объявила, что их модель DeepSeek-R1 была добавлена в раздел ‘Популярные модели’ на сайте разработчиков NVIDIA, и теперь ее можно использовать в предварительной версии микросервиса NVIDIA NIM. NVIDIA NIM - это часть службы NVIDIA AI Enterprise Edition и предоставляет контейнеры для самостоятельного ускорения GPU для микросервисов для вывода, работающих на разных облачных платформах, в центрах обработки данных и на рабочих станциях, а также для предварительного обучения и настройки собственных моделей искусственного интеллекта.
Вскоре крупные поставщики облачных услуг Интернета в Китае начали активно внедрять модели серии DeepSeek и конкурировать друг с другом настоящими деньгами.
3 февраля Alibaba Cloud объявила, что Alibaba Cloud PAI Model Gallery поддерживает развертывание моделей DeepSeek-V3 и R1 в облаке с помощью одного щелчка. На этой платформе пользователи могут реализовать весь процесс от обучения до развертывания и вывода в режиме реального времени без написания кода, упрощая процесс разработки моделей и обеспечивая более быстрый, эффективный и удобный опыт разработки и применения искусственного интеллекта для разработчиков и пользователей предприятий.
В тот же день платформа Baidu Intelligent Cloud Qianfan также официально разместила модели DeepSeek-R1 и V3, предлагая супернизкие цены и ограниченное время бесплатного обслуживания. Войдите в Baidu Intelligent Cloud Qianfan ModelBuilder, чтобы быстро оценить. В то же время Baidu также внедрила свою собственную технологию больших моделей, например, объединила DeepSeek модель с цепочкой вывода Qianfan, интегрировала эксклюзивный защитный оператор контента Baidu, обеспечивая усиленную безопасность модели.
Журналисты узнали, что многие китайские компании по искусственному интеллекту, включая Huawei Cloud, Tencent Cloud, 360 Digital Security, Cloud Axis Technology ZStack и другие, уже подключились к модели DeepSeek, что практически означает, что модель DeepSeek стала стандартной услугой основных облачных платформ искусственного интеллекта.
В то время как DeepSeek «взлетает» до упора, индустрия больших моделей искусственного интеллекта постепенно входит в «ралли».
29 января Ali Tongyi Qwen2.5-Max, флагманская модель, была запущена на платформе Qwen. Она использует архитектуру MoE (Multi-Expert), основанную на предварительном обучении на более чем 20 трлн токенов. Команда Ali утверждает, что эта модель демонстрирует производительность, сравнимую и даже превосходящую DeepSeek V3, GPT-4 и Claude-3.5-Sonnet. С развитием последующих технологий обучения, следующая версия может достичь еще более высокого уровня.
1 февраля OpenAI выпустил o3-mini, это первая модель небольшого размера от OpenAI, поддерживающая функции, необходимые разработчикам. Она имеет преимущества низкой стоимости и задержки, поддерживает вызов функций, потоковую передачу, структурированный вывод и т. д., также поддерживает интеграцию с функцией поиска, способна предоставлять последние ответы и ссылаться на соответствующие сетевые ресурсы. Некоторые разработчики обнаружили, что производительность OpenAI o3-mini по сравнению с DeepSeek R1 не имеет явного преимущества, и в некоторых аспектах все еще уступает R1.
(Источник статьи: Видение новостей)
Источник: Восточная Финансовая Сеть
Автор: Новости Shangguan