DeepSeek популярність продовжує обрушуватися на весь світ, лише за тиждень міжнародні технологічні гіганти, такі як Microsoft Azure, Nvidia, а також внутрішні хмарні провайдери, такі як Alibaba Cloud, Huawei Cloud, Tencent Cloud, Baidu Cloud, оголосили про запуск великої моделі DeepSeek за допомогою «нульового коду», «надзвичайно низькою ціною» та іншими пропозиціями, щоб привернути більше користувачів.
З 2025 року DeepSeek почав відкривати великі мовні моделі V3, інферентну модель R1 та багатомодельну модель Janus Pro, завдяки їх високій продуктивності та низькій вартості, першими привернули увагу зарубіжного ринку. Як один з ‘головних спонсорів’ OpenAI, генеральний директор Microsoft Наделла 29 січня високо оцінив інноваційні можливості DeepSeek, одночасно зробивши рекламу для Microsoft: модель DeepSeek-R1 можна отримати через платформу штучного інтелекту Azure AI Foundry та GitHub від Microsoft, і обіцявши, що у майбутньому вона буде працювати на комп’ютерах з Copilot+.
30 січня компанія NVIDIA також оголосила, що модель DeepSeek-R1 включена до розділу «Найпопулярніші моделі» на веб-сайті розробників NVIDIA та доступна в попередній версії мікрослужб NIM NVIDIA. NVIDIA NIM є частиною служби корпоративної версії штучного інтелекту NVIDIA, яка надає контейнери для самостійного прискорення графічних процесорів (GPU) в хмарному середовищі, в центрах обробки даних та на робочих станціях для прискорення інференції за допомогою попередньо навчених та користувацьких моделей штучного інтелекту.
Незабаром провідні китайські постачальники хмарних інтернет-сервісів почали змагатися між собою за підключення до серії моделей DeepSeek, вкладаючи реальні гроші.
3 лютого Alibaba Cloud оголосила, що Alibaba Cloud PAI Model Gallery підтримує розгортання моделей DeepSeek-V3 та R1 в хмарі за допомогою одного натискання. Завдяки цій платформі користувачі можуть здійснювати повний цикл навчання, розгортання та інференсу моделей без кодування, спрощуючи процес розробки моделей та забезпечуючи швидший, ефективніший та зручніший досвід розробки та використання штучного інтелекту для розробників та корпоративних користувачів.
Того ж дня платформа Baidu Intelligent Cloud Qianfan також офіційно виставила моделі DeepSeek-R1 та V3, запровадила програму надання послуг за низькою ціною та пропонує обмежений час безкоштовного обслуговування. Ви можете швидко спробувати це, увійшовши в Baidu Intelligent Cloud Qianfan ModelBuilder. Baidu також включив великі моделі власної технології, такі як інтеграція моделі DeepSeek в ланцюжок висновків Qianfan, впровадження власного оператора забезпечення безпеки контенту Baidu, забезпечення зміцнення безпеки моделі.
Журналісти дізналися, що кілька вітчизняних компаній зі штучного інтелекту, таких як Huawei Cloud, Tencent Cloud, 360 Digital Security, Cloud Axis Technology ZStack, вже підключилися до моделі DeepSeek, що практично означає, що модель DeepSeek стала стандартним компонентом послуг основних хмарових платформ штучного інтелекту.
Під час того, як DeepSeek шалено розвивається, великі моделі штучного інтелекту поступово входять у гонку спритності.
29 січня Ali Tongyi Thousand Questions запустив флагманську модель Qwen2.5-Max, яка використовує архітектуру MoE (змішаних експертів) великого масштабу на основі попереднього навчання з використанням більше 20 трильйонів токенів (лексем). Команда Ali заявила, що ця модель проявляє подібну або навіть кращу продуктивність, ніж DeepSeek V3, GPT-4 та Claude-3.5-Sonnet. Завдяки постійному вдосконаленню технології післянавчання, наступна версія очікує досягнення ще вищого рівня.
1 лютого OpenAI запустив o3-mini - це перший малий інференційний модель з підтримкою функцій, що задовольняє потреби розробників. Він має переваги низької вартості та затримки, підтримує функціональні виклики, потокову передачу, структурований вивід та інші функції, а також підтримує поєднання з функцією пошуку, що забезпечує оновлення відповідей та посилання на відповідні мережеві ресурси. Після тестування деякими розробниками виявлено, що продуктивність OpenAI o3-mini порівняно з DeepSeek R1 не має помітних переваг, а деякі етапи все ще перевершує R1.
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
Майкрософт, NVIDIA, Alibaba, Baidu "захоплюють", DeepSeek стає стандартним обладнанням
DeepSeek популярність продовжує обрушуватися на весь світ, лише за тиждень міжнародні технологічні гіганти, такі як Microsoft Azure, Nvidia, а також внутрішні хмарні провайдери, такі як Alibaba Cloud, Huawei Cloud, Tencent Cloud, Baidu Cloud, оголосили про запуск великої моделі DeepSeek за допомогою «нульового коду», «надзвичайно низькою ціною» та іншими пропозиціями, щоб привернути більше користувачів.
З 2025 року DeepSeek почав відкривати великі мовні моделі V3, інферентну модель R1 та багатомодельну модель Janus Pro, завдяки їх високій продуктивності та низькій вартості, першими привернули увагу зарубіжного ринку. Як один з ‘головних спонсорів’ OpenAI, генеральний директор Microsoft Наделла 29 січня високо оцінив інноваційні можливості DeepSeek, одночасно зробивши рекламу для Microsoft: модель DeepSeek-R1 можна отримати через платформу штучного інтелекту Azure AI Foundry та GitHub від Microsoft, і обіцявши, що у майбутньому вона буде працювати на комп’ютерах з Copilot+.
30 січня компанія NVIDIA також оголосила, що модель DeepSeek-R1 включена до розділу «Найпопулярніші моделі» на веб-сайті розробників NVIDIA та доступна в попередній версії мікрослужб NIM NVIDIA. NVIDIA NIM є частиною служби корпоративної версії штучного інтелекту NVIDIA, яка надає контейнери для самостійного прискорення графічних процесорів (GPU) в хмарному середовищі, в центрах обробки даних та на робочих станціях для прискорення інференції за допомогою попередньо навчених та користувацьких моделей штучного інтелекту.
Незабаром провідні китайські постачальники хмарних інтернет-сервісів почали змагатися між собою за підключення до серії моделей DeepSeek, вкладаючи реальні гроші.
3 лютого Alibaba Cloud оголосила, що Alibaba Cloud PAI Model Gallery підтримує розгортання моделей DeepSeek-V3 та R1 в хмарі за допомогою одного натискання. Завдяки цій платформі користувачі можуть здійснювати повний цикл навчання, розгортання та інференсу моделей без кодування, спрощуючи процес розробки моделей та забезпечуючи швидший, ефективніший та зручніший досвід розробки та використання штучного інтелекту для розробників та корпоративних користувачів.
Того ж дня платформа Baidu Intelligent Cloud Qianfan також офіційно виставила моделі DeepSeek-R1 та V3, запровадила програму надання послуг за низькою ціною та пропонує обмежений час безкоштовного обслуговування. Ви можете швидко спробувати це, увійшовши в Baidu Intelligent Cloud Qianfan ModelBuilder. Baidu також включив великі моделі власної технології, такі як інтеграція моделі DeepSeek в ланцюжок висновків Qianfan, впровадження власного оператора забезпечення безпеки контенту Baidu, забезпечення зміцнення безпеки моделі.
Журналісти дізналися, що кілька вітчизняних компаній зі штучного інтелекту, таких як Huawei Cloud, Tencent Cloud, 360 Digital Security, Cloud Axis Technology ZStack, вже підключилися до моделі DeepSeek, що практично означає, що модель DeepSeek стала стандартним компонентом послуг основних хмарових платформ штучного інтелекту.
Під час того, як DeepSeek шалено розвивається, великі моделі штучного інтелекту поступово входять у гонку спритності.
29 січня Ali Tongyi Thousand Questions запустив флагманську модель Qwen2.5-Max, яка використовує архітектуру MoE (змішаних експертів) великого масштабу на основі попереднього навчання з використанням більше 20 трильйонів токенів (лексем). Команда Ali заявила, що ця модель проявляє подібну або навіть кращу продуктивність, ніж DeepSeek V3, GPT-4 та Claude-3.5-Sonnet. Завдяки постійному вдосконаленню технології післянавчання, наступна версія очікує досягнення ще вищого рівня.
1 лютого OpenAI запустив o3-mini - це перший малий інференційний модель з підтримкою функцій, що задовольняє потреби розробників. Він має переваги низької вартості та затримки, підтримує функціональні виклики, потокову передачу, структурований вивід та інші функції, а також підтримує поєднання з функцією пошуку, що забезпечує оновлення відповідей та посилання на відповідні мережеві ресурси. Після тестування деякими розробниками виявлено, що продуктивність OpenAI o3-mini порівняно з DeepSeek R1 не має помітних переваг, а деякі етапи все ще перевершує R1.
(Джерело статті: Новини на увазі)
Джерело: Eastmoney.com
Автор: Новости Shangguan