Tôi chỉ nhận thấy khi theo dõi ngành công nghiệp AI có một mô hình kỳ lạ đang diễn ra. Tám năm trước, một công ty viễn thông Trung Quốc đã thực sự mất đi sinh mạng do một lệnh cấm vận. Nhưng bây giờ, các công ty AI Trung Quốc khác lại phát triển nhanh chóng bất chấp áp lực ngày càng lớn. Điều gì thực sự đã thay đổi?



Chúng ta trở lại năm 2018. ZTE là một trong những nhà sản xuất thiết bị viễn thông lớn nhất thế giới—80.000 nhân viên, hàng tỷ doanh thu hàng năm. Rồi một ngày, một lệnh từ Cục Công nghiệp và An ninh Hoa Kỳ đã đóng cửa toàn bộ công ty. Không có linh kiện của Mỹ, không có giấy phép của Google, không hệ điều hành. Ba tuần sau, ZTE tuyên bố không thể tiếp tục vận hành kinh doanh. Họ đã trả 1,4 tỷ đô la tiền phạt, nhưng vấn đề thực sự nằm trong hệ sinh thái—họ hoàn toàn phụ thuộc vào chuỗi cung ứng toàn cầu do Mỹ kiểm soát.

Giờ đây, dù vẫn còn các hạn chế tương tự, các công ty AI Trung Quốc không gặp số phận như vậy. Tại sao? Bởi vì vấn đề không chỉ là phần cứng. Thắt chặt thực sự là CUDA.

Tôi nói điều này vì hầu hết mọi người đều cho rằng lệnh cấm chip liên quan đến chính các chip. Sai rồi. CUDA—nền tảng tính toán song song của NVIDIA từ năm 2006—đó mới là rào cản thực sự. Tất cả các framework AI lớn trên toàn thế giới, từ TensorFlow của Google đến PyTorch của Meta, đều phụ thuộc sâu vào CUDA. Khi một nhà nghiên cứu AI học, CUDA là công cụ đầu tiên họ tiếp cận. Mỗi dòng mã đều góp phần củng cố hệ sinh thái của NVIDIA.

Đến năm 2025, có 4,5 triệu nhà phát triển trong hệ sinh thái CUDA, hơn 3.000 ứng dụng tăng tốc GPU, và 40.000 công ty trên toàn thế giới đang sử dụng nó. Đó là 90% nhà phát triển AI toàn cầu. Đây là một vòng quay, một khi đã bắt đầu, gần như không thể dừng lại. Nhiều nhà phát triển hơn, nhiều công cụ hơn. Nhiều công cụ hơn, nhiều nhà phát triển hơn tham gia. Kết quả? NVIDIA đặt ra luật chơi, và tất cả đều tuân theo.

Vì vậy, từ 2022-2024, chính phủ Mỹ đã thực thi ba làn sóng hạn chế xuất khẩu chip của NVIDIA. Đầu tiên là A100 và H100, sau đó là A800 và H800, rồi H20. Nhưng điều này không gây ra hoảng loạn như đã xảy ra với ZTE. Tại sao? Bởi các công ty Trung Quốc đã chuyển hướng sang tối ưu hóa thuật toán thay vì phản kháng phần cứng.

DeepSeek là ví dụ tốt nhất cho điều này. Mẫu V3 của họ có 671 tỷ tham số, nhưng mỗi lần suy luận chỉ sử dụng 37 tỷ—chỉ 5,5% tổng số. Để huấn luyện nó, họ chỉ dùng 2.048 GPU NVIDIA H800 trong 58 ngày, tổng chi phí là 5,576 triệu đô la. So sánh với 78 triệu đô la ước tính cho GPT-4. Một mức chênh lệch về quy mô.

Giá cả còn nói lên nhiều hơn nữa. API của DeepSeek tính phí từ 0,028 đến 0,28 đô la cho mỗi triệu token đầu vào, 0,42 đô la cho đầu ra. GPT-4 là 5 đô la cho đầu vào, 15 đô la cho đầu ra. Claude Opus còn đắt hơn—15 đô la đầu vào, 75 đô la đầu ra. DeepSeek rẻ hơn 25 đến 75 lần. Sự khác biệt về giá này đã kích hoạt một sự chuyển dịch lớn trong thị trường nhà phát triển.

Vào tháng 2 năm 2026, tại OpenRouter—nền tảng tổng hợp API mô hình AI lớn nhất—việc sử dụng hàng tuần các mô hình AI Trung Quốc đã tăng vọt 127% trong ba tuần và lần đầu tiên vượt qua Mỹ. Cách đây một năm, các mô hình Trung Quốc chiếm chưa đến 2% thị trường. Giờ đây, tăng 421% và gần đạt 6%. Nhưng sự chuyển dịch sâu hơn không chỉ là về giá. Từ giữa 2025, ứng dụng AI chính đã chuyển từ trò chuyện sang các Agent. Trong các kịch bản Agent, việc sử dụng token cao gấp 10 đến 100 lần so với trò chuyện đơn thuần. Khi tiêu thụ token tăng theo cấp số nhân, giá trở thành yếu tố quyết định. Hiệu quả chi phí cực cao của các mô hình Trung Quốc đã đúng thời điểm này.

Nhưng tối ưu hóa thuật toán không chỉ giải quyết vấn đề huấn luyện. Nếu không thể huấn luyện trên dữ liệu mới nhất và lặp lại, mô hình của bạn sẽ nhanh chóng trở nên lỗi thời. Huấn luyện đòi hỏi sức mạnh tính toán khổng lồ. Vậy các công ty Trung Quốc lấy hạ tầng tính toán từ đâu?

Có một thành phố nhỏ ở Giang Tô, Xinghua—chỉ nổi tiếng với thép không gỉ và thực phẩm lành mạnh—nhưng đến năm 2025, họ đã xây dựng một dây chuyền sản xuất máy chủ dài 148 mét. Từ ký kết hợp đồng đến vận hành chỉ mất 180 ngày. Trọng tâm là hai chip hoàn toàn nội địa: bộ xử lý Loongson 3C6000 và card tăng tốc AI TaiChu Yuanqi T100. Loongson có thiết kế riêng từ bộ tập lệnh đến kiến trúc vi mạch. TaiChu Yuanqi đến từ Trung tâm Siêu máy tính Quốc gia Wuxi và Đại học Tsinghua, kiến trúc đa nhân heterogenous.

Khi hoạt động đầy đủ, mỗi máy chủ ra đời mỗi 5 phút. Tổng đầu tư 1,1 tỷ nhân dân tệ, dự kiến 100.000 đơn vị mỗi năm. Điều quan trọng là các cụm hàng nghìn chip nội địa đã bắt đầu xử lý huấn luyện các mô hình lớn thực sự. Tháng 1 năm 2026, Zhipu AI ra mắt GLM-Image cùng Huawei—mẫu tạo hình ảnh SOTA đầu tiên được huấn luyện hoàn toàn bằng chip nội địa. Tháng 2, China Telecom hoàn tất huấn luyện toàn bộ mô hình Xingchen có hàng trăm tỷ tham số trong hệ thống tính toán nội bộ gồm hàng nghìn GPU tại Thượng Hải Lingang.

Ý nghĩa của điều này chỉ là một: chip nội địa đã chuyển từ chỉ dùng để suy luận sang khả năng huấn luyện. Đây là một thay đổi định tính. Suy luận chỉ cần mô hình đã huấn luyện sẵn, yêu cầu phần cứng tương đối thấp. Huấn luyện đòi hỏi xử lý dữ liệu khổng lồ, tính toán gradient phức tạp, cập nhật tham số—yêu cầu cao hơn về sức mạnh tính toán, băng thông kết nối, hệ sinh thái phần mềm.

Động lực chính đến từ dòng Ascend của Huawei. Đến cuối 2025, cộng đồng phát triển hệ sinh thái Ascend đã đạt 4 triệu người, đối tác hơn 3.000, và 43 mô hình chính đã hoàn thành huấn luyện trước bằng Ascend, cộng thêm hơn 200 mô hình mã nguồn mở đã thích ứng. Ngày 2 tháng 3 năm 2026, tại MWC, Huawei giới thiệu hạ tầng tính toán thế hệ mới SuperPoD dành cho thị trường quốc tế. Công suất tính toán FP16 của Ascend 910B đã tương đương NVIDIA A100. Còn nhiều khoảng trống, nhưng đã có thể sử dụng được từ trạng thái hoàn toàn không thể dùng được. Xây dựng hệ sinh thái không nhất thiết phải chờ đến khi có chip hoàn hảo—nên triển khai rộng rãi khi đủ dùng, dùng nhu cầu thực tế của doanh nghiệp để thúc đẩy cập nhật phần cứng và phần mềm.

Mục tiêu triển khai của ByteDance, Tencent, Baidu cho các máy chủ nội địa dự kiến sẽ gấp đôi năm ngoái vào năm 2026. Theo Bộ Công nghiệp và Công nghệ Thông tin, quy mô tính toán thông minh tại Trung Quốc đã đạt 1590 EFLOPS. Năm 2026 là năm triển khai rộng rãi năng lực tính toán nội địa.

Nhưng còn một mặt khác của câu chuyện cũng quan trọng không kém—năng lượng. Virginia, nơi xử lý phần lớn lưu lượng trung tâm dữ liệu toàn cầu, đã tạm dừng cấp phép xây dựng trung tâm dữ liệu mới. Georgia tạm dừng đến năm 2027. Illinois, Michigan ban hành hạn chế. Theo Cơ quan Năng lượng Quốc tế, tiêu thụ điện của trung tâm dữ liệu Mỹ năm 2024 đã đạt 183 TWh, khoảng 4% tổng tiêu thụ quốc gia. Đến 2030, dự kiến sẽ tăng gấp đôi lên 426 TWh, có thể vượt quá 12%. CEO Arm nói rằng đến năm 2030, các trung tâm dữ liệu AI riêng có thể tiêu thụ 20-25% điện năng của Mỹ.

Lưới điện Mỹ đã đến giới hạn. Lưới PJM bao phủ 13 bang phía đông có công suất thiếu hụt 6GW. Đến năm 2033, toàn bộ Mỹ sẽ đối mặt với thiếu hụt 175GW công suất điện, tương đương mức tiêu thụ năng lượng của 130 triệu gia đình. Giá điện ở các khu vực tập trung trung tâm dữ liệu đã tăng 267% so với năm năm trước. Giới hạn của sức mạnh tính toán chính là năng lượng.

Nhưng về mặt năng lượng, khoảng cách giữa Trung Quốc và Mỹ còn lớn hơn nhiều so với chip, nhưng theo hướng ngược lại. Sản lượng điện hàng năm của Trung Quốc là 10,4 nghìn tỷ đơn vị, còn Mỹ là 4,2 nghìn tỷ—Trung Quốc gấp 2,5 lần. Quan trọng hơn, tiêu thụ điện của hộ gia đình Trung Quốc chỉ chiếm 15% tổng, so với 36% của Mỹ. Điều này có nghĩa là Trung Quốc có thể có nhiều hơn năng lực điện công nghiệp sẵn sàng để mở rộng xây dựng năng lực tính toán.

Chỉ riêng giá điện—khu vực các công ty AI Mỹ có giá khoảng 0,12 đến 0,15 đô la mỗi kilowatt-giờ, trong khi mức giá công nghiệp ở miền tây Trung Quốc khoảng 0,03 đô la, bằng một nửa hoặc một phần năm giá Mỹ. Lợi thế về sản lượng điện của Trung Quốc gấp 7 lần so với Mỹ.

Trong khi Mỹ lo lắng về năng lượng, các công ty AI Trung Quốc âm thầm phát triển ở nước ngoài. Nhưng lần này, không phải sản phẩm hay nhà máy đang lớn lên—mà là token. Token, đơn vị thông tin nhỏ nhất mà các mô hình AI xem xét, đã trở thành một hàng hóa kỹ thuật số mới. Được sản xuất tại các nhà máy tính Trung Quốc, vận chuyển toàn cầu qua cáp ngầm.

Phân phối người dùng DeepSeek rõ ràng: 30,7% từ Trung Quốc, 13,6% từ Ấn Độ, 6,9% từ Indonesia, 4,3% từ Mỹ, 3,2% từ Pháp. Hỗ trợ 37 ngôn ngữ, được đánh giá cao ở các thị trường mới nổi như Brazil. Có khoảng 26.000 công ty trên toàn thế giới có tài khoản, 3.200 tổ chức sử dụng phiên bản doanh nghiệp. Năm 2025, 58% các startup AI mới tích hợp DeepSeek vào hệ sinh thái công nghệ của họ. Ở Trung Quốc, DeepSeek chiếm 89% thị phần. Ở các thị trường khác, thị phần dao động từ 40-60%.

Quan điểm này giống như một cuộc chiến mất kiểm soát ngành công nghiệp diễn ra cách đây bốn thập kỷ. Tokyo, 1986, dưới áp lực dữ dội của Mỹ, chính phủ Nhật Bản ký kết Hiệp định bán dẫn Mỹ-Nhật. Ba đặc điểm chính: mở cửa thị trường bán dẫn Nhật Bản, thị phần chip Mỹ phải vượt quá 20%, cấm xuất khẩu bán dẫn dưới giá thành, phạt 100% đối với các lô chip xuất khẩu trị giá 3 tỷ đô la. Mỹ từ chối mua lại của Fujitsu đối với Fairchild. Năm đó, ngành bán dẫn Nhật Bản đạt đỉnh cao. Đến 1988, Nhật Bản kiểm soát 51% thị trường bán dẫn toàn cầu, Mỹ chiếm 36,8%. Trong top 10 công ty bán dẫn toàn cầu, có sáu từ Nhật: NEC thứ hai, Toshiba thứ ba, Hitachi thứ năm, Fujitsu thứ bảy, Mitsubishi thứ tám, Panasonic thứ chín.

Nhưng sau khi ký hiệp định, mọi thứ thay đổi. Mỹ dùng Điều khoản 301 trong điều tra để hoàn toàn đàn áp các công ty bán dẫn Nhật Bản. Trong khi đó, hỗ trợ Samsung và SK Hynix của Hàn Quốc để cạnh tranh thị trường Nhật với giá thấp hơn. Thị phần DRAM của Nhật giảm từ 80% xuống còn 10%. Đến 2017, thị phần IC của Nhật chỉ còn 7%. Các công ty từng mạnh mẽ nay chia rẽ, bán hoặc rút lui trong vô số thất bại.

Bi kịch bán dẫn của Nhật là vì hài lòng với phân công lao động toàn cầu do các thế lực bên ngoài dẫn dắt, coi mình là nhà sản xuất tốt nhất, nhưng không bao giờ nghĩ đến việc xây dựng hệ sinh thái độc lập. Khi làn sóng đó lắng xuống, họ mới nhận ra rằng họ chẳng còn gì ngoài chính sản xuất.

Ngành AI Trung Quốc hiện nay đang đối mặt với cuộc chiến tương tự nhưng hoàn toàn khác biệt. Cũng chịu áp lực lớn từ bên ngoài. Ba làn sóng siết chặt chip liên tục tăng cường, rào cản hệ sinh thái CUDA vẫn còn cao. Khác biệt là lần này chọn con đường khó hơn—từ tối ưu thuật toán cực đoan, qua hành trình chip nội địa từ suy luận đến huấn luyện, thu hút 4 triệu nhà phát triển trong hệ sinh thái Ascend, đến việc phân phối token ra thị trường toàn cầu. Mỗi bước xây dựng hệ sinh thái công nghiệp độc lập mà Nhật Bản chưa từng có.

Ngày 27 tháng 2 năm 2026, ba công ty chip AI nội địa báo cáo kết quả. Cambrian, doanh thu tăng 453%, lần đầu đạt lợi nhuận cả năm. Moore Threads, doanh thu tăng 243%, nhưng lỗ ròng 1 tỷ đô la. Muxi, doanh thu tăng 121%, lỗ ròng gần 8 tỷ đô la. Nửa là lửa, nửa là nước. Lửa là sự đói khát của thị trường. Khoảng trống 95% của Huang đã được lấp đầy bởi doanh thu của các công ty nội địa, từng bước hoàn thành mục tiêu. Dù thành tích thế nào, dù hệ sinh thái ra sao, thị trường cần một lựa chọn thứ hai khi NVIDIA không còn là duy nhất. Đây là cơ hội cấu trúc bất thường do địa chính trị phát hiện ra.

Xây dựng hệ sinh thái đắt đỏ. Mỗi khoản lỗ là tiền thật bỏ ra theo hệ sinh thái CUDA. Chi phí học hỏi, trợ cấp phần mềm, chi phí đi lại của kỹ sư đến các khách hàng để giải quyết vấn đề biên dịch. Những khoản lỗ này không phải do vận hành kém—mà là thuế chiến tranh cần thiết để xây dựng hệ sinh thái độc lập. Ba báo cáo thành tích này trung thực hơn nhiều về tình hình chiến tranh sức mạnh băm nhỏ thực sự của ngành hơn bất kỳ báo cáo ngành nào. Không phải là thành công tràn đầy niềm vui, mà là cuộc chiến vị trí khốc liệt, nơi các chiến binh đứng lên trong khi chảy máu.

Nhưng hình thái chiến tranh thực sự đã thay đổi. Tám năm trước, câu hỏi là 'chúng ta có thể tồn tại không.' Giờ đây, câu hỏi là 'chúng ta phải trả giá bao nhiêu để tồn tại.' Giá trị của chính là tiến bộ.
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
Thêm một bình luận
Thêm một bình luận
Không có bình luận
  • Ghim