Napapansin ko lang habang sinusubaybayan ang industriya ng AI na may kakaibang pattern na nangyayari. Walong taon lang ang nakalipas, isang Chinese telecom company ay literal na nawalan ng buhay dahil sa isang embargo. Pero ngayon, ang ibang Chinese AI companies ay lumalaki nang mabilis kahit sa harap ng mas mataas na pressure. Ano talaga ang nagbago?



Balik tayo sa 2018. Ang ZTE ay isa sa pinakamalaking tagagawa ng telecommunications equipment sa mundo—80,000 empleyado, bilyon-bilyong kita sa taonang kita. Tapos isang araw lang, isang order mula sa US Bureau of Industry and Security ay nagsara ng buong kumpanya. Walang American components, walang Google license, walang operating system. Tatlong linggo later, ang ZTE ay nagsabi na hindi na nila kaya i-operate ang negosyo. Nagbayad sila ng 1.4 bilyong dolyar na penalty, pero ang tunay na problema ay nasa ecosystem—sila ay ganap na nakadepende sa global supply chain na kontrolado ng US.

Ngayon, kahit na may katulad pa ring mga restriction, ang mga Chinese AI companies ay hindi nagsuffer ng parehong kapalaran. Bakit? Dahil ang problema ay hindi lang hardware. Ang tunay na bottleneck ay CUDA.

Pinagsasalita ko yan dahil most people ay nag-aakala na ang chip ban ay tungkol sa mismong chips. Mali yan. Ang CUDA—ang parallel computing platform ng NVIDIA mula 2006—yan ang tunay na hadlang. Lahat ng pangunahing AI frameworks sa buong mundo, mula sa Google's TensorFlow hanggang sa Meta's PyTorch, ay malalim na nakadepende sa CUDA. Kapag nag-aaral ang isang AI researcher, CUDA ang unang tool na natutuhan nila. Bawat linya ng code ay nagpapalakas sa ecosystem ng NVIDIA.

Pagsapit ng 2025, may 4.5 milyon na developers sa CUDA ecosystem, 3000+ GPU-accelerated applications, at 40,000 kumpanya sa buong mundo ang gumagamit nito. Yan ang 90% ng global AI developers. Ito ay isang flywheel na kapag nagsimula na, halos imposibleng ihinto. Mas maraming developers, mas maraming tools. Mas maraming tools, mas maraming developers ang sasali. Ang resulta? NVIDIA ang nag-set ng rules, at lahat ay sumusunod.

Kaya noong 2022-2024, ang US government ay nag-implement ng tatlong wave ng restrictions sa NVIDIA chips export. Unang A100 at H100, pagkatapos A800 at H800, at H20. Pero hindi ito nag-trigger ng parehong panic na nangyari sa ZTE. Bakit? Dahil ang mga Chinese companies ay nag-pivot sa algorithm optimization sa halip na mag-rebelde laban sa hardware.

Ang DeepSeek ay ang pinakamahusay na halimbawa nito. Ang kanilang V3 model ay may 671 bilyong parameters, pero bawat inference ay gumagamit lang ng 37 bilyon—5.5% lang ng kabuuan. Para ma-train ito, ginamit nila lang 2,048 NVIDIA H800 GPUs for 58 days, total cost na 5.576 milyon na dolyar. Ihambing yan sa tinatayang 78 milyon na dolyar para sa GPT-4. Isang order of magnitude ang diperensya.

Mas nagsasalita pa ang presyo. DeepSeek API input ay 0.028 hanggang 0.28 dolyar bawat milyon na tokens, output 0.42 dolyar. GPT-4 input ay 5 dolyar, output 15 dolyar. Claude Opus ay mas mahal pa—15 dolyar input, 75 dolyar output. DeepSeek ay 25 hanggang 75 beses na mas mura. Ang ganitong presyo ay nag-trigger ng malaking pagbabago sa merkado ng mga developer.

Noong Pebrero 2026, sa OpenRouter—ang pinakamalaking AI model API aggregation platform—ang lingguhang paggamit ng Chinese AI models ay tumaas ng 127% sa tatlong linggo at naungusan ang US sa unang pagkakataon. Isang taon na ang nakalipas, ang mga Chinese models ay mas mababa sa 2% ng merkado. Ngayon, tumaas ito ng 421% at papalapit na sa 6%. Pero ang mas malalim na pagbabago ay hindi lang sa presyo. Mula mid-2025, ang pangunahing AI application ay nag-shift mula sa chatting papunta sa Agents. Sa mga scenario ng Agents, ang token usage ay 10 hanggang 100 beses na mas mataas kumpara sa simpleng chat. Kapag ang pagkonsumo ng tokens ay exponentially na tumaas, ang presyo ang nagiging pangunahing salik. Ang sobrang cost efficiency ng mga Chinese models ay perfect timing sa panahong ito.

Pero ang algorithm optimization ay hindi lang solusyon sa training problem. Kung hindi ka makapag-train gamit ang latest data at mag-iterate, ang iyong model ay mabilis na magiging obsolete. Ang training ay nangangailangan ng malaking computing power. Kaya saan nakukuha ng mga Chinese companies ang computing infrastructure?

May isang maliit na lungsod sa Jiangsu na Xinghua—kilala lang sa stainless steel at healthy food—pero noong 2025, nagtayo dito ng 148-metrong server production line. Mula sa pagpirma ng kasunduan hanggang sa operasyon, 180 araw lang. Ang core ay dalawang fully local chips: Loongson 3C6000 processor at TaiChu Yuanqi T100 AI accelerator card. Ang Loongson ay may sariling disenyo mula sa instruction set hanggang sa microarchitecture. Ang TaiChu Yuanqi ay galing sa National Supercomputing Center Wuxi at Tsinghua University, heterogenous many-core architecture.

Kapag full capacity, isang server every 5 minutes. Kabuuang investment ay 1.1 bilyong yuan, inaasahang 100,000 units bawat taon. Ang mahalaga ay nagsimula nang mag-handle ng tunay na malalaking model training ang clusters ng libu-libong local chips. Enero 2026, inilabas ng Zhipu AI ang GLM-Image kasama ang Huawei—unang SOTA image generation model na ganap na na-train gamit ang local chips. Pebrero, nakumpleto ng China Telecom ang full process training ng kanilang hundred-billion-level Xingchen model sa local compute pool ng libu-libong GPUs sa Shanghai Lingang.

Ang kahalagahan nito ay isang bagay lang: ang local chips ay nag-transition na mula inference-only papunta sa training-capable. Ito ay isang qualitative na pagbabago. Ang inference ay nangangailangan lang ng pre-trained models, relatively low chip requirements. Ang training ay nangangailangan ng malaking data handling, complex gradient computation, parameter updates—mas mataas ang requirements sa computing power, interconnect bandwidth, at software ecosystem.

Ang driving force nito ay ang Huawei Ascend series. Pagsapit ng katapusan ng 2025, ang mga Ascend ecosystem developers ay umabot na sa 4 milyon, mga partner 3000+, at 43 pangunahing models ang nakumpleto na ng pre-training gamit ang Ascend, plus 200+ open-source models na na-adapt. Marso 2, 2026, sa MWC, ipinakilala ng Huawei ang bagong henerasyon ng SuperPoD compute infrastructure para sa overseas markets. Ang FP16 computing power ng Ascend 910B ay katumbas na ng NVIDIA A100. May mga gaps pa, pero nagamit na ito mula sa hindi magamit na dati. Ang ecosystem building ay hindi dapat maghintay hanggang sa perfect chips—dapat wide deployment na habang sapat na, gamit ang tunay na pangangailangan sa negosyo upang mapilit ang pag-update ng chips at software.

Ang deployment targets ng ByteDance, Tencent, Baidu para sa local servers ay inaasahang madoble sa 2026 kumpara noong nakaraang taon. Ayon sa Ministry of Industry and Information Technology, ang scale ng intelligent computing sa China ay umabot na sa 1590 EFLOPS. Ang 2026 ay taon ng malawakang deployment ng local computing power.

Pero may isang kabilang na kwento na pantay na mahalaga—enerhiya. Virginia, na humahawak ng malaking bahagi ng global data center traffic, ay nag-pause ng bagong permits para sa data centers. Georgia ay nag-pause hanggang 2027. Illinois, Michigan ay naglabas ng mga restriction. Ayon sa International Energy Agency, ang konsumo ng kuryente ng US data centers sa 2024 ay umabot sa 183 terawatt-hours, halos 4% ng kabuuang pambansang konsumo. Pagsapit ng 2030, inaasahang madodoble ito sa 426 TWh, posibleng lumagpas sa 12%. Sinabi ng Arm CEO na pagsapit ng 2030, ang AI data centers lang ay maaaring kumonsumo ng 20-25% ng kuryente sa US.

Nasa limit na ang grid ng US. Ang PJM grid na sumasaklaw sa 13 eastern states ay may kakulangan na 6GW. Pagsapit ng 2033, ang buong US ay haharap sa kakulangan sa kapasidad ng kuryente na 175GW, katumbas ng enerhiya na ginagamit ng 130 milyong pamilya. Ang presyo ng kuryente sa mga rehiyon na may konsentrasyon ng data centers ay tumaas ng 267% kumpara noong limang taon ang nakalipas. Ang hangganan ng computing power ay energy.

Pero sa energy side, mas malaki ang gap sa pagitan ng China at US kaysa sa chips, ngunit sa kabaligtaran na direksyon. Ang taunang produksyon ng kuryente ng China ay 10.4 trilyong yunit kumpara sa US na 4.2 trilyon—mas mataas ang China ng 2.5 beses. Mas importante, ang household electricity usage sa China ay nasa 15% lang ng kabuuan, kumpara sa US na 36%. Ibig sabihin, maaaring mas malaking industrial electricity capacity ang available sa China para sa pagbuo ng computing power.

Ang presyo ng kuryente—ang mga rehiyon ng AI companies sa US ay 0.12 hanggang 0.15 dolyar bawat kilowatt-hour, habang ang mga industrial rates sa western China ay nasa paligid ng 0.03 dolyar, kalahati o isang-pitong bahagi ng presyo sa US. Ang advantage ng China sa electricity generation ay 7 beses kumpara sa US.

Habang nag-aalala ang Amerika sa power, tahimik na nagde-develop ang Chinese AI sa ibang bansa. Pero sa pagkakataong ito, hindi ang produkto o pabrika ang lumalaki—kundi ang tokens. Ang tokens, ang pinakamaliit na yunit ng impormasyon na kinokonsidera ng mga AI models, ay naging bagong digital commodity. Ginagawa sa mga Chinese computing factories, ipinapadala sa buong mundo sa pamamagitan ng mga submarine cable.

Malinaw ang distribution ng DeepSeek users: 30.7% mula sa China, 13.6% mula sa India, 6.9% mula sa Indonesia, 4.3% mula sa US, 3.2% mula sa France. Sumusuporta sa 37 na wika, malawak na pinahahalagahan sa mga emerging markets tulad ng Brazil. 26,000 kumpanya sa buong mundo ang may account, 3,200 na institusyon ang gumagamit ng enterprise version. Noong 2025, 58% ng mga bagong AI startups ay nag-integrate ng DeepSeek sa kanilang tech stack. Sa China, nakakuha ang DeepSeek ng 89% market share. Sa ibang mga merkado na may training, ang market share ay nasa pagitan ng 40-60%.

Ang pananaw na ito ay parang isang digmaan sa pagkawala ng kontrol sa industriya na nangyari apat na dekada na ang nakalipas. Tokyo, 1986, sa ilalim ng matinding presyon ng US, nilagdaan ng gobyerno ng Japan ang US-Japan Semiconductor Agreement. Tatlong pangunahing katangian: pagbubukas ng merkado ng semiconductors ng Japan, ang US chip market share ay kailangang lumagpas sa 20%, export bans sa mga semiconductors na mas mababa sa cost, 100% penalty sa mga chips na na-export na nagkakahalaga ng 3 bilyong dolyar. Tinanggihan ng US ang pagbili ng Fujitsu sa Fairchild. Noong panahong iyon, ang industriya ng semiconductors ng Japan ay nasa rurok. Pagsapit ng 1988, kontrolado ng Japan ang 51% ng global semiconductor market, ang US ay 36.8%. Sa top 10 na kumpanya ng semiconductors sa buong mundo, anim ay mula sa Japan: NEC pangalawa, Toshiba pangatlo, Hitachi panglima, Fujitsu pangpito, Mitsubishi pangwalo, Panasonic pangsiyam.

Pero pagkatapos ng kasunduan, lahat ay nagbago. Ginamit ng US ang Section 301 investigations upang tuluyang supilin ang mga Japanese semiconductor companies. Samantala, sinuportahan nila ang Samsung at SK Hynix mula sa Korea upang labanan ang merkado ng Japan sa mas mababang presyo. Ang share ng Japan sa DRAM ay bumaba mula 80% hanggang 10%. Pagsapit ng 2017, ang share ng Japan sa IC market ay 7% lang. Ang mga dating malalakas na kumpanya ay naghiwa-hiwalay, binili, o lumabas sa walang katapusang pagkalugi.

Ang trahedya ng semiconductor ng Japan ay nasa pagiging masaya sa global division of labor na pinamumunuan ng panlabas na kapangyarihan—bilang pinakamahusay na producer—pero hindi nag-isip na bumuo ng sariling ecosystem. Nang bumaba ang wave, nadiskubre nilang wala silang maliban sa manufacturing mismo.

Ang kasalukuyang industriya ng AI ng China ay humaharap sa katulad ngunit ganap na ibang krusada. Humaharap din sa malaking external pressure. Tatlong wave ng chip tightening, patuloy na pinapalakas, nananatiling mataas ang barrier ng CUDA ecosystem. Ang pagkakaiba ay sa pagkakataong ito, pinili nila ang mas mahirap na landas—mula sa extreme algorithm optimization, hanggang sa local chip journey mula inference hanggang training, na nakalikom ng 4 milyon na developers sa Ascend ecosystem, hanggang sa pagpapalaganap ng tokens sa global market. Bawat hakbang ay nagtatayo ng independent na industriyal na ecosystem na hindi pa nagawa ng Japan.

Pebrero 27, 2026, nag-ulat ang tatlong lokal na kumpanya ng AI chips tungkol sa kanilang performance. Cambrian, tumaas ang kita ng 453%, unang nakamit ang full-year profitability. Moore Threads, tumaas ang kita ng 243%, pero may net loss na 1 bilyong dolyar. Muxi, tumaas ang kita ng 121%, halos 8 bilyong dolyar ang net loss. Half fire, half water. Ang apoy ay ang gutom ng merkado. Ang 95% space ni Huang ay natapos na ng kita ng mga lokal na kumpanya, isa-isa na natutupad. Anuman ang performance, anuman ang ecosystem, kailangan ng merkado ng pangalawang opsyon kung saan hindi naroroon ang NVIDIA. Ito ay isang hindi pangkaraniwang estrukturang oportunidad na natuklasan ng geopolitics.

Ang pagtatayo ng ecosystem ay mahal. Bawat pagkalugi ay totoong pera na ginastos sa pagsunod sa CUDA ecosystem. Mga gastos sa pag-aaral, subsidyo sa software, gastos sa biyahe ng mga engineer sa mga customer site para ayusin ang mga problema sa compilation. Ang mga pagkalugi na ito ay hindi dahil sa mahina na operasyon—ito ay isang war tax na kailangang bayaran para sa pagtatayo ng independent ecosystem. Ang tatlong ulat na ito ay mas tumpak na nagsasalaysay ng tunay na sitwasyon ng hash power war kaysa sa anumang industry report. Hindi ito isang tagumpay na puno ng selebrasyon, kundi isang brutal na laban sa posisyon, kung saan ang mga sundalo ay umaakyat habang dumudugo.

Ngunit tunay na nagbago ang anyo ng digmaan. Walong taon na ang nakalipas, tinanong ang tanong na 'kaya ba nating mabuhay.' Ngayon, tinatalakay na 'ano ang halaga na kailangang bayaran para mabuhay.' Ang halaga mismo ay progreso.
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
إضافة تعليق
إضافة تعليق
لا توجد تعليقات
  • تثبيت