Semua orang memaksimalkan token, sebuah perlombaan perlengkapan militer yang tak ada yang berani berhenti

Tulisan: Meng Xing

Pada pagi hari tanggal 24 Maret 2026, saya duduk di kursi penonton Demo Day batch YC W26, saat mendengar perusahaan kelima naik ke panggung untuk presentasi, saya memutuskan untuk berhenti mencatat.

Bukan karena tidak penting, melainkan saya menyadari bahwa apa yang saya catat mungkin sudah usang bulan depan.

Dari lebih dari seratus perusahaan di batch ini, pekerjaan yang dilakukan sebenarnya sangat terkonsentrasi: sekitar 80% adalah agen vertikal, seperti membantu pengacara mengatur dokumen, membantu layanan pelanggan mendistribusikan tiket, membantu HR menyaring CV.

Kalau melihat proyek-proyek ini pada Oktober tahun lalu, besar kemungkinan saya akan merasa “cukup inovatif”. Tapi masalahnya adalah, selama lima bulan ini, dunia telah berubah.

Claude Code dari alat yang lebih berorientasi pengembang, berubah menjadi antarmuka yang hampir bisa langsung digunakan oleh siapa saja. Setelah muncul Opus 4.6, seluruh vibe coding dengan vibe yang lebih santai, tingkat kesulitannya ditekan ke dasar.

Agen vertikal itu, sebelum membentuk hambatan bisnis, hari ini seorang engineer biasa, bahkan saya sendiri, hanya butuh akhir pekan untuk membuatnya—mereka sudah kehilangan nilai investasi.

Siklus proyek YC adalah tiga bulan, dan batch ini masuk pada Desember, ditambah proses penyaringan awal, berarti mereka adalah “perusahaan bagus” yang dipilih sekitar lima bulan lalu. Dan lima bulan, dalam kecepatan iterasi AI saat ini, sudah cukup untuk beberapa kali perubahan paradigma.

Pada 2012, saat pertama kali saya memulai usaha, dan mendapatkan Fly Out dari YC (undangan wawancara langsung), YC saat itu hampir satu-satunya di jalur akselerator, perusahaan yang dipilih biasanya mewakili “arah berikutnya”. Tapi kompetisi berubah, dan dalam beberapa tahun terakhir, YC terasa berbalik, menjadi indikator yang tertinggal (lagging indicator).

Sistem batch YC, dari aplikasi, penyaringan, masuk, pengasahan, hingga presentasi, beroperasi selama lebih dari sepuluh tahun di era internet mobile, sangat sukses. Tapi ritme ini dirancang untuk dunia yang lebih lambat.

Kembali ke industri modal ventura selama satu setengah tahun terakhir, saya kira setiap kuartal saya akan datang ke Silicon Valley, terakhir kali pada Oktober tahun lalu. Sebelumnya, setiap kali datang, saya merasa perubahan sangat cepat, tapi kebanyakan “cepat” itu terasa per bulan.

Sekarang, harus per “minggu”.

Suatu malam saat makan malam, seorang teman yang bekerja di post-training (pelatihan pasca) secara santai berkata:

“Saya sadar, Silicon Valley sendiri mulai tidak mampu mengikuti dirinya sendiri.”

Token-maxxing seluruh tim: sebuah perlombaan senjata yang tak berani dihentikan oleh siapa pun

Setengah tahun lalu, jika seseorang mengatakan kepada saya bahwa Meta dengan puluhan ribu insinyur, semua menggunakan produk pesaing untuk menulis kode, saya akan mengira dia bercanda.

Tapi ini nyata. Seluruh Meta, semua tim menggunakan Claude Code. Ini bukan startup, bukan tim eksperimental, melainkan perusahaan bernilai triliunan dolar.

Keamanan kode sudah tidak dipedulikan lagi, anggaran token meledak, papan peringkat menjadi kompetisi, seluruh Silicon Valley menghamburkan uang ke AI tanpa peduli biaya. Tapi setelah menghambur-hamburkan, apa selanjutnya?

Pertama, soal keamanan kode. Setengah tahun lalu, hal ini sama sekali tidak terbayangkan, karena kode adalah aset inti perusahaan, bagaimana bisa membiarkan API dari perusahaan lain menyentuhnya? Meta awalnya juga berpikir begitu, mereka membuat sesuatu bernama myclaw untuk mengatasi masalah ini. Seorang teman dari Meta memberi tahu saya, mereka sudah membuat produk coding, tapi “tidak user-friendly, tidak dipakai orang”. Setelah tidak dipakai, perusahaan harus melonggarkan: selama tidak melibatkan data pelanggan, mereka bebas pakai Claude Code.

Kemudian, setiap departemen mulai mengadakan rapat internal tentang “bagaimana menjadi organisasi native AI”, melakukan pelatihan, melakukan evaluasi. Keamanan kode, keamanan penggunaan, garis merah yang dulu dianggap mutlak, semua dipinggirkan dulu, prioritasnya adalah efisiensi.

Karena alasan keamanan, Google melarang sebagian besar karyawannya menggunakan Claude Code atau Codex dan alat pesaing lainnya, tapi DeepMind adalah pengecualian, beberapa tim yang bertanggung jawab atas model Gemini dan aplikasi internal tetap memakai Claude Code.

Google sendiri juga tidak diam: mereka meluncurkan alat pengkode internal Antigravity, pada Februari tahun ini bahkan mengklaim sekitar 50% kode baru mereka sudah ditulis AI.

Tapi meskipun begitu, orang-orang di DeepMind tetap memakai Claude Code. Mereka berani melakukannya karena Anthropic menyediakan deployment privat, mengingat inference dan pelatihan Anthropic memang berjalan di TPU Google Cloud, dan ada kepercayaan di antara mereka. Tapi Meta dan raksasa teknologi lain tidak punya hubungan seperti itu, mereka benar-benar mengabaikan keamanan kode. Semua orang bertaruh pada satu hal: mempercepat kecepatan.

Keamanan kode hanyalah bendera pertama yang tumbang, yang kedua adalah anggaran token.

Di beberapa startup AI-native di Palo Alto, anggaran token satu engineer per tahun sekitar dua puluh ribu dolar. Angka ini tidak aneh, yang aneh adalah biaya AI yang dikeluarkan oleh engineer top sudah mendekati gaji mereka. Tampaknya perusahaan mengurangi biaya dengan AI, tapi sebenarnya total biaya tidak berkurang, hanya mengganti biaya manusia dengan biaya token.

Meta adalah yang paling ekstrem dalam hal ini. Mereka membuat leaderboard konsumsi token internal: siapa yang paling banyak pakai, dia naik peringkat, yang di ujung bawah bisa dipecat, sehingga bahkan ada gelar tidak resmi “token legend” di kalangan karyawan Meta.

Tapi di saat yang sama, Meta melakukan dua kali PHK besar tahun ini, totalnya lebih dari sepuluh ribu orang. Sementara semua tim berlomba-lomba pakai Claude Code untuk meningkatkan token, mereka juga melakukan PHK besar-besaran.

Kedua hal ini bukan kontradiksi, melainkan dua sisi dari satu hal yang sama.

Saya mengunjungi sebuah perusahaan Seri C, kepala teknisnya membuka Slack untuk saya, penuh agen yang berjalan, beberapa Cursor agent berjalan paralel, dan satu jendela Claude Code untuk penjadwalan. Sekarang, kekhawatiran terbesar di kalangan programmer adalah: sebelum tidur, jika tidak tahu apa yang dilakukan puluhan agen itu, mereka merasa panik.

Tapi apakah produktivitas benar-benar meningkat sebanyak itu? Sejak akhir tahun lalu, banyak CTO dari perusahaan inference dan database top, dengan antusias mengatakan kepada saya tentang “seratus kali lipat engineer” dan “sepuluh kali lipat efisiensi”, bahwa hal yang dulu membutuhkan 60 orang selama satu tahun, sekarang bisa diselesaikan dalam satu minggu oleh 2 orang plus Claude Code.

Awalnya saya juga ikut bersemangat, tapi kemudian saya tenang dan bertanya: oke, efisiensi meningkat 100 kali, apakah pendapatan perusahaan juga meningkat 100 kali? Atau lini produk berkembang 100 kali? Tidak mungkin “100 kali” itu akhirnya mengurangi jumlah orang secara signifikan, kan?

Saya tidak mendapatkan jawaban pasti. Faktanya, peningkatan efisiensi 100 kali jika diterapkan ke pendapatan perusahaan, hanya menunjukkan kenaikan 50% atau 1 kali lipat.

Dimana bedanya? Sekarang belum ada yang bisa menjelaskannya dengan pasti.

“Kalau pakai begitu banyak token, perusahaan seharusnya mengalami mutasi genetik menjadi perusahaan yang berbeda. Tapi saya juga tidak tahu jadi apa.”

Seorang pendiri yang berasal dari bidang penjualan B2B memberi tahu saya, timnya yang 16 orang, dengan dua orang sales, dalam 12 bulan mampu mencapai 30 juta dolar ARR, semua berkat coding AI. Kasus seperti ini memang kadang terlihat. Tapi kebanyakan, yang saya lihat adalah startup yang membangun lebih banyak hal, tapi hal-hal itu belum cocok pasar (PMF).

Silicon Valley saat ini sedang mencoba 100 metode dengan vibe coding, untuk melihat mana yang berhasil, bukan hanya 10. Tapi siapa yang bisa menangkap tren berikutnya? Masih sangat sulit dipastikan.

Contoh paling berkesan dari kontra adalah dari internal Anthropic. Saya tanya ke seorang teman di Anthropic, apa situasi paling menyakitkan saat pakai agen? Dia bilang: oncall (tanggap darurat).

Situasi typical oncall adalah: jika API Claude tiba-tiba lambat, ada node inference yang error, atau prompt pengguna menampilkan output abnormal, engineer oncall harus cepat menemukan akar masalahnya, apakah bug kode, masalah alokasi komputasi, atau error model itu sendiri, lalu memutuskan cara memperbaikinya.

Anthropic sendiri adalah perusahaan coding agent terkuat di dunia, dan situasi ini sangat dekat dengan kemampuan inti mereka, tapi agen oncall internal mereka tetap tidak efektif.

Ini adalah gambaran nyata bulan April 2026: mesin uap sudah ditemukan, tapi kadang berjalan lebih lambat dari kereta kuda. Intinya, semua orang tahu mesin uap pasti akan lebih cepat, jadi mereka berlomba-lomba menghamburkan uang: mengabaikan keamanan kode, anggaran token meledak, papan peringkat menjadi kompetisi. Tapi kapan mesin uap benar-benar bisa mengalahkan kereta kuda? Tidak ada yang tahu, tapi tidak ada yang berani berhenti menunggu hari itu.

Karena berhenti berarti kerugian yang lebih besar daripada salah membakar token.

Selain itu, konsumsi token besar kemungkinan tidak bertambah secara linier. Ini mengingatkan saya pada pengalaman saya dulu di bidang mengemudi otomatis: tahun 2021 di Shanghai, kami pertama kali melakukan pengemudian otomatis tanpa intervensi selama 5 jam berturut-turut. Saat itu, saya merasa ini pencapaian besar, sebelumnya, armada pengujian mungkin 10, 15, 20 mobil yang perlahan bertambah; tapi setelah titik itu, dengan cepat mencapai 100, 1000 mobil. Saat ini, Coding agent berada di tahap yang serupa.

Pada tahun 2021 di Shanghai, Didi Autonomous Driving pertama kali mencapai 5 jam berturut-turut tanpa intervensi, sebuah tonggak dalam otomatisasi kendaraan domestik. Gambar menunjukkan COO Didi saat itu, Meng Xing, berbincang dengan Sebastian Thrun, “Bapak Mobil Tanpa Pengemudi” dari Google, tahun 2021.

METR adalah lembaga riset di California yang khusus menilai kemampuan pengkodean AI. Mereka tahun lalu mengusulkan sebuah indikator: mengukur berapa lama AI agent mampu menyelesaikan tugas dengan tingkat keberhasilan 50% (berdasarkan waktu penyelesaian oleh manusia ahli). Saat pertama kali dirilis pada Maret 2025, angka Claude 3.7 Sonnet adalah 50 menit; pada akhir 2025, Claude Opus 4.6 sudah mencapai 14,5 jam. Dalam dua tahun terakhir, periode penggandaan indikator ini dari 7 bulan menjadi 4 bulan. Jika keandalan agent meningkat lagi, konsumsi token bukan lagi masalah 50% pertahun, melainkan bisa dalam satu malam mencapai level yang jauh lebih tinggi.

Ada prediksi yang disepakati banyak orang: hingga akhir tahun ini, banyak perusahaan (termasuk raksasa teknologi) sebenarnya hanya membutuhkan 20% dari tenaga kerjanya.

Setelah runtuhnya tim xAI, orang-orang mulai membangun model roket

Di sebuah restoran steak di Mountain View, sekitar pukul sembilan malam, seorang teman yang pernah bekerja lama dengan Elon Musk duduk di depan saya. Setelah ngobrol lebih dari tiga jam, saya menyadari, dalam seluruh proses itu dia sepertinya tidak pernah memuji Elon Musk.

Satu detail: saya tanya, selama tiga tahun di xAI, ritme harianmu seperti apa? Dia bilang, selama tiga tahun hampir selalu tinggal di kantor, jadi rumahnya tidak banyak dihias, bahkan tidak pernah beli tempat tidur. Di kantor tidur di sleeping pod, mirip asrama mahasiswa. Saya bilang, kamu sekarang punya saham besar, sudah keluar dari perusahaan, paling tidak beli tempat tidur lah. Dia tersenyum.

Kerja di xAI terkenal keras di Silicon Valley, tapi sekarang tim awalnya sudah sekitar 90% yang pergi. Mereka punya grup keluar, setiap hari menambah anggota.

Pemicu utama adalah Tony Wu dipecat, lalu berantai, menurut seorang sumber internal, “perusahaan lain mungkin butuh setengah tahun untuk menggerakkan tim eksekutif keluar, tapi di xAI cuma sebulan.” Beberapa orang sudah merasakan ketidakpuasan Elon sejak Oktober tahun lalu, tapi tidak menyangka akan dibersihkan secepat ini.

Sekarang Elon mulai memindahkan orang dari SpaceX dan Tesla untuk mengelola xAI, “orang yang buat roket mulai buat model.”

Ketidakpuasan Elon berasal dari dia sudah menggelontorkan banyak dana dan daya komputasi, tapi Grok belum bisa masuk garis depan. Tapi kenapa? Ini pertanyaan yang selalu saya tanyakan ke orang yang keluar dari xAI. Jawabannya sebenarnya cukup sederhana, kata seorang teman: tim mereka sangat kuat, kerja keras, tapi cara manajemen manufaktur mungkin tidak cocok untuk perusahaan model besar.

Saya sendiri sudah delapan tahun di bidang otomatisasi kendaraan, dan punya beberapa pengalaman pribadi. Elon dulu di SpaceX dan Tesla, pada dasarnya melakukan rekayasa sistem: rantai panjang, melibatkan perangkat lunak, hardware, rantai pasok, setiap bagian punya ruang inovasi, tapi akhirnya adalah masalah rekayasa end-to-end.

Dia mahir dalam mengenali titik kunci dalam rantai panjang itu, lalu mempercepat waktu secara ekstrem untuk mengatasi masalah. Mesin roket yang berantai, pendaratan ulang yang bisa digunakan kembali, adalah hasil dari pola pikir ini.

Tapi di xAI, dia tidak melakukan seperti rekayasa sistem. Sekarang dia melakukan tiga hal: pertama, menggelontorkan GPU terbesar di dunia (bahkan sekarang orang bercanda, xAI dulu neo lab, sekarang lebih mirip neo cloud, jadi memberi daya komputasi untuk Cursor), lalu memberi tim deadline yang sangat ketat, dan secara pribadi membuat fitur produk. Ini fokus pada beberapa titik, bukan perencanaan lengkap.

Orang yang pernah kerja di otomatisasi kendaraan tahu, di tahap akhir, konflik utama muncul antara tim software, infra, dan hardware: “siapa yang memimpin siapa” menjadi masalah utama. Ketiga bidang ini butuh keputusan dari CTO level, tapi tidak ada satu orang pun yang paham ketiganya sekaligus. Cara terbaik adalah, meskipun pendiri tidak paham semua, mereka tahu bagaimana menyeimbangkan sumber daya dan menentukan prioritas tahap, misalnya saat ini software prioritas, lalu tahap berikutnya infra. Ini disebut perencanaan global.

Masalah xAI adalah tidak adanya perencanaan global, hanya sprint. Kalau tekanannya tidak terlalu besar, orang pintar sebenarnya bisa memperbaiki sendiri, memberi mereka waktu, setiap bidang akan menemukan ritme kolaborasi. Tapi manajemen tekanan tinggi Elon, ditambah kurangnya perencanaan global, membuat semuanya berantakan. Kepala bidang masing-masing menjaga prioritas sendiri, tidak ada yang mengatur secara menyeluruh.

Keberhasilan SpaceX dan Tesla salah satunya karena mereka jarang menghadapi kompetitor selevel, mereka bersaing dengan diri sendiri. Tapi AI berbeda, kompetisi di AI sangat brutal, bahkan OpenAI bisa disalip oleh Anthropic.

Salah satu pendiri xAI tahun lalu bilang, ada dua hal yang tidak dia sangka: pertama, kompetisi sangat sengit; kedua, peluang inovasi aplikasi di era AI sangat sedikit, karena sudah diambil alih oleh model.

Kebangkitan Anthropic adalah salah satu kisah paling dramatis dalam industri AI tahun lalu. Juga mengubah fokus pertarungan: setahun lalu mereka berlomba-lomba menarik pengguna C-end dan menghasilkan video, sekarang (fase tertentu) medan pertarungan adalah toB dan coding.

Tentu saja, kisah xAI juga merupakan cerita tentang “uang datang terlalu cepat dan terlalu banyak, apa jadinya.”

Saya yakin teman-teman yang meninggalkan xAI hari ini tidak akan menyesal bergabung dulu, karena xAI bisa dibilang adalah mitos kekayaan tercepat di Silicon Valley. Dari pendanaan awal ratusan juta dolar, kini mereka bergabung dengan SpaceX, menjadi perusahaan bernilai 250 miliar dolar, hanya dalam satu tahun. Dan sembilan pendiri xAI hampir semuanya menjadi miliarder, insinyur utama bernilai puluhan juta hingga satu miliar dolar, uang di Silicon Valley memang sangat banyak. Kalau mereka mau berbisnis lagi, mereka punya modal penuh untuk mengejar bidang yang mereka minati, bukan sekadar mencari uang cepat.

Insinyur yang cemas, dan peneliti yang lebih cemas

Bercakap dengan insinyur, kini ada semacam kesepahaman aneh: semua mengakui mereka sudah jarang menulis kode, tapi mereka pura-pura tidak peduli karena mereka akan dilengkapi AI, dan mengalahkan insinyur yang tidak mengadopsi AI.

Saat ini, 80% keahlian utama software engineer sudah digantikan model, dan alasan mereka tetap ada adalah model kadang-kadang ceroboh, membutuhkan pengawasan manusia. Tapi “mengawasi” ini sendiri mungkin tidak akan lama lagi.

Lebih radikal lagi, yang disebut “organisasi native AI” terdengar sangat seksi—mengatur alur kerja tiap departemen, mengotomatisasi bagian yang bisa diintervensi AI, menulis skills. Tapi esensinya adalah mendistilasi diri sendiri secara manusiawi: mengubah kemampuan menjadi skill mesin, perusahaan mendapatkan skill tersebut, dan secara praktis sudah melakukan AI. Kalau harus PHK karena itu, itu soal moral. Saat ini Meta sedang melakukan hal ini.

Meskipun semua berlomba-lomba token-maxxing, tetap terasa ada semacam kecemasan mendasar yang menyelimuti Silicon Valley.

Lebih mengejutkan lagi, kecemasan ini menyebar ke kalangan peneliti.

Peneliti adalah puncak piramida talenta, bukan sekadar “peneliti” umum, melainkan mereka yang di perusahaan model besar (OpenAI, Anthropic, DeepMind, dll), bertanggung jawab atas pelatihan model dan inovasi algoritma. Mereka berbeda dari engineer: engineer “membuat sesuatu”, menulis kode, meng-deploy, mengoptimasi; peneliti adalah “menghasilkan ide”—mengusulkan metode pelatihan baru, merancang arsitektur model, menjalankan eksperimen dan verifikasi.

Sekarang, bahkan pekerjaan peneliti pun mulai otomatis. Ini yang dilakukan rekan-rekan di DeepMind—menggunakan model untuk melatih model lain, dan ini menjadi tren besar AI tahun ini. Yang tereliminasi tahun ini adalah engineer, dan akhir tahun nanti, peneliti juga akan mulai tergantikan.

Ini bukan konsep baru. Andrej Karpathy memulai dengan auto research, dan sekarang berbagai alat scientist AI serta framework harness menuju arah ini. Tapi saat ini, sebagian besar proses masih berhenti di tahap “terbitkan paper”—AI membantu menjalankan eksperimen dan menulis makalah, tapi tetap manusia yang menilai.

Perusahaan seperti OpenAI, Anthropic, Google ingin lebih agresif: mereka ingin menutup loop langsung ke peningkatan model, bukan hanya perbaikan detail, tapi AI sendiri yang menemukan terobosan paradigma berikutnya. Kalau ini berhasil, itu benar-benar menggantikan peneliti. Google DeepMind sudah menguji ini selama lebih dari setahun, membiarkan model memutuskan eksperimen apa yang harus dilakukan selanjutnya, menilai sendiri jalan mana yang lebih menjanjikan, lalu mengikuti jalur itu—ini adalah AI yang melatih generasi berikutnya dari model.

Dan peneliti pun punya motivasi untuk di-PHK, karena biayanya sangat mahal. Peneliti global jumlahnya mungkin hanya beberapa ribu, dengan gaji jutaan dolar, bahkan puluhan juta.

“Di masa depan, mungkin 10 orang melakukan pekerjaan 100 orang, dengan bayaran 20%, dan 90 orang lainnya menganggur.”

Dan PHK yang sebenarnya jauh lebih besar dari angka resmi. Banyak perusahaan mem-PHK vendor outsourcing terlebih dahulu—artinya, negara-negara seperti India dan Filipina, yang dulu menjadi basis layanan pelanggan, data labeling, backend keuangan, mungkin paling dulu terdampak. Jalur peningkatan ekonomi melalui jasa ini mungkin sedang disingkirkan AI.

Seluruh Silicon Valley mengawasi Meta, jika eksperimen mereka berhasil—pendapatan tetap, efisiensi meningkat—perusahaan besar lain akan cepat mengikuti, dan PHK akan menjadi norma industri. Dan mekanisme percepatan PHK ini kejam: awalnya mereka takut mem-PHK karena takut merusak moral, tapi begitu menjadi kebiasaan, mereka akan semakin cepat dan tidak lagi merasa bersalah.

Tapi, bersamaan dengan menghapus posisi lama, posisi baru juga bermunculan.

Banyak startup mulai merekrut peran baru bernama “AI builder”—menggabungkan product manager, front-end engineer, back-end engineer. Ada juga posisi gabungan data scientist dan machine learning engineer, serta content operator yang mengelola penulisan, distribusi, dan operasional secara terintegrasi.

Permintaan terhadap peran-peran ini sangat tinggi di Silicon Valley, tapi tantangannya adalah: tidak ada orang yang tahu cara merekrut mereka. Anda tidak bisa menilai dari CV karena peran ini belum ada sebelumnya, kemampuan mereka mungkin tersembunyi di proyek pribadi; juga tidak bisa dinilai dari coding langsung, karena kemampuan utama adalah “estetika + kemampuan menggunakan AI”. Beberapa startup bahkan membangun sistem otomatis untuk membuat simulasi, agar calon pekerja bisa menunjukkan kemampuan mereka menggunakan AI secara langsung—mirip tes coding dulu, tapi untuk hal yang benar-benar baru.

Ketika AI bisa melakukan segalanya, nilai manusia beralih dari “apa yang bisa dilakukan” menjadi “apa yang layak dilakukan, dan apa yang tidak”.

Dua kali pendanaan, satu valuasi: Nvidia di setiap meja judi harus mengamankan chip

Setelah membahas banyak orang yang tergantikan—insinyur, peneliti, profesional keuangan—ada satu peran yang justru tidak tergantikan, malah semakin menjadi “bos belakang layar” dalam proses ini.

Dunia inovasi yang tampaknya tersebar ini, sebenarnya sangat terpusat.

Intinya adalah Nvidia.

Saya kira, kelangkaan chip ini sudah berkurang tahun lalu. Memang sempat berkurang, sekitar pertengahan 2025, beberapa neo cloud yang didukung Nvidia—penyedia GPU baru di era AI—kesulitan pendanaan, pertumbuhan bisnisnya melambat, bahkan ada yang dijual. Tapi kali ini saya lihat, kelangkaan itu kembali, dan bahkan lebih ekstrem.

Sinyal konkret: jika Anda mampu menyediakan API yang stabil, misalnya Claude API, dengan tingkat stabilitas 99 persen, Anda bisa menjual harga dua sampai tiga kali lipat dari harga resmi.

Permintaan dari Anthropic meningkat pesat, gangguan API makin sering terjadi, ini menjadi masalah bagi banyak produk agent berbasis Claude.

Dulu, bisnis router, “lebih murah dari resmi, jadi dapat trafik”, sekarang logikanya terbalik: stabilitas menjadi sumber daya yang langka. Beberapa startup sudah mendapatkan keuntungan besar dari ini, dan saat ini muncul banyak penyedia layanan GPU kecil seperti Coreweave / Nebius.

Selain masalah GPU, kendala kapasitas komputasi juga bukan hanya soal distribusi GPU. Elad Gil baru-baru ini menulis analisis yang saya setujui: kapasitas pabrik memori upstream (Hynix, Samsung, Micron) setidaknya butuh dua tahun lagi untuk ekspansi. Artinya, sebelum 2028, tidak ada perusahaan AI yang bisa secara signifikan membedakan diri hanya dengan menambah kapasitas. Kendala kapasitas ini secara objektif memperkuat posisi monopoli di pasar model besar—bukan karena mereka tidak berusaha, tapi karena siklus manufaktur fisik memang lambat.

Struktur kekuasaan di baliknya sangat jelas: siapa yang punya chip, dia yang kuat; siapa yang punya chip, ditentukan oleh Nvidia. Saat ini, perusahaan seperti CoreWeave, Lambda, Nebius, semua didukung Nvidia.

Rencana Nvidia jauh lebih dalam dari yang saya bayangkan. Investor Reflection menyebutkan, saat pertama kali mereka mengumpulkan dana, mereka fokus di coding, lalu bertemu Huang Renxun, dan Huang bilang: “Jangan fokus coding, buat ‘DeepSeek Amerika’, buat model open source Amerika, saya akan beri dana dan kartu.” Reflection pun bertransformasi 180 derajat.

Pasar modal AS juga mulai menunjukkan struktur yang jarang terlihat sebelumnya: dalam satu putaran pendanaan, ada dua valuasi berbeda. Investor yang dekat dan awal masuk, biasanya di valuasi rendah; raksasa seperti Nvidia yang tidak kekurangan uang, masuk di valuasi tinggi, dan ini mulai muncul juga di domestik.

Tapi, Nvidia tidak bisa mengendalikan distribusi yang tidak ada.

Seluruh masyarakat AS sedang menentang pembangunan data center. Saat ini, sekitar 100 proyek data center di seluruh AS menghadapi hambatan, 40 di antaranya langsung gagal. Maine baru saja mengesahkan undang-undang yang melarang pembangunan data center secara total. Sebuah kota menyetujui proyek data center senilai 6 miliar dolar, tapi setengah anggota langsung dipecat, digantikan oleh orang baru yang tujuannya membatalkan keputusan itu.

Kapasitas komputasi tidak cukup, bukan karena produk tidak bagus atau pengguna tidak cukup banyak, tapi karena dunia fisik tidak mampu mengikuti kecepatan dunia digital.

Ini adalah level lain dari “tidak mampu mengikuti”.

Valuasi di Silicon Valley sedang mengalami penulisan ulang

Mari kita mulai dari angka.

PDB AS sekitar 30 triliun dolar. Saat ini, pendapatan tahunan dari OpenAI dan Anthropic masing-masing sekitar 30 miliar dolar, artinya kedua perusahaan ini sudah menyumbang sekitar 0,1% dari PDB AS. Jika keduanya mencapai 100 miliar dolar di akhir tahun, ditambah pendapatan dari cloud dan AI lainnya, AI akan menyumbang sekitar 1% dari PDB AS. Dari hampir nol menjadi 1% dalam beberapa tahun saja.

Kecepatan ini belum pernah terjadi sebelumnya. Tapi anehnya, semakin cepat pertumbuhan, semakin bingung investor dalam menentukan harga—dengan pertumbuhan yang begitu pesat, kerangka valuasi Silicon Valley mulai runtuh.

Saya diskusi mendalam dengan beberapa teman di pasar sekunder, dan satu kata yang sering muncul adalah “re-rationalization” (kembali ke rasionalitas valuasi).

Selama beberapa tahun terakhir, saat berinvestasi di AI, logika valuasi mereka adalah melihat arus kas masa depan: Anda tidak apa-apa rugi hari ini, saya bertaruh bahwa tiga atau lima tahun lagi, ARR (pendapatan berulang tahunan) Anda akan besar. Tapi sekarang, kerangka ini mulai bermasalah.

Masalahnya ada di model DCF (discounted cash flow) yang paling dasar. Biasanya, kita memprediksi arus kas 10 tahun ke depan, lalu menambahkan nilai terminal (terminal value), yaitu asumsi perusahaan akan stabil beroperasi, dan menggabungkan sisanya. Nilai terminal biasanya menyumbang 70-80% dari valuasi.

Tapi sekarang, ada dua hal yang berubah: pertama, kita cuma bisa memprediksi 3 tahun ke depan, karena setelah itu (bahkan kadang 1 tahun), industri ini bisa berubah tak terduga; kedua, nilai terminal makin sulit dihitung, karena asumsi stabilitas tidak lagi valid—karena AI bisa mengubah segalanya kapan saja, “stabil” tidak lagi bisa diandalkan.

Saya membandingkan dengan seorang investor sekunder, dia bilang: perusahaan yang tidak di jalur utama AI saat ini, lebih seperti menunggu “bom nuklir”—kita tahu pasti akan terguncang, cuma tidak tahu kapan. Jadi, fokus penilaian harus pada seberapa cepat mereka bisa beradaptasi saat terguncang, bukan lagi “kalau terguncang, apa yang akan dilakukan”. Ini adalah logika valuasi yang berbeda.

SaaS adalah yang pertama di-reprice oleh Wall Street. Snowflake tahun 2023, berdasarkan arus kas bebas, butuh hampir 100 tahun untuk balik modal; sekarang valuasinya sudah terpangkas setengah, ServiceNow dan Workday mengikuti tren yang sama, dan ini baru permulaan.

Bahkan, yang benar-benar cocok dengan model DCF mungkin hanya perusahaan besar di bidang model besar, karena mereka tampaknya akan tumbuh secara stabil ke arah yang positif, tidak akan “meledak”, melainkan melihat seberapa luas batasnya.

Dulu, startup biasanya merekrut dengan alasan: “Gaji sedikit, tapi opsi saham, nanti nilainya besar.” Tapi asumsi ini hanya berlaku jika perusahaan tetap ada dan bernilai tinggi selama 15-20 tahun. Kalau asumsi itu tidak lagi valid, reaksi paling rasional dari karyawan adalah: “Jangan beri saya opsi, berikan saja gaji tunai.”

Ini akan mengubah struktur biaya dan logika pendanaan perusahaan.

VC juga sedang menderita. Dalam 3-6 bulan terakhir, hampir semua dana di Silicon Valley berinvestasi minimal satu perusahaan neo lab, dan para peneliti dari lab AI terkenal mendapatkan puluhan juta dolar dari pendanaan mereka. Tapi sekarang, semua merasa agak terburu-buru dan mahal. Tapi kenapa tetap investasi? Karena jika perusahaan itu benar-benar berhasil, pertumbuhannya akan sangat cepat sehingga valuasi awal terasa murah.

Seorang investor bilang secara jujur: “Kalau mau dari nol ke seratus, atau dari nol ke nol, lebih baik ambil tiket masuk ke neo lab yang punya potensi tak terbatas daripada investasi di A round yang mahal.”

Dulu, orang menganggap 1 dolar ARR sama nilainya, tidak peduli apakah buat model, aplikasi, atau infra. Tapi sekarang, kesetaraan itu sudah hilang.

Perusahaan agen vertikal memiliki multiple terendah (sekitar 5x ARR), agen umum lebih tinggi (sekitar 10x), dan model terbesar (20-30x ARR, misalnya Anthropic 30B USD ARR, valuasi 800B USD, 26,7x). Setahun lalu, saya pikir menghitung valuasi dengan mengalikan ARR dengan satu faktor tetap sudah cukup, tapi sekarang, itu sama sekali tidak akurat.

Daun asam dan daftar pembunuh AI

Silicon Valley sedang mengalami krisis keamanan yang mendalam.

Dalam perjalanan ke sana, saya terus mendengar diskusi serius dari teman-teman: membeli Bitcoin, membangun bunker, memasang kaca peluru di rumah—semua terdengar sangat serius, bukan bercanda.

Akhir-akhir ini, tren menanam pohon jeruk manis (酸橙树) makin populer, karena cabang pohonnya berduri 4 inci, siapa pun yang mencoba melewati akan membayar mahal.

The Wall Street Journal bahkan melaporkan sebuah “rumah benteng” seharga 15 juta dolar: pot beton berisi pohon jeruk, di belakangnya ada parit, di dalamnya ada sistem deteksi intrusi laser, pintu depan setebal 3 inci dengan 13 kunci, dan ruang perlindungan aman seberat 2000 pound, bahkan desain lanskapnya adalah benteng pertahanan.

Perusahaan yang menyediakan keamanan rumah bagi CEO, mencatat pertumbuhan tertinggi sejak 2003. Terutama setelah CEO UNH ditembak mati di Manhattan, tren ini melonjak pesat.

Lalu, suara tembakan sampai ke rumah para bos AI.

Pada dini hari 11 April, seorang pria berusia 20 tahun yang mengenakan hoodie Champion, terbang dari Texas ke California, membawa tabung bensin, berdiri di depan rumah Sam Altman yang bern

Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
Tambahkan komentar
Tambahkan komentar
Tidak ada komentar
  • Sematkan