Dasar
Spot
Perdagangkan kripto dengan bebas
Perdagangan Margin
Perbesar keuntungan Anda dengan leverage
Konversi & Investasi Otomatis
0 Fees
Perdagangkan dalam ukuran berapa pun tanpa biaya dan tanpa slippage
ETF
Dapatkan eksposur ke posisi leverage dengan mudah
Perdagangan Pre-Market
Perdagangkan token baru sebelum listing
Futures
Akses ribuan kontrak perpetual
TradFi
Emas
Satu platform aset tradisional global
Opsi
Hot
Perdagangkan Opsi Vanilla ala Eropa
Akun Terpadu
Memaksimalkan efisiensi modal Anda
Perdagangan Demo
Pengantar tentang Perdagangan Futures
Bersiap untuk perdagangan futures Anda
Acara Futures
Gabung acara & dapatkan hadiah
Perdagangan Demo
Gunakan dana virtual untuk merasakan perdagangan bebas risiko
Peluncuran
CandyDrop
Koleksi permen untuk mendapatkan airdrop
Launchpool
Staking cepat, dapatkan token baru yang potensial
HODLer Airdrop
Pegang GT dan dapatkan airdrop besar secara gratis
Launchpad
Jadi yang pertama untuk proyek token besar berikutnya
Poin Alpha
Perdagangkan aset on-chain, raih airdrop
Poin Futures
Dapatkan poin futures dan klaim hadiah airdrop
Investasi
Simple Earn
Dapatkan bunga dengan token yang menganggur
Investasi Otomatis
Investasi otomatis secara teratur
Investasi Ganda
Keuntungan dari volatilitas pasar
Soft Staking
Dapatkan hadiah dengan staking fleksibel
Pinjaman Kripto
0 Fees
Menjaminkan satu kripto untuk meminjam kripto lainnya
Pusat Peminjaman
Hub Peminjaman Terpadu
Konferensi GTC Nvidia Teks Lengkap: Huang Renxun Mengumumkan Era Inferensi Tiba, Lobster adalah Sistem Operasi Baru!
Sumber: Wall Street Journal
Artikel oleh: Bao Yilong
Dalam konferensi GTC 2026, CEO NVIDIA Huang Renxun menempatkan perusahaan sebagai “pabrik AI” pembangun, menyatakan “pada tahun 2027 akan melihat permintaan bernilai setidaknya 1 triliun dolar dengan tingkat kepercayaan tinggi.” Ia mengusulkan “Ekonomi Pabrik Token”, menekankan bahwa kinerja per watt adalah inti dari monetisasi bisnis. Huang Renxun menegaskan bahwa Agent (agen cerdas) akan mengakhiri model SaaS tradisional, dan di masa depan “gaji tahunan + anggaran Token” akan menjadi standar baru di tempat kerja.
Pembukaan
Pembawa acara: Selamat datang CEO dan pendiri NVIDIA Huang Renxun.
Huang Renxun, Pendiri dan CEO:
Selamat datang di GTC. Ini adalah konferensi teknologi, sangat senang melihat begitu banyak orang antre masuk sejak pagi.
Hari ini kita akan membahas tiga platform utama: platform CUDA-X, platform sistem, dan platform pabrik AI yang baru. Tentu saja, yang terpenting adalah ekosistem.
Pertama, saya ingin berterima kasih kepada pembawa acara “pemanasan” kami yang luar biasa: Sarah Guo dari Conviction, Alfred Lin dari Sequoia Capital (investor ventura pertama NVIDIA), dan Gavin Baker, investor institusi utama pertama NVIDIA. Ketiganya memiliki pemahaman mendalam tentang teknologi dan pengaruh luas dalam ekosistem teknologi. Selain itu, terima kasih juga kepada semua tamu kehormatan yang saya pilih secara pribadi.
Saya juga berterima kasih kepada semua perusahaan peserta. Sebagai perusahaan platform, NVIDIA memiliki teknologi, platform, dan ekosistem yang kaya. Hari ini, hampir semua perusahaan dari industri bernilai triliunan dolar berkumpul di sini—450 perusahaan mensponsori acara ini, terima kasih banyak.
Konferensi ini menampilkan 1.000 sesi topik teknologi, menghadirkan 2.000 pembicara, mencakup setiap lapisan “kue” AI lima tingkat—dari tanah, listrik, dan infrastruktur, hingga chip, platform, model, dan berbagai aplikasi yang mendorong industri ke depan.
Sejarah 20 Tahun CUDA
Tahun ini menandai 20 tahun sejak peluncuran CUDA.
Selama 20 tahun, kami berkomitmen pada arsitektur ini—penemuan revolusioner: SIMT (Single Instruction Multiple Threads), memungkinkan kode skalar dikembangkan menjadi aplikasi multithread yang lebih mudah diprogram dibandingkan metode tradisional. Baru-baru ini, kami menambahkan dukungan Tiles (ubin), membantu pengembang lebih mudah memprogram Tensor Core dan struktur matematika AI saat ini.
Hingga saat ini, CUDA telah mengumpulkan ribuan alat, compiler, kerangka kerja, dan pustaka, dengan ratusan ribu proyek terbuka di komunitas open-source, dan telah terintegrasi secara mendalam ke dalam setiap ekosistem utama.
Efek Gasing dan Fondasi Instalasi
Gambar berikut menggambarkan gambaran lengkap strategi NVIDIA.
Yang paling sulit dan paling strategis adalah fondasi instalasi dasar. Selama 20 tahun, kami membangun ratusan juta GPU dan sistem komputasi yang menjalankan CUDA di seluruh dunia. Kami menjangkau semua penyedia layanan cloud dan semua produsen komputer, melayani hampir setiap industri.
Fondasi instalasi CUDA adalah alasan utama percepatan efek gasing ini. Basis instalasi yang besar menarik pengembang, yang menciptakan algoritma baru, memicu terobosan—misalnya, munculnya deep learning. Terobosan ini membuka pasar baru, menarik lebih banyak mitra ekosistem, dan memperbesar basis instalasi. Efek gasing ini terus mempercepat.
Saat ini, jumlah unduhan pustaka NVIDIA meningkat pesat, dan kecepatan pertumbuhan ini terus meningkat. Efek gasing ini memungkinkan platform komputasi mendukung aplikasi dalam jumlah besar dan inovasi teknologi yang tak henti-hentinya.
Lebih penting lagi, ini memperpanjang umur infrastruktur secara signifikan. Sebab, aplikasi yang dapat dijalankan CUDA sangat luas, mencakup setiap tahap siklus hidup AI, berbagai platform pengolahan data, dan berbagai solver ilmiah. Jadi, begitu GPU NVIDIA terpasang, umur penggunaannya sangat panjang.
Ini juga menjelaskan mengapa arsitektur Ampere yang dirilis enam tahun lalu harganya di cloud tetap meningkat hingga hari ini.
Sementara itu, dengan terus memperbarui perangkat lunak, biaya komputasi terus menurun—tidak hanya dalam hal peningkatan performa saat awal deployment, tetapi juga melalui pengurangan biaya jangka panjang berkat percepatan komputasi. Karena semua GPU kompatibel secara arsitektur, kami berkomitmen untuk terus mendukung dan memelihara setiap GPU di seluruh dunia. Semakin besar fondasi instalasi, semakin banyak pengguna yang akan mendapat manfaat dari setiap optimisasi baru.
Kombinasi dinamis ini membuat arsitektur NVIDIA memperluas jangkauan, mempercepat pertumbuhan, dan secara bersamaan menurunkan biaya komputasi, mendorong gelombang pertumbuhan berikutnya.
Saat ini, jumlah unduhan pustaka NVIDIA meningkat secara eksponensial, dan kecepatan pertumbuhan ini terus meningkat. Efek gasing ini memungkinkan platform komputasi mendukung aplikasi dalam jumlah besar dan inovasi teknologi yang tak henti-hentinya.
Lebih dari itu, ini memperpanjang umur infrastruktur secara signifikan. Sebab, aplikasi CUDA sangat luas, mencakup setiap tahap siklus hidup AI, berbagai platform pengolahan data, dan berbagai solver ilmiah. Jadi, begitu GPU NVIDIA terpasang, umur penggunaannya sangat panjang.
Ini menjelaskan mengapa arsitektur Ampere yang dirilis enam tahun lalu tetap dihargai tinggi di cloud hingga saat ini.
Selain itu, dengan pembaruan perangkat lunak yang terus berlangsung, biaya perhitungan terus menurun—tidak hanya dalam hal peningkatan performa saat deployment awal, tetapi juga melalui penghematan biaya jangka panjang berkat percepatan komputasi. Karena semua GPU kompatibel secara arsitektur, kami berkomitmen untuk mendukung dan memelihara setiap GPU di seluruh dunia. Semakin besar fondasi instalasi, semakin banyak pengguna yang akan mendapatkan manfaat dari setiap optimisasi baru.
Kombinasi ini memungkinkan arsitektur NVIDIA memperluas jangkauan, mempercepat pertumbuhan, dan menurunkan biaya perhitungan secara berkelanjutan, mendorong gelombang pertumbuhan baru.
Awal CUDA: GeForce
Perjalanan CUDA sebenarnya dimulai dari GeForce 25 tahun lalu.
GeForce adalah keberhasilan pemasaran terbesar NVIDIA. Kami mulai menarik calon pelanggan saat kalian masih kecil dan belum mampu membeli—ketika orang tua kalian yang membayar, tahun demi tahun, sampai suatu hari kalian tumbuh menjadi ilmuwan komputer yang hebat, menjadi pengembang sejati.
25 tahun lalu, kami menciptakan shader yang dapat diprogram—perangkat percepatan pertama yang dapat diprogram di dunia, dan titik awal shader piksel. Penemuan ini mendorong kami untuk terus menjelajah, dan lima tahun kemudian melahirkan CUDA.
Membawa CUDA dari GeForce ke setiap komputer adalah salah satu investasi terbesar kami saat itu—meskipun sulit dan menghabiskan sebagian besar keuntungan perusahaan. Kami percaya pada potensinya, dan meskipun awalnya sulit, setelah 20 tahun dan 13 generasi arsitektur, CUDA kini ada di mana-mana.
Sekitar 8 tahun lalu, kami meluncurkan RTX, yang sepenuhnya merombak arsitektur, memperkenalkan dua konsep baru: ray tracing perangkat keras dan rendering grafis berbasis AI. Seperti GeForce yang membawa AI ke dunia—membantu Alex Krizhevsky, Ilya Sutskever, Geoffrey Hinton, dan Andrew Ng menyadari bahwa GPU adalah alat percepatan deep learning, memicu ledakan besar AI—sekarang AI akan sepenuhnya merevolusi grafis komputer.
Neural Rendering: DLSS 5
Hari ini, saya ingin menunjukkan masa depan teknologi grafis. Kami menyebutnya neural rendering—perpaduan grafis 3D dan kecerdasan buatan, yaitu DLSS 5.
Luar biasa, bukan? Kami menggabungkan data 3D yang dapat dikendalikan (struktur dunia virtual) dengan AI generatif (perhitungan probabilitas): satu dapat diprediksi secara penuh, yang lain berbasis probabilitas tetapi sangat realistis. Gabungan keduanya menghasilkan konten yang indah, realistis, dan sepenuhnya dapat dikendalikan.
Penggabungan data terstruktur dan AI generatif akan terus berulang di berbagai industri. Data terstruktur adalah fondasi AI yang dapat dipercaya.
Platform Data Terstruktur dan Data Tidak Terstruktur
Gambar berikut mungkin akan mengejutkan kalian, tapi tolong dengarkan sampai selesai.
Data terstruktur—SQL, Spark, Pandas, Velox, serta platform penting seperti Snowflake, Databricks, Amazon EMR, Azure Fabric, Google BigQuery—semuanya memproses Data Frame. Data frame ini pada dasarnya adalah spreadsheet besar yang memuat semua informasi bisnis, menjadi “fakta dasar” pengolahan perusahaan.
Di era AI, data terstruktur ini akan diakses secara cepat oleh AI, sehingga harus dipercepat secara ekstrem. Agen AI masa depan juga akan banyak menggunakan basis data terstruktur.
Data tidak terstruktur mewakili sebagian besar informasi dunia: basis data vektor, PDF, video, suara… Sekitar 90% dari informasi yang dihasilkan setiap tahun adalah data tidak terstruktur. Dulu, data ini hampir tidak berguna—kami menyimpannya di sistem file, tetapi tidak bisa diakses atau dicari.
Sekarang, AI mengubah semuanya. Sama seperti AI menyelesaikan masalah persepsi dan pemahaman multimodal, teknologi yang sama dapat membaca PDF, memahami maknanya, dan mengintegrasikannya ke dalam struktur yang dapat dicari dan diquery.
Untuk itu, NVIDIA menciptakan dua pustaka dasar:
cuDF: untuk percepatan Data Frame dan data terstruktur
cuVS: untuk percepatan penyimpanan vektor, data semantik, dan data AI tidak terstruktur
Kedua platform ini akan menjadi salah satu platform komputasi terpenting di masa depan.
Hari ini, kami mengumumkan beberapa kolaborasi:
IBM (penemu SQL) menggunakan cuDF untuk mempercepat platform data WatsonX-nya
Dell bekerja sama dengan kami membangun platform data AI Dell, mengintegrasikan cuDF dan cuVS, dirancang untuk era AI
Google Cloud: mempercepat platform Vertex AI dan BigQuery; misalnya, kami membantu Snapchat mengurangi biaya komputasi hampir 80%
AWS: mempercepat EMR, SageMaker, dan Bedrock, serta akan memperkenalkan OpenAI ke AWS untuk mendorong konsumsi cloud skala besar
Microsoft Azure: mempercepat Azure AI Foundry, mendukung pencarian Bing secara mendalam, dan memperluas deployment di wilayah Azure
CoreWeave: cloud native AI pertama di dunia, didesain untuk hosting GPU dan inferensi AI
Oracle: kami adalah pelanggan AI pertama Oracle
Palantir + Dell: kolaborasi tiga pihak, memungkinkan deployment platform AI secara lokal di negara dan wilayah mana pun
Strategi Inti NVIDIA: Integrasi Vertikal, Terbuka Horizontal
NVIDIA adalah perusahaan komputasi pertama di dunia yang mengintegrasikan vertikal dan terbuka secara horizontal.
Percepatan komputasi bukan hanya masalah chip atau sistem, tetapi inti dari percepatan aplikasi. Untuk terus membawa percepatan dan pengurangan biaya yang signifikan di setiap bidang aplikasi, harus memahami aplikasi, bidang, dan algoritma secara mendalam, serta menerapkannya di setiap skenario deployment—baik di pusat data cloud, deployment lokal, edge computing, maupun sistem robot.
Itulah sebabnya kami harus mendalami satu per satu bidang vertikal. Kami mengintegrasikan algoritma ke dalam platform komputasi dan membukanya untuk digunakan seluruh dunia.
GTC kali ini hampir mencakup setiap bidang vertikal ekosistem NVIDIA, termasuk:
Kami mengumumkan 100 pustaka dan sekitar 40 model terbaru di konferensi ini. Pustaka ini adalah aset inti perusahaan, kunci untuk mengaktifkan platform komputasi dan menyelesaikan masalah nyata.
Salah satu pustaka terpenting adalah cuDNN (CUDA Deep Neural Network Library), yang secara revolusioner mengubah AI dan memicu ledakan AI modern.
Titik Balik Inferensi
Apa yang terjadi dalam dua tahun terakhir? Tiga peristiwa utama yang mendorong semuanya:
Pembukaan era ChatGPT dan AI generatif (akhir 2022 hingga 2023). AI tidak hanya mampu persepsi dan pemahaman, tetapi juga menerjemahkan, mencipta, dan menghasilkan konten baru. Perhitungan generatif secara fundamental mengubah arsitektur dan logika pembangunan komputer.
Munculnya AI inferensi (model o1 dan o3). AI inferensi memungkinkan model untuk refleksi, perencanaan, memecah masalah kompleks menjadi langkah-langkah yang dapat ditangani, membuat AI lebih dapat dipercaya dan berbasis fakta. Ini menyebabkan lonjakan penggunaan ChatGPT dan meningkatkan perhitungan token input/output secara signifikan.
Munculnya Claude Code dan Agentic AI. Ini adalah model Agentic pertama yang mampu membaca file, menulis kode, mengompilasi, menguji, mengevaluasi, dan mengoptimalkan secara iteratif. Claude Code secara total merevolusi rekayasa perangkat lunak. Saat ini, setiap insinyur perangkat lunak NVIDIA menggunakan AI Agent untuk membantu pemrograman.
AI telah berevolusi dari “persepsi” ke “pembuatan”, dari “pembuatan” ke “inferensi”, dan dari “inferensi” ke “pelaksanaan”—sekarang AI mampu menyelesaikan pekerjaan yang benar-benar produktif.
Titik balik inferensi telah tiba. Setiap kali AI berpikir, mengeksekusi, membaca, dan melakukan inferensi, membutuhkan proses inferensi (Inference), dan kebutuhan token meningkat secara eksponensial. Dalam dua tahun terakhir, kebutuhan komputasi untuk satu pekerjaan meningkat sekitar 10.000 kali, penggunaan meningkat sekitar 100 kali, dan total permintaan komputasi hampir 1 juta kali lipat.
Dari 500 miliar menjadi 1 triliun dolar
Tahun lalu di GTC, saya menyebutkan bahwa kami melihat permintaan bernilai sekitar 500 miliar dolar untuk Blackwell dan Rubin dengan tingkat kepercayaan tinggi hingga 2026.
Hari ini, setahun kemudian, saya dapat dengan jelas melihat bahwa: setidaknya hingga 2027, permintaan akan mencapai 1 triliun dolar.
Dan saya yakin kebutuhan komputasi nyata akan jauh melebihi angka ini.
Tahun lalu adalah tahun inferensi NVIDIA. Kami berusaha keras memastikan performa unggul di setiap tahap siklus hidup AI, dari pelatihan hingga pasca-pelatihan, agar investasi infrastruktur dapat terus memberikan nilai jangka panjang.
Kami juga senang melihat Anthropic memilih NVIDIA, dan Meta SL juga memilih NVIDIA. Saat ini, model open-source mendekati tingkat terdepan dan sudah ada di mana-mana. NVIDIA adalah satu-satunya platform komputasi global yang mampu mencakup semua bidang AI—dari bahasa, biologi, grafis komputer, visi komputer, suara, protein, kimia, hingga robot—dari edge hingga cloud.
Arsitektur “Fungibility” kami menjadikannya platform pembangunan infrastruktur AI dengan biaya terendah dan tingkat kepercayaan tertinggi. Ketika Anda menginvestasikan triliunan dolar untuk infrastruktur, Anda membutuhkan kepercayaan penuh—NVIDIA adalah satu-satunya platform global yang memungkinkan Anda merasa yakin dalam deployment, baik di cloud, lokal, maupun di negara mana pun.
Saat ini, 60% bisnis kami berasal dari lima penyedia cloud besar, sisanya 40% dari cloud regional, cloud berdaulat, perusahaan, industri, robot, edge, dan superkomputer. Diversifikasi ini adalah kekuatan ketahanan—AI bukan lagi aplikasi tunggal, melainkan transformasi platform komputasi yang nyata.
Terobosan Performa Inferensi
Kami mencapai terobosan fundamental dalam optimisasi inferensi:
Ini adalah evaluasi performa inferensi AI paling komprehensif yang pernah ada (dari Semi Analysis). Dimensi analisis:
Sumbu vertikal (Token per watt): mencerminkan throughput. Setiap pusat data dibatasi listrik; pabrik 1 GW tidak bisa menjadi 2 GW, harus memaksimalkan output token dalam batas daya terbatas.
Sumbu horizontal (kecepatan inferensi/token): mencerminkan interaktivitas dan “kecerdasan” AI. Semakin cepat, semakin besar model, semakin panjang konteks, semakin dalam pemikiran—semakin “cerdas”.
Hasilnya mengejutkan:
Dari Hopper H200 ke Grace Blackwell, harapan Moore’s Law adalah peningkatan sekitar 1,5 kali, tetapi kenyataannya mencapai 35 kali peningkatan performa per watt. Dylan Patel dari Semi Analysis bahkan menyebut data yang saya laporkan terlalu konservatif—sebenarnya bisa mencapai 50 kali.
Ini berarti biaya per token NVIDIA adalah yang terendah di dunia. Sebuah pusat data 1 GW dengan biaya sekitar 40 miliar dolar (dibagi 15 tahun) harus membayar biaya tetap ini—jadi, harus menginstal sistem komputasi dengan performa terbaik agar biaya token terendah tercapai. Saat ini, tidak tertandingi.
Contoh Fireworks AI: Setelah pembaruan perangkat lunak, kecepatan token mereka meningkat dari sekitar 700 token/detik menjadi hampir 5.000 token/detik, peningkatan 7 kali lipat. Inilah kekuatan desain kolaboratif ekstrem.
Logika bisnis pabrik Token:
Di masa depan, setiap penyedia cloud dan perusahaan AI akan memandang bisnisnya dari sudut pandang pabrik Token. Kecepatan token yang berbeda akan sesuai dengan tingkat layanan dan harga berbeda:
Contoh Grace Blackwell: Dibandingkan Hopper, di tingkat layanan paling bernilai secara komersial, throughput meningkat 35 kali, secara signifikan meningkatkan kapasitas monetisasi, dan meningkatkan pendapatan pusat data sekitar 5 kali lipat.
Vera Rubin: Arsitektur Generasi Berikutnya
Sekarang, saya tidak lagi hanya menunjukkan satu chip—saya menunjukkan seluruh sistem. Inilah Vera Rubin.
Vera Rubin dirancang khusus untuk sistem Agentic, dengan logika inti yang sangat jelas:
Untuk itu, kami menciptakan Vera CPU baru—satu-satunya CPU pusat data di dunia yang menggunakan LPDDR 5, dengan performa single-thread tinggi, kemampuan pengolahan data yang luar biasa, dan efisiensi energi yang tak tertandingi.
Fitur utama sistem Vera Rubin:
Rubin Ultra (versi super):
Dalam peta jalan teknologi:
Akuisisi Grok dan Terobosan Inferensi Heterogen
Kami mengakuisisi tim teknologi Grok dan mendapatkan lisensi teknologi untuk integrasi mendalam.
Karakteristik inti prosesor Grok:
Keterbatasannya: satu chip Grok hanya memiliki 500 MB memori (dibandingkan Rubin yang 288 GB), tidak mampu menampung parameter model besar dan KV Cache, membatasi skalabilitasnya—hingga kami mendapatkan ide brilian.
Dynamo: Kerangka kerja decoupled inferensi
Kami mengembangkan perangkat lunak Dynamo, yang merancang ulang proses inferensi:
Dua prosesor dengan arsitektur berbeda—satu untuk throughput tinggi, satu untuk latensi rendah—dihubungkan secara erat melalui Dynamo, mengurangi latensi sekitar 50%.
Hasilnya: di tingkat layanan paling bernilai secara komersial, performa meningkat 35 kali lipat, sekaligus membuka level performa inferensi baru yang sebelumnya tidak pernah ada.
Grok LP 30 diproduksi massal oleh Samsung, dan mulai dikirimkan pada kuartal ketiga 2026.
Strategi Deployment Optimal Grok:
Skala dan Prospek Pabrik AI
Dalam pabrik berkapasitas satu GW, hanya dalam dua tahun, melalui optimisasi arsitektur di atas, kecepatan token akan meningkat dari 22 juta menjadi 700 juta, peningkatan 350 kali lipat.
Inilah kekuatan desain kolaboratif ekstrem—integrasi vertikal dan terbuka horizontal, memungkinkan semua orang berbagi hasil ini.
Seiring skala pabrik AI membesar secara pesat, kami menemukan satu masalah utama: vendor teknologi di pusat data sebelumnya tidak pernah berinteraksi, berkembang secara terpisah, menyebabkan banyak pemborosan energi.
Untuk itu, kami menciptakan platform NVIDIA DSX, berbasis Omniverse, memungkinkan semua mitra merancang bersama pabrik AI berkapasitas GW secara virtual—meliputi simulasi sistem lengkap mekanik, manajemen panas, listrik, jaringan, dan terhubung secara real-time ke jaringan listrik, serta mengoptimalkan konsumsi daya dan pendinginan secara dinamis dengan teknologi Max-Q.
Kami yakin, platform ini sendiri dapat meningkatkan efisiensi sekitar dua kali lipat—nilai yang sangat besar dalam skala triliunan dolar.
Selain itu, NVIDIA juga akan memasuki ruang luar angkasa: chip Thor telah melewati sertifikasi radiasi dan dipasang di satelit. Kami sedang bekerja sama dengan mitra mengembangkan Vera Rubin Space-1, membangun pusat data di luar angkasa (menghadapi tantangan engineering pendinginan radiasi murni).
OpenClaw: Sistem Operasi Agen AI
Sekarang, mari bahas penemuan besar baru.
Peter Steinberger mengembangkan perangkat lunak bernama OpenClaw. Ini menjadi proyek open-source paling populer dalam sejarah, dalam beberapa minggu melampaui kecepatan penyebaran Linux selama tiga puluh tahun.
Apa itu OpenClaw? Ini adalah sistem Agentic yang mampu:
Dengan kata lain, OpenClaw secara esensial adalah sistem operasi untuk komputer Agentic. Seperti Windows yang memungkinkan komputer pribadi, OpenClaw memungkinkan Agen pribadi.
Pertanyaan utama perusahaan sekarang: apa strategi OpenClaw Anda?
Seperti dulu setiap perusahaan membutuhkan strategi Linux, HTTP/HTML, Kubernetes, sekarang setiap perusahaan harus memiliki strategi OpenClaw dan sistem Agentic.
Transformasi paradigma TI perusahaan:
Namun, sistem Agentic internal perusahaan menghadapi tantangan keamanan besar: dapat mengakses data sensitif, menjalankan kode, berkomunikasi eksternal. Untuk itu, kami bekerja sama dengan Peter Steinberger dan para ahli keamanan terkemuka dunia, mengembangkan versi enterprise OpenClaw, berbasis teknologi keamanan OpenShell, dilengkapi mesin kebijakan, penghalang jaringan, dan router privasi, membangun arsitektur keamanan tingkat perusahaan yang kami sebut NemoClaw, yang dapat diunduh dan digunakan langsung.
Rencana Model Terbuka NVIDIA
NVIDIA telah memimpin di setiap bidang model AI terdepan:
Hari ini, kami secara resmi mengumumkan pembentukan aliansi Nemotron, bekerja sama dengan perusahaan berikut untuk membangun Nemotron 4:
Perusahaan-perusahaan ini bekerja sama dengan kami untuk mengintegrasikan desain referensi NemoClaw, toolkit AI Agent NVIDIA, dan seluruh rangkaian model terbuka ke dalam produk dan layanan mereka.
AI Fisik dan Robotik
Selain agen digital, kami juga berkomitmen jangka panjang di bidang AI fisik dan robotik.
Kami membangun tiga komputer kunci untuk sistem robot:
Kami bekerja sama secara mendalam dengan Siemens, Cadence, dan mitra lainnya, serta mengumumkan beberapa kolaborasi besar:
Kendaraan otonom: “Momen ChatGPT” untuk kendaraan otonom telah tiba. Hari ini, kami mengumumkan empat mitra RoboTaxi baru: BYD, Hyundai, Nissan, Geely, bersama Mercedes-Benz, Toyota, GM, yang memproduksi total 18 juta mobil per tahun dan terintegrasi penuh dengan platform RoboTaxi NVIDIA. Kami juga mengumumkan kemitraan besar dengan Uber untuk menempatkan kendaraan RoboTaxi di berbagai kota dan menghubungkannya ke jaringan mereka.
Robot industri: bekerja sama dengan ABB, Universal Robots, KUKA, Caterpillar, dan lainnya, mengintegrasikan model fisik AI dan sistem simulasi ke jalur produksi global.
Telekomunikasi: T-Mobile juga hadir di sini—stasiun dasar masa depan akan berkembang menjadi infrastruktur edge AI yang mampu melakukan inferensi dinamis, menyesuaikan beamforming, dan menghemat energi secara signifikan.
Akhirnya, kami menampilkan robot “Olaf” yang dikembangkan bersama Disney—berbasis platform Jetson, lingkungan pelatihan Omniverse, dan solver fisika Newton yang dikembangkan bersama Disney dan DeepMind (berjalan di atas NVIDIA Warp), yang mampu melakukan gerakan adaptif di dunia nyata. Ini adalah demonstrasi AI fisik yang menakjubkan dan pratinjau taman hiburan masa depan.
Kesimpulan
GTC kali ini berfokus pada empat tema utama:
Semoga semua peserta GTC menikmati acara ini, terima kasih!