Jakarta (ANTARA) – Nvidia secara resmi meluncurkan arsitektur komputasi terbarunya, Rubin, dalam ajang Consumer Electronics Show (CES) di Las Vegas baru-baru ini.
CEO Nvidia Jensen Huang, dikutip laman Tech Crunch pada Selasa (6/1), menyebut Rubin sebagai teknologi tercanggih saat ini untuk perangkat keras kecerdasan buatan (AI). Arsitektur baru ini sudah memasuki tahap produksi dan diperkirakan akan ditingkatkan kapasitasnya pada paruh kedua tahun ini.
“Vera Rubin dirancang untuk menjawab tantangan mendasar yang kita hadapi, yaitu kebutuhan komputasi AI yang meningkat sangat cepat,” kata Huang di hadapan audiens, dan menegaskan bahwa arsitektur Vera Rubin kini sudah diproduksi secara penuh.
Baca juga: Nvidia dilarang jual chip, perang chip AI AS dan China memanas
Arsitektur Rubin pertama kali diumumkan pada 2024 dan menjadi bagian terbaru dari siklus pengembangan perangkat keras Nvidia yang agresif, yang turut mengantarkan perusahaan ini menjadi korporasi paling bernilai di dunia.
Rubin akan menggantikan arsitektur Blackwell, yang sebelumnya menggantikan Hopper dan Lovelace.
Chip Rubin dijadwalkan digunakan oleh hampir semua penyedia layanan cloud besar. Nvidia telah menjalin kemitraan dengan sejumlah nama besar seperti Anthropic, OpenAI, dan Amazon Web Services.
Selain itu, sistem Rubin juga akan digunakan pada superkomputer Blue Lion milik HPE serta superkomputer Doudna yang sedang dikembangkan di Lawrence Berkeley National Laboratory.
Dinamai dari astronom Vera Florence Cooper Rubin, arsitektur Rubin terdiri dari enam chip terpisah yang dirancang untuk bekerja secara bersamaan.
GPU Rubin menjadi pusatnya, namun arsitektur ini juga mengatasi hambatan pada penyimpanan dan konektivitas melalui peningkatan pada sistem Bluefield dan NVLink.
Selain itu, terdapat CPU baru bernama Vera, yang dirancang untuk kebutuhan penalaran berbasis agen (agentic reasoning).
Senior Director AI Infrastructure Solutions Nvidia, Dion Harris, menjelaskan bahwa peningkatan pada sisi penyimpanan diperlukan karena kebutuhan memori sistem AI modern terus meningkat, terutama terkait cache.
“Ketika kita mulai mengaktifkan alur kerja baru seperti agentic AI atau tugas jangka panjang, kebutuhan pada KV cache menjadi sangat besar,” ujar Harris.
Untuk itu, Nvidia menghadirkan lapisan penyimpanan baru yang terhubung secara eksternal ke perangkat komputasi, sehingga kapasitas penyimpanan dapat ditingkatkan dengan lebih efisien.
Dari sisi performa, Rubin menawarkan peningkatan signifikan dalam kecepatan dan efisiensi daya. Berdasarkan pengujian Nvidia, arsitektur ini mampu berjalan 3,5 kali lebih cepat dibandingkan Blackwell untuk pelatihan model, dan lima kali lebih cepat untuk tugas inferensi, dengan kemampuan hingga 50 petaflops. Platform baru ini juga mendukung komputasi inferensi delapan kali lebih besar per watt.
Peluncuran Rubin terjadi di tengah persaingan ketat pembangunan infrastruktur AI, di mana perusahaan AI dan penyedia cloud berlomba mendapatkan chip Nvidia serta fasilitas pendukungnya.
Dalam laporan kinerja pada Oktober 2025, Jensen Huang memperkirakan investasi global untuk infrastruktur AI akan mencapai 3-4 triliun dolar AS (Rp50,27 – Rp67 kuadriliun) dalam lima tahun ke depan.
Baca juga: Nvidia lisensi teknologi chip AI Groq dan rekrut CEO-nya
Baca juga: Jepang kembangkan proyek AI nasional senilai 19 miliar dolar AS
Baca juga: Nvidia berencana tambah produksi chip H200 untuk diekspor ke China
Pewarta: Pamela Sakina
Editor: Maria Rosari Dwi Putri
Copyright © ANTARA 2026











