Furiosa AI Perkenalkan RNGD, Akselerator Inferensi Pusat Data yang Tantang Dominasi GPU

Furiosa AI memperkenalkan akselerator inferensi RNGD berbasis Tensor Contraction Processor untuk pusat data, diklaim lebih efisien dari GPU dalam beban kerja LLM.

Furiosa AI memperkenalkan RNGD sebagai akselerator inferensi pusat data berbasis arsitektur Tensor Contraction Processor (TCP)
Furiosa AI memperkenalkan RNGD sebagai akselerator inferensi pusat data berbasis arsitektur Tensor Contraction Processor (TCP)

Meski demikian, perusahaan mengakui bahwa tolok ukur selalu bergantung pada kondisi pengujian. Fokus utama mereka bukan sekadar angka pemasaran, melainkan efisiensi daya, kepadatan rak, dan total biaya kepemilikan (TCO).

Produksi Massal dan Ekosistem Perangkat Lunak

Bukan Sekadar Startup Presentasi

Didirikan pada 2017, Furiosa AI kini mempekerjakan sekitar 200 insinyur dengan latar belakang semikonduktor. RNGD telah memasuki produksi massal dengan ribuan unit dikirim melalui mitra manufaktur termasuk TSMC dan ASUS.

Langkah ini menandai transisi dari konsep arsitektur ke silikon yang dapat dikirim secara komersial—sebuah tahap krusial dalam industri akselerator AI.

SDK dan Integrasi Produksi

Selain perangkat keras, Furiosa AI juga menghadirkan perangkat lunak pendukung melalui Software Development Kit (SDK) yang menargetkan lingkungan produksi, mencakup:

  • Pengelompokan hibrida dan penjadwalan pra-isi/dekode cerdas
  • Caching awalan untuk beban kerja RAG dan agenik
  • Dukungan Kubernetes dengan operator NPU
  • Kerangka kerja inferensi terdistribusi
  • Integrasi OpenTelemetry berbasis Rust
  • Kompatibilitas langsung dengan vLLM
  • Kompatibilitas API OpenAI
Baca Juga  AMD, NVIDIA, dan Qualcomm Siap Luncurkan Chip Baru di CES 2026, TSMC Jadi Sorotan Utama

Pendekatan ini menunjukkan bahwa Furiosa AI tidak hanya mengandalkan inovasi arsitektur, tetapi juga membangun ekosistem perangkat lunak agar dapat diadopsi secara luas dalam lingkungan produksi nyata.

Strategi “Renegade” di Tengah Dominasi GPU

Di pasar yang saat ini didominasi satu vendor GPU besar, pendekatan Furiosa AI terbilang konfrontatif namun terukur. Perusahaan tidak berupaya mengungguli GPU dalam pelatihan model, melainkan berfokus pada inferensi—fase di mana model yang sudah dilatih dijalankan untuk menghasilkan respons.

Furiosa AI berargumen bahwa inferensi memiliki “fisika” berbeda dari pelatihan. Jika GPU diibaratkan mobil sport berdaya tinggi untuk lintasan balap, maka RNGD dirancang seperti kendaraan logistik jarak jauh yang dioptimalkan untuk throughput berkelanjutan dalam batasan daya dan pendinginan dunia nyata.

Baca Juga  OnePlus 15: Benarkah Memiliki Performa Baterai Terbaik Sepanjang Masa?

Dengan meningkatnya tekanan terhadap anggaran daya pusat data global, strategi ini menempatkan efisiensi energi dan kepadatan rak sebagai variabel utama, bukan sekadar performa puncak.

Kesimpulan

Furiosa AI melalui RNGD dan arsitektur Tensor Contraction Processor menawarkan pendekatan alternatif terhadap akselerator inferensi AI pusat data. Dengan desain berbasis kontraksi tensor, eksekusi deterministik, TDP 150W, serta fokus pada metrik Token Per Second per Watt, perusahaan ini berupaya menjawab tantangan daya dan biaya operasional yang kian krusial dalam era model bahasa besar.

Di tengah perlombaan perangkat keras AI yang semakin intensif, kehadiran RNGD memperluas spektrum solusi, terutama bagi operator pusat data yang ingin meningkatkan efisiensi tanpa merombak infrastruktur pendinginan secara besar-besaran.

Tinggalkan Balasan

Alamat email Anda tidak akan dipublikasikan. Ruas yang wajib ditandai *