Furiosa AI Perkenalkan RNGD, Akselerator Inferensi Pusat Data yang Tantang Dominasi GPU

Furiosa AI memperkenalkan akselerator inferensi RNGD berbasis Tensor Contraction Processor untuk pusat data, diklaim lebih efisien dari GPU dalam beban kerja LLM.

Furiosa AI memperkenalkan RNGD sebagai akselerator inferensi pusat data berbasis arsitektur Tensor Contraction Processor (TCP)
Furiosa AI memperkenalkan RNGD sebagai akselerator inferensi pusat data berbasis arsitektur Tensor Contraction Processor (TCP)

Meski demikian, perusahaan mengakui bahwa tolok ukur selalu bergantung pada kondisi pengujian. Fokus utama mereka bukan sekadar angka pemasaran, melainkan efisiensi daya, kepadatan rak, dan total biaya kepemilikan (TCO).

Produksi Massal dan Ekosistem Perangkat Lunak

Bukan Sekadar Startup Presentasi

Didirikan pada 2017, Furiosa AI kini mempekerjakan sekitar 200 insinyur dengan latar belakang semikonduktor. RNGD telah memasuki produksi massal dengan ribuan unit dikirim melalui mitra manufaktur termasuk TSMC dan ASUS.

Langkah ini menandai transisi dari konsep arsitektur ke silikon yang dapat dikirim secara komersial—sebuah tahap krusial dalam industri akselerator AI.

SDK dan Integrasi Produksi

Selain perangkat keras, Furiosa AI juga menghadirkan perangkat lunak pendukung melalui Software Development Kit (SDK) yang menargetkan lingkungan produksi, mencakup:

  • Pengelompokan hibrida dan penjadwalan pra-isi/dekode cerdas
  • Caching awalan untuk beban kerja RAG dan agenik
  • Dukungan Kubernetes dengan operator NPU
  • Kerangka kerja inferensi terdistribusi
  • Integrasi OpenTelemetry berbasis Rust
  • Kompatibilitas langsung dengan vLLM
  • Kompatibilitas API OpenAI
Baca Juga  Google Ungkap Jaringan Proxy Global Asal China, Jutaan Perangkat Android Terekspos

Pendekatan ini menunjukkan bahwa Furiosa AI tidak hanya mengandalkan inovasi arsitektur, tetapi juga membangun ekosistem perangkat lunak agar dapat diadopsi secara luas dalam lingkungan produksi nyata.

Strategi “Renegade” di Tengah Dominasi GPU

Di pasar yang saat ini didominasi satu vendor GPU besar, pendekatan Furiosa AI terbilang konfrontatif namun terukur. Perusahaan tidak berupaya mengungguli GPU dalam pelatihan model, melainkan berfokus pada inferensi—fase di mana model yang sudah dilatih dijalankan untuk menghasilkan respons.

Furiosa AI berargumen bahwa inferensi memiliki “fisika” berbeda dari pelatihan. Jika GPU diibaratkan mobil sport berdaya tinggi untuk lintasan balap, maka RNGD dirancang seperti kendaraan logistik jarak jauh yang dioptimalkan untuk throughput berkelanjutan dalam batasan daya dan pendinginan dunia nyata.

Baca Juga  Serangan Siber Melonjak, Afrika Jadi Garda Depan Pertahanan Digital Global

Dengan meningkatnya tekanan terhadap anggaran daya pusat data global, strategi ini menempatkan efisiensi energi dan kepadatan rak sebagai variabel utama, bukan sekadar performa puncak.

Kesimpulan

Furiosa AI melalui RNGD dan arsitektur Tensor Contraction Processor menawarkan pendekatan alternatif terhadap akselerator inferensi AI pusat data. Dengan desain berbasis kontraksi tensor, eksekusi deterministik, TDP 150W, serta fokus pada metrik Token Per Second per Watt, perusahaan ini berupaya menjawab tantangan daya dan biaya operasional yang kian krusial dalam era model bahasa besar.

Di tengah perlombaan perangkat keras AI yang semakin intensif, kehadiran RNGD memperluas spektrum solusi, terutama bagi operator pusat data yang ingin meningkatkan efisiensi tanpa merombak infrastruktur pendinginan secara besar-besaran.

Baca Juga  Samsung Gandakan Galaxy AI: Visi Baru Menuju 800 Juta Perangkat di Tahun 2026

Tinggalkan Balasan

Alamat email Anda tidak akan dipublikasikan. Ruas yang wajib ditandai *