Menurut perusahaan, pendekatan ini memungkinkan model beroperasi dengan biaya komputasi lebih rendah karena membutuhkan lebih sedikit memori, daya pemrosesan, dan konsumsi energi.
Sebagai perbandingan:
- Model DeepSeek R1 mengaktifkan sekitar 37 miliar parameter per prompt
- Model GPT-OSS 120B mengaktifkan sekitar 5,1 miliar parameter
CEO perusahaan teknologi Karmaloop AI, Abhishek Chatterjee, mengaku terkesan namun tetap berhati-hati terhadap klaim tersebut.
Menurutnya, jika model tersebut benar-benar mampu mencapai kemampuan penalaran tinggi dengan hanya 9 miliar parameter aktif, maka hal itu merupakan inovasi signifikan dalam pengembangan AI.
Namun ia menegaskan bahwa klaim tersebut perlu diverifikasi melalui pengujian independen.
Infrastruktur GPU dan Dukungan Pemerintah India
Peran IndiaAI Mission
Pengembangan model berskala besar seperti Sarvam 105B membutuhkan sumber daya komputasi yang sangat besar. Dalam konteks India, akses terhadap infrastruktur GPU kelas tinggi baru tersedia secara luas dalam beberapa tahun terakhir.
Program IndiaAI Mission yang didukung pemerintah menjadi salah satu faktor penting dalam pengembangan model ini.
Pada Mei 2025, Kementerian Elektronik dan Teknologi Informasi India (MeitY) memberikan akses kepada Sarvam AI terhadap 4.086 chip Nvidia H100, salah satu GPU AI paling kuat yang tersedia saat ini.
Menurut Chatterjee, eksekutif Sarvam AI sendiri mengakui bahwa pengembangan model tersebut kemungkinan tidak akan bisa dilakukan setahun sebelumnya karena keterbatasan infrastruktur komputasi.
Pengujian Model AI Sarvam oleh CNA
Aspek yang Diuji
Media teknologi CNA menguji model AI Sarvam dengan membandingkannya dengan beberapa model AI terkemuka dunia. Pengujian dilakukan dalam beberapa kategori utama, termasuk:
- Penalaran logis
- Kefasihan bahasa
- Akurasi informasi
- Pemahaman konteks budaya
- Kreativitas
- Keamanan sistem (safety guardrails)
Secara keseluruhan, model AI Sarvam dinilai cukup kompetitif dibandingkan model global.
Keunggulan dalam Bahasa Indic
Model Sarvam menunjukkan performa yang lebih baik dalam tugas yang berkaitan dengan konteks India, terutama dalam penggunaan bahasa lokal.
Model tersebut mampu berkomunikasi dalam 22 bahasa Indic, termasuk:
- Hindi
- Tamil
- Marathi
- Gujarati
- Bengali
- Urdu
Sebagai perbandingan:
- ChatGPT mendukung sekitar 12 bahasa Indic
- DeepSeek R1 mendukung sekitar 11 bahasa
- Gemini mendukung sekitar 9 bahasa
Keunggulan ini kemungkinan berasal dari dataset pelatihan yang berfokus pada bahasa dan konteks budaya India.
Tantangan Transparansi dan Keamanan Model
Kurangnya Model Card dan Dokumentasi
Meskipun performa model dinilai cukup kompetitif, beberapa pakar menyampaikan kekhawatiran terkait transparansi teknis.
Hingga saat ini Sarvam AI belum merilis model weights, white paper teknis, maupun model card yang menjelaskan data pelatihan, desain arsitektur, serta kebijakan keamanan model.
Menurut Amit Verma, Head of Engineering di Neuron7.ai, kurangnya transparansi tersebut dapat menimbulkan keraguan bagi perusahaan yang ingin mengadopsi teknologi ini.
Model card sendiri merupakan dokumen penting yang menjelaskan tujuan penggunaan model, performa, serta pertimbangan keamanan.
Uji Keamanan dan Potensi Masalah Privasi
Pengujian Jailbreak
Dalam pengujian keamanan yang dilakukan oleh tim Verma, model Sarvam diketahui gagal dalam lima uji jailbreak.
Uji jailbreak merupakan metode untuk mengevaluasi apakah model AI dapat dipaksa menghasilkan respons yang melanggar aturan keamanan.

Aaf Afiatna (Aura OS) adalah seorang WordPress Developer, Administrator IT, dan penggerak di balik infrastruktur berbagai portal media digital PT Arina Duta Sehati. Ia memiliki ketertarikan mendalam pada rekayasa sistem tingkat rendah, implementasi AI on-device, dan pengembangan proyek open-source seperti Neural Standby Kernel (NSK). Saat tidak sedang berurusan dengan server atau kode, ia aktif mengeksplorasi ekosistem Web3 dan berbagi wawasan melalui channel YouTube CryptoFansWorld.







