ByteDance Siapkan Produksi 100.000 Chip AI Internal, Tantang Dominasi Nvidia di Tengah Tekanan Ekspor AS

ByteDance berencana memproduksi 100.000 chip AI internal bernama SeedChip pada 2026 dan bernegosiasi dengan Samsung untuk manufaktur serta pasokan memori HBM di tengah tekanan pembatasan ekspor AS.

ByteDance produksi 100.000 chip AI internal menjadi langkah strategis terbaru perusahaan induk TikTok tersebut untuk memperkuat infrastruktur kecerdasan buatan (AI) mereka
ByteDance produksi 100.000 chip AI internal menjadi langkah strategis terbaru perusahaan induk TikTok tersebut untuk memperkuat infrastruktur kecerdasan buatan (AI) mereka

ByteDance Produksi 100.000 Chip AI Internal untuk Perkuat Infrastruktur TikTok dan Doubao

Info Tekno> ByteDance produksi 100.000 chip AI internal menjadi langkah strategis terbaru perusahaan induk TikTok tersebut untuk memperkuat infrastruktur kecerdasan buatan (AI) mereka di tengah persaingan global dan pembatasan ekspor chip dari Amerika Serikat. Berdasarkan laporan sejumlah sumber industri, perusahaan teknologi asal Tiongkok itu menargetkan penerimaan sampel chip pertamanya pada akhir Maret 2026, dengan rencana produksi massal mencapai 100.000 unit pada tahap awal dan potensi peningkatan hingga 350.000 unit.

Rencana ini muncul ketika kebutuhan komputasi AI untuk aplikasi seperti chatbot, mesin rekomendasi video, dan layanan cloud meningkat drastis. ByteDance disebut tengah bernegosiasi dengan Samsung Electronics terkait manufaktur chip serta pasokan memori berperforma tinggi yang menjadi komponen krusial dalam pengembangan sistem AI modern.

Baca Juga  Mengungkap Ancaman Tersembunyi: Seberapa Kokoh Keamanan Biometrik di Era Deepfake?

Langkah tersebut menempatkan ByteDance sejajar dengan raksasa teknologi global seperti Google, Amazon, dan Microsoft yang telah lebih dulu mengembangkan chip AI internal untuk mengurangi ketergantungan pada Nvidia, produsen GPU dominan dalam industri AI saat ini.

Apa Itu SeedChip dan Mengapa Fokus pada Inferensi AI?

Fokus pada Beban Kerja Inferensi, Bukan Pelatihan Model

Chip AI internal ByteDance yang diberi kode nama SeedChip dirancang khusus untuk menangani beban kerja inferensi (AI inference workload), bukan pelatihan model (training). Inferensi adalah proses ketika model AI yang telah dilatih digunakan untuk memberikan respons atau rekomendasi secara real-time kepada pengguna.

Dalam konteks ByteDance, inferensi menjadi tulang punggung layanan seperti:

  • Rekomendasi video di TikTok yang memproses miliaran interaksi setiap hari
  • Chatbot Doubao dan versi internasionalnya, Dola
  • Layanan e-commerce dan cloud berbasis AI
  • Sistem moderasi konten otomatis
Baca Juga  Sejarah Mendalam Kecerdasan Buatan (AI) dari Filsafat ke Era Deep Learning

Berbeda dengan pelatihan model yang membutuhkan daya komputasi masif dan biasanya dilakukan secara periodik, inferensi harus berjalan terus-menerus dengan latensi rendah dan efisiensi energi tinggi. Artinya, optimalisasi chip khusus untuk inferensi dapat memberikan keuntungan signifikan dari sisi biaya operasional dan skalabilitas.

Mengapa Inferensi Lebih Strategis bagi ByteDance?

TikTok memproses miliaran rekomendasi video setiap hari melalui algoritma berbasis AI. Setiap rekomendasi tersebut melibatkan komputasi inferensi secara real-time. Untuk mendukung beban tersebut, dibutuhkan ribuan chip yang bekerja tanpa henti di pusat data.

Dengan mengembangkan chip AI internal, ByteDance berupaya:

  1. Mengurangi ketergantungan pada GPU Nvidia
  2. Mengontrol biaya infrastruktur jangka panjang
  3. Mengoptimalkan performa untuk kebutuhan spesifik platform mereka
  4. Mengamankan rantai pasokan di tengah pembatasan ekspor AS
Baca Juga  Analis Nilai Kesepakatan Nvidia-Groq Dirancang Jaga Ilusi Persaingan AI

Negosiasi dengan Samsung: Manufaktur dan Pasokan Memori HBM

Peran Samsung dalam Ekosistem Chip AI

Dalam pengembangan SeedChip, ByteDance dilaporkan bernegosiasi dengan Samsung Electronics untuk dua aspek utama:

  • Layanan foundry (manufaktur chip)
  • Pasokan memori berbandwidth tinggi (High Bandwidth Memory/HBM)

HBM saat ini menjadi salah satu komponen paling krusial dalam infrastruktur AI karena memungkinkan transfer data berkecepatan tinggi antara prosesor dan memori. Namun, pasokan HBM secara global tengah mengalami keterbatasan akibat lonjakan permintaan AI generatif.

Tinggalkan Balasan

Alamat email Anda tidak akan dipublikasikan. Ruas yang wajib ditandai *