Pelaku memanfaatkan akses ini untuk berinteraksi secara masif dan berulang dengan sistem. Setiap prompt dikirim dengan pola tertentu, bertujuan menguji batasan model serta mencari celah untuk memperoleh informasi tentang logika internalnya.
Karena dilakukan melalui jalur resmi, aktivitas tersebut pada awalnya tampak seperti penggunaan API yang sah. Namun, skala dan pola permintaan yang sangat besar—mencapai ratusan ribu prompt—memicu analisis lebih lanjut dari tim keamanan Google.
Mengungkap Pola Respons dan Struktur Penalaran
Dalam dunia keamanan AI, serangan semacam ini dikenal sebagai model extraction attack. Tujuannya bukan merusak sistem, melainkan mengumpulkan cukup banyak respons untuk membangun model tiruan yang memiliki perilaku serupa.
Dengan mengirimkan berbagai variasi prompt dan menganalisis jawaban yang dihasilkan, pelaku berusaha memahami bagaimana Gemini menyusun jawaban, termasuk gaya bahasa, struktur logika, serta kecenderungan respons terhadap topik tertentu.
Google menegaskan bahwa Gemini dirancang untuk tidak menampilkan rantai penalaran internalnya secara eksplisit. Namun, kombinasi prompt tertentu dapat memancing model memberikan penjelasan lebih rinci daripada biasanya.
Mengapa Serangan Ini Dianggap Pencurian Kekayaan Intelektual?
Pelanggaran Terms of Service dan Hak Kepemilikan
Google mengategorikan aktivitas pembanjiran 100.000 prompt tersebut sebagai bentuk pencurian kekayaan intelektual (intellectual property/IP). Model AI seperti Gemini merupakan hasil investasi besar dalam riset, pelatihan data, dan pengembangan infrastruktur komputasi.
Upaya untuk menyalin atau mengkloning model melalui ekstraksi respons dianggap melanggar hak kepemilikan dan ketentuan layanan yang telah ditetapkan.
Dalam pernyataannya, Google menegaskan bahwa praktik tersebut telah melanggar ToS layanan Gemini. Oleh karena itu, perusahaan berhak mengambil tindakan, termasuk menghentikan akses pengguna yang terbukti terlibat dalam aktivitas tersebut.
Potensi Dampak Komersial dan Keamanan Siber
Meski Google menyatakan bahwa dampak langsung dari serangan ini tidak segera terasa, perusahaan menilai praktik semacam ini memiliki potensi risiko jangka panjang.
Jika berhasil, ekstraksi model dapat digunakan untuk mengembangkan sistem AI tiruan yang meniru perilaku model asli tanpa izin. Hal ini berpotensi merugikan secara komersial dan mengganggu persaingan industri.







