Jakarta – Dalam sebuah perkembangan yang mengguncang industri kecerdasan buatan global, Anthropic, salah satu raksasa AI terkemuka dari Amerika Serikat, secara terbuka menuduh tiga perusahaan AI asal China—DeepSeek, Moonshot AI, dan MiniMax—terlibat dalam sebuah kampanye terkoordinasi yang masif. Tuduhan ini berpusat pada upaya sistematis untuk mengekstraksi informasi berharga dari model AI canggih milik Anthropic, Claude, dengan tujuan melatih dan mengembangkan model mereka sendiri. Insiden ini menandai Anthropic sebagai entitas teknologi Amerika terbaru yang melayangkan klaim serius semacam itu, mengikuti jejak OpenAI yang sebelumnya juga menyuarakan keluhan serupa, memperpanas tensi persaingan AI antara dua kekuatan ekonomi terbesar dunia.
Menurut pernyataan resmi yang dikeluarkan oleh Anthropic, modus operandi yang digunakan oleh ketiga perusahaan China tersebut diduga melibatkan pembanjiran model Claude dengan volume prompt yang luar biasa besar dan dirancang secara khusus. Prompt-prompt ini, yang secara esensial adalah instruksi atau pertanyaan yang diberikan kepada model AI, tidak bertujuan untuk penggunaan komersial atau interaksi biasa, melainkan untuk tujuan ‘distilasi’. Distilasi adalah sebuah teknik dalam pembelajaran mesin di mana model AI yang lebih kecil dan efisien diajarkan untuk meniru kinerja model yang jauh lebih besar, lebih kompleks, dan terlatih. Proses ini memungkinkan model "murid" untuk menyerap pengetahuan, pola, dan kemampuan dari model "guru" yang lebih canggih, sehingga dapat mencapai tingkat kinerja yang serupa dengan biaya komputasi dan sumber daya yang jauh lebih rendah. Teknik ini, meskipun secara internal sering digunakan untuk mengoptimalkan model sendiri, menjadi masalah etika dan hukum yang serius ketika diterapkan pada model milik pihak lain tanpa izin.
Bagi tim pengembangan AI dengan sumber daya terbatas, baik dari segi komputasi, data, maupun keahlian, distilasi dapat menjadi jalan pintas yang sangat menarik untuk mempercepat pengembangan model. Dengan mengekstraksi "esensi" dari model yang sudah terbukti kemampuannya, mereka dapat menghasilkan model baru yang kompetitif dalam waktu yang relatif singkat dan dengan investasi yang jauh lebih kecil dibandingkan dengan membangunnya dari nol melalui pelatihan ekstensif yang memakan waktu dan biaya miliaran dolar. Inilah inti dari kekhawatiran Anthropic: ketiga perusahaan China tersebut diduga mendapatkan keuntungan kompetitif yang tidak adil melalui praktik ini.
Kendala geografis dan kebijakan layanan Anthropic secara eksplisit melarang akses komersial ke Claude dari wilayah China. Namun, penyelidikan Anthropic mengungkap bahwa ketiga perusahaan tersebut diduga menggunakan metode canggih untuk mengakali batasan ini. Mereka dilaporkan memanfaatkan layanan proxy komersial, yang berfungsi sebagai perantara untuk menyembunyikan lokasi asli pengguna, sehingga memungkinkan akses ke jaringan yang menjalankan puluhan ribu akun Claude secara bersamaan. Skala operasi ini menunjukkan tingkat koordinasi dan investasi yang signifikan, bukan sekadar upaya sporadis oleh individu. Ini mengindikasikan adanya perencanaan matang dan eksekusi yang terorganisir untuk secara sistematis mengeksploitasi model Claude.
"Begitu akses diamankan, laboratorium-laboratorium tersebut menghasilkan volume besar prompt yang dirancang dengan cermat untuk mengekstraksi kemampuan spesifik dari model kami," demikian penegasan Anthropic yang dikutip oleh detikINET dari CNBC. Respons yang dihasilkan oleh Claude terhadap prompt-prompt yang direkayasa ini kemudian dikumpulkan secara massal. Data respons ini, yang merupakan representasi dari "pengetahuan" Claude, kemudian diduga digunakan untuk dua tujuan utama: pertama, sebagai data pelatihan langsung untuk model AI mereka sendiri; dan kedua, untuk menjalankan proses yang dikenal sebagai pembelajaran penguatan (reinforcement learning). Pembelajaran penguatan adalah metode intensif data di mana model AI belajar membuat keputusan melalui serangkaian uji coba dan kesalahan, dengan umpan balik berupa "penghargaan" atau "hukuman" tanpa panduan manusia eksplisit, memungkinkan model untuk mengoptimalkan perilakunya secara mandiri.
Data statistik yang dikumpulkan oleh Anthropic menunjukkan skala "penyedotan" data yang mencengangkan. Perusahaan tersebut memperkirakan bahwa ketiga perusahaan China yang dituduh itu secara kolektif telah menghasilkan lebih dari 16 juta pertukaran pesan dengan Claude. Interaksi masif ini dilakukan dari sekitar 24.000 akun yang diduga dibuat secara curang, menunjukkan betapa luasnya jaringan yang mereka bangun. Di antara ketiga perusahaan yang dituding, MiniMax diidentifikasi sebagai pelaku yang paling banyak menyedot lalu lintas data, dengan angka yang fantastis mencapai lebih dari 13 juta pertukaran pesan. Angka-angka ini bukan sekadar insiden kecil; ini adalah operasi skala industri yang menunjukkan tekad kuat untuk mendapatkan akses dan mengeksploitasi teknologi AI canggih.
Kasus ini tidak berdiri sendiri. Anthropic kini bergabung dengan deretan perusahaan AS lainnya yang semakin lantang menyuarakan kekhawatiran atas praktik distilasi oleh perusahaan-perusahaan China. Awal bulan ini, OpenAI, pengembang ChatGPT yang mendunia, juga mengajukan surat terbuka kepada legislator AS. Dalam surat tersebut, OpenAI menyoroti aktivitas yang secara jelas mengindikasikan upaya DeepSeek untuk mendistilasi model terbaik milik OpenAI serta laboratorium AI garis depan AS lainnya. OpenAI sendiri telah menandai bukti praktik distilasi oleh perusahaan China sejak awal tahun lalu, terutama setelah peluncuran model DeepSeek pertama yang menurut banyak pengguna memiliki kemiripan yang sangat mencolok dengan ChatGPT. Ini menunjukkan adanya pola perilaku yang konsisten dan berkelanjutan dari pihak China untuk "mempelajari" atau "meniru" model-model AI terkemuka yang dikembangkan di AS.
Penting untuk dicatat bahwa distilasi itu sendiri bukanlah praktik yang sepenuhnya asing dalam industri AI. Anthropic mengakui bahwa perusahaan AI secara rutin mendistilasi model mereka sendiri untuk menciptakan versi yang lebih kecil, lebih cepat, dan lebih hemat biaya. Misalnya, sebuah perusahaan mungkin melatih model besar yang sangat kuat, lalu mendistilasinya menjadi model yang lebih ringan untuk aplikasi seluler atau perangkat edge. Praktik semacam ini adalah bagian dari inovasi dan optimasi yang sah. Namun, yang menjadi kekhawatiran besar bagi Anthropic adalah ketika praktik ini dilakukan secara tidak sah terhadap model milik pihak lain. Perusahaan tersebut mengkhawatirkan keuntungan kompetitif yang diperoleh perusahaan saingan, karena praktik ini memungkinkan mereka untuk memperoleh kemampuan canggih dari laboratorium lain dalam waktu jauh lebih singkat dan dengan biaya jauh lebih murah, dibandingkan dengan harus mengembangkannya sendiri dari awal. Ini secara fundamental merusak prinsip inovasi, investasi riset dan pengembangan, serta keunggulan kompetitif yang sehat.
Lebih dari sekadar isu komersial, Anthropic dan OpenAI membingkai distilasi oleh perusahaan-perusahaan China ini sebagai ancaman keamanan nasional bagi Amerika Serikat. Meskipun masih belum sepenuhnya jelas seberapa besar pernyataan ini mencerminkan masalah keamanan murni atau sekadar keinginan untuk mempertahankan keunggulan kompetitif perusahaan AI Amerika, narasi keamanan nasional ini memberikan dimensi yang jauh lebih serius pada tuduhan tersebut. Potensi penyalahgunaan model AI yang didistilasi, misalnya untuk aplikasi militer, pengawasan massal, atau bahkan dalam perang informasi, menjadi kekhawatiran yang sah bagi pemerintah AS.
Laporan semacam itu, tanpa ragu, menambah kekhawatiran pemerintahan AS yang tampak semakin cemas atas kemajuan pesat China dalam industri AI. Washington telah lama memantau dengan saksama ambisi Beijing untuk menjadi pemimpin global dalam AI pada tahun 2030, dan kekhawatiran semakin meningkat karena keuntungan China dilaporkan muncul, setidaknya sebagian, dari penggunaan sistem dan teknologi yang dikembangkan oleh Amerika. Perang dagang dan teknologi antara AS dan China telah berlangsung selama beberapa tahun, dengan AI menjadi salah satu medan pertempuran paling krusial. Pembatasan ekspor chip AI canggih dan teknologi terkait ke China adalah salah satu langkah yang diambil AS untuk memperlambat kemajuan AI China. Insiden distilasi ini semakin memperkuat argumen bagi pembatasan yang lebih ketat dan pengawasan yang lebih intensif terhadap transfer teknologi AI.
Pada akhirnya, insiden ini menyoroti kerapuhan ekosistem AI global dan tantangan dalam menegakkan hak kekayaan intelektual di era digital. Ketika model AI menjadi semakin canggih dan mahal untuk dikembangkan, perlindungan terhadap "pengetahuan" yang terkandung di dalamnya menjadi krusial. Kasus ini kemungkinan akan memicu perdebatan lebih lanjut tentang regulasi AI, standar etika internasional, dan mungkin juga langkah-langkah hukum yang lebih agresif untuk melindungi inovasi di sektor ini. Masa depan AI, dan terutama dinamika persaingannya, akan sangat dipengaruhi oleh bagaimana tuduhan serius semacam ini ditangani dan direspon oleh komunitas internasional. Ini bukan hanya tentang keuntungan komersial, tetapi juga tentang siapa yang akan memimpin dalam revolusi teknologi paling transformatif di abad ke-21.

