China Meluncurkan DeepSeek R1 Safe AI, Klaim Hindari Isu Politik Tingkat Sukses 100 persen

Senin 22-09-2025,14:22 WIB
Reporter : agung wahyudi
Editor : Hanida Syafrina

PALTV.CO.ID,- Huawei dan Universitas Zhejiang melatih ulang AI DeepSeek milik China agar sesuai dengan aturan ujaran pemerintah.

Pembaruan ini menyoroti tren global dalam menyelaraskan sistem AI dengan prioritas budaya dan politik nasional.

Model bahasa besar populer China, DeepSeek, kini mendapatkan pembaruan besar yang menempatkan kepatuhan terhadap pemerintah sebagai prioritas utama.

Menurut laporan Reuters, varian baru bernama DeepSeek-R1-Safe dikembangkan untuk menghindari topik politik yang kontroversial serta lebih selaras dengan batasan ujaran yang ditetapkan regulator Tiongkok.

Menariknya, versi baru ini bukan dibuat langsung oleh tim DeepSeek.

BACA JUGA:Awas! Alat Selfie Ini Bikin Hasil Jauh Lebih Baik

BACA JUGA:Gila ? PCX 160 Roadsync vs NMAX Turbo Tech Max – Harga Segitu Fiturnya Gokil !

Sebaliknya, Huawei bekerja sama dengan peneliti dari Universitas Zhejiang untuk melatih ulang model sumber terbuka DeepSeek R1 menggunakan 1.000 chip Ascend AI milik mereka.

Tujuannya adalah menanamkan perlindungan yang lebih ketat tanpa banyak mengorbankan performa.

Huawei mengklaim model terbaru ini hanya kehilangan sekitar satu persen dari kemampuan dan kecepatan aslinya, namun memiliki daya tahan yang jauh lebih kuat terhadap “ujaran beracun dan berbahaya, konten sensitif politik, serta ajakan melakukan aktivitas ilegal.”

DeepSeek R1 Safe menghindari topik sensitif politik
Pembaruan ini menyoroti tren global dalam menyelaraskan sistem AI dengan prioritas budaya dan politik nasional.--ig@indian today

Secara tampak luar, hasilnya terlihat mengesankan. Menurut Huawei, DeepSeek-R1-Safe hampir 100 persen berhasil menghindari topik sensitif politik dalam interaksi normal.

BACA JUGA:Daihatsu Resmi Rilis Rocky dan Gran Max Terbaru, Simak Detail Harga dan Fiturnya

BACA JUGA:Redmi Pad SE: Tablet Ringan dengan Performa Andal untuk Aktivitas Sehari-hari

Namun, masih ada keterbatasan. Saat pengguna menggunakan taktik seperti bermain peran atau menyamarkan maksud mereka lewat perintah tidak langsung, tingkat keberhasilan model turun drastis menjadi hanya 40 persen.

Kategori :