Sebagai perbandingan, DeepSeek R1 adalah model penalaran dengan 671 miliar parameter, sementara OpenAI o1-mini memiliki 100 miliar parameter.
BACA JUGA:Hujan Deras Sebabkan Puluhan Rumah Warga di Lorong Amal Pipa Terendam Banjir
BACA JUGA:Antisipasi Balap Liar dan Petasan, Tim Patroli R4 Perintis Presisi Sisir Kota Muara Enim
Meskipun QwQ-32B memiliki parameter yang lebih kecil, model ini tetap mampu memberikan performa yang kompetitif berkat optimalisasi dalam arsitektur dan pelatihan datanya.
hadirnya QwQ-32B Alibaba berusaha untuk bersaing dengan model AI lainnya--Freepik.com
Alibaba juga mengklaim bahwa QwQ-32B unggul dalam berbagai tolok ukur atau benchmark, termasuk AIME 24, Live CodeBench, LiveBench, IFEval, dan BFCL.
Hal ini menunjukkan bahwa model ini dapat digunakan untuk berbagai aplikasi AI yang membutuhkan penalaran tingkat lanjut.
Salah satu faktor utama yang membuat QwQ-32B unggul adalah basis pengembangannya yang berasal dari model Qwen2.5-32B.
BACA JUGA:BRI Genjot Ekonomi! KUR Rp27,72 Triliun Cair, Ini Manfaatnya untuk Rakyat
BACA JUGA:Viral di Medsos, Kebakaran Melanda Rumah di Sukawinatan Palembang
Model ini telah dilatih dengan data yang sangat luas, mencakup berbagai disiplin ilmu dan skenario dunia nyata.
Dengan demikian, QwQ-32B memiliki cakupan pengetahuan yang lebih luas dan mampu memberikan respons yang lebih akurat.
Selain itu, model ini juga dilatih menggunakan berbagai teknik lanjutan agar dapat selaras dengan preferensi manusia.
Alibaba mengklaim bahwa QwQ-32B dapat berpikir kritis, memanfaatkan alat secara efektif, serta menyesuaikan cara berpikirnya berdasarkan respons yang diterimanya.
BACA JUGA:Waspada! Ini Daftar 42 Lokasi Rawan Banjir di Palembang
BACA JUGA:Diguyur Hujan Deras, Palembang Kembali Banjir! Ini Titik-Titik Terparah