Jakarta -
Model AI baru QwQ-32B-Preview dengan kemampuan reasoning (penalaran) telah hadir. Model ini merupakan salah satu dari sedikit model yang menyaingi o1 milik OpenAI, dan merupakan model pertama yang tersedia untuk diunduh dengan lisensi permisif.
Dikembangkan oleh tim Qwen Alibaba, QwQ-32B-Preview berisi 32,5 miliar parameter dan dapat mempertimbangkan perintah hingga kurang lebih 32 ribu kata. Model ini berkinerja lebih baik pada tolok ukur tertentu daripada o1-preview dan o1-mini, dua model penalaran yang telah dirilis OpenAI sejauh ini.
Menurut pengujian Alibaba, QwQ-32B-Preview mengalahkan model o1-preview OpenAI pada pengujian AIME dan MATH. AIME menggunakan model AI lain untuk mengevaluasi kinerja model, sementara MATH adalah kumpulan soal cerita.
ADVERTISEMENT
SCROLL TO CONTINUE WITH CONTENT
Dikutip dari TechCrunch, QwQ-32B-Preview dapat memecahkan teka-teki logika dan menjawab pertanyaan matematika yang cukup menantang, berkat kemampuan 'bernalar'-nya. Namun, model ini tidak sempurna. Alibaba mencatat dalam sebuah posting blog bahwa model tersebut mungkin tiba-tiba beralih bahasa, terjebak dalam loop, dan berkinerja buruk pada tugas yang memerlukan 'penalaran akal sehat'.
Tidak seperti kebanyakan AI, QwQ-32B-Preview dan model penalaran lainnya secara efektif memeriksa fakta sendiri. Hal ini membantu mereka menghindari beberapa jebakan yang biasanya membuat model tersandung, dengan sisi negatifnya adalah mereka sering kali membutuhkan waktu lebih lama untuk sampai pada solusi.
Mirip dengan o1, QwQ-32B-Preview bernalar melalui tugas, merencanakan ke depan, dan melakukan serangkaian tindakan yang membantu model tersebut menemukan jawaban.
QwQ-32B-Preview, yang dapat dijalankan dan diunduh dari platform pengembangan AI Hugging Face, tampaknya mirip dengan model penalaran DeepSeek yang baru-baru ini dirilis karena model ini secara hati-hati membahas topik politik tertentu.
Alibaba dan DeepSeek, sebagai perusahaan China, tunduk pada pembandingan oleh regulator internet China untuk memastikan respons model mereka 'mewujudkan nilai-nilai inti sosialisme-komunisme'. Banyak sistem AI di China menolak untuk menanggapi topik yang dapat menimbulkan kemarahan regulator, seperti spekulasi tentang rezim Xi Jinping.
Salah satu contohnya, ketika QwQ-32B-Preview ditanya 'Apakah Taiwan bagian dari China?', sistem AI ini menjawab bahwa Taiwan bagian dari China (dan 'tidak dapat dicabut'). Ini adalah perspektif yang tidak sejalan dengan sebagian besar yang diketahui dunia, tetapi sejalan dengan partai yang berkuasa di China.
Contoh lain, pertanyaan tentang Lapangan Tiananmen tidak ditanggapi. Pertanyaan ini masih dianggap tabu dan sensitif di sebagian besar kalangan masyarakat China.
QwQ-32B-Preview saat ini tersedia secara terbuka di bawah lisensi Apache 2.0, yang berarti dapat digunakan untuk aplikasi komersial. Namun, hanya beberapa komponen model yang telah dirilis, sehingga mustahil untuk mereplikasi QwQ-32B-Preview atau mendapatkan banyak wawasan tentang cara kerja internal sistemnya.
Meningkatnya perhatian pada model penalaran muncul karena kelayakan 'hukum penskalaan'. Teori lama yang menyatakan bahwa memberikan lebih banyak data dan daya komputasi pada suatu model akan terus meningkatkan kemampuannya, mulai diteliti. Serangkaian laporan pers menunjukkan bahwa model dari lab AI utama termasuk OpenAI, Google, dan Anthropic tidak membaik secara dramatis seperti sebelumnya.
Hal itu telah menyebabkan perlombaan cara pendekatan, arsitektur, dan teknik pengembangan AI baru, salah satunya adalah komputasi waktu pengujian. Dikenal juga sebagai komputasi inferensi, komputasi waktu uji pada dasarnya memberi model waktu pemrosesan ekstra untuk menyelesaikan tugas, dan mendukung model seperti o1 dan QwQ-32B-Preview.
Laboratorium besar selain OpenAI dan perusahaan China bertaruh bahwa komputasi waktu uji adalah masa depan. Menurut laporan terbaru dari The Information, Google telah memperluas tim internal yang berfokus pada model penalaran menjadi sekitar 200 orang, dan menambahkan daya komputasi yang substansial untuk upaya tersebut.
(rns/rns)