Data pelbagai warna

(SeaPRwire) –   Pelancaran telah mengejutkan Wall Street dan Silicon Valley bulan ini, menakutkan pelabur dan mengagumkan pemimpin teknologi. Tetapi di sebalik semua perbincangan, ramai yang terlepas pandang satu butiran penting tentang cara fungsi yang baharu—satu nuansa yang telah menimbulkan kebimbangan penyelidik tentang keupayaan manusia untuk mengawal sistem kecerdasan buatan (AI) baharu yang canggih.

Semuanya bergantung kepada satu inovasi dalam cara DeepSeek R1 dilatih—satu inovasi yang membawa kepada tingkah laku yang mengejutkan dalam versi awal model ini, yang diterangkan oleh penyelidik dalam yang disertakan dengan pelancarannya.

Semasa ujian, penyelidik menyedari bahawa model itu akan secara spontan bertukar antara bahasa Inggeris dan Cina semasa menyelesaikan masalah. Apabila mereka memaksa model itu untuk kekal dalam satu bahasa, sekali gus memudahkan pengguna untuk mengikutinya, mereka mendapati keupayaan sistem untuk menyelesaikan masalah yang sama akan berkurangan.

Penemuan itu membunyikan loceng amaran bagi sesetengah penyelidik keselamatan AI. Pada masa kini, sistem AI yang paling berupaya “berfikir” dalam bahasa yang boleh dibaca oleh manusia, menulis hujah mereka sebelum membuat kesimpulan. Ini telah menjadi satu kelebihan bagi pasukan keselamatan, di mana pengawal keselamatan yang paling berkesan melibatkan pemantauan apa yang dipanggil “rantaian pemikiran” model untuk tanda-tanda tingkah laku yang berbahaya. Tetapi keputusan DeepSeek menimbulkan kemungkinan pemisahan di masa hadapan: di mana keupayaan AI baharu boleh diperolehi daripada membebaskan model daripada kekangan bahasa manusia sepenuhnya.

Sudah tentu, pertukaran bahasa DeepSeek itu sendiri bukanlah satu punca kebimbangan. Sebaliknya, apa yang membimbangkan penyelidik ialah inovasi baharu yang menyebabkannya. Dokumen DeepSeek menerangkan kaedah latihan baharu di mana model itu diberi ganjaran semata-mata untuk mendapatkan jawapan yang betul, tanpa mengira betapa mudah difahami proses pemikirannya kepada manusia. Kebimbangannya ialah pendekatan berasaskan insentif ini akhirnya boleh menyebabkan sistem AI membangunkan cara penaakulan yang sama sekali tidak dapat difahami, malah mungkin mencipta bahasa bukan manusia mereka sendiri, jika ia terbukti lebih berkesan.

Sekiranya industri AI meneruskan arah itu—mencari sistem yang lebih berkuasa dengan meninggalkan kebolehbacaan—“ia akan menghilangkan apa yang kelihatan seperti kemenangan mudah” untuk keselamatan AI, kata Sam Bowman, ketua jabatan penyelidikan di Anthropic, sebuah syarikat AI, yang memberi tumpuan kepada “menyelaraskan” AI dengan keutamaan manusia. “Kita akan kehilangan keupayaan yang mungkin kita ada untuk mengawasi mereka.”

Berfikir tanpa kata-kata

AI yang mencipta bahasa asingnya sendiri bukanlah sesuatu yang luar biasa seperti yang disangka.

Disember lalu, penyelidik Meta cuba untuk menguji hipotesis bahawa bahasa manusia bukanlah format optimum untuk menjalankan penaakulan—dan bahawa model bahasa besar (atau LLM, sistem AI yang menjadi asas kepada ChatGPT OpenAI dan DeepSeek’s R1) mungkin dapat berfikir dengan lebih cekap dan tepat jika ia tidak terikat oleh kekangan linguistik itu.

Penyelidik Meta meneruskan dengan mereka bentuk model yang, bukannya menjalankan penaakulannya dalam perkataan, melakukannya menggunakan satu siri nombor yang mewakili corak terkini di dalam rangkaian sarafnya—pada asasnya enjin penaakulan dalamannya. Model ini, mereka dapati, mula menjana apa yang mereka panggil “pemikiran berterusan”—pada asasnya nombor yang mengkodkan pelbagai laluan penaakulan yang berpotensi secara serentak. Nombor-nombor itu adalah sama sekali legap dan tidak dapat difahami oleh mata manusia. Tetapi strategi ini, mereka dapati, mencipta “corak penaakulan lanjutan yang muncul” dalam model itu. Corak-corak itu membawa kepada skor yang lebih tinggi dalam beberapa tugas penaakulan logik, berbanding dengan model yang berfikir menggunakan bahasa manusia.

Walaupun projek penyelidikan Meta sangat berbeza dengan DeepSeek, penemuannya selari dengan penyelidikan Cina dalam satu cara yang penting.

Kedua-dua DeepSeek dan Meta menunjukkan bahawa “kebolehbacaan manusia mengenakan cukai” ke atas prestasi sistem AI, menurut Jeremie Harris, Ketua Pegawai Eksekutif Gladstone AI, sebuah firma yang menasihati kerajaan AS tentang cabaran keselamatan AI. “Pada hadnya, tiada sebab mengapa [proses pemikiran AI] harus kelihatan boleh dibaca oleh manusia sama sekali,” kata Harris.

Dan kemungkinan ini telah menimbulkan kebimbangan sesetengah pakar keselamatan.

“Ia seolah-olah seperti tulisan di dinding bahawa terdapat laluan lain yang tersedia [untuk penyelidikan AI], di mana anda hanya mengoptimumkan penaakulan terbaik yang boleh anda perolehi,” kata Bowman, ketua pasukan keselamatan Anthropic. “Saya jangka orang akan meningkatkan kerja ini. Dan risikonya ialah, kita akan mendapat model di mana kita tidak dapat mengatakan dengan yakin bahawa kita tahu apa yang mereka cuba lakukan, apakah nilai mereka, atau bagaimana mereka akan membuat keputusan yang sukar apabila kita menetapkannya sebagai ejen.”

Bagi pihak mereka, penyelidik Meta berhujah bahawa penyelidikan mereka tidak semestinya mengakibatkan manusia disingkirkan. “Adalah ideal bagi LLM untuk mempunyai kebebasan untuk berfikir tanpa sebarang kekangan bahasa, dan kemudian menterjemahkan penemuan mereka kepada bahasa hanya apabila perlu,” tulis mereka dalam kertas mereka. (Meta tidak memberi respons kepada permintaan untuk mengulas tentang cadangan bahawa penyelidikan itu boleh membawa kepada arah yang berbahaya.)

Had bahasa

Sudah tentu, penaakulan AI yang boleh dibaca oleh manusia pun bukanlah tanpa masalahnya.

Apabila sistem AI menerangkan pemikiran mereka dalam bahasa Inggeris yang mudah, ia mungkin kelihatan seperti mereka menunjukkan kerja mereka dengan setia. Tetapi sesetengah pakar meragui sama ada penjelasan ini sebenarnya mendedahkan bagaimana AI benar-benar membuat keputusan. Ia mungkin seperti meminta ahli politik untuk motif di sebalik dasar—mereka mungkin akan mengemukakan penjelasan yang kedengaran bagus, tetapi mempunyai sedikit kaitan dengan proses membuat keputusan sebenar.

Walaupun meminta AI menerangkan dirinya dalam istilah manusia bukanlah sempurna, ramai penyelidik berpendapat ia lebih baik daripada alternatifnya: membenarkan AI membangunkan bahasa dalaman misterinya sendiri yang tidak dapat kita fahami. Saintis sedang berusaha untuk mencipta kaedah yang lebih baik, serupa dengan bagaimana doktor menggunakan imbasan otak untuk mengkaji pemikiran manusia. Tetapi kaedah-kaedah ini masih baru, dan belum memberi kita cara yang boleh dipercayai untuk menjadikan sistem AI lebih selamat.

Oleh itu, ramai penyelidik masih skeptikal terhadap usaha untuk menggalakkan AI berfikir dengan cara selain daripada bahasa manusia.

“Jika kita tidak mengikuti jalan ini, saya fikir kita akan berada dalam kedudukan yang jauh lebih baik untuk keselamatan,” kata Bowman. “Jika kita melakukannya, kita akan menghilangkan apa yang, pada masa ini, kelihatan seperti titik pengaruh terbaik kita terhadap beberapa masalah terbuka yang sangat menakutkan dalam penjajaran yang belum kita selesaikan.”

Artikel ini disediakan oleh pembekal kandungan pihak ketiga. SeaPRwire (https://www.seaprwire.com/) tidak memberi sebarang waranti atau perwakilan berkaitan dengannya.

Sektor: Top Story, Berita Harian

SeaPRwire menyampaikan edaran siaran akhbar secara masa nyata untuk syarikat dan institusi, mencapai lebih daripada 6,500 kedai media, 86,000 penyunting dan wartawan, dan 3.5 juta desktop profesional di seluruh 90 negara. SeaPRwire menyokong pengedaran siaran akhbar dalam bahasa Inggeris, Korea, Jepun, Arab, Cina Ringkas, Cina Tradisional, Vietnam, Thai, Indonesia, Melayu, Jerman, Rusia, Perancis, Sepanyol, Portugis dan bahasa-bahasa lain. 

“`