Kecerdasan buatan yang rosak

(SeaPRwire) –   Dalam beberapa tahun kebelakangan ini, kecerdasan buatan telah menjadi perbualan hangat yang berprofil tinggi di kalangan masyarakat. Setiap model AI baharu mendedahkan inovasi luar biasa yang menyaingi versi yang dikeluarkan hanya beberapa minggu sebelumnya. Pakar, pembangun, dan Ketua Pegawai Eksekutif syarikat AI membuat dakwaan berani tentang trajektori masa depan, daripada pengurangan kerja keras dan peningkatan dalam jangka hayat manusia hingga potensi kepada manusia.

Jika semua orang bercakap tentang AI, itu sebahagiannya kerana publisiti inovasi tersebut telah menjana pendapatan yang berkembang secara eksponen untuk syarikat yang membangunkan model tersebut. Tetapi apabila AI menjadi lebih pantas, lebih berkemampuan, lebih kompleks, perbualan awam itu boleh dengan cepat dipindahkan di sebalik pintu tertutup. Syarikat AI semakin banyak menggunakan model AI dalam organisasi mereka sendiri, dan kemungkinan besar mereka akan segera mendapati ia sesuai untuk menyimpan model masa depan mereka yang paling berkuasa untuk kegunaan dalaman. Tetapi keputusan yang kelihatan tidak berbahaya ini boleh menimbulkan ancaman serius kepada masyarakat secara keseluruhannya, seperti yang dihujahkan di bawah.

Kebanyakan syarikat AI terkemuka telah menyatakan secara terbuka niat mereka untuk membangunkan model AI yang sama cekap seperti manusia dalam semua tugas kognitif, yang boleh menjana trilion dolar nilai ekonomi. Dengan kepercayaan yang kini lazim terhadap kecerdasan umum buatan (AGI), kelebihan strategik yang berpotensi daripada model yang sangat canggih mungkin akan menyebabkan syarikat memanfaatkan model mereka secara sulit dan dalaman untuk meningkatkan kemajuan teknikal—tetapi memberikan sedikit isyarat kemajuan kepada pesaing dan dunia luar yang lebih luas.

Sistem AI semasa sudah sering berkelakuan dengan cara yang tidak dijangka, tidak disengajakan, dan tidak diingini dalam konteks simulasi eksperimen, contohnya, mengancam pengguna, atau . Walau bagaimanapun, sekiranya pembangun terkemuka mula merahsiakan maklumat mereka, masyarakat tidak lagi akan mempunyai peluang, walaupun kecil, untuk belajar secara terbuka dan menilai kebaikan dan keburukan, profil risiko dan keselamatan, serta trajektori teknologi asas ini. Sebaik sahaja sistem AI masa depan yang canggih digunakan, dan mungkin secara eksklusif, di sebalik pintu tertutup, bahaya yang tidak kelihatan kepada masyarakat boleh muncul dan berkembang tanpa pengawasan atau isyarat amaran—itu adalah ancaman yang boleh dan mesti kita elakkan.

Makmal terkemuka sudah pun semakin memanfaatkan sistem AI untuk mempercepatkan saluran penyelidikan dan pembangunan (R&D) mereka sendiri, dengan mereka bentuk algoritma baharu, mencadangkan seni bina baharu sepenuhnya atau mengoptimumkan kod. Google, sebagai contoh, melaporkan bahawa 50% daripada kod mereka kini ditulis oleh AI. Seperti yang disorot dalam , sistem AI canggih akhirnya boleh digunakan untuk secara berulang memperbaiki pengganti mereka sendiri, berpotensi mencipta “” yang berkuasa bagi model yang semakin berkemampuan. Hasil ini akan menjadi berita baik bagi syarikat AI yang bertujuan untuk mencapai kecerdasan umum buatan dengan cepat, atau bahkan , mendahului pesaing—tetapi hanya jika mereka memanfaatkan kelebihan strategik mereka jauh daripada pandangan yang ingin tahu.

Pada pandangan pertama, semua ini mungkin kedengaran tidak berbahaya: ancaman apakah yang boleh ditimbulkan oleh sistem AI yang belum dikeluarkan?

Masalahnya adalah dua hala: pertama, apabila sistem AI canggih menjadi semakin berguna secara dalaman untuk membina AI yang lebih baik, mungkin terdapat insentif persaingan dan ekonomi yang kuat, lebih daripada hari ini, untuk mengutamakan kelajuan dan kelebihan daya saing berbanding berhati-hati. Dinamik perlumbaan ini membawa risiko, terutamanya jika sistem AI yang semakin canggih mula digunakan oleh kakitangan syarikat dan digunakan dalam bidang kritikal keselamatan seperti R&D AI, berpotensi secara autonomi untuk mengurangkan geseran, membina titik kegagalan yang berpotensi sebelum sesiapa dapat memahami sepenuhnya tingkah laku sistem AI tersebut.

Kedua, penilaian dan campur tangan sedia ada kebanyakannya menumpukan pada sistem AI yang tersedia secara umum. Untuk sistem AI yang digunakan secara dalaman, sangat sedikit, jika ada, maklumat yang tersedia tentang siapa yang mempunyai akses istimewa kepada mereka atau untuk apa mereka digunakan. Lebih tepat lagi, terdapat sedikit maklumat yang tersedia tentang keupayaan mereka, sama ada mereka berkelakuan dengan cara yang tidak diingini; sama ada mereka berada di bawah kawalan yang sesuai dengan mekanisme pengawasan dan perlindungan; sama ada mereka boleh disalahgunakan oleh mereka yang mempunyai akses kepada mereka atau profil risiko keseluruhan mereka. Tidak juga terdapat keperluan yang mencukupi, rasional dan terperinci untuk memastikan sistem AI ini diuji dengan teliti dan tidak menimbulkan ancaman berantai kepada masyarakat sebelum ia digunakan.

Jika kita tidak menghendaki syarikat teknologi untuk menyediakan maklumat yang cukup terperinci tentang bagaimana mereka menguji, mengawal, dan menggunakan model AI baharu secara dalaman, kerajaan tidak dapat bersedia untuk sistem AI yang akhirnya boleh mempunyai keupayaan negara-bangsa. Sementara itu, ancaman yang berkembang di sebalik pintu tertutup boleh merebak ke dalam masyarakat tanpa amaran awal atau keupayaan untuk campur tangan. Untuk memastikan, sudah hari ini, kita tidak boleh mempercayai sistem AI semasa untuk berkelakuan dengan pasti seperti yang dimaksudkan sama ada ia digunakan secara luaran atau dalaman. Walau bagaimanapun, kita masih ada masa untuk bertindak.

Terdapat langkah-langkah mudah yang boleh diambil hari ini. Skop dasar keselamatan AI sempadan sukarela syarikat AI harus diperluaskan secara eksplisit untuk meliputi penggunaan dan penyebaran dalaman yang berisiko tinggi, seperti untuk mempercepatkan R&D AI. Sebagai sebahagian daripada ini, penyebaran dalaman harus dilayan dengan penjagaan yang sama seperti penyebaran luaran, dan penilaian dan penilaian yang ketat untuk mengenal pasti keupayaan berbahaya, penubuhan profil risiko yang jelas, dan mekanisme kawalan atau perlindungan yang diperlukan sebelum penggunaan harus digalakkan.

Agensi kerajaan yang bertanggungjawab untuk kesiapsiagaan negara harus mempunyai keterlihatan proaktif terhadap penggunaan dan penyebaran dalaman sistem AI yang sangat canggih dan menerima semua maklumat kritikal keselamatan negara yang relevan. Ini boleh termasuk, sebagai contoh, maklumat tentang siapa yang mempunyai akses kepada sistem AI ini dan di bawah syarat apa, untuk apa sistem AI ini digunakan, pengawasan apa yang diterapkan kepada mereka, dan apa yang boleh berlaku jika pengawasan ini gagal, untuk memastikan bahawa kepentingan ekonomi dan harta intelek diseimbangkan dengan kepentingan keselamatan negara yang sah.

Syarikat AI dan kerajaan harus secara kolaboratif memimpin dalam penerimaan amalan terbaik yang mudah ini untuk memastikan inovasi yang boleh dipercayai dan perlindungan awam.

Artikel ini disediakan oleh pembekal kandungan pihak ketiga. SeaPRwire (https://www.seaprwire.com/) tidak memberi sebarang waranti atau perwakilan berkaitan dengannya.

Sektor: Top Story, Berita Harian

SeaPRwire menyampaikan edaran siaran akhbar secara masa nyata untuk syarikat dan institusi, mencapai lebih daripada 6,500 kedai media, 86,000 penyunting dan wartawan, dan 3.5 juta desktop profesional di seluruh 90 negara. SeaPRwire menyokong pengedaran siaran akhbar dalam bahasa Inggeris, Korea, Jepun, Arab, Cina Ringkas, Cina Tradisional, Vietnam, Thai, Indonesia, Melayu, Jerman, Rusia, Perancis, Sepanyol, Portugis dan bahasa-bahasa lain.