CHINA-SHANGHAI-XI JINPING-INSPECTION-AI INDUSTRY (CN)

(SeaPRwire) –   “China tidak mengambil berat tentang keselamatan AI—jadi mengapa kita perlu mengambil berat?” Logik yang cacat ini menular dalam dasar A.S. dan kalangan teknologi, menawarkan perlindungan untuk perlumbaan yang cuai ke arah bawah apabila Washington tergesa-gesa untuk mengatasi Beijing dalam pembangunan AI.

Menurut rasional ini, mengawal selia AI akan berisiko ketinggalan dalam apa yang dipanggil “.” Dan kerana China kononnya tidak mengutamakan keselamatan, berlumba ke hadapan—walaupun dengan cuai—adalah pertaruhan jangka panjang yang lebih selamat. Naratif ini bukan sahaja ; ia berbahaya.

Ironinya, pemimpin China mungkin mempunyai pengajaran untuk penyokong AI A.S.: sebenar memerlukan kawalan. Seperti yang dikatakan oleh pegawai teknologi tertinggi China, Ding Xuexiang, di Davos pada Januari 2025: “Jika sistem brek tidak terkawal, anda tidak boleh menekan pedal pemecut dengan yakin.” Bagi pemimpin China, keselamatan bukanlah kekangan; ia adalah prasyarat.

Keselamatan AI telah menjadi politik di China. Pada bulan April, Presiden Xi Jinping mempengerusikan Politburo yang jarang berlaku mengenai AI yang memberi amaran tentang risiko “yang tidak pernah berlaku sebelum ini”. China kini menyenaraikan keselamatan AI bersama-sama pandemik dan serangan siber. Pengawal selia memerlukan penilaian keselamatan pra-penggunaan untuk AI generatif dan baru-baru ini mengalih keluar lebih daripada produk AI yang tidak mematuhi daripada pasaran. Dalam separuh pertama tahun ini sahaja, China telah lebih banyak piawaian AI kebangsaan berbanding dalam tiga tahun sebelumnya. Sementara itu, jumlah kertas teknikal yang memfokuskan pada keselamatan AI barisan hadapan telah lebih daripada sepanjang tahun lalu di China.

Tetapi kali terakhir pemimpin A.S. dan China bertemu untuk membincangkan risiko AI adalah pada . Pada bulan September, pegawai dari kedua-dua negara membayangkan perbualan “pada masa yang sesuai.” Tetapi tiada pertemuan berlaku di bawah Pentadbiran Biden, dan terdapat ketidakpastian yang lebih besar sama ada Pentadbiran Trump akan meneruskan usaha ini. Ini adalah peluang yang terlepas.

China terbuka untuk kerjasama. Pada Mei 2025, ia dialog AI dua hala dengan United Kingdom. Saintis China yang dihormati telah menyumbang kepada usaha antarabangsa utama, seperti yang disokong oleh 33 negara dan organisasi antara kerajaan (termasuk A.S. dan China) dan mengenai Keutamaan Penyelidikan Keselamatan AI Global.

Langkah pertama yang perlu ialah menghidupkan semula dialog A.S.–China yang tidak aktif mengenai risiko AI. Tanpa saluran kerajaan-ke-kerajaan yang berfungsi, prospek untuk penyelarasan kekal tipis. China menunjukkan ia terbuka untuk meneruskan perbualan pada akhir Pentadbiran Biden. Ia sudah menghasilkan perjanjian yang sederhana tetapi penting secara simbolik: menegaskan bahawa membuat keputusan manusia mesti kekal mengawal senjata nuklear. Saluran ini mempunyai potensi untuk kemajuan selanjutnya.

Untuk masa hadapan, perbincangan harus memberi tumpuan kepada ancaman bersama yang berisiko tinggi. Pertimbangkan terkini OpenAI bagi Ejen ChatGPT terbarunya sebagai telah melepasi ambang “Keupayaan Tinggi” dalam domain biologi di bawah syarikat itu sendiri. Ini bermakna ejen itu boleh, sekurang-kurangnya pada prinsipnya, memberikan pengguna panduan yang bermakna yang mungkin memudahkan penciptaan ancaman biologi yang berbahaya. Kedua-dua dan Beijing mempunyai dalam menghalang pelakon bukan negara daripada mempersenjatai alat sedemikian. Bantuan AI tidak akan menghormati sempadan negara. Di samping itu, pakar terkemuka dan pemenang Turing Award dari Barat dan China kebimbangan bahawa sistem AI tujuan umum yang canggih mungkin beroperasi di luar kawalan manusia, menimbulkan risiko bencana dan kewujudan.

Kedua-dua kerajaan telah mengakui beberapa risiko ini. Presiden Trump memberi amaran bahawa AI mungkin “menimbulkan risiko keselamatan negara yang baharu dalam masa terdekat,” khususnya dalam keselamatan siber dan dalam domain kimia, biologi, radiologi dan nuklear (CBRN). Begitu juga, pada bulan September tahun lepas, badan piawaian keselamatan AI utama China keperluan untuk piawaian keselamatan AI yang menangani keselamatan siber, CBRN dan risiko kehilangan kawalan.

Dari situ, kedua-dua pihak boleh mengambil langkah praktikal untuk membina kepercayaan teknikal antara organisasi piawaian terkemuka—seperti Jawatankuasa Teknikal Standardisasi Keselamatan Maklumat Nasional China (National Information Security Standardization Technical Committee) () dan Institut Piawaian dan Teknologi Nasional Amerika (America’s National Institute of Standards and Technology) ()

Selain itu, pihak berkuasa industri, seperti AI Industry Alliance of China (AIIA) dan Frontier Model Forum di A.S., boleh berkongsi amalan terbaik mengenai rangka kerja pengurusan risiko. AIIA telah merumuskan “” yang telah ditandatangani oleh kebanyakan pembangun China yang terkemuka. China yang baharu, yang memfokuskan sepenuhnya pada risiko hadapan termasuk penyalahgunaan siber, penyalahgunaan biologi, pujukan dan manipulasi berskala besar, dan senario kehilangan kawalan, telah diterbitkan semasa dan boleh membantu kedua-dua negara menyelaraskan.

Apabila kepercayaan semakin mendalam, kerajaan dan makmal terkemuka boleh mula berkongsi kaedah dan keputusan penilaian keselamatan untuk model yang paling canggih. , yang dilancarkan di WAIC, secara jelas menyeru penciptaan “platform penilaian keselamatan yang diiktiraf bersama.” Sebagai pengasas bersama Anthropic , penilaian keselamatan AI China baru-baru ini mempunyai penemuan yang serupa dengan Barat: sistem AI hadapan menimbulkan beberapa risiko CBRN yang tidak remeh, dan mula menunjukkan tanda-tanda amaran awal replikasi dan penipuan kendiri autonomi. Pemahaman yang dikongsi tentang kelemahan model—dan tentang cara kelemahan tersebut diuji—akan menyediakan asas untuk kerjasama keselamatan yang lebih luas.

Akhirnya, kedua-dua pihak boleh mewujudkan saluran pelaporan insiden dan protokol tindak balas kecemasan. Sekiranya berlaku kemalangan atau penyalahgunaan berkaitan AI, komunikasi yang pantas dan telus adalah penting. Persamaan moden dengan “talian terus” antara pegawai AI tertinggi di kedua-dua negara boleh memastikan makluman masa nyata apabila model melanggar ambang keselamatan atau berkelakuan di luar jangkaan. Pada bulan April, Presiden Xi Jinping keperluan untuk “pemantauan, amaran awal risiko dan tindak balas kecemasan” dalam AI. Selepas sebarang insiden berbahaya, sepatutnya ada pelan yang dipersetujui terlebih dahulu tentang cara untuk bertindak balas.

Penglibatan tidak akan mudah—halangan politik dan teknikal tidak dapat dielakkan. Tetapi risiko AI adalah global—dan begitu juga tindak balas tadbir urus. Daripada menggunakan China sebagai justifikasi untuk tidak bertindak dalam negara mengenai peraturan AI, pembuat dasar dan pemimpin industri Amerika harus melibatkan diri secara langsung. Risiko AI tidak akan menunggu.

Artikel ini disediakan oleh pembekal kandungan pihak ketiga. SeaPRwire (https://www.seaprwire.com/) tidak memberi sebarang waranti atau perwakilan berkaitan dengannya.

Sektor: Top Story, Berita Harian

SeaPRwire menyampaikan edaran siaran akhbar secara masa nyata untuk syarikat dan institusi, mencapai lebih daripada 6,500 kedai media, 86,000 penyunting dan wartawan, dan 3.5 juta desktop profesional di seluruh 90 negara. SeaPRwire menyokong pengedaran siaran akhbar dalam bahasa Inggeris, Korea, Jepun, Arab, Cina Ringkas, Cina Tradisional, Vietnam, Thai, Indonesia, Melayu, Jerman, Rusia, Perancis, Sepanyol, Portugis dan bahasa-bahasa lain. 

“`