(SeaPRwire) – Perkembangan terkini dalam AI boleh bermakna pandemik yang disebabkan oleh manusia adalah lima kali lebih berkemungkinan berbanding setahun yang lalu, menurut ramalan pakar terkemuka yang dikongsi secara eksklusif dengan TIME.
Data tersebut mengulangi kebimbangan yang dibangkitkan oleh syarikat AI OpenAI dan Anthropic dalam beberapa bulan kebelakangan ini, di mana kedua-duanya telah memberi amaran bahawa alat AI hari ini mencapai kemampuan untuk membantu pihak yang berniat jahat yang cuba mencipta senjata biologi secara bermakna.
Sudah lama pakar biologi dapat mengubah suai virus menggunakan teknologi makmal. Perkembangan baharu ialah keupayaan chatbot—seperti ChatGPT atau Claude—untuk memberikan nasihat penyelesaian masalah yang tepat kepada ahli biologi amatur yang cuba mencipta senjata biologi yang mematikan di makmal. Pakar keselamatan telah lama melihat kesukaran proses penyelesaian masalah ini sebagai hambatan besar terhadap keupayaan kumpulan pengganas untuk mencipta senjata biologi, kata Seth Donoughe, salah seorang penulis kajian. Kini, katanya, berkat AI, kepakaran yang diperlukan untuk sengaja menyebabkan pandemik baharu “boleh diakses oleh lebih ramai orang.”
Antara Disember 2024 dan Februari 2025, Forecasting Research Institute menyoal 46 pakar biokeselamatan dan 22 “superforecaster” (individu dengan kadar kejayaan tinggi dalam meramalkan peristiwa masa depan) untuk menganggarkan risiko pandemik yang disebabkan oleh manusia. Purata responden tinjauan meramalkan risiko kejadian itu berlaku pada mana-mana tahun adalah 0.3%.
Yang penting, peninjau kemudian bertanya soalan lain: berapa banyak risiko itu akan meningkat jika alat AI dapat menandingi prestasi pasukan pakar dalam ujian penyelesaian masalah virologi yang sukar? Jika AI dapat melakukan itu, kata purata pakar, maka risiko tahunan akan melonjak kepada 1.5%—peningkatan lima kali ganda.
Apa yang tidak diketahui oleh peramal ialah Donoughe, seorang saintis penyelidik di organisasi bukan untung pencegahan pandemik SecureBio, sedang menguji sistem AI untuk kemampuan tersebut. Pada bulan April, pasukan Donoughe mendedahkan hasil ujian tersebut: sistem AI terkemuka hari ini boleh mengatasi pakar virologi tahap PhD dalam ujian penyelesaian masalah yang sukar.
Dengan kata lain, AI kini boleh melakukan perkara yang diperingatkan oleh peramal akan meningkatkan risiko pandemik yang disebabkan oleh manusia sebanyak lima kali ganda. (Forecasting Research Institute merancang untuk meninjau semula pakar yang sama pada masa hadapan untuk menjejaki sama ada pandangan mereka tentang risiko telah meningkat seperti yang mereka katakan, tetapi menyatakan penyelidikan ini akan mengambil masa berbulan-bulan untuk disiapkan.)
Sudah tentu, terdapat beberapa sebab untuk ragu-ragu terhadap hasil ini. Ramalan adalah sains yang tidak tepat, dan amat sukar untuk meramalkan dengan tepat kemungkinan peristiwa yang sangat jarang berlaku. Peramal dalam kajian ini juga mendedahkan kekurangan pemahaman tentang kadar kemajuan AI. (Sebagai contoh, apabila ditanya, kebanyakan mengatakan mereka tidak menjangkakan AI akan mengatasi prestasi manusia dalam ujian virologi sehingga selepas 2030, manakala ujian Donoughe menunjukkan tahap itu telah dicapai.) Tetapi walaupun nombor itu sendiri diambil dengan berhati-hati, penulis kertas itu berhujah, hasilnya secara keseluruhan masih menunjukkan arah yang membimbangkan. “Nampaknya keupayaan AI jangka terdekat boleh meningkatkan risiko wabak yang disebabkan oleh manusia secara bermakna,” kata Josh Rosenberg, Ketua Pegawai Eksekutif Forecasting Research Institute.
Kajian itu juga mengenal pasti cara-cara mengurangkan risiko senjata biologi yang ditimbulkan oleh AI. Mitigasi tersebut secara amnya terbahagi kepada dua kategori.
Kategori pertama ialah perlindungan di peringkat model. Dalam temu bual, penyelidik mengalu-alukan usaha oleh syarikat seperti OpenAI dan Anthropic untuk menghalang AI mereka daripada bertindak balas kepada arahan yang bertujuan membina senjata biologi. Kertas itu juga mengenal pasti pembatasan penyebaran “” model, dan menambah perlindungan terhadap model yang , sebagai langkah yang berkemungkinan mengurangkan risiko AI digunakan untuk memulakan pandemik.
Kategori kedua langkah perlindungan melibatkan pengenaan sekatan ke atas syarikat-syarikat yang mensintesis asid nukleik. Pada masa ini, adalah mungkin untuk menghantar kod genetik kepada salah satu syarikat ini, dan menerima bahan biologi yang sepadan dengan kod tersebut. Hari ini, syarikat-syarikat ini tidak diwajibkan oleh undang-undang untuk menyaring kod genetik yang mereka terima sebelum mensintesisnya. Itu berpotensi berbahaya kerana bahan genetik sintetik ini boleh digunakan untuk mencipta patogen pesanan mel. Penulis kertas itu mengesyorkan makmal menyaring jujukan genetik mereka untuk memeriksa kemudaratannya, dan untuk makmal melaksanakan prosedur “kenali pelanggan anda”.
Secara keseluruhan, semua perlindungan ini—jika dilaksanakan—boleh menurunkan semula risiko pandemik yang didayakan AI kepada 0.4%, kata purata peramal. (Hanya sedikit lebih tinggi daripada garis dasar 0.3% di mana mereka percaya dunia berada sebelum mereka mengetahui AI hari ini boleh membantu mencipta senjata biologi.)
“Secara amnya, nampaknya ini adalah kawasan risiko baharu yang patut diberi perhatian,” kata Rosenberg. “Tetapi ada respons dasar yang baik untuknya.”
Artikel ini disediakan oleh pembekal kandungan pihak ketiga. SeaPRwire (https://www.seaprwire.com/) tidak memberi sebarang waranti atau perwakilan berkaitan dengannya.
Sektor: Top Story, Berita Harian
SeaPRwire menyampaikan edaran siaran akhbar secara masa nyata untuk syarikat dan institusi, mencapai lebih daripada 6,500 kedai media, 86,000 penyunting dan wartawan, dan 3.5 juta desktop profesional di seluruh 90 negara. SeaPRwire menyokong pengedaran siaran akhbar dalam bahasa Inggeris, Korea, Jepun, Arab, Cina Ringkas, Cina Tradisional, Vietnam, Thai, Indonesia, Melayu, Jerman, Rusia, Perancis, Sepanyol, Portugis dan bahasa-bahasa lain.