(SeaPRwire) – Hanya seminggu sebelum dunia , penunjuk perasaan gerakan kecil tetapi berkembang yang dipanggil “Pause AI” menuntut supaya kerajaan-kerajaan di seluruh dunia mengawal syarikat-syarikat AI dan membekukan pembangunan model kecerdasan buatan terkini yang menggunakan teknologi puncak. Mereka berkata bahawa pembangunan model-model ini hanya dibenarkan untuk diteruskan jika syarikat-syarikat bersetuju untuk membenarkan model-model tersebut diaudit.
Di London, kumpulan 20 orang penunjuk perasaan berdiri di luar Jabatan Sains, Inovasi dan Teknologi UK menjerit perkara seperti “hentikan perlumbaan, ia tidak selamat” dan “siapa masa depan? masa depan kita” dengan harapan menarik perhatian pembuat dasar. Penunjuk perasaan berkata matlamat mereka adalah untuk memaksa kerajaan mengawal syarikat-syarikat yang membangunkan model kecerdasan buatan puncak, termasuk Chat GPT milik OpenAI. Mereka berkata syarikat-syarikat tidak mengambil langkah berjaga-jaga yang mencukupi untuk memastikan model AI mereka selamat untuk dilancarkan ke dunia.
“[Syarikat-syarikat AI] telah membuktikan sekali lagi… melalui cara pekerja-pekerja syarikat itu dilayan, dengan cara mereka melayan kerja orang lain dengan secara haram mengambilnya dan melemparkannya ke dalam model mereka, mereka telah membuktikan bahawa mereka tidak boleh dipercayai,” kata Gideon Futerman, pelajar sarjana muda dari Oxford yang memberikan ucapan di tunjuk perasaan itu.
Seorang penunjuk perasaan, Tara Steele, seorang penulis bebas yang bekerja pada blog dan kandungan SEO, berkata bahawa dia telah melihat teknologi itu memberi kesan kepada sumber pendapatannya sendiri. “Saya telah melihat sejak ChatGPT dilancarkan, permintaan untuk kerja kontrak secara dramatik berkurangan,” katanya. “Saya benar-benar suka menulis secara peribadi… Saya benar-benar suka. Dan ia agak menyedihkan, secara emosi.”
Dia berkata bahawa sebab utama beliau menunjuk perasaan adalah kerana dia bimbang akan terdapat akibat yang lebih berbahaya yang akan timbul daripada model kecerdasan buatan puncak di masa hadapan. “Kami mempunyai sekumpulan pakar yang berkelayakan dan berpengetahuan tinggi, pemenang Anugerah Turing, penyelidik AI yang banyak dikutip, dan CEO syarikat-syarikat AI itu sendiri [mengatakan bahawa AI boleh menjadi sangat berbahaya].” (Anugerah Turing ialah anugerah tahunan yang dianugerahkan kepada saintis komputer untuk sumbangan penting kepada subjek itu, dan kadang-kadang dirujuk sebagai “Hadiah Nobel” komputasi.)
Dia terutamanya bimbang dengan bilangan pakar yang meningkat yang memberi amaran bahawa sistem AI yang tidak dikawal dengan betul boleh membawa kepada akibat membinasakan. Satu laporan yang dikomisenkan oleh kerajaan AS, diterbitkan pada bulan Mac, memberi amaran bahawa “kebangkitan AI maju dan AGI [kecerdasan buatan umum] mempunyai potensi untuk mengganggu keselamatan global secara menyerupai pengenalan senjata nuklear.” Pada masa ini, makmal AI terbesar sedang cuba membina sistem yang mampu mengatasi manusia dalam hampir setiap tugas, termasuk perancangan jangka panjang dan pemikiran kritikal. Jika berjaya, semakin banyak aspek aktiviti manusia boleh diautomasikan, daripada perkara remeh seperti membeli-belah dalam talian, sehingga pengenalan sistem senjata autonomi yang boleh bertindak dalam cara yang kita tidak dapat meramalkan. Ini boleh membawa kepada “perlumbaan senjata” yang meningkatkan kebarangkalian “kemalangan global dan WMD [senjata pemusnahan besar-besaran] skala fatal, konflik antara negara, dan eskalasi,” .
Pakar masih tidak memahami operasi dalaman sistem AI seperti Chat GPT, dan mereka bimbang bahawa dalam sistem yang lebih maju, kekurangan pengetahuan kita boleh membawa kita menganggarkan dengan salah bagaimana sistem yang lebih kuat akan bertindak. Bergantung kepada sejauh mana sistem AI disatukan ke dalam kehidupan manusia, mereka boleh menimbulkan kekacauan, dan mendapat kawalan sistem senjata berbahaya, membuat ramai pakar bimbang tentang kemungkinan . “Amaran-amaran itu tidak sampai kepada orang awam, dan mereka perlu mengetahuinya,” katanya.
Pada masa ini, pakar pembelajaran mesin agak berpecah pendapat tentang betapa berisikonya pembangunan selanjutnya teknologi kecerdasan buatan. Dua daripada tiga bapa pembelajaran mendalam, satu jenis pembelajaran mesin yang membolehkan sistem AI lebih baik menyimulasikan proses membuat keputusan otak manusia, Geoffrey Hinton dan Yoshua Bengio, telah menyatakan secara awam bahawa mereka percaya terdapat risiko teknologi itu boleh membawa kepada kepupusan manusia.
Bapa ketiga, Yann LeCun, yang juga Ketua Saintis AI Meta, tidak bersetuju dengan dua orang yang lain dengan tegas. Beliau berpendapat bahawa “AI akan membawa banyak manfaat kepada dunia. Tetapi orang-orang mengeksploitasi ketakutan tentang teknologi itu, dan kita berisiko menakut-nakutkan orang daripadanya.”
Anthony Bailey, penunjuk perasaan Pause AI yang lain, berkata walaupun dia memahami terdapat manfaat yang boleh datang daripada sistem AI baharu, dia bimbang syarikat-syarikat teknologi akan dipacu untuk membina teknologi yang mudah hilang kawalan oleh manusia, kerana teknologi ini juga mempunyai potensi keuntungan yang besar. “Itulah benda-benda bernilai ekonomi. Itulah jenis modul yang secara semula jadi akan dibina jika orang tidak dibujuk bahawa ia berbahaya.”
Artikel ini disediakan oleh pembekal kandungan pihak ketiga. SeaPRwire (https://www.seaprwire.com/) tidak memberi sebarang waranti atau perwakilan berkaitan dengannya.
Sektor: Top Story, Berita Harian
SeaPRwire menyampaikan edaran siaran akhbar secara masa nyata untuk syarikat dan institusi, mencapai lebih daripada 6,500 kedai media, 86,000 penyunting dan wartawan, dan 3.5 juta desktop profesional di seluruh 90 negara. SeaPRwire menyokong pengedaran siaran akhbar dalam bahasa Inggeris, Korea, Jepun, Arab, Cina Ringkas, Cina Tradisional, Vietnam, Thai, Indonesia, Melayu, Jerman, Rusia, Perancis, Sepanyol, Portugis dan bahasa-bahasa lain.