(SeaPRwire) –   Ketua saintis AI Meta, , menerima penghargaan lain untuk ditambah ke senarai panjang pencapaian beliau pada Ahad, apabila beliau dianugerahkan dengan Anugerah TIME100 Impak untuk sumbangannya kepada dunia kecerdasan buatan.

Sebelum majlis anugerah berlangsung di Dubai, LeCun duduk bersama TIME untuk membincangkan halangan untuk mencapai “kecerdasan umum buatan” (AGI), kebaikan pendekatan sumber terbuka Meta, dan apa yang dilihatnya sebagai dakwaan “konyol” bahawa AI boleh membawa risiko kemusnahan kepada manusia.

TIME berbual dengan LeCun pada 26 Jan. Perbualan ini telah disingkatkan dan diedit untuk kejelasan.

Ramai orang dalam dunia teknologi hari ini percaya bahawa melatih model bahasa besar (LLM) dengan lebih kuasa pemprosesan dan lebih data akan membawa kepada kecerdasan buatan umum. Adakah anda bersetuju?

Ia amat menakjubkan bagaimana [LLM] berfungsi, jika dilatih pada skala besar, tetapi ia sangat terhad. Kami lihat hari ini bahawa sistem sedemikian membayangkan, mereka tidak benar-benar memahami dunia sebenar. Mereka memerlukan jumlah data yang besar untuk mencapai tahap kecerdasan yang tidak begitu hebat pada akhirnya. Dan mereka tidak boleh benar-benar berfikir. Mereka tidak boleh merancang apa-apa selain perkara yang telah dilatih. Jadi mereka bukan jalan ke arah apa yang orang panggil “AGI.” Saya benci istilah itu. Mereka berguna, tiada keraguan. Tetapi mereka bukan jalan ke arah kecerdasan tahap manusia.

Anda menyebut bahawa anda membenci akronim “AGI.” Ia merupakan istilah yang digunakan oleh Mark Zuckerberg pada Januari, apabila beliau mengumumkan bahawa Meta menumpukan ke arah pembinaan kecerdasan umum buatan sebagai salah satu matlamat utama organisasi mereka.

Terdapat banyak ketakfahaman di sini. Jadi misi FAIR [pasukan penyelidikan asas AI Meta] adalah kecerdasan tahap manusia. Kapal ini telah berlayar, ia adalah pertempuran yang saya kalahkan, tetapi saya tidak suka memanggilnya AGI kerana kecerdasan manusia tidak umum sama sekali. Terdapat ciri-ciri yang mempunyai makhluk yang berakal yang tiada sistem AI hari ini, seperti memahami dunia fizikal; merancang rentetan tindakan untuk mencapai matlamat; berfikir cara yang boleh mengambil masa yang lama. Manusia, haiwan, mempunyai bahagian khusus otak kami yang kami gunakan sebagai ingatan kerja. LLM tidak mempunyai itu.

Seorang bayi mempelajari bagaimana dunia berfungsi dalam beberapa bulan pertama kehidupan. Kami tidak tahu bagaimana melakukan ini [dengan AI]. Sekali kami mempunyai teknik untuk mempelajari “model dunia” hanya dengan menonton dunia berlalu, dan menggabungkan ini dengan teknik perancangan, dan mungkin menggabungkan ini dengan sistem ingatan jangka pendek, maka kita mungkin mempunyai jalan ke arah, bukan kecerdasan umum, tetapi mari kita katakan tahap kecerdasan kucing. Sebelum kita mencapai tahap manusia, kita akan perlu melalui bentuk kecerdasan yang lebih mudah. Dan kita masih sangat jauh daripada itu.

Dalam beberapa cara, metafora itu memberi makna, kerana kucing boleh memandang ke dunia luar dan mempelajari perkara yang model bahasa besar tahap terkini secara sederhana tidak boleh. Tetapi kemudian, sejarah pengetahuan manusia yang disusun sepenuhnya tidak tersedia untuk kucing. Sejauh mana metafora itu terhad?

Tetapi apa yang anda katakan salah. Kebanyakan pengetahuan manusia tidak diekspresikan dalam teks. Ia berada dalam bahagian tidak sedar fikiran anda, yang anda pelajari dalam setahun pertama kehidupan sebelum anda boleh bercakap. Kebanyakan pengetahuan benar-benar mempunyai kaitan dengan pengalaman kami tentang dunia dan bagaimana ia berfungsi. Itulah yang kami panggil common sense. LLM tidak mempunyai itu, kerana mereka tidak mempunyai akses kepada ia. Dan jadi mereka boleh membuat kesilapan yang sangat bodoh. Itulah asalnya hallusinasi datang. Perkara yang kita ambil sepenuhnya untuk diberi tahu ternyata sangat rumit bagi komputer untuk menghasilkan semula.

Bicara tentang sumber terbuka. Anda telah menjadi penyokong besar penyelidikan terbuka sepanjang kerjaya anda, dan Meta telah mengambil polisi untuk menyumberterbukakan model bahasa besar paling kuat mereka, baru-baru ini . Strategi ini menetapkan Meta berbeza daripada Google dan Microsoft, yang tidak melepaskan berat model terkuat mereka. Adakah anda fikir pendekatan Meta akan terus sesuai apabila AI mereka menjadi semakin kuat, bahkan menghampiri kecerdasan tahap manusia?

Jawapan pertama adalah ya. Dan sebabnya adalah, di masa hadapan, interaksi semua orang dengan dunia digital, dan dunia pengetahuan secara umum, akan disediakan oleh sistem AI. Mereka akan secara praktikal memainkan peranan sebagai pembantu manusia yang akan bersama kita setiap masa. Kita tidak akan menggunakan enjin carian. Kita hanya akan bertanya soalan kepada pembantu kami, dan ia akan membantu kami dalam kehidupan seharian. Jadi diet maklumat kami sepenuhnya akan disediakan oleh sistem ini. Mereka akan menjadi simpanan semua pengetahuan manusia. Dan anda tidak boleh bergantung kepada sistem tertutup eksklusif, terutamanya mengambil kira keragaman bahasa, budaya, nilai, pusat minat di seluruh dunia. Ia seperti anda kata, bolehkah entiti komersial, di bahagian barat pantai Amerika Syarikat, menghasilkan Wikipedia? Tidak. Wikipedia disumbangkan secara kerumunan kerana ia berfungsi. Jadi ia akan menjadi yang sama untuk sistem AI, mereka akan perlu dilatih, atau sekurang-kurangnya ditambah baik, dengan bantuan semua orang di seluruh dunia. Dan orang hanya akan melakukan ini jika mereka boleh memberikan sumbangan ke platform terbuka yang luas. Mereka tidak akan melakukan ini untuk sistem eksklusif.

Satu kritikan yang sering didengari ialah sumber terbuka boleh membenarkan alat yang sangat kuat jatuh ke tangan orang yang akan menyalahgunakannya. Dan jika terdapat tahap ketidaksamaan dalam kuasa serangan berbanding kuasa pertahanan, maka ini boleh menjadi sangat bahaya bagi masyarakat secara umum. Apa yang membuat anda yakin ini tidak akan berlaku?

Terdapat banyak perkara yang dikatakan tentang ini yang sebenarnya fantasi lengkap. Terdapat satu kajian yang baru diterbitkan oleh RAND Corporation di mana mereka mengkaji, dengan sistem semasa, berapa mudah ia membuat [ia] untuk orang yang berminat jahat untuk datang dengan resipi untuk senjata biologi? Dan jawapannya adalah: ia tidak. Sebabnya kerana sistem semasa benar-benar tidak bijak. Mereka dilatih pada data awam. Jadi dasarnya, mereka tidak boleh mencipta perkara baru. Mereka akan mengulangi kira-kira apa sahaja yang dilatih pada data awam, yang bermakna anda boleh mendapatkannya dari Google. Orang telah berkata, “Oh Tuhan, kita perlu mengawal selia LLM kerana mereka akan menjadi sangat berbahaya.” Itu hanyalah tidak benar.

Artikel ini disediakan oleh pembekal kandungan pihak ketiga. SeaPRwire (https://www.seaprwire.com/) tidak memberi sebarang waranti atau perwakilan berkaitan dengannya.

Sektor: Top Story, Berita Harian

SeaPRwire menyampaikan edaran siaran akhbar secara masa nyata untuk syarikat dan institusi, mencapai lebih daripada 6,500 kedai media, 86,000 penyunting dan wartawan, dan 3.5 juta desktop profesional di seluruh 90 negara. SeaPRwire menyokong pengedaran siaran akhbar dalam bahasa Inggeris, Korea, Jepun, Arab, Cina Ringkas, Cina Tradisional, Vietnam, Thai, Indonesia, Melayu, Jerman, Rusia, Perancis, Sepanyol, Portugis dan bahasa-bahasa lain. 

Sekarang, sistem masa depan adalah cerita berbeza. Jadi mungkin sekali kita mendapat sistem yang sangat bijak, mereka akan membantu sains, mereka akan membantu perubatan, mereka akan membantu perniagaan, mereka akan memadamkan halangan budaya dengan membenarkan terjemahan serentak. Jadi ada banyak manfaat. Jadi ada analisis risiko-manfaat, yang adalah: adakah ia produktif untuk cuba mengekalkan teknologi di bawah kawalan, dengan harapan bahawa orang jahat tidak akan mendapatkannya