
(SeaPRwire) – Pada tahun 2025, salah faham tentang AI berkembang pesat kerana orang ramai bergelut untuk memahami perkembangan dan penggunaan teknologi ini yang pesat. Berikut adalah tiga salah faham popular yang perlu ditinggalkan pada Tahun Baru.
Model AI Menghadapi Halangan
Apabila GPT-5 dikeluarkan pada bulan Mei, orang ramai bertanya (bukan untuk kali pertama) sama ada AI menghadapi halangan. Walaupun peningkatan nama yang ketara, peningkatan kelihatan kecil. The New Yorker menerbitkan artikel bertajuk, “What if A.I. Doesn’t Get Much Better Than This?” yang mendakwa bahawa GPT-5 adalah “produk terkini yang menunjukkan bahawa kemajuan model bahasa besar telah terhenti.”
Tidak lama kemudian terbukti bahawa, walaupun peristiwa penamaan, GPT-5 sebahagian besar adalah latihan untuk menyampaikan prestasi pada kos yang lebih rendah. Lima bulan kemudian, OpenAI, Google, dan Anthropic semua telah mengeluarkan model yang menunjukkan peningkatan ketara dalam tugas-tugas yang bernilai ekonomi. “Berlawanan dengan kepercayaan popular bahawa penskalaan telah berakhir,” lonjakan prestasi dalam model terbaru Google adalah “sebesar yang pernah kita lihat,” kata Ketua Pasukan Pembelajaran Mendalam Google DeepMind, Oriol Vinyals, selepas Gemini 3 dikeluarkan. “Tiada halangan dalam pandangan.”
Terdapat sebab untuk bertanya bagaimana tepatnya model AI akan meningkat. Dalam domain di mana mendapatkan data untuk latihan adalah mahal—contohnya dalam menyebarkan ejen AI sebagai pembeli peribadi—kemajuan mungkin perlahan. “Mungkin AI akan terus menjadi lebih baik dan mungkin AI akan terus lemah dalam cara yang penting,” kata Helen Toner, Pengarah Eksekutif Interim di Center for Security and Emerging Technology. Tetapi idea bahawa kemajuan terhenti adalah sukar untuk dibuktikan.
Kenderaan Autonomus Lebih Berbahaya Daripada Pemandu Manusia
Apabila AI yang menggerakkan chatbot gagal berfungsi, biasanya bermakna seseorang membuat kesalahan pada mereka, atau salah menulis bilangan “r” dalam “strawberry.” Apabila AI yang menggerakkan kenderaan autonomus gagal berfungsi, orang ramai boleh cedera. Tidak hairanlah ramai yang ragu-ragu untuk mencuba teknologi baru ini.
Di U.K., tinjauan terhadap 2,000 orang dewasa mendapati bahawa hanya 22% berasa selamat mengembara dalam kenderaan tanpa pemandu. Di Amerika Syarikat, peratusan itu adalah 13%. Pada bulan Oktober, Waymo melanggar seekor kucing di San Francisco, mencetuskan kemarahan.
Namun, terdapat banyak kali kenderaan autonomus terbukti lebih selamat daripada pemandu manusia, menurut analisis data tentang 100 juta batu kenderaan tanpa pemandu daripada Waymo. Kenderaan Waymo terlibat dalam kemalangan yang menyebabkan kecederaan hampir lima kali lebih sedikit dan 11 kali lebih sedikit kemalangan yang menyebabkan “kecederaan serius atau lebih teruk” berbanding pemandu manusia.
AI Tidak Boleh Mencipta Pengetahuan Baru
Pada tahun 2013, Sébastien Bubeck, seorang matematik, menerbitkan kertas kerja dalam jurnal bergengsi tentang teori grafik. “Kami meninggalkan beberapa soalan terbuka, dan kemudian saya bekerja pada mereka dengan pelajar pascasiswazah di Princeton,” kata Bubeck, yang kini merupakan penyelidik di OpenAI. “Kami menyelesaikan kebanyakan soalan terbuka, kecuali satu.” Selepas lebih daripada sepuluh tahun, Bubeck memberikan masalah itu kepada sistem yang dibina berdasarkan GPT-5.
“Kami membiarkannya berfikir selama dua hari,” katanya. “Terdapat identiti ajaib di sana yang ditemui oleh model, dan ia sebenarnya menyelesaikan masalah itu.”
Pengkritik telah berhujah bahawa model bahasa besar, seperti GPT-5, tidak boleh menghasilkan apa-apa yang asal, dan hanya meniru maklumat yang mereka latih—mendapatkan LLMs nama samar yang ironik “.” Pada bulan Jun, Apple menerbitkan kertas kerja yang mendakwa menunjukkan bahawa sebarang keupayaan penaakulan pada bahagian LLMs adalah “ilusi.”
Adalah jelas bahawa cara LLMs menjana respons mereka berbeza daripada penaakulan manusia. Mereka gagal mentafsir rajah ringkas, walaupun mereka memenangi pingat emas dalam pertandingan utama dan pertandingan, dan “secara autonomus” menghasilkan “konstruksi matematik baru.” Tetapi bergelut dengan tugas mudah nampaknya tidak menghalang mereka daripada menghasilkan idea yang berguna dan kompleks.
“LLMs pasti boleh melaksanakan urutan langkah logik untuk menyelesaikan masalah yang memerlukan deduksi dan induksi,” kata Dan Hendrycks, Pengarah Eksekutif Center for AI Safety kepada TIME. “Sama ada seseorang memilih untuk menamakan proses itu ‘penaakulan’ atau sesuatu yang lain adalah antara mereka dan kamus mereka.”
Artikel ini disediakan oleh pembekal kandungan pihak ketiga. SeaPRwire (https://www.seaprwire.com/) tidak memberi sebarang waranti atau perwakilan berkaitan dengannya.
Sektor: Top Story, Berita Harian
SeaPRwire menyampaikan edaran siaran akhbar secara masa nyata untuk syarikat dan institusi, mencapai lebih daripada 6,500 kedai media, 86,000 penyunting dan wartawan, dan 3.5 juta desktop profesional di seluruh 90 negara. SeaPRwire menyokong pengedaran siaran akhbar dalam bahasa Inggeris, Korea, Jepun, Arab, Cina Ringkas, Cina Tradisional, Vietnam, Thai, Indonesia, Melayu, Jerman, Rusia, Perancis, Sepanyol, Portugis dan bahasa-bahasa lain.