Seorang wanita muda memandang kandungan di telefon bimbitnya.

(SeaPRwire) –   “Kami terserempak dengan posting anda…dan kelihatan anda sedang menghadapi masa-masa sukar,” mesej itu bermula. “Kami di sini untuk berkongsi bahan dan sumber yang mungkin membawa anda beberapa ketenangan.” Pautan ke talian bantuan kecemasan bunuh diri, perkhidmatan chat 24/7, dan kisah orang yang mengatasi krisis kesihatan mental menyusul. “Mengirim anda pelukan maya,” mesej itu berakhir.

Nota ini, dihantar sebagai mesej peribadi di Reddit oleh syarikat kecerdasan buatan (AI) , mewakili apa yang beberapa penyelidik katakan adalah alat yang menjanjikan untuk melawan bunuh diri di Amerika Syarikat, yang menuntut hampir 50,000 nyawa setahun. Syarikat seperti Samurai menggunakan AI untuk menganalisis posting media sosial untuk tanda-tanda niat bunuh diri, kemudian campur tangan melalui strategi seperti mesej terus.

Ada satu ironi tertentu untuk memanfaatkan media sosial untuk pencegahan bunuh diri, kerana ia sering disalahkan untuk krisis kesihatan mental dan bunuh diri di AS. Tetapi beberapa penyelidik percaya ada janji sebenar dalam pergi terus ke sumber untuk “mengesan mereka yang dalam kesusahan secara nyata dan memecahkan jutaan kepingan kandungan,” kata pengasas Samurai Patrycja Tempska.

Samurai bukanlah satu-satunya syarikat yang menggunakan AI untuk mencari dan mencapai orang yang berisiko tinggi. Syarikat mengatakan model AI-nya setiap hari menandakan lebih daripada 400 posting media sosial yang membayangkan niat bunuh diri. Dan Meta, syarikat induk Facebook dan Instagram, atau tingkah laku melayari yang mencadangkan seseorang sedang memikirkan tentang bunuh diri. Jika seseorang berkongsi atau mencari kandungan berkaitan bunuh diri, platform itu mendorong melalui mesej dengan maklumat tentang seperti Talian Krisis Bunuh Diri dan Kecemasan—atau, jika pasukan Meta menganggap perlu, pemanggil kecemasan dipanggil.

Di bawah pendekatan ini adalah idea bahawa algoritma mungkin dapat melakukan sesuatu yang secara tradisi telah menyusahkan manusia: menentukan siapa yang berisiko melakukan kecederaan diri supaya mereka dapat mendapatkan bantuan sebelum terlambat. Tetapi beberapa pakar mengatakan pendekatan ini—walaupun menjanjikan—belum siap untuk tayangan perdana.

“Kami sangat bersyukur bahawa pencegahan bunuh diri telah memasuki kesadaran masyarakat secara umum. Ini benar-benar penting,” kata Dr. Christine Moutier, ketua pegawai perubatan Yayasan Pencegahan Bunuh Diri Amerika (AFSP). “Tetapi banyak alat telah dikeluarkan tanpa mengkaji hasil sebenar.”


Ramalkan siapa yang berkemungkinan akan cuba bunuh diri adalah sukar bahkan untuk pakar manusia yang paling terlatih, kata Dr. Jordan Smoller, pengarah bersama Pusat Penyelidikan dan Pencegahan Bunuh Diri Mass General Brigham dan Universiti Harvard. Terdapat faktor risiko yang diketahui oleh pakar klinikal untuk mencari pada pesakit mereka—diagnosis psikiatrik tertentu, mengalami peristiwa traumatik, —tetapi bunuh diri adalah “sangat kompleks dan heterogen,” kata Smoller. “Terdapat banyak keragaman dalam apa yang membawa kepada kecederaan diri,” dan hampir tidak pernah ada pemicu tunggal.

Harapannya adalah bahawa AI, dengan keupayaannya untuk menyisihkan melalui jumlah data yang besar, dapat mengesan corak dalam ucapan dan penulisan yang tidak akan pernah dikesan oleh manusia, kata Smoller. Dan ada sains untuk menyokong harapan itu.

Lebih daripada satu dasawarsa lalu, John Pestian, pengarah Pusat Perubatan Komputasi di Hospital Kanak-Kanak Cincinnati, menunjukkan bahawa dengan ketepatan lebih baik daripada pakar klinikal manusia—penemuan yang menyoroti potensi AI untuk mengesan niat bunuh diri dalam teks. Sejak itu, bahawa AI boleh mengesan niat bunuh diri dalam posting media sosial di pelbagai platform.

Syarikat seperti Samurai Labs sedang meletakkan penemuan itu ke ujian. Dari Januari hingga November 2023, model Samurai mengesan lebih daripada 25,000 posting Reddit yang berpotensi bunuh diri, menurut data syarikat yang dikongsi dengan TIME. Kemudian manusia yang menyelia proses itu memutuskan sama ada pengguna harus diberi mesej dengan arahan tentang cara mendapatkan bantuan. Kira-kira 10% orang yang menerima mesej ini menghubungi talian bantuan bunuh diri, dan wakil syarikat bekerja dengan pihak penyelamat untuk menyelesaikan empat penyelamatan secara berhadapan. (Samurai tidak mempunyai kerjasama rasmi dengan Reddit, tetapi menggunakan teknologinya sendiri untuk secara bebas menganalisis posting di platform itu. Reddit menggunakan ciri pencegahan bunuh diri lain, seperti satu yang membenarkan pengguna .)

Pengasas bersama Michal Wroczynski menambah bahawa campur tangan Samurai mungkin mempunyai manfaat tambahan yang lebih sukar ditelusuri. Beberapa orang mungkin telah memanggil talian bantuan kemudian, contohnya, atau sekadar mendapat manfaat daripada rasa bahawa ada orang yang peduli tentang mereka. “Ini membawa air mata ke mata saya,” tulis seseorang dalam mesej yang dikongsi dengan TIME. “Ada seseorang yang peduli cukup untuk risau tentang saya?”

Apabila seseorang dalam krisis kesihatan mental akut, pengalihan—seperti membaca mesej yang muncul di skrin mereka—boleh menyelamatkan nyawa, kerana ia menyentak mereka keluar daripada gelombang pemikiran merosakkan, kata Moutier. Tetapi, kata Pestian, penting bagi syarikat untuk mengetahui apa yang boleh dan tidak boleh dilakukan AI dalam masa kesusahan.

Perkhidmatan yang menyambung pengguna media sosial dengan sokongan manusia boleh berkesan, kata Pestian. “Jika anda mempunyai kawan, mereka mungkin akan berkata, ‘Biarkan saya mengantar anda ke hospital,'” katanya. “AI boleh menjadi kereta yang mengantar orang itu ke penjagaan.” Apa yang lebih berisiko, menurut pendapatnya, adalah “membenarkan AI melakukan penjagaan” dengan melatihnya untuk meniru aspek terapi, . Seorang lelaki di Belgium selepas bercakap dengan bot cerita yang menggalakkan—satu contoh tragis had kemampuan teknologi.

Selain daripada isu ketepatan yang berpotensi, terdapat juga isu-isu etika dan privasi yang dimainkan. Pengguna media sosial mungkin tidak mengetahui bahawa posting mereka dianalisis atau mahu mereka dianalisis, kata Smoller. Ini mungkin relevan terutamanya untuk ahli-ahli masyarakat yang diketahui berisiko tinggi bunuh diri, , yang diberi amaran berlebihan oleh sistem pengawasan AI ini, seperti yang ditunjukkan oleh pasukan penyelidik .

Dan, kemungkinan bahawa kebimbangan bunuh diri boleh dinaik taraf kepada pihak polis atau pekerja kecemasan bermakna pengguna “mungkin ditahan, disoalsiasi, dirawat di hospital, dan dirawat terhadap kehendak mereka,” pakar undang-undang kesihatan Mason Marks .

Moutier, dari AFSP, berkata terdapat cukup janji dalam AI untuk pencegahan bunuh diri untuk terus mengkajinya. Tetapi sementara itu, beliau berkata beliau ingin melihat platform media sosial mengambil keseriusan kesihatan mental pengguna sebelum mencapai tahap krisis. Platform boleh melakukan lebih untuk mencegah orang daripada terdedah kepada imej mengganggu, membangunkan imej badan yang buruk, dan membandingkan diri dengan orang lain, katanya. Mereka juga boleh mempromosikan kisah-kisah harapan daripada orang yang pulih dari krisis kesihatan mental dan sumber sokongan untuk orang yang sedang (atau mempunyai orang yang dicintai yang sedang) berjuang, tambahnya.

Sebahagian daripada kerja itu sedang berjalan. Meta mengeluarkan atau menambah amaran ke lebih daripada 12 juta posting berkaitan bunuh diri diri dari Julai hingga September tahun lalu dan . TikTok juga telah mengambil langkah untuk dan untuk memblok pengguna yang mencari posting berkaitan bunuh diri daripada melihatnya.

Tetapi, seperti yang didedahkan dalam perbicaraan Senat baru-baru ini dengan CEO Meta, TikTok, X, Snap, dan Discord, masih terdapat .

Algoritma yang campur tangan apabila mengesan seseorang dalam kesusahan “memberi tumpuan kepada saat risiko akut paling hilir,” kata Moutier. “Dalam pencegahan bunuh diri, itu adalah sebahagian daripadanya, tetapi itu bukan keseluruhan daripadanya.” Dalam dunia ideal, tiada seorang pun akan mencapai saat itu sama sekali.

Jika anda atau seseorang yang anda kenali mungkin mengalami krisis kesihatan mental atau memikirkan bunuh diri, panggil atau teks 988. Dalam kecemasan, hubungi 999.

Artikel ini disediakan oleh pembekal kandungan pihak ketiga. SeaPRwire (https://www.seaprwire.com/) tidak memberi sebarang waranti atau perwakilan berkaitan dengannya.

Sektor: Top Story, Berita Harian

SeaPRwire menyampaikan edaran siaran akhbar secara masa nyata untuk syarikat dan institusi, mencapai lebih daripada 6,500 kedai media, 86,000 penyunting dan wartawan, dan 3.5 juta desktop profesional di seluruh 90 negara. SeaPRwire menyokong pengedaran siaran akhbar dalam bahasa Inggeris, Korea, Jepun, Arab, Cina Ringkas, Cina Tradisional, Vietnam, Thai, Indonesia, Melayu, Jerman, Rusia, Perancis, Sepanyol, Portugis dan bahasa-bahasa lain.