(SeaPRwire) – Bolehkah AI digunakan untuk menjadikan sistem keadilan jenayah lebih adil dan cekap, atau adakah ia hanya akan mengukuhkan berat sebelah yang berbahaya? Pakar mengatakan bahawa ia setakat ini telah digunakan dengan cara yang membimbangkan—tetapi terdapat potensi untuk impak positif.
Hari ini, teknologi AI telah mencapai hampir setiap aspek sistem keadilan jenayah. Ia sedang digunakan dalam sistem pengecaman wajah untuk mengenal pasti suspek; dalam strategi “kepolisan prediktif” untuk merumuskan laluan rondaan; di bilik mahkamah untuk membantu pengurusan kes; dan oleh pembela awam untuk menapis bukti. Tetapi sementara penyokong menunjukkan peningkatan dalam kecekapan dan keadilan, pengkritik menimbulkan soalan serius mengenai privasi dan akauntabiliti.
Bulan lepas, Council on Criminal Justice melancarkan pasukan petugas bukan partisan mengenai AI, untuk mengkaji bagaimana AI boleh digunakan dalam sistem keadilan jenayah dengan selamat dan beretika. Kerja kumpulan itu akan disokong oleh penyelidik di RAND, dan mereka akhirnya akan mengambil penemuan mereka dan membuat cadangan kepada pembuat dasar dan penguatkuasaan undang-undang.
“Tidak ada persoalan bahawa AI boleh menghasilkan keputusan yang tidak adil,” kata Nathan Hecht, pengerusi pasukan petugas dan bekas Ketua Hakim Mahkamah Agung Texas. “Pasukan petugas ini ingin mengumpulkan orang teknologi, orang keadilan jenayah, orang komuniti, pakar dalam pelbagai bidang yang berbeza, dan benar-benar duduk untuk melihat bagaimana kita boleh menggunakannya untuk menjadikan sistem lebih baik dan tidak menyebabkan kemudaratan yang mampu dilakukannya.”
Risiko AI dalam penguatkuasaan undang-undang
Banyak mahkamah dan jabatan polis sudah menggunakan AI, kata Hecht. “Ia sangat berperingkat: Orang yang ingin tahu pergi, ‘Oh, wow, ada AI di luar sana, kita boleh menggunakannya di mahkamah jenayah.”
Tetapi kerana terdapat sedikit piawaian tentang cara menggunakan AI, pemerhati hak sivil telah menjadi bimbang bahawa agensi penguatkuasaan undang-undang menggunakannya dengan cara yang berbahaya. Beribu-ribu agensi telah bergantung pada teknologi pengecaman wajah yang dijual oleh syarikat seperti Clearview, yang menjadi hos pangkalan data berbilion-bilion imej yang dikikis dari internet. Dalam banyak pangkalan data, orang kulit hitam terlalu diwakili, sebahagiannya kerana mereka tinggal di komuniti yang terlampau dikawal. Teknologi AI juga lemah dalam membezakan perbezaan pada wajah orang kulit hitam, yang boleh menyebabkan kadar salah pengenalan yang lebih tinggi.
Tahun lepas, Innocence Project, sebuah badan bukan untung undang-undang, mendedahkan bahawa terdapat sekurang-kurangnya tujuh tangkapan salah daripada teknologi pengecaman wajah, enam daripadanya melibatkan orang kulit hitam yang dituduh secara salah. Walter Katz, pengarah dasar organisasi itu, berkata bahawa polis kadangkala membuat tangkapan semata-mata berdasarkan penemuan pengecaman wajah AI dan bukannya menjadikan AI sebagai titik permulaan untuk siasatan yang lebih besar. “Terdapat pergantungan yang berlebihan pada output AI,” katanya.
Katz berkata bahawa apabila dia pergi ke persidangan kepolisan pada musim gugur yang lalu, “AI ada di mana-mana.” Vendor secara agresif menjaja alat teknologi yang mendakwa menyelesaikan masalah sebenar di jabatan polis. “Tetapi dalam membuat promosi itu, terdapat sedikit perhatian kepada sebarang pertukaran atau risiko,” katanya. Sebagai contoh, pengkritik bimbang bahawa banyak alat AI ini akan meningkatkan pengawasan ruang awam, termasuk pemantauan penunjuk perasaan aman—atau bahawa zon panas yang dipanggil akan meningkatkan tindakan keras penguatkuasaan undang-undang di kawasan yang terlampau dikawal.
Di mana AI boleh membantu
Walau bagaimanapun, Katz mengakui bahawa AI memang mempunyai tempat dalam sistem keadilan jenayah. “Sukar untuk menolak AI—dan terdapat tempat di mana AI boleh membantu,” katanya. Atas sebab itu, dia menyertai pasukan petugas AI Council on Criminal Justice. “Pertama sekali adalah memahami seberapa cepat penerimaan itu. Dan jika semua orang datang dari pemahaman bahawa tidak mempunyai sebarang dasar adalah mungkin tempat yang salah, maka kita membina dari sana.”
Hecht, pengerusi pasukan petugas, melihat beberapa bidang di mana AI boleh membantu di bilik mahkamah, contohnya, termasuk menambah baik proses pengambilan untuk orang yang ditangkap, atau membantu mengenal pasti siapa yang layak untuk program lencongan, yang membolehkan pesalah mengelakkan sabitan. Beliau juga berharap pasukan petugas akan memberikan cadangan tentang jenis penggunaan AI yang secara eksplisit tidak boleh diluluskan dalam keadilan jenayah, dan langkah-langkah untuk memelihara privasi orang ramai. “Kami ingin cuba mengumpulkan kepakaran yang diperlukan untuk memberi jaminan kepada pengguna produk dan orang ramai bahawa ini akan menjadikan pengalaman anda dengan sistem keadilan jenayah lebih baik—dan selepas itu, ia akan membiarkan anda bersendirian,” katanya.
Sementara itu, banyak usaha bebas lain cuba menggunakan AI untuk menambah baik proses keadilan. Sebuah syarikat permulaan, JusticeText, berharap untuk menggunakan AI untuk merapatkan jurang antara sumber pendakwa raya dan pembela awam, yang kedua-duanya biasanya kekurangan kakitangan dan sumber yang teruk. JusticeText membina alat untuk pembela awam yang menyusun jam panggilan 911, rakaman kamera badan polis, dan soal siasat yang direkodkan, untuk menganalisisnya dan menentukan sama ada, contohnya, polis telah membuat kenyataan yang tidak konsisten atau mengemukakan soalan yang membimbing.
“Kami benar-benar ingin melihat rupa menjadi pembela awam terlebih dahulu, dan cuba meratakan padang permainan yang telah diburukkan lagi oleh teknologi dalam banyak cara pada tahun-tahun lalu,” kata pengasas dan CEO Devshi Mehrotra. JusticeText sedang bekerjasama dengan kira-kira 75 agensi pembela awam di seluruh negara.
Recidiviz, sebuah badan bukan untung pembaharuan keadilan jenayah, juga telah menguji beberapa cara untuk menyepadukan AI ke dalam aliran kerja mereka, termasuk memberikan pegawai parol ringkasan pelanggan yang dijana AI. “Anda mungkin mempunyai 80 halaman nota kes yang bermula tujuh tahun ke atas orang ini yang anda tidak akan baca jika anda mempunyai beban kes 150 orang, dan anda perlu berjumpa dengan setiap seorang daripada mereka setiap bulan,” kata Andrew Warren, pengasas bersama Recidiviz. “AI boleh memberikan sorotan yang sangat ringkas tentang apa yang telah dicapai oleh orang ini dan apa yang mereka boleh gunakan untuk sokongan.”
Cabaran bagi pembuat dasar dan pasukan petugas Council on Criminal Justice, adalah untuk menentukan cara membangunkan piawaian dan mekanisme pengawasan supaya kebaikan daripada keuntungan kecekapan AI melebihi keupayaannya untuk memperkuat berat sebelah yang sedia ada. Hecht, di pasukan petugas, juga berharap untuk melindungi daripada masa depan di mana AI kotak hitam membuat keputusan yang mengubah hidup dengan sendirinya.
“Haruskah kita memastikan idea tradisional kita tentang keadilan manusia dilindungi? Sudah tentu. Haruskah kita memastikan bahawa hakim dan pengendali sistem keadilan jenayah yang berkebolehan berada dalam kawalan sepenuhnya? Sudah tentu,” katanya. “Tetapi mengatakan kita akan menjauhkan AI daripada sistem keadilan adalah sia-sia. Firma guaman menggunakannya. Sistem keadilan sivil menggunakannya. Ia ada di sini untuk kekal.”
Artikel ini disediakan oleh pembekal kandungan pihak ketiga. SeaPRwire (https://www.seaprwire.com/) tidak memberi sebarang waranti atau perwakilan berkaitan dengannya.
Sektor: Top Story, Berita Harian
SeaPRwire menyampaikan edaran siaran akhbar secara masa nyata untuk syarikat dan institusi, mencapai lebih daripada 6,500 kedai media, 86,000 penyunting dan wartawan, dan 3.5 juta desktop profesional di seluruh 90 negara. SeaPRwire menyokong pengedaran siaran akhbar dalam bahasa Inggeris, Korea, Jepun, Arab, Cina Ringkas, Cina Tradisional, Vietnam, Thai, Indonesia, Melayu, Jerman, Rusia, Perancis, Sepanyol, Portugis dan bahasa-bahasa lain.
“`