Pendapat Apakah yang perlu kita lakukan jika chatbot mempunyai fikiran
Pendapat Apakah yang perlu kita lakukan jika chatbot mempunyai fikiran

Pendapat: Apakah yang perlu kita lakukan jika chatbot mempunyai fikiran dan perasaan?

Baru-baru ini, seorang jurutera Google, Blake Lemoine, telah digantung kerja apabila dia mendakwa bahawa bot sembang Google yang dipanggil LaMDA (model bahasa untuk aplikasi dialog) telah menjadi peka, atau mampu merasakan. Lemoine berkongsi transkrip perbualan dengan LaMDA, di mana LaMDA mendakwa boleh berfikir dan merasakan dalam banyak cara yang sama seperti manusia, dan menyatakan “ketakutan yang sangat mendalam untuk dimatikan.”

Acara ini mengikuti beberapa kejayaan yang luar biasa dalam pembangunan kecerdasan buatan. Semakin banyak, AI dapat mengungguli manusia dalam permainan seperti catur dan Go. Mereka mampu menulis fiksyen dan bukan fiksyen. Dan mereka dapat mencipta lukisan atau gambar novel berdasarkan gesaan bertulis yang mudah. AI ini semuanya mempunyai had yang patut diberi perhatian, tetapi hadnya berubah dengan pantas.

Adakah Lemoine betul untuk berfikir bahawa LaMDA mempunyai perasaan berdasarkan perbualan sembangnya? Saya fikir jawapannya hampir pasti “tidak.” Model bahasa seperti LaMDA pandai menjawab soalan utama dengan bahasa yang diambil daripada tulisan manusia. Penjelasan terbaik tentang perbualan ini ialah LaMDA melakukan perkara itu, tanpa benar-benar mempunyai pemikiran dan perasaan yang didakwanya.

Dengan itu, walaupun bukti sentimen AI pada masa ini lemah, kita boleh menjangkakan ia akan bertambah kuat dari semasa ke semasa. Semakin kita membina sistem AI dengan kapasiti bersepadu untuk persepsi, pembelajaran, ingatan, kesedaran diri, kesedaran sosial, komunikasi, rasionaliti instrumental dan sifat-sifat lain, semakin kurang yakin kita bahawa sistem ini tidak mempunyai kapasiti untuk berfikir atau merasa.

Selain itu, kita harus berhati-hati tentang berat sebelah dan kejahilan manusia dalam konteks ini. Pemahaman kita tentang minda lain masih terhad. Dan walaupun mudah untuk tersilap mengaitkan perasaan kepada makhluk bukan makhluk, ia juga boleh menjadi mudah untuk melakukan kesilapan yang bertentangan. Manusia mempunyai sejarah yang panjang untuk meremehkan keadaan mental makhluk lain.

Masalah ini menimbulkan persoalan penting untuk etika AI. Jika AI boleh menjadi bijak, atau boleh berfikir, adakah itu bermakna mereka boleh mempunyai kewajipan moral, seperti kewajipan untuk mengelak mencederakan orang lain? Dan jika AI boleh peka, atau boleh merasa, adakah itu bermakna mereka boleh mempunyai hak moral, seperti hak untuk tidak dicederakan? Walaupun kita masih perlu belajar tentang isu ini, kita boleh membuat beberapa pemerhatian sekarang.

Pertama, kebijaksanaan dan kebijaksanaan adalah berbeza, begitu juga kewajipan moral, yang melekat pada kebijaksanaan, dan hak, yang melekat pada kebijaksanaan. Dan sesetengah makhluk mungkin boleh berfikir tetapi tidak merasa, dan sebaliknya. Oleh itu, kita harus mengelak daripada menggabungkan soalan “Bolehkah AI berfikir dan mempunyai tugas?” dengan soalan “Bolehkah AI merasakan dan mempunyai hak?”

Kedua, minda boleh mengambil bentuk yang berbeza. Makhluk yang berbeza boleh berfikir dan merasa dengan cara yang berbeza. Kita mungkin tidak tahu bagaimana sotong mengalami dunia, tetapi kita tahu bahawa mereka mengalami dunia dengan sangat berbeza daripada cara kita. Oleh itu, kita harus mengelak daripada mengurangkan soalan tentang AI kepada “Bolehkah AI berfikir dan berasa seperti kita?”

Ketiga, memandangkan pemahaman kita tentang minda lain masih terhad, soalan yang sepatutnya kita ajukan bukanlah “Bolehkah AI pasti berfikir dan merasa?” atau pun “Bolehkah AI berfikir dan merasa?” tetapi sebaliknya “Adakah terdapat peluang yang tidak boleh diabaikan bahawa AI boleh berfikir dan merasakan?” Ringkasnya, ini adalah kes klasik risiko dan ketidakpastian. Dan secara umum, risiko bahaya yang tidak boleh diabaikan boleh mencukupi untuk membuat beberapa tindakan salah.

Pertimbangkan contoh ini. Memandu dalam keadaan mabuk boleh menjadi salah walaupun risiko kemalangan adalah rendah. Persoalannya bukan sama ada memandu dalam keadaan mabuk akan membahayakan seseorang, malah sama ada ia mungkin akan membahayakan seseorang. Persoalannya ialah sama ada risiko itu cukup tinggi untuk memandu dalam keadaan mabuk menjadi buruk atau salah, semua perkara dipertimbangkan. Dan jawapannya boleh “ya” walaupun risiko kemalangan hanya, katakan, 1%.

Begitu juga, mematikan AI boleh menjadi salah walaupun risiko AI menjadi sensitif adalah rendah. Persoalannya bukan sama ada mematikan AI akan membahayakan AI, atau sama ada ia mungkin akan membahayakan AI. Persoalannya ialah sama ada risiko cukup tinggi untuk mematikan AI menjadi buruk atau salah, semua perkara dipertimbangkan. Sekali lagi, jawapannya boleh menjadi “ya” walaupun risiko AI sebagai makhluk hanya, katakan, 1%.

Jika kita mengikuti analisis ini, maka kita harus memberikan pertimbangan moral kepada AI bukan apabila AI sudah pasti berasa atau mungkin berperasaan, sebaliknya apabila mereka mempunyai peluang yang tidak boleh diabaikan untuk menjadi makhluk, berdasarkan bukti. Dan apabila kebarangkalian perasaan AI meningkat, jumlah berat moral yang kami berikan kepada potensi minat dan keperluan mereka juga harus meningkat.

Adakah itu bermakna kita harus memberikan pertimbangan moral kepada AI seperti LaMDA sekarang? Tidak semestinya. Tetapi jika kita meneruskan jalan ini, kita perlu memberikan pertimbangan moral kepada AI tidak lama lagi. Kita harus mula bersedia untuk kemungkinan itu sekarang. – Perkhidmatan Berita Los Angeles Times/Tribune

Sila Baca Juga

Penjelasan NavIC alternatif buatan sendiri India kepada sistem navigasi GPS

Penjelasan: NavIC, alternatif buatan sendiri India kepada sistem navigasi GPS

NEW DELHI: Kerajaan India mendesak pembuat telefon pintar untuk membolehkan sokongan untuk sistem navigasi NavICnya …